Dimensione carattere: +
22 minuti di lettura (4468 parole)

La grande tecnologia non deve riformulare l'etica digitale nella sua immagine "Potrebbe essere legale - ma è giusto?"

Zuckerberg-EU-parliament
Il volto del fondatore di Facebook Mark Zuckerberg è apparso questa settimana sul Parlamento europeo, sia in senso letterale che figurativo, mentre i regolatori della privacy globali si sono riuniti a Bruxelles per interrogare gli impatti umani delle tecnologie che derivano il loro potere e la persuasività dai nostri dati.

L'omonimo social network è stato al centro di una tempesta di privacy quest'anno. E ogni nuova preoccupazione dei contenuti di Facebook - che si tratti di discriminazione o incitamento all'odio o insensibilità culturale - si aggiunge a un'inondazione dannosa.

L'argomento di discussione generale sulla privacy e sulla protezione dei dati personali, sia nelle sessioni pubbliche che a porte chiuse, era etico: come garantire che ingegneri, tecnologi e aziende operino con senso civico e costruiscono prodotti che servono il bene dell'umanità.

Quindi, in altre parole, come garantire che le informazioni delle persone vengano usate eticamente, non solo nel rispetto della legge. I diritti fondamentali sono visti sempre più dai regolatori europei come un piano non il soffitto. L'etica è necessaria per colmare le lacune in cui continuano a spingersi nuovi usi dei dati.

Come l'addetto alla protezione dei dati dell'UE, Giovanni Buttarelli, ha detto ai delegati all'inizio della parte pubblica della Conferenza internazionale dei garanti della protezione dei dati e della privacy: "Non tutto ciò che è legalmente conforme e tecnicamente fattibile è moralmente sostenibile".

Come se a un certo punto Zuckerberg avesse dato il via a un videomessaggio pre-registrato alla conferenza con altre scuse. Anche se questo era solo per non essere lì a dare un indirizzo di persona. Il che non è il tipo di rimpianti che molti nella stanza stanno cercando, mentre nuove violazioni dei dati e incursioni sulla privacy continuano ad essere impilate sullo scandalo dei dati di Cambridge Analytica su Facebook come una torta di strati sgradevole che non smette mai di essere cotta.

La prova di un radicale cambiamento di mentalità è ciò che i campioni di tecnologia civica stanno cercando: da Facebook in particolare e adtech in generale.

Ma nel discorso di Zuckerberg non c'era traccia di ciò. Piuttosto, ha mostrato il tipo di manovra magistrale che è stata associata ai politici sulla pista della campagna. È il patter naturale per alcuni CEO di grande tecnologia, in questi giorni, in un segno dei nostri tempi politici sociotecnici.

(Vedi anche: Facebook che ingaggia l'ex vicepresidente del Regno Unito, Nick Clegg, per espandere ulteriormente la propria banca dati dei contatti dei legislatori europei.)

E così il fondatore di Facebook ha colto l'argomento di discussione della conferenza sulla grande etica dei dati e ha cercato di tornare indietro di nuovo. Allontanarsi dal parlare di danni tangibili e di default della piattaforma dannosi - ovvero l'effettiva sostanza conversazionale della conferenza (dal parlare di come le app di appuntamenti influiscono su quanto il sesso abbia e con chi lo stiano facendo) ai nuovi e brillanti sistemi di identità biometrica che hanno riavviato i sistemi discriminatori di casta) - per spingere l'idea di una necessità di "trovare un equilibrio tra discorso, sicurezza, privacy e sicurezza".

Questo era Facebook che cercava di ridefinire l'idea dell'etica digitale - per renderlo così molto grande da poter abbracciare la sua gente - seguendo il modello di business finanziato dagli annunci come un bene pubblico sfocato, con una sorta di "oh vai avanti allora 'scrollando le spalle.

"Ogni giorno persone in tutto il mondo usano i nostri servizi per parlare delle cose in cui credono. Più di 80 milioni di piccole imprese utilizzano i nostri servizi, sostenendo milioni di posti di lavoro e creando molte opportunità", ha detto Zuckerberg, sostenendo un 'entrambe le parti 'visione dell'etica digitale. "Riteniamo di avere una responsabilità etica a sostegno anche di questi usi positivi".
Anzi, è andato oltre, dicendo che Facebook ritiene di avere un "obbligo etico di proteggere i buoni usi della tecnologia".

E da quella prospettiva egoistica quasi tutto diventa possibile - come se Facebook stesse sostenendo che la violazione della legge sulla protezione dei dati potrebbe essere davvero la cosa "etica" da fare. (Oppure, come potrebbero dire gli esistenzialisti: "Se dio è morto, allora tutto è permesso").

È un argomento che elude radicalmente alcune cose molto brutte, però. E rimugina sui problemi sistemici alla piattaforma pubblicitaria di Facebook.

Poco dopo, anche l'amministratore delegato di Google Sundar Pichai ha partecipato alla conferenza in forma di video, portando lo stesso messaggio.

"La conversazione sull'etica è importante. E siamo felici di farne parte ", ha esordito, prima di un momento cruciale nel referenziare la missione fondatrice di Google di" organizzare le informazioni del mondo - per tutti "(enfatizzare il suo), prima di" segwaying "- tramite" la conoscenza dà potere "- affermare che "una società con più informazioni è meglio di una con meno".

Avere accesso a più informazioni di provenienza sconosciuta e dubbia o addirittura dannosa è migliore dell'accesso ad alcune informazioni verificate? Google sembra pensarlo. 

SAN FRANCISCO, CA - 4 ottobre: ​​Pichai Sundararajan, noto come Sundar Pichai, CEO di Google Inc., parla durante un evento per introdurre il telefono Google Pixel e altri prodotti Google il 4 ottobre 2016 a San Francisco, in California. Google Pixel ha lo scopo di sfidare l'iPhone di Apple nella categoria di smartphone premium. (Foto di Ramin Talaie / Getty Images)

Il Pichai pre-registrato non doveva preoccuparsi di tutte le ellissi mentali che ribollivano nei pensieri degli esperti di privacy e diritti nella stanza.

"Oggi quella missione si applica ancora a tutto ciò che facciamo su Google", la sua immagine digitale è rimbalzata, senza menzionare ciò che Google sta pensando di fare in Cina. "È chiaro che la tecnologia può essere una forza positiva nelle nostre vite. Ha il potenziale per darci il tempo e estendere l'opportunità alle persone di tutto il mondo.

"Ma è altrettanto chiaro che dobbiamo essere responsabili nel modo in cui usiamo la tecnologia. Vogliamo fare scelte sane e costruire prodotti a beneficio della società, ecco perché all'inizio di quest'anno abbiamo lavorato con i nostri dipendenti per sviluppare una serie di principi AI che indicano chiaramente quali tipi di applicazioni tecnologiche cercheremo ".

Certo che suona bene. Eppure Pichai non ha fatto cenno allo staff che ha lasciato Google a causa di dubbi etici. Né i dipendenti sono ancora lì e continuano a protestare per le sue scelte "etiche".

Non è quasi come se il duopolio adtech di Internet stia cantando dallo stesso foglio di inno "annunci per il bene superiore che salta il cattivo"; il duopolio di adtech di Internet sta facendo esattamente questo.

La linea "non siamo perfetti e abbiamo molto da imparare", che proviene anche da entrambi gli amministratori delegati, sembra destinata principalmente a gestire le aspettative normative nei confronti della protezione dei dati, e in effetti sul più ampio fronte etico.

Non stanno promettendo di fare del male. Né per proteggere sempre i dati delle persone. Dicono letteralmente che non possono prometterlo. Ahia.

Nel frattempo, un altro messaggio FaceGoog comune - l'intento di introdurre "controlli utente più granulari" - significa semplicemente che stanno accumulando ancora più responsabilità sulle persone per verificare in modo proattivo (e continuare a controllare) che le loro informazioni non vengano brutalmente abusate.

Questo è un onere che nessuna compagnia può parlare in nessun altro modo. Perché la soluzione è che le loro piattaforme non accumulano i dati delle persone in primo luogo.

L'altro gigantesco elefante nella stanza è la grossa taglia della grande tecnologia; che è esso stesso che distorce il mercato e molto altro ancora.

Né Zuckerberg né Pichai hanno affrontato direttamente la nozione di piattaforme troppo potenti stesse causando danni strutturali alla società, come ad esempio erodendo le istituzioni civiche che sono essenziali per difendere le società libere e difendere lo stato di diritto.

Ovviamente è un argomento di conversazione scomodo per giganti della tecnologia se le istituzioni vitali e le norme sociali vengono indebolite a causa del vostro affarista spietato sui cyber-mari non regolamentati.

Una buona soluzione tecnica per evitare di rispondere a domande scomode è inviare un messaggio video al posto del tuo CEO. E / o alcuni servi. Il vicepresidente di Facebook e capo della privacy, Erin Egan, e l'SVP di Google per gli affari globali Kent Walker, sono stati debitamente inviati e hanno tenuto discorsi di persona.

Hanno anche avuto una manciata di domande del pubblico rivolte loro da un moderatore in scena. Quindi è toccato a Walker, non a Pichai, parlare al contraddittorio coinvolgimento di Google in Cina alla luce della sua affermazione fondativa di essere un sostenitore del libero flusso di informazioni.

"Crediamo assolutamente nella massima quantità di informazioni disponibili per le persone in tutto il mondo", ha detto Walker su questo argomento, dopo essere stato autorizzato a intonare la bontà di Google per quasi mezz'ora. "Abbiamo detto che stiamo esplorando la possibilità di modi di impegnarsi in Cina per vedere se ci sono modi per seguire quella missione pur rispettando le leggi in Cina.

"Questo è un progetto esplorativo - e non siamo in grado, a questo punto, di avere una risposta alla domanda. Ma continuiamo a lavorare ".

Egan, nel frattempo, ha battuto il suo trio di preoccupazioni per il pubblico - sulla mancanza di privacy di Facebook da parte di design / default; e in che modo l'azienda potrebbe mai affrontare i problemi etici senza cambiare drasticamente il suo modello di business - affermando che ha un nuovo team di privacy e utilizzo dei dati che si trova orizzontalmente all'interno dell'azienda e un responsabile della protezione dei dati (un ruolo di supervisione imposto dal GDPR dell'UE; in cui Facebook ha inserito il suo ex vice capo della privacy globale, Stephen Deadman, all'inizio di quest'anno).

Ha anche detto che la società continua a investire nell'intelligenza artificiale per scopi di moderazione dei contenuti. Quindi, sostanzialmente, più ci fidiamo di noi. E fidati della nostra tecnologia.

Ha anche risposto affermativamente alla domanda se Facebook "appoggerà inequivocabilmente" una forte legge federale sulla privacy negli Stati Uniti - con protezioni "equivalenti" a quelle del quadro europeo di protezione dei dati.

Ma ovviamente Zuckerberg ha detto la stessa cosa in precedenza - mentre contemporaneamente promuoveva standard di privacy più deboli a livello nazionale. Allora, chi ora vuole davvero prendere in parola Facebook su questo? o effettivamente su qualsiasi cosa di sostanza umana. Non il Parlamento europeo, per esempio. I deputati che siedono nell'altro edificio del Parlamento, a Strasburgo, questa settimana hanno adottato una risoluzione che chiede a Facebook di accettare un audit esterno da parte di organismi di supervisione regionali. Naturalmente, Facebook preferisce eseguire la propria revisione. E in una dichiarazione di risposta la società afferma che "sta lavorando incessantemente per garantire la trasparenza, la sicurezza e la sicurezza" delle persone che usano il suo servizio (quindi sfortuna se sei uno di quei non utenti che tiene traccia anche di questo). Il che è un modo molto prolisso per dire "no, non lasceremo volontariamente gli ispettori". Il problema di Facebook è che la fiducia, una volta bruciata, richiede anni e montagne di sforzi da restaurare. Questo è il capovolgere il lato 'muovi velocemente e rompi le cose'. (In effetti, uno dei pannelli della conferenza era intitolato "Passa velocemente e aggiusta le cose".) È anche l'eredità difficile da spostare di un crollo imperdonabilmente cieco di un decennio per la crescita, a prescindere dai costi della società. il tentativo di Zuckerberg di dipingere un ritratto di etica digitale nell'immagine della sua società farà molto per ripristinare la fiducia in Facebook. Non finché la piattaforma conserverà il potere di causare danni su larga scala. È stato lasciato a tutti gli altri alla conferenza per discutere svuotamento delle istituzioni democratiche, delle norme sociali, delle interazioni umane e così via - come conseguenza del fatto che i dati (e il capitale di mercato) sono concentrati nelle mani dei ridicolmente potenti pochi. "Oggi affrontiamo la più grave minaccia per la nostra democrazia, per i nostri singoli la libertà in Europa dopo la guerra e gli Stati Uniti forse dopo la guerra civile ", ha detto Barry Lynn, ex giornalista e senior fellow del think tank sostenuto dalla Google per la New America Foundation a Washington, dove ha diretto il programma Open Markets - fino a quando non è stato chiuso dopo aver scritto criticamente su, ehm, Google. "Questa minaccia è il consolidamento del potere - principalmente da Google, Facebook e Amazon - su come ci parliamo, su come facciamo affari gli uni con gli altri ". Nel frattempo l'architetto originale del World Wide Web, Tim Berners-Lee, che ha messo in guardia contro l'impatto devastante della piattaforma elettrica da anni sta lavorando per cercare di decentralizzare gli accumulatori di dati della rete attraverso nuove tecnologie inteso a fornire agli utenti un'agenzia più ampia sui loro dati. Sul fronte dei danni democratici, Lynn ha sottolineato come i media siano bloccati da un duopolio adtech che risucchia ogni anno centinaia di miliardi di dollari dal mercato - affittando ciò che ha soprannominato loro "Macchine di manipolazione". Non vendono solo l'accesso a questi strumenti di targeting degli annunci agli inserzionisti principali - per vendere i soliti prodotti, come sapone e pannolini - sono anche, ha sottolineato, prendendo dollari da "autocrati e sarebbero autocrati e altri disertori sociali per diffondere propaganda e notizie false a una varietà di fini, nessuno di loro buoni". Il potere malsano del mercato delle piattaforme è il risultato di un furto di attenzione della gente, sostenne Lynn. "Non possiamo avere la democrazia se non abbiamo una stampa libera e solidamente finanziata", ha avvertito. La sua soluzione alla forza deformante della società di potere piattaforma? Non una tecnologia di decentralizzazione nuova, ma qualcosa di molto più antico: ristrutturazione del mercato attraverso il diritto della concorrenza. "Il problema fondamentale è come strutturiamo o come non siamo riusciti a strutturare i mercati nell'ultima generazione. Come abbiamo concesso in licenza o in mancanza di licenza le società di monopolio a comportarsi. "In questo caso ciò che vediamo qui è questa grande massa di dati. Il problema è la combinazione di questa grande massa di dati con il potere di monopolio sotto forma di controllo su percorsi essenziali verso il mercato combinati con una licenza per discriminare i prezzi e i termini di servizio. Questo è il problema. "" Il risultato è centralizzare ", ha continuato. "Scegliere e scegliere vincitori e vinti. In altre parole, il potere di premiare coloro che ascoltano la volontà del padrone e di punire coloro che sfidano o mettono in dubbio il maestro - nelle mani di Google, Facebook e Amazon ... Questo sta distruggendo lo stato di diritto nella nostra società e sta sostituendo lo stato di diritto con la regola del potere. "Per un esempio di un'entità che viene attualmente punita dalla morsa di Facebook sulla sfera del social digitale, non devi cercare oltre Snapchat.Inoltre sul palco in prima persona: il CEO di Apple Tim Cook, che non ha T mince le sue parole - attaccando quello che ha definito un "complesso industriale di dati" che ha detto "armando" i dati personali delle persone contro di loro per profitto privato. L'adtech modeus operandi riassume "sorveglianza", ha affermato Cook.

Cook ha definito questa "crisi", dipingendo un quadro di tecnologie applicate in un vuoto privo di etica per "magnificare le nostre peggiori tendenze umane ... approfondire le divisioni, incitare alla violenza e persino minare il nostro senso condiviso di ciò che è vero e ciò che è falso" - "sfruttando la fiducia degli utenti".

"Questa crisi è reale ... E quelli di noi che credono nel potenziale della tecnologia per il bene non devono ridursi da questo momento", ha avvertito, dicendo ai regolatori riuniti che Apple è allineata con la loro missione civica.

Ovviamente, la posizione di Cook si allinea anche al modello aziendale dominato dall'hardware di Apple, in cui la società guadagna la maggior parte del suo denaro vendendo dispositivi a prezzo elevato e con crittografia robusta, piuttosto che monopolizzare l'attenzione della gente per vendere i propri occhi agli inserzionisti.

Il crescente allarme pubblico e politico su come le grandi piattaforme di dati alimentano la dipendenza e sfruttano la fiducia e le informazioni delle persone - e l'idea che una struttura globale di non solo leggi ma etica digitale potrebbe essere necessaria per controllare questa roba - si integra perfettamente con la traccia alternativa che Apple ha battuto per anni.

Quindi per Cupertino è facile sostenere che l'approccio "raccogli tutto" delle piattaforme affamate di dati è sia un pensiero pigro che un'ingegneria irresponsabile, come ha fatto Cook questa settimana.

"Perché l'intelligenza artificiale sia veramente intelligente deve rispettare i valori umani, compresa la privacy", ha affermato. "Se ci sbagliamo, i pericoli sono profondi. Possiamo ottenere sia una grande intelligenza artificiale che ottimi standard di privacy. Non è solo una possibilità, è una responsabilità. "

Eppure Apple non è solo un'azienda di hardware. Negli ultimi anni l'azienda ha ampliato e ampliato il proprio business di servizi. Si coinvolge persino in (un certo grado di) pubblicità digitale. E fa affari in Cina.

Dopo tutto, è ancora un business for-profit - non un regolatore dei diritti umani. Quindi, non dovremmo guardare a Apple per specificare un quadro etico digitale anche per noi.

Nessuna entità che crei profitto dovrebbe essere usata come modello per dove dovrebbe trovarsi la linea etica.

La Apple stabilisce uno standard molto più elevato rispetto ad altri giganti della tecnologia, certamente, anche se la sua presa sul mercato è molto più parziale perché non fornisce le sue cose gratuitamente. Ma non è perfetto in materia di privacy.

Un esempio sconveniente per Apple è che ci vuole denaro da Google per rendere il motore di ricerca dell'azienda il predefinito per gli utenti iOS - anche se offre agli utenti iOS una scelta di alternative (se cercano di cambiare) che include il motore di ricerca pro-privacy DuckDuckGo .

DDG è un vero pesciolino contro Google, e Apple costruisce prodotti per il consumatore mainstream, quindi supporta la privacy mettendo un motore di ricerca di nicchia accanto a un behemoth come Google - come una delle sole quattro scelte che offre.

Ma le impostazioni predefinite sono estremamente potenti. Pertanto, la ricerca di Google come impostazione predefinita di iOS significa che la maggior parte degli utenti mobili di Apple avrà le sue query inserite direttamente nel database di sorveglianza di Google, anche se Apple lavora sodo per mantenere i propri server lontani dai dati degli utenti non raccogliendo i propri contenuti.

C'è una contraddizione lì. Quindi c'è un rischio per Apple di amplificare la sua retorica contro un "complesso industriale di dati" - e rendere la sua preferenza naturale per la privacy sembrare un principio di convinzione - perché invita le persone a comporre lenti critiche e indicare dove è la sua difesa i dati personali contro la manipolazione e lo sfruttamento non sono all'altezza della propria retorica.

Una cosa è chiara: nell'attuale ecosistema basato sui dati tutti i giocatori sono in conflitto e compromessi.

Sebbene solo una manciata di giganti della tecnologia abbia costruito imperi di tracciamento incredibilmente vasti attraverso lo sfruttamento sistematico dei dati di altre persone.

E mentre l'apparato del loro potere viene scoperto, questi giganti di adtech che fanno l'attenzione stanno facendo una stupida sfilata di carte sulla miriade di modi in cui le loro piattaforme colpiscono persone e società - offrendo promesse sottili per "fare meglio la prossima volta - quando" meglio 'non è nemmeno vicino ad essere abbastanza.

Invito all'azione collettiva
Tecnologie sempre più potenti per l'estrazione dei dati devono essere sensibili ai diritti umani e agli impatti umani, questo è molto chiaro. Né è sufficiente essere reattivi ai problemi dopo o anche nel momento in cui si presentano. Nessun ingegnere o progettista di sistemi dovrebbe ritenere che sia il loro lavoro manipolare e ingannare i loro simili.

I modelli scuri dovrebbero essere riproposti in una guida di cosa non fare e come non effettuare transazioni online. (Se vuoi una dichiarazione di intenti per aver pensato a questo, è davvero semplice: non fare il coglione.)

Le tecnologie di Internet sociotecniche devono sempre essere progettate pensando alle persone e alle società - un punto chiave che è stato martellato a casa in una nota chiave di Berners-Lee, l'inventore del World Wide Web, e il tecnico che sta cercando di sfondare le forze corporative che occupano Internet tramite il decentramento.

"Mentre stiamo progettando il sistema, stiamo progettando la società", ha detto alla conferenza. "Regole etiche che scegliamo di mettere in quel progetto [società di impatto] ... Nulla è evidente. Tutto deve essere messo là fuori come qualcosa che pensiamo che saremo una buona idea come componente della nostra società ".

Il penny sembra essere in calo per i cani da guardia della privacy in Europa. L'idea che valutare l'equità - non solo la conformità legale - deve essere una componente chiave del loro modo di pensare, di andare avanti e quindi della direzione del viaggio normativo.

I cani da guardia come l'ICO del Regno Unito - che ha appena multato Facebook il massimo risarcimento possibile per lo scandalo di Cambridge Analytica - lo hanno detto questa settimana. "Devi fare i compiti come azienda per pensare all'equità", ha detto Elizabeth Denham, alla domanda "chi decide cosa è giusto" in un contesto di etica dei dati. "Alla fine della giornata, se lavori, fornisci servizi in Europa, allora il regolatore avrà qualcosa da dire sull'equità - cosa che abbiamo in alcuni casi".

"In questo momento, stiamo lavorando con alcuni accademici di Oxford sulla trasparenza e sul processo decisionale algoritmico. Stiamo anche lavorando al nostro strumento come regolatore su come verificheremo algoritmi ", ha aggiunto. "Penso che in Europa stiamo guidando la strada - e mi rendo conto che non è il requisito legale nel resto del mondo, ma credo che sempre più aziende guarderanno agli elevati standard attualmente in vigore con il GDPR .

"La risposta alla domanda è 'è giusto?' Può essere legale - ma è giusto?"

Quindi la versione breve è che i responsabili del trattamento dei dati devono prepararsi a consultare ampiamente e ad esaminare attentamente le loro coscienze.

L'aumento dell'automazione e dell'IA rende le scelte di progettazione etica ancor più imperative, poiché le tecnologie diventano sempre più complesse e intrecciate, grazie alle enormi quantità di dati acquisiti, elaborati e utilizzati per modellare ogni sorta di sfaccettature e funzioni umane.

La sessione chiusa della conferenza ha prodotto una dichiarazione su etica e dati nell'intelligenza artificiale - stabilendo una lista di principi guida che fungono da "valori fondamentali per preservare i diritti umani" nell'era dell'IA in via di sviluppo - che includeva concetti come l'equità e il disegno responsabile.

Pochi sostengono che una potente tecnologia basata sull'intelligenza artificiale come il riconoscimento facciale non sia intrinsecamente in tensione con un diritto umano fondamentale come la privacy.

Né che tecnologie così potenti non corrono il rischio di essere maltrattate e abusate per discriminare e / o sopprimere i diritti su scala vasta e terrificante. (Vedi, per esempio, la Cina spinge per installare un sistema di credito sociale.)

I sistemi di identificazione biometrica potrebbero iniziare con affermazioni delle migliori intenzioni - solo per spostare la funzione e l'impatto in seguito. I pericoli per i diritti umani della funzione insinuarsi su questo fronte sono davvero molto reali. E sono già stati sentiti in posti come l'India - dove il sistema di identificazione biometrica di Aadhaar del paese è stato accusato di aver riavviato pregiudizi antichi promuovendo un sistema di caste digitali, come anche la conferenza ha ascoltato.

Il consenso dell'evento è che non solo è possibile, ma vitale, ingegnare l'etica nella progettazione del sistema fin dall'inizio ogni volta che si fanno cose con i dati di altre persone. E bisogna trovare le rotte per il mercato che non richiedono di dispensare una bussola morale per arrivarci.

La nozione di piattaforme per l'elaborazione dei dati che diventano "fiduciari" delle informazioni - vale a dire avere un dovere legale di diligenza nei confronti dei loro utenti, come fa un medico o un avvocato - è stata ripetuta più volte durante le discussioni pubbliche. Sebbene un tale passo richiederebbe probabilmente più legislazione, non solo un'autoanalisi sufficientemente rigorosa.

Nel frattempo, la società civile deve fare i conti e cimentarsi in modo proattivo con tecnologie come l'intelligenza artificiale, in modo che le persone e le società possano giungere a un accordo collettivo su un quadro etico digitale. Questo è un lavoro vitale per difendere le cose che contano per le comunità in modo che le piattaforme antropogeniche cui fa riferimento Berners-Lee siano modellate dai valori umani collettivi, non viceversa.

È anche essenziale che il dibattito pubblico sull'etica digitale non venga dirottato dall'interesse personale dell'azienda.

I giganti della tecnologia non sono solo intrinsecamente conflittuali sull'argomento, ma - a tutti i livelli - mancano della diversità interna per offrire una prospettiva sufficientemente ampia.

Le persone e la società civile devono insegnarle.

Un contributo fondamentale alla chiusura è arrivato da Isabelle Falque-Pierrotin, controllore dei dati francesi, che ha riassunto le discussioni che si sono svolte a porte chiuse mentre la comunità dei commissari globali per la protezione dei dati si è riunita per organizzare i prossimi passi.

Ha spiegato che i membri hanno adottato una roadmap per il futuro della conferenza per evolversi oltre un mero negozio di discussione e assumere una struttura di governance più visibile e aperta - per consentirgli di essere un veicolo per un processo decisionale collettivo e internazionale su standard etici, e così recita e adotta posizioni e principi comuni che possono spingere la tecnologia in una direzione umana.

Il documento di dichiarazione iniziale su etica e intelligenza artificiale è destinato ad essere solo l'inizio, ha detto, avvertendo che "se non possiamo agire non saremo in grado di controllare collettivamente il nostro futuro", e dichiarando che l'etica non è più un'opzione, è un obbligo ".

Ha anche detto che è essenziale che i regolatori si mettano in contatto con il programma e applichino le attuali leggi sulla privacy - per "aprire la strada all'etica digitale" - riecheggiando le chiamate di molti oratori all'evento per i regolatori per andare avanti con il lavoro di applicazione.

Questo è un lavoro fondamentale per difendere valori e diritti contro la diffusione del digitale qui e ora.

"Senza etica, senza un'adeguata applicazione dei nostri valori e regole, i nostri modelli sociali sono a rischio", ha avvertito Falque-Pierrotin. "Dobbiamo agire ... perché se falliamo, non ci saranno vincitori. Non le persone, né le aziende. E certamente non i diritti umani e la democrazia ".

Se la conferenza ha avuto un breve messaggio acuto, è stato questo: la società deve svegliarsi con la tecnologia - e in fretta.

"Abbiamo molto lavoro da fare e molte discussioni - oltre i confini di individui, aziende e governi", ha concordato Berners-Lee. "Ma lavoro molto importante.

"Dobbiamo prendere impegni dalle aziende per rendere le loro piattaforme costruttive e dobbiamo assumere impegni da parte dei governi per guardare ogni volta che vedono che una nuova tecnologia consente alle persone di essere sfruttate, consente a una nuova forma di crimine di farcela produrre nuove forme di legge. E per assicurarci che le politiche che fanno siano pensate in relazione ad ogni nuova tecnologia man mano che escono. "

Questo lavoro è anche un'opportunità per la società civile per definire e riaffermare ciò che è importante. Quindi non si tratta solo di attenuare i rischi.

Ma, ugualmente, non fare il lavoro è impensabile - perché non si può rimettere il genio dell'IA nella bottiglia.

loading...
×
Stay Informed

When you subscribe to the blog, we will send you an e-mail when there are new updates on the site so you wouldn't miss them.

Elseworlds: Supergirl e Batwoman per la prima volt...
Snapchat a corto di soldi? Netflix? Snap potrebbe ...
 

By accepting you will be accessing a service provided by a third-party external to http://imperoweb.it/

loading...

Sections

Prodotti

Partner

Consigliati

Azienda

Seguici Sui Social

X

Impero Web Copyright Abilitato

Non è ammessa nessuna copia i contenuti sono protetti da diritti d'autore.