L'amministratore delegato di Apple, Tim Cook, si è unito al coro di voci che avvertono che i dati stessi vengono nuovamente utilizzati come arma per le persone e le società - sostenendo che il commercio di dati digitali è esploso in un "complesso industriale di dati".
Cook non nominò gli elefanti adtech nella stanza: Google, Facebook e altri broker di dati di sfondo che traggono profitto da modelli di business ostili alla privacy. Ma il suo obiettivo era chiaro.
"Le nostre informazioni - dal quotidiano al profondamente personale - sono state armate contro di noi con efficienza militare", ha avvertito Cook. "Questi frammenti di dati, ognuno dei quali innocuo da solo, sono accuratamente assemblati, sintetizzati, scambiati e venduti.
"Portato all'estremo, questo processo crea un profilo digitale duraturo e consente alle aziende di conoscerti meglio di quanto tu possa conoscere te stesso. Il tuo profilo è un insieme di algoritmi che servono contenuti sempre più estremi, martellando le nostre innocue preferenze in danno. "
"Non dovremmo macchiare le conseguenze. Questa è sorveglianza ", ha aggiunto.
Cook ha tenuto il discorso alla quarantesima conferenza internazionale dei commissari per la protezione dei dati e la privacy (ICDPPC), che si terrà a Bruxelles quest'anno, proprio all'interno dell'emiciclo del Parlamento europeo.
"L'intelligenza artificiale è un settore su cui penso molto", ha detto a un pubblico di esperti internazionali di protezione dei dati e vincitori di polizze, tra cui l'inventore del World Wide Web stesso, Sir Tim Berners-Lee, un altro oratore principale dell'evento.
"Al suo centro questa tecnologia promette di imparare dalle persone individualmente a beneficio di tutti noi. Ma far progredire l'intelligenza artificiale raccogliendo enormi profili personali è pigrizia, non efficienza ", ha proseguito Cook.
"Perché l'intelligenza artificiale sia veramente intelligente deve rispettare i valori umani, inclusa la privacy. Se ci sbagliamo, i pericoli sono profondi. Possiamo ottenere sia una grande intelligenza artificiale che ottimi standard di privacy. Non è solo una possibilità, è una responsabilità. "
Questo senso di responsabilità è il motivo per cui Apple mette i valori umani al centro della sua ingegneria, ha affermato Cook.
Nel discorso, che abbiamo visto in anteprima ieri, ha anche presentato una visione positiva del "potenziale per il bene" della tecnologia - quando combinato con "buona politica e volontà politica".
"Dovremmo celebrare il lavoro di trasformazione delle istituzioni europee incaricato di attuare con successo il GDPR. Celebriamo anche i nuovi passi intrapresi, non solo qui in Europa ma in tutto il mondo, a Singapore, in Giappone, in Brasile, in Nuova Zelanda. In molte altre nazioni i regolatori stanno facendo domande difficili e stanno elaborando riforme efficaci.
"È tempo che il resto del mondo, incluso il mio paese d'origine, segua il tuo esempio".
Cook ha detto che Apple è "in pieno sostegno di una legge federale sulla privacy negli Stati Uniti" - rendendo la dichiarazione più chiara della società ancora di supporto per le robuste leggi sulla privacy interna, e guadagnandosi un applauso di delegati riuniti nel processo.
Cook ha chiesto una legge sulla privacy negli Stati Uniti per dare la priorità a quattro cose:
minimizzazione dei dati - "il diritto di ridurre al minimo i dati personali", dicendo che le aziende dovrebbero "sfidare se stessi" per de-identificare i dati dei clienti o non raccoglierli in primo luogo
trasparenza - "il diritto alla conoscenza", dicendo che gli utenti dovrebbero "sapere sempre quali dati vengono raccolti e per cosa vengono raccolti, dicendo che è l'unico modo per" autorizzare gli utenti a decidere quale collezione è legittima e cosa no ". "Qualsiasi cosa in meno è un peccato", ha aggiunto
il diritto di accesso - affermando che le aziende dovrebbero riconoscere che "i dati appartengono agli utenti" e che dovrebbe essere reso facile per gli utenti ottenere una copia, correggere e cancellare i propri dati personali
il diritto alla sicurezza - affermando che "la sicurezza è fondamentale per la fiducia e tutti gli altri diritti sulla privacy"
"Vediamo vividamente, dolorosamente, come la tecnologia può danneggiare, piuttosto che aiutare", ha continuato, sostenendo che le piattaforme possono "amplificare le nostre peggiori tendenze umane ... approfondire le divisioni, incitare alla violenza e persino minare il nostro senso comune o ciò che è vero o falso".
"Questa crisi è reale. Quelli di noi che credono nel potenziale della tecnologia per il bene non devono ridursi da questo momento ", ha aggiunto, dicendo che l'azienda spera di" lavorare con voi come partner "e che:" Le nostre missioni sono strettamente allineate ".
Ha anche fatto un passo indietro agli sforzi dell'industria tecnologica per sfuggire alle leggi sulla privacy - affermando che alcune aziende "appoggeranno la riforma in pubblico e poi la resistono e la minano a porte chiuse".
"Potrebbero dirti che le nostre aziende non potranno mai raggiungere il vero potenziale della tecnologia se venissero rafforzate le normative sulla privacy. Ma questa nozione non è solo sbagliata, è distruttiva - il potenziale della tecnologia è e deve sempre essere radicato nella fede che le persone hanno in esso. Nell'ottimismo e nella creatività che stimola il cuore degli individui. Nella sua promessa e capacità di rendere il mondo un posto migliore. "
"È ora di affrontare i fatti", ha aggiunto Cook. "Non raggiungeremo mai il vero potenziale della tecnologia senza la piena fiducia e la fiducia delle persone che lo usano".
L'apertura della conferenza prima che il CEO di Apple salisse sul palco, il supervisore europeo della protezione dei dati Giovanni Buttarelli ha sostenuto che la digitalizzazione sta guidando un nuovo spostamento generazionale nel rispetto della privacy - affermando che c'è un bisogno urgente per i regolatori e le società di concordare e stabilire " un'etica sostenibile per una società digitalizzata ".
"Il cosiddetto" paradosso della privacy "non è che le persone abbiano desideri contrastanti da nascondere e da esporre. Il paradosso è che non abbiamo ancora imparato come navigare le nuove possibilità e le vulnerabilità aperte dalla rapida digitalizzazione ", ha sostenuto Buttarelli.
"Per coltivare un'etica digitale sostenibile, abbiamo bisogno di guardare, oggettivamente, a come quelle tecnologie hanno colpito le persone in modi buoni e cattivi; Abbiamo bisogno di una comprensione critica dell'etica che informi le decisioni di aziende, governi e autorità di regolamentazione ogni volta che sviluppano e distribuiscono nuove tecnologie ".
L'addetto alla protezione dei dati dell'UE ha detto a un pubblico composto in gran parte da autorità di regolamentazione della protezione dei dati e vincitori politici che le leggi che si limitano a fissare uno standard minimo non sono sufficienti, compreso il GDPR dipinto di fresco dell'UE.
"Dobbiamo chiederci se la nostra bussola morale è stata sospesa nella spinta verso la scala e l'innovazione", ha affermato. "In questo punto di svolta per la nostra società digitale, è il momento di sviluppare un codice morale chiaro e sostenibile".
"Non abbiamo un consenso [etico] in Europa, e certamente non ne abbiamo uno a livello globale. Ma ne abbiamo urgente bisogno ", ha aggiunto.
"Non tutto ciò che è legalmente conforme e tecnicamente fattibile è moralmente sostenibile", ha continuato Buttarelli, sottolineando che "la privacy è stata troppo facilmente ridotta a uno slogan di marketing.
"Ma l'etica non può essere ridotta a uno slogan".
"Per noi autorità di protezione dei dati, credo che l'etica sia tra le nostre sfide strategiche più urgenti", ha aggiunto.
"Dobbiamo essere in grado di comprendere la tecnologia e di articolare un quadro etico coerente. Altrimenti come possiamo svolgere la nostra missione per salvaguardare i diritti umani nell'era digitale? "