1. Home
  2. »
  3. Atti & Documenti
  4. »
  5. ENISA, Good Practices for Supply…

Privacy e Intelligenza Artificiale: “I dati vanno protetti come la nostra incolumità fisica”

Sorvegliare colossi digitali come Meta, Google e OpenAI è un impresa ardua. Con l'ascesa dell'intelligenza artificiale generativa, il controllo su di loro diventa ancora più difficile e delicato
In primo piano una box che contiene il logo cips legal e il titolo "Privacy e Intelligenza Artificiale: “I dati vanno protetti come la nostra incolumità fisica”"

Privacy e Intelligenza Artificiale: “I dati vanno protetti come la nostra incolumità fisica”

Controllare i giganti del web non è mai stato semplice. Meta, Google, OpenAI, nomi che dominano la scena globale e che, come ricorda Agostino Ghiglia, membro del Collegio del Garante per la protezione dei dati personali, “fatturano più dell’industria farmaceutica e di quella delle armi messe insieme”.

Il caso ChatGPT: una multa e una riflessione collettiva

Alla fine del 2024, il Garante per la Privacy ha inflitto una sanzione da 15 milioni di euro a OpenAI, la società che gestisce ChatGPT.
Oltre alla multa, è stata imposta una campagna informativa di sei mesi su radio, giornali, tv e internet per aumentare la consapevolezza degli utenti nell’uso dell’IA.
“OpenAI ha impugnato il nostro provvedimento, spiega Ghiglia, e ora attendiamo la decisione del giudice”.
Nel frattempo, il mondo tecnologico continua a correre: “Tre anni fa solo gli addetti ai lavori conoscevano queste piattaforme. Oggi sembra che senza intelligenza artificiale non si possa più vivere: ci scriviamo le lettere d’amore, facciamo ricerche scolastiche e perfino chiediamo consigli sulla salute”.

Intelligenza artificiale e salute: un confidente che non lo è

Ma quanto è sicuro affidare alla macchina informazioni così delicate come quelle sulla nostra salute?
Ghiglia invita alla prudenza: “Queste piattaforme non sono amici o confidenti. Sono società che guadagnano sui dati delle persone. Più interagiamo, più ci conoscono: scoprono patologie, ansie, stati psicologici… e tutto questo può essere usato per profilare la nostra identità”.

Il rischio, secondo Ghiglia, non è solo teorico: “Temo qualunque cosa che mi impedisca di avere segreti. Se la mia cartella clinica finisse in mani sbagliate, i miei dati potrebbero essere usati contro di me in mille modi diversi”.

Il costo nascosto della gratuità

Un punto cruciale riguarda la falsa percezione della “gratuità” dei servizi digitali.
“I chatbot hanno spesso una versione gratuita e una a pagamento.
Ma quando li usiamo gratis, in realtà stiamo pagando con i nostri dati, spiega Ghiglia, che non finiscono solo alla piattaforma, ma a decine, se non centinaia, di aziende”.

Una dinamica che diventa ancora più delicata se si pensa all’uso dell’IA in ambito psicologico.
“C’è chi si vergogna di avere un disturbo mentale e si rivolge alla macchina per cercare aiuto. Ma la macchina non ha empatia, non capisce le sfumature di una depressione o di un attacco di panico.
E i dati che raccoglie potrebbero non restare segreti”.

 

“Meglio uno sciamano che un chatbot”

Alla domanda se condividerebbe mai informazioni sulla sua salute con un’intelligenza artificiale, Ghiglia risponde senza esitazioni:
“Neanche se non ci fosse più un medico sulla terra! Piuttosto mi curo con uno sciamano”.

La stessa cautela vale per altri tipi di dati:
“Non darei mai i miei dati biometrici, né una mia foto. Con una foto, spesso, si rivela anche la posizione. Basta un selfie per dire a chiunque dove abiti o che non sei in casa. È un rischio enorme”.

Leggere le privacy policy: il nuovo primo comandamento digitale

Ghiglia invita tutti a un gesto semplice ma fondamentale: leggere le informative sulla privacy.
“Passiamo più della metà della nostra vita vigile online. Dedichiamo almeno cinque minuti a capire a chi finiscono i nostri dati e per quanto tempo vengono conservati.
Nell’era digitale, i nostri dati vanno protetti come la nostra incolumità fisica”.

Una consapevolezza ancora da costruire

Eppure, ammette, “questa consapevolezza ancora non c’è. Non ci entra abbastanza in testa”.
Il Garante, nel frattempo, continua la sua attività di vigilanza. Già nel marzo 2023, l’Italia fu il primo Paese a limitare temporaneamente ChatGPT per violazioni del Regolamento europeo sulla protezione dei dati (GDPR), aprendo la strada ad altri interventi internazionali.
“È un lavoro complesso e lento, conclude Ghiglia, perché la velocità è il vero problema della rivoluzione digitale.
Mentre noi valutiamo un provvedimento, ChatGPT è già cambiato tre volte. E con lui, il mondo intero”.

CIPS LEGAL

Accesso illimitato a tutti i contenuti per un anno!

Con la premium membership annuale hai diritto alla consultazione di tutti gli articoli, know-how e download diretto di tutti i file presenti all’interno di Cips Legal.

NIS2 / ISO 27001

SECURITY/PCI DSS

DATA PROTECTION

DIGITAL FORENSICS

BANDI