Intervista a Agostino Ghiglia - «Parlare con i chatbot della mia salute?...
Intervista a Agostino Ghiglia - «Parlare con i chatbot della mia salute? No, piuttosto vado dallo sciamano»
Intervista a Agostino Ghiglia - «Parlare con i chatbot della mia salute? No, piuttosto vado dallo sciamano»
Intervista ad Agostino Ghiglia, componente del Garante per la protezione dei dati personali
(di Antonio Cavaciuti, Libertà, 14 ottobre 2025)
Controllare giganti della rete come Meta, Google&Co non è facile. Ma al Garante della Privacy, l’autorità cioè che ha il compito di proteggere i dati personali degli italiani, almeno ci si prova. «Sono le società che fatturano di più al mondo: fanno impallidire sia Big Pharma che l’industria delle armi», dice Agostino Ghiglia, ex deputato, e ora uno dei quattro membri del collegio che appunto guida il Garante. «Questo - aggiunge Ghiglia - di per se non vuol dire niente, però…». Però è complicato. Lo era già prima e oggi che ai giganti del passato si sono aggiunti anche i nuovi giganti della intelligenza artificiale con la loro tecnologia nuova e potenzialmente rivoluzionaria le cose si sono fatte ancora più difficili. Un esempio: proprio il Garante, a fine 2024, ha multato l’intelligenza artificiale più famosa di tutte, ChatGpt: ammenda da 15 milioni di euro e obbligo di fare sei mesi di campagna di comunicazione su radio, giornali, tivù e internet per rendere gli utenti più consapevoli nell’uso della loro tecnologia. «Però - spiega Ghiglia - OpenAi (la società cui fa capo ChatGpt, ndr) ha impugnato il nostro provvedimento e ora aspettiamo le decisioni del giudice». Tutto fermo, quindi. Solo che il tempo, in questo caso, letteralmente vola: «Tre anni fa solo gli addetti al lavoro conoscevano queste piattaforme. Oggi, senza l’intelligenza artificiale, sembra che le persone non possano più vivere: ci devono scrivere la lettera al fidanzato o alla fidanzata, fare la ricerca scolastica o consultarla per la propria salute…»
Ecco, ma è saggio, è sicuro, condividere con queste macchine informazioni sulla nostra salute?
«Dipende da cosa intendiamo per sicuro. Non dimentichiamoci che queste piattaforme non sono dei confidenti, degli amici: sono delle società che guadagnano sui dati delle persone. E più noi entriamo in questo meccanismo - ChatGpt o altri chatbot (cioè altre forme di intelligenza artificiale generativa, ndr) - e più ci conosce, venendo a sapere tutto di noi: patologie, ansie, il nostro stato psicologico…».
É pericoloso?
«Beh, io temo qualunque cosa che non mi permetta più di avere segreti. Temo se la mia cartella clinica finisce in mano a qualcuno che non sia il mio medico di base. Temo se i miei dati particolari possono essere elaborati non tanto e non solo su base statistica, ma anche per profilare la mia persona. Perché in prospettiva futura, questi dati potrebbero anche essere usati contro di me, in mille modi diversi. I dati appunto possono essere categorizzati, profilati, usati e venduti. Non bisogna, infatti, dimenticarsi una cosa…».
Cosa?
«Questi chatbot hanno in genere una parte “pro”, a pagamento; e un’altra gratuita. Ma quando stiamo andando gratuitamente, in realtà stiamo pagando in dati: questi dati non li diamo soltanto alla piattaforma su cui stiamo lavorando, li diamo magari a decine, se non centinaia di aziende».
Ci sono persone che -mi spiegava uno psicologo che ho intervistato per questa inchiesta - si vergognano di avere un problema, magari una disturbo mentale, e si rivolgono alla intelligenza artificiale, proprio per evitare di andare da uno specialista in carne ed ossa. E in questo modo pensano di mantenere il segreto.
«Ma non mantengono il segreto o meglio non necessariamente: la profilazione, come dicevamo prima, accumula i dati o addirittura li vende: e lì bisognerebbe andare a vedere, per ogni azienda, cosa prevedono i termini di condizioni d’uso. Altra cosa importante: dal punto di vista psicologico e psichiatrico, cosa manca alla macchina? L’empatia, il contatto visivo: i rischi di allucinazione (si chiamano così tecnicamente gli errori delle IA, ndr) sono molto molto più pericolosi. La macchina non è in grado di cogliere le sfumature magari di una depressione profonda o anche solo di un attacco di panico o di uno stato di ansia. E quindi i dati di quel settore è particolarmente sconsigliato darli alla macchina».
Ma lei, Ghiglia, condividerebbe mai informazioni sulla sua salute con una intelligenza artificiale?
«Ma neanche se non ci fosse più un medico sulla terra! Piuttosto mi curo con uno sciamano!».
Quali altre informazioni non condividerebbe mai con un’intelligenza artificiale?
«I miei dati biometrici, sicuramente; ma neppure una mia foto, perché con la foto, stiamo dando la nostra faccia e magari la nostra posizione, facendo sapere o dove abitiamo o che non siamo in casa: e questo è un grosso rischio, no? Quindi io sono per dare il minimo indispensabile alla rete. Ormai si passa più di metà della vita vigile, cioè dello stato di veglia, sui social e sulle piattaforme. Io dico: dedicare almeno 5 minuti a leggere cosa c’è scritto nelle privacy policy - che vuol dire a chi vanno a finire i miei dati e per quanto vengono conservati - dovrebbe essere il primo comandamento. Nell’era digitale, i nostri dati vanno protetti come la nostra incolumità fisica».
Non c’è questa consapevolezza
«No, purtroppo no. Non ci entra abbastanza in testa».
A proposito di consapevolezza, alla fine dell’anno scorso, proprio voi del Garante avete multato ChatGpt.
«Noi in effetti fummo i primi, a marzo 2023, a limitare provvisoriamente il trattamento dei dati degli italiani, perché all’epoca loro violavano cinque articoli del regolamento europeo sulla protezione dei dati personali che, ricordo, ha lo stesso valore della nostra costituzione nazionale. E per quello li avevamo bloccati, seguiti poi dal Giappone, dal Canada, dall’Europa stessa che poi fece una task force. Loro poi si misero abbastanza in regola…».
Non è facile muoversi contro queste piattaforme: sono società quasi tutte non italiane, ci sono diverse giurisdizioni che sono interessate
«É molto laborioso, sì. E poi ci vuole tempo. E il problema dei nostri anni, della rivoluzione digitale, è proprio la velocità. Mentre noi siamo ancora fermi a quel provvedimento, ChatGpt è già cambiato tre volte. Ed è cambiato il mondo».
Condividi