g-docweb-display Portlet

Un deepfake può farti assolvere, un deepfake può farti condannare. Il caso Elon Musk - Intervento di Guido Scorza

Stampa Stampa Stampa
PDF Trasforma contenuto in PDF

Un deepfake può farti assolvere, un deepfake può farti condannare. Il caso Elon Musk
Si rischia sempre di più che un colpevole la faccia franca in tribunale sostenendo che dichiarazioni o immagini che lo inchiodano non siano autentiche, oppure che un innocente venga processato dal tribunale dei social per un video, foto o audio che, falsamente, lo rappresenti come l’autore di chissà quali nefandezze
Intervento di Guido Scorza, componente del Garante per la protezione dei dati personali
( HuffPost, 27 aprile 2023)

In un giudizio, in corso in California nei confronti di Tesla a seguito della morte di un ragazzo mentre era alla guida di uno dei modelli a guida autonoma della società di Elon Musk, l’uomo più ricco del mondo, è appena accaduto qualcosa che dovrebbe farci riflettere. Gli avvocati dei genitori della vittima hanno depositato in giudizio un video nel quale Elon Musk, due anni prima dell’incidente mortale oggetto del processo, dichiarava che il modello della Tesla coinvolto nell’incidente, poteva ormai considerarsi capace di guidare da solo, garantendo così più sicurezza alle persone a bordo. L’intento è evidentemente quello di giustificare l’affidamento fatto dalla vittima sulla capacità della propria autovettura di guidare in autonomia. Nella loro difesa, però, gli avvocati della Tesla hanno chiesto al giudice di non tenere conto del video in questione perché potrebbe non essere autentico ma trattarsi di un video generato artificialmente attraverso il c.d. deepfake. Insomma quello che nel video sembra Elon Musk potrebbe essere solo un suo “gemello artificiale” o, più probabilmente, essere Elon Musk per davvero ma non aver mai pronunciato le parole in questione che potrebbero essergli state messe in bocca da un algoritmo di intelligenza artificiale. In un caso e nell’altro il documento, secondo la difesa di Tesla, non potrebbe essere considerato attendibile anche perché secondo gli avvocati dell’uomo più ricco del mondo non si può pretendere che Musk ricordi tutto quello che dice e, d’altra parte, come molti personaggi famosi, è spesso oggetto di deepfake.

La reazione della Giudice non si è fatta attendere.

Da una parte ha immediatamente convocato Musk per una deposizione per chiedergli direttamente e sotto giuramento se nel video sia o meno lui e cosa abbia detto o non detto. Anche se Musk potrebbe decidere di non rispondere. E dall’altra ha dichiarato preoccupata che suggerire la possibilità di essere stato vittima di un deepfake potrebbe, da domani, rappresentare una straordinaria scappatoia per consentire a chiunque di sottrarsi alla responsabilità delle proprie affermazioni. E, purtroppo, ha ragione anche perché distinguere un video, un’immagine o una registrazione audio veri da quelli eventualmente falsificati a mezzo deepfake diventerà sempre più difficile e, comunque, le analisi necessarie a provare a smascherare il falso non saranno sempre – e, anzi, forse non saranno quasi mai – alla portata di giudici e avvocati nei tanti processi meno importanti e rilevanti rispetto a quello che si sta celebrando in California. Senza dire che, come ormai abbiamo scoperto da tempo, i deepfake non minacciano solo la tenuta e l’affidabilità dei processi che si celebrano in Tribunale ma, sempre più spesso, anche la già storicamente modesta attendibilità dei processi mediatici, il più delle volte di per sé ingiusti.

Insomma è sempre più elevato il rischio che un colpevole possa farla franca in tribunale sostenendo che dichiarazioni o immagini che lo inchioderebbero alle proprie responsabilità non siano autentiche e che un innocente possa essere processato dal ferocissimo tribunale dei social sulla base di un video, una foto o un audio che, falsamente, lo rappresenti come l’autore di chissà quali nefandezze. La verità è più fragile di sempre nella dimensione digitale e dell’intelligenza artificiale. Se non si corre presto ai ripari – difficile dire come – i rischi e le conseguenze diventeranno presto insostenibili perché non potremo più fidarci neppure di ciò che appare vero, si sarebbe detto ieri, oltre ogni ragionevole dubbio, perché palese, evidente, cristallino. La linea di confine tra il vero e il falso è, ormai, sottilissima e si assottiglierà sempre di più in maniera direttamente proporzionale al progresso delle tecniche di deepfake.