g-docweb-display Portlet

Intelligenza artificiale, dal terremoto ai vertici traspare una questione di sostenibilità etico-giuridica - Intervento di Guido Scorza

Stampa Stampa Stampa
PDF Trasforma contenuto in PDF


Intelligenza artificiale, dal terremoto ai vertici traspare una questione di sostenibilità etico-giuridica
Legittimo tirare una sottile linea rossa tra la lettera aperta con cui Ed Newton-Red ha lasciato StableAI, il licenziamento di Sam Altman da OpenAI e il conseguente addio di Greg Brockman. Forse si sta correndo un po’ troppo
Intervento di Guido Scorza, componente del Garante per la protezione dei dati personali
(HuffPost, 20 novembre 2023)

Nei giorni scorsi Ed Newton-Rex una delle figure di maggior spicco nel mondo dell’intelligenza artificiale generativa ha lasciato, con una bella lettera aperta, la guida del settore musicale di StableAI mettendo nero su bianco di non ritenere, a differenza dei suoi ormai ex colleghi ai vertici della società, che pescare a strascico altrui opere musicali per insegnare agli algoritmi a generare nuove opere musicali capaci di far concorrenza alle prime sui mercati globali possa definirsi “fair use”, un utilizzo corretto – e non concorrenziale – secondo la legge americana sul diritto d’autore.

Nei giorni scorsi, Sam Altman, leggendario fondatore e amministratore delegato di OpenAI – la società leader sul mercato dell’intelligenza artificiale generativa e alla guida, tra l’altro, del popolarissimo ChatGPT - è stato licenziato in tronco in quanto non essendo stato sufficientemente trasparente avrebbe perso la fiducia degli azionisti. Una manciata di ore dopo, Greg Brockman, co-fondatore di OpenAI, nata proprio nel suo appartamento, ha annunciato, via Twitter – ora X – di aver deciso di lasciare la società a seguito del licenziamento di Altman.

Unire i puntini e creare collegamenti tra episodi non necessariamente tutti correlati è sempre rischioso e, anzi, è proprio una delle ragioni di maggior preoccupazione attorno alle decisioni algoritmiche che, talvolta, sono basate su correlazioni inesatte, ma il dubbio che ci sia una sottile linea rossa che unisce questa serie ravvicinata di eventi è almeno legittimo. E se così fosse non servirebbe tanta fantasia per ricercarla nella difficoltà di progettare, sviluppare, gestire e distribuire servizi basati sull’intelligenza artificiale rispettando regole ed etica.

La circostanza è in chiaro nella lettera aperta con cui Ed Newton-Red ha lasciato la sua StableAI e, nonostante la vaghezza e genericità del comunicato stampa di OpenAI sul licenziamento di Altman, sembra facile da leggere in controluce dietro la decisione di silurare uno dei volti più noti di una delle società leader del settore. E se questa fosse la ragione del siluramento di Altman, sarebbe anche quella alla base dell’addio di Blockman, addio dichiaratamente collegato all’uscita di scena del CEO.

Se così stessero le cose, forse, sarebbe il momento giusto per prendere atto del fatto che a proposito delle cose dell’intelligenza artificiale si sta correndo un po’ troppo e prestando meno attenzione di quanto sarebbe necessario alla sostenibilità dell’impatto dell’intelligenza artificiale sulla società.

Se neppure ai vertici delle società protagoniste della corsa degli algoritmi c’è unanimità di vedute a proposito di quello che è lecito e quello che non lo è, a proposito di quello che è etico e corretto e di quello che non lo è, se, effettivamente – ma, naturalmente, nel caso di Altman e OpenAI allo stato si tratta solo di un’ipotesi – per guidare al successo commerciale una società leader dell’AI non si riesce a esser trasparenti quanto si dovrebbe con gli azionisti, forse, allora, dovremmo davvero riconoscere che stiamo rischiando di trasformare il mercato in un grande laboratorio nel quale le persone rischiano di essere trattate da cavie e di subire sacrifici difficilmente sostenibili in termini di diritti e libertà.

In tutto il mondo regolatori e decisori pubblici sono all’inseguimento degli algoritmi ma la corsa, come sempre, tra innovazione tecnologica e regolamentazione, è impari e servirà ancora tempo perché si arrivi alla determinazione al funzionamento di un quadro regolamentare stabile, efficace e utile alla causa.

Fermare tutto, naturalmente, non si può, non sarebbe utile e, soprattutto, non significherebbe neppure fare davvero l’interesse dell’umanità perché non si può dubitare delle straordinarie opportunità che l’innovazione, anche nel settore dell’intelligenza artificiale, ci offrirà ma, al tempo stesso, non si può neppure accettare il rischio che in nome di queste opportunità la tecnocrazia abbia la meglio sulla democrazia, sospendendo o, addirittura, cancellando diritti e libertà di miliardi di persone.

Difficile trovare soluzioni utili e bilanciate ma, forse, bisognerebbe guardare nella direzione dell’approvazione di regole urgenti e temporanee, auspicabilmente sovranazionali, che siano minime per davvero, non zavorrino più di quanto strettamente necessario l’innovazione ma, al tempo stesso, garantiscano più trasparenza e impongano taluni limiti invalicabili in attesa della definizione di un quadro regolamentare più stabile.

Insomma, si potrebbe pensare di mettere l’intelligenza artificiale dentro un enorme sand box regolamentare super vigilata, scongiurare il rischio di sperimentazioni massive e occulte, incontrollate e incontrollabili, considerandola una sorvegliata speciale preziosa e il cui sviluppo va promosso e tutelato senza, però, perdere mai di vista che le persone, i loro diritti e le loro libertà vanno tutelati almeno tanto quanto le ragioni e gli interessi dell’impresa e del mercato. Un regime speciale da approvare in fretta e da tenere in vita per un periodo limitato di tempo.

Scheda

Doc-Web
9953247
Data
20/11/23

Argomenti


Tipologie

Interviste e interventi