Con questo articolo introduciamo una delle prime azioni legali intentate in materia di intelligenza artificiale. Si tratta di una class action contro OpenAI e Microsoft, società attive nello sviluppo di sistemi di intelligenza artificiale. In questo articolo riassumiamo le prime motivazioni della class action e concludiamo con alcune considerazioni di carattere generale sulle problematiche che la diffusione dell'intelligenza artificiale sta evidenziando.
Ulteriori informazioni sulla class action sono reperibili sulla pagina web dell'iniziativa: Together on AI
Le ragioni della class action
La denuncia è chiara:
"Usando e appropriandosi illecitamente di informazioni personali su larga scala, Open AI e Microsoft hanno creato una potente e profittevole AI e l’hanno immessa a livello mondiale senza alcuna considerazione dei rischi" 1
La class action trae origine dall’attività ritenuta illegittima e dannosa dei prodotti Chat GPT 3.0, Chat GPT 4.0, Dall-E e Vall-E che
“usano informazione privata rubata, tra cui dati personali, di centinaia di milioni di utenti internet inclusi i bambini, senza che gli utenti ne siano consapevoli e senza il loro consenso. Le predette aziende continuano a raccogliere ed alimentare illegalmente i dati personali di milioni di ignari consumatori nel mondo, in eccesso rispetto ad ogni ragionevole uso autorizzato, al fine di sviluppare e addestrare i predetti prodotti di AI.”
La memoria dello Studio Clarkson mette anche in rilievo le dichiarazioni di Sam Altman sulla pericolosità dell’AI e sul fatto che OPENAI è stata improvvisamente trasformata nel 2019 da ente no profit in società profit abbandonando i suoi originari obiettivi e principi, scegliendo di perseguire il profitto, a spese della privacy, della sicurezza e dell’etica
, in particolare massimizzando la raccolta dei dati degli utenti in maniera non trasparente.
La posizione della class action è molto netta: si tratta di un furto senza precedenti, di informazioni personali, private o coperte dal diritto d’autore che ha permesso a queste società di massimizzare i loro profitti.
Una volta allenati su dati carpiti agli utenti, questi sistemi di AI sono stati immessi sul mercato, senza alcun tipo di salvaguardia o controllo idoneo a evitare che causino danni o violino le leggi.
Questi sistemi di AI, continua l’atto, integrati in altre applicazioni, prodotti e siti web generano una dipendenza economica in una tecnologia immatura che può portare ad una società disfunzionale, in cui non è più possibile credere in nulla, distinguere il vero dal falso, in cui le banche possono subire attacchi hacker, gli individui possono essere impersonati da sistemi computerizzati.
E qui…mi fermo. Ve lo confesso: non pensavo che la lettura di un atto giuridico americano di 150 pagine fosse appassionante, anche perché ciò che si discute in un’aula di Tribunale americana non è fantascienza, ma ci riguarda tutti.
Vi terrò informati sulla causa americana; nel frattempo, vi lascio con alcune mie semplici considerazioni
L'addestramento dei modelli di intelligenza artificiale
I sistemi che vanno sotto il nome di “intelligenza artificiale generativa”, quali CHAT GPT, non sono intelligenti e creativi. Sono sistemi che hanno la capacità di raccogliere, classificare ed elaborare su base statistico-algoritmica, milioni di informazioni, al fine di assemblare delle risposte che abbiano, per gli umani, un qualche senso compiuto. Pertanto, si dovrebbe parlare di sistemi artificiali assemblativi, più che di intelligenza artificiale generativa.
Web scraping
Questi sistemi richiedono di essere alimentati attraverso un’attività di indicizzazione ed addestramento su miliardi di dati ed informazioni in internet, attività che va sotto il nome di web scraping. Il Garante della privacy ha espressamente vietato questa attività di “setaccio” da parte di Chat GPT in Italia, per addestrare gli algoritmi, in quanto lesiva dei diritti personali degli utenti, in particolare i minori.
Copyright
La mancanza di consenso e la vaghezza dei possibili usi di tale tecnologia, che può condurre ad abusi anche criminali, nonché la violazione del copyright (CHAT GPT non cita le sue fonti), sono le maggiori contestazioni delle azioni americane che non esitano a parlare di “furto”, anche se tecnicamente i dati degli utenti non sono sottratti e neanche necessariamente copiati.
Conclusioni
Il problema più grave, a mio avviso, è rappresentato dalla falsità delle premesse su cui si basano le aziende che producono o utilizzano tali sistemi di AI.
Esse sostengono che tali sistemi si alimentano su larga scala con le informazioni reperibili in Internet, al fine di essere un mero strumento di arricchimento della conoscenza a beneficio di tutti.
In realtà, la premessa è falsa perchè internet non contiene il sapere del mondo ma solo informazioni di qualità varia, perlopiù credenze e rappresentazioni di una minoranza della popolazione mondiale, nonché di una minoranza di aziende, governi e organizzazioni di varia natura, anche criminali, che già possono manipolare la società 2.
I sistemi di AI, in base ad algoritmi non trasparenti, rischiano di banalizzare le conoscenze, alimentare a dismisura il grado di uniformità e ripetitività dell’informazione, dandole un crisma di ufficialità, univocità e verità che non possiede.
Ormai intere sfere di conoscenza non scritta e non riducibili in dati, sono già banalizzate e marginalizzate… è scomparso tutto ciò che è legato al senso del sacro, si sta sempre più svalutando e sottorappresentando il sapere manuale umano, si sta perdendo ogni autorevolezza della conoscenza, per cui quella complessa, frutto di una ricerca ed esperienza pluridecennale degli studiosi in uno specifico campo, viene sminuzzata dai sistemi di AI e riemerge, stravolta ed avulsa dal suo contesto storico-culturale, accanto alle frasi dei post sui social, pescate non si sa bene in base a quale criterio statistico/algoritmico.
Questi opachi sistemi di AI, possono essere sì strumenti utilissimi in mano di pochi, ma soprattutto scorciatoie comode al pensiero critico dei più che non vogliono, non sanno o non possono esercitare alcun controllo. Lo scontato successo di questi sistemi di AI deve far riflettere ora anche su quello che si è già perduto e si andrà irrimediabilmente perdendo.
1 - Il riferimento è alla memoria dello Studio consultata sul sito web, alla data del 5.01.2024 2 - Per un esempio, la falsa intervista generata da un algoritmo, in un programma televisivo di successo, per pubblicizzare un non autorizzato medicamento contro l’artrosi, venduto tramite internet, a cui tante persone continuano a credere, malgrado la smentita e la denuncia della trasmissione RAI.
Avv Mariangela Balestra, 2024 - Tutti i diritti riservati.In particolare, è vietato l’uso di questo articolo per l’addestramento dei sistemi di AI.
Contatta l'avvocato per una consulenza
Mariangela Balestra
Avvocato Contratti Internazionali
Avvocato a Bologna, mi occupo di Diritto Commerciale Internazionale e Diritto di Impresa; docente in corsi dedicati alle imprese, lavoro correntemente anche in lingua inglese e francese e partecipo a progetti internazionali in materia di legislazione su nuove tecnologie e intelligenza artificiale.
Mariangela Balestra, 2024 - ALL RIGHTS RESERVED