Il nuovo “Blueprint for an AI Bill of Rights” dell’amministrazione Biden è allo stesso tempo un grande passo avanti e una delusione. Rilasciato la scorsa settimana, il progetto articola una serie di principi che potrebbero affrontare alcune delle principali preoccupazioni relative alla progettazione e alla distribuzione dell’intelligenza artificiale. Ma i responsabili politici dovranno fare di più per raggiungere un obiettivo sfuggente: la fiducia nell’IA.
I problemi di fiducia dell’IA sono evidenti da tempo. Nel 2021, il National Institute for Standards ha pubblicato un documento in cui spiega la relazione tra i sistemi di intelligenza artificiale e i consumatori e le aziende che utilizzano i sistemi di intelligenza artificiale per prendere decisioni. L’utente dell’IA deve fidarsi del sistema dell’IA a causa della sua complessità, imprevedibilità e mancanza di capacità morali o etiche, trasformando la dinamica tra utente e sistema in una relazione. Pertanto, se i progettisti e i distributori di IA vogliono che l’IA sia affidabile, devono incoraggiare un comportamento affidabile da parte del sistema e la fiducia nel sistema.
Perché la fiducia in questa tecnologia è così importante? L’intelligenza artificiale è ora essenziale per la sicurezza nazionale, lo sviluppo economico e l’innovazione degli Stati Uniti. È anche alla base di altre nuove tecnologie come la realtà virtuale. Inoltre, la competitività nell’IA è essenziale per la produttività e l’innovazione degli Stati Uniti. Ha una grande promessa per aiutare a mitigare problemi malvagi come il cambiamento climatico.
Anche l’IA ha fallito in modi sfortunati che sono centrali per la questione della fiducia. Sebbene alcuni dei difetti dell’IA come discriminazione, disinformazione, abusi statali e violazioni della privacy possano essere non intenzionali, questi problemi spesso colpiscono in modo sproporzionato individui e comunità già emarginati.
Pertanto, nell’ottobre 2021, l’Ufficio per la politica scientifica e tecnologica della Casa Bianca ha promesso di sviluppare una carta dei diritti dell’IA, lavorando con esperti in tutto il governo federale, nel mondo accademico, nella società civile, nel settore privato e nelle comunità di tutto il paese. Il nuovo progetto è il risultato di questo sforzo.
Il personale dell’Office of Science and Technology Policy merita credito per aver cercato americani medi, esperti in legge, informatica e altre discipline per capire come l’IA ci influenza. Le consultazioni che hanno tenuto erano essenzialmente esercizi di costruzione della fiducia. Pubblicando il progetto, gli Stati Uniti hanno segnalato ad altri paesi occidentali che l’IA non dovrebbe essere utilizzata in modi che minano i diritti umani o la democrazia. Per questi motivi, il progetto è importante e utile, ma non è sufficiente per garantire e mantenere la fiducia.
Il progetto delinea cinque principi che dovrebbe guidare la progettazione, l’uso e l’implementazione di sistemi analitici automatizzati. In primo luogo, il progetto rileva che i sistemi automatizzati dovrebbero essere sviluppati in consultazione con diverse comunità, parti interessate ed esperti del settore per identificare preoccupazioni, rischi e potenziali impatti del sistema. Questo è un buon punto, ma la ricerca del Digital Trade and Data Governance Hub rivela che gli Stati Uniti e altri governi si consultano ma non sempre ascoltano e rispondono alle preoccupazioni del pubblico.
In secondo luogo, il progetto afferma che gli individui non dovrebbero subire discriminazioni da parte di algoritmi e che i sistemi dovrebbero essere utilizzati e progettati in modo equo. Ma chi decide cosa è giusto?
In terzo luogo, la legge sulla protezione dei dati e le scelte di progettazione dovrebbero proteggere gli americani da pratiche abusive sui dati tramite protezioni integrate; dovresti avere un’autorità su come vengono utilizzati i dati raccolti su di te. Ma la realtà è che gli Stati Uniti devono ancora approvare una legge nazionale completa sulla protezione dei dati. Si spera che uno arrivi presto, ma anche con una legge del genere, pochi di noi avranno “un’agenzia” su come vengono utilizzati i nostri dati. Le aziende e i governi raccolgono tali dati da decenni che possono ancora essere utilizzati per invogliarci o manipolarci.
In quarto luogo, il progetto afferma che gli americani dovrebbero essere informati quando viene utilizzato un sistema automatizzato e capire come e perché contribuisce ai risultati che hanno un impatto sui consumatori. Ma gli Stati Uniti non hanno offerto risorse per aiutare gli americani a comprendere davvero il funzionamento e il potenziale impatto dell’IA, a differenza ad esempio del governo finlandese, che ha creato un corso gratuito sull’IA.
Infine, il progetto afferma che gli americani dovrebbero essere in grado di rinunciare, quando appropriato, e avere accesso a una persona in grado di considerare e risolvere rapidamente i problemi che incontrano. Ma chi può decidere quando l’opt-out è appropriato? Il progetto non lo chiarisce.
Il progetto ha un altro errore chiave. Non chiarisce come si passa dai principi alla realtà. L’amministrazione Biden ha elencato esempi di azioni del ramo esecutivo per proteggere i lavoratori, i consumatori e i pazienti. Ma la Casa Bianca non ha presentato una tabella di marcia, né proposto nuove leggi né creato un organismo specifico per la ricerca, l’indagine o la protezione degli individui dai danni.
Il progetto integra altri sforzi del governo degli Stati Uniti per costruire un’IA affidabile attraverso standard, principi e normative. Ma poiché queste iniziative sono relativamente nuove, nessuno sa se questi sforzi stabiliscono o sostengono davvero la fiducia.
In uno studio del 2022, il Pew Research Center ha rilevato che gli americani sono più preoccupati che entusiasti dell’IA. Sono preoccupati per la perdita del lavoro, le considerazioni sulla privacy, il downskilling e la perdita di autonomia. Non percepiscono ancora (o potrebbero non percepire mai) l’IA come affidabile. Se l’amministrazione Biden vuole rafforzare la fiducia nell’IA, dovrebbe concentrarsi sulla costruzione di una comprensione non solo di come funziona l’IA, ma anche del suo potenziale, dei suoi limiti e delle sue migliori pratiche nella sua governance.
I commenti degli ospiti come questo sono scritti da autori esterni alla redazione di Barron’s e MarketWatch. Riflettono il punto di vista e le opinioni degli autori. Invia proposte di commento e altri feedback a ideas@barrons.com.
.