L’intelligenza artificiale è ampiamente utilizzata, ma i legislatori hanno stabilito poche regole
La schermata di benvenuto dell'app OpenAI "ChatGPT" viene visualizzata sullo schermo di un laptop in un'illustrazione fotografica. Altri stati stanno prendendo in considerazione regolamenti per l’intelligenza artificiale e altri sistemi automatizzati. Leon Neal/Getty Images.
Nell’autunno del 2016, il Dipartimento per l’infanzia e le famiglie del Connecticut ha iniziato a utilizzare uno strumento di analisi predittiva che prometteva di aiutare a identificare i bambini in pericolo imminente.
Lo strumento ha utilizzato più di due dozzine di dati per confrontare i casi aperti nel sistema del Connecticut con precedenti casi di welfare con scarsi risultati. Quindi ogni bambino ha ricevuto un punteggio predittivo che segnalava alcuni casi per un intervento più rapido.
Tuttavia, anche se sempre più stati hanno iniziato ad adottare lo strumento, alcune agenzie hanno scoperto che sembrava ignorare i casi urgenti e contrassegnare in modo impreciso quelli meno gravi. Uno studio pubblicato sulla rivista Child Abuse & Neglect ha successivamente scoperto che non migliorava i risultati dei bambini. Il Connecticut e molti altri stati hanno abbandonato lo strumento, che è stato sviluppato da una società privata in Florida. Nel 2021, cinque anni dopo che il Dipartimento per l’infanzia e le famiglie del Connecticut aveva utilizzato per la prima volta lo strumento e due anni dopo che lo stato lo aveva eliminato, i ricercatori dell’Università di Yale hanno richiesto informazioni sui meccanismi di funzionamento e hanno concluso che l’agenzia non l’aveva mai capito.
"Questo è un enorme, enorme problema di responsabilità pubblica", ha affermato Kelsey Eberly, docente di clinica presso la Yale Law School. "Le agenzie stanno ottenendo questi strumenti, li stanno usando, si fidano di loro, ma non necessariamente li capiscono. E il pubblico certamente non capisce questi strumenti, perché non li conosce."
Il Connecticut è l’ultimo stato ad approvare normative esplicite per l’intelligenza artificiale e altri sistemi automatizzati, grazie in parte all’eredità dello strumento per lo screening dei bambini a rischio. Un disegno di legge bipartisan approvato il 30 maggio, che il governatore democratico Ned Lamont dovrebbe trasformare in legge, richiederebbe alle agenzie statali di inventariare e valutare tutti i sistemi governativi che utilizzano l’intelligenza artificiale e di creare un gruppo di lavoro permanente per raccomandare ulteriori regole.
Molti Stati già regolamentano aspetti di queste tecnologie attraverso statuti contro la discriminazione, la protezione dei consumatori e la privacy dei dati. Ma dal 2018, almeno 13 stati hanno istituito commissioni per studiare specificamente l’intelligenza artificiale – e dal 2019, almeno sette stati hanno approvato leggi volte a mitigare i pregiudizi, aumentare la trasparenza o limitare l’uso di sistemi automatizzati, sia nelle agenzie governative che nel settore privato. .
Solo nel 2023, secondo la Conferenza nazionale delle legislature statali, i legislatori di 27 stati, più Washington DC e Porto Rico, hanno preso in considerazione più di 80 progetti di legge relativi all’intelligenza artificiale.
Gli strumenti di intelligenza artificiale – definiti in generale come tecnologie in grado di eseguire analisi complesse e compiti di risoluzione dei problemi un tempo riservati agli esseri umani – ora determinano spesso ciò che gli americani vedono sui social media, quali studenti entrano all’università e se i candidati al lavoro ottengono un colloquio.
Secondo l’IBM Global AI Adoption Index, nel 2022 più di un quarto di tutte le aziende americane ha utilizzato l’intelligenza artificiale in qualche forma. In un esempio lampante della crescente ubiquità dell’intelligenza artificiale, un recente disegno di legge per regolamentare la tecnologia in California ha attirato commenti da organizzazioni diverse come un’associazione di categoria per l’industria alimentare e un sindacato statale degli infermieri.
Ma la legislazione federale è in fase di stallo, lasciando la regolamentazione ai governi locali e creando un mosaico di leggi statali e municipali.
"Gli Stati Uniti sono stati molto liberali sulla regolamentazione della tecnologia per molti anni", ha affermato Darrell M. West, membro senior del Center for Technology Innovation presso il think tank Brookings Institution e autore di un libro sull'intelligenza artificiale. "Ma quando vediamo le insidie dell'assenza di regolamentazione - lo spam, il phishing, la sorveglianza di massa - il clima pubblico e l'ambiente decisionale sono cambiati. Le persone vogliono che tutto questo sia regolamentato."
L'interesse dei legislatori per la regolamentazione della tecnologia è aumentato durante questa sessione legislativa ed è probabile che cresca ulteriormente l'anno prossimo, grazie all'adozione diffusa di ChatGPT e di altri strumenti di intelligenza artificiale rivolti ai consumatori, ha affermato Jake Morabito, direttore della Communications and Technology Task Force presso il conservatore American Legislative Exchange Council (ALEC), che è a favore di una minore regolamentazione.