ROMA – Standard più stringenti o una legge più flessibile? Protezione massima sulla sicurezza o possibilità di innovazione tecnologica più libera? Queste le domande che in breve riassumono il dibattito in corso nello Stato della California sulla proposta di legge SB 1047, che intende regolare la produzione e l’uso dell’Intelligenza Artificiale (IA).
I passaggi spiegati da Unione Stampa Periodica Italiana Uspi .
L’attuale governatore della California, Gavin Newsom, ha sollevato la discussione, ponendosi dalla parte di un approccio più liberale, volto a non soffocare l’innovazione nello Stato che ospita la maggior parte delle più grandi aziende di IA.
Il veto di Newsom
L’intervento legislativo in questione (SB 1047 bill) avrebbe imposto degli standard di sicurezza molto complessi e rigorosi alle case produttrici di modelli IA, costringendo le aziende a certificare secondo un certo iter i loro sistemi. Questo sia per la loro produzione, distribuzione ma anche e soprattutto per la loro implementazione.
Il diniego assoluto di Newsom alla proposta di legge comporta una battuta di arresto sulla regolamentazione dell’IA che avrà risvolti non solo in tutta la California, ma anche negli USA e di certo in Europa.
La motivazione del governatore è di stampo progressista: la legge SB 1047 non era sufficientemente flessibile ed ampia. I criteri imposti sembravano troppo restrittivi e andavano a colpire più l’economia piuttosto che a rafforzare la sicurezza degli utenti.
Un dibattito che non esula dalla competenza californiana. Anzi, molti si sono domandati l’effettiva funzionalità dell’approccio legislativo europeo in materia IA, soprattutto dopo il Rapporto Draghi di qualche settimana fa.
Burocrazia inutile o sicurezza cauta?
Secondo il governatore Newsom, la legge finiva per gravare sulle innovazioni perché concentrava i suoi sforzi su standard di sicurezza pensati precedentemente per ambiti ad alto rischio.
Dunque, questo approccio definito “omogeneizzante” avrebbe dato come unico risultato economia traballante e sviluppo tecnologico penalizzato. Uccidere l’innovazione in nome di una burocrazia sulla sicurezza più pesante non sembrava la soluzione giusta per Gavin Newsom.
Una regolamentazione “intelligente” deve essere proporzionata al rischio e deve adattarsi al contesto dell’IA di cui si sta parlando. Non un rifiuto della legge, ma una liberalizzazione delle norme IA per uno sviluppo costante e sicuro.
Articolo di T.S.