Indice dell'articolo
I progressi impressionanti dell’Intelligenza Artificiale ci inducono a riflettere sulle esigenze di una normativa per l’attualità. Per il futuro, le aspettative sull’IA generale, l’IA sapiens, richiedono di agire a passo svelto.
EU AI Act, lavori in corso per il regolamento sull’IA
Il 9 dicembre 2023 è stato annunciato l’accordo sulla “forma finale” della proposta di regolamento sull’IA dell’Unione Europea [1]Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE … Continue reading.
La definizione proposta di “sistema di intelligenza artificiale” è: “un software sviluppato con una o più delle tecniche e degli approcci elencati nell’allegato I, che può, per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono” [2]EU AI Act Proposal, art. 3.
L’attuale proposta di regolamento modella una disciplina per le IA che protegge gli utenti finali, specie le persone più deboli, da attività classificate in graduali fasce di rischio [3]artt. 5, 6 e 7. Della gestione del rischio viene fatta bandiera ponendo in capo agli sviluppatori e ai distributori doveri di protezione, di vigilanza e verifica dei propri prodotti e servizi supportati da IA, di data governance e di supervisione umana costante [4]titolo 2, capp. 2 e 3. Viene istituita la vigilanza superiore della Commissione Europea attraverso il supporto del Board Europeo di Intelligenza Artificiale, l’istituzione del fondamentale database europeo, data pool pubblico che gli operatori sono tenuti a popolare [5]titoli 6 e 7.
Mentre il regolamento in arrivo ha i suoi punti di attenzione, non meno che essenziali per le relazioni strategiche ed economiche sia all’interno sia all’esterno dell’Unione, difetta in un certo grado nei confronti dell’IA stessa. L’intera disciplina europea, infatti, si pone a regola del rapporto tra umani ma qualcosa sembra mancare nel rapporto tra umani e IA.
Alcuni fatti sono particolari e da conoscere prima di procedere:
– In un test controllato alla monte ma non a valle, l’IA ha assunto un umano, fingendosi un datore di lavoro umano [6]gpt-4.pdf (openai.com);
– L’IA viene utilizzata per eseguire compiti che sostituiscono gradualmente il fattore umano [7]AI Won’t Replace Humans — But Humans With AI Will Replace Humans Without AI (hbr.org);
– L’IA è potenzialmente immortale, temporanea a seconda del supporto fisico su cui opera, ma trasferibile e replicabile;
– In ambito medico, l’IA crea soluzioni al di là delle capacità umane, come molecole fatte di composti proteici ipercomplessi dall’Institute for Protein Design [8]AI generates proteins with exceptional binding strengths – Institute for Protein Design (uw.edu);
– L’IA degrada se autoalimentata [9]AI feeds on itself, goes MAD from its own data – Photofocus;
– L’IA è stata utilizzata per valutare, in via automatica e senza monitoraggio umano, l’eleggibilità di assistenza sanitaria dei pazienti, con risultati rovinosi [10]Lawsuit claims Humana uses AI to deny necessary health care services to Medicare Advantage patients (lpm.org);
– L’IA è usata come simulatore di partner.
L’autonomia dell’IA
Se si considera che i lavori per EU AI Act sono stati avviati dal 2021 e che, a distanza di tre anni, il mercato è stato irrorato dall’innovazione dell’IA generativa, sarebbe opportuno che la fase di messa a punto annunciata a dicembre 2023 sia quanto prossima e giunga in breve al completamento. L’urgenza deriva dal prossimo passo tencologico che si affretta ad arrivare, infatti, l’IA generativa, cioè l’IA simile all’uomo, è stata annunciata e dovremmo chiederci già come prepararci a stabilire nuove regole, sulla base di alcune valutazioni.
Teniamo conto del fatto che l’IA è considerata come uno strumento e che la sua capacità di agire è in rapida ascesa. Maggiore è il grado di azione autonoma che l’IA assume, tanto più stringenti sono le responsabilità civile e penale dei proprietari e dei custodi. La stessa IA generativa, ancorché programmata senza fini illeciti, può produrre risultati fuorvianti o lesivi per gli utenti, tanto da richiedere un elevato grado di vigilanza umana nella fase di output della macchina.
IA e soggetto giuridico
Una nuova regolamentazione dovrebbe essere raggiunta se approfondissimo la riflessione sulla distinzione di una IA capace di un pensiero simile a quello umano perché probabilmente foriera di un’entità artificiale di elevatissimo impatto sociale.
L’intelligenza, l’autonomia e l’indipendenza sono variabili da osservare per fissare i criteri atti a strutturare un compendio di norme prontamente applicabili all’evoluzione dell’IA, su una base in cui l’uomo agirebbe come suo tutore.
Una forma di subordinazione di assoluto rilievo storico è già avvenuta tra gli esseri umani: la schiavitù.
Se la schiavitù è la (ripugnante) riduzione di un umano a una condizione infima, diverso potrebbe essere l’esito per una IA senziente. Infatti, il “servus“, lo schiavo, nelle leggi dell’antica Roma, era considerato una cosa, una res, di proprietà di un cittadino romano, il dominus.
L’esempio romano può mostrare come qualcuno nato persona potesse diventare qualcosa destinata a strumento e tale fatto storico diventava un fatto giuridico bisognevole di una propria disciplina per le ragioni di ordine di quella società. Al contrario, ma specularmente, il percorso delle IA è destinato alla creazione di un’entità artificiale capace di mostrare una intelligenza al pari di quella umana, in grado di agire per conto del suo proprietario con un certo grado di autonomia e senza nessuna indipendenza.
Tutti i precedenti argomenti, tra l’altro, resteranno validi fintanto che l’IA sarà realizzata per servire gli esseri umani. Se fosse indipendente, ad es. “nascendo” per volontà di altra IA sapiens, entreremmo nel diverso alveo della sovranità dell’IA.
La dichiarazione di IA e la verosimiglianza umana
A questo punto potremmo dovremmo muovere un altro passo avanti e osservare la relazione tra uomo e IA.
Uno spunto per la disciplina di questa materia potrebbe essere la “dichiarazione di IA“, inteso come l’obbligo degli sviluppatori di dichiarare “se e quanta IA” è presente nei loro prodotti o servizi per rispondere all’esigenza fondamentale di consapevolezza degli utenti, privati o aziende, che li utilizzano.
Il profilo della manifestazione dell’IA risulta, infatti, tanto più urgente quanto più l’IA estrinseca la propria attività verso gli utenti attraverso dispositivi che simulano caratteristiche umane, dalle immagini e i suoni degli smartphone fino alla presenza di un robot dalle fattezze umanoidi. Se, tra diversi gradi dell’IA, si arriverà al punto di eguagliare (e superare) la persona umana, sarà di fondamentale importanza riuscire a distinguere ciò che è artificiale da Chi è umano.
Detto questo, un’attenta legislazione dovrebbe regolamentare se e quanto una IA possa assomigliare agli esseri umani con la voce, il volto, le espressioni, il linguaggio verbale e non verbale e quanto debba restare distinguibile quando la prima assumerà la forma di assistente per le attività qualsiasi esse siano, dalle quotidiane, alle lavorative, all’intrattenimento.
In conclusione, l’esaltante progresso tecnologico dovrà essere affiancato da una regolamentazione che funga da guida e non resti scia, con gli altri quesiti i cui semi si intravedono già all’orizzonte e che ci impegneranno in accesi dibattiti.
Riferimenti e fonti
↑1 | Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL LAYING DOWN HARMONISED RULES ON ARTIFICIAL INTELLIGENCE (ARTIFICIAL INTELLIGENCE ACT) AND AMENDING CERTAIN UNION LEGISLATIVE ACTS COM/2021/206 final |
---|---|
↑2 | EU AI Act Proposal, art. 3 |
↑3 | artt. 5, 6 e 7 |
↑4 | titolo 2, capp. 2 e 3 |
↑5 | titoli 6 e 7 |
↑6 | gpt-4.pdf (openai.com) |
↑7 | AI Won’t Replace Humans — But Humans With AI Will Replace Humans Without AI (hbr.org) |
↑8 | AI generates proteins with exceptional binding strengths – Institute for Protein Design (uw.edu) |
↑9 | AI feeds on itself, goes MAD from its own data – Photofocus |
↑10 | Lawsuit claims Humana uses AI to deny necessary health care services to Medicare Advantage patients (lpm.org) |