Certamente, si tratta del rischio messo in luce proprio da chi assume un atteggiamento critico e che si sviluppa nella considerazione che non si può regolamentare un fenomeno il cui sviluppo, peraltro rapidissimo, non è ancora pienamente tracciabile. La paventata conseguenza sarebbe quella di aver creato un sistema normativo incompleto, e quindi destinato a coprire soltanto una parte minima del fenomeno, lasciando scoperta proprio la parte più rischiosa di esso, perché più esposta a innovazioni speculative e incontrollabili. Si tratta di un problema che, d’altronde, spesso caratterizza i rapporti tra diritto ed evoluzione tecnologica, e che qui si ripropone. Le prescrizioni dell’Ai Act, quale espressione di una legislazione di carattere orizzontale per i vari sistemi di Ai, potrebbero rimediare alle problematiche connaturate a tali sistemi che ormai ben conosciamo (qualità dei dati, opacità, etc.); tuttavia, l’Ai Act non contiene la disciplina dell’uso concreto di questi strumenti, e rappresenta, dunque, solo un segmento del lungo percorso che ci attende. È compito dei legislatori nazionali riflettere sul ruolo da attribuire ai sistemi algoritmici nei diversi ambiti in cui essi si prestano a essere impiegati, ed elaborare le condizioni che rendano eventuali utilizzi compatibili con le regole dei singoli ordinamenti. L’Italia, in tal senso, ha già approvato un disegno di legge che prevede la regolamentazione dell’uso dell’Ai in vari settori e contiene alcune deleghe legislative per l’adeguamento della normativa nazionale all’Ai Act.
Uno dei grandi temi che pone l’avvento dell’intelligenza artificiale è inoltre quello della responsabilità giuridica. Di chi è la responsabilità nell’uso dell’Ai; del creatore dell’algoritmo, dello sviluppatore, o dell’uomo che lo applica?
Bisogna distinguere i casi in cui l’algoritmo operi in modo totalmente autonomo e del tutto imprevedibile – sia per il creatore dello strumento, sia per lo sviluppatore, sia per l’utilizzatore –, da quelli in cui difettino tali caratteristiche, specie dove l’algoritmo operi sotto un controllo diretto dell’uomo. Per questo secondo caso possono operare, pure sotto il profilo penalistico, le tradizionali categorie del ‘danno da prodotto’; a seconda della tipologia di evento che si verifica, è possibile responsabilizzare direttamente i diversi soggetti della ‘catena’. Nel primo caso, invece, potrebbe verificarsi un responsibility gap, e occorre riflettere su come risolvere il problema. Le soluzioni prospettate sono molte: da quella più pioneristica, legata a una responsabilità diretta dell’Ai, su cui molti studiosi si dicono però scettici; sino alla elaborazione, partendo da categorie note, di meccanismi di imputazione volti a distribuire più razionalmente il carico sanzionatorio nella catena produttiva e distributiva dei sistemi di Ai, valorizzando il ruolo non solo della persona fisica, ma anche dell’ente collettivo.
Ci sono, più in generale, nel nostro ordinamento le categorie necessarie per affrontare questa problematica oppure ne vanno create altre?
Nel nostro ordinamento siamo già riusciti a creare forme di attribuzione della responsabilità fortemente innovative, passando dai meccanismi originari di addebito basati sulla rimproverabilità della persona fisica all’interno di strutture organizzative complesse, a forme originali di responsabilità ‘diretta’ della persona giuridica per carenza di presidi preventivi rispetto agli illeciti d’impresa. Come dicevo, nel campo dell’AI appare indispensabile portare avanti la riflessione sui possibili schemi di attribuzione della responsabilità tenendo presenti le caratteristiche delle tecnologie in rilievo e il ruolo rivestito non solo dalle persone fisiche, ma anche dalle corporation.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link