News dall’Unione Europea: la responsabilità extracontrattuale da intelligenza artificiale

NEWS DALL’UNIONE EUROPEA: LA RESPONSABILITÀ EXTRACONTRATTUALE DA INTELLIGENZA ARTIFICIALE

Avv. Silvia Borrini

E’ di pochi giorni fa (28 settembre) la proposta di direttiva europea relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale ai prodotti dotati di intelligenza artificiale (IA).

 

 

Cos’è l’IA?

Innanzitutto per IA dobbiamo riferirci a quel ramo della computer science che studia lo sviluppo di hardware e software dotati di alcune capacità tipiche dell’essere umano (come la comprensione e la elaborazione del linguaggio e delle immagini, l’apprendimento, il ragionamento, etc.) e in grado di perseguire autonomamente una finalità prendendo decisioni: pensiamo, ad esempio, alle auto senza autista (che causi un incidente), agli assistenti vocali (che diano un comando errato) e, in generale, a tutti quegli algoritmi intelligenti in grado di auto-apprendere.

 

 

Nell’era in cui la tecnologia è presente nella vita quotidiana di ciascuno di noi in modo ormai preponderante, anche gli organi comunitari si sono posti il problema di intervenire su quei prodotti dotati IA e che potrebbero presentare quei vizi e quei difetti che configurano per il produttore la (nota e temuta) responsabilità civile extracontrattuale disciplinata per altri prodotti/servizi.

Infatti, è ormai noto come l’introduzione dell’IA nei processi aziendali abbia impattato positivamente, portando all’automazione di parti ripetitive e a basso valore aggiunto dei processi, in precedenza svolti dall’uomo, riducendo gli errori, permettendo lo sviluppo di nuovi prodotti e servizi. E siamo solo all’inizio.

 

 

L’indagine rappresentativa del 2020

Dall’indagine rappresentativa realizzata nel 2020 per la Commissione Europea, emerge che le imprese europee ritengono che il tema della responsabilità sia tra gli ostacoli principali all’uso dell’IA, un ostacolo esterno rilevante (pari al 43%) per quelle imprese che intendono adottare l’IA, ma che non lo hanno ancora fatto.

In questo contesto, le norme nazionali vigenti in materia di responsabilità, in particolare per colpa, sono risultate essere non propriamente adatte a gestire le azioni di responsabilità per danni causati da prodotti e servizi basati sull’IA promosse dagli utenti.

In base a tali norme, infatti, coloro che subiscono un danno sono tenuti a dimostrare un’azione o un’omissione illecita da parte della persona che ha causato il danno.

Tuttavia, proprio le proprie caratteristiche specifiche (complessità, autonomia e opacità -il cosiddetto effetto scatola nera) dei prodotti di IA possono rendere difficile o eccessivamente costoso, per quanti subiscono un danno, identificare la persona responsabile e dimostrare che sussistono i presupposti di un’azione di responsabilità.

Tali preoccupazioni sono state condivise anche dal Parlamento europeo (PE) nella risoluzione del 3 maggio 2022 sull’IA.

 

 

Il contenuto della proposta di direttiva

Con la proposta di direttiva che stiamo esaminando, la Commissione Europea si propone sia (i) l’obiettivo di ammodernare le norme vigenti in tema di responsabilità extracontrattuale del produttore per prodotti di IA difettosi sia (ii) l’armonizzazione mirata delle norme nazionali in materia di responsabilità per l’IA -obiettivo ancora più audace e senz’altro unico.

 

Sotto il primo profilo, in Italia, per esempio, chi subisce un danno causato da un prodotto che impiega sistemi di IA, per essere risarcito, deve provare la colpa del produttore e che il danno subito sia stato causato dal comportamento colposo del produttore. In caso di prodotti ad alto contenuto IA per le caratteristiche sopra ricordare, tutto ciò può risultare assai difficoltoso.

A tal riguardo, la proposta di direttiva intende alleggerire l’onere della prova incombente in capo al danneggiato, con specifico riferimento al nesso, introducendo (in particolare per il prodotti “ad alto rischio”) una presunzione di causalità applicabile quando si può ritenere probabile che la colpa abbia influenzato l’output pertinente del sistema di IA (da valutarsi caso per caso).

Tuttavia, qualora il danno venga causato da un sistema di IA ad alto rischio e il convenuto riesca a dimostrare che il ricorrente disponeva di prove e competenze sufficienti per la dimostrazione del nesso in questione, non può essere invocata dal ricorrente la presunzione di causalità.

Rispetto, invece, ai sistemi di IA non ad alto rischio, la presunzione di cui si discute si applicherebbe solo quando la prova del nesso di causalità venga ritenuta eccessivamente difficile per l’attore.

 

 

Da ultimo, merita di essere segnalata l’introduzione di un obbligo di disclosure a carico del produttore al quale può essere chiesto, data la complessità della materia (cfr. l’effetto “scatola nera” sopra richiamato), di divulgare o, se non altro, di rendere accessibili le informazioni necessarie, fermi -ovviamente- i principi in tema di riservatezza e segreti commerciali.

 

 

La proposta di direttiva ha, inoltre e come accennato, lo scopo di armonizzare in maniera mirata le norme nazionali, soprattutto perché è emerso che numerosi Stati membri stanno valutando (alcuni pianificando) un intervento legislativo in materia di responsabilità civile da IA.

Si prevede pertanto che, in caso del mancato intervento tempestivo dell’UE, gli Stati membri adegueranno le loro norme nazionali in materia di responsabilità alle sfide poste dall’IA. Ciò comporterà un’ulteriore frammentazione e un aumento dei costi per le imprese attive in tutta l’UE.

Soprattutto per le imprese che operano a livello transfrontaliero, in quanto l’incertezza riguarderà diverse giurisdizioni, e interesserà in particolare le piccole e medie imprese (PMI), che non possono avvalersi di competenze giuridiche al loro interno o di riserve di capitale.

In questo contesto, al fine di arginare e regolamentare quella che sarà la nuova responsabilità da prodotto difettoso, si rende necessario garantire, invece, la certezza giuridica cosicché le imprese non debbano avere difficoltà a prevedere le modalità di applicazione delle norme vigenti in materia di responsabilità e, di conseguenza, riescano a valutare la loro esposizione alla responsabilità (con conseguente tutela assicurativa).

 

 

I prossimi passi

La direttiva, adottata dal Parlamento Europeo e dal Consiglio, dovrà essere recepita in ciascun stato membro e la proposta già prevede che, cinque anni dopo l’entrata in vigore della direttiva sulla responsabilità da intelligenza artificiale, la Commissione valuterà la necessità di norme in materia di responsabilità oggettiva per le azioni connesse all’IA.