SPIRITS IN THE MATERIAL WORLD: ARTIFICIAL INTELLIGENCE ACT E RESPONSABILITÀ PER LA DIFFUSIONE ONLINE DI INFORMAZIONI
Gianpaolo Maria Ruotolo, Università di Foggia
1. Ci siamo già occupati, su questo Blog, della responsabilità dei fornitori di servizi di condivisione online di informazioni caricate dagli utenti (Ruotolo).
Il quadro giuridico approntato dal Digital Services Act (DSA), che avevamo analizzato allora, merita un ulteriore approfondimento dal momento che rischia di esser complicato da alcune previsioni dell’emanando regolamento sull’intelligenza artificiale (Artificial Intelligence Act, AIA).
Queste, disciplinando l’uso di strumenti di intelligenza artificiale (IA), già da tempo sfruttati dai fornitori di servizi per filtrare e moderare lo user generated content, potrebbero, infatti, comportare l’inapplicabilità dell’esenzione dalla responsabilità dei medesimi fornitori per i contenuti caricati dagli utenti.
Ciò, se per un verso aggraverebbe la loro posizione di garanzia per quanto concerne il rispetto di alcuni diritti (libertà di espressione, diritti della personalità), per altro potrebbe però lasciar loro ampi margini di manovra, e di impatto negativo, su altre posizioni giuridiche, parimenti rilevanti.
Il regime della proposta di AIA attribuisce, infatti, scarsa responsabilità ai cosiddetti “utenti” di meccanismi di intelligenza artificiale che, in diversi casi, potrebbero però, come vedremo, coincidere proprio con i “fornitori” di servizi online (i c.d. providers).
La situazione descritta, lo diciamo immediatamente, è conseguenza dell’improvvido, a nostro parere, uso dei medesimi termini – ma con portata giuridica diversa – nei due strumenti normativi. Il DSA, infatti, utilizza l’espressione “fornitore” con riguardo al soggetto che offre servizi di connettività, che per l’AIA è invece un “utente”, mentre il DSA utilizza quest’ultima espressione con riguardo a chi beneficia del servizio di connessione. Per l’AIA, invece, è “fornitore” colui il quale progetta un sistema di IA.
Un conundrum difficile da sbrogliare.
2. Ricordiamo che, come noto, la direttiva sul commercio elettronico, agli articoli 14 e 15, con riferimento ai contenuti caricati dagli utenti sulle piattaforme online, prevedeva che il fornitore del servizio non fosse responsabile delle informazioni così archiviate: l’esenzione in questione non si applicava solo qualora questi, non limitandosi al mero trattamento tecnico e automatico dei dati forniti dal cliente, avesse svolto, sui medesimi, un ruolo attivo e di merito, fornendogli assistenza, ad esempio mirata all’ottimizzazione della presentazione dei contenuti, nonché qualora il fornitore, pur in presenza di forme neutrali del servizio, fosse altrimenti venuto a conoscenza di fatti e circostanze tali da renderlo consapevole dell’illegittimità dell’attività o delle informazioni condivise.
È pure il caso di ricordare, per avere un quadro giuridico più completo, che la direttiva sul diritto d’autore nel mercato unico digitale, adottata successivamente a quella sul commercio elettronico ma prima del DSA, all’art. 17, par. 3, prevede espressamente che la limitazione di responsabilità di cui abbiamo detto non si applichi nel caso di violazione di diritti di proprietà intellettuale, per il quale, quindi, costui è sempre responsabile, tranne qualora non sorvegli attivamente i contenuti caricati dagli utenti per prevenire la messa in rete di materiali protetti.
Con riguardo a quest’ultima previsione, la Corte di giustizia, con la sentenza del 26 aprile 2022, causa C-401/19, Polonia/Parlamento e Consiglio, ha respinto un ricorso della Polonia che era volto a ottenerne l’annullamento per violazione della libertà di espressione e d’informazione garantita dalla Carta dei diritti fondamentali dell’Unione europea (sulla libertà d’espressione online, in questo Blog, si vedano P. De Sena e M. Castellaneta).
La stessa Corte, peraltro, si era già pronunciata in più occasioni sulle condizioni di esonero dalla responsabilità dei fornitori, chiarendo come la stessa dovesse applicarsi a coloro che non avessero svolto un ruolo attivo, che gli consentisse di conoscere il contenuto materiale o assumere il controllo dei dati memorizzati; inoltre, la Corte, pur affermando l’inesistenza di un obbligo generalizzato di controllo dei contenuti, aveva pure chiarito che l’esenzione in questione si applicava anche ai responsabili che non giocassero alcun ruolo attivo tale avere conoscenza o controllo sui dati conservati.
Il DSA, recependo la prassi e la normativa pregresse, all’art. 6 (“Memorizzazione di informazioni”) prevede oggi che il fornitore del servizio non sia responsabile delle informazioni memorizzate su richiesta di un destinatario del servizio medesimo, a condizione che: a) non sia effettivamente a conoscenza delle attività o dei contenuti illegali e, per quanto attiene a domande risarcitorie, non sia consapevole di fatti o circostanze che rendono manifesta l’illegalità dell’attività o dei contenuti; oppure b) non appena venga a conoscenza di tali attività o contenuti illegali, o divenga consapevole di tali fatti o circostanze, agisca immediatamente per rimuovere i contenuti illegali o per disabilitare l’accesso agli stessi.
L’esenzione in parola non si applica se l’utente del servizio agisce sotto l’autorità o il controllo del fornitore e con riguardo alla responsabilità prevista dalla normativa in materia di protezione dei consumatori per le piattaforme online che consentono ai consumatori di concludere contratti a distanza con operatori commerciali, a determinate condizioni.
Il successivo art. 7 (“Indagini volontarie promosse di propria iniziativa e rispetto degli obblighi normativi”), poi, sancisce che l’esenzione dalla responsabilità non è esclusa neppure quando il fornitore svolga, in buona fede e in modo diligente, indagini volontarie o ponga in essere altre misure volte a individuare, identificare e rimuovere contenuti illegali o a disabilitare l’accesso agli stessi, e l’art. 8 (“Assenza di obblighi generali di sorveglianza o di accertamento attivo dei fatti”) ci ricorda che ai fornitori di servizi intermediari non è imposto alcun obbligo generale di sorveglianza sulle informazioni che trasmettono o memorizzano, né di accertare attivamente fatti o circostanze che indichino la presenza di attività illegali.
L’esclusione… dell’esclusione della responsabilità di cui all’art. 17, par. 3 della direttiva sul diritto d’autore nel mercato digitale è quindi da leggersi oggi come eccezione alle norme del DSA.
Come pure abbiamo accennato e vedremo meglio subito, però, potrebbe non trattarsi dell’unica eccezione all’esenzione da responsabilità dei prestatori, contemplata dal diritto UE: qualora la proposta di regolamento sull’intelligenza artificiale dovesse essere approvata nel testo attualmente diffuso, infatti, l’uso di strumenti di IA per filtrare i contenuti da parte dei fornitori di servizi online può, infatti, comportare l’inapplicabilità dell’esenzione di responsabilità per i contenuti caricati da terzi.
3. L’idea che ispira la proposta di AIA avanzata dalla Commissione è di mitigare i rischi derivanti nell’UE dall’utilizzo dell’IA e, per far ciò, graduarne la disciplina alla luce dei medesimi.
A tal fine la proposta distingue i prodotti di IA che implicano un rischio totale per i diritti fondamentali – quali quelli che utilizzano tecniche subliminali che agiscono senza che una persona ne sia consapevole al fine di distorcerne il comportamento in un modo tale da provocare un danno fisico o psicologico, quelli che per i medesimi fini sfruttano le vulnerabilità di uno specifico gruppo di persone, dovute all’età o alla disabilità fisica o mentale, quelli che mirano al social scoring per fini “pubblicistici” e quelli di identificazione biometrica remota in tempo reale in spazi accessibili al pubblico a fini di attività di contrasto, a meno che e nella misura in cui tale uso sia strettamente necessario – i quali sono assolutamente vietati (di cui al Titolo II), da quelli ad alto rischio (disciplinati dal Titolo III) – i quali sono soggetti a un regime di certificazione e controllo dettagliato, ma non sono ritenuti così pericolosi da dover essere del tutto vietati – a quelli con impatti più contenuti, che la proposta di AIA definisce residualmente (“altri”, ai quali si applica il Titolo IV).
È l’art. 6 della proposta che contiene le regole per la classificazione dei sistemi ad alto rischio.
Tra questi, ai sensi dell’Allegato II-A, rientrano i sistemi di IA destinati a essere utilizzati come componenti di sicurezza di un prodotto al quale è applicabile il New Legislative Framework adottato già nel 2008 per migliorare la vigilanza sul mercato interno e potenziare la qualità delle valutazioni di conformità (rientrano in questa categoria, ad esempio, specifici macchinari, giocattoli, dispositivi medici) e, ai sensi dell’allegato II-B, altre categorie di beni regolati da norme UE (come imbarcazioni, veicoli a motore, aeromobili, ecc.). In questo caso, quindi, il diritto UE identifica indirettamente i sistemi di IA ad alto rischio, attraverso l’ambito di applicazione di un quadro giuridico armonizzato ad essi preesistente.
L’Allegato III alla proposta, poi, contempla un elenco tassativo (ma modificabile dalla Commissione mediante atto delegato) di otto nuovi sistemi di IA ritenuti ad alto rischio: quelli applicabili a infrastrutture critiche (si pensi al settore dei trasporti) che potrebbero mettere a rischio la vita e la salute dei cittadini; i sistemi di identificazione biometrica; i sistemi di IA applicati alla formazione scolastica e professionale, idonei a determinare l’accesso degli individui all’istruzione (si pensi al caso di un sistema per il calcolo della votazione a un esame); quelli relativi a occupazione, gestione dei lavoratori e accesso al lavoro autonomo (come nel caso di software di valutazione dei curricula per fini assunzionali); i sistemi IA applicati a servizi pubblici e privati essenziali (sistemi automatizzati di prestazioni previdenziali; sistemi di credit scoring nel settore bancario); sistemi di IA per l’applicazione di norme giuridiche idonei a impattare sui diritti fondamentali delle persone (come nel caso di un calcolo automatizzato del rischio per la concessione del rilascio su cauzione o i c.d. pre-crime software); sistemi di gestione della migrazione, dell’asilo e del controllo delle frontiere (es. verifica dell’autenticità dei documenti di viaggio; trattamento dei visti); sistemi di IA per l’amministrazione della giustizia e altri processi democratici (ad esempio l’assistenza automatizzata alla redazione delle sentenze). Il Parlamento europeo propone di aggiungere a questo elenco i sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico e quelli “post” (ad eccezione di quelli utilizzati dalle forze dell’ordine per il perseguimento di reati gravi e solo previa autorizzazione giudiziaria); i sistemi di classificazione biometrica che utilizzano caratteristiche sensibili (come il genere, l’etnia) e i sistemi di polizia predittiva basati sulla profilazione nonché quelli di riconoscimento delle emozioni nelle forze dell’ordine, nella gestione delle frontiere, sul posto di lavoro e nelle istituzioni educative e, ancora, quelli che implicano l’acquisizione indiscriminata di dati biometrici dai social media o da filmati per creare database di riconoscimento facciale.
4. Con riguardo ai sistemi ad altro rischio (ma, come vedremo, la classificazione è utilizzata anche per gli altri) la proposta IA identifica due categorie di soggetti: i “fornitori” e gli “utenti”, attribuendo loro oneri e responsabilità ben differenti.
L’art. 3 definisce “fornitore” ogni persona fisica o giuridica, autorità pubblica, agenzia o altro organismo che sviluppi o faccia sviluppare un sistema di IA al fine di immetterlo sul mercato o di metterlo in servizio con il proprio nome o marchio, a titolo oneroso o gratuito.
Come si vede, la categoria dei “fornitori” raggruppa sviluppatori e distributori di sistemi IA, siano essi pubblici o privati – e la tendenziale equiparazione delle due situazioni è caratteristica che accomuna spesso le norme di diritto internazionale e UE applicabili al settore digitale – indipendentemente dal fatto che la fornitura avvenga a titolo oneroso o gratuito.
A questa categoria soggettiva, l’art. 16 del draft AIA impone di garantire che i loro sistemi di IA ad alto rischio siano conformi a una serie di standard – la previsione di un sistema di gestione del rischio, di opportuna governance dei dati, la fornitura della necessaria documentazione tecnica, conservare dei registri, il rispetto del principio di trasparenza e la fornitura, quindi, delle necessarie informazioni agli utenti, di garantirne la supervisione umana e accuratezza, robustezza e sicurezza informatica – e di informare le autorità competenti degli Stati membri in cui hanno reso disponibile o messo in servizio il sistema di IA della sua eventuale non conformità con siffatti standard e di eventuali azioni correttive adottate e, su richiesta delle medesime autorità, di dimostrare la conformità del sistema di IA ad alto rischio con i requisiti imposti dal diritto UE.
Si tratta, quindi, della categoria di soggetti alla quale la proposta assegna la maggior parte del carico di responsabilità della gestione dei sistemi di IA ad altro rischio.
Ma è la categoria di coloro che la bozza AIA definisce “utenti” che, con riguardo alla questione della responsabilità dei “fornitori” di servizi di condivisione delle informazioni online, potrebbe giocare un ruolo chiave: l’art. 3 della proposta, infatti, definisce “utente” di un sistema di IA qualsiasi persona fisica o giuridica, autorità pubblica, agenzia o altro organismo che utilizzi tale sistema sotto la sua autorità, ad esclusione del caso in cui il sistema di IA sia sfruttato nel corso di un’attività personale, non professionale.
Si tratta di una categoria che raggruppa un numero di soggetti molto più ampio della precedente: vi rientreranno tutti quelli che, per la loro attività professionale, utilizzeranno sistemi di IA ad alto rischio come, ad esempio, datori di lavoro, banche, assicurazioni, supermercati, Stati e, anche… i “prestatori di servizi intermediari” nel senso del DSA, qualora le loro attività dovessero rientrare tra quelle considerate ad alto rischio.
Ma fino ad oggi l’attenzione sulle loro responsabilità non è stata particolarmente elevata.
La bozza AIA approntata dalla Commissione regola gli obblighi degli utenti all’art. 29, prevedendo che costoro sono tenuti ad utilizzare il sistema nel rispetto delle “istruzioni per l’uso” del fornitore, monitorarlo e garantire un corretto trattamento dei dati, ma non sono tenuti ad adottare ulteriori misure di analisi dell’impatto del sistema IA che utilizzano sui diritti fondamentali o altri beni giuridici, né ad adottare misure attive per limitare i danni connessi.
Insomma, pare proprio che il draft AIA ponga una grande attenzione sulla fase di progettazione dei sistemi di IA (quella di cui sono responsabili i “fornitori”) e sottovaluti, al contempo, il contesto in cui essi vengono utilizzati, di competenza, invece, dei suoi “utenti”. Sebbene gli obblighi imposti ai fornitori, infatti, potrebbero condurre all’eliminazione di eventuali carenze tecniche, i medesimi appaiono, a nostro giudizio, meno idonei a identificare i rischi “applicativi” dei sistemi, i quali possono esser meglio valutati solo dai loro “utenti”.
5. Se poi, i servizi di fornitura di condivisione online di informazioni non dovessero rientrare, come a noi pare pure possibile, tra quelli ad alto rischio, sarebbero loro applicabili le norme di cui al Titolo IV dell’AIA.
L’art. 52 (“Obblighi di trasparenza per determinati sistemi di IA”), infatti, prevede che “i fornitori garantiscono che i sistemi di IA destinati a interagire con le persone fisiche siano progettati e sviluppati in modo tale che le persone fisiche siano informate del fatto di stare interagendo con un sistema di IA, a meno che ciò non risulti evidente dalle circostanze e dal contesto di utilizzo”, contemplando oneri specifici di trasparenza in merito al funzionamento a carico degli “utenti” solo con riguardo ai sistemi di riconoscimento delle emozioni, di categorizzazione biometrica, e a quelli che generano o manipolano immagini o contenuti audio o video che assomigliano notevolmente a persone, oggetti, luoghi o altre entità o eventi esistenti e che potrebbero apparire falsamente autentici o veritieri, i c.d. deep fake. È il caso di chiarire, però, che, ai sensi del par. 4 del medesimo art. 52, anche a tali sistemi si applicano i requisiti e gli obblighi di cui al Titolo III, che abbiamo visto essere applicabili ai sistemi ad altro rischio.
In questo contesto normativo, quindi, un fornitore di servizi di condivisione che utilizzi l’IA per filtrare i contenuti – ad esempio un social network come Facebook, che già oggi fa ampio uso dell’intelligenza artificiale – potrebbe rientrare nella categoria degli “utenti” ai sensi dell’AIA con la conseguenza di vedersi aggravata la posizione di garanzia per la violazione dei diritti di terzi da parte dei suoi utenti, dal momento che, con ogni probabilità non potrebbe invocare l’esenzione dalla responsabilità di cui al DSA in quanto ignaro del contenuto delle informazioni caricate sulle sue piattaforme proprio in quanti filtrate da strumenti di intelligenza artificiale.
Tuttavia, se ci si sposta nel contesto del regime delineato dal draft AIA, una posizione di minore responsabilità è ivi contemplata proprio per gli “utenti” dei meccanismi di intelligenza artificiale – i quali potrebbero coincidere proprio con i “fornitori DSA” che non siano produttori in proprio dei sistemi di IA che utilizzano, caso in cui rientrerebbero nella categoria dei “fornitori AIA” – rispetto alle violazioni di altri diritti fondamentali. E non è un caso che il progresso della procedura legislativa per l’AIA abbia incrementato l’attività di lobbying degli operatori di IA: un rapporto pubblicato il 23 febbraio 2023 dal Corporate Europe Observatory ha mostrato come diverse aziende tecnologiche si siano attivate per influenzare il legislatore europeo nel senso di alleggerire il carico di oneri gravante sugli utenti, ad esempio, spostando l’approccio da forme di etero a forme di autovalutazione. Il Parlamento europeo, dal canto suo, ha proposto modifiche nel senso di richiedere proprio agli utenti di sistemi ad alto rischio di condurre almeno una valutazione d’impatto delle specifiche forme di IA utilizzate sui diritti fondamentali, proprio al fine di rafforzarne la posizione di garanzia.
Il testo costituisce la versione in italiano, aggiornata, di una relazione presentata dall’autore alla Annual Conference on AI Systems and Fundamental Rights della Academy of European Law di Trier (DEU) nel luglio 2023.
No Comment