TRE LIVELLI DI RISCHIO PER L’INTELLIGENZA ARTIFICIALE – UN’ANALISI DI GUSTAVO GHIDINI SU “DIRITTO MERCATO TECNOLOGIA”

Nella nuova puntata della sua rubrica “L’appunto”, sul sito DIMT.it, il fondatore del nostro Studio prende in considerazione il futuro regolamento Ue riguardo ai fattori di rischio dell’utilizzo della AI, evidenziando qualche mancanza.

Dai romanzi di Isaac Asimov alle serie tv distopiche, il timore che l’Intelligenza Artificiale possa finire per costituire un danno per l’uomo ha sempre accompagnato il progresso. Di là dagli incubi della fantascienza, tuttavia, la giurisprudenza ha il dovere di preventivare scenari e imporre limiti: per questo ad aprile la Commissione Europea ha prodotto una proposta di normativa in materia di Intelligenza Artificiale, che diverrà immediatamente operativo non appena approvato dal Parlamento Europeo.

A questa novità il Prof. Gustavo Ghidini, Professore Emerito presso l’Università degli Studi di Milano e Senior Professor di Diritto Industriale delle Comunicazioni nell’Università Luiss “Guido Carli”, dedica la seconda puntata della rubrica “L’appunto” sulla rivista “Diritto Mercato Tecnologia”.

Il nuovo regolamento prevede tre livelli di rischio. Uno, il rischio inaccettabile, è quello che proibisce sistemi di AI che violino la dignità e la sicurezza delle persone: non solo provocando un danno fisico, che va comunque escluso, ma anche utilizzando tecniche subliminali o discriminando gli utenti in base a un “punteggio sociale”. Il rischio accettabile – che comporta obblighi di precauzione, controllo accurato da parte di personale umano e informazione dettagliata nei confronti degli utenti – riguarda invece la AI che assiste giudici o chirurghi, o sistemi che decidono se un visto può essere concesso o meno. Infine, nella fascia del rischio minimo rientrano i filtri anti-spam, i sistemi di manutenzione predittiva, i videogiochi progettati attorno a un utilizzo massiccio dell’AI: potranno tutti essere utilizzati senza specifici obblighi giuridici poiché sostanzialmente innocui rispetto a sicurezza e libertà degli utenti.

“Il proposto regolamento sulla AI affiancherà il noto GDPR in materia di privacy”, illustra il Prof. Ghidini, “e anzi vi si intreccerà, rafforzandone le linee guida e disincentivando interpretazioni evolutive. Mi auguro che ciò consenta di vietare deprecabili applicazioni giudiziarie dell’AI, che non si limitino a offrire un ampio quadro informativo ma si spingano a predire o incoraggiare una soluzione”.

Per il Prof. Ghidini tuttavia la proposta di regolamento presenta alcune lacune: “Ad esempio, la limitazione del divieto delle applicazioni che implichino rischio assoluto ad amministrazioni e luoghi pubblici (pensate ai sistemi di sorveglianza che monitorano il tempo trascorso in bagno da un dipendente). Oppure la concessione ai privati, che hanno interesse economico nell’utilizzazione dei sistemi di AI, di valutare in prima persona la loro conformità alle normative. Per non parlare del riferimento piuttosto confuso alla proprietà intellettuale delle applicazioni di AI, che non esclude la possibilità di tutelare con brevetto o copyright strumenti che comportino rischio assoluto”. Ciò non toglie, conclude, che “questa proposta sia un’iniziativa complessivamente salutare. Ci sono buoni formaggi, pur pieni di buchi”.

L’appunto” del prof. Gustavo Ghidini su DIMT.it può essere letto integralmente a questo link. Sull’archivio della rivista online è presente anche la precedente puntata sugli snippets.