NON ABBASSARE LA GUARDIA DAVANTI AI RISCHI DELL’INTELLIGENZA ARTIFICIALE. EDITORIALE DI GUSTAVO GHIDINI SUL CORRIERE DELLA SERA

In occasione della proposta di regolamento della Commissione Europea sull’utilizzo dell’intelligenza artificiale, il fondatore del nostro Studio indaga con Daniele Manca, vicedirettore del Corriere, le potenziali derive innescate dall’abuso incontrollato.

Si parla troppo poco, in Italia, di come regolamentare l’utilizzo dell’Intelligenza Artificiale: un argomento di cui si parla invece molto a lungo all’estero, come ad esempio nel caso dell’autista britannico che si è visto disattivare il proprio account di Uber perché il software di scansione dei volti non l’ha riconosciuto per più volte successive.

Si tratta invece di un argomento destinato a influenzare notevolmente le nostre vite, anche giuridicamente: è allo studio una bozza di regolamento proposta dalla Commissione Europea che dovrà in breve venire recepita dalla legislazione di tutti gli stati membri.

Il Prof. Gustavo Ghidini, Professore Emerito presso l’Università degli Studi di Milano e Senior Professor di Diritto Industriale delle Comunicazioni nell’Università Luiss “Guido Carli”, torna dunque su questo tema – già affrontato nella rubrica “L’Appunto” sulla rivista online Dimt.it – con un approfondimento pubblicato dal Corriere della Sera e scritto a quattro mani con il Vicedirettore del quotidiano milanese, Daniele Manca.

È l’occasione per affrontare anche alcuni aspetti che taluni sottovalutano riguardo agli effetti dell’utilizzo distorto dell’AI. Infatti la normativa europea, nel prevedere tre livelli di rischio, include nel rischio massimo evenienze che potrebbero apparire fantascientifiche: non solo tecniche subliminali capaci di falsare il comportamento di una persona e causargli danni psicofisici, ma anche killer bot, sostanze venefiche, impianti sottocutanei per influire sulla psiche.

“Non sembrino esagerate queste preoccupazioni che animano il proposto Regolamento”, ammoniscono gli Autori: “Tecnici e scienziati indirizzati alla ricerca del successo non sempre hanno la mente pre-occupata da problemi etici. Uno dei padri della bomba atomica, il fisico Hans Bethe, testimoniò nel 1954 che i problemi morali sorsero in loro dopo le stragi di Hiroshima e Nagasaki. E il professor Fitz Haber, premio Nobel per la chimica nel 1918, non si pose problemi etici né mai rinnegò una sua celebre creatura: quel cosiddetto gas mostarda che sterminò migliaia di francesi sulle trincee di Ypres”.

Bisogna dunque stare attenti a non abbassare la guardia tenendo conto di tutte le possibili implicazioni etiche che possono derivare dal cattivo utilizzo dell’intelligenza artificiale; e la legislazione deve provvedere a escludere tutti questi casi. “Verranno banditi anche sistemi adottati da autorità pubbliche”, aggiungono gli Autori, “per valutare e classificare con un social scoring l’affidabilità delle persone sulla base del loro comportamento sociale in contesti sociali estranei a quelli in cui i dati sono stati originariamente generati o raccolti. E ciò qualora detti sistemi portino a trattamenti discriminatori di determinate persone o interi gruppi”. Ciò non toglie che possano verificarsi delle eccezioni. Ad esempio, “saranno banditi sistemi di identificazione biometrica a distanza in tempo reale in spazi accessibili al pubblico da parte delle forze dell’ordine, a meno che tale uso sia strettamente necessario a prevenire una minaccia imminente alla vita o alla sicurezza fisica delle persone”.

L’editoriale, pubblicato nell’edizione a stampa del Corriere della Sera, può comunque essere letto online cliccando qui. Nella sezione “Sala Stampa” del nostro Sito è altresì possibile consultare l’archivio completo di tutti gli articoli pubblicati dai Soci dello Studio sul quotidiano milanese.

I Professionisti dello Studio Ghidini Girino e Associati sono chiamati quali relatori di convegni, rendono opinioni su problematiche giuridiche, economiche e finanziarie su primari quotidiani nazionali e su emittenti televisive specializzate.