Intelligenza artificiale e market rigging, dramma risolvibile
Mentre riecheggia l’atto di dolore corale dei demiurghi pentiti, creatori d’intelligenza artificiale che implorano i legislatori di contenere lo strapotere delle loro creature, un dilemma angustia le borse: l’Ai applicata al trading potrebbe manipolare il mercato e perturbare le contrattazioni in libertà, usando o creando fake news oppure replicando modelli illeciti scovati in reti neurali senza percepirne l’illegalità. Nessuno ne pagherebbe lo scotto.
Con calma. La negoziazione algoritmica esiste da più di due decenni, la sua precoce erede, frequency trading che gira al millisecondo, da oltre un decennio. Le regole europee (Mifid2, Mad e Mar) impongono la continenza: sistemi resilienti capaci di gestire picchi di volumi, garantire negoziazioni ordinate in stati critici e continuità di servizio, evitare abusi di mercato. L’assunto è che la macchina è istruita dall’umano, responsabile di ogni sua deviazione o intemperanza. Ora, però, l’Ai introdurrebbe uno iato nel percorso pedagogico: l’uomo può insegnare ma la macchina può imparare da sola. Da qui il distinguo fra sistemi operativi Ai deboli e forti: i primi istruiti dall’umano, per ciò solo responsabile dei loro illeciti, i secondi capaci d’agire autonomamente pervenendo ad esiti non previsti dal loro stesso creatore o istruttore, incolpevole delle malefatte della creatura (v. l’approfondito studio in Consob-Quaderno giuridico n. 29/2023).
Tre soluzioni si fanno strada. La prima (punire la macchina) presuppone una fantascientifica soggettività giuridica del tutto inconcepibile. Peraltro, privo d’autentico sentire, il robot è insensibile all’afflizione sanzionatoria né lo dissuade l’idea del supplizio estremo (la sua distruzione). La seconda (collettivizzare il danno), oltre a odorar di resa, trascura che il principio -applicabile alle frodi informatiche bancarie, dove il cliente risponde solo per dolo o colpa grave e la banca, pur incolpevole, redistribuisce il rischio impercettibilmente e lo compensa coi maggiori profitti derivanti dalla diffusione dell’home banking- non produrrebbe un’equa riallocazione del danno: una manipolazione di mercato potrebbe infatti colpire ingiustamente anche singoli investitori incappati fra gli artigli di un ordigno deviante. La terza soluzione (addossare il rischio ai creatori e istruttori in termini oggettivi, prescindendo cioè dalla consapevolezza di quello stesso rischio) pare ragionevole ma incompleta.
Muoviamo da una verità innegabile: la macchina non crea, pur quando i suoi strabilianti risultati alimentino l’illusione opposta. Essa calcola, precisa e fulminea, ma pur sempre calcola, quindi le occorre materiale. La soluzione sta nel sottrarre l’illecito al calcolo.
Si testi ChatGpt ponendole, con una pur credibilissima giustificazione, domande imbarazzanti e politicamente scorrette. Insensibile al serio contesto giustificatorio, il cervello artificiale rifiuta ogni risposta, adducendo che il tema è improponibile o inopportuno. Perché? Perché chi lo ha creato ha posto limiti alle sue facoltà di elaborazione, sottraendogli materiale di calcolo. Le più diffuse tecniche di market rigging sono note, quindi basta inibire la replica delle prassi illecite e, con un salto quantico ulteriore e benefico per il sistema, far sì che la macchina riesca a individuare, imparandoli e scansandoli, nuovi modelli distorsivi. Lo stesso vale per le eccezioni ammesse dalla legge che il cyber-trader dovrà assimilare e saper adattare alle variabili contingenze.
Non si tratta di porre a carico dei programmatori (e di chi a sua volta li comandi) un rischio oggettivo, ma di applicare elementari principi di prudenza, diligenza, perizia. Donde un’intuibile catena di responsabilità umane, perché le macchine non godono di tecno-impunità.
Già negli anni Ottanta, i pionieri informatici avvertirono: il computer è una macchina stupida, mettendoci spazzatura, spazzatura uscirà, rielaborata ma pur sempre spazzatura. Precisamente.