Banner Pubblicitario
19 Marzo 2024 / 04:25
Il lato oscuro delle intelligenze artificiali

 
Scenari

Il lato oscuro delle intelligenze artificiali

di Massimo, Cerofolini - 19 Luglio 2018
Gli algoritmi ci stanno regalando conquiste positive in tanti campi, compreso quello della finanza e dei pagamenti. Ma bisogna stare attenti ai pericoli: come impedire che vengano compromesse dal cybercrime o dai pregiudizi degli sviluppatori? Come evitare di “avvelenare” il processo attraverso cui gli algoritmi arrivano a determinate scelte?
La prima notizia viene da Portland, qualche settimana fa. Un dispositivo Alexa, l’assistente digitale di Amazon, ha registrato – a loro insaputa – la conversazione di due coniugi e, senza alcun consenso, ha spedito il file audio a un conoscente (per fortuna marito e moglie stavano soltanto discutendo il colore del parquet). La seconda invece arriva dagli uffici di Google in Silicon Valley, dove tremila dipendenti, con una petizione, sono riusciti a bloccare il progetto Maven, che prevedeva la collaborazione tra il colosso del web e il Pentagono per integrare le intelligenze artificiali su armi capaci di sparare in autonomia, valutando le circostanze senza il comando umano.
Ecco, tra il piccolo errore di programmazione, che Amazon ha subito corretto, e il pericolo globale di guerre decise dai robot, si colloca la lunga scala di grigi pennellati dall’arrivo degli algoritmi in ogni aspetto della nostra vita, compreso quello legato alla gestione del denaro. Dopo il caso di Facebook e Cambridge Analytica, si moltiplicano infatti tra gli addetti ai lavori domande ancora in cerca di risposta. Ad esempio, chi è responsabile delle decisioni prese dalle intelligenze artificiali? Come rendere trasparente il processo che porta a determinate decisioni? Come evitare che la scrittura dei codici sia influenzata dai pregiudizi dei singoli programmatori? Come impedire che gli algoritmi siano avvelenati da input maliziosi capaci di produrre azioni illecite o vantaggi scorretti?

Intelligenza artificiale, tante luci …

Prima di tentare qualche risposta, una premessa. Le intelligenze artificiali, composte da software e processori che si organizzano come reti neurali, sono alla base di uno straordinario progresso per l’umanità, capace di portare benefici in tanti ambiti. Spiega Fabio Roli, docente di Machine Learning all’Università di Cagliari: “Le applicazioni più promettenti stanno ridisegnando le regole di molte attività che avevano processi consolidati da anni. Ci sono per esempio le tecniche per il riconoscimento delle immagini e dei video, che permettono di identificare una persona dai tratti del volto e sono alla base delle auto senza pilota o della nuova diagnostica medica per immagini. Vanno molto forte i cosiddetti chatbot, ossia le macchine capaci di interagire con le persone con un linguaggio naturale, scritto o addirittura parlato, sempre più usati nell’ambito del marketing aziendale e del rapporto con la clientela. E poi si passa agli algoritmi capaci di fare previsioni in campo medico, sociale o finanziario, quelli per esempio che analizzano i mercati o gestiscono la manutenzione delle macchine. Ma anche i cosiddetti algoritmi di matching, che valutano l’opportunità di determinati abbinamenti e corrispondenze, in campo bancario, commerciale, sentimentale o lavorativo. Basti pensare ai sistemi automatizzati che facilitano le gestione delle risorse umane nelle aziende o la concessione di prestiti”.

…. e tre grosse ombre

Questo è il lato luminoso del futuro. Ma dietro ogni conquista positiva, dietro ogni crescita, si può aprire un potenziale pericolo. Da cui proteggersi. Tanto per cominciare un tallone d’Achille delle AI (Artificial Intelligence) sta proprio nella comune percezione che si ha di loro. Ossia, sequenze matematiche, tendenzialmente oggettive, neutrali. Ma non è affatto così. Andrea Zapparoli Manzoni ogni anno prepara, tra gli altri, il rapporto Clusit sulla sicurezza informatica. Alle consuete analisi su attacchi ai danni dei software, da qualche tempo aggiunge il censimento delle nuove minacce nascoste nelle intelligenze artificiali. “L’azione più subdola – osserva – è avvelenare il processo attraverso cui gli algoritmi arrivano a determinate scelte. Se si alterano subdolamente alcune premesse, si possono deviare le conclusioni verso esiti criminosi. Si possono ad esempio orientare scelte mediche, privilegiando un paziente rispetto a un altro, o concedere mutui e finanziamenti a chi non spetterebbero, negandoli a chi invece ne avrebbe diritto. Ma si può anche ascoltare quello che avviene in una casa o dentro un’auto tramite gli assistenti vocali: pochi sanno che gli ultrasuoni non percepibili dagli uomini possono essere usati per hackerare questi dispositivi e, senza che nessuno se ne accorga, permettere a soggetti malintenzionati di azionare comandi a distanza, impossessarsi delle password di un conto online, effettuare pagamenti all’insaputa del titolare, indirizzare le ricerche verso siti web dannosi o addirittura cambiare il sistema di navigazione di una vettura, magari chiedendo un riscatto in cambio del ripristino”.
Non solo. Si possono anche sottoporre all’intelligenza artificiale una serie di casi volutamente distorti per compromettere lo sviluppo logico del programma. È esperienza comune l’arrivo di tante mail apparentemente prive di senso: in realtà, spesso, il vero scopo è quello di confondere, e inquinare, la protezione degli algoritmi con cui operano i nostri sistemi antispam.
“Anche ingannare i sistemi di riconoscimento delle immagini – incalza Corrado Giustozzi, esperto di sicurezza informatica, crittografia e cybercrime, noto con il nickname Nightgaunt - può diventare un gioco da ragazzi. Esistono per esempio speciali occhiali di cartone con cui, disegnando una serie di puntini nelle zone giuste, è possibile aggirare i controlli di un algoritmo e fargli credere che non sei tu, ma – per dire - George Clooney. Per non parlare dei software, facilmente reperibili online, che consentono di ricostruire voci e video di una persona, facendogli dire quello che si vuole, a partire da pochi secondi di audio o da una semplice foto. Oggi sono simpatici passatempi, ma trasformarli in strumenti nocivi è un attimo”.
La posta in gioco, nell’era della fake society, è altissima. In mano a organizzazioni criminali le nuove tecnologie possono diventare armi per raggiri, estorsioni e inganni anche a sfondo politico. Ma accanto a un’azione criminale consapevole, un secondo pericolo sull’affidabilità degli algoritmi arriva dalle idee personali di chi concretamente scrive i codici e imposta il lavoro delle reti neurali. Dice Reshma Saujani, in Italia per presentare Girls who Code, l’associazione che incoraggia le ragazze a impadronirsi dei segreti della tecnologia: “Se lo sviluppatore ha, per esempio, un pregiudizio verso le donne sarà per portato ad attribuire una voce femminile agli assistenti virtuali, confermando lo stereotipo della donna segretaria che esegue gli ordini del capo. Ma lo stesso si può dire di un algoritmo di una banca che, nella concessione di un prestito, tenda a sfavorire di chi viva in quartieri di periferia o abbia preferenze sessuali diverse dalla norma”. Perché come osserva il Garante della privacy, Antonello Soro, nella sua recente relazione, “gli algoritmi non sono neutri sillogismi di calcolo, ma opinioni umane strutturate in forma matematica che, come tali, riflettono, in misura più o meno rilevante, le precomprensioni di chi li progetta, rischiando di volgere la discriminazione algoritmica in discriminazione sociale”.
C’è poi un terzo tipo di problema, accanto alla malafede o allo scarso equilibrio di chi mette mano ai codici. Quello che sia la stessa intelligenza artificiale ad arrivare a risultati illogici. Riflette Roli: “Ricostruire il percorso con cui la macchina arriva a una certa conclusione è come chiedere a un campione di tennis in che modo è riuscito a eseguire un colpo perfetto. Difficilmente ti saprà scomporre tutti i passaggi del suo movimento: gli è venuto così perché gli è venuto così. Dunque, finché le cose vanno bene, finché le intelligenze artificiali prevedono l’andamento della Borsa meglio di un broker, il bilancio è positivo. Ma quando il meccanismo s’inceppa, ed esplode un problema, risalire al punto da correggere è molto difficile”.

Come tutelarsi?

Per combattere queste forme di opacità le strategia sono diverse. Anzitutto un aiuto viene dal Gdpr, la normativa europea sulla privacy entrata in vigore a maggio scorso. Spiega Luigi Montuori, responsabile Affari internazionali e europei all’Ufficio del Garante per la protezione dei dati personali: “La normativa dice che occorre provvedere alle contromisure già nella fase di progettazione. Inoltre, in corso d’opera, è necessario fare una valutazione d’impatto dell’intelligenza artificiale. E in caso di dubbi ci si può rivolgere ai nostri uffici per ricevere un feedback”.
Ci sono poi disposizioni particolari per quanto riguarda la salute. “C’è una sorta di braccio di ferro tra chi fa ricerca e chi tutela la privacy”, dice Roli, “perché applicare le norme in modo stringente rischia di paralizzare l’attività dei laboratori”. In questo caso, il compromesso sta nella cosiddetta pseudo anonimizzazione: “Non identifico le persone con il loro nome ma con una sigla”, chiarisce Montuori, “in modo che si possano fare associazioni tra diagnosi e terapie senza intaccare la sfera intima delle persone”.
Anche dal punto di vista strettamente tecnico gli sviluppatori sono al lavoro per produrre contromisure adeguate. “In generale – osserva Zapparoli Manzoni – una soluzione potrebbe essere quella di prevedere una seconda intelligenza artificiale che faccia da notaio alla prima. Se l’AI fornisce risposte diverse da quelle attese, dovrebbe suonare un allarme per verificare se si è in presenza di un’evoluzione positiva, di una cattiva scrittura o di un vero e proprio agguato criminale”.
 
Forum  ABI Lab 2024_ BANNER MEDIUM
ALTRI ARTICOLI

 
ESG

Intelligenza Verde

La vita media di una specie su questa terra è 5milioni di anni. Noi umani siamo qui da 300mila anni. Tra 4milioni e 700mila anni potremo stabilire...

 
Credito

Credito e Finanza, un impegno a tutto campo per la crescita

Tre chiavi di lettura e tre prospettive di analisi per presentare l’orizzonte di temi e gli scenari di azioni strategiche che caratterizzanno...

 
Diversity & Inclusion in Finance

Dalle Banche una Guida contro la violenza economica

Un vademecum chiaro ed efficace, realizzato da ABI e FEduF in raccordo con il Dipartimento per le Pari opportunità della Presidenza del Consiglio dei...
Il Salone dei Pagamenti 2023
Il Salone dei Pagamenti è il più importante appuntamento nazionale di riferimento su Pagamenti e Innovazione...
Icona Facebook Icona Twitter Icona LinkedIn
Bancaforte TV
Novità dal SDP 2023 - Dal butterfly effect al "CBI effect"
Un grande cambiamento può essere determinato anche da un battito di ali di una farfalla. È il "buttefly...
Icona Facebook Icona Twitter Icona LinkedIn
Banner Pubblicitario