21 Maggio 2019 / 17:34
Il lato oscuro delle intelligenze artificiali

 
Scenari

Il lato oscuro delle intelligenze artificiali

di Massimo Cerofolini - 19 Luglio 2018
Gli algoritmi ci stanno regalando conquiste positive in tanti campi, compreso quello della finanza e dei pagamenti. Ma bisogna stare attenti ai pericoli: come impedire che vengano compromesse dal cybercrime o dai pregiudizi degli sviluppatori? Come evitare di “avvelenare” il processo attraverso cui gli algoritmi arrivano a determinate scelte?
La prima notizia viene da Portland, qualche settimana fa. Un dispositivo Alexa, l’assistente digitale di Amazon, ha registrato – a loro insaputa – la conversazione di due coniugi e, senza alcun consenso, ha spedito il file audio a un conoscente (per fortuna marito e moglie stavano soltanto discutendo il colore del parquet). La seconda invece arriva dagli uffici di Google in Silicon Valley, dove tremila dipendenti, con una petizione, sono riusciti a bloccare il progetto Maven, che prevedeva la collaborazione tra il colosso del web e il Pentagono per integrare le intelligenze artificiali su armi capaci di sparare in autonomia, valutando le circostanze senza il comando umano.
Ecco, tra il piccolo errore di programmazione, che Amazon ha subito corretto, e il pericolo globale di guerre decise dai robot, si colloca la lunga scala di grigi pennellati dall’arrivo degli algoritmi in ogni aspetto della nostra vita, compreso quello legato alla gestione del denaro. Dopo il caso di Facebook e Cambridge Analytica, si moltiplicano infatti tra gli addetti ai lavori domande ancora in cerca di risposta. Ad esempio, chi è responsabile delle decisioni prese dalle intelligenze artificiali? Come rendere trasparente il processo che porta a determinate decisioni? Come evitare che la scrittura dei codici sia influenzata dai pregiudizi dei singoli programmatori? Come impedire che gli algoritmi siano avvelenati da input maliziosi capaci di produrre azioni illecite o vantaggi scorretti?

Intelligenza artificiale, tante luci …

Prima di tentare qualche risposta, una premessa. Le intelligenze artificiali, composte da software e processori che si organizzano come reti neurali, sono alla base di uno straordinario progresso per l’umanità, capace di portare benefici in tanti ambiti. Spiega Fabio Roli, docente di Machine Learning all’Università di Cagliari: “Le applicazioni più promettenti stanno ridisegnando le regole di molte attività che avevano processi consolidati da anni. Ci sono per esempio le tecniche per il riconoscimento delle immagini e dei video, che permettono di identificare una persona dai tratti del volto e sono alla base delle auto senza pilota o della nuova diagnostica medica per immagini. Vanno molto forte i cosiddetti chatbot, ossia le macchine capaci di interagire con le persone con un linguaggio naturale, scritto o addirittura parlato, sempre più usati nell’ambito del marketing aziendale e del rapporto con la clientela. E poi si passa agli algoritmi capaci di fare previsioni in campo medico, sociale o finanziario, quelli per esempio che analizzano i mercati o gestiscono la manutenzione delle macchine. Ma anche i cosiddetti algoritmi di matching, che valutano l’opportunità di determinati abbinamenti e corrispondenze, in campo bancario, commerciale, sentimentale o lavorativo. Basti pensare ai sistemi automatizzati che facilitano le gestione delle risorse umane nelle aziende o la concessione di prestiti”.

…. e tre grosse ombre

Questo è il lato luminoso del futuro. Ma dietro ogni conquista positiva, dietro ogni crescita, si può aprire un potenziale pericolo. Da cui proteggersi. Tanto per cominciare un tallone d’Achille delle AI (Artificial Intelligence) sta proprio nella comune percezione che si ha di loro. Ossia, sequenze matematiche, tendenzialmente oggettive, neutrali. Ma non è affatto così. Andrea Zapparoli Manzoni ogni anno prepara, tra gli altri, il rapporto Clusit sulla sicurezza informatica. Alle consuete analisi su attacchi ai danni dei software, da qualche tempo aggiunge il censimento delle nuove minacce nascoste nelle intelligenze artificiali. “L’azione più subdola – osserva – è avvelenare il processo attraverso cui gli algoritmi arrivano a determinate scelte. Se si alterano subdolamente alcune premesse, si possono deviare le conclusioni verso esiti criminosi. Si possono ad esempio orientare scelte mediche, privilegiando un paziente rispetto a un altro, o concedere mutui e finanziamenti a chi non spetterebbero, negandoli a chi invece ne avrebbe diritto. Ma si può anche ascoltare quello che avviene in una casa o dentro un’auto tramite gli assistenti vocali: pochi sanno che gli ultrasuoni non percepibili dagli uomini possono essere usati per hackerare questi dispositivi e, senza che nessuno se ne accorga, permettere a soggetti malintenzionati di azionare comandi a distanza, impossessarsi delle password di un conto online, effettuare pagamenti all’insaputa del titolare, indirizzare le ricerche verso siti web dannosi o addirittura cambiare il sistema di navigazione di una vettura, magari chiedendo un riscatto in cambio del ripristino”.
Non solo. Si possono anche sottoporre all’intelligenza artificiale una serie di casi volutamente distorti per compromettere lo sviluppo logico del programma. È esperienza comune l’arrivo di tante mail apparentemente prive di senso: in realtà, spesso, il vero scopo è quello di confondere, e inquinare, la protezione degli algoritmi con cui operano i nostri sistemi antispam.
“Anche ingannare i sistemi di riconoscimento delle immagini – incalza Corrado Giustozzi, esperto di sicurezza informatica, crittografia e cybercrime, noto con il nickname Nightgaunt - può diventare un gioco da ragazzi. Esistono per esempio speciali occhiali di cartone con cui, disegnando una serie di puntini nelle zone giuste, è possibile aggirare i controlli di un algoritmo e fargli credere che non sei tu, ma – per dire - George Clooney. Per non parlare dei software, facilmente reperibili online, che consentono di ricostruire voci e video di una persona, facendogli dire quello che si vuole, a partire da pochi secondi di audio o da una semplice foto. Oggi sono simpatici passatempi, ma trasformarli in strumenti nocivi è un attimo”.
La posta in gioco, nell’era della fake society, è altissima. In mano a organizzazioni criminali le nuove tecnologie possono diventare armi per raggiri, estorsioni e inganni anche a sfondo politico. Ma accanto a un’azione criminale consapevole, un secondo pericolo sull’affidabilità degli algoritmi arriva dalle idee personali di chi concretamente scrive i codici e imposta il lavoro delle reti neurali. Dice Reshma Saujani, in Italia per presentare Girls who Code, l’associazione che incoraggia le ragazze a impadronirsi dei segreti della tecnologia: “Se lo sviluppatore ha, per esempio, un pregiudizio verso le donne sarà per portato ad attribuire una voce femminile agli assistenti virtuali, confermando lo stereotipo della donna segretaria che esegue gli ordini del capo. Ma lo stesso si può dire di un algoritmo di una banca che, nella concessione di un prestito, tenda a sfavorire di chi viva in quartieri di periferia o abbia preferenze sessuali diverse dalla norma”. Perché come osserva il Garante della privacy, Antonello Soro, nella sua recente relazione, “gli algoritmi non sono neutri sillogismi di calcolo, ma opinioni umane strutturate in forma matematica che, come tali, riflettono, in misura più o meno rilevante, le precomprensioni di chi li progetta, rischiando di volgere la discriminazione algoritmica in discriminazione sociale”.
C’è poi un terzo tipo di problema, accanto alla malafede o allo scarso equilibrio di chi mette mano ai codici. Quello che sia la stessa intelligenza artificiale ad arrivare a risultati illogici. Riflette Roli: “Ricostruire il percorso con cui la macchina arriva a una certa conclusione è come chiedere a un campione di tennis in che modo è riuscito a eseguire un colpo perfetto. Difficilmente ti saprà scomporre tutti i passaggi del suo movimento: gli è venuto così perché gli è venuto così. Dunque, finché le cose vanno bene, finché le intelligenze artificiali prevedono l’andamento della Borsa meglio di un broker, il bilancio è positivo. Ma quando il meccanismo s’inceppa, ed esplode un problema, risalire al punto da correggere è molto difficile”.

Come tutelarsi?

Per combattere queste forme di opacità le strategia sono diverse. Anzitutto un aiuto viene dal Gdpr, la normativa europea sulla privacy entrata in vigore a maggio scorso. Spiega Luigi Montuori, responsabile Affari internazionali e europei all’Ufficio del Garante per la protezione dei dati personali: “La normativa dice che occorre provvedere alle contromisure già nella fase di progettazione. Inoltre, in corso d’opera, è necessario fare una valutazione d’impatto dell’intelligenza artificiale. E in caso di dubbi ci si può rivolgere ai nostri uffici per ricevere un feedback”.
Ci sono poi disposizioni particolari per quanto riguarda la salute. “C’è una sorta di braccio di ferro tra chi fa ricerca e chi tutela la privacy”, dice Roli, “perché applicare le norme in modo stringente rischia di paralizzare l’attività dei laboratori”. In questo caso, il compromesso sta nella cosiddetta pseudo anonimizzazione: “Non identifico le persone con il loro nome ma con una sigla”, chiarisce Montuori, “in modo che si possano fare associazioni tra diagnosi e terapie senza intaccare la sfera intima delle persone”.
Anche dal punto di vista strettamente tecnico gli sviluppatori sono al lavoro per produrre contromisure adeguate. “In generale – osserva Zapparoli Manzoni – una soluzione potrebbe essere quella di prevedere una seconda intelligenza artificiale che faccia da notaio alla prima. Se l’AI fornisce risposte diverse da quelle attese, dovrebbe suonare un allarme per verificare se si è in presenza di un’evoluzione positiva, di una cattiva scrittura o di un vero e proprio agguato criminale”.
 
CONTENUTI CORRELATI

Il costo del cyber crime

Quello bancario è il settore più colpito a livello mondiale, con un impatto economico cresciuto dell'11% nel 2018. Lo rivela Andrea Agosti...

Le sfide per i Ciso

Dalla cyber security alla cyber resilienza nell’analisi di Paolo Carcano di Pwc. Al centro il ruolo strategico del responsabile della sicurezza: nel...

I dipendenti prima linea di difesa

Nelle aziende molte violazioni informatiche dipendono da comportamenti che hanno funzionato da apri porta agli attacchi. Per questo, per Daman è...

"Open banking e AI: grandi opportunità, ma occhio ai rischi"

Da un lato l'intelligenza artificiale, lo sviluppo degli algoritmi, le black box e i modelli decisionali. Dall'altra, l'open banking e la convivenza...
ALTRI ARTICOLI

 
Sicurezza

La digital transformation nella sicurezza fisica

La tecnologia è tra i principali fattori che contribuiscono alla diminuzione delle rapine in banca. Dal sensore di allarme al sensore di situazione,...

 
Sicurezza

Il costo del cyber crime

Quello bancario è il settore più colpito a livello mondiale, con un impatto economico cresciuto dell'11% nel 2018. Lo rivela Andrea Agosti...

 
Sicurezza

Le sfide per i Ciso

Dalla cyber security alla cyber resilienza nell’analisi di Paolo Carcano di Pwc. Al centro il ruolo strategico del responsabile della sicurezza: nel...
Un disclaimer al termine di un filmato garantisce la trasparenza e la correttezza di una pubblicità...
Per le banche fare modern marketing resta fondamentale anche nel nuovo contesto disegnato dal regolamento...