L’Intelligenza artificiale? Nessuna paura, prendiamola con filosofia
di Massimo Cerofolini
-
7 Febbraio 2025
Intervista al filosofo di Yale Luciano Floridi, autore di Filosofia dell’informazione: serve un ramo nuovo nella filosofia che rifletta sulla rivoluzione dell’Intelligenza artificiale nelle nostre vite. “Le macchine – spiega – svolgono oggi compiti complessi come le traduzioni, che sembravano impossibili solo pochi anni fa. Ma non comprendono il significato semantico di ciò che elaborano”. Fondamentale, sottolinea Floridi, l'importanza di distinguere tra informazioni vere e false, pur riconoscendo sfumature e opinioni, e la necessità di trovare criteri contro le fake news senza cadere nella censura. “L’impatto dell’Ia – osserva – cambierà tutto. E nella finanza impatterà su gestione dei rischi, lotta al riciclaggio e cura personalizzata dei portafogli”.
«La tecnologia controlla il mondo, crea nuove realtà, stimola idee originali, mette in discussione vecchie etichette, genera innovazione intellettuale e influenza il modo in cui interpretiamo gli eventi. Quello che però manca è la categoria del pensiero con cui leggere tutti questi fenomeni. Ecco perché è arrivato il momento di aprire un nuovo ramo della filosofia capace di occuparsene». Parte da questa premessa Filosofia dell’informazione, il libro manifesto pubblicato da Luciano Floridi, filosofo che da un anno dirige a Yale il Digital Ethics Center, dopo una lunga esperienza a Oxford, e che ha di recente anche debuttato in teatro con lo spettacolo Orbits Dialogues with intelligence, in cui racconta con spirito divulgativo il suo rapporto con la grande rivoluzione degli algoritmi di Intelligenza artificiale.
Ospite in passato del Salone dei pagamenti dell’ABI, accetta di rispondere alle nostre domande. Perché anche in tema di finanza e banche, come scopriremo più avanti, lo studioso romano ha ragionato a lungo.
Professor Floridi, partiamo dal titolo del libro: cos’è la filosofia dell’informazione?
La domanda è difficile, però si può dare una risposta semplice. La filosofia si occupa di tantissime cose, di molteplici aspetti della nostra cultura. Sappiamo, ad esempio, che si occupa di arte e abbiamo l’estetica; oppure si occupa del linguaggio; o della matematica con la filosofia della matematica. Di tanto in tanto, dai tempi dei Greci in poi, succede però che la filosofia perda qualche pezzo per strada. Oggi per esempio non si occupa più di astronomia, perché quello studio l’abbiamo poi delegato agli scienziati; non si occupa più di biologia, di chimica e altro ancora. C’è una sorta di perdita, come un rubinetto. Ecco, quello che bisogna anche sapere è che c’è anche un’entrata: e cioè la filosofia acquisisce di tanto in tanto nuovi elementi. Per esempio, dopo la Rivoluzione industriale è arrivato il marxismo: la filosofia politica diventava una cosa importantissima come non era mai stata in passato. Bene, oggi abbiamo una grande rivoluzione davanti a noi, che è questa rivoluzione del digitale, di una società basata sull’informazione. È una sorta di entrata nuova come argomento per la riflessione filosofica. E in questo caso la filosofia ha acquisito un enorme territorio nuovo che è tutto quello dell’informazione.
Finora i filosofi non si erano mai occupati di informazione?
Sì, l’abbiamo sempre utilizzata, l’informazione. Però l’abbiamo usata e non ci abbiamo riflettuto sopra. È un po’ come quello che in cucina ha sempre usato certi ingredienti senza chiedersi: «Ma il pomodoro da dove viene? Cioè, c’è sempre stato?». No, non c’è sempre stato, il pomodoro viene dall’America ed era sconosciuto da noi prima della scoperta di Cristoforo Colombo. Allora l’hai sempre usato, il pomodoro, ma non ci hai mai pensato sopra. Ecco, se volete, è una riflessione che arriva anche un po’ tardi sull’uso e il valore fondamentale dell’informazione nella nostra cultura.
Il bisogno di trovare nuove categorie di pensiero è dato dal fatto che siamo di fronte a qualcosa di nuovo, certamente. Ma anche perché per la prima volta nella storia umana siamo davanti a un agente nuovo, a qualcosa di alieno, diverso da noi, cioè gli algoritmi di Intelligenza artificiale, Alexa e tanti dispositivi che ci portiamo dietro. Allora, una sua prima riflessione filosofica è cercare di capire come le macchine comprendono quello che noi vogliamo da loro. Perché noi umani ci capiamo grazie a dei simboli, che sono le parole, il linguaggio, i gesti. Le macchine le capiscono queste cose? Come le capiscono? A che livello? Qual è la dose di errore in cui inevitabilmente cadono?
È una cosa interessantissima di cui ci stiamo proprio occupando in questo periodo, perché abbiamo delle nuove macchine che fanno cose che fino all’altro ieri si diceva, anche tra esperti, che avrebbero potuto farle soltanto gli esseri umani. Per esempio una traduzione. Affermavano: «Vuoi tradurre Dante? Oppure vuoi tradurre Shakespeare? Ah, ma questo lo fai soltanto capendo veramente il significato profondo del linguaggio». Allora sì, funzionava così, e infatti quello del traduttore era un grande mestiere. Ma qual è la cosa straordinaria che è avvenuta sotto i nostri occhi? Noi una traduzione la dobbiamo fare avendo una reale comprensione del significato del testo. Ossia dobbiamo conoscere la semantica: cosa vuol dire, in che contesto, qual era l’intenzione dell’autore e via dicendo. La macchina al contrario, abbiamo scoperto, non ne ha bisogno per fare un lavoro altrettanto buono.
E dunque qual è il suo processo di lettura del reale?
Faccio un piccolo esempio: immaginate di stare davanti a una vetrina e dovete comporre sul vetro un puzzle da diecimila pezzi, uno di quelli incredibili. Cosa fai? Guardi i colori, guardi la figura, hai la fotografia, certo: è il puzzle del Colosseo. E allora c’è la parte marrone, c’è quella blu, che deve essere il cielo. Insomma, tu guardi il significato e lo costruisci. Dall’altra parte di questo vetro c’è invece la macchina. La macchina ricompone tutti i pezzi guardando ai contorni dei pezzettini: quale pezzettino ha quel contorno, con quale la figura, la struttura di quella tessera, si incastra e mette tutto nel posto giusto. Se tu stai di qua, e vedi pian piano il puzzle che la macchina ti fa, la tentazione di dire «capisce che è il Colosseo» o «sa che cos’è il cielo» è irresistibile. Ma dall’altra parte di questo schermo la macchina, tra virgolette, non capisce nulla. O meglio: gestisce perfettamente, in un modo che noi non saremmo in grado di fare, ogni contorno di ogni tessera per ogni punto di quel puzzle, cioè lo fa con una velocità straordinaria per milioni e milioni di operazioni. A te che guardi sembra un miracolo. Ma in realtà dall’altra parte c’è tanta statistica, tanti dati, tanti calcoli, ma assolutamente zero comprensione. Uno dice: «Hai visto? Ha riconosciuto il Colosseo». No, no. Ha riconosciuto il disegno di ogni tessera del mosaico e l’ha collocata al suo posto. È questo quello che fanno gli algoritmi come ChatGpt.
A proposito, una delle promesse di questo nuovo ultimo modello, OpenAi-o1, è proprio di superare la difficoltà delle macchine di capire il contesto, di mettere insieme le relazioni tra le cose. E di fatto ritarda di qualche secondo la risposta alle domande più complesse simulando una sorta di ragionamento. Che ne pensa?
Anche qui non è tanto difficile capire che cosa vuol dire contesto. La macchina lavora su zeri e uno, su quelli che si chiamano i token, che sono dei pezzettini di parole. È un po’ come se io dicessi: «uom-», che potrebbe essere sia uomo che uomini. Insomma, frammenti di parole che hanno la loro struttura. Vi ricordate le tessere del puzzle? Ogni pezzettino al suo posto. Se tu guardi miliardi e miliardi di questi pezzettini, costruisci una sorta di mappa di dove ogni pezzettino probabilmente deve andare a finire. Ma zero comprensione. La nuova versione di Gpt ha ampliato enormemente il numero di token, cioè di pezzettini che è in grado di controllare a destra e a sinistra della parte che a te interessa. Allora, se noi, ad esempio, prima avevamo da completare il puzzle del Colosseo, ora non è soltanto quello, il puzzle riguarda tutta Roma, una cosa che richiederebbe chilometri quadrati di puzzle. Ma come faccio adesso? Devi guardare un po’ più in qua, un po’ più in là, un po’ più su, un po’ più giù: quello che noi chiamiamo contesto, in realtà per la macchina è quanto linguaggio c’è da una parte e dall’altra delle sue analisi. Ma non vuol dire che esca, si faccia una passeggiata ai Fori Imperiali, torni e ti dica: «Guarda, è così». Non è il contesto nostro, cioè della nostra vita, della nostra esistenza. È quanto spazio, in termini di token, riesce a coprire. Ogni volta che aggiungi un po’ di spazio di questi token, sono milioni di dollari, enormi quantità di energia elettrica, computazione da far paura e dati a non finire. Queste quattro risorse sono quelle che fanno la differenza.
Quando parliamo di informazione, lei sostiene che deve essere vera per avere valore, e che riconoscere le cosiddette fake news sarà una delle capacità più necessarie in futuro per ogni essere umano. Però le voglio fare una domanda: ci sono ambiti in cui le informazioni non sono completamente vere oppure sono incomplete, ma ugualmente utili? Pensiamo al marketing, alla comunicazione politica, pensiamo a una bugia detta per discrezione, per gentilezza o a fin di bene, pensiamo a tutti quei fatti su cui non c’è una verità accertata, ma solo opinioni. Ecco, come si fa ad attribuire valore alla verità quando la verità è qualcosa di così sfuggente, così indefinito?
Giusto, sono osservazioni corrette, perché ci fanno rendere conto di quanto sia molto più sfumata la situazione in generale su quello che noi prendiamo come il valore ultimo dell’informazione. È chiaro che a noi piacerebbe assumere che ogni informazione ricevuta sia vera. Ma ad esempio può esserci una bugia anche se dici una cosa vera. Cioè, se io penso che ti voglio imbrogliare e che dicendoti una certa cosa ti sto imbrogliando, magari ho detto una cosa vera e però lo sto facendo con l’intenzione di manipolare la tua opinione. Noi dobbiamo riconoscere che anche nell’informazione falsa o in quella incompleta c’è molta informazione che non è né vera né falsa perché, ad esempio, è un’opinione. Ossia, io penso ad esempio che il sistema di legislazione americano funziona meglio di quello italiano. Vero? Falso? Beh, insomma, opinabile, come si dice, e allora siamo aperti a discussioni. C’è un’enorme utilità anche di cose che noi diamo come informazione non vera, parziale. E questo però non vuol dire che allora non abbiamo bisogno, come dire, di una sorta di golden standard, cioè di un’aspirazione alla verità e al discernimento di queste sfumature.
La diffusione di programmi di Intelligenza artificiale che possono simulare contenuti testuali, voci, immagini e video indistinguibili da quelli reali pone il problema della percezione della verità nei prossimi anni. Finiremo per diffidare di tutto, salvo prova contraria? In più le legislazioni europee, a cominciare dall’Ai Act, pongono sui giganti tecnologici e sulle aziende private in generale la responsabilità di non diffondere contenuti falsi. Come facciamo a decidere ogni volta? Cosa sanzionare,cosa è falso e cosa no?
Questo è veramente molto difficile perché le macchine non hanno, come dicevamo, nessun contesto, nessuna comprensione. Non c’è semantica, cioè il significato, e sicuramente non c’è un senso di verità o falsità: l’anima della macchina ti vuole imbrogliare? No. Non solo. La questione delle fake news è sempre a rischio di censura. Cioè, negli Stati Uniti, dove ormai vivo, si sente dire che non si devono bloccare le fake news perché non si sa mai dove vai a finire. Oggi blocchi le fake news, dopodomani blocchi in realtà il candidato che non ti piace nelle politiche oppure la competizione industriale. Vero. Detto questo, noi viviamo in un’Europa in cui le cose, per fortuna, vanno leggermente meglio. E avere non un criterio di verità, ma un criterio di falsità, questo aiuta. Possiamo decidere di bloccare quelloche è sicuramente falso?
Uno dei concetti più belli del libro, perché al di là delle macchine riguarda tutti noi, è quello del capitale semantico, secondo cui, per affrontare la complessità e il disordine dei tempi tecnologici, più aumentiamo il capitale semantico, ossia le conoscenze, le letterature e i linguaggi, meglio è. Ci spieghi un po’ questo concetto.
L’esempio che si fa è con una Germania distrutta dalla guerra o un’Italia messa in ginocchio. Che cosa questi due paesi avevano e che cosa ha permesso loro di recuperare in poco tempo la loro condizione economica? Uno straordinario capitale semantico. Grazie a questo nel giro di una generazione avevano ricostruito tutto e la Germania è tornata a essere la locomotiva d’Europa. In altre parole il capitale semantico è quello che ti dà tutti gli strumenti per trasformare il mondo in qualcosa che ha senso, che ti permette di unire i pezzi e quindi di gestirli, di capire dove stai andando, cosa vuoi fare. Senza questa visione noi siamo delle macchine.
Qualche altro esempio di capitale semantico da mettere da parte, magari rivolto a un genitore che vuole indirizzare i propri figli verso i tempi futuri?
Ci tengo a fare esempi non banali, perché si pensa subito all’informatica, alla statistica, alla matematica, tutto vero. Ma il mondo che ci circonda è fatto anche di arte o di musica, per esempio. Allora, se so leggere uno spartito, un mondo mi appartiene, poi magari non so cantare, però da quel giorno in poi quel mondo fatto di note e spartiti è anche un po’ mio. Se conosco un linguaggio, una lingua straniera in più, magari il francese oppure il tedesco o il coreano, a quel mondo, a quella cultura avrò accesso. Vuol dire che so tutto della cultura coreana? No, vuol dire che quel capitale semantico è disponibile. Tanti più linguaggi sono in grado di parlare, tanto più si arricchisce il mio capitale semantico. È fondamentale perché vuol dire avere delle capacità che non diventano vecchie velocemente.
Secondo lei, qual è l’impatto più forte su cui dobbiamo prepararci con la diffusione dell’Intelligenza artificiale?
L’impatto sta arrivando e arriverà in tempi lunghi, non in un mese. L’elettricità ha impiegato trent’anni dalle prime centrali elettriche costruite in laboratorio fino a quando ha fatto la differenza industriale: tre decenni. Non saranno tre decenni per noi, sarà molto meno, ma c’è tempo per prepararsi. E a mio avviso sono tre le direttrici da tenere d’occhio. La prima: la gestione della complessità. Noi non riusciamo a gestire una complessità così elevata. Pensiamo a quanti dati e a quante interazioni tra vari agenti dobbiamo processare. Pensiamo banalmente alla gestione del traffico in città: lo possiamo fare con una persona che ci pensa? No, serve l’Intelligenza artificiale per gestire la distribuzione della città, la raccolta dei rifiuti, il traffico, l’apertura delle scuole, la gestione dei semafori, l’accensione e lo spegnimento delle luci. Quindi, la Smart City non la possiamo gestire a livello umano. Il secondo aspetto è quello dell’interfaccia, perché il mondo è ormai da navigare e abbiamo bisogno di strumenti all’altezza. Io non posso andare in giro a raccogliere informazioni. Abbiamo già i motori di ricerca, ma oggi non sono più sufficienti. Google mi dà 27 pagine su qual è la pizzeria migliore in città. E io che faccio? Prendo la prima che mi capita? Oppure chiedo a un’interfaccia di Intelligenza artificiale che usa le informazioni fornite dal motore di ricerca per estrarmi una sintesi credibile in un mare di possibilità sulla base di ciò di cui ho realmente bisogno.
E la terza riflessione?
È che con questa Intelligenza artificiale abbiamo la possibilità di mettere insieme il verde e il blu, cioè il fatto che dobbiamo salvare capra e cavoli, noi stessi e l’ambiente in cui viviamo. Si può fare, ma alzando veramente la complessità del gioco: mettere insieme la sostenibilità ambientale con lo sviluppo tecnologico digitale. Ce lo potrà permettere solo un’Intelligenza artificiale che ci mette in grado di fare le scelte giuste.
Uno dei settori dove l’Intelligenza artificiale sta già cambiando il paesaggio tradizionale è quello della finanza e delle banche. Cosa prevede?
È un impatto enorme, perché nella finanza ci sono altissimi guadagni, altissimi rischi e altissime opportunità. Un tempo dovevi aprire una banca in tutte le città, nel dubbio che ci fossero clienti, poi dovevi capire se c’erano davvero. Oggi il digitale permette un grande risparmio da parte di chi fornisce i servizi. C’è poi un grande interesse legato ai nuovi algoritmi per aspetti critici come il furto dell’identità digitale, il riciclaggio di denaro sporco o i rischi finanziari. Se potessi prevedere in anticipo le mosse della Fed, gestirei meglio le mie scelte finanziarie. Dalla grande finanza internazionale alla gestione personale, l’Intelligenza artificiale sta facendo già un’enorme differenza
Articolo tratto dal numero 11/2024 di BANCARIA, dal 1921 la rivista mensile dell'Associazione Bancaria Italiana, pubblicata da Bancaria Editrice, la casa editrice dell'ABI.
Qui per vedere il sommario degli ultimi numeri e per abbonarsi a BANCARIA: www.bancaria.it