L'uomo e l'intelligenza artificiale. Tre riflessioni fondamentali
L’intelligenza artificiale (IA) è passata in pochi anni da materia per ricercatori specializzati e autori di fantascienza a fenomeno di massa, dibattuto a tutti i livelli della nostra società. Recentemente l’IA è stata definita come la “nuova elettricità”, a enfatizzare la trasformazione e l’impatto che sta avendo e avrà sul nostro tessuto industriale ed economico. Questo articolo è il primo di una serie che cercherà di sviscerare il tema dell’IA da diverse angolazioni, con l’intento di informare lettrici e lettori ed incuriosirli all’approfondimento, cercando di bilanciare aspetti divulgativi, tecnici, e aneddotici. Da ricercatore che indaga questo tema fin dal 2006, sto vivendo questi anni con interesse, entusiasmo, e preoccupazione – non tanto legata ai proclami estremi di chi vede un salto evolutivo o viceversa l’imminente distruzione dell’umanità, quanto al fatto che le mode e il denaro danno alla testa, anche di chi dovrebbe tenere dritta la barra (mi riferisco in questo caso non solo agli scienziati, ma anche ai decisori politici).
Recentemente, ho partecipato a VisionAlps evento sulla trasformazione digitale dell’area alpina e in quell’occasione sono stato invitato a fare tre riflessioni sull’intelligenza artificiale, che ripropongo qui per dare un’idea di cosa parleremo nei prossimi articoli – con l’aiuto di altri colleghi, in primis l’amico e collega Diego Calvanese.
Prima riflessione: invece di “intelligenza artificiale”, dovremmo parlare di “intelligenze artificiali“. In quanto esseri intelligenti, intervalliamo continuamente fasi di apprendimento, in cui raccogliamo dati sulla nostra esperienza nel mondo e da essi deriviamo nuova conoscenza, con fasi di ragionamento, in cui utilizziamo la nostra conoscenza per definire e rivedere i nostri obiettivi e decidere cosa fare per perseguirli. Questi due aspetti si ritrovano nelle due sottoaree dell’IA denominate rispettivamente “apprendimento automatico” (“machine learning”) e “rappresentazione della conoscenza e ragionamento automatico” (“knowledge representation and automated reasoning”), anche note sotto il nome di “intelligenza artificiale connessionista” e “intelligenza artificiale simbolica”.
Le tecniche, gli algoritmi, e i sistemi sviluppati nell’ambito di queste due sottoaree hanno caratteristiche molto diverse in termini di scalabilità, interazione con gli esperti umani, capacità di spiegare i risultati prodotti e garanzie su tali risultati – ed è tema di ricerca attuale cercare di integrarle. É un errore diffuso quello di pensare che queste dimensioni siano rilevanti solo per i tecnici del settore: anche gli utilizzatori finali di queste tecnologie devono conoscerne caratteristiche e limiti, per capire di volta in volta quale di queste sia più adatta allo scopo. É questa mancanza di cultura sul tema che, per esempio, ha portato alcuni avvocati a pensare di utilizzare ChatGPT come consulente legale – per poi scoprire che non è in grado di garantire la correttezza fattuale né logica delle sofisticate conversazioni che genera.
Seconda riflessione: invece di “intelligenze artificiali”, dovremmo parlare di “muscoli artificiali” – muscoli da intendere nel senso di enorme potenza di calcolo, da non confondere appunto con la nozione di intelligenza. Questa distinzione è chiara fin dalla definizione – evanescente – di IA: lo studio di come far assolvere alle macchine compiti che, se eseguiti dall’uomo, richiederebbero l’uso della propria intelligenza. Una definizione che, in effetti, separa completamente la capacità di assolvere a un compito, e la presenza o assenza di intelligenza nel farlo. Per chi è interessato all’uso di tecnologie di IA, e non vuole interrogarsi sulle implicazioni filosofiche di questo tema, è importante tenere bene in mente questa separazione, evitando di antropomorfizzare l’IA e di costruire spiegazioni fuorvianti sul suo comportamento. Per tornare all’esempio di ChatGPT: non risponde gentilmente perché “ci vuole bene”, ma per come è stato addestrato – in particolare, sfruttando la tecnica nota sotto l’acronimo RLHF (ci cui parleremo). É questa potenza muscolare che rende l’IA così utile per aiutarci nel risolvere problemi. Due esempi per convincervi di questo. Il primo riguarda la tecnologia SAT (che approfondiremo): si tratta di una tecnologia per verificare se una formula in logica proposizionale (quella che studiamo alle medie con le tabelline di verità) risulta essere vera per almeno un modo di assegnare VERO o FALSO a ognuna delle variabili logiche che contiene (ad esempio: “A oppure B” è vera se almeno una tra le variabili A e B è vera). Una vasta gamma di problemi di ragionamento automatico (dalla soluzione di un Soduko fino alla pianificazione automatica) si possono ricondurre a questo problema. Perché chiedere a un programma di fare questa verifica al posto nostro? Perché i moderni “SAT solver” sono in grado di gestire formule che contengono fino a 2.8 milioni di variabili, che corrispondono a uno spazio di ricerca tra i possibili assegnamenti di qualcosa come 10 alla 840,000 – un numero talmente grande da essere per noi difficilmente immaginabile (si pensi che dal big bang ad oggi sono passati “solo” un numero di secondi nell’ordine di 10 alla 71). Il secondo esempio riguarda i programmi che imparano da zero a giocare i giochi da tavolo grazie alla tecnica nota sotto il nome di apprendimento per rinforzo (anche di questo, parleremo): AlphaZero di DeepMind è diventato campione assoluto di scacchi, shogi, e go in meno di 24 ore, giocando 89 milioni di partite contro se stesso.
Terza riflessione: dovremmo iniziare a considerarci come parte attiva dell’equazione. Nel grande dibattito sull’IA, si parla spesso dell’IA stessa come di qualcosa che abbia una vita propria, e che possa influire su di noi in modo inevitabile. Si pensi al tema della disoccupazione tecnologica e dei possibili licenziamenti di massa dovuti alla sostituzione di operatori umani con corrispondenti IA: non è l’IA a licenziare persone, siamo, eventualmente, noi stessi a farlo. Questa confusione di fondo porta spesso a un dibattito acritico sul tema, come se non potessimo fare nulla per decidere del nostro stesso destino. Ma se non pensiamo noi a noi stessi, chi dovrebbe pensarci? La letteratura sta approfondendo sempre di più temi centrali come quelli dell’allineamento e del controllo – per garantire che IA sempre più sofisticate e performanti rimangano in linea con i nostri obiettivi, e garantiscano che le decisioni ultime siano comunque sotto la nostra responsabilità. Sta ora a noi approfondire tali questioni e responsabilizzarci nel guidare questa nuova rivoluzione industriale all’insegna di un vero e proprio, e a mio parere necessario, umanesimo digitale.
Marco Montali
Marco Montali è docente di Data and Process Modelling e vicepreside alla didattica della Facoltà di Ingegneria all’Università di Bolzano.