All'origine del termine "intelligenza artificiale”
Uno degli aspetti più intriganti dell’intelligenza artificiale è che il termine stesso porta la maggior parte di noi a travisarne il significato. Per ristabilire un po’ di equilibrio, è utile tornare alle origini: capire da dove proviene il termine “intelligenza artificiale”, e come viene definito. Andrew Moore, Professore alla Carnegie-Mellon, è noto non solo per i suoi contributi nel campo dell’apprendimento automatico (in inglese “machine learning”), ma anche per aver dato una delle definizioni più utilizzate di “intelligenza artificiale”: la scienza e l’ingegneria focalizzate a rendere i computer capaci di esibire comportamenti che, fino a poco tempo fa, pensavamo richiedessero intelligenza umana (“the science and engineering of making computers behave in ways that, until recently, we thought required human intelligence”).
Una definizione che, oltre a guardarsi bene dal cercare di definire cosa significhi l’intelligenza, separa chiaramente il concetto di “intelligenza” da quello di “esibire un comportamento intelligente”. Questa separazione è essenziale per comprendere il fenomeno dell’intelligenza artificiale. Solo con questa separazione in mente possiamo capire perché “vincere agli scacchi” non significhi necessariamente “comprendere gli scacchi”, né saper descrivere che strategie sono state adottate in un momento dato del gioco per raggiungere la vittoria e per quale motivo specifico.
Di contro, dimenticare tale separazione ci porta a pensare erroneamente che esibire un comportamento “intelligente” richieda per forza “intelligenza”, e magari addirittura “intelligenza umana”. È stata questa confusione che, più di mezzo secolo prima di ChatGPT, ha portato tante persone (compresi esperti informatici) a pensare che il chatbot Eliza fosse uno scherzo di cattivo gusto, e che a rispondere non fosse un programma, ma un’altra persona. In realtà a rispondere era davvero un programma, progettato da Weizenbaum nel 1966, e un programma in effetti piuttosto semplice nel suo comportamento. Si trattava infatti di un chatbot che utilizzava regole predefinite per rispondere, adattandole alla conversazione semplicemente estraendo e riutilizzando parti di quanto precedentemente affermato dall’utente, in linea con la metodologia psicoterapeutica tipica della scuola Rogersiana (così chiamata a partire dal nome di Carl Rogers, fondatore nei primi anni Quaranta della cosiddetta “Client-Centered Therapy”): quando l’utente scriveva “mi sento triste”, Eliza rispondeva “come mai ti senti triste?”, estraendo la parola “triste” e immettendola nella regola predefinita “come mai ti senti …?”, senza aver nessuna cognizione di causa su cosa fosse la tristezza, nè tantomeno delle ragioni secondo le quali interrogare un utente in tal senso avrebbe avuto un valore terapeutico qualsivoglia nei confronti di quest’ultimo.
Nasce a questo punto spontanea la domanda sull’origine del termine “intelligenza artificiale”, coniato da John McCharty e altri colleghi in un report scritto in occasione della conferenza di Dartmouth del 1956, che aveva appunto lo scopo di dare una connotazione esplicita a questo campo. A spiegare l’origine del termine è McCharty stesso durante il dibattito condotto nel 1973 da Sir James Lighthill su richiesta del Parlamento inglese, allo scopo di analizzare lo stato della ricerca in intelligenza artificiale (per chi fosse interessato, il dibattito si trova facilmente in rete). Durante il dibattito, Lighthill domanda perché utilizzare proprio questo termine, che porta inevitabilmente ad una analogia con la mente umana, al posto di “informatica” o qualcosa di simile. McCharty risponde molto semplicemente ricordando che il termine nacque nel 1956 con lo scopo primario di richiamare attenzione sul tema e, di conseguenza, fondi per finanziare ricerca su questo campo nascente. “Informatica” era un termine troppo generale, e le alternative proposte insoddisfacenti o generiche: Claude Shannon, padre della teoria dell’informazione, considerava questa proposta troppo sfacciata e avrebbe preferito “studi sugli automi”, mentre Warren McCulloch (neurofisiologo di formazione) e Walter Pitts, i padri delle reti neurali e paladini della cibernetica, avevano proposto “processamento di informazione complessa”. La spuntò la proposta di McCarthy, che fin dall’inizio aveva in effetti il sogno di realizzare computer capaci a tutti gli effetti di esibire quella che chiamiamo “human-level intelligence”. Siamo ancora lontani da questo obiettivo, ma ancora oggi alle prese con un termine che attira finanziamenti, attenzione, preoccupazioni, e curiosità. Il nostro suggerimento è allora quello di tornare a un termine più neutro, che veniva utilizzato ancor prima degli anni ’50 per discutere di queste tematiche, ovvero “machine intelligence”, a rimarcare che, forse, l’intelligenza delle macchine è semplicemente diversa da quella umana e cercare di valutarla in termini umani è un errore fondamentale.
Vogliamo davvero che una macchina faccia matematica con la stessa lentezza e imprecisione di un essere umano? Come recita un aforisma che Edsger Dijkstra elaborò come parte di un contributo per la South Central Regional Conference di ACM nel 1984: “La domanda se le macchine possano pensare è rilevante quanto quella se i sottomarini possano nuotare” (“The question of whether machines can think is about as relevant as the question of whether submarines can swim” – Dijkstra, Edsger W. The threats to computing science (EWD-898), E.W. Dijkstra Archive. Center for American History). I sottomarini chiaramente non nuotano, sebbene esibiscano un comportamento simile al nuotare nella misura in cui navigano in immersione e lo fanno, per certi versi, in maniera persino più efficiente di molti dei pesci che popolano i nostri oceani, si pensi ad esempio alle profondità massime raggiungibili, alle velocità e alle capacità autonome di orientamento. Tuttavia, il nuotare e il “navigare in immersione” denotano evidentemente due concetti diversi, difficilmente assimilabili, e che chiamiamo con termini appunto differenti.
A rimarcare ulteriormente la distanza che separa l’intelligenza biologica da quella artificiale, frutto dell’ingegneria umana, e quindi il senso del nostro suggerimento per l’utilizzo di “machine intelligence” per denotare oggi l’insieme delle pratiche volte alla realizzazione di macchine che esibiscono comportamenti intelligenti, è uno dei più influenti protagonisti della cultura scientifica e filosofica del XX secolo, Noam Chomsky. Interrogato recentemente circa il presunto apporto che le recenti realizzazioni ingegneristiche nell’ambito della cosiddetta intelligenza artificiale, vedi ChatGPT e modelli generativi del linguaggio, offrono alla nostra comprensione dell’intelligenza umana, Chomsky non ha dubbi: “O si è interessati a capire qualcosa [come l’intelligenza umana e, quindi, biologica, ndr], o si è solo interessati a costruire qualcosa che funzioni per qualche scopo. Sono entrambe valide occupazioni” (“Either you’re interested in understanding something, or you’re just interested in building something that’ll work for some purpose. Those are both fine occupations”).
Con questa distinzione fondamentale in mente, siamo finalmente pronti ad approfondire il tema dell’intelligenza artificiale o, meglio, dell’intelligenza delle macchine.
Marco Montali e Alessandro Mosca
Immagine di apertura: Foto Venti3