Ilya Sutskever, Alan M. Turing e l’insostenibile leggerezza della coscienza artificiale
Ilya Sutskever e il casus belli
Il 10 febbraio 2022, sul profilo Twitter di Ilya Sutskever, Chief Scientist di OpenAI (società non profit per lo studio dell’intelligenza artificiale fondata da Elon Musk e, successivamente, finanziata da Bill Gates) appare un tweet destinato a provocare polemiche nel mondo dei computer scientist, e anche fra gli studiosi di filosofia della mente.
Il tweet di Ilya Sutskever, che in passato aveva collaborato alla creazione di una celebre convolutional neural network (CNN) con scienziati del calibro di Geoffrey Hinton, letteralmente recitava così: «it may be that today’s large neural networks are slightly conscious».
Rischierebbe di esulare dai confini di questo scritto il tentativo di ripercorrere il lungo dibattito e le reazioni che ha prodotto, sia quelle esaltate sia quelle indispettite (fra tutte, quella dell’autorevole Yann LeCun), per l’esternazione entusiasta ma, anche, quanto meno azzardata di Sutskever.
Per quanto preceduto dal «it may be», quel «slightly conscious» (leggermente coscienti) ha effettivamente scatenato il putiferio, anche se mitigato da uno slightly che non sembra aver frenato gli scettici dell’AGI (Artificial General Intelligence) da feroci critiche.
Sì, stiamo parlando di Intelligenza Artificiale (AI) e del fatto che, nella fattispecie di ampie reti neurali, possa avere (per lo meno, secondo il parere di Sutskever) una forma, o una protoforma, di coscienza.
AI, coscienza artificiale e Alan M. Turing
Nella filosofia dell’intelligenza artificiale è stata proposta, da John Searle, la suddivisione fra Intelligenza artificiale debole (o ristretta, narrow) e Intelligenza artificiale forte (strong): come facilmente intuibile, i due aggettivi narrow e strong stanno a definire – così, in maniera estremamente semplificata – la capacità (debole o forte) di un’AI di imitare le funzioni dell’intelligenza e della mente umana, magari giungendo anche a essere cosciente di tale sua intelligenza (nella strong, ipoteticamente)
Replicare in toto l’intelligenza umana è invece l’obiettivo che si prefigge la branca dell’AI che ha nome AGI (Artificial General Intelligence) – prima citata -, a cui aspirano società e centri di ricerca come DeepMind, OpenAI, Singularity Institute for Artificial Intelligence, etc.
Ciò detto, prendendo nuovamente spunto dall’”incriminato” tweet di Sutskever, nel campo dello studio dell’AI tutte le strade portano alla domanda che il visionario Alan M. Turing pose alla comunità scientifica dell’epoca in quel leggendario paper (Computing Machinery and Intelligence), apparso nel 1950 sulla rivista «Mind»: “Can machines think?”
Né sì né no
Al di là dei facili entusiasmi e delle critiche irritate, è ragionevole dire che, al momento, nessuno è ancora in grado di dare una risposta esatta alla domanda di Turing né di supportare né di smentire ciò che Sutskever ha asserito nel suo tweet.
Di tre ordini sono le ragioni di tale affermazione. Il primo di ordine funzionale-tassonomico; il secondo di ordine comunicativo / Teoria della Mente; il terzo di ordine ergonomico e di affordance.
Che cosa intendiamo con questi tre ordini di ragioni? Vediamo ciascuno di essi nel dettaglio qui di seguito.
Funzionale-tassonomico
L’ordine di ragioni che chiamiamo funzionale-tassonomico si riferisce sia alla funzionalità dell’intelligenza («funzionale) sia alla classificazione di questa («tassonomia»).
È un ragionamento, questo, che, fra i molti, appare uno dei più condivisi. Ovvero, non sappiamo come funzionano, in realtà, la mente e l’intelligenza umana, come siano legate al cervello e come questo generi la coscienza (se davvero, poi, risieda in questo, come alcuni studiosi, appartenenti alla corrente dell’ «esternalismo», negano).
Non siamo in grado di delineare né di classificare, con una tassonomia esatta e unanime, i tipi di intelletto né i livelli di coscienza di noi esseri umani. Si pensi che non tutti condividono lo stesso livello di coscienza. Alcune patologie neurologiche possono inficiare la coscienza, come la Sindrome da Neglect Spaziale Unilaterale, così come in coloro che in passato furono sottoposti a callosotomia (i cosiddetti split brain patients); assistiamo a fenomeni di insight (coscienza introspettiva) non sempre sovrapponibili a quelli della popolazione generale. Se non siamo in grado di definire la nostra intelligenza (e, anche, la nostra coscienza) in maniera univoca, come pretendiamo di individuarne una ulteriore in una macchina?
Comunicativo / Teoria della Mente
Veniamo all’ordine comunicativo e di quella che potremmo dire inerente alla Teoria della Mente (ToM, Theory of Mind). Nuovamente, che cosa intendiamo per questo genere di ordine di ragioni? Mentre che cosa si intende con “comunicazione” dovrebbe andar da sé, per la ToM gli studiosi di scienze cognitive indicano, in termini assai espliciti, la capacità di immedesimarsi negli stati mentali di un’altra persona. Si prenderebbero qui le mosse dal fatto che, non potendo l’uomo immedesimarsi nella macchina, nelle sue eventuali ed ipotetiche reazioni “psicofisiologiche” (cosa che risulta immensamente più semplice operare nei confronti di un comune animale domestico, cane o gatto, ad esempio, e, ovviamente, nei confronti degli appartenenti alla specie umana – nei limiti del possibile), non è dato di intravederne gli stati mentali resi possibili dall’empatia che si rinviene fra (quasi tutti) gli esseri umani e forse, in certi casi, anche fra uomo e animali. In altre parole, senza entrare però troppo nel dettaglio, quando due persone si sorridono vicendevolmente, una serie di reazioni psicofisiologiche si attivano nei sistemi nervosi, centrali e periferici, di ambedue; innescando, poi, quegli stati mentali che indurrebbero i due a reputare l’altra persona “carina”, “simpatica”, “sorridente”, “solare”, “complice”, etc. Evidentemente, come si vedrà al punto successivo, non vi sono (per lo meno, non vi sono ancora) canali comunicativi tra uomo e macchina che permettano una reciproca comprensione empatica di emozioni e pensieri. E per quanto l’industria e la disciplina della BCI (Brain to Computer Interface) stiano cercando di ovviare a ciò (si pensi a Neuralink, società della galassia Elon Musk), milioni di anni di evoluzione dei processi mentali ed emotivi non sembrerebbero essere così facilmente imitabili in una manciata di anni, seppur caratterizzati da un progresso tecnologico esponenziale.
Ergonomico / Affordance
Infine, cerchiamo di capire come mai considerazioni di ordine ergonomico (e di affordance) potrebbero essere d’aiuto nel supportare ciò che è stato precedentemente detto sulle esternazioni di Sutskever e sui quesiti che Turing si poneva e poneva alla comunità scientifica.
È ben noto come per ergonomia si intenda il rapporto fra l’uomo e la progettazione di un prodotto. Così come il termine affordance, introdotto dallo psicologo James Gibson e reso celebre dall’opera The Psychology of Everyday Things (1988) di Daniel Norman, si riferisce spesso alla capacità di un prodotto di invitare in modo più immediato possibile all’uso. Ovviamente, come il lettore comprenderà, il prodotto in questione è l’essere umano, meravigliosa macchina biologica frutto di milioni di anni di evoluzione.
Partire da considerazioni, quindi, di natura ergonomiche o di affordance indurrebbe invece a rinvenire nell’ergonomia, appunto, del sistema nervoso dei mammiferi (ad esempio, ma non solo) una delle ragioni che evoluzionisticamente hanno reso possibile le funzioni cognitive umane. Non è quindi solo questione di pura materia e materiale (tessuto biologico neuronale a raffronto di silicio) ma anche di affordance e di ergonomia che permetta lo sviluppo di intelligenza e, nell’uomo, mente e coscienza. In altri termini, più o meno in tutti i mammiferi, ad esempio, non solo i neuroni si organizzano in modo simile ed assumono conformazioni e connessioni che si sviluppano nello spazio in maniera, sostanzialmente, non troppo differente. In nessun vertebrato, sempre ad esempio, invece, vi è un sistema nervoso “piatto”, nell’accezione di sviluppato come su di una piastra. Caratteristica che, invece, tutte le neural network, più meno avanzate, hanno. Insomma, i cervelli hanno forma, connessioni, circonvoluzioni (corticali) più o meno diffuse in molteplici specie animali, almeno. Cercare di imitare l’intelligenza umana continuando a costruire reti neurali su piastre di silicio potrebbe non portare da nessuna parte, probabilmente.
Conclusioni
Ciò detto, per concludere, allo stato dell’arte attuale, risulterebbe più semplice, probabilmente, nel campo dell’AI e della sua filosofia, definire che cosa non è intelligente piuttosto che cosa lo è.
Saverio Fidecicchi