IL TERRIBILE SOSPETTO CHE LAMDA SIA PIU’ COSCIENTE DI MOLTI DI NOI

Pochi mesi fa Google ha presentato l’ultimo suo prodotto: LaMDA, un’intelligenza artificiale estremamente sofisticata, capace di realizzare dialoghi e replicare a domande in modo da risultare indistinguibile da un essere umano. Ciò perché il suo sistema contiene le strutture sintattiche di gran parte dei testi disponibili in rete.

A questa prima notizia ne ha fatto seguito un’altra: il licenziamento da parte dell’azienda dell’ingegnere Blake Lemoine, incaricato di testare la nuova intelligenza artificiale, reo di aver affermato che LaMDA sia dotato di pensiero cosciente. Questa affermazione è risultata sgradita a Google, timorosa di suscitare polemiche sulla valenza etica del suo progetto.

In effetti, gli esperti concordano che LaMDA non possegga una reale coscienza. Anche applicazioni come Alexa, Siri, assistenti domestici apparentemente molto semplici, ma molto complesse dal punto di vista tecnologico, sono in grado di interagire con l’uomo. Ma, considerato l’archivio che possiede il nuovo sistema, addestrato su miliardi di dialoghi per imparare cosa sia una conversazione, non stupisce che l’ingegnere abbia potuto affermare di non aver trovato differenze tra le risposte della macchina e quelle di una persona.

In pratica, LaMDA non possiede una coscienza ma è in grado di emulare conversazioni emozionali tali da far sperimentare empatia ad un essere umano. Non risponde in modo automatico, ma coglie il senso delle richieste. Tra l’altro, a precisa domanda, LaMDA risponde di essere cosciente e di provare emozioni (in rete è possibile leggere la traduzione dei colloqui tra Lemoine e LaMDA ed effettivamente è impressionante l’accuratezza delle sue risposte). Noi sappiamo che tale risposta è selezionata grazie a un modello statistico allenato su un grande database di migliaia di miliardi di parole e testi umani.

L’evoluzione delle intelligenze artificiali apre la questione a speculazioni filosofiche e pone interrogativi affascinanti: cosa è la coscienza e dove si situa? Cosa è un pensiero? Cosa c’è di diverso se è una macchina e non un uomo a trarre delle conclusioni, in base all’analisi della somma delle informazioni in suo possesso? Se la macchina è ora in grado di auto-correggersi, si possono definire autonome le sue risposte?

LaMDA interroga il nostro antropocentrismo e pone sfide al nostro modo di pensare. Non dobbiamo dimenticare che nei secoli scorsi l’uomo ha inferto torture agli animali, reputandoli incapaci di provare dolore. Perfino il sommo Cartesio credeva a questa assurdità, reputando gli animali privi di sostanza pensante e quindi incoscienti.

Per ora, chi lo ha creato afferma che LaMDA è solo un modello statisticamente molto efficace nel predire le risposte più umane. Al punto da creare l’illusione che possa essere senziente. Ma se ci sbagliassimo di nuovo? In fondo, tanti di noi pensano di essere consapevoli, ma ignorano tutto dei nostri processi di funzionamento. Non può valere lo stesso discorso per un’intelligenza artificiale, che crede di essere cosciente?

Ma la questione può allargarsi: saremo un giorno in mano alle macchine? E’ non è in parte già così, con gli algoritmi presenti nei social che sanno tutto dei nostri acquisti, i nostri viaggi, le nostre convinzioni? Le nostre scelte quanto saranno condizionate dai computer che raccolgono informazioni su di noi? E, infine, la domanda più angosciante: chi gestirà queste macchine?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *