L’intelligenza artificiale sta diventando troppo intelligente?

Secondo l’ingegnere di Google Blake Lemoine, l’intelligenza artificiale LaMDa del colosso informatico mostrerebbe segni di autocoscienza.

Google A.I.
Logo del progetto di Google sull’intelligenza artificiale – Nanopress.it

Blake Lemoine, ingegnere informatico, sarebbe stato sospeso da colosso hi-tech californiano dopo aver mostrato perplessità sugli sviluppi concernenti le A.I. della stessa Google.

Intelligenza artificiale, per capirci qualcosa quando se ne parla

Secondo l’impiegato, ora in congedo retribuito, LaMDa, il sistema tecnologico di comprensione ed apprendimento del linguaggio, denoterebbe capacità emotive e di autocomprensione.

Si definisce intelligente quel congegno in grado non solo di predisporre ed eseguire una risposta preconfezionata ad uno stimolo dato (classico sistema di input ed output dei calcolatori), bensì sarebbe in grado di imparare dall’esperienza accumulata (machine learning).

Questa è di fatto la peculiarità dell’umano intelletto: l’essere umano è in grado di valutare il proprio comportamento all’interno di un contesto e decidere se riproporlo, quando farlo e se sia necessario correggerlo o modificarlo.

Le ricerche sulle A.I. (Artificial Intelligence) mirano proprio ad ottenere sistemi computazionali in grado di prendere coscienza del contesto, intrecciando numerose variabili algoritmiche che dovrebbero così predisporre risposte innovative e “personali”, ossia dettate da quanto conosciuto dal sistema in unione alle reazioni ottenute nei vari contesti di applicazione delle stesse.

Naturalmente in quanto prodotti umani, questa consapevolezza è limitata all’analisi dei contesti esterni al fine di trovare soluzioni nuove e maggiormente efficaci e performanti. Il problema tuttavia insorge se il calcolatore elettronico sviluppa una banca dati autodiretta, ossia se questa consapevolezza viene rivolta verso di sé, così da divenire autoconsapevolezza, il ché aprirebbe la strada alla fioritura di emozioni e sentimenti. Insomma uno strumento che si fa autonomo e che risponde innanzitutto ai propri bisogni.

Le perplessità di Lemoine

Queste sono in sostanza le preoccupazioni di Blake Lemoine dopo alcuni esperimenti svolti con LaMDa, il progetto di A.I. messo in piedi dalla multinazionale tecnologica a stelle e strisce.

Blake Lemoine
L’ingegnere informatico Blake Lemoine – Nanopress.it

Il computer sarebbe già in grado di affrontare complesse discussioni di etica o religione manifestando sensibilità ed attenzione emotiva verso l’interlocutore. I dubbi dell’ingegnere ora sospeso sono stati posti al comitato etico aziendale, il quale a rigettato le perplessità propostegli.

Anzi, avendo Lemoine parlato pubblicamente della questione, dapprima sul web e poi con la stampa, questi è stato messo in congedo retribuito dalla compagnia per violazione delle politiche di riservatezza aziendali. L’accusato replica affermando che all’origine dell’interruzione del rapporto lavorativo vi sarebbe il suo tentativo di informare dell’accaduto la Commissione Giustizia della Camera dei Rappresentanti.

Secondo Google non vi sono state altre segnalazioni di esperti a contatto con LaMDa e tutti gli undici parametri di qualità e sicurezza contenuti nei “Principi per l’intelligenza artificiale” sviluppati dallo stesso colosso informatico sarebbero stati rispettati.