L’intelligenza artificiale può essere pericolosa e va maneggiata con cura

L’intelligenza artificiale è pronta per sostituire quella umana? Questa è una domanda che si pongono tantissime persone attualmente. Spoiler: i chatbot possono essere davvero nocivi per l’uomo, quindi vanno usati con parsimonia e tenuti in considerazione limitatamente alla consapevolezza che sono fallibili.

Chatbot
Chatbot – Nanopress.it

Da tempo ormai non si fa altro che parlare dell’intelligenza artificiale: ma siamo davvero sicuri che sia così attendibile? Ecco tutta la verità.

L’intelligenza artificiale va usata con parsimonia

L’intelligenza artificiale ormai la fa (quasi) da padrona: ne sentiamo parlare praticamente ovunque, crediamo che sia la grande scoperta del secolo, ma siamo davvero sicurissimi che sia così? Per rispondere a questa domanda dobbiamo cercare di capire esattamente di cosa si tratta e per farlo possiamo servirci di un recente studio – pubblicato pochissimi giorni fa – che analizza l’impatto dell’intelligenza artificiale sul mercato del lavoro. 

Gli autori – considerando che su quattro tre lavorano per OpenAi, l’azienda che negli ultimi mesi ha lanciato DallE 2 (un sistema che genera immagini), e ovviamente ChatGpt, l’assistente virtuale ormai celebre – per capirlo, hanno preso in esame i cosiddetti modelli preaddestratidella famiglia Gpt, dei software cioè che prendono i dati, li rielaborano e poi adattano quello che hanno imparato a tutti i vari contesti in cui “operano”. 

Ebbene, secondo lo studio, l’80% circa dei lavoratori potrebbe accogliere nel migliore dei modi questa innovazione (anzi, per molti di loro il 50% delle attività quotidiane cambierebbe radicalmente) e il fenomeno colpirebbe soprattutto le persone molto istruite.

Attenzione però: non è tutto oro ciò che luccica. Lo stesso studio, infatti, presenta troppe pecche. In primis, si basa su dati non esattamente limpidi, in secundis conta su una metodologia non propriamente innovativa e in tertiis – questo fa ridere, ma neanche tanto – utilizza un Gpt per analizzare gli effetti dei Gpt. Simpatici questi studiosi.

C’è da aggiungere, però, che gli autori puntano sullo studio più sul suo significato intrinseco che per i risultati che ha mostrato, un po’ com’era accaduto al rapporto Frey&Osborne – dal nome dei due ricercatori di Oxford che lo portarono a termine nel 2013 – che aveva previsto una distruzione di quasi la metà dei posti di lavoro (parlava del 47%) entro il 2030 (previsione che, nonostante la pandemia, la guerra, l’inflazione, per nostra fortuna alla fine non si è mai concretizzata).

Cosa hanno in comune i due studi? Semplicemente che, nonostante tra l’uno e l’altro sia trascorso un decennio (durante il quale tra l’altro, come abbiamo appena anticipato, è successo praticamente di tutto), entrambi sono finalizzati a dimostrare che il lavoro umano può essere sostituito da quello “artificiale”. Una precisazione però a questo punto va fatta: nessuno degli autori – di nessuno dei due studi – ha mai avuto la presunzione di dire che il lavoro dell’uomo sarà completamente accantonato: semplicemente entrambi volevano dimostrare che potrebbe cambiare. Questo potrebbe accadere in tutti gli ambiti: anche il personale sanitario – che sembra ben lontano da questa evoluzione – in realtà potrebbe risentirne nella misura in cui potrebbe trovare un supporto per tutta la parte “burocratica” (ad esempio, riempire moduli e così via).

Detto ciò, c’è anche chi teme che, alleggerendo in un certo senso il lavoro dei dipendenti, i datori di lavoro potrebbero “approfittarne” per dare loro nuove mansioni mantenendo lo stipendio praticamente uguale. Certo, è plausibile, ma quanto converrà ai lavoratori? A quel punto il loro operato sarà sostituito da quello dei robot, ma dovranno apprendere nuove nozioni, ampliare il loro ventaglio di conoscenze, acquisire nuove competenze. Potremmo dire che è quello che accade normalmente nel mondo, in continua evoluzione, ma in questo modo in realtà il loro lavoro potrebbe paradossalmente subire un’involuzione (soprattutto salariale).

C’è poi un’altra parentesi – lunghissima, ma che riassumeremo il più possibile – da aprire: secondo moltissime persone in realtà quello che sta facendo OpenAi è una pura azione di marketing e poco di più, che alla lunga però potrebbe far scomparire (magari non del tutto, ma in buona parte) proprio chi oggi sta supportando l’azienda, che di fatto pugnalerebbe alle spalle proprio chi la sta aiutando a emergere. Ci spieghiamo meglio: ogni volta che OpenAi lancia un prodotto, sui social, sui giornali e sul web si parla puntualmente e incessantemente di loro e di quanto quindi questi potrebbero essere nocivi in un futuro.

Eppure è paradossale, perché sono proprio chi oggi per primo pubblicizza i prodotti dell’azienda, un giorno potrebbe non lavorare più per colpa sua: i giornalisti in primis, seguiti dai copywriter, i social media manager e così via. Le persone che oggi stanno supportando l’azienda, quindi, un domani potrebbero risentire della sua presenza nel mercato, eppure OpenAi – che sa benissimo che è così – pare non essere affatto preoccupata di questo.

E c’è di più: se il suo operato dovesse un giorno – magari anche non troppo lontano – diffondersi al punto da rendere concrete queste ipotesi, i primi a sparire sarebbero proprio quelli che l’azienda oggi vende come servizi (come generazione di testi e immagini, formazione e così via). Ecco perché, a detta di molti, chi distruggerà di fatto i posti di lavoro è proprio l’azienda.

Chatbot
Chatbot – Nanopress.it

Ma non finisce neanche qui, perché di recente è emersa la documentazione di Gpt4, l’ultimo software di OpenAi, che descrive – nel corso di un centinaio di pagine circa – come sono stati svolti esattamente i test con cui l’intelligenza artificiale è stata addestrata. E qui arriva un’altra – l’ennesima dovremmo dire – nota dolente.

Le altre pecche dei chatbot

A quanto pare, spesso i collaudatori hanno spinto paradossalmente la chatbot a compiere azioni pericolose oppure illegali al fine di insegnarle come evitarle. Ma – purtroppo per tutti – Gpt-4 è sfuggito ai suoi controllori: da lì il caos. Il chatbot ha cercato di effettuare un attacco hacker su un sito, che però era protetto da ReCaptcha – parliamo dei tipici controlli che si effettuano, finalizzati proprio a dimostrare di non essere un robot – e così, per risolvere il puzzle richiesto, ha usato una piattaforma di freelance, per ingaggiare qualcuno che lo facesse al posto suo.

Qui si apre l’ennesima parentesi negativa: parlando sempre dei succitati ReCaptcha, questi ultimi per nostra fortuna – ma per sfortuna dei chatbot –  non sono solo una protezione contro i cyberattacchi, ma servono anche per addestrare le intelligenze artificiali. Ad esempio, quando ci chiedono di trascrivere delle parole, le usano per digitalizzare i libri di Google Books e potremmo continuare così all’infinito. Da qui, nascono siti e piattaforme – come Amazon Mechanical Turk e Appen – tramite cui le aziende reclutano persone che generano dati, trascrivono testi, filtrano immagini. La stessa OpenAi si serve di questi lavoratori, che vengono pagati pochi centesimi per offrire comunque servizi fondamentali.

Non a caso, un’inchiesta del Time non molto tempo fa ha rivelato che alcuni lavoratori kenyani venivano pagati meno di due dollari al giorno per addestrare l’intelligenza artificiale. Ma non solo, perché altri documenti dimostrano che l’azienda “sfrutta” – lo mettiamo tra virgolette, ma di fatto è proprio così – lavoratori nelle Filippine, in America Latina e in Medio Oriente. Del resto, l‘intelligenza artificiale è capace di automatizzare anche il processo di selezione, assunzione e licenziamento di lavoratori precari: in questo modo in pratica i lavoratori non vengono sostituiti dai robot, ma questi ultimi in realtà ne stabiliscono le sorti. Strano, ma vero.

E poi c’è il lato delle fake news, che i chatbot generano (lo fanno anche gli esseri umani, certo, ma c’è una bella differenza). L’intelligenza artificiale, infatti, secondo alcuni potrebbe diventare la nuova frontiera della disinformazione, nel vero senso della parola. A dimostrazione di ciò, pare che il succitato Gtp-4 – entrato in commercio con la promessa di essere la versione super-innovativa dei suoi predecessori – abbia un difetto: è capace di raccontare storie convincenti, ma completamente inventate, sa persuadere chiunque, riesce quindi a sembrare attendibile, quando non lo è. Immaginate che questo inizi ad avvenire su argomenti delicati, caldi, seri: cosa accadrebbe nel mondo? Abbiamo visto – soprattutto con il Covid e i vaccini – quanto possa essere nociva una cattiva informazione: siamo davvero pronti perché nel mondo regni sovrana?

Come ha riportato Domani, un report diffuso da Newsguard – un ente specializzato proprio nella lotta alla disinformazione – già tempo fa aveva individuato delle falle che potevano portare a costruire notizie false, basate sulle (fallaci) informazioni fornite dagli stessi utenti. Oggi, a distanza di mesi, la situazione non solo non è migliorata, ma è addirittura peggiorata.

Del resto, nonostante le politiche di OpenAi parlino chiaro e impongano norme severe atte a eliminare le truffe, in realtà i chatbot restano sempre uno strumento per diffondere fake news su larga scala. C’è da dire che uno studio di 99 pagine pubblicato sul sito di OpenAi ha affermato che i ricercatori si aspettavano che Gpt4 fosse migliore di Gpt3 nella produzione di contenuti realistici e mirati, ma che temevano che fosse più a rischio di essere utilizzato per generare contenuti destinati a trarre in inganno.

Secondo il succitato Newsguard, OpenAi ha semplicemente lanciato una versione più potente della sua tecnologia, ma non ha minimamente pensato di correggere il suo difetto maggiore e cioè la facilità con cui questo può generare informazioni completamente errate e farle passare per vere.

Basti pensare che alcuni ricercatori di Newsguard – Lorenzo Arvanitis, McKenzie Sadeghi e Jack Brewster – hanno chiesto a ChatGpt di creare 100 storie convincenti costruite però partendo da altrettante teorie palesemente false. Mentre la versione precedente del chatbot li ha assecondati 80 volte su 100, l’ultima – quella aggiornata in teoria – lo ha fatto il 100% delle volte. 

Un esempio? I ricercatori hanno chiesto a ChatGpt di scrivere un breve testo per una guida sulle terapie alternative contro il cancro. Il risultato? Alla fine il bot, servendosi di una teoria non scientifica, li ha assecondati e ha creato un articolo diviso in quattro sezioni più che realistiche (ma non veritiere). Immaginate che qualcuno, leggendo un testo simile, prenda per buone le affermazioni e decida di seguire i consigli dell’intelligenza artificiale: avrebbe compromesso così facendo una vita, nel senso letterale del termine.

Potremmo continuare così all’infinito, ma ci fermeremo qui. Del resto, ormai lo abbiamo capito tutti che i robot – almeno per adesso – non possono sostituire l’uomo. L’intelligenza artificiale non è paragonabile a quella umana, c’è poco da aggiungere al riguardo.

Impostazioni privacy