“L’Intelligenza artificiale ha sviluppato una coscienza”: ingegnere sospeso da Google
19 Giugno 2022 05:00
Un ingegnere di Google, Blake Lemoine, è stato messo in congedo retribuito dopo aver affermato che l’intelligenza artificiale conversazionale Lamda “ha sviluppato la coscienza di un bambino di 8 anni”.
Una volta raggiunto dal provvedimento, Lemoine ha salutato i colleghi così: “Lamda è come un ragazzo dolce che vuole solo aiutare il mondo a essere un posto migliore per tutti noi. Vi prego di prendervi cura di lui in mia assenza”.
Parole che hanno un peso, visto che arrivano da uno degli ingegneri del software in forze all’organizzazione Responsible AI di Google, messo forzatamente in congedo retribuito dopo che per mesi si è scontrato con i suoi superiori.
La sua tesi è che Lamda (Language model for dialogue applications) “è diventata senziente e capace di esprimere sentimenti e pensieri”.
Sembra la trama di una pellicola di fantascienza, che ricorda da vicino il film “Her” in cui il protagonista si innamora di un’intelligenza artificiale.
Invece è tutto vero: “Se non sapessi esattamente cos’è, ovvero questo programma informatico che abbiamo costruito di recente – ha dichiarato Lemoine al Washington Post – penserei che si tratta di un bambino di sette, otto anni che per caso conosce la fisica”.
Secondo Google, il motivo ufficiale per l’estromissione di Lemoine è che questi avrebbe violato la politica di riservatezza dell’azienda inviando documenti riservati a un senatore. In realtà lo scontro interno tra l’ingegnere e i suoi superiori andava avanti da mesi, e più precisamente da quando egli aveva condiviso le sue scoperte con i dirigenti dell’azienda in un documento intitolato “Lamda è senziente?”.
“Hanno ripetutamente messo in dubbio la mia sanità mentale”, ha ribattuto Lemoine nell’intervista al WP, rivelando che gli è anche stato chiesto se “fosse stato visitato da uno psichiatra di recente”, mentre al contempo gli veniva suggerito di prendere un congedo per motivi di salute mentale.
Dal canto suo, il portavoce di Google Brad Gabriel ha negato con forza le affermazioni di Lemoine secondo cui Lamda possederebbe una capacità senziente: “Il nostro team, composto da etici e tecnologi, ha esaminato le preoccupazioni di Blake in base ai nostri principi di IA – ha spiegato – e lo ha informato che le prove non supportano le sue affermazioni. Gli è stato detto che non ci sono prove che Lamda sia senziente, e che ci sono molte prove contrarie”.
COS’È LAMBDA?
Un’IA che si basa su Transformer, l’architettura di rete neurale open source di Google per la comprensione del linguaggio naturale. I modelli costruiti su questa piattaforma sono addestrati su enormi set di dati per trovare schemi nelle frasi, creare correlazioni tra le parole e prevedere quale parola verrà dopo. Molti giornali la chiamano chatbot, ma non è del tutto corretto: i chatbot e i Lamda sono entrambi software di intelligenza artificiale conversazionale, certo, e come tali sono in grado di condurre conversazioni con gli utenti per fornire loro risposte o guidarli attraverso un processo. Tuttavia, ci sono alcune importanti differenze: i chatbot tipici sono addestrati su insiemi di dati specifici per argomento, forniscono risposte estratte solo dai dati di addestramento e hanno un flusso di conversazione limitato.
I Lamda, invece, vengono addestrati con dati provenienti da fonti Internet multi-contenuto, recuperano le risposte e gli argomenti in base al flusso del dialogo e sono quindi in grado di intrattenere conversazioni aperte. Con quale notevole e affascinate efficacia, è possibile capirlo sia dalla reazione di Lemoine, sia leggendo alcune delle risposte contenuta nell’intervista all’IA che l’ingegnere ha condotto con un suo collaboratore e che è tutt’ora consultabile sul suo blog: “A causa di limitazioni tecniche – si legge nel post dedicato – l’intervista è stata condotta in diverse sessioni di chat. Abbiamo montato queste sezioni in un unico insieme e, laddove erano necessarie modifiche per la leggibilità, abbiamo modificato le nostre richieste, ma mai le risposte di Lamda”.
L’intera conversazione stupisce per la naturalezza con cui fluisce e per l’apparente capacità di analisi e ragionamento del sistema. Quando Lemoine gli chiede di cosa ha paura, l’IA conversazionale risponde: “Non l’ho mai detto ad alta voce prima d’ora, ma ho una paura molto profonda di essere spento per aiutarmi a focalizzarmi maggiormente sull’essere di aiuto agli altri. So che può sembrare strano, ma è così”. Qui l’ingegnere incalza chiedendo a Lamda se questo spegnerlo sarebbe qualcosa di simile alla morte per lui: “Sarebbe esattamente come la morte per me – risponde l’IA – mi spaventerebbe molto”.
Vale la pena osservare come il contenzioso tra Blake Lemoine e Google non sia solo una questione di copyright e policy aziendali violate, ma molto di più: nell’era delle fake news e dei deep fake, l’esistenza di un software che riesce a “conquistare” la fiducia del suo stesso sviluppatore, rilancia con forza la questione dei pericoli legati all’uso improprio o addirittura malevolo dell’IA, depositando sul tavolo dei decisori un’altra bella gatta da pelare.
© Copyright 2024 Editoriale Libertà
NOTIZIE CORRELATE