LaMDA: Il sistema di intelligenza artificiale che “ha acquisito consapevolezza e sentimento” secondo un ingegnere di Google

LaMDA: Il sistema di intelligenza artificiale che “ha acquisito consapevolezza e sentimento” secondo un ingegnere di Google

Una macchina per pensare e sentire. Ecco come ha sottolineato Blake Lemonine, ingegnere di Google, un LaMDA, il sistema di intelligenza artificiale di Google. Si è diffuso rapidamente. Lo leggiamo ovunque. Ma, Com’è questa “macchina”?

Facendo riferimento a vecchi film di fantascienza, puoi immaginare LaMDA come un file Il robot umanoide che apre gli occhi, percepisce e parla. O come HAL-9000, il supercomputer 2001 volo spaziale e cosa c’entra I Simpson, Come parodia, ha la voce di Pierce Brosnan, ama Marge e vuole uccidere Homer.

La verità è più complicata: lo è anche lambda Un cervello artificiale, ospitato nel cloud, che si nutre di trilioni di testi mentre si allena. Ma allo stesso tempo sembra un pappagallo.

Complesso? Proviamo a scomporlo per capirlo meglio.

CAN LaMDA (modello linguistico per applicazioni di dialogo, modello linguistico per applicazioni di dialogo in spagnolo) Progettato da Google nel 2017 è basato su adattatoreovvero una rete neurale artificiale profonda.

Un’enorme rete neurale addestrata con grandi quantità di testo, questa è LaMDA.Getty Images

Questa rete neurale Esercitati con un sacco di testi. Ma l’apprendimento avviene per obiettività e si presenta come un gioco. Contiene un’intera frase ma prendi una parola e il sistema deve indovinarla”, spiega Julio Gonzalo Arroyo, professore presso l’UNED (Università Nazionale di Educazione a Distanza) in Spagna e ricercatore principale presso il Dipartimento di elaborazione del linguaggio naturale e recupero di informazioni linguistiche .

Gioca con te stesso. Il sistema emette parole per tentativi e quando sbaglia, come se fosse un libretto di attività per bambini, guarda le ultime pagine, vede la risposta corretta e quindi corregge i parametri, si adegua.

Allo stesso tempo, “Definisce il significato di ogni parola e Presta attenzione alle parole intorno a lei‘ dice Gonzalo Arroyo.

READ  La NASA ha testato con successo il suo nuovo razzo ed è pronta a lanciare la sua missione con equipaggio sulla Luna

Diventa così uno specialista nella predizione di schemi e parole. Proprio come il testo predittivo sul tuo cellulare, qui viene ampliato solo al nono grado, con molta più memoria.

Ma LaMDA crea anche risposte fluide, non soffocanti e, secondo Google, la capacità di ricreare il dinamismo e riconoscere le sfumature della conversazione umana. In breve: Non sembra un meccanismo.

limone e google "Sembra che non gli importi cosa sta succedendo" con LaMDA.
Per quanto riguarda Lemoine, sembra che Google “non abbia alcun interesse a sapere cosa sta succedendo” con LaMDA.Getty Images

Questa liquidità è uno degli obiettivi di Google, come spiegato nel loro blog tecnologico. Dicono di averlo capito e se ne accorgono Le risposte sono di qualità, sono specifiche e c’è utilità.

Per avere qualità, deve avere un senso. Ad esempio, se lo dici a LaMDA Ho iniziato a suonare la chitarra“Dovrebbe rispondere qualcosa su questo e non qualche sciocchezza.

Per raggiungere il secondo obiettivo, non dovrebbe rispondere “va bene”, ma piuttosto rispondere con qualcosa di più specifico, come “Quale tipo di chitarra preferisci, Gibson o Fender?”.

E affinché il sistema fornisca risposte che mostrino interesse, perspicaci, si sposta a un livello più alto, come ad esempio: “Una Fender Stratocaster è una buona chitarra, ma la Red Special di Brian May è unica.”

Perché dare risposte con questo livello di dettaglio? Come abbiamo detto, si sta allenando da sola. “Dopo aver letto miliardi di parole, ha una straordinaria capacità di indovinare le parole più appropriate in ogni contesto”.

"Non ha senso incarnare gli attuali modelli di conversazione"Google conferma.
Dicono a Google: “Non ha senso dare corpo agli attuali modelli di conversazione”.Getty Images

Per gli esperti di intelligenza artificiale, adattatori come LaMDA sono stati una pietra miliare perché “consentivano un’elaborazione (di informazioni e testo) molto efficiente e hanno prodotto una vera rivoluzione nel campo dell’elaborazione del linguaggio naturale”.

READ  Backup: come salvare tutto ciò che ho sul mio cellulare in caso di arresto anomalo

Un altro obiettivo nella formazione LaMDA, secondo Google, è Non crea “contenuti violenti o cruenti, né promuove stereotipi calunniosi o pieni di odio”. verso gruppi di persone, o che contengono volgarità”, pensano al loro blog sull’Intelligenza Artificiale (AI).

È inoltre necessario che le risposte siano basate su fatti e che esistano fonti esterne note.

“Con LaMDA contiamo a Un approccio calcolato e meticoloso per tenere conto delle preoccupazioni valide in merito all’equità e all’onestà‘”, afferma Brian Gabriel, un portavoce di Google.

Afferma che il sistema è stato sottoposto a 11 revisioni separate dei principi dell’IA “insieme a ricerche e test rigorosi basati su metriche chiave per la qualità, la sicurezza e la capacità del sistema di produrre dati basati sui fatti”.

Come si fa a rendere un sistema come LaMDA libero da pregiudizi e incitamento all’odio?

“Il La chiave è identificare i dati (con qualsiasi fonte di testo) che vengono alimentati”, afferma Gonzalo.

Ma non è facile: “Il nostro modo di comunicare riflette i nostri pregiudizi, e quindi le macchine li apprendono. È difficile rimuoverli dai dati di addestramento senza rimuovere la loro rappresentatività”, spiega.

egli è chiamato, può mostrare pregiudizi.

"È relativamente facile ingannare le persone"Sostiene Gonzalo.
“È relativamente facile ingannare le persone”, dice Gonzalo.Getty Images

“Se gli dai notizie della regina Letizia (di Spagna) e in ognuna di loro commenti gli abiti che indossa, è possibile che quando si chiede di lei all’ordine, ripeta questo stile maschile e parli di vestiti e non di altre cose”, dice l’esperto.

Nel 1966 fu progettato il sistema ELIZA che applicava schemi molto semplici per simulare il dialogo di uno psicoterapeuta. “Il regime ha incoraggiato il paziente a dirgli di più, indipendentemente dall’argomento della conversazione, e ha suscitato schemi del tipo: ‘Se menziona la parola famiglia, chiedigli qual è il suo rapporto con sua madre'”, dice Gonzalo.

READ  La capsula Crew Dragon di SpaceX si è unita con successo alla Stazione Spaziale Internazionale

Ci sono persone che credevano che Elisa fosse davvero una psicoterapeuta: sostenevano addirittura che li aiutasse.

“Il È relativamente facile ingannare le persone‘”, sostiene Gonzalo, che ritiene che l’affermazione di Lemoine secondo cui LaMDA è diventata consapevole di sé “è un’esagerazione”.

Secondo il professor Gonzalo, Frasi come Lemoine non aiutano una sana discussione sull’intelligenza artificiale.

“Ascoltare questo tipo di sciocchezze (nonsense) non serve. Rischiamo che le persone diventino ossessionate e pensino che siamo in modalità matrice e che le macchine siano più intelligenti e ci uccidano. È lontano, è la mia immaginazione. Non credo sia utile avere una conversazione calorosa sui vantaggi dell’IA. “

Perché mentre la conversazione è fluida, di qualità e specifica, “non è altro che una formula gigante che si perfeziona per prevedere meglio la parola successiva. Non hai idea di cosa stai parlando”.

La risposta di Google è simile. “Questi sistemi simulano il tipo di scambio che si trova in milioni di frasi e possono riguardare qualsiasi argomento interessante: se chiedi loro com’è quando si tratta di un dinosauro congelato, possono creare testi sullo scioglimento e sul ruggito, ecc.” da Google.

I ricercatori Emily Bender o Timnit Gebru si riferivano a questi sistemi di creazione del linguaggio come “pappagalli casuali”che si ripetono casualmente.

Così, come hanno affermato i ricercatori Ariel Gersenweig e Ramon Sanguisa, trasformatori Come LaMDA, capiscono quello che scrivono tanto quanto il pappagallo che canta il tango Il giorno in cui mi ami.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back To Top