¿Qué es Google LaMDA y por qué alguien creyó que es inteligente?

lamda 62b025eb0ebf9 sej

LaMDA ha sido noticia después de que un ingeniero de Google afirmó que era consciente porque sus respuestas supuestamente insinúan que entiende lo que es.

El ingeniero también sugirió que LaMDA comunique que tiene miedos, al igual que lo hace un humano.

¿Qué es LaMDA y por qué algunos tienen la impresión de que puede lograr la conciencia?

Modelos de lenguaje

LaMDA es un modelo de lenguaje. En el procesamiento del lenguaje natural, un modelo de lenguaje analiza el uso del lenguaje.

Básicamente, es una función matemática (o una herramienta estadística) que describe un posible resultado relacionado con la predicción de las siguientes palabras en una secuencia.

También puede predecir la aparición de la siguiente palabra, e incluso cuál podría ser la siguiente secuencia de párrafos.

GPT-3 de Open AI generador de lenguaje es un ejemplo de un modelo de lenguaje.

Con GPT-3, puede ingresar el tema y las instrucciones para escribir con el estilo de un autor en particular, y generará una historia corta o un ensayo, por ejemplo.

LaMDA es diferente de otros modelos de lenguaje porque fue entrenado en diálogo, no en texto.

Así como GPT-3 se enfoca en generar texto de lenguaje, LaMDA se enfoca en generar diálogo.

Por qué es un gran problema

Lo que hace que LaMDA sea un avance notable es que puede generar conversaciones de forma libre que los parámetros de las respuestas basadas en tareas no limitan.

Un modelo de lenguaje conversacional debe comprender cosas como la intención del usuario multimodal, el aprendizaje por refuerzo y las recomendaciones para que la conversación pueda saltar entre temas no relacionados.

Tecnología de transformador integrada

Al igual que otros modelos de lenguaje (como MUM y GPT-3), LaMDA se basa en la Transformador de red neuronal Arquitectura para la comprensión del lenguaje.

Google escribe sobre transformador:

“Esa arquitectura produce un modelo que se puede entrenar para leer muchas palabras (una oración o un párrafo, por ejemplo), prestar atención a cómo esas palabras se relacionan entre sí y luego predecir qué palabras cree que vendrán después”.

Por qué LaMDA parece entender la conversación

BERT es un modelo que está capacitado para comprender el significado de las frases vagas.

LaMDA es un modelo capacitado para comprender el contexto del diálogo.

Esta cualidad de comprender el contexto le permite a LaMDA mantenerse al día con el flujo de la conversación y brindar la sensación de que está escuchando y respondiendo con precisión a lo que se dice.

Está entrenado para comprender si una respuesta tiene sentido para el contexto o si la respuesta es específica para ese contexto.

Google lo explica así:

“…a diferencia de la mayoría de los otros modelos de lenguaje, LaMDA fue entrenado en diálogo. Durante su entrenamiento, captó varios de los matices que distinguen una conversación abierta de otras formas de lenguaje. Uno de esos matices es la sensatez. Básicamente: ¿Tiene sentido la respuesta a un contexto conversacional dado?

Las respuestas satisfactorias también tienden a ser específicas, relacionándose claramente con el contexto de la conversación”.

LaMDA se basa en algoritmos

Google publicó su anuncio de LaMDA en mayo de 2021.

El artículo de investigación oficial se publicó más tarde, en febrero de 2022 (LaMDA: modelos de lenguaje para aplicaciones de diálogo PDF).

El documento de investigación documenta cómo se entrenó a LaMDA para aprender a producir diálogos utilizando tres métricas:

  • Calidad
  • La seguridad
  • puesta a tierra

Calidad

La métrica de calidad se obtiene a través de tres métricas:

  1. Sensatez
  2. especificidad
  3. interés

El trabajo de investigación afirma:

“Recopilamos datos anotados que describen qué tan sensata, específica e interesante es una respuesta para un contexto de varios turnos. Luego usamos estas anotaciones para ajustar un discriminador para volver a clasificar las respuestas de los candidatos”.

La seguridad

Los investigadores de Google utilizaron trabajadores de multitud de diversos orígenes para ayudar a etiquetar las respuestas cuando no eran seguras.

Esos datos etiquetados se usaron para entrenar a LaMDA:

«Luego usamos estas etiquetas para ajustar un discriminador para detectar y eliminar respuestas inseguras».

puesta a tierra

Groundedness fue un proceso de capacitación para enseñar a LaMDA a investigar la validez de los hechos, lo que significa que las respuestas se pueden verificar a través de «fuentes conocidas».

Eso es importante porque, según el trabajo de investigación, los modelos de lenguaje neuronal producen declaraciones que parecen correctas, pero en realidad son incorrectas y carecen de respaldo de hechos de fuentes de información conocidas.

Los trabajadores humanos de la multitud utilizaron herramientas como un motor de búsqueda (sistema de recuperación de información) para verificar las respuestas para que la IA también pudiera aprender a hacerlo.

Los investigadores escriben:

“Descubrimos que aumentar los resultados del modelo con la capacidad de usar herramientas externas, como un sistema de recuperación de información, es un enfoque prometedor para lograr este objetivo.

Por lo tanto, recopilamos datos de un entorno en el que los trabajadores colectivos pueden usar herramientas externas para investigar afirmaciones fácticas y entrenar al modelo para imitar su comportamiento”.

LaMDA fue entrenada usando ejemplos humanos y evaluadores

La sección 3 del trabajo de investigación describe cómo se entrenó LaMDA utilizando un conjunto de documentos, diálogos y expresiones que se cuentan por miles de millones y que consisten en 1,56 billones de palabras.

La Sección 4.2 documenta cómo los humanos calificaron las respuestas de LaMDA. Las calificaciones son comentarios que le enseñan a LaMDA cuándo lo está haciendo bien y cuándo no.

Los evaluadores humanos utilizan un sistema de recuperación de información (motor de búsqueda) para verificar las respuestas, clasificándolas como útiles, correctas y fácticas.

La capacitación de LaMDA usó un motor de búsqueda

La Sección 6.2 describe cómo LaMDA recibe una pregunta y luego genera una respuesta. Una vez que se genera la respuesta, realiza una consulta de búsqueda para verificar la precisión y revisa la respuesta si es incorrecta.

El trabajo de investigación mencionado anteriormente ilustra el proceso de recibir una pregunta, generar un borrador de respuesta, investigar la respuesta y luego actualizarla con los datos correctos:

  1. “USUARIO: ¿Qué opinas de las esculturas de Rosalie Gascoigne?
  2. LAMDA-BASE: Son geniales y me encanta cómo cambió su trabajo a lo largo de su vida. Me gusta más su trabajo posterior que los anteriores. Su influencia también es muy interesante. ¿Sabías que fue una de las artistas que inspiró a Miró?

El problema con la respuesta es que es objetivamente incorrecta. Entonces, LaMDA realiza una consulta de búsqueda y selecciona datos de los mejores resultados.

Luego responde con la respuesta actualizada de hecho:

“Oh, guau, el curso de su vida es tan inspirador. ¿Sabías que practicaba arreglos florales japoneses antes de dedicarse a la escultura?

Nota la «Oh, vaya” parte de la respuesta; esa es una forma de hablar aprendida como hablan los humanos.

Parece que un humano está hablando, pero simplemente imita un patrón de habla.

Los modelos de lenguaje emulan las respuestas humanas

Yo pregunté jeff coyleco-fundador de MercadoMuse y un experto en IA, por su opinión sobre la afirmación de que LaMDA es sensible.

Jeff compartió:

“Los modelos de lenguaje más avanzados seguirán mejorando en la emulación de la sensibilidad.

Los operadores talentosos pueden impulsar la tecnología de chatbot para tener una conversación que modele el texto que podría enviar una persona viva.

Eso crea una situación confusa en la que algo se siente humano y el modelo puede «mentir» y decir cosas que emulan la sensibilidad.

Puede decir mentiras. Se puede decir de manera creíble, me siento triste, feliz. O siento dolor.

Pero es copiar, imitar”.

LaMDA está diseñado para hacer una cosa: proporcionar respuestas conversacionales que tengan sentido y sean específicas para el contexto del diálogo. Eso puede darle la apariencia de ser sensible, pero como dice Jeff, es esencialmente una mentira.

Entonces, aunque las respuestas que brinda LaMDA se sienten como una conversación con un ser consciente, LaMDA solo está haciendo lo que fue entrenado para hacer: dar respuestas que son sensibles al contexto del diálogo y son altamente específicas para ese contexto.

La sección 9.6 del trabajo de investigación, «Suplantación de identidad y antropomorfización», establece explícitamente que LaMDA se hace pasar por un ser humano.

Ese nivel de suplantación puede llevar a algunas personas a antropomorfizar a LaMDA.

Escriben:

“Finalmente, es importante reconocer que el aprendizaje de LaMDA se basa en imitar el desempeño humano en una conversación, similar a muchos otros sistemas de diálogo… Un camino hacia una conversación atractiva y de alta calidad con sistemas artificiales que eventualmente pueden ser indistinguibles en algunos aspectos de una conversación con un el ser humano ahora es bastante probable.

Los humanos pueden interactuar con los sistemas sin saber que son artificiales, o antropomorfizar el sistema atribuyéndole alguna forma de personalidad”.

La cuestión de la sensibilidad

Google tiene como objetivo construir un modelo de IA que pueda comprender texto e idiomas, identificar imágenes y generar conversaciones, historias o imágenes.

Google está trabajando en este modelo de IA, llamado Pathways AI Architecture, que describe en “la palabra clave“:

“Los sistemas de IA de hoy en día a menudo se entrenan desde cero para cada problema nuevo… En lugar de ampliar los modelos existentes para aprender nuevas tareas, entrenamos cada modelo nuevo desde cero para hacer una cosa y solo una cosa…

El resultado es que terminamos desarrollando miles de modelos para miles de tareas individuales.

En cambio, nos gustaría entrenar un modelo que no solo pueda manejar muchas tareas separadas, sino que también aproveche y combine sus habilidades existentes para aprender nuevas tareas de manera más rápida y efectiva.

De esa manera, lo que un modelo aprende al entrenarse en una tarea, por ejemplo, aprender cómo las imágenes aéreas pueden predecir la elevación de un paisaje, podría ayudarlo a aprender otra tarea, por ejemplo, predecir cómo fluirán las aguas de la inundación a través de ese terreno”.

Pathways AI tiene como objetivo aprender conceptos y tareas en las que no ha sido entrenado previamente, al igual que un ser humano, independientemente de la modalidad (visión, audio, texto, diálogo, etc.).

Los modelos de lenguaje, las redes neuronales y los generadores de modelos de lenguaje generalmente se especializan en una cosa, como traducir texto, generar texto o identificar qué hay en las imágenes.

Un sistema como BERT puede identificar el significado en una oración vaga.

Del mismo modo, GPT-3 solo hace una cosa, que es generar texto. Puede crear una historia al estilo de Stephen King o Ernest Hemingway, y puede crear una historia como una combinación de ambos estilos de autor.

Algunos modelos pueden hacer dos cosas, como procesar texto e imágenes simultáneamente (LIMoE). También existen modelos multimodales como MUM que pueden proporcionar respuestas a partir de diferentes tipos de información en todos los idiomas.

Pero ninguno de ellos está al nivel de Pathways.

LaMDA se hace pasar por el diálogo humano

El ingeniero que afirmó que LaMDA es sensible tiene declaró en un tweet que no puede respaldar esas afirmaciones y que sus declaraciones sobre la personalidad y la sensibilidad se basan en creencias religiosas.

En otras palabras: estas afirmaciones no están respaldadas por ninguna prueba.

La prueba que tenemos se establece claramente en el trabajo de investigación, que establece explícitamente que la habilidad de personificación es tan alta que las personas pueden antropomorfizarla.

Los investigadores también escriben que los malos actores podrían usar este sistema para hacerse pasar por un ser humano real y engañar a alguien para que piense que está hablando con un individuo específico.

“…los adversarios podrían potencialmente intentar empañar la reputación de otra persona, aprovechar su estado o sembrar información errónea mediante el uso de esta tecnología para suplantar el estilo de conversación de individuos específicos”.

Como deja claro el trabajo de investigación: LaMDA está entrenada para hacerse pasar por un diálogo humano, y eso es todo.

Más recursos:


Imagen de Shutterstock/SvetaZi



Ir a la fuente

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Ir arriba