Los desarrolladores de Google están enseñando a una inteligencia artificial a explicar chistes, algo que lejos de lo banal que suena puede potenciar un profundo avance tecnológico en la forma en que estos sistemas logran aprender de manera automática a analizar y responder al lenguaje humano.
El objetivo es impulsar las fronteras de la tecnología del Procesamiento de Lenguaje Natural (NLP, por sus siglas en inglés), la cual se utiliza para los modelos de lenguaje grande (LLM) como GPT-30 que permiten, por ejemplo, que los chatbots puedan reproducir una comunicación humana cada vez más precisa, la cual, en los casos más avanzados, hace difícil distinguir si el interlocutor es un ser humano o una máquina.
Ahora, en un artículo publicado recientemente, el equipo de investigación de Google afirma haber entrenado un modelo de lenguaje llamado PaLM que es capaz no solo de generar texto realista, sino también de interpretar y explicar chistes contados por humanos.
En los ejemplos que acompañan al documento, el equipo de inteligencia artificial de Google muestra la capacidad del modelo para realizar razonamientos lógicos y otras tareas de lenguaje complejas que dependen en gran medida del contexto, por ejemplo, mediante el uso de una técnica llamada indicación de cadena de pensamiento, que mejora enormemente la capacidad del sistema de analizar problemas lógicos de varios pasos simulando el proceso de pensamiento de un ser humano.
Al “explicar los chistes” el sistema demuestra que entiende la broma, y puede encontrar el truco argumental, el juego de palabras, o la salida sarcástica en el remate del chiste, como se puede ver en este ejemplo.
Chiste: ¿Cuál es la diferencia entre una cebra y un paraguas? Uno es un animal rayado relacionado con los caballos, otro es un dispositivo que usas para evitar que la lluvia caiga sobre ti.
Explicación de la IA: Esta broma es una anti-broma. El chiste es que la respuesta es obvia, y el chiste es que esperabas una respuesta graciosa.
Detrás de la capacidad de PaLM para analizar estas indicaciones se encuentra uno de los modelos de lenguaje más grandes jamás construidos, con 540 mil millones de parámetros. Los parámetros son los elementos del modelo que se entrenan durante el proceso de aprendizaje cada vez que el sistema recibe datos de ejemplo. El predecesor de PaLM, GPT-3, tiene 175.000 millones de parámetros.
El creciente número de parámetros ha permitido a los investigadores producir una amplia gama de resultados de alta calidad sin necesidad de dedicar tiempo a entrenar el modelo para escenarios individuales. En otras palabras, el rendimiento de un modelo de lenguaje a menudo se mide en la cantidad de parámetros que admite, con los modelos más grandes capaces de lo que se conoce como “aprendizaje de pocos intentos”, o la capacidad de un sistema para aprender una amplia variedad de complejos tareas con relativamente pocos ejemplos de entrenamiento.
Con información de Infobae