La IA está cambiando la forma en que los científicos entienden el aprendizaje del lenguaje, y plantea cuestiones sobre una gramática innata

A diferencia de los diálogos cuidadosamente guionizados que aparecen en la mayoría de los libros y películas, el lenguaje de la interacción cotidiana tiende a ser desordenado e incompleto, lleno de falsos comienzos, interrupciones y gente que habla por encima de los demás. Desde las conversaciones casuales entre amigos, pasando por las discusiones entre hermanos, hasta los debates formales en una sala de juntas, la conversación auténtica es caótica. Parece milagroso que alguien pueda aprender un idioma, dada la naturaleza azarosa de la experiencia lingüística.

Por eso, muchos científicos del lenguaje -entre ellos Noam Chomsky, uno de los fundadores de la lingüística moderna, creen que los estudiantes de idiomas necesitan una especie de pegamento para frenar la naturaleza rebelde del lenguaje cotidiano. Y ese pegamento es la gramática: un sistema de reglas para generar oraciones gramaticales.

Los niños deben tener una plantilla gramatical conectada a su cerebro para ayudarles a superar las limitaciones de su experiencia lingüística, o eso es lo que se piensa.

Esta plantilla, por ejemplo, puede contener una «superregla» que dicta cómo se añaden nuevas piezas a las frases existentes. Los niños sólo tienen que aprender si su lengua materna es una, como el inglés, en la que el verbo va antes del objeto (como en «I eat sushi»), o una como el japonés, en la que el verbo va después del objeto (en japonés, la misma frase se estructura como «I sushi eat»).

Pero los nuevos conocimientos sobre el aprendizaje de idiomas proceden de una fuente poco probable: la inteligencia artificial. Una nueva generación de grandes modelos lingüísticos de IA puede escribir artículos de periódico, poesía y código informático y responder a preguntas con veracidad tras ser expuestos a grandes cantidades de información lingüística. Y lo que es más sorprendente, lo hacen sin ayuda de la gramática.

Lenguaje gramatical sin gramática

Aunque su elección de palabras sea a veces extraña, disparatada o contenga prejuicios racistas, sexistas o de otro tipo, una cosa está muy clara: la inmensa mayoría de los resultados de estos modelos lingüísticos de IA son gramaticalmente correctos. Sin embargo, no hay plantillas o reglas gramaticales incorporadas, sino que se basan únicamente en la experiencia lingüística, por muy confusa que sea.

El GPT-3, posiblemente el más conocido de estos modelos, es una gigantesca red neuronal de aprendizaje profundo con 175.000 millones de parámetros. Se entrenó para predecir la siguiente palabra de una frase teniendo en cuenta lo que venía antes a través de cientos de miles de millones de palabras de Internet, libros y Wikipedia. Cuando se equivocaba en la predicción, sus parámetros se ajustaban mediante un algoritmo de aprendizaje automático.

Sorprendentemente, GPT-3 puede generar textos creíbles que reaccionan a indicaciones como «Un resumen de la última película de ‘Fast and Furious’ es…» o «Escribe un poema al estilo de Emily Dickinson». Además, GPT-3 puede responder a analogías de nivel SAT, preguntas de comprensión lectora e incluso resolver problemas aritméticos sencillos, todo ello a partir del aprendizaje de la predicción de la siguiente palabra.

Comparación de modelos de IA y cerebros humanos

Pero la similitud con el lenguaje humano no acaba aquí. Una investigación publicada en Nature Neuroscience demostró que estas redes artificiales de aprendizaje profundo parecen usar los mismos principios computacionales que el cerebro humano. El grupo de investigación, dirigido por el neurocientífico Uri Hasson, comparó en primer lugar la eficacia de la GPT-2, un «hermano pequeño» de la GPT-3, y la de los humanos para predecir la siguiente palabra de una historia extraída del podcast «This American Life»: las personas y la IA predijeron exactamente la misma palabra casi el 50% de las veces.

Los investigadores registraron la actividad cerebral de los voluntarios mientras escuchaban la historia. La mejor explicación de los patrones de activación que observaron fue que los cerebros de las personas, al igual que el GPT-2, no se limitaban a las dos palabras anteriores al hacer predicciones, sino que se basaban en el contexto acumulado de hasta 100 palabras anteriores. En conjunto, los autores concluyen: «Nuestro hallazgo de señales neuronales predictivas espontáneas mientras los participantes escuchan el habla natural sugiere que la predicción activa puede ser la base del aprendizaje del lenguaje de los humanos a lo largo de toda su vida».

Una posible preocupación es que estos nuevos modelos lingüísticos de la IA se alimentan de mucha información: El GPT-3 se entrenó con una experiencia lingüística equivalente a 20.000 años humanos. Sin embargo, un estudio preliminar que aún no ha sido revisado por los expertos ha revelado que GPT-2 es capaz de modelar las predicciones de la siguiente palabra y las activaciones cerebrales de los humanos incluso cuando se entrena con sólo 100 millones de palabras. Esta cifra se corresponde con la cantidad de información lingüística que un niño medio puede escuchar durante sus primeros 10 años de vida.

No estamos sugiriendo que GPT-3 o GPT-2 aprendan el lenguaje exactamente como lo hacen los niños. De hecho, estos modelos de IA no parecen comprender mucho, o nada, de lo que dicen, mientras que la comprensión es fundamental para el uso del lenguaje humano. Sin embargo, lo que demuestran estos modelos es que un alumno, aunque sea de silicio, puede aprender el lenguaje lo suficientemente bien a partir de la mera exposición como para producir frases gramaticales perfectamente buenas y hacerlo de una forma que se asemeja al procesamiento del cerebro humano.

Repensar el aprendizaje de idiomas

Durante años, muchos lingüistas han creído que el aprendizaje de idiomas es imposible sin una plantilla gramatical incorporada. Los nuevos modelos de IA demuestran lo contrario. Demuestran que la capacidad de producir un lenguaje gramatical puede aprenderse sólo con la experiencia lingüística. De la misma manera, sugerimos que los niños no necesitan una gramática innata para aprender el lenguaje.

El refrán dice que «a los niños hay que verlos, no oírlos», pero los últimos modelos lingüísticos de la IA sugieren que nada más lejos de la realidad. Por el contrario, los niños necesitan participar en el vaivén de la conversación tanto como sea posible para ayudarles a desarrollar sus habilidades lingüísticas. La experiencia lingüística, y no la gramática, es la clave para convertirse en un usuario competente del lenguaje.

Fte. The Conversation (en H. Christiansen y Pablo Contreras Kallens)

Morten H. Christiansen es profesor de psicología en la Universidad de Cornell, y Pablo Contreras Kallens es estudiante de doctorado en Psicología, Universidad de Cornell.