Skip to main content
  1. Casa
  2. Tendencias

¿Por qué la IA de ChatGPT a veces “piensa” en chino?

Si alguna vez has usado ChatGPT, podría haberte sorprendido descubrir que, en ocasiones, la inteligencia artificial (IA) parece “pensar” en chino u otros idiomas, incluso cuando la conversación está completamente en inglés o en español. Este curioso fenómeno no solo ha llamado la atención de los s, sino que también ha generado un debate entre expertos en inteligencia artificial sobre a qué se debe esta rareza.

El origen del misterio

El caso más notable de este comportamiento se dio poco después del lanzamiento del modelo de razonamiento llamado “o1” por OpenAI. Algunos s comenzaron a notar que el modelo aparentemente “cambiaba” de idioma a mitad de sus pasos lógicos. Por ejemplo, si se le preguntaba algo como “¿Cuántas R hay en la palabra ‘strawberry’?”, el modelo podía llegar a la respuesta final en inglés, pero, mientras la procesaba, algunos pasos intermedios mostraban frases o razonamientos en chino, persa u otros idiomas.

Recommended Videos

Why did o1 pro randomly start thinking in Chinese? No part of the conversation (5+ messages) was in Chinese… very interesting… training data influence pic.twitter.com/yZWCzoaiit

— Rishab Jain (@RishabJainK) January 9, 2025

En redes sociales como IA cambiaba de idioma sin motivo aparente. Lo más curioso es que OpenAI no ha dado una explicación oficial al respecto, por lo que nadie sabe a qué se debe exactamente. Sin embargo, el fenómeno ha dejado a expertos y curiosos especulando sobre las posibles razones.

Teorías sobre el “pensamiento” en otro idioma de la IA

Aunque no hay una respuesta definitiva, se han propuesto varias teorías que intentan explicar este curioso fenómeno:

1. Influencia de los datos de entrenamiento

Una de las teorías más populares sugiere que este comportamiento podría estar relacionado con los datos utilizados para entrenar los modelos. Sistemas como o1 están entrenados con grandes volúmenes de información en varios idiomas, incluyendo inglés, chino, persa, hindi y otros. Además, se ha señalado que OpenAI y otras empresas de IA recurren a servicios de etiquetado de datos en distintas regiones del mundo, como China, debido a la disponibilidad de expertos y menores costos.

ChatGPT
phoenixmusicman / Reddit

El etiquetado de datos, un proceso en el que humanos ayudan a los modelos a clasificar y comprender información, podría influir en los patrones de razonamiento del modelo. Si una gran proporción de los datos etiquetados provienen de regiones donde se habla chino, es posible que esto genere un sesgo hacia ese idioma. Este sesgo podría explicar por qué o1 a veces “piensa” en chino o utiliza estructuras lingüísticas propias de ese idioma para resolver tareas complejas.

2. Eficiencia lingüística

Otra explicación interesante se centra en las características intrínsecas de ciertos idiomas, que los hacen más eficientes para determinadas tareas. Por ejemplo, en chino, cada dígito numérico tiene solo una sílaba, lo que podría hacer que sea más práctico para cálculos matemáticos o tareas que requieren manipular números rápidamente.

Algunos investigadores especulan que los modelos podrían “preferir” ciertos idiomas dependiendo del tipo de tarea, simplemente porque encuentran patrones más óptimos en ese idioma. Un ingeniero de la startup de IA Hugging Face comparó este fenómeno con la forma en que los humanos cambian de idioma según el contexto: alguien que aprendió matemáticas en chino podría encontrar más fácil realizar cálculos en ese idioma, mientras que utilizaría otro idioma para expresar conceptos abstractos como los de filosofía o literatura.

3. La naturaleza probabilística de los modelos

A diferencia de la idea de que algunos idiomas son más eficientes para ciertas tareas (como se menciona en el punto anterior), esta teoría se basa en cómo las IA procesan el texto. Los modelos no “entienden” las palabras como nosotros; en su lugar, dividen el texto en fragmentos pequeños llamados “tokens” (que pueden ser palabras, sílabas o caracteres). Durante su entrenamiento, los modelos aprenden a identificar patrones en estos tokens para elegir la respuesta más probable en cada caso.

Si el modelo ha visto que ciertas tareas complejas, como resolver problemas matemáticos o de lógica, se realizan con más frecuencia en chino durante su entrenamiento, podría asociar este idioma con esos tipos de razonamientos. En este caso, no es que el chino sea mejor para esas tareas, sino que el modelo “cree” que es el camino más lógico porque encontró patrones más consistentes en ese idioma durante su aprendizaje. Esta teoría pone el énfasis en el funcionamiento interno del modelo.

4. Posible “alucinación” de la IA

A side effect of this is it tends to hallucinate in other, unwarranted languages.

This is an easy question in Arabic that sent it into a yapping session in (presumably) Russian. https://t.co/IJfpBwvAv8 pic.twitter.com/FFEHDeGpGc

— Amgad Hasan (@AmgadGamalHasan) November 30, 2024

En algunos casos, el cambio de idioma podría ser una forma de “alucinación” de la IA, un término utilizado para describir cuando los modelos generan respuestas que no tienen sentido o que no están relacionadas con la pregunta inicial. Estas alucinaciones son producto de asociaciones internas erróneas creadas durante el entrenamiento.

Este fenómeno puede surgir cuando los modelos intentan “rellenar los vacíos” en su razonamiento, generando respuestas inesperadas que a veces incluyen idiomas distintos al de entrada. Aunque las alucinaciones son un comportamiento conocido en la IA, su relación con el uso de múltiples idiomas sigue siendo un área de estudio.

La falta de transparencia en los procesos de la IA

Uno de los mayores desafíos para entender este comportamiento es la opacidad de los sistemas de IA. Como mencionó un investigador del Instituto Allen para la IA a TechCrunch, es extremadamente difícil analizar por qué los modelos toman ciertas decisiones, ya que sus procesos internos son en gran medida incomprensibles incluso para sus creadores. Esto resalta la necesidad de mayor transparencia en cómo se desarrollan y entrenan estas tecnologías.

Solo podemos especular

using o1 to help me recall a song… wild to see it switch to french mid chain-of-thought 🫨 pic.twitter.com/7AM2DK19XR

— Luca Soldaini 🎀 (@soldni) September 16, 2024

Aunque aún no tenemos una respuesta definitiva sobre por qué ChatGPT y otros modelos de IA “piensan” en chino u otros idiomas, estas teorías nos ofrecen una mejor comprensión de cómo funcionan estas herramientas. Ya sea por la influencia de los datos de entrenamiento, la eficiencia o simples asociaciones probabilísticas, este fenómeno resalta lo complejos y misteriosos que pueden ser estos sistemas. Mientras OpenAI u otras empresas no entreguen más detalles, solo podemos especular sobre las razones detrás de este comportamiento.

Topics
Karina Tapia
Redes sociales (Facebook, Instagram, TikTok), videojuegos y las últimas tendencias del internet y la industria tecnológica…
Mark, el marcador de IA que quiere revolucionar la forma en que leemos libros
Mark, marcador IA libros

Cada cierto tiempo aparecen objetos y dispositivos que irrumpen para destrozar todo lo que conocemos hasta ahora y quizás la lectura física es de los pocos reductos libres de la tecnología, pero eso está muy cerca de cambiar con la presentación de Mark, un marcador de libros que funciona con IA.
Según los dos desarrolladores detrás de este proyecto, es un marcador que te ayuda a continuar donde dejaste tu libro, y hacerte un resumen de todo antes de que vuelvas a agarrar el texto.
¿Cómo funciona Mark?: Una vez que cierras el libro, el dispositivo hace el trabajo pesado. Envía un resumen de las páginas que acabas de leer a tu teléfono inteligente y luego elabora un resumen generalizado basado en la información ya asociada con ese título. 
Por 130 dólares, Mark espera dirigirse a aquellos que sienten que su atención está constantemente "fragmentada" y que los libros que leen siguen estando "infrautilizados". En concreto, este producto es para "los estadounidenses que prefieren los libros físicos a los lectores electrónicos y las tabletas", o al menos eso es lo que afirma en su manifiesto.
Mark medirá tu ritmo de lectura y resumirá los temas clave a medida que avanzas. Una función "Mark Wrapped" incluso realiza un seguimiento de lo que lee, similar a servicios como Goodreads.

Leer más
Sam Altman lo ite: el apogeo de ChatGPT ha terminado
Sam Altman

El CEO de OpenAI, Sam Altman ha itido que la compañía ha perdido su ventaja dentro del espacio de la IA en medio de la introducción de la firma china DeepSeek y su modelo de razonamiento R1. Sin embargo, dice que la marca continuará desarrollándose en la industria.
El jefe de la compañía itió que OpenAI ha estado "en el lado equivocado de la historia" en términos de desarrollo de código abierto para sus modelos de IA. Altman y varios otros ejecutivos de OpenAI discutieron el estado de la compañía y sus planes futuros durante una sesión de Ask Me Anything en Reddit el viernes, donde el equipo se sinceró con entusiastas curiosos sobre una variedad de temas.

Rolf van Root / Unsplash

Leer más
Sam Altman ite una derrota con ChatGPT Pro: «pensé que ganaríamos dinero»
Sam Altman

El CEO de OpenAI, Sam Altman, está un poco arrepentido con una de sus decisiones sobre ChatGPT, ya que la plataforma Pro que cuesta 200 dólares al mes para entregar mejores resultados de conversación y búsqueda y resolución, no ha sido lo esperado en ganancias para la compañía.
"Personalmente, elegí el precio", escribió Altman en una serie de publicaciones en X, "y pensé que ganaríamos algo de dinero".
ChatGPT Pro, lanzado a fines del año pasado, otorga a una versión mejorada del modelo de IA de "razonamiento" o1 de OpenAI, el modo o1 pro, y elimina los límites de velocidad en varias de las otras herramientas de la compañía, incluido su generador de video Sora.
Incluso, en una entrevista reciente con Bloomberg, Altman dijo que el plan original para el chatbot impulsado por IA de OpenAI, ChatGPT, no tenía un estudio de precios.
"Creo que probamos dos precios, 20 y 42 dólares", dijo a la publicación. "La gente pensaba que 42 dólares era demasiado. Estaban felices de pagar 20 dólares. Elegimos $20. Probablemente fue a finales de diciembre de 2022 o principios de enero. No se trataba de un riguroso 'contrata a alguien y haz un estudio de precios'".
Aún así OpenAI proyecta con optimismo que sus ingresos alcanzarán los 11.600 millones de dólares este año y los 100.000 millones de dólares en 2029, igualando las ventas anuales actuales de Nestlé.

Leer más