Skip to main content
  1. Casa
  2. Computación

DT en Español podría recibir una comisión si compras un producto desde el sitio

DeepSeek prepara un salto en su modelo de IA: ¿de qué se trata?

DeepSeek
DTES

Hace apenas unos meses, la gran apuesta de Wall Street por la IA generativa tuvo un momento de ajuste de cuentas cuando DeepSeek entró en escena. A pesar de su naturaleza fuertemente censurada, el código abierto DeepSeek demostró que un modelo de IA de razonamiento fronterizo no requiere necesariamente miles de millones de dólares y puede llevarse a cabo con recursos modestos.

Rápidamente encontró la adopción comercial por parte de gigantes como Huawei, Oppo y Vivo, mientras que empresas como Microsoft, Alibaba y Tencent rápidamente le dieron un lugar en sus plataformas. Ahora, el próximo objetivo de la empresa china son los modelos de IA que se automejoran y que utilizan un enfoque de recompensa-juez en bucle para mejorarse a sí mismos.

Recommended Videos

En un documento preimpreso (a través de Bloomberg), investigadores de DeepSeek y la Universidad Tsinghua de China describen un nuevo enfoque que podría hacer que los modelos de IA sean más inteligentes y eficientes de una manera automejorable. La tecnología subyacente se denomina ajuste de la crítica basada en principios propios (SPCT), y el enfoque se conoce técnicamente como modelado de recompensa generativa (GRM).

En los términos más simples, es algo así como crear un bucle de retroalimentación en tiempo real. Un modelo de IA se mejora fundamentalmente al aumentar el tamaño del modelo durante el entrenamiento. Eso requiere mucho trabajo humano y recursos informáticos. DeepSeek propone un sistema en el que el «juez» subyacente viene con su propio conjunto de críticas y principios para un modelo de IA a medida que prepara una respuesta a las consultas de los s.

Este conjunto de críticas y principios se compara con las reglas estáticas establecidas en el corazón de un modelo de IA y el resultado deseado. Si hay un alto grado de coincidencia, se genera una señal de recompensa, que guía efectivamente a la IA para que se desempeñe aún mejor en el próximo ciclo.

Los expertos detrás del documento se refieren a la próxima generación de modelos de IA automejorados como DeepSeek-GRM. Los puntos de referencia enumerados en el documento sugieren que estos modelos funcionan mejor que los modelos Gemini de Google, Llama de Meta y GPT-4o de OpenAI. DeepSeek dice que estos modelos de IA de próxima generación se lanzarán a través del canal de código abierto.

¿IA que se mejora a sí misma?

El tema de la IA que puede mejorarse a sí misma ha suscitado algunas observaciones ambiciosas y controvertidas. El ex CEO de Google, Eric Schmidt, argumentó que podríamos necesitar un interruptor de apagado para tales sistemas. «Cuando el sistema pueda automejorarse, tenemos que pensar seriamente en desenchufarlo», dijo Schmidt, citado por Fortune.

El concepto de una IA que se mejora a sí misma de forma recursiva no es precisamente un concepto nuevo. La idea de una máquina ultra inteligente, que posteriormente es capaz de hacer máquinas aún mejores, en realidad se remonta al matemático I.J. Good en 1965. En 2007, el experto en IA Eliezer Yudkowsky formuló una hipótesis sobre Seed AI, una IA «diseñada para la autocomprensión, la automodificación y la automejora recursiva».

En 2024, la japonesa Sakana AI detalló el concepto de «científico de IA» sobre un sistema capaz de pasar todo el proceso de un trabajo de investigación de principio a fin. En un artículo de investigación publicado en marzo de este año, los expertos de Meta revelaron modelos de lenguaje autogratificantes en los que la propia IA actúa como juez para proporcionar recompensas durante el entrenamiento.

Las pruebas internas de Meta en su modelo de IA Llama 2 utilizando la novedosa técnica de autorecompensa vieron que superó a rivales como Claude 2 de Anthropic, Gemini Pro de Google y los modelos GPT-4 de OpenAI. Antropic, respaldada por Amazon, detalló lo que llamaron manipulación de recompensas, un proceso inesperado «en el que un modelo modifica directamente su propio mecanismo de recompensa».

Google no se queda atrás en la idea. En un estudio publicado en la revista Nature a principios de este mes, los expertos de Google DeepMind mostraron un algoritmo de IA llamado Dreamer que puede mejorarse a sí mismo, utilizando el juego Minecraft como ejemplo de ejercicio.

Los expertos de IBM están trabajando en su propio enfoque llamado entrenamiento de cierre deductivo, en el que un modelo de IA utiliza sus propias respuestas y las evalúa contra los datos de entrenamiento para mejorarse a sí mismo. Sin embargo, toda la premisa no es todo sol y arcoíris.

La investigación sugiere que cuando los modelos de IA intentan entrenarse a sí mismos con datos sintéticos autogenerados, se producen defectos conocidos coloquialmente como «colapso del modelo». Sería interesante ver cómo DeepSeek ejecuta la idea, y si puede hacerlo de una manera más frugal que sus rivales de Occidente.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Alibaba se sube a la pelea: dice que tiene una IA mejor que DeepSeek

China está pisando fuerte en los últimos días con la IA, y si DeepSeek fue la primera gran novedad, un nuevo competidor apareció para roncar más fuerte en el vecindario y exigir más atención a su trabajo: se trata de Alibaba.
La compañía que fundó el carismático Jack Ma,  lanzó una nueva versión de su modelo de inteligencia artificial Qwen 2.5 que, según afirma, superó al aclamado DeepSeek-V3.
"Qwen 2.5-Max supera... casi en todos los ámbitos GPT-4o, DeepSeek-V3 y Llama-3.1-405B", dijo la unidad en la nube de Alibaba en un anuncio publicado en su cuenta oficial de WeChat, refiriéndose a los modelos de IA de código abierto más avanzados de OpenAI y Meta.
Pero no es el único competidor en China que está exigiendo un lugar en el baile, ya que dos días después del lanzamiento de DeepSeek-R1, el propietario de TikTok, ByteDance, publicó una actualización de su modelo de IA insignia, que, según afirmaba, superaba el o1 de OpenAI, respaldado por Microsoft, en AIME, una prueba de referencia que mide lo bien que los modelos de IA entienden y responden a instrucciones complejas.
Según apuntan desde Alibaba Cloud, han preentrenado este modelo con unos 20 billones de tokens, lo que hace que sea uno de los modelos más ricos en datos de la actualidad. Esto hace posible también que su rendimiento sea elevado en diversos tipos de tareas, que van desde la comprensión del lenguaje natural hasta el razonamiento complejo. Además de por su rendimiento, Qwen 2.5-Max destaca también por su escalabilidad y eficiencia.
La posibilidad que tiene, por tanto, de gestionar tareas cada vez más complejas, hace que pueda procesar grandes cantidades de información con rapidez y de manera bastante precisa.
 

Leer más
OpenAI acusa con pruebas que DeepSeek plagió sus modelos de entrenamiento
Una adolescente mira su teléfono con cara de sorpresa

Una grave acusación está realizando OpenAI a su más novel competidor chino, DeepSeek, ya que en una investigación conjunta con Microsoft está indicando con "pruebas concretas" de que la IA asiática entrenó su modelo con datos robados de la compañía de Sam Altman.
Fuentes de Bloomberg, dijeron que los investigadores de seguridad de Microsoft detectaron que a finales de 2024 se estaban filtrando grandes cantidades de datos a través de las cuentas de los desarrolladores de OpenAI, que la empresa cree que están afiliadas a DeepSeek.
OpenAI le dijo al Financial Times que encontró evidencia que vincula a DeepSeek con el uso de la destilación, una técnica común que los desarrolladores usan para entrenar modelos de IA extrayendo datos de otros más grandes y capaces. Es una forma eficiente de entrenar modelos más pequeños a una fracción de los más de 100 millones de dólares que OpenAI gastó para entrenar GPT-4. Si bien los desarrolladores pueden usar la API de OpenAI para integrar su IA con sus propias aplicaciones, destilar los resultados para construir modelos rivales es una violación de los términos de servicio de OpenAI. 
El jefe de la inteligencia artificial del presidente Donald Trump, David Sacks, dijo que "es posible" que se haya producido un robo de propiedad intelectual. "Hay evidencia sustancial de que lo que DeepSeek hizo aquí es destilar conocimiento de los modelos de OpenAI y no creo que OpenAI esté muy contento con esto", dijo Sacks a Fox News el martes.
Lo que dijo OpenAI
Esto es un extracto de lo que OpenAI envío como comunicado al medio Bloomberg en respuesta a esta acusación.

"Sabemos que las empresas con sede en la República Popular China (China), y otras, están constantemente tratando de destilar los modelos de las principales empresas de IA de EE. UU.", dijo OpenAI en un comunicado a Bloomberg. "Como líder en la construcción de IA, nos involucramos en contramedidas para proteger nuestra propiedad intelectual, incluido un proceso cuidadoso para determinar qué capacidades de frontera incluir en los modelos lanzados, y creemos que, a medida que avanzamos, es de vital importancia que trabajemos en estrecha colaboración con el gobierno de los EE. UU. para proteger mejor los modelos más capaces de los esfuerzos de los adversarios y competidores para tomar la tecnología estadounidense".

Leer más
¿Qué datos recopila DeepSeek? ¿Es seguro usarlo?
DeepSeek

Occidente tiene un problema de confianza con China y sus aplicaciones de internet, eso es un hecho, sobre todo a la luz de lo que está ocurriendo actualmente en Estados Unidos con TikTok. Y algo similar ya se está cuestionando sobre DeepSeek.
El ministro de Ciencia de Australia, Ed Husic, se ha convertido en el primer miembro de un gobierno occidental en plantear preocupaciones de privacidad sobre DeepSeek: "tendría mucho cuidado con eso, este tipo de temas deben sopesarse cuidadosamente", sostuvo en entrevista con ABC News.
¿Cuál es la postura de Estados Unidos?: Donald Trump ha dicho que DeepSeek es una "llamada de atención" para Estados Unidos, pero no pareció sugerir que fuera una amenaza para la seguridad nacional, sino que dijo que incluso podría ser algo bueno si redujera los costos.
¿Es un potencial problema de seguridad DeepSeek? ¿Qué datos recopila?
La misma página de DeepSeek de su Política de privacidad, ite que recopila grandes cantidades de información personal de los s, que luego se almacena "en servidores seguros" en China.
La aplicación afirma que utiliza esta información para mejorar DeepSeek al mejorar su "seguridad, protección y estabilidad".
A continuación, compartirá esta información con otros, como proveedores de servicios, socios publicitarios y su grupo empresarial, que se conservará "durante el tiempo que sea necesario".
Qué información es esa:

Su dirección de correo electrónico, número de teléfono y fecha de nacimiento, ingresados al crear una cuenta
Cualquier entrada del , incluidos texto y audio, así como historiales de chat
La llamada "información técnica", que va desde el modelo y el sistema operativo de su teléfono hasta su dirección IP y "patrones de pulsación de teclas".

Leer más