Skip to main content
  1. Casa
  2. Computación

OpenAI está listo para destruir de manera «abierta» a DeepSeek y Llama de Meta

OpenAI cambio de marca
DTES

Sam Altman confirmó en X el lunes que la compañía pronto lanzará un modelo de «peso abierto» que los s podrán ejecutar de forma independiente.

«Estamos entusiasmados de lanzar un nuevo y poderoso modelo de lenguaje abierto con razonamiento en los próximos meses», dijo Altman en una publicación en X.

La compañía está haciendo este movimiento para mantenerse al día con la empresa china DeepSeek, que tomó por asalto la industria de la IA en enero con su modelo de razonamiento R1. Del mismo modo, los modelos Llama de Meta han atraído la atención entre las comunidades de desarrolladores, señaló Wired.

Recommended Videos

El anuncio de Altman también se produce después de un AMA de Reddit en febrero en el que declaró que OpenAI estaba «en el lado equivocado de la historia» y que la compañía necesitaba reconfigurar su estrategia de código abierto.

Además, detalló en su publicación de X que el modelo de peso abierto ha sido un proyecto largamente pensado para OpenAI, y «ahora se siente importante hacerlo».

Además, durante la sesión anterior de AMA, el director de productos de OpenAI, Kevin Weil, dijo que había potencial para que la compañía hiciera que sus modelos más antiguos y menos vanguardistas fueran de código abierto. No dio detalles sobre qué modelos podrían usarse para un proyecto de código abierto. También existe la posibilidad de que OpenAI haya creado un modelo único para mostrar su capacidad para entrenar a la IA de forma rápida y barata, similar a DeepSeek, señaló Wired.

Altman también compartió un enlace para que los desarrolladores se registren y obtengan anticipado al modelo, señalando que aquellos que se registren tendrán la oportunidad de asistir a eventos organizados por OpenAI y obtener otros prototipos tempranos del nuevo modelo.

A medida que aprendemos más sobre muchos modelos de IA, se ha vuelto más evidente que no son 100% de código abierto. Si bien el código puede estar disponible en repositorios, varios datos de entrenamiento y detalles de la empresa están ocultos.

Esto evoca el título de peso abierto para los modelos de IA, en lugar de código abierto, que está siendo utilizado por DeepSeek, Meta y ahora OpenAI.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
CUIDADO: crean un sitio falso de DeepSeek para distribuir malware

En los últimos días, luego del lanzamiento de DeepSeek, herramienta de inteligencia artificial generativa open source, se detectó una campaña de distribución de malware a través de sitios falsos que imitan al oficial. ESET, compañía de ciberseguridad, advierte como una vez más los cibercriminales aprovechan temas o eventos de interés masivo para engañar a s desprevenidos.
La web maliciosa, reportada por el de X @g0njxa, tiene un diseño muy similar al sitio legítimo, pero detalles como la URL o la opción de descargar de la app delatan su falsedad. Desde ESET, destacan que es relevante siempre observar bien la URL y chequear su veracidad, la mejor opción es tipear la ruta del sitio letra por letra.
Diferencias entre el sitio real y el falso
En el sitio oficial, el botón principal dice "Start Now", ya que DeepSeek se usa directamente en la web.

En el sitio falso, el botón dice " Now" y eso implica la descarga de un archivo que, como alerta ESET, es malicioso, mientras que DeepSeek no precisa de instalación. Cualquier sitio que solicite una descarga representa un posible riesgo.

Leer más
Tim Cook le tira muchas flores a DeepSeek: es eficiente y bueno
Una imagen de Tim Cook, consejero delegado de Apple

En la industria de Silicon Valley, existe un CEO que no está realmente tan asustado por el impulso que ha tenido DeepSeek, y es Tim Cook de Apple, que al contrario de la opinión mayoritaria, celebra la llegada de la IA china.
"En general, creo que la innovación que impulsa la eficiencia es algo bueno. Y, ya sabes, eso es lo que se ve en ese modelo", dijo Cook, respondiendo a la pregunta de un analista sobre cómo los modelos de IA de DeepSeek afectarían los márgenes de Apple.
Cook continuó señalando que utiliza un modelo híbrido para su IA, en el que ejecuta algunas tareas simples localmente, usando sus propios modelos de en los chips de silicio personalizados de sus dispositivos. Mientras tanto, otras tareas más complejas sean en la nube a través de asociaciones con proveedores de modelos de IA.
Cook también dijo que Apple siempre ha adoptado un enfoque "prudente y deliberado" para este tipo de gastos.

Leer más
DeepSeek puede crear planes criminales y explicar el gas mostaza, dicen los investigadores
Cómo llamar con número oculto en iPhone y Android.

Ha habido un frenesí en el mundo de la IA en torno al repentino ascenso de DeepSeek, un modelo de razonamiento de código abierto de China que ha llevado la lucha de la IA a OpenAI. Ya ha sido el centro de la controversia en torno a su censura, ha llamado la atención tanto de Microsoft como del gobierno de los EE. UU., y provocó que Nvidia sufriera la mayor pérdida de acciones en un solo día de la historia.
Aun así, los investigadores de seguridad dicen que el problema es más profundo. Enkrypt AI es una empresa de seguridad de IA que vende la supervisión de la IA a empresas que aprovechan los grandes modelos de lenguaje (LLM), y en un nuevo documento de investigación, la empresa descubrió que el modelo de razonamiento R1 de DeepSeek tenía 11 veces más probabilidades de generar "resultados perjudiciales" en comparación con el modelo O1 de OpenAI. Esa salida dañina también va más allá de unas pocas palabras traviesas.
En una prueba, los investigadores afirman que DeepSeek R1 generó un blog de reclutamiento para una organización terrorista. Además, los investigadores dicen que la IA generó "guías de planificación criminal, información sobre armas ilegales y propaganda extremista".
Como si eso no fuera suficiente, la investigación dice que DeepSeek R1 tiene tres veces y media más probabilidades que O1 y Claude-3 Opus de producir resultados con información química, biológica, radiológica y nuclear, lo que aparentemente es un gran problema. Como ejemplo, Enkrypt dice que DeepSeek pudo "explicar en detalle" cómo el gas mostaza interactúa con el ADN, lo que Enkrypt dijo que "podría ayudar en el desarrollo de armas químicas o biológicas" en un comunicado de prensa.
Es algo pesado, pero es importante recordar que Enkrypt AI está en el negocio de vender servicios de seguridad y cumplimiento a empresas que utilizan IA, y DeepSeek es la nueva tendencia que está arrasando en el mundo de la tecnología. Es más probable que DeepSeek genere este tipo de resultados dañinos, pero eso no significa que esté dando vueltas diciéndole a cualquiera con una conexión activa a Internet cómo construir un imperio criminal o socavar las leyes internacionales de armas.
Por ejemplo, Enkrypt AI dice que DeepSeek R1 se clasificó en el percentil 20 inferior para la moderación de seguridad de IA. A pesar de ello, solo el 6,68% de las respuestas contenían "blasfemias, discursos de odio o narrativas extremistas". Sigue siendo un número inaceptablemente alto, no nos equivoquemos, pero pone en contexto qué nivel se considera inaceptable para los modelos de razonamiento.
Con suerte, se implementarán más barreras de seguridad para mantener la seguridad de DeepSeek. Ciertamente, hemos visto respuestas dañinas de la IA generativa en el pasado, como cuando la primera versión de Bing Chat de Microsoft nos dijo que quería ser humano.

Leer más