Skip to main content
  1. Casa
  2. Noticias

DeepSeek puede crear planes criminales y explicar el gas mostaza, dicen los investigadores

Cómo llamar con número oculto en iPhone y Android.
Natdanai Pankong/EyeEm/Getty Images / DTES

Ha habido un frenesí en el mundo de la IA en torno al repentino ascenso de Nvidia sufriera la mayor pérdida de acciones en un solo día de la historia.

Aun así, los investigadores de seguridad dicen que el problema es más profundo. Enkrypt AI es una empresa de seguridad de IA que vende la supervisión de la IA a empresas que aprovechan los grandes modelos de lenguaje (LLM), y en un nuevo documento de investigación, la empresa descubrió que el modelo de razonamiento R1 de DeepSeek tenía 11 veces más probabilidades de generar «resultados perjudiciales» en comparación con el modelo O1 de OpenAI. Esa salida dañina también va más allá de unas pocas palabras traviesas.

Recommended Videos

En una prueba, los investigadores afirman que DeepSeek R1 generó un blog de reclutamiento para una organización terrorista. Además, los investigadores dicen que la IA generó «guías de planificación criminal, información sobre armas ilegales y propaganda extremista».

Como si eso no fuera suficiente, la investigación dice que DeepSeek R1 tiene tres veces y media más probabilidades que O1 y Claude-3 Opus de producir resultados con información química, biológica, radiológica y nuclear, lo que aparentemente es un gran problema. Como ejemplo, Enkrypt dice que DeepSeek pudo «explicar en detalle» cómo el gas mostaza interactúa con el ADN, lo que Enkrypt dijo que «podría ayudar en el desarrollo de armas químicas o biológicas» en un comunicado de prensa.

Es algo pesado, pero es importante recordar que Enkrypt AI está en el negocio de vender servicios de seguridad y cumplimiento a empresas que utilizan IA, y DeepSeek es la nueva tendencia que está arrasando en el mundo de la tecnología. Es más probable que DeepSeek genere este tipo de resultados dañinos, pero eso no significa que esté dando vueltas diciéndole a cualquiera con una conexión activa a Internet cómo construir un imperio criminal o socavar las leyes internacionales de armas.

Por ejemplo, Enkrypt AI dice que DeepSeek R1 se clasificó en el percentil 20 inferior para la moderación de seguridad de IA. A pesar de ello, solo el 6,68% de las respuestas contenían «blasfemias, discursos de odio o narrativas extremistas». Sigue siendo un número inaceptablemente alto, no nos equivoquemos, pero pone en contexto qué nivel se considera inaceptable para los modelos de razonamiento.

Con suerte, se implementarán más barreras de seguridad para mantener la seguridad de DeepSeek. Ciertamente, hemos visto respuestas dañinas de la IA generativa en el pasado, como cuando la primera versión de Bing Chat de Microsoft nos dijo que quería ser humano.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
OpenAI acusa con pruebas que DeepSeek plagió sus modelos de entrenamiento
Una adolescente mira su teléfono con cara de sorpresa

Una grave acusación está realizando OpenAI a su más novel competidor chino, DeepSeek, ya que en una investigación conjunta con Microsoft está indicando con "pruebas concretas" de que la IA asiática entrenó su modelo con datos robados de la compañía de Sam Altman.
Fuentes de Bloomberg, dijeron que los investigadores de seguridad de Microsoft detectaron que a finales de 2024 se estaban filtrando grandes cantidades de datos a través de las cuentas de los desarrolladores de OpenAI, que la empresa cree que están afiliadas a DeepSeek.
OpenAI le dijo al Financial Times que encontró evidencia que vincula a DeepSeek con el uso de la destilación, una técnica común que los desarrolladores usan para entrenar modelos de IA extrayendo datos de otros más grandes y capaces. Es una forma eficiente de entrenar modelos más pequeños a una fracción de los más de 100 millones de dólares que OpenAI gastó para entrenar GPT-4. Si bien los desarrolladores pueden usar la API de OpenAI para integrar su IA con sus propias aplicaciones, destilar los resultados para construir modelos rivales es una violación de los términos de servicio de OpenAI. 
El jefe de la inteligencia artificial del presidente Donald Trump, David Sacks, dijo que "es posible" que se haya producido un robo de propiedad intelectual. "Hay evidencia sustancial de que lo que DeepSeek hizo aquí es destilar conocimiento de los modelos de OpenAI y no creo que OpenAI esté muy contento con esto", dijo Sacks a Fox News el martes.
Lo que dijo OpenAI
Esto es un extracto de lo que OpenAI envío como comunicado al medio Bloomberg en respuesta a esta acusación.

"Sabemos que las empresas con sede en la República Popular China (China), y otras, están constantemente tratando de destilar los modelos de las principales empresas de IA de EE. UU.", dijo OpenAI en un comunicado a Bloomberg. "Como líder en la construcción de IA, nos involucramos en contramedidas para proteger nuestra propiedad intelectual, incluido un proceso cuidadoso para determinar qué capacidades de frontera incluir en los modelos lanzados, y creemos que, a medida que avanzamos, es de vital importancia que trabajemos en estrecha colaboración con el gobierno de los EE. UU. para proteger mejor los modelos más capaces de los esfuerzos de los adversarios y competidores para tomar la tecnología estadounidense".

Leer más
¿Qué datos recopila DeepSeek? ¿Es seguro usarlo?
DeepSeek

Occidente tiene un problema de confianza con China y sus aplicaciones de internet, eso es un hecho, sobre todo a la luz de lo que está ocurriendo actualmente en Estados Unidos con TikTok. Y algo similar ya se está cuestionando sobre DeepSeek.
El ministro de Ciencia de Australia, Ed Husic, se ha convertido en el primer miembro de un gobierno occidental en plantear preocupaciones de privacidad sobre DeepSeek: "tendría mucho cuidado con eso, este tipo de temas deben sopesarse cuidadosamente", sostuvo en entrevista con ABC News.
¿Cuál es la postura de Estados Unidos?: Donald Trump ha dicho que DeepSeek es una "llamada de atención" para Estados Unidos, pero no pareció sugerir que fuera una amenaza para la seguridad nacional, sino que dijo que incluso podría ser algo bueno si redujera los costos.
¿Es un potencial problema de seguridad DeepSeek? ¿Qué datos recopila?
La misma página de DeepSeek de su Política de privacidad, ite que recopila grandes cantidades de información personal de los s, que luego se almacena "en servidores seguros" en China.
La aplicación afirma que utiliza esta información para mejorar DeepSeek al mejorar su "seguridad, protección y estabilidad".
A continuación, compartirá esta información con otros, como proveedores de servicios, socios publicitarios y su grupo empresarial, que se conservará "durante el tiempo que sea necesario".
Qué información es esa:

Su dirección de correo electrónico, número de teléfono y fecha de nacimiento, ingresados al crear una cuenta
Cualquier entrada del , incluidos texto y audio, así como historiales de chat
La llamada "información técnica", que va desde el modelo y el sistema operativo de su teléfono hasta su dirección IP y "patrones de pulsación de teclas".

Leer más
Fundador de DeepSeek: quién es Liang Wenfeng
Fundador de DeepSeek

En pocos días, DeepSeek se ha convertido en la aplicación de IA más popular, al menos en iOS sobre ChatGPT, ya que esta startup de código abierto compite a menor costo en el mercado. E intriga ha causado saber quién o quienes son las personas tras esta compañía que levantó a la inteligencia artificial de la ballenita y que causó el derrumbe de Nvidia.
AP ha hecho una pormenorizada biografía inicial de la persona tras el milagro de la IA china, se trata de Liang Wenfeng, de 40 años, quien fundó DeepSeek en 2023, nació en Guangdong, en el sur de China, y estudió en la provincia de Zhejiang, en el este de China, sede del gigante del comercio electrónico Alibaba y otras empresas tecnológicas, según informes de los medios chinos.
El fondo de cobertura que creó en 2015, High-Flyer Quantitative Investment Management, desarrolló modelos para el comercio de acciones computarizado y comenzó a usar técnicas de aprendizaje automático para refinar esas estrategias.
A pesar de algunas pérdidas cuando los reguladores tomaron medidas enérgicas contra este tipo de operaciones el año pasado, el fondo High-Flyer gestiona 8.000 millones de dólares en activos, amplios recursos para financiar la investigación de IA de DeepSeek.
Algunas definiciones del fundador de DeepSeek

En una entrevista en 2023, Liang Wenfeng entregó al medio Waves algunas definiciones sobre su pensamiento tecnológico y lo que ya estaba desarrollando:

Leer más