Skip to main content
  1. Casa
  2. Computación

La poderosa razón por la que los empleados de Microsoft no pueden abrir DeepSeek

DeepSeek
DTES

Se sabe que la competencia de la IA está en un nivel de furia, y que las diferentes empresas se muestran los dientes para cuidar sus códigos y modelos de entrenamiento. Y algo de eso le está ocurriendo a DeepSeek.

El presidente de Microsoft, Brad Smith, reveló en una audiencia en el Senado, que los empleados de su compañía tienen estríctamente prohibido abrir el chatbot del país oriental.

Recommended Videos

Cuál es el motivo por el que en Microsoft no pueden abrir DeepSeek

Smith fue tajante, por ejemplo, en decir por qué no ha colocado en su tienda de aplicaciones a DeepSeek y por qué está prohibido en Microsoft.

«En Microsoft no permitimos que nuestros empleados usen la aplicación DeepSeek», dijo Smith.

A los empleados de Microsoft no se les permite usar DeepSeek debido a preocupaciones sobre la seguridad de los datos y la propaganda.

Smith dijo que la restricción se deriva del riesgo de que los datos se almacenen en China y que las respuestas de DeepSeek podrían verse influenciadas por la «propaganda china».

La política de privacidad de DeepSeek establece que almacena los datos de los s en servidores chinos. Dichos datos están sujetos a la ley china, que exige la cooperación con las agencias de inteligencia del país. DeepSeek también censura fuertemente temas considerados delicados por el gobierno chino.

A pesar de los comentarios críticos de Smith sobre DeepSeek, Microsoft ofreció el modelo R1 de DeepSeek en su servicio en la nube Azure.

Durante la audiencia en el Senado, Smith dijo que Microsoft había logrado entrar en el modelo de IA de DeepSeek y «cambiarlo» para eliminar los «efectos secundarios dañinos». 

En su lanzamiento inicial de DeepSeek en Azure, Microsoft escribió que DeepSeek se sometió a «rigurosas evaluaciones de seguridad y equipo rojo» antes de que se pusiera en Azure.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Tim Cook le tira muchas flores a DeepSeek: es eficiente y bueno
Una imagen de Tim Cook, consejero delegado de Apple

En la industria de Silicon Valley, existe un CEO que no está realmente tan asustado por el impulso que ha tenido DeepSeek, y es Tim Cook de Apple, que al contrario de la opinión mayoritaria, celebra la llegada de la IA china.
"En general, creo que la innovación que impulsa la eficiencia es algo bueno. Y, ya sabes, eso es lo que se ve en ese modelo", dijo Cook, respondiendo a la pregunta de un analista sobre cómo los modelos de IA de DeepSeek afectarían los márgenes de Apple.
Cook continuó señalando que utiliza un modelo híbrido para su IA, en el que ejecuta algunas tareas simples localmente, usando sus propios modelos de en los chips de silicio personalizados de sus dispositivos. Mientras tanto, otras tareas más complejas sean en la nube a través de asociaciones con proveedores de modelos de IA.
Cook también dijo que Apple siempre ha adoptado un enfoque "prudente y deliberado" para este tipo de gastos.

Leer más
DeepSeek puede crear planes criminales y explicar el gas mostaza, dicen los investigadores
Cómo llamar con número oculto en iPhone y Android.

Ha habido un frenesí en el mundo de la IA en torno al repentino ascenso de DeepSeek, un modelo de razonamiento de código abierto de China que ha llevado la lucha de la IA a OpenAI. Ya ha sido el centro de la controversia en torno a su censura, ha llamado la atención tanto de Microsoft como del gobierno de los EE. UU., y provocó que Nvidia sufriera la mayor pérdida de acciones en un solo día de la historia.
Aun así, los investigadores de seguridad dicen que el problema es más profundo. Enkrypt AI es una empresa de seguridad de IA que vende la supervisión de la IA a empresas que aprovechan los grandes modelos de lenguaje (LLM), y en un nuevo documento de investigación, la empresa descubrió que el modelo de razonamiento R1 de DeepSeek tenía 11 veces más probabilidades de generar "resultados perjudiciales" en comparación con el modelo O1 de OpenAI. Esa salida dañina también va más allá de unas pocas palabras traviesas.
En una prueba, los investigadores afirman que DeepSeek R1 generó un blog de reclutamiento para una organización terrorista. Además, los investigadores dicen que la IA generó "guías de planificación criminal, información sobre armas ilegales y propaganda extremista".
Como si eso no fuera suficiente, la investigación dice que DeepSeek R1 tiene tres veces y media más probabilidades que O1 y Claude-3 Opus de producir resultados con información química, biológica, radiológica y nuclear, lo que aparentemente es un gran problema. Como ejemplo, Enkrypt dice que DeepSeek pudo "explicar en detalle" cómo el gas mostaza interactúa con el ADN, lo que Enkrypt dijo que "podría ayudar en el desarrollo de armas químicas o biológicas" en un comunicado de prensa.
Es algo pesado, pero es importante recordar que Enkrypt AI está en el negocio de vender servicios de seguridad y cumplimiento a empresas que utilizan IA, y DeepSeek es la nueva tendencia que está arrasando en el mundo de la tecnología. Es más probable que DeepSeek genere este tipo de resultados dañinos, pero eso no significa que esté dando vueltas diciéndole a cualquiera con una conexión activa a Internet cómo construir un imperio criminal o socavar las leyes internacionales de armas.
Por ejemplo, Enkrypt AI dice que DeepSeek R1 se clasificó en el percentil 20 inferior para la moderación de seguridad de IA. A pesar de ello, solo el 6,68% de las respuestas contenían "blasfemias, discursos de odio o narrativas extremistas". Sigue siendo un número inaceptablemente alto, no nos equivoquemos, pero pone en contexto qué nivel se considera inaceptable para los modelos de razonamiento.
Con suerte, se implementarán más barreras de seguridad para mantener la seguridad de DeepSeek. Ciertamente, hemos visto respuestas dañinas de la IA generativa en el pasado, como cuando la primera versión de Bing Chat de Microsoft nos dijo que quería ser humano.

Leer más
Más de un millón de líneas del historial de chat de DeepSeek quedaron expuestas
Chat de DeepSeek

Los investigadores de ciberseguridad de Wiz han encontrado una base de datos ClickHouse, propiedad de la empresa china de IA DeepSeek, que contiene más de un millón de líneas de historial de chat e información confidencial. La base de datos era de público y permitía a los investigadores un control total sobre las operaciones de la misma.
La exposición se aseguró rápidamente después de que Wiz compartiera su descubrimiento con DeepSeek, pero es posible que la información ya haya sido expuesta. La investigación de este tipo no se adentra demasiado en las bases de datos que encuentra por razones éticas, pero Wiz concluyó que un atacante podría escalar sus privilegios dentro del entorno de DeepSeek y recuperar registros confidenciales, mensajes de chat, contraseñas y archivos locales, todo sin necesidad de ningún tipo de autenticación.

Wiz / Wiz

Leer más