Se sabe que la competencia de la IA está en un nivel de furia, y que las diferentes empresas se muestran los dientes para cuidar sus códigos y modelos de entrenamiento. Y algo de eso le está ocurriendo a DeepSeek.
El presidente de Microsoft, Brad Smith, reveló en una audiencia en el Senado, que los empleados de su compañía tienen estríctamente prohibido abrir el chatbot del país oriental.
Cuál es el motivo por el que en Microsoft no pueden abrir DeepSeek
Smith fue tajante, por ejemplo, en decir por qué no ha colocado en su tienda de aplicaciones a DeepSeek y por qué está prohibido en Microsoft.
«En Microsoft no permitimos que nuestros empleados usen la aplicación DeepSeek», dijo Smith.
A los empleados de Microsoft no se les permite usar DeepSeek debido a preocupaciones sobre la seguridad de los datos y la propaganda.
Smith dijo que la restricción se deriva del riesgo de que los datos se almacenen en China y que las respuestas de DeepSeek podrían verse influenciadas por la «propaganda china».
La política de privacidad de DeepSeek establece que almacena los datos de los s en servidores chinos. Dichos datos están sujetos a la ley china, que exige la cooperación con las agencias de inteligencia del país. DeepSeek también censura fuertemente temas considerados delicados por el gobierno chino.
A pesar de los comentarios críticos de Smith sobre DeepSeek, Microsoft ofreció el modelo R1 de DeepSeek en su servicio en la nube Azure.
Durante la audiencia en el Senado, Smith dijo que Microsoft había logrado entrar en el modelo de IA de DeepSeek y «cambiarlo» para eliminar los «efectos secundarios dañinos».
En su lanzamiento inicial de DeepSeek en Azure, Microsoft escribió que DeepSeek se sometió a «rigurosas evaluaciones de seguridad y equipo rojo» antes de que se pusiera en Azure.