Skip to main content
  1. Casa
  2. Computación

OpenAI muestra una «mentalidad muy peligrosa» en materia de seguridad

OpenAI
DTES

Un experto en IA ha acusado a OpenAI de reescribir su historia y de ser demasiado desdeñoso con las preocupaciones de seguridad.

El ex investigador de políticas de OpenAI, Miles Brundage, criticó el reciente documento de seguridad y alineación de la compañía publicado esta semana. El documento describe a OpenAI como un esfuerzo por la inteligencia artificial general (AGI) en muchos pasos pequeños, en lugar de dar «un gran salto», diciendo que el proceso de implementación iterativa le permitirá detectar problemas de seguridad y examinar el potencial de uso indebido de la IA en cada etapa.

Recommended Videos

Entre las muchas críticas a la tecnología de IA como ChatGPT, a los expertos les preocupa que los chatbots brinden información inexacta sobre la salud y la seguridad (como el infame problema con la función de búsqueda de IA de Google que instruyó a las personas a comer piedras) y que puedan usarse para la manipulación política, la desinformación y las estafas. OpenAI, en particular, ha sido criticada por la falta de transparencia en la forma en que desarrolla sus modelos de IA, que pueden contener datos personales confidenciales.

La publicación del documento de OpenAI esta semana parece ser una respuesta a estas preocupaciones, y el documento implica que el desarrollo del modelo GPT-2 anterior fue «discontinuo» y que no se lanzó inicialmente debido a «preocupaciones sobre aplicaciones maliciosas», pero ahora la compañía se moverá hacia un principio de desarrollo iterativo. Pero Brundage sostiene que el documento está alterando la narrativa y no es una descripción precisa de la historia del desarrollo de la IA en OpenAI.

«El lanzamiento de GPT-2 por parte de OpenAI, en el que participé, fue 100% consistente + presagiaba la filosofía actual de OpenAI de despliegue iterativo», escribió Brundage en X. «El modelo se lanzó de manera incremental, con lecciones compartidas en cada paso. Muchos expertos en seguridad de la época nos agradecieron esta precaución».

Brundage también criticó el aparente enfoque de la compañía hacia el riesgo basado en este documento, escribiendo que, «Se siente como si se estuviera estableciendo una carga de prueba en esta sección donde las preocupaciones son alarmistas + se necesitan pruebas abrumadoras de peligros inminentes para actuar sobre ellos, de lo contrario, simplemente siga enviando. Esa es una mentalidad muy peligrosa para los sistemas avanzados de IA».

Esto se produce en un momento en que OpenAI está bajo un escrutinio cada vez mayor con acusaciones de que prioriza los «productos brillantes» sobre la seguridad.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
OpenAI podría ser el nuevo dueño de Google Chrome
Cómo cambiar la imagen de fondo en Google Chrome.

Da la sensación de que últimamente todas las grandes empresas tecnológicas viven prácticamente en los tribunales, pero también parece que no sale mucho de ello. Las decisiones se toman y se vuelven a tomar, y se necesita mucho tiempo para que algo afecte a los consumidores. En este momento, Google corre el riesgo de ser desmantelada y vendida por partes, y si realmente sucede, OpenAI le ha dicho al juez que estaría interesada en comprar.

OpenAI, la empresa detrás de ChatGPT, actualmente no trabaja con Google en absoluto. Aparentemente, quería llegar a un acuerdo el año pasado para usar la tecnología de búsqueda de Google con ChatGPT, pero no funcionó. En cambio, OpenAI ahora está trabajando en su propio índice de búsqueda, pero está resultando ser un proyecto que requiere mucho más tiempo de lo previsto.

Leer más
La última tendencia viral de imágenes de ChatGPT es potencialmente peligrosa
ChatGPT

Desde que ChatGPT está posibilitando la generación de imágenes en su plataforma, el chatbot de OpenAI se está popularizando con tendencias en redes sociales, como las de Studio Ghibli y la creación de figuras de acción personales.

Y ahora, con la aparición de los modelos o3 y o4-mini, que tiene mejor procesamiento y análisis a partir de imágenes, una peligrosa característica se está comenzando a hacer viral.

Leer más
OpenAI o3 y o4-mini: lo que debes saber de los nuevos modelos de ChatGPT
OpenAI

Este miércoles 16 de abril, la gente de OpenAI presentó oficialmente sus dos nuevos modelos de razonamiento: o3 y o4-mini, que prometen mayor capacidad de racionamiento y además una interacción con imágenes que subirá un escalón la comprensión visual.

"Por primera vez, nuestros modelos de razonamiento pueden usar y combinar de forma agentiva todas las herramientas dentro de ChatGPT, esto incluye buscar en la web, analizar archivos cargados y otros datos con Python, razonar profundamente sobre las entradas visuales e incluso generar imágenes. Fundamentalmente, estos modelos están entrenados para razonar sobre cuándo y cómo usar herramientas para producir respuestas detalladas y reflexivas en los formatos de salida correctos, generalmente en menos de un minuto, para resolver problemas más complejos. El poder combinado del razonamiento de última generación con completo a herramientas se traduce en un rendimiento significativamente más sólido en los puntos de referencia académicos y las tareas del mundo real, estableciendo un nuevo estándar tanto en inteligencia como en utilidad", sostiene la gente de OpenAI.

Leer más