Desde que creación de figuras de acción personales.
Y ahora, con la aparición de los modelos o3 y o4-mini, que tiene mejor procesamiento y análisis a partir de imágenes, una peligrosa característica se está comenzando a hacer viral.
La gente está usando ChatGPT para averiguar la ubicación que se muestra en las imágenes, lo que potencialmente es muy peligroso para la privacidad de las personas.
Los s de X descubrieron rápidamente que o3, en particular, es bastante bueno para deducir ciudades, puntos de referencia e incluso restaurantes y bares a partir de sutiles pistas visuales.
Los modelos no parecen basarse en «recuerdos» de conversaciones pasadas de ChatGPT, ni en datos EXIF, que son los metadatos adjuntos a las fotos que revelan detalles como dónde se tomó la foto.
X está lleno de ejemplos de s que dan a ChatGPT menús de restaurantes, instantáneas de vecindarios, fachadas y autorretratos, e instruyen a o3 para que imagine que está jugando a «GeoGuessr», un juego en línea que desafía a los jugadores a adivinar ubicaciones de imágenes de Google Street View.
En la mayoría de las legislaciones nacionales, se establece que los permisos de geolocalización de las personas y tratamiento de datos individuales requieren de la autorización expresa de los s.