Imagina que un gigante tecnológico te dice que quiere que tus publicaciones de Instagram y Facebook entrenen sus modelos de IA. Y eso también, sin ningún incentivo. Sin embargo, podría optar por no participar, según la empresa. Pero a medida que avanza con las herramientas oficiales para retroceder y evitar que la IA engulla su contenido social, simplemente no funcionan.
Eso es lo que ahora informan los s de Facebook e Instagram. Nate Hake, editor y jefe fundador de Travel Lemming, compartió que recibió un correo electrónico de Meta sobre el uso de su contenido de redes sociales para el entrenamiento de IA. Sin embargo, el enlace al formulario de exclusión proporcionado por Meta no funciona.
Pero eso no es lo peor. Meta aseguró recientemente que respetará la elección de los s que no quieren que sus datos se utilicen para el entrenamiento de IA. Hake afirma que Meta no tomará ninguna medida sobre su solicitud. En cambio, recibió una respuesta que decía que la compañía «no puede tomar más medidas» según su deseo.
¿Qué pasa?

En 2018, cuando Meta se hacía llamar Facebook, la empresa reveló que estaba entrenando algoritmos de IA utilizando los millones de imágenes compartidas en Instagram. Los modelos homónimos de Meta AI y Llama AI no existían en ese momento. Pero ya era un mal presagio de lo que vendría.
Si avanzamos hasta 2025, tenemos un gigante de las redes sociales que lo está apostando todo por la IA, que está notoriamente hambrienta de poder y más datos de entrenamiento. Los s de las plataformas de Meta, como Instagram y Facebook, ahora están descubriendo que sus datos se están alimentando a una IA, y la herramienta de exclusión voluntaria bloqueada por región simplemente no funciona.
Meta ha estado entrenando sobre el contenido compartido por los s durante años, pero dada la pendiente resbaladiza de las leyes de derechos de autor y la privacidad del , la empresa se enfrentó a mucha presión regulatoria. Finalmente, en junio del año pasado, la compañía dijo que pondría en pausa los planes para entrenar su sistema de IA con los datos sociales de los s que residen en la región de la UE.

Sin embargo, menos de un año después, la compañía reveló que comenzará a recopilar contenido de s como fotos, videos, comentarios y chats con Meta AI de s que viven en la UE y el Reino Unido. Meta razonó que este es un modus operandi estándar que ha estado siguiendo durante años en todo el mundo.
«Estamos siguiendo el ejemplo de otros, como Google y OpenAI, que ya han utilizado datos de s europeos para entrenar sus modelos de IA», dijo la compañía en una publicación de blog oficial.
Deje que opten por no participar, si pueden
A mediados de abril de este año, Meta dijo que comenzaría a informar a los s del bloque de la UE y del Reino Unido sobre su cambio en la política de capacitación en IA. La compañía señaló que informaría a los s a través de una notificación en la aplicación y los enviaría a través de un correo electrónico oficial.
«Estas notificaciones también incluirán un enlace a un formulario donde las personas pueden oponerse a que sus datos se utilicen de esta manera en cualquier momento», dijo la compañía. Meta aseguró que el formulario de objeción sería fácil de localizar para los s de Instagram y Facebook y proporcionaría toda la información necesaria en un lenguaje sencillo.

Según Hake, el enlace de exclusión proporcionado por Meta no funciona. Varios s que respondieron a su publicación también mencionaron una situación similar, arremetiendo contra Meta por su conducta turbia. No está claro si el formulario de exclusión voluntaria que no responde es un problema técnico o de otro tipo.
Hake, sin embargo, señala el absoluto desprecio por la elección del y el aparente cambio de sentido por parte de la empresa. Meta prometió hace poco más de una semana que «respetaría todos los formularios de objeción que ya hayamos recibido, así como los recién enviados».
Según Hake, cuando se puso en o con Meta con la solicitud y el problema del formulario de exclusión, el ejecutivo de la empresa respondió que no tomarían más medidas con respecto a su solicitud. Meta afirma que se enorgullece de su enfoque transparente hacia el uso de contenido social para el entrenamiento de IA, pero parece que la compañía no está vigilando si está ejecutando esos compromisos de manera justa.