Skip to main content
  1. Casa
  2. Tendencias

Los delitos que cometerá la inteligencia artificial en 2035

La inteligencia artificial (IA) ha tenido un desarrollo acelerado en los últimos años, y si bien han sido avances bastante positivos para la humanidad, siempre cada nueva invención trae consigo cosas negativas, básicamente porque el hombre está detrás.

Por eso un informe de la University College London (UCL) muestra cómo en los próximos 15 años, o sea, en 2035, la IA generará contenido malicioso y crímenes cada vez más recurrentes y los clasificó en un top 20: de alta, media y baja peligrosidad.

Recommended Videos

Crímenes de connotación alto

  • Deepfake: Los autores dijeron que el contenido falso sería difícil de detectar y detener, y que podría tener una variedad de objetivos, desde desacreditar a una figura pública hasta extraer fondos personificando al hijo o hija de una pareja en una videollamada. Dicho contenido, dijeron, puede conducir a una desconfianza generalizada de las pruebas de audio y visuales, lo que en sí mismo sería un daño social.
  • El uso de vehículos sin conductor como armas.
  • Creación de mensajes más personalizados de pishing.
  • Interrumpiendo los sistemas controlados por IA.
  • Recolectar información en línea con fines de chantaje a gran escala y noticias falsas creadas por IA.
Microsoft despidió a trabajadores y los reemplazó con IA
DT

Crímenes de connotación media:

  •  Venta de artículos y servicios etiquetados de manera fraudulenta.
  •  Detección de seguridad y la publicidad dirigida.

Crímenes de connotación baja:

  • Robots antirrobos.
  • Pequeños robots utilizados para ingresar a las propiedades a través de puntos de como buzones o solapas de gatos.

El autor principal, el profesor Lewis Griffin (UCL Computer Science) dijo: “A medida que se expanden las capacidades de las tecnologías basadas en inteligencia artificial, también lo hace su potencial de explotación criminal. Para prepararnos adecuadamente para posibles amenazas de IA, necesitamos identificar cuáles podrían ser estas amenazas y cómo pueden afectar nuestras vidas”.

Por otro lado, el primer autor, el Dr. Matthew Caldwell (UCL Computer Science) dijo: “Las personas ahora llevan a cabo gran parte de sus vidas en línea y su actividad en línea puede hacer y deshacer reputaciones. Dicho entorno en línea, donde los datos son propiedad y poder de información, es ideal para la explotación por actividades delictivas basadas en inteligencia artificial.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
La primera incursión de Apple en las cámaras inteligentes para el hogar
Arlo Pro 4 Spotlight Camera montada sobre una pared de madera, una de las mejores cámaras de seguridad para el hogar

Apple planea lanzar una cámara de seguridad inteligente para el hogar en 2026, según Ming-Chi Kuo, una figura prominente con os en la cadena de suministro de Apple en Asia.

"Apple está haciendo su primera incursión en el mercado de cámaras IP para el hogar inteligente, con una producción en masa programada para 2026, con el objetivo de envíos anuales de decenas de millones", escribió Kuo en una publicación en línea compartida el lunes, y agregó que la firma tecnológica china GoerTek será el proveedor exclusivo de ensamblaje.

Leer más
Necesitamos inteligencia artificial desarrollada en América Latina
Cómo usar ChatGPT, el chatbot del que todo el mundo habla.

Solo lo que se nombra existe. ¿Y quién nombra lo que existe? Para Luciana Benotti, académica en lingüística computacional de la Universidad Nacional de Córdoba, Argentina, es tan claro como sesgado. “Hombres blancos de 30 años que viven en la costa oeste de Estados Unidos”, dice a El País. De Silicon Valley, básicamente, donde se toman las decisiones en torno a los modelos amplios de lenguaje que dominan la conversación tecnológica, como el ChatGPT. El problema, dice esta académica que comenzó a programar cuando tenía seis años, es que la inteligencia artificial está pensando como una minoría, porque cuando se habla de plataformas como ChatGPT hay más que redes neuronales y lengua, todo un sistema de valores que puede caer en prejuicios discriminatorios o sexistas. Por eso, dice, lo mejor es que haya diversidad.

La urgencia, dice Benotti, es que al utilizar cúmulos de datos de internet se corre el riesgo de que repetir sesgos. “A menudo absorben prejuicios existentes. Esto puede llevar a resultados que refuercen estereotipos como ‘los mapuches son borrachos’ o  ‘las mujeres a la cocina’, dice la académica de Córdoba. “Hay mucho trabajo en nuestra área de investigación en reducir estos sesgos y alinear estos modelos desde una perspectiva de valores del norte global”, dice a El País.

Leer más
5 consideraciones de por qué la inteligencia artificial podría estar sobrevalorada
ChatGPT: qué es y cómo usar el chatbot del que todo el mundo habla.

¿La inteligencia artificial está sobrevalorada? ¿Qué tal si inadvertidamente frente a nosotros se ha gestado la próxima gran crisis financiera? Bueno, varios se han hecho la pregunta. Hace poco me encontré con esta publicación de Greg Rosalsky, anfitrión del podcast Planet Money para NPR. Recomiendo totalmente que lo escuches si la pregunta que abre este artículo te parece relevante. A mí, un reportero de tecnología que prácticamente escucha, lee o quizá prueba alguna nueva aplicación supuestamente basada en inteligencia artificial, me da la impresión de que efectivamente lo está, y ruego que lo segundo no ocurra jamás. Como sea, después de escuchar su podcast y leer este artículo, quiero resumir los aspectos que me parecen más llamativos sobre por qué, efectivamente, la inteligencia artificial está sobrevalorada.
En realidad no es inteligente

¿Todos hablan de ChatGPT, cierto? Aunque actúa como un sistema que puede responder prácticamente la pregunta que le hagas, este y otros modelos de lenguaje actúan como una especie de agregador de lo mejor que pueden hallar en internet y lanzarlo a un recuadro de texto de forma más o menos coherente y legible. Si preguntas cuestiones básicas como qué es la religión o le pides escribir un artículo sobre todo lo que se sabe del iPhone 15, lo más probable es que los resultados parecerán excelsos. Pero si le preguntas alguna cuestión moralmente compleja y que involucre cierta verificación de datos lo más probable es que termine lanzando alguna barbaridad.
Su “fuente” de inteligencia se está agotando o ya le está cobrando
Fuera del medio tecnológico y económico el caso no ha tenido gran resonancia, pero varias compañías de medios de comunicación, por ejemplo The New York Times, comenzaron a demandar a empresas como OpenAI por utilizar sus artículos como “alimentos” para su modelo de lenguaje. 

Leer más