Skip to main content
  1. Casa
  2. Computación

Las estafas de ChatGPT se están extendiendo desenfrenadamente

El malware y las estafas para ChatGPT continúan siendo más frecuentes a medida que se expande el interés en el chatbot desarrollado por OpenAI.

Ha habido una serie de casos de malos actores que se aprovechan de la popularidad de ChatGPT desde su introducción en noviembre de 2022. Muchos han estado utilizando interfaces falsas de ChatGPT para estafar a s móviles desprevenidos sin dinero o infectar dispositivos con malware. La amenaza más reciente es una mezcla de ambos, con hackers que apuntan a s de Windows y Android a través de páginas de phishing y con el objetivo de robar sus datos privados, que podrían incluir tarjetas de crédito y otra información bancaria, según Bleeping Computer.

Recommended Videos

Chat GPT PC Online Redline redirect.

I redirected it to closed.

/chat-gpt-pc.online@OpenAI #cybersecurity #infosec pic.twitter.com/lXY5zUyMBj

— Dominic Alvieri (@AlvieriD) February 12, 2023

El investigador de seguridad Dominic Alvieri observó por primera vez la actividad sospechosa de chat-gpt-pc.online, un dominio que albergaba un malware de robo de información llamado Redline, que se hacía pasar por una descarga de escritorio de ChatGPT para Windows. El sitio web, que presentaba la marca ChatGPT, se anunciaba en una página de Facebook como un enlace legítimo de OpenAI para persuadir a las personas a acceder al nefasto sitio.

Alvieri descubrió que también había aplicaciones falsas de ChatGPT en Google Play y varias otras tiendas de aplicaciones de Android de terceros, que podrían enviar malware a los dispositivos si se descargan.

Otros investigadores han respaldado las afirmaciones iniciales, habiendo encontrado otro malware que ejecuta diferentes campañas maliciosas. Los investigadores de Cyble descubrieron chatgpt-go.online, que envía malware que «roba contenido del portapapeles», incluido el ladrón Aurora. Otro dominio llamado chat-gpt-pc[.] en línea envía un malware llamado ladrón Lumma. Otro más llamado openai-pc-pro[.] en línea, malware que aún no ha sido identificado.

Cyble también ha conectado el dominio pay.chatgptftw.com a una página de robo de tarjetas de crédito que se hace pasar por una página de pago para ChatGPT Plus.

Mientras tanto, Cyble dijo que ha descubierto más de 50 aplicaciones móviles dudosas que se hacen pasar por ChatGPT mediante el uso de su marca o un nombre que podría confundir fácilmente a los s. El equipo de investigación dijo que todos han sido determinados falsos y dañinos para los dispositivos. Una es una aplicación llamada chatGPT1, que es una aplicación de fraude de facturación por SMS que probablemente roba información de tarjetas de crédito similar a lo que se describe anteriormente. Otra aplicación es AI Photo, que aloja el malware Spynote que puede acceder y «robar registros de llamadas, listas de os, SMS y archivos» de un dispositivo.

La afluencia de malware y estafadores pagados comenzó cuando OpenAI comenzó a limitar las velocidades y el  a ChatGPT debido a su creciente popularidad. Las primeras aplicaciones móviles de pago falsas llegaron a las tiendas Apple App y Google Play en diciembre de 202, pero no recibieron atención de los medios hasta casi un mes después, a mediados de enero. El primer hack importante conocido de ChatGPT pronto siguió a mediados de febrero. Los malos actores utilizaron la API OpenAI GPT-3 para crear una versión oscura de ChatGPT que es capaz de generar correos electrónicos de phishing y scripts de malware. Los bots funcionan a través de la aplicación de mensajería Telegram.

Ahora, parece ser temporada abierta para falsificaciones y alternativas desde que OpenAI introdujo su nivel pagado ChatGPT Plus por $ 20 por mes a partir del 10 de febrero. Sin embargo, los s deben tener cuidado de que el chatbot siga siendo una herramienta basada en navegador a la que solo se puede acceder en chat.openai.com. Actualmente no hay aplicaciones móviles o de escritorio disponibles para ChatGPT en ningún sistema.

Diego Bastarrica
Diego Bastarrica es periodista y docente de la Universidad Diego Portales de Chile. Especialista en redes sociales…
Cinco razones por las que ChatGPT en realidad escribe mal y no debes confiar en sus resultados
como activar chatgpt whatsapp

Cuando han pasado más de dos años desde la implementación más universal de ChatGPT, los s aún no confían del todo en las ofertas que promete el chatbot de OpenAI, ya sea por desconocimiento, o por usar malos prompts o porque a la gente le da pereza realizar un paso esencial en todo uso de IA: revisar y editar con ayuda de datos.

Bueno, dentro de las facilidades de usar ChatGPT, está la opción de escribir y redactar textos con esta IA, con resultados muchas veces impresionante, como producir un lenguaje que sea natural, coherente, incluso ingenioso e interesante.

Leer más
Microcheating: qué es esta forma de infidelidad en la era de las redes sociales
Microcheating

¿Alguna vez sentiste una puntada de incomodidad cuando viste que tu pareja le dio like a unas selfies de alguien más? ¿O notaste que alguien empieza a borrar chats o a mirar el celular con más sigilo de lo habitual? Eso que te hace ruido tiene un nombre: microcheating, una forma de infidelidad que no siempre implica besos o encuentros clandestinos, pero sí puede encender todas las alarmas en una relación.
¿Qué es el microcheating?

El término puede sonar a algo sacado de una serie de ciencia ficción, pero en realidad está mucho más presente de lo que imaginamos. Según la psicóloga australiana Melanie Schilling, quien ayudó a popularizar el concepto, el microcheating abarca cualquier comportamiento que, sin llegar a ser una relación física o emocional completa, no te sentirías cómodo compartiendo con tu pareja.
No se trata de una infidelidad “clásica”, sino de una serie de microacciones que, aunque parezcan inofensivas, pueden percibirse como una forma de engaño.
¿Ejemplos? Enviar mensajes coquetos por Instagram, mantener conversaciones demasiado íntimas con alguien que no es tu pareja o seguir buscando perfiles en apps de citas, aunque ya estés en una relación. Lo que todas estas situaciones tienen en común es el secretismo o la sensación de que, si tu pareja lo supiera, probablemente no le haría gracia.

Leer más
La última tendencia viral de imágenes de ChatGPT es potencialmente peligrosa
ChatGPT

Desde que ChatGPT está posibilitando la generación de imágenes en su plataforma, el chatbot de OpenAI se está popularizando con tendencias en redes sociales, como las de Studio Ghibli y la creación de figuras de acción personales.

Y ahora, con la aparición de los modelos o3 y o4-mini, que tiene mejor procesamiento y análisis a partir de imágenes, una peligrosa característica se está comenzando a hacer viral.

Leer más