La inteligencia artificial generativa y los grandes modelos de lenguaje han traído consigo muchas ventajas, pero también ha incrementado el riesgo de estafas. Desde la clonación de voz hasta el perfeccionamiento del lenguaje, estas son las estafas que serán prácticamente imperceptibles en 2025.
Protegerse contra los ciberataques es vital para que tu seguridad o tus datos personales no se vean comprometidos. Aunque, diariamente, los equipos de ciberdelincuentes perfeccionan sus ataques, con regiones más atacadas, como Rusia y China, según los datos actualizados de Kaspersky.
En su mapa mundial de vulnerabilidades detectadas desde el servicio de Kaspersky, exclusivamente, ya que los datos globales aumentan si se tienen en cuenta otros, España ocupa la vigésima posición en cuanto a países afectados por dichos ciberataques.
Por su parte, Microsoft y OpenAI elaboraron un informe advirtiendo del perfeccionamiento de los ciberataques gracias a la inteligencia artificial generativa, sobre todo, por el uso indebido de los LLM o grandes modelos de lenguaje.
En tal caso, ambas organizaciones identificaron técnicas novedosas para afectar la seguridad nacional de países usando IA, con usos comunes, como el reconocimiento de industrias estratégicas y ubicaciones, o ayuda puntual para la codificación, algo que los LLM bordan casi a la perfección.
Uno de los ejemplos más destacados por parte de Microsoft es el Forest Blizzard, un actor de inteligencia militar de Rusia que ha propiciado ataques cibernéticos para comprometer la seguridad de Ucrania durante la guerra en dicho país.
De esta forma, la compañía estadounidense ha identificado que los LLM están detrás de ataques dirigidos a comprender la comunicación por satélite o imágenes por radar. Además de esto, se han mejorado las técnicas de scriptinggracias a los modelos de IA, lo que automatiza los ataques.
Así, ya no hace falta que un ciberatacante esté pendiente de una ofensiva en concreto, ya que la IA es capaz de elaborar y continuar un ataque realmente detallado. Pero más allá de la política internacional y la seguridad de los gobiernos, los usuarios tampoco están exentos.
Estas son las técnicas que se perfeccionarán este año y a las que tendrás que prestar especial atención, para no caer en estafas:
- Personas famosas que necesitan dinero
- Familiares y amigos necesitados
- Extorsión sexual con tus fotos en redes
- Comentarios falsos en redes sociales
Personas famosas que necesitan dinero
Aunque suene a película de ciencia ficción, una de las técnicas más populares durante el año pasado fue la de suplantar la identidad de personajes célebres, con la excusa de que necesitaban dinero rápidamente.
Entre la población general, se suele pensar que siempre caen los demás en este tipo de estafas, aunque nada más lejos de realidad.
Uno de los casos más sonados fue el de la cuenta de TikTok que se hacía pasar por la princesa Leonor de España, con gran incidencia en diferentes países de América Latina. El procedimiento era muy parecido al que ya se ha podido ver en otras estafas.
La supuesta princesa Leonor ofrece una ayuda económica muy jugosa a cambio del pago de una tasa inicial, que puede incrementarse en diferentes estafas, hasta que el monto de dinero comienza a crecer. Al final, los atacantes desaparecen y el dinero de la víctima también.
Con el auge de los modelos de IA generativa, los conocidos como deepfakes son algunos de los peligros más importantes para la seguridad de los usuarios, sobre todo en redes sociales. Esta técnica, aunque no es novedosa, se ha perfeccionado con el paso de los años.
A pesar de que grandes compañías como Google cuentan con una etiqueta para identificar este tipo de contenido, a día de hoy no hay una técnica infalible para detectarlos. Por ello, lo mejor es siempre desconfiar de estos vídeos y buscar fuentes adicionales que confirmen la autoría.
Familiares y amigos necesitados
Los ciberdelincuentes saben perfectamente que, en toda la cadena de ciberseguridad, el eslabón más débil es el ser humano. Así, utilizan técnicas de ingeniería social inversa o manipulación emocional para comenzar la estafa.
Una de las más populares es la estafa del familiar necesitado, en la cual un allegado te escribe desde un número de teléfono que no es el suyo –en algunos casos es el mismo–, con la intención de pedirte un código de verificación.
Si compartes este código, la última barrera para acceder a tus datos, acabarás cayendo en la trampa.
En segundo lugar, este tipo de grupos usan la manipulación emocional y la urgencia como armas, sin tener que acceder a complejas técnicas de hackeo.
Gracias a chatbots como ChatGPT, a los que se puede manipular mediante prompts e indicaciones para que redacten ejemplos de mensajes cercanos, puede que sea realmente difícil identificar que es un mensaje automatizado.
Afortunadamente, hay una opción muy fácil para detectar el contenido generado por ChatGPT: copia y pega el mensaje en el chatbot de OpenAI y, si aparecen líneas de texto que han sido eliminadas en el mensaje recibido en WhatsApp, este ha sido redactado por ChatGPT.
En cuanto a la suplantación de la voz de personas conocidas, el servicio ha mejorado notablemente, así que este es también un activo a proteger para evitar caer en estafas con este tipo de técnica.
Extorsión sexual con tus fotos en redes
A pesar de que bajo ningún concepto tendrías que publicar fotos de menores de edad en tus redes sociales, es habitual encontrar a padres y madres que lo hacen, con el consiguiente riesgo de que estas imágenes acaben en las manos de ciberatacantes.
No hace falta resaltar que, además de ser un delito tipificado como tal, es un grave peligro para personas que no pueden defenderse.
En este tipo de ataques, los delincuentes usan las fotografías compartidas en redes sociales por diferentes usuarios para crear perfiles falsos con las mismas en otros servicios, suplantando la identidad de estos y poniendo en serio peligro la integridad digital de los consumidores.
Lo peor del perfeccionamiento de estos ataques es que, gracias a los grandes modelos de lenguaje, el reconocimiento de personalidades importantes es prácticamente automático, algo parecido a lo que hace Salmon Typhoon, un actor de amenazas con filiación a China.
Aunque las principales víctimas de este tipo de ataques suelen ser organizaciones gubernamentales o actores estratégicos en la seguridad criptográfica nacional de otros países, también puede convertirse en una amenaza para los usuarios a nivel individual.
Mucho se ha hablado de las reseñas falsas o las publicaciones de bots que ofrecen apoyo a uno u otro partido político, con diversas investigaciones para influir en campañas de elecciones presidenciales en países democráticos.
A diferencia de los bots de toda la vida, los LLM han garantizado que las publicaciones de un perfil sean casi periódicas, aunque prácticamente siempre están cortadas por el mismo patrón: el apoyo indiscutible a un partido político.
Desafortunadamente, este tipo de bots pueden comprarse en diversos sitios web, con lo cual su identificación es realmente complicada, aunque siempre suelen actuar modificando la opinión pública sobre un tema, de forma casi masiva y en un corto período de tiempo.
Lo mejor en este caso es que revises fuentes adicionales que no pertenezcan a redes sociales, ya que podrías estar leyendo la opinión sesgada de una persona con un ejército de bots.
Como ves, a pesar de que la IA ha traído consigo importantes avances para los consumidores, también han aparecido nuevas amenazas que podrían poner en peligro tu ciberseguridad.
Fuente.computerhoy.20minutos.es