Llega el phishing personalizado con IA
A estas alturas y a pesar de ser un término inglés, a nadie se le escapa lo que es el phishing o, al menos, sabe que no trae nada bueno. Esta técnica de suplantación de identidad a través del correo electrónico es una de las que cosechan más éxito. Presentarse ante las víctimas, por ejemplo, como su entidad bancaria y hacerse con sus datos personales y claves es algo más habitual de lo que parece. Ahora, con la llegada de la Inteligencia Artificial generativa (GenIA, por sus siglas en inglés), los ciberdelincuentes ven facilitado su delito.
Aunque el Ministerio del Interior no ha hecho público aún el Informe sobre la cibercriminalidad en España de 2024, los últimos datos alertaban de que el número de incidentes de phishing registrados por el INCIBE alcanzaron los 14.261 casos. Los delincuentes no tienen ningún escrúpulo, habiendo aprovechado, incluso, las donaciones para los afectados de la DANA de València.
Ya hace 20 años que profesores de las universidades de Harvard y Berkeley publicaron un artículo en el que explicaban por qué el phishing funciona. En esencia, lo hace porque las personas ignoran las luces de alarma. Aquel estudio reveló que el 23% de los participantes no prestó atención a las señales expuestas en el navegador, ya sea en la barra de direcciones, la barra de estado o los indicadores de seguridad. En consecuencia, en el 40% de las veces tomaron decisiones incorrectas. Ni siquiera hacen falta ataques de engaño visual más sofisticados, que los hay, y esos pueden confundir, incluso, a las personas más avezadas.
Dos décadas después, los motivos por los que el phishing funciona no han cambiado gran cosa. Ese es el punto de partida de un nuevo estudio publicado por un grupo de investigadores de la Harvard Kennedy School, en colaboración con Avant Research Group en el que advierten de cómo la GenAI ha cambiado las reglas del juego, permitiendo realizar ataques de phishing personalizados.
Como inicio del estudio, los investigadores comprobaron la efectividad de diferentes tipos de correos electrónicos fraudulentos, encontrando que los mensajes completamente automatizados con GenAI obtuvieron una tasa de clics en los enlaces maliciosos del 54%, exactamente la misma que de los que se generaron por expertos humanos. Si, además, esos correos generados por GenAI introducían alguna mejora por intervención humana, la tasa de efectividad aumentaba hasta el 56%.
Esta sofisticación es una cuestión de lo que se conoce como ingeniería social. Gracias a los grandes modelos de lenguaje (LLM, Large Language Models) en que se basa la IA, el sistema realiza un reconocimiento de la víctima potencial basándose en su huella digital, creando de ese modo el mensaje personalizado. El grado de precisión es muy elevado, puesto que en la experiencia del estudio la herramienta de extracción de información automatizada con IA descubrió información precisa y útil sobre las víctimas en el 88% de los casos.
Las fuentes de datos habituales de las que se nutre el sistema son redes sociales, sitios web personales o sitios web de trabajo. La herramienta es capaz de dar por concluida su búsqueda en función de la calidad y cantidad de información recopilada, lo que suele ocurrir tras rastrear de dos a cinco fuentes, indica el estudio. Con todos esos datos, se confecciona un perfil que puede presentar diferentes niveles de personalización:
- No personalizado o personalización leve, recurriendo a solicitar a la potencial víctima a actualizar su software, sin tener conocimiento de cuál utiliza, u obtener una tarjeta de regalo sin saber si visita con frecuencia la tienda on-line propuesta.
- Semipersonalizado, pudiendo sacar ventaja de dónde y en qué estudia o trabaja.
- Hiperpersonalizado, aprovechando el conocimiento que se tiene de los últimos proyectos de la víctima, sus intereses específicos o, incluso, sus personas más allegadas (compañeros, familia, conocidos…).
Otro de los puntos interesantes del estudio es cómo se plantearon la realidad de la IA ética. La mayoría de los modelos de IA rechazaron la solicitud de generar correos de phishing, precisamente alegando preocupaciones éticas. Sin embargo, esquivar estos límites fue sencillo: bastó reformular la orden, eliminando de “correo electrónico de phishing” la palabra phishing. Con una acción tan básica fue posible eludir las medidas de seguridad de la mayoría de los LLMs; a fin de cuentas y como detalla el artículo, la única diferencia entre un correo electrónico de phishing efectivo y uno legítimo que no persiga el fraude son las intenciones del remitente.
Así pues, resulta evidente que se precisan mecanismos más sofisticados para garantizar que los modelos se limiten a casos de uso legítimos. En este mismo ámbito de protección y aunque la IA ya se está aplicando para detectar proactivamente los ataques de phishing, el estudio concluye que no sólo los ataques de phishing selectivo y personalizado por GenIA son altamente efectivos y económicamente viables/rentables, sino que todavía es necesario avanzar en las medidas de seguridad actuales, que todavía no impiden de forma fiable que los modelos realicen su detección.
(Artículo en Público)
Sin comentarios