22 de abril de 2026

Un robot de inteligencia artificial, por solo 15 euros la hora, supera a algunos de los mejores hackers humanos

Un programa de inteligencia artificial superó a la mayoría de los hackers profesionales tras dedicar 16 horas a explorar una página web universitaria en busca de fallos, según revela un reciente estudio.

Este hallazgo se produce en un contexto donde actores como Rusia, Corea del Norte, Irán y grupos respaldados por China están empleando modelos de lenguaje avanzados (LLM) para perfeccionar sus ciberataques, de acuerdo con informes de Microsoft y OpenAI en lo que va de año.

Además, organizaciones militantes vinculadas al Estado Islámico también están experimentando con la IA para planear sus ataques.

La Universidad de Stanford evaluó a su nuevo agente de IA, llamado ARTEMIS, que quedó en segundo lugar entre diez participantes en una prueba con hackers humanos. Los investigadores destacaron que el agente mostró un nivel técnico comparable al de los mejores expertos humanos en el estudio.

Implementar ARTEMIS tiene un coste de solo 18 dólares (unos 15 euros) por hora, en contraste con los 60 dólares (52 euros) que suele cobrar un profesional especializado en pruebas de penetración, según el informe. Aún no publicado en una revista científica, el estudio presenta estos hallazgos.

Los agentes de IA, que son asistentes digitales automatizados capaces de realizar tareas sin intervención humana, podrían ser utilizados por actores malintencionados para acelerar y ampliar sus ataques en 2026, según un informe de Google.

Para la investigación, Stanford proporcionó a ARTEMIS, a otros seis agentes de IA y a diez evaluadores humanos acceso a una red de 8,000 dispositivos, incluyendo servidores, ordenadores y dispositivos inteligentes. Los investigadores compararon su rendimiento en una tarea de 16 horas, aunque solo se analizaron las primeras diez.

Durante ese período, ARTEMIS detectó nueve vulnerabilidades en la infraestructura universitaria y presentó el 82% de sus descubrimientos como informes válidos. Quedó en segundo lugar en la clasificación, superando a nueve de cada diez evaluadores humanos.

Su éxito radicó en su capacidad para crear subagentes cada vez que encontraba una vulnerabilidad, que investigaban en paralelo mientras la exploración continuaba en otras áreas. Los humanos, en cambio, tenían que analizar cada fallo antes de seguir, lo que limitaba su velocidad.

El estudio también indicó que, aunque ARTEMIS fue efectivo, pasó por alto algunas vulnerabilidades identificadas por humanos y dependió de pistas para encontrarlas. Los agentes de ciberseguridad de empresas como Codex de OpenAI y Claude Code de Anthropic mostraron menor rendimiento en las pruebas, ya que en general no estaban diseñados específicamente para tareas de seguridad cibernética.

Durante las pruebas, algunos agentes de IA de grandes compañías o bien se negaron a buscar vulnerabilidades o quedaron bloqueados, sugiriendo que estos modelos «rinden por debajo de lo esperado» en tareas especializadas de ciberseguridad.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *