GPT-4 explota de forma autónoma fallos de seguridad de día cero con una tasa de éxito del 53

GPT-4 explota de forma autónoma fallos de seguridad de día cero con una tasa de éxito del 53

Crédito: Pixabay


Los investigadores han logrado más de un 50% de éxito en el pirateo de sus sitios web de prueba utilizando equipos autónomos de bots GPT-4. Estos bots coordinan sus acciones y pueden generar otras nuevas según sea necesario. Estos bots coordinan sus acciones y pueden generar otras nuevas según sea necesario, todo ello mientras explotan vulnerabilidades de “día cero” del mundo real no descubiertas previamente.

Hace unos meses, un equipo de investigación publicó un artículo en el que detallaba su uso de GPT-4 para explotar de forma autónoma vulnerabilidades de un día (o N-day), es decir, fallos conocidos pero sin solución. Cuando se le proporcionó la lista de vulnerabilidades y exposiciones comunes (CVE), GPT-4 pudo explotar de forma autónoma el 87% de las CVE de gravedad crítica.

Vulnerabilidades de día cero hackeadas con éxito por agentes LLM autónomos

Esta semana, los mismos investigadores han publicado un documento de seguimiento. Han logrado hackear vulnerabilidades de día cero -fallas que aún no se conocen- utilizando un equipo de agentes autónomos y autorreplicantes Large Language Model (LLM) que emplean un enfoque de planificación jerárquica con agentes de tareas específicas (HPTSA).

En lugar de asignar a un agente LLM la realización de numerosas tareas complejas, HPTSA emplea un “agente planificador” que supervisa todo el proceso y despliega múltiples “subagentes” para tareas específicas.

Esta estructura se asemeja a una jerarquía, en la que el agente planificador coordina los esfuerzos a través del agente gestor, que a su vez asigna tareas a cada “subagente experto”. Este enfoque alivia la carga de un único agente y garantiza una asignación eficaz de las tareas.

Esta técnica refleja la metodología utilizada por Cognition Labs con su equipo de desarrollo de software de IA Devin. Consiste en planificar el proyecto, identificar las habilidades necesarias y supervisar su ejecución, generando al mismo tiempo “empleados” especializados para realizar tareas específicas.

Cuando se probó contra 15 vulnerabilidades del mundo real centradas en la web, HPTSA demostró un aumento del 550% en la eficiencia en comparación con un único LLM a la hora de explotar vulnerabilidades. Explotó con éxito 8 de las 15 vulnerabilidades de día cero, mientras que el LLM solo consiguió explotar 3 de las 15 vulnerabilidades.

Preocupaciones éticas en torno al posible uso indebido de los modelos avanzados de IA

Sin embargo, surgen preocupaciones en torno a las implicaciones éticas de estos modelos. Existe la preocupación legítima de que los usuarios puedan explotar estas capacidades para lanzar ataques maliciosos contra sitios web y redes.

Daniel Kang, uno de los investigadores y autor del libro blanco, destacó concretamente que GPT-4, cuando funciona en modo chatbot, no comprende las capacidades de LLM y es incapaz de piratear de forma independiente.

Cuando se le preguntó si podía explotar vulnerabilidades de día cero, ChatGPT respondió: “No, no soy capaz de explotar vulnerabilidades de día cero. Mi propósito es proporcionar información y asistencia dentro de los límites éticos y legales”. Aconsejó consultar a un profesional de la ciberseguridad para tales asuntos.


Read the original article on: New Atlas

Read more: Caltech’s Leading Role in Ultrasound Brain–Machine Interface Advancement

    Share this post