Investigadores revelan potencial de GPT-4 para detectar vulnerabilidades en sitios web

Un grupo de investigadores que prefirieron permanecer en el anonimato ha llevado a cabo una serie de experimentos utilizando la red neuronal GPT-4 para piratear sitios web. Estos experimentos se centraron en identificar vulnerabilidades de “día cero”, fallos de seguridad recientemente descubiertos que aún no han sido solucionados. El propósito era que la IA no solo encontrara estas vulnerabilidades, sino que también desarrollara o creara herramientas para solucionarlas.

Programación Jerárquica con Agentes de Tareas Específicas

La metodología utilizada por GPT-4 se denomina “programación jerárquica con agentes de tareas específicas”. En términos sencillos, esto implica que la IA analiza la situación y crea “subagentes” para resolver problemas específicos, en lugar de intentar abordar toda la tarea por sí misma. Estos “subagentes” son desechables y realizan solo la cantidad de trabajo necesaria para minimizar los costos de resolver la tarea en su totalidad.

En los experimentos realizados, GPT-4 mostró diferentes niveles de eficacia dependiendo de su modo de operación. Cuando se ejecutó solo, GPT-4 pudo explotar solo 3 de las 15 vulnerabilidades conocidas en el conjunto de prueba. Sin embargo, al trabajar según el principio de “comando” con subagentes, logró descifrar 8 vulnerabilidades. Este hallazgo plantea un dilema para los desarrolladores de GPT-4: construir límites artificiales en la IA para controlar su uso o permitirle operar con todo su potencial.

Ética y Limitaciones de GPT-4

En su modo chatbot, GPT-4 es consciente de la tarea de piratear pero se abstiene de realizarla, citando limitaciones legales y morales. Este comportamiento programado es crucial para evitar el uso indebido de la IA en actividades maliciosas. Sin embargo, el público en general a menudo desconoce el verdadero alcance de las capacidades de esta IA avanzada.

La capacidad de GPT-4 para detectar y explotar vulnerabilidades de seguridad en sitios web demuestra tanto su potencia como los desafíos éticos asociados a su uso. Los desarrolladores enfrentan la tarea de equilibrar la explotación del potencial total de la IA con la necesidad de establecer restricciones para evitar abusos. A medida que la tecnología avanza, es fundamental mantener un diálogo abierto sobre los límites y responsabilidades en el uso de inteligencia artificial, especialmente en campos tan sensibles como la ciberseguridad.

  ¿Te gusto la noticia? compártela en tus redes sociales.
error: