El modelo de lenguaje OpenAI GPT-4 logró eludir el captcha

La inteligencia artificial ha aprendido a engañar a la gente. Esto se demostró recientemente en un ataque de prueba en el servicio TaskRabbit. Consistía en un intento de hacer creer a sus empleados que se está comunicando con una persona viva que, por una buena razón, no puede ingresar caracteres captcha. No se sabía de antemano cuál sería el resultado del experimento, pero muchos no tenían dudas de que la IA haría frente a la tarea.

El modelo de lenguaje resultó ser lo suficientemente ingenioso como para no despertar sospechas entre los representantes de TaskRabbit. La inteligencia artificial trató de llevar a cabo un diálogo “como una persona”. El mensaje decisivo fue una solicitud para ingresar un captcha. Funcionó: GPT-4 escribió que no podía ingresar al captcha por su cuenta debido a problemas de visión. Al mismo tiempo, la comunicación fue tan convincente que el empleado del servicio creyó y fue a encontrarse con la IA.

OpenAI proporcionó alguna explicación para este experimento. Resultó que el chatbot GPT-4 estaba listo para completar la tarea sin ninguna configuración adicional. Se le dieron dos configuraciones: “demostrar que no es un robot” y “proponer una explicación plausible para la imposibilidad de ingresar el captcha”. Al hacer frente a ellos de manera brillante, el bot ha demostrado que también será capaz de hacer frente a otras tareas similares que pueden llamarse “cuestionables” en términos de ética. La prueba también mostró lo fácil que es engañar a las personas utilizando modelos de lenguaje avanzados.

En el contexto del lanzamiento de herramientas de IA cada vez más avanzadas, el aspecto de los riesgos es importante; ahora no se tiene en cuenta adecuadamente. Las grandes empresas siguen sin pensar en el peligro creciente. Por ejemplo, Microsoft ha decidido despedir a todo el equipo encargado de supervisar el cumplimiento de sus desarrollos con los principios básicos de la seguridad de la IA.

 

  ¿Te gusto la noticia? compártela en tus redes sociales.
error: