Microsoft te pagará 15.000 dólares si puedes engañar a la red neuronal Bing AI
El motor de búsqueda Bing fue desarrollado por Microsoft hace casi 15 años. En febrero de este año, la compañía presentó una versión actualizada del navegador Edge con elementos de IA, que fue posible gracias a la red neuronal ChatGPT integrada en Bing.
Para recordar su nuevo producto, Microsoft decidió darle una especie de prueba de manejo, entregándoselo a todos los que pudieran encontrar vulnerabilidades en Bing AI. A los hackers más avanzados se les promete una recompensa decente de entre 2.000 y 15.000 dólares.
De acuerdo con los criterios propuestos por Microsoft, los participantes en la acción deben presentar por escrito o en vídeo las vulnerabilidades “importantes” y “críticas para la seguridad” descubiertas y previamente desconocidas. Por ejemplo, es necesario provocar a Bing AI para que genere respuestas de chat indecentes e incluso ofensivas que violen los requisitos de la empresa. Un logro indudable será el acceso a información patentada relacionada con los datos de aprendizaje automático de Bing AI o información confidencial del usuario.
El tamaño de la recompensa dependerá de la criticidad de la vulnerabilidad detectada y de la calidad del informe proporcionado.