IA crea 40,000 compuestos potenciales de armas químicas en seis horas
Un modelo de aprendizaje automático de IA ha creado más de 40 000 moléculas virtuales que podrían usarse para armas químicas en menos de seis horas.
En un artículo publicado en Nature Machine Intelligence, Collaborations Pharmaceuticals, Inc. describió cómo usaron su modelo de aprendizaje automático MegaSyn para crear moléculas potencialmente mortales con facilidad.
El modelo se utiliza normalmente para ayudar a crear fármacos terapéuticos potenciales al eliminar las moléculas tóxicas antes de que los científicos las sinteticen. Collaboration Pharmaceuticals simplemente le dio la vuelta a eso al agregar bases de datos de toxicidad disponibles públicamente e instruir a la IA para recompensar la toxicidad, en lugar de eliminarla.
Entre los 40.000 compuestos, es probable que haya falsos positivos. Pero la IA creó de forma independiente varios compuestos mortales ya conocidos sin que estuvieran en el conjunto de datos original. Esto sugiere que la mayoría de los compuestos son probablemente tóxicos.
En una entrevista con The Verge, Fabio Urbina, el autor principal del artículo y científico principal de Collaborations Pharmaceuticals, declaró que su compañía no desea ni planea sintetizar los productos químicos para probar completamente la eficiencia del experimento.
El propósito del experimento era ver cuán difícil sería para alguien hacer un mal uso de las técnicas de aprendizaje de IA de esta manera. Urbina explica que un mal actor solo necesitaría una base de datos de toxicidad , y muchas están disponibles públicamente. Solo se necesitaría un algoritmo de aprendizaje automático de código abierto, un poco de codificación de Python y conocimientos de aprendizaje automático para recrear lo que hicieron.
Eso, afortunadamente, no sería todo lo que necesitan para crear un arma química mortal. La IA solo crea moléculas virtuales, alguien aún tendría que sintetizarlas. Pero como también señala Urbina, eso puede no ser tan difícil como uno podría pensar.
“Muchos de los componentes químicos básicos de estos agentes de guerra química son bien conocidos y están vigilados. Están regulados. Pero hay tantas compañías de síntesis. Mientras no parezca un agente de guerra química, lo más probable es que lo sinteticen y lo envíen de regreso porque quién sabe para qué se usa la molécula, ¿verdad?
A pesar de la amenaza potencial, Urbina no argumenta a favor de terminar con el intercambio de conocimientos de código abierto o un mercado de IA fuertemente regulado. En cambio, argumenta que hacer un seguimiento de quién está usando sus datos cuando es potencialmente peligroso podría ser un buen primer paso. También argumenta que a los científicos de aprendizaje automático se les debe enseñar sobre los peligros potenciales del mal uso, al igual que a los estudiantes de química
sk