Más de 60 países coinciden en la necesidad del control de armas de la IA

Con el advenimiento de la inteligencia artificial, quedó claro que tarde o temprano se utilizaría con fines militares, tras lo cual surgieron una serie de graves problemas éticos. Por ejemplo, cómo AI dispondrá del derecho a destruir personas, si se le concede.

La semana pasada, La Haya acogió la primera conferencia internacional sobre el uso responsable de la inteligencia artificial en el ámbito militar REAIM 23, convocada a iniciativa de Holanda y Corea del Sur con la participación de más de 60 países.

Al final de la cumbre, sus participantes (con la excepción de Israel) firmaron una petición en la que afirman que los países que representan expresan su compromiso con el uso de la IA de conformidad con el derecho internacional, sin socavar los principios de “seguridad, estabilidad y seguridad internacionales”. responsabilidad.”

Entre los temas que los participantes de REAIM 23 también discutieron estaban la confiabilidad de la IA militar, las consecuencias no deseadas de su uso, los riesgos de escalada y la medida en que las personas están involucradas en el proceso de toma de decisiones.

Según expertos críticos, esta petición, al no ser vinculante, no resuelve muchos problemas, incluido el uso de IA en conflictos militares, así como los UAV controlados por inteligencia artificial.

Y tales preocupaciones están lejos de ser infundadas. Entonces, uno de los contratistas militares más grandes de EE. UU., Lockheed Martin, anunció que su nuevo caza de entrenamiento, que estuvo en el aire durante aproximadamente 20 horas, fue controlado por IA todo este tiempo . Y el CEO de Google, Eric Schmidt, compartió sus temores de que la propia IA pudiera provocar conflictos militares, incluso con el uso de armas nucleares.

 

  ¿Te gusto la noticia? compártela en tus redes sociales.
error: