La IA puede producir sistemas capaces de acabar con toda la vida humana, advierten los académicos

Hay una verdadera “carrera armamentista” en el campo del desarrollo de IA, afirman los investigadores, argumentando que este campo necesita regulación.

Investigadores de la Universidad de Oxford han advertido al gobierno británico que la inteligencia artificial avanzada (IA) puede representar una amenaza grave para la humanidad y debe ser regulada adecuadamente.

Los eruditos alertaron a los parlamentarios del Comité Selecto de Ciencia y Tecnología que el desarrollo de la IA puede eventualmente llegar a un punto en el que estos sistemas podrían volverse capaces de aniquilar a los humanos.

El estudiante de doctorado Michael Cohen explicó que con la “IA sobrehumana” existe cierto riesgo de que “pudiera matar a todos”.

Al comparar el proceso de entrenar una IA con entrenar a un perro, Cohen señaló que, en lugar de tratar de obtener golosinas como recompensa por completar tareas, un canino podría intentar obtenerlas sin hacer lo que los humanos quieren que haga si fuera a hacerlo. encontrar un armario de golosinas.

“Si tienes algo mucho más inteligente que nosotros tratando monomaníacamente de obtener esta retroalimentación positiva, y se apodera del mundo para asegurar eso, dirigiría tanta energía como pudiera para asegurar su control sobre eso, y eso nos dejaría sin ninguna energía para nosotros mismos”, explicó.

Cohen también especuló que una IA maliciosa y tortuosa podría ser capaz de evadir la detección mientras avanza hacia su objetivo, argumentando que, “si tienes algo que es mucho más inteligente que nosotros en todos los dominios, presumiblemente evitaría enviar señales de alerta mientras aún pudiéramos sacar el enchufar.”

El año pasado, Cohen hizo una advertencia similar en un estudio que escribió junto con sus colegas de la Universidad de Oxford y la Universidad Nacional de Australia.

Los investigadores también sugirieron que la IA se convierte en una “carrera armamentista” e instaron a someter esta área a regulación para proteger a la humanidad.

“Creo que estamos en una carrera armamentista masiva de IA, geopolíticamente con EE. UU. versus China y entre las empresas de tecnología parece haber esta voluntad de tirar la seguridad y la precaución por la ventana y correr lo más rápido posible hacia la IA más avanzada”. dijo el profesor de aprendizaje automático Michael Osborne.

“En las aplicaciones civiles, hay ventajas en ser el primero en desarrollar una IA realmente sofisticada que podría eliminar a la competencia de alguna manera y si la tecnología que se desarrolla no se detiene en eliminar a la competencia y tal vez elimine toda la vida humana, lo haríamos”. estar realmente preocupado”, agregó.

sk

  ¿Te gusto la noticia? compártela en tus redes sociales.
error: