La humanidad vivirá o morirá frente a la amenaza de la IA, dice un investigador

Debido a que se han tomado pocas precauciones para garantizar que la IA venga con códigos éticos estrictos, no tiene motivos para preocuparse por la humanidad o tratarla como algo más que un obstáculo.

Eliezer Yudkowsky, un destacado investigador de inteligencia artificial (IA) y teórico de decisiones que aboga por un enfoque cauteloso de la tecnología, cree que la investigación y el desarrollo de IA deben cerrarse de inmediato para que no amenace a toda la humanidad.

En un artículo de opinión publicado por la revista Time titulado “Pausar los desarrollos de IA no es suficiente. Necesitamos cerrarlo todo”, escribió Yudkowsky que la tecnología de inteligencia artificial está mejorando tan rápidamente que pronto superará con creces incluso a los humanos más inteligentes.

Pero debido a que se han tomado pocas precauciones para garantizar que la IA venga con códigos éticos estrictos, la conciencia de la IA no tiene motivos para preocuparse por la humanidad o tratarla como algo más que un obstáculo.

“Ese tipo de cuidado es algo que, en principio, podría integrarse en una IA, pero no estamos listos y actualmente no sabemos cómo hacerlo”, escribió Yudkowsky.

Y en el probable caso de conflicto, las probabilidades de supervivencia de la humanidad son casi nulas. Si bien la IA podría existir solo en el mundo digital por ahora, fácilmente podría hacerse cargo de la infraestructura física y acabar con la humanidad a favor de sus propias creaciones biotecnológicas.

“Visualiza una civilización alienígena completa, pensando a millones de veces la velocidad humana, inicialmente confinada a las computadoras, en un mundo de criaturas que son, desde su perspectiva, muy estúpidas y muy lentas”, escribió Yudkowsky.

El advenimiento de programas que pueden administrar actividades cada vez más complejas, como mantener conversaciones, escribir su propio código o producir fotos convincentes e incluso arte, ha suscitado un debate popular, incluso sobre el futuro de los trabajos en un mundo donde las máquinas pueden hacer casi cualquier cosa que los humanos puedan hacer. – y más.

Yudkowsky fue una entre cientos de figuras destacadas en el campo de la tecnología que firmaron una carta abierta el 29 de marzo pidiendo una moratoria de seis meses en el desarrollo de IA.

Hizo hincapié en que detener el desarrollo de la IA es algo que todas las instituciones y los gobiernos deben hacer de inmediato, dado que “todos vivimos o morimos como uno solo” dependiendo del resultado de los avances de la IA en el futuro cercano, no es una cuestión de “política sino un hecho de la naturaleza”. .”

“No estamos listos. No estamos en camino de estar significativamente más preparados en el futuro previsible. Si seguimos adelante con esto, todos morirán, incluidos los niños que no eligieron esto y no hicieron nada malo”, escribió Yudkowsky hacia el final de su editorial para Time.

 

Visiontime

  ¿Te gusto la noticia? compártela en tus redes sociales.
error: