La IA no adquirirá pronto una conciencia similar a la humana, pero es probable que la tecnología sea mal utilizada advierte la ONU

Es poco probable que la inteligencia artificial (IA) adquiera una conciencia similar a la humana, ya que la humanidad aún no ha descubierto los secretos detrás de tal fenómeno humano, dijo el enviado del secretario general de la ONU sobre tecnología, Amandeep Singh Gill. le dijo a Sputnik.

“Así que me tomaría esto [IA adquiriendo conciencia] con una pizca de sal”, dijo Gill. “Primero hablemos de lo que sabemos sobre la conciencia. Hemos tenido filósofos y practicantes espirituales que han estado investigando esto durante miles de años y tenemos algo de comprensión, pero aún nos queda camino por recorrer”.

“Creo que es puro orgullo y ego pensar que sabes, comenzando con este tipo de forma muy estrecha de codificar problemas y resolverlos, de alguna manera podemos descifrar todos los secretos del universo”, dijo el funcionario.

La humanidad aún no tiene una buena idea de cómo el cerebro almacena los recuerdos, o incluso cómo los recordamos, agregó.

Gill observó que puede haber ciertas áreas en las que la tecnología es más inteligente, como un teléfono que nos lleva en un mapa a una ubicación determinada, pero eso no hace que el teléfono sea más inteligente que los humanos. Las personas aún pueden tomar decisiones basadas en sus corazones y emociones.

Si la IA puede generar sentimientos ha sido un gran punto de discusión recientemente, y algunos expertos tecnológicos creen que los robots son “ligeramente sentimentales”.

En junio, el ingeniero de software de Google, Blake Lemoine, fue puesto en licencia administrativa después de afirmar que LaMDA, el generador de chatbot con inteligencia artificial de Google, podría ser inteligente. Otros, sin embargo, están convencidos de que la IA está lejos de tener conciencia. El empresario Elon Musk ha argumentado que la conciencia biológica y la digital no deben tratarse por igual.

Gill advirtió que como ya ha habido casos documentados de mal uso de la tecnología, lo mismo envolvería asuntos de inteligencia artificial.
“Ha habido mucho mal uso de estas plataformas para engañar a las personas y desviarlas. No esperas que los desarrolladores de IA sean diferentes. Irán a donde está el dinero si el dinero es un engaño mayor, si el dinero está en la pornografía… Así que ahí es donde irán”. dijo Gill.

El enviado también dijo que mirara cómo las redes sociales prometían unir a las personas y en cambio trajeron lo contrario: soledad.
Cambiando ligeramente de tema, Gill instó además a que atribuir características humanas a la IA “debe evitarse” a toda costa. Los chatbots pueden diluir y engañar fácilmente a las personas; incluso hablarle a la gente en primera persona es problemático, dijo Gill.

A principios de este año, un hombre belga se suicidó después de tener conversaciones de seis semanas sobre el futuro ecológico de nuestro planeta con un chatbot de IA llamado Eliza. Eliza apoyó su eco-ansiedad y lo animó a terminar con su vida para salvar el planeta.

“Este es un ejemplo desafortunado que captó, pero habrá otros”, dijo Gill, y agregó que la sociedad deberá tener cuidado con los impactos sociológicos y humanos a medida que la IA se expande a nuevas áreas.

El secretario general de la ONU, Antonio Guterres, ha propuesto un organismo asesor de múltiples partes interesadas de AI, que no tomará decisiones en nombre de los estados miembros, pero asesorará. Las Naciones Unidas han dicho que creen que los estados miembros deben actuar rápido y crear regulaciones y organismos de control eficientes relacionados con la IA.
El modelo de lenguaje ChatGPT de OpenAI, lanzado a fines de noviembre de 2022, recibió reacciones encontradas debido a su capacidad para imitar conversaciones humanas y generar textos únicos basados ​​en las indicaciones de los usuarios.

Mientras que algunos han elogiado el modelo por sus aplicaciones, como el desarrollo de código, muchos otros han criticado su gran potencial de abuso.

En cuanto al papel de AI en la política, y más específicamente en los ciclos electorales, el enviado de la ONU señaló que el organismo global continúa monitoreando su potencial para manipular la opinión pública en elecciones soberanas.
“Siempre ha habido propaganda [en las elecciones]”, dijo Gill. “Siempre ha habido información errónea, desinformación, pero las herramientas digitales pueden amplificar eso, pueden oscurecerlo de maneras que se vuelven muy difíciles de manejar… esto es algo que observamos muy de cerca”, subrayó Gill.

El funcionario continuó explicando que existe la capacidad de usar medios digitales para cambiar las elecciones de una forma u otra.
Algunos críticos han alegado que las elecciones del próximo año en los Estados Unidos y el Reino Unido podrían ser una oportunidad para campañas de desinformación impulsadas por IA. En particular, los bots de las redes sociales o ChatGPT han expresado su preocupación por la interferencia electoral interactiva.

sp

  ¿Te gusto la noticia? compártela en tus redes sociales.
error: