Si un robot está consciente, ¿está bien apagarlo? Las implicaciones morales de construir verdaderas IA

En el “Star Trek: La nueva generación” episodio “La medida de un hombre,” de datos, un miembro de la tripulación androide de la empresa, debe ser desmontado para fines de investigación a menos que el capitán Picard puede argumentar que los datos se merece los mismos derechos que un ser humano siendo. Naturalmente, surge la pregunta: ¿Cuál es la base sobre la que algo tiene derechos? ¿Qué le da a una entidad una posición moral?

El filósofo Peter Singer sostiene que las criaturas que pueden sentir dolor o sufrir tienen derecho a una posición moral. Argumenta que los animales no humanos tienen una posición moral, ya que pueden sentir dolor y sufrir. Limitarlo a las personas sería una forma de especismo, algo parecido al racismo y al sexismo.

Sin respaldar la línea de razonamiento de Singer, podríamos preguntarnos si puede extenderse más a un robot Android como Data. Requeriría que Data pueda sentir dolor o sufrir. Y cómo responda a eso depende de cómo comprenda la conciencia y la inteligencia.

A medida que la tecnología de inteligencia artificial real avanza hacia las versiones imaginadas de Hollywood, la cuestión de la posición moral se vuelve más importante. Si las IA tienen una posición moral, razonamos los filósofos como yo , podría deducirse que tienen derecho a la vida. Eso significa que no puede simplemente desmantelarlos, y también podría significar que las personas no deberían interferir en la consecución de sus objetivos.

%name Si un robot está consciente, ¿está bien apagarlo? Las implicaciones morales de construir verdaderas IA

Garry Kasparov fue derrotado por Deep Blue, una IA con una inteligencia muy profunda en un nicho estrecho. Stan Honda / AFP a través de Getty Images

Dos sabores de inteligencia y una prueba

La máquina de ajedrez Deep Blue de IBM se entrenó con éxito para vencer al gran maestro Gary Kasparov. Pero no pudo hacer nada más. Esta computadora tenía lo que se llama inteligencia de dominio específico.

Por otro lado, existe el tipo de inteligencia que permite la capacidad de hacer bien una variedad de cosas. Se llama inteligencia general de dominio. Es lo que permite a las personas cocinar, esquiar y criar a sus hijos, tareas relacionadas, pero también muy diferentes.

Inteligencia artificial general, AGI, es el término para máquinas que tienen inteligencia general de dominio. Podría decirse que ninguna máquina ha demostrado todavía ese tipo de inteligencia. Este verano, una startup llamada OPENAI lanzó una nueva versión de su modelo de lenguaje Generative Pre-Training . GPT-3 es un sistema de procesamiento de lenguaje natural, entrenado para leer y escribir para que las personas puedan entenderlo fácilmente.

Atrajo atención inmediata , no solo por su impresionante capacidad para imitar florituras estilísticas y armar contenido plausible , sino también por lo lejos que había llegado de una versión anterior. A pesar de este impresionante rendimiento, GPT-3 en realidad no sabe nada más allá de cómo unir palabras de varias maneras. AGI permanece bastante lejos.

La prueba de Turing, que lleva el nombre del investigador pionero en IA Alan Turing, ayuda a determinar cuándo una IA es inteligente. ¿Puede una persona que conversa con una IA oculta saber si es una IA o un ser humano? Si no puede, entonces a todos los efectos prácticos, la IA es inteligente. Pero esta prueba no dice nada sobre si la IA podría estar consciente.

Dos tipos de conciencia

La conciencia tiene dos partes . Primero, está el aspecto de cómo es para mí de una experiencia, la parte sensorial de la conciencia. Los filósofos llaman a esto conciencia fenoménica. Se trata de cómo experimentas un fenómeno, como oler una rosa o sentir dolor.

Por el contrario, también existe la conciencia de acceso. Esa es la capacidad de informar, razonar, comportarse y actuar de manera coordinada y receptiva a los estímulos basados ​​en objetivos. Por ejemplo, cuando le paso el balón de fútbol a mi amigo haciendo una jugada en la portería, estoy respondiendo a estímulos visuales, actuando desde un entrenamiento previo y persiguiendo una meta determinada por las reglas del juego. Hago el pase automáticamente, sin deliberación consciente, en el curso del juego.

La visión ciega ilustra muy bien la diferencia entre los dos tipos de conciencia. Alguien con esta condición neurológica podría informar, por ejemplo, que no puede ver nada en el lado izquierdo de su campo visual. Pero si se les pide que tomen un bolígrafo de una serie de objetos en el lado izquierdo de su campo visual, pueden hacerlo de manera confiable. No pueden ver el bolígrafo, pero pueden cogerlo cuando se les pide, un ejemplo de acceso a la conciencia sin una conciencia fenomenal.

loading...

Los datos son un androide. ¿Cómo se desarrollan estas distinciones con respecto a él?

%name Si un robot está consciente, ¿está bien apagarlo? Las implicaciones morales de construir verdaderas IA

El dilema de los datos

El androide Data demuestra que es consciente de sí mismo, ya que puede controlar si, por ejemplo, tiene una carga óptima o si hay daños internos en su brazo robótico.

Los datos también son inteligentes en el sentido general. Hace muchas cosas distintas con un alto nivel de dominio. Puede volar el Enterprise, recibir órdenes del capitán Picard y razonar con él sobre el mejor camino a seguir.

También puede jugar al póquer con sus compañeros de barco, cocinar, discutir temas de actualidad con amigos cercanos, luchar con enemigos en planetas alienígenas y participar en diversas formas de trabajo físico. Los datos tienen conciencia de acceso. Claramente pasaría la prueba de Turing.

Sin embargo, lo más probable es que Data carezca de una conciencia fenomenal; por ejemplo, no se deleita con el aroma de las rosas ni experimenta dolor. Encarna una versión gigante de la vista ciega. Es consciente de sí mismo y tiene conciencia de acceso, puede agarrar la pluma, pero en todos sus sentidos carece de una conciencia fenomenal.

Ahora, si Data no siente dolor, al menos una de las razones que ofrece Singer para otorgarle a una criatura una posición moral no se cumple. Pero Data podría cumplir la otra condición de poder sufrir, incluso sin sentir dolor. Es posible que el sufrimiento no requiera una conciencia fenomenal como lo hace esencialmente el dolor.

Por ejemplo, ¿qué pasaría si el sufrimiento también se definiera como la idea de no poder perseguir una causa justa sin causar daño a los demás? Supongamos que el objetivo de Data es salvar a su compañera de tripulación, pero no puede alcanzarla debido al daño en una de sus extremidades. La reducción del funcionamiento de Data que le impide salvar a su compañero de tripulación es una especie de sufrimiento no fenomenal. Hubiera preferido salvar al compañero de tripulación y estaría mejor si lo hiciera.

En el episodio, la pregunta no se basa en si Data es consciente de sí mismo, eso no está en duda. Tampoco se cuestiona si es inteligente: demuestra fácilmente que lo es en el sentido general. Lo que no está claro es si es fenomenalmente consciente. Los datos no se desmantelan porque, al final, sus jueces humanos no pueden ponerse de acuerdo sobre el significado de la conciencia para la posición moral.

%name Si un robot está consciente, ¿está bien apagarlo? Las implicaciones morales de construir verdaderas IA

¿Debería una IA tener una posición moral?

Data es amable: actúa para apoyar el bienestar de sus compañeros de tripulación y de aquellos que encuentra en planetas alienígenas. Obedece las órdenes de la gente y parece poco probable que les haga daño, y parece proteger su propia existencia . Por estas razones, parece pacífico y más fácil de aceptar en el reino de las cosas que tienen valor moral.

Pero, ¿qué pasa con Skynet en las películas de “Terminator” ? ¿O las preocupaciones expresadas recientemente por Elon Musk acerca de que la IA es más peligrosa que las armas nucleares y por Stephen Hawking sobre la IA que acaba con la humanidad ?

[ Conocimiento profundo, diario. Suscríbase al boletín de The Conversation .]

Los seres humanos no pierden su derecho a una posición moral solo porque actúan en contra de los intereses de otra persona. De la misma manera, no se puede decir automáticamente que el hecho de que una IA actúe en contra de los intereses de la humanidad o de otra IA no tenga una posición moral. Puede que esté justificado luchar contra una IA como Skynet, pero eso no le quita su posición moral. Si la posición moral se da en virtud de la capacidad de sufrir de manera no fenomenal, tanto Skynet como Data la obtienen incluso si solo Data quiere ayudar a los seres humanos.

Todavía no hay máquinas de inteligencia general artificial. Pero ahora es el momento de considerar qué se necesitaría para otorgarles una posición moral. La forma en que la humanidad elija responder a la cuestión de la posición moral de las criaturas no biológicas tendrá grandes implicaciones en la forma en que lidiamos con las IA futuras, ya sean amables y útiles como Data, o decididas a la destrucción, como Skynet.

 

theconversation



  ¿Te gusto la noticia? compártela en tus redes sociales.
loading...
error: