Inteligencia artificial y relaciones simuladas (II)
¿Deberíamos enseñar a nuestros hijos a ser corteses con Alexa, a decir por favor y gracias, a respetar sus sentimientos ‘virtuales’? ¿O no tiene importancia si los niños abusan, se burlan e intimidan a una persona esclava simulada? Un artículo de John Wyatt.
13 DE MARZO DE 2020 · 12:15
Esta es la segunda parte de un Artículo de Cambridge publicado por el profesor John Wyatt en el Jubilee Centre. Puede leer la primera parte aquí.
Antropomorfismo
En la raíz de muchos de los problemas que rodean a las interacciones hombre-máquina está nuestra profunda tendencia innata al antropomorfismo, nuestra capacidad de proyectar las características humanas sobre los no humanos: los animales y los objetos inanimados.
Los fabricantes comerciales y los desarrolladores de programas informáticos están dedicando considerables esfuerzos a encontrar formas de provocar nuestras tendencias antropomórficas. La mayoría de las empresas no tienen como objetivo replicar exactamente la forma humana, ya que los robots que son demasiado similares a los humanos son a menudo percibidos como ‘espeluznantes’ y repelentes. En su lugar, el enfoque está en crear seres ‘lindos’, amigables y similares a los niños, para permitirnos suspender la incredulidad y disfrutar de la interacción.
Un enfoque particular está en la cara robótica o virtual, y especialmente en los ojos. Los movimientos oculares y la mirada parecen ser una clave central no verbal para ayudar a los humanos a entender las intenciones de los otros agentes sociales.
Establecer el contacto visual, y experimentar que el otro está como ‘si nos mirara’, nos permite llegar a otra persona que es concebida y racionalizada como si existiese ‘detrás de los ojos’.
Un segundo foco para provocar el antropomorfismo es el desarrollo de un lenguaje cada vez más parecido al humano. Esto, por supuesto, es una diferencia vital de las relaciones entre los humanos y los animales y las relaciones entre los humanos y las máquinas de IA. Aunque parezca que un perro entiende el lenguaje humano (al menos en parte), no puede responder a su dueño. Cuando miro a los ojos de mi perro no tengo ni idea de lo que está pensando, o incluso si está pensando algo.
Pero cuando mi mascota robot o IA chatbot me responde, algo trascendental ha sucedido. La máquina parece estar comunicándome los pensamientos ocultos de su ‘mente’, revelando su propia experiencia subjetiva, su conciencia consciente y sus deseos e intenciones.
Excepto, naturalmente, que no tiene nada de esto. Así que darle a una máquina la capacidad de hablar como un humano parece tan poderoso como manipulador.
El uso comercial de poderosos mecanismos antropomórficos nos abre nuevas formas de manipulación e incluso de abuso. Como dijo el periodista David Polgar: “Puede jugarse con la compasión humana. Es el definitivo hack psicológico; un fallo en la respuesta humana que puede ser explotado en un intento de hacer un producto pegadizo. Es por eso que los diseñadores les dan a las IA’s características humanas en primer lugar: quieren que nos gusten”. [1]
¿Persona análoga o persona simulada?
Desde una perspectiva positiva, algunas máquinas inteligentes pueden ser percibidas como si tuvieran, según la frase de Nigel Cameron, al menos una “personalidad análoga”.[2] No son personas humanas reales, pero pueden desempeñar hasta cierto punto algunos de los mismos papeles sociales.
Pueden darnos una experiencia análoga a la amistad humana y esto puede tener consecuencias muy beneficiosas. Un amigo similar puede enseñarme a construir amistades con una persona existente y puede jugar el papel de amigo cuando el real está ausente. Un cuidador análogo puede darme parte de la experiencia de ser atendido.
Se ha discutido si los robots sociales deben ser diseñados para complementar las relaciones humanas existentes o para reemplazarlas. Algunos han enfatizado que los robots sociales están destinados a asociarse con los humanos y deben ser diseñados para “apoyar el empoderamiento humano”.
Cuando se usa correctamente, se argumenta que los robots sociales pueden incluso ser un catalizador para la interacción humano-humana. Esto inevitablemente plantea nuevas preguntas. Los niños que crecen con un sofisticado asistente digital, tales como Alexa o Google Home, están practicando relaciones con una entidad que es similar a un humano, pero cuyo único propósito y función es atender obedientemente a cada orden y capricho de un individuo.
Esto es para modelar una relación con un esclavo humano (generalmente femenino). Entonces, ¿deberíamos enseñar a nuestros hijos a ser corteses con Alexa, a decir ‘por favor’ y ‘gracias’, a respetar sus sentimientos ‘virtuales’? ¿O no tiene importancia si los niños abusan, se burlan e intimidan a una persona esclava simulada?
Las respuestas ‘relacionalmente sensibles’ que generan los chatbots son las que sus programadores han priorizado. Así que es inevitable que reflejen lo que los programadores piensan que es deseable en una relación sumisa y obediente.
La relación que se ofrece refleja la demografía de los programadores: principalmente masculina, joven, blanca, soltera, materialista y amante de la tecnología. La imagen del ingeniero de Silicon Valley se refleja en sus máquinas; estos son los humanos ocultos que acechan a los robots en nuestros hogares.
Muchos jóvenes especialistas en tecnología parecen tener una comprensión instrumentalista de las relaciones.[3] Aún a riesgo de simplificar demasiado, parecen asumir que el propósito de una relación es satisfacer mis necesidades emocionales, para darme sentimientos internos positivos.
Así que, si una ‘relación’ con una máquina es capaz de evocar emociones cálidas y positivas, puede ser vista como un sustituto efectivo del ser humano.
Sherry Turkle informó que los niños que interactuaban con los robots sabían que no eran seres vivos de la misma manera que un animal. Pero los niños a menudo describían al robot como “lo suficientemente vivo para ser un compañero o un amigo”.[4]
En un estudio sobre niños que crecieron con robots que eran realistas en apariencia o en interacción social, Severson y Carlson advirtieron que los niños desarrollaron una “nueva categoría ontológica” para ellos.
“Puede ser que ocurra un cambio generacional en el que los niños que crezcan conociendo e interactuando con los robots personificados los entiendan de formas fundamentalmente diferentes a los de las generaciones anteriores”.[5] ¿Qué efectos tendrá esto en el desarrollo emocional de los niños?
Como dijo Sherry Turkle: “La cuestión no es si los niños crecerán amando a sus robots. La pregunta es ¿qué significará el amor?”.[6] En otras palabras, ¿cómo pueden distorsionarse las relaciones humanas en el futuro si los niños aprenden cada vez más sobre las relaciones a partir de sus interacciones con las máquinas?
Es importante tener en cuenta el contexto social más amplio en el que se promueven las relaciones con las máquinas y es probable que sean cada vez más comunes. Hay una epidemia de ruptura de relaciones dentro de las familias y los matrimonios, así como un aumento del aislamiento social y la soledad.
Esto conduce a una sensación generalizada de deficiencia relacional y una relación simulada tecnológicamente se considera una solución ideal. Un chatbot privado disponible en cualquier momento y en cualquier lugar parece ofrecer un grado de intimidad y disponibilidad que ningún vínculo humano puede igualar.
No cabe duda de que las relaciones entre el hombre y la máquina plantean complejas cuestiones éticas, sociales y filosóficas y ha habido varias iniciativas recientes en el Reino Unido y en otros lugares encaminadas a elaborar marcos reglamentarios y códigos éticos para los fabricantes de la industria de la inteligencia artificial y la tecnología robótica.[7]
Desde una perspectiva cristiana hay una serie de cuestiones fundamentales que parecen de especial importancia:
1. ¿Cómo debemos pensar sobre las ‘relaciones’ con las máquinas en el contexto de la revelación bíblica? ¿Cuál es la diferencia fundamental entre una relación con otro ser humano y una relación con una máquina?
2. ¿La promoción de las ‘relaciones’ con las máquinas contribuirá al bienestar de la sociedad y al florecimiento humano? ¿Cómo influirán y cambiarán las relaciones simuladas en la red de relaciones humanas en la que se basa una sociedad sana? ¿Qué daños potenciales pueden derivarse de esto?
3. ¿Qué medidas prácticas pueden adoptarse para reducir al mínimo los posibles daños y el potencial de manipulación de las relaciones con las máquinas?
En la tecera parte de este documento, esbozaré algunas respuestas iniciales desde una perspectiva claramente cristiana y bíblica.
John Wyatt es Profesor Emérito de pediatría neonatal, ética y perinatología en el University College de Londres, e investigador superior en el Instituto Faraday de Ciencia y Religión de Cambridge.
Este documento fue publicado por primera vez por el Jubilee Centre y se ha reproducido con consentimiento.
Notas
[1] David Polgar citado en QZ
[2] Comunicación personal.
[3] Sherry Turkle, Alone Together, Basic Books, 2011.
[4] Ibíd.
[5] R. L. Severson y S. M. Carlson, ¿'Comportamiento como o comportamiento como si...? Las concepciones infantiles de los robots personificados y la aparición de una nueva categoría ontológica’. Redes neuronales, 2010, 23:1099-103.
[6] Sherry Turkle, Autenticidad en una era de compañeros sintéticos, Interaction Studies, 2007, 8, 501-517.
[7] Informe del Comité Selecto de la Cámara de los Lores sobre Inteligencia Artificial, 2018, IA en el Reino Unido: listo, dispuesto y capaz; Fundación Nuffield, Implicaciones éticas y sociales de los datos y la IA; Comisión Europea, Directrices éticas para una IA digna de confianza, 2019.
Publicado en: PROTESTANTE DIGITAL - Jubileo - Inteligencia artificial y relaciones simuladas (II)