La pregunta es por qué con la Inteligencia Artificial

Los cristianos deben ser más conscientes del uso de datos relativos a ellos, así como de las oportunidades y riesgos asociados a la Inteligencia Artificial (IA). 

  · Traducido por Nieves García

09 DE DICIEMBRE DE 2019 · 16:00

,

Empecemos esclareciendo qué es y qué no es la IA.

La IA no es un tipo de robot humanoide de ciencia ficción súper inteligente que quiere tomar el control del mundo tal y como lo conocemos. La IA no es ni siquiera inteligente (aunque algunos podrían estar en desacuerdo).

La IA es un área de la informática, que incluye el desarrollo (por programadores) de sistemas algorítmicos basados en modelos matemáticos estadísticos, que esencialmente recopila, coteja, modela, y agrega datos para encontrar patrones y tendencias rápidamente. 

Lo hace para sacar conclusiones y deducciones a partir de nuestras transacciones digitales o comportamientos. 

 

‘Can’t touch this’, MC Hammer (No puedes tocar esto) 

La mayor parte de la IA (como otras formas de software que la han precedido) es intangible. Alguna IA está contenida en un objeto o máquina, como en un Vehículo Eléctrico Autónomo, en un ‘Internet de las Cosas (IdC)’, como en los contadores inteligentes de servicios habilitados, en la nevera o el televisor, o en un altavoz inteligente (o un ‘Asistente Virtual’), en forma de Amazon Alexa, Microsoft Cortana o Google EchoDot. 

Hay diferentes tipos de sistemas algorítmicos destinados a conseguir diferentes metas. Están diseñados para ahorrar tiempo, usar recursos con más eficiencia, y hacer la vida más fácil y cómoda. Parecen objetivos meritorios e inocuos, ¿verdad?

 

La IA no es nueva

En realidad, la IA existe desde los años 50, así que no es un concepto nuevo. La creación de los sistemas algorítmicos y el análisis avanzado de datos ha ido creciendo en los últimos 10-15 años. 

No es exclusiva de un único país, sino que ha ido avanzando globalmente. Está tan integrada en nuestra vida diaria y ha ido moldeando nuestras culturas que ni siquiera nos percatamos de que está sucediendo. 

Hemos visto cambios exponenciales en la forma en la que buscamos en internet, en las compras online, en la búsqueda de seguros comparables o productos financieros online, en cómo consumimos música y TV a la carta, y cómo buscamos empleos. 

Todos estos cambios han sido sutiles y se han dado entre bastidores, pero han producido un cambio en nuestra mentalidad, nuestras culturas, nuestras interacciones sociales, y en la sociedad de nuestro alrededor. 

La verdadera preocupación sobre la IA no es lo que la IA puede hacer por nosotros, sino lo que la IA nos está haciendo. 

Los que nacimos en los 70 y 80 seremos la última generación en conocer una vida que era completamente analógica (la vie analogue). Las generaciones que han seguido y que estamos criando ahora nunca habrán conocido una vida sin la digitalización (la vie digitale). 

Por lo tanto, nos encontramos en una posición única para entender qué es lo que estamos abandonando y ganando de la IA en medio de otras tecnologías emergentes. 

 

Acto de equilibrio

Necesitamos utilizar estas nuevas herramientas con sabiduría, beneficiándonos del bien que pueden hacer, y a la vez siendo conscientes del daño potencial que pueden traer, intentando evitarlo. 

Necesitamos desafiar el status quo, pensar críticamente, entender la utilidad y futilidad de estas nuevas herramientas y escoger comprometernos o no en ellas. Habrá consecuencias en ambos casos. 

Necesitamos levantar una generación que pregunte “¿Por qué?” (¿Por qué es gratuito? ¿Por qué necesitan esos datos? ¿Para qué propósito? ¿Cómo se usarán? ¿Qué datos se generan? ¿Qué dicen sobre mi, o sobre gente como yo? ¿Dónde van esos datos? ¿En qué lugar del mundo se almacenan los datos? ¿Quiénes pueden acceder? ¿Quiénes pueden usarlos? ¿Por qué?) y el ¿por qué? del porqué. 

 

Gran volumen de datos

Lo que hace a la IA tan única es que requiere de un gran volumen de datos. Los sistemas algorítmicos son entrenados con datos durante su desarrollo inicial, operan sobre datos mientras se ejecutan y necesitan datos para mejorarse. Los datos son realmente importantes en el mundo de la IA. 

No sólo la información identificable personalmente, que está protegida bajo la ley europea, sino también datos que no son estrictamente personales. Los datos identificables no personales pueden, aun así, revelar características sobre ti y tu entorno. 

 

El contexto y el propósito importan

Sin importar lo declarado en términos legales y condiciones o una póliza privada, esperamos que los datos y la información relativos a nosotros serán usados en un contexto particular y para un propósito específico. Los compartimos con la expectativa de que serán utilizados de este modo, a favor nuestro, y no en nuestra contra. 

Por ejemplo, no esperarías que la información sobre ti en una plataforma de medios sociales fuera usada por tu banco para decidir si eres solvente o no. Del mismo modo, no esperarías que la información en una aplicación sobre salud de tu smartphone fuera usada para evaluar cuánto deberías pagar por tu seguro del coche. Por lo menos ¡no sin tu consentimiento! 

El contexto y el propósito de los datos relativos o concernientes a ti importan. ¿Por qué? Porque tanto si los datos son personales o anónimos, seudoanonimizados o sintéticos, lleva ecos de la persona o personas y de la situación o experiencia desde la que esos datos fueron originalmente capturados. Eso incluye (tanto si nos gusta como si no) un margen de error. 

El sesgo puede ser totalmente inocuo, pero también puede ser ilegal y discriminatorio. No podemos erradicar el sesgo, y en efecto, algunas veces una moda particular, tendencia o inclinación puede ser buena y necesaria para lograr el objetivo (por ejemplo, un sesgo hacia la caridad cristiana produce donaciones).

Algunos sesgos pueden, sin embargo, llevar a resultados injustos a los consumidores. Esto puede ser causado por los modelos que la IA ha observado en los datos y por la falta de “representatividad” en los datos. 

La representatividad de datos significa que existe una representación proporcionada de grupos de personas representados en los datos cuando se comparan con el público objetivo y la meta final. La infra-representación y supra-representación de algunos tipos de datos dentro de un conjunto de datos puede (lo has adivinado) causar sesgos. 

Podrían ser demasiadas personas de un área con un código postal particular, escasas personas que van al teatro, demasiados clientes con el paquete de TV a la carta. Algunos datos pueden parecer bastante inocuos, pero involuntariamente causar un resultado injusto. 

Por ejemplo, los datos de rangos de código postal podrían revelar características protegidas como raza, religión o creencia política. Las estadísticas de los teatros podrían revelar el nivel de riqueza y opulencia de un segmento de la población. La TV a la carta podría revelar quién sufre de las privaciones socioeconómicas. 

Entonces lo que la IA hace con estos datos es procesarlos, ampliarlos y aplicarlos a un ritmo exponencial. Así que lo que originalmente era aplicable a un grupo pequeño de personas, puede que se aplique a todas las personas que utilicen esa herramienta. 

Esto conduce a resultados potencialmente injustos (tales como discriminación y potencialmente también violación de los derechos humanos) para un individuo o grupo de personas. ¡Puede dar lugar a efectos distorsionados en la sociedad!

Quién imaginaba que el tema sencillo de la IA, y los datos se volverían tan serios...

 

Origen: los algoritmos no son genéricos, y modelos de negocios y ética

El problema es que los sistemas algorítmicos no son genéricos. Son diseñados, desarrollados, implementados y divulgados con un objetivo final en mente. 

Usados en otro contexto y/o con datos diferentes, generarán con frecuencia un resultado completamente diferente. Algunas veces es intencionado y algunas accidental. Ambos tienen consecuencias. 

 

Modelo de negocios

Allí donde el sistema algorítmico fue desarrollado tiene una relevancia en la idoneidad del objetivo final en una cultura diferente, pero también lo tiene el modelo de negocios que provee la motivación y la intención tras el uso de un sistema algorítmico particular en una circunstancia particular. 

Para animar esto, toma un tipo de sistema algorítmico -sistemas de contenidos automatizados. En la mayoría de estados europeos está diseñado para mostrar una serie de información para mejorar tu experiencia de la visita de cliente online. 

Pero, y si:

- ¿ese contenido generara una serie de anuncios aleatorios? Si lo hubieras aceptado, puede que esté bien.

- ¿esos anuncios fueran específicamente dirigidos a ti basados en tus preferencias? Bien, si hubieras proporcionado detalles sobre tus preferencias al proveedor del servicio, entonces es posible que los esperaras. 

- ¿esos anuncios fueran específicamente dirigidos a ti basados en tu historial de hábitos de visitas a la web donde tus creencias religiosas y/o políticas y tu compasión hacia las personas e incluso la frecuencia y magnitud de tus donativos pudieran ser determinadas? 

- ¿ese contenido fuera específicamente generado y dirigido a ti (o por lo menos a gente como tu) para cambiar tu opinión, manipular tu pensamiento, hacer que mires otro contenido generado similar, provocar emociones en ti (especialmente indignación o ira)?

Todo ello diseñado para hacerte actuar de una manera particular, previsto desde el principio, y que aspira a ganar dinero de los anuncios a los que haces clic. Cuanto más tiempo te haga estar en la herramienta y dirija tus intereses, más ingresos puede que sean capaces de generar. 

Esto ya no está sólo relacionado con los datos, la IA o el impacto del modelo de negocios. Es la singular combinación de estas cosas para crear un resultado. 

 

Todo me es lícito, pero no todo edifica 

Más que nunca, tenemos la necesidad de sopesar estos resultados y considerar si el impacto de la IA (y los datos que la alimentan) en todas sus formas es beneficioso o perjudicial individualmente, como cristianos, a las personas vulnerables y digitalmente excluidas de la sociedad, y en la sociedad como un todo. 

La opción fácil es simplemente ir con la corriente. La mayoría de resultados de la IA son (por ahora) legales. Pero esto no los hace correctos, o morales desde una perspectiva bíblica o socialmente aceptables.

Debemos considerar no sólo el impacto aquí y ahora en mi, sino qué impacto va a tener en generaciones futuras. 

Si sólo te llevas esto del artículo, los cristianos deben ser más conscientes del uso de datos con respecto a ellos, así como de las oportunidades y riesgos asociados a la IA. 

Esto requiere de nuestra parte hacernos preguntas, como ¿qué?, ¿dónde?, ¿cómo?, ¿para qué propósito? y por encima de todo, ¿por qué? 

 

Patricia Shaw es CEO y fundadora de Beyond Reach, consultoría legal, de gobernación, y de la ética de la tecnología y datos.

Publicado en: PROTESTANTE DIGITAL - Actualidad - La pregunta es por qué con la Inteligencia Artificial