Inteligencia Artificial: ¿es posible pausar la experimentación para evitar riesgos para la humanidad?

Tres expertos reaccionan a la carta abierta ampliamente difundida que llama a “pausar de inmediato, durante al menos seis meses, el entrenamiento de los sistemas de Inteligencia Artificial” como el popular GPT-4.

Joel Forster

Evangelical Focus · ESPAÑA · 31 DE MARZO DE 2023 · 18:13

Una recreación del logo de ChatGPT./<a target="_blank" href="https://unsplash.com/@ilgmyzin?utm_source=unsplash&utm_medium=referral&utm_content=creditCopyText">ilgmyzin</a>, Unsplash,
Una recreación del logo de ChatGPT./ilgmyzin, Unsplash

Chat GPT está en boca de todos estas semanas. Muchos ya han accedido en la plataforma de texto de Inteligencia Artificial (IA) para probarlo. ¿Qué me dirá si le pregunto a la IA cuál es el mejor equipo de fútbol del mundo? ¿Podría hacer mi trabajo por mí? ¿Cuál es su punto de vista sobre la última controversia teológica?

Con millones de personas en todo el mundo probando la herramienta, la capacidad del chatbot (cuyo nombre técnico es ‘Generative Pre-trained Transformer’) creado por la empresa OpenAI ha revolucionado la carrera en el campo de la Inteligencia Artificial.

Chat GPT-4 es la última versión y ha introducido capacidades para analizar y generar imágenes. El nuevo sistema ha sido capaz de superar diversas pruebas, incluido un examen judicial.

Pero muchos, incluso expertos, han expresado su preocupación por la rápida expansión de estas herramientas. Una carta abierta publicada por el Future For Life Institute (un grupo de investigación sin fines de lucro que analiza las amenazas a la existencia humana, especialmente en el campo de la tecnología) dice que la carrera de la IA se está yendo de las manos y que “los experimentos gigantes de IA deberían detenerse”. Estas nuevas “mentes digitales poderosas” que podrían afectar profundamente la comunicación social, el mercado laboral, las artes y la política, son una “amenaza para nuestra civilización”, dicen, ya que “nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable” sus resultados.

Los firmantes de la carta incluyen personas relevantes como el CEO de Twitter, Elon Musk, y el cofundador de Apple, Steve Wozniak, así como académicos en el campo de la tecnología de las comunicaciones.

Ante este escenario abierto, Evangelical Focus preguntó a tres expertos sobre los dilemas de ética y tecnología en cuanto a la IA. Esto es lo que nos dijeron.

Inteligencia Artificial: ¿es posible pausar la experimentación para evitar riesgos para la humanidad?

Patricia Shaw, John Wyatt y Juan Parras.

 

Patricia Shaw

CEO y fundador de Beyond Reach, una consultora de ética tecnológica.

Soy bastante escéptica sobre el impacto práctico en el mundo real que tendrá esta Carta Abierta solicitando una moratoria voluntaria de seis meses en el entrenamiento de modelos de lenguaje inteligente o que va más allá de las capacidades de ChatGPT-4. Sin embargo, es importante tener en cuenta los sentimientos que se expresan de la carta:

- Defender la verdad

- Mantener el control de las tecnologías que creamos, sin renunciar a nuestra independencia o autonomía

- Reconocer los riesgos que la IA puede presentar y que socavan a la humanidad

- Gestionar esos riesgos

- Hacerse responsable de los resultados de la IA

- Solicitar expertos independientes para desarrollar y ayudar a implementar protocolos de seguridad

- Llamar a una revisión independiente

Lo que esta carta refleja es la clara necesidad de que las organizaciones asuman la responsabilidad de los resultados sociales y económicos de la Inteligencia Artificial que crean; y esto claramente requiere un gobierno de IA ético y responsable.

“Construir un ecosistema de gobernanza de la ética de la IA requiere financiación, dotación de personal y desarrollo de capacidades”

Al estar trabajando en principios y marcos de IA responsables, estandarización sociotécnica, certificación de ética de IA y gobernanza de IA, todo relacionado con políticas, leyes, tecnología y ética, puedo ver que muchas de las herramientas en la solicitud de la carta están listas o cerca de estarlo.

Las organizaciones que diseñan, desarrollan, implementan, usan y monitorean la IA deben aprovechar el ecosistema de gobernanza de la ética de la IA de las medidas regulatorias y no regulatorias disponibles, pero eso requiere financiación, dotación de personal y desarrollo de capacidades.

Reformulando la carta, desde el otro punto de vista:

- ¿Están las empresas y los gobiernos listos para ser transparentes y tener un diálogo serio a nivel social sobre el tipo de IA que podemos crear? ¿Están listos para evaluar el riesgo de lo que está haciendo por nosotros y para nosotros, y cómo puede afectar sus decisiones de continuar o no?

- ¿Están las empresas y los gobiernos listos para implementar una gobernanza de IA ética y responsable y, cuando lo hagan, estarán dispuestos a involucrar verdaderamente a las partes interesadas que se ven afectadas o influenciadas por el sistema de IA de una manera participativa y con poder de voz?

- ¿Están las empresas y los gobiernos que crean y utilizan la IA “preparados, dispuestos y capaces” de ser regulados?

Por último, pero no menos importante. Pidamos un liderazgo audaz e innovador que se centre en crear una IA que aborde los graves problemas mundiales que enfrentamos (en lugar de crear más) en beneficio de toda la humanidad.

John Wyatt

Médico, autor e investigador científico especializado en bioética.

Apoyo fundamentalmente el llamado que ha publicado el Future of Life Institute dirigido a las principales empresas tecnológicas para pausar el lanzamiento de más programas sofisticados de inteligencia artificial generativa para el público en general durante un período de seis meses. Esta convocatoria ya ha sido apoyada por un número significativo de figuras académicas líderes en el mundo de la IA.

Sin embargo, es importante entender las razones para esta pausa. La amenaza no es que la tecnología ya esté desarrollando habilidades sobrehumanas que son capaces de amenazar directamente los intereses y la supervivencia de la raza humana. Este es un miedo distópico que se deriva de la ciencia ficción, pero la tecnología actual está aún muy lejos de este nivel de capacidad.

Para mí, las amenazas realistas están mucho más relacionadas con estos dos aspectos.

“Debería preocuparnos que los seres humanos caídos utilicen esta tecnología con fines malignos”

1. Las tecnologías lanzadas recientemente como Chat GPT y BARD ya están teniendo consecuencias imprevistas en áreas tan diversas como:

- Exámenes y educación secundaria y universitaria: el plagio que utiliza estos programas ya es abundante y en gran parte indetectable. Ahora está en marcha una “carrera armamentista” entre los estafadores y los educadores, y es probable que continúe.

- Investigación académica: la creación de artículos científicos fraudulentos ya se ha convertido en un problema importante.

- La creación de libros, artículos, blogs, etc. fraudulentos.

- Una ola de información falsa y engañosa sobre temas científicos, médicos y de otro tipo que se publica en Internet.

2. Existe un enorme potencial para el mal que esta tecnología ofrece a los seres humanos caídos con propósitos y metas malévolos.

- Ya se está produciendo un tsunami de desinformación en áreas políticamente sensibles. La creación de 'deepfakes' se ha vuelto mucho más efectiva y más difícil de identificar y controlar.

- Existe el peligro de que Internet se inunde de contenido falso y engañoso y que sea cada vez más difícil distinguir la verdad de las mentiras sutiles y la desinformación.

Entonces, en retrospectiva, fue profundamente irresponsable que Open AI, Microsoft y Google lanzaran estos programas al público en general prácticamente sin ningún tipo de control. Sus motivos parecen ser totalmente comerciales, para obtener una ventaja comercial sobre sus competidores, sin preocuparse por las posibles consecuencias adversas para la sociedad en su conjunto.

Creo que es apropiado apoyar el llamado a una pausa de seis meses para lanzar más programas generativos de IA mientras se desarrollan los controles y marcos regulatorios apropiados.

Pero no debemos dar paso a temores distópicos sobre inteligencias artificiales sobrehumanas, ya que claramente este no es el caso. Deberíamos preocuparnos por los seres humanos caídos que usan esta tecnología con fines malignos, en lugar de que la tecnología en sí misma pueda volverse maligna.

Juan Parras Moral

Investigador y profesor de IA en la Universidad Politécnica de Madrid (UPM).

Por poner un poco de contexto, en este último año han salido algunas IA que empiezan a tener capacidades muy potentes: los modelos de lenguaje (ChatGPT, GPT-4), los modelos de generación de imágenes (DALL-e, Midjourney), los transcriptores de audio (Whisper)…

“Sería necesaria una evaluación sosegada y profunda de estas herramientas”

Lo que está dando más que hablar (y creo que motiva la carta) son los modelos de lenguaje, porque son una evolución del buscador de Google. Si en el buscador tú tenías que buscar palabras clave, en estos modelos tú haces preguntas y ellos te responden. Tienen una gran ventaja (pueden ahorrar muchísimo tiempo al elaborar una respuesta usando potencialmente numerosas fuentes, combinándolas; inlcuso puedes usarlas para escribir artículos para el periódico), y un gran inconveniente (tienden a “hallucinate”, a inventarse cosas, con lo que sus datos no siempre son fiables y deberían entenderse como un primer borrador, a ser confirmado y afinado). Pero a día de hoy, hay un gran hype en cuanto a sus posibilidades, y para OpenAI (su empresa) es un filón económico.

Yendo a la carta: lleva razón en que las empresas de IA están en una carrera para ver quién saca lo siguiente, sin dar tiempo a evaluar y testear las herramientas y modelos que tienen (ChatGPT, por ejemplo, cuando era “gratis” era para hacer la fase de testeo). Esa parte de la carta es razonable, pero desgraciadamente, va a ser ignorada (las empresas prefieren beneficios a tener modelos en condiciones…).

Mi impresión: sería necesaria una evaluación sosegada y profunda de estas herramientas, porque al igual que tienen grandes potencialidades (al igual que el buscador de Google revolucionó la vida), también tienen grandes riesgos (la posibilidad de generar fake news, de realizar esquemas de phising y estafas…). Pero a la vez, creo que esta evaluación no va a tener lugar, porque la IA ahora mismo es una carrera a ver quién consigue la herramienta que marque el paso en los siguientes años (y ahí Open AI va a la cabeza, a ver quién les dice que aflojen el ritmo…).

Publicado en: PROTESTANTE DIGITAL - Ciencia - Inteligencia Artificial: ¿es posible pausar la experimentación para evitar riesgos para la humanidad?

Ya que has llegado hasta aquí…

… Protestante Digital es un medio de vocación independiente. Para ello, necesitamos el apoyo de nuestros lectores. Te presentamos algunas formas de colaborar, aquí puedes encontrar más info.

¿Quieres apoyar esta labor?

Estas son las plataformas para donar que tenemos a tu disposición, también puedes hacer una transferencia en: LA CAIXA 2100 0853 53 0200278394, asunto "Donativo Protestante Digital"

¡Muchas gracias!