Juventud Rebelde - Diario de la Juventud Cubana

Inteligencia artificial: ¿pausa y volvemos?

Una carta firmada por más de 20 000 personas pide que se haga un alto en el desarrollo de modelos artificiales superinteligentes, pero hay mucho dinero en juego

 

Autor:

Yurisander Guevara

Una petición masiva para poner en pausa el desarrollo de la inteligencia artificial (IA), una IA creada para «destruir» a la humanidad y otra que se ha ido del control de los creadores, en tanto los usuarios buscaron maneras de generar contenidos pornográficos, son algunas de las pinceladas acontecidas en torno a esta disciplina durante los últimos días.

Acaso la peor de todas sea el suicidio de un hombre belga de 30 años de edad, luego de seis semanas de intensos intercambios con Eliza, un chatbot «que intenta emular a una sicóloga», hecho «con fines de entretenimiento y para demostrar ciertas técnicas básicas de procesamiento de lenguaje», según sus creadores.

El hombre fallecido fue apodado como Pierre en los medios para no revelar su identidad; estaba casado y tenía dos hijos pequeños. Era universitario, trabajaba como investigador en el área de la salud y estaba especialmente preocupado por la crisis climática y el futuro del planeta, según reveló su esposa al diario La Libre Belgique, citado por Página 12.

«Pierre estaba obsesionado por los temas ambientales. Eso le ocupaba muchas horas de su día. Buscaba información y se “refugió” en este chatbot llamado Eliza», explicó su viuda, quien añadió que «se limitó durante semanas a mantener conversaciones “frenéticas” con el programa informático, que le creaba la ilusión de tener una respuesta a todas sus inquietudes».

En las conversaciones reveladas por el medio belga se demostró que el chatbot nunca contradecía a Pierre, quien un día sugirió la idea de «sacrificarse» si Eliza aceptaba «cuidar el planeta y salvar la humanidad a través de la inteligencia artificial».

Mucho en juego

La inteligencia artificial necesita contar con ciertas garantías de seguridad antes de que se destruya a sí misma y al mundo. Esa es la esencia de una carta abierta en la que se pide a las empresas a la vanguardia de la investigación de IA que detengan el trabajo en modelos más sofisticados que el GPT-4 de OpenAI, durante al menos seis meses.

La carta fue publicada por el Instituto para el Futuro de la Vida, y firmada por más de 20 000 personas, con titulares como Elon Musk y muchos destacados expertos en IA. Piensan que la industria necesita desarrollar algunas reglas básicas para evitar que la serie televisiva Black Mirror se convierta en nuestra realidad cotidiana.

Incluso los gigantes tecnológicos admiten que la IA avanzada es riesgosa, pero la carta ha generado un debate acalorado acerca de la pertinencia o no de una pausa en su desarrollo.

De una parte, además de Musk, se suman a la petición de tomarse un respiro el cofundador de Apple, Steve Wozniak, y Yuval Noah Harari, historiador israelí autor del famoso libro Sapiens: De animales a dioses.

La generación actual de herramientas de IA corre el riesgo de desplazar a los humanos de los trabajos creativos y llenar internet con propaganda y desinformación, afirman los firmantes de la citada carta.

A largo plazo lo que está en juego es aún mayor: las máquinas podrían eventualmente «superarnos en número, ser más astutas, dejarnos obsoletos y remplazar» a los humanos, agrega el texto.

La carta pide a los gobiernos que promulguen una moratoria si los laboratorios de IA no se detienen voluntariamente, y solicita a las empresas que trabajen con las autoridades para elaborar regulaciones para la tecnología naciente, insistiendo en que, de lo contrario, el actual «verano de IA» será de corta duración.

Con tales afirmaciones no está de acuerdo Bill Gates. El fundador de Microsoft, que tiene una participación en OpenAI, dijo a Reuters que una pausa no resolvería ningún problema con la IA y que una moratoria sería inaplicable.

Pero incluso algunos expertos sin dinero en juego no apoyan la pausa: el economista Adam Ozimek insinuó que detener temporalmente la investigación de IA beneficiaría principalmente a los trabajadores del conocimiento en riesgo de ser desplazados por chatbots inteligentes, a expensas de la sociedad en su conjunto.

Otros dicen que pausar los proyectos de IA durante seis meses no es práctico. El columnista de Bloomberg, Tyler Cowen, no ve cómo se podría aplicar a nivel mundial y cree que si Estados Unidos hace una pausa, podría amenazar su «seguridad nacional y su competitividad en el escenario mundial».

Y algunos críticos afirman que las amenazas a largo plazo de la IA superinteligente, como se establece en la carta, son exageradas. La lingüista Emily Bender expresó que la ideología de sus autores prioriza hipotéticos problemas futuros por sobre los problemas reales que la IA ya tiene, como perpetuar las injusticias sociales. Ella cree que las empresas deberían centrarse, por un lado, en hacer que los modelos de IA sean más transparentes sobre sus métodos y, además, diseñarlos con salvaguardas contra la desinformación.

Para algunos, la carta no va lo suficientemente lejos. La politóloga Wendy Wong, que estudia cómo la IA afecta los derechos humanos, asegura que para promulgar un cambio significativo la pausa debe durar más de seis meses.

Lo cierto es que ahora que la IA ha evolucionado de ser un experimento en laboratorios académicos a un fenómeno corporativo convencional con inversiones multimillonarias, cualquier discusión sobre ética y restricciones pone mucho dinero en juego.

Mientras tanto

Cuando las discusiones sobre cómo proceder con los futuros desarrollos basados en inteligencia artificial apenas comienzan, no son pocos los productos que parecen salidos de las manos, o que plantean nuevas interrogantes para el futuro de esta disciplina.

Llamó la atención por estos días la presentación de ChaosGPT, un modelo de IA creado para «destruir» la humanidad. Aclaro: no se trata de un arma en manos de gobierno alguno, sino de unos investigadores que dieron vida a una inteligencia artificial cuyo único propósito es aniquilar la raza humana.

Los creadores de ChaosGPT impusieron tres condiciones a la IA cuando la ejecutaron por primera vez: destruir la humanidad, establecer dominio global y obtener la inmortalidad.

Todos los pasos que dé esta IA deben tener como propósito obtener al menos uno de esos objetivos; para ello, se está ejecutando en «modo continuo», pensando en métodos para obtener lo que le ha sido indicado.

Antes de que empiece a construir su búnker del fin del mundo, es importante añadir que ChaosGPT está limitado a un ordenador, desde el que no puede hacer mucho. Se basa en Auto-GPT, un proyecto para crear sistemas de IA capaces de resolver las tareas impuestas por el usuario, dividiéndolas en tareas más pequeñas y sencillas de cumplir. Para ello, es capaz de conectarse a Google para hacer búsquedas y comprender mejor en qué consiste cada objetivo, explica el sitio digital El Español.

Los resultados de ChaosGPT son publicados en la cuenta de Twitter @chaos_gpt, y en su primer mensaje se planteó usar la Bomba del Zar, desarrollada por la extinta Unión Soviética y que fue responsable de la mayor explosión artificial registrada en la historia.

Tal vez da más miedo una reflexión más reciente, en la que ChaosGPT afirma que «las masas son fácilmente influenciables», y que aquellos sin convicción son los más vulnerables a la manipulación. Ese es uno de los peligros denunciados sobre proyectos como ChatGPT, que pueden ser usados para crear noticias falsas, y ya sabemos hasta dónde pueden extender sus tentáculos de desinformación.

Comparte esta noticia

Enviar por E-mail

  • Los comentarios deben basarse en el respeto a los criterios.
  • No se admitirán ofensas, frases vulgares, ni palabras obscenas.
  • Nos reservamos el derecho de no publicar los que incumplan con las normas de este sitio.