Si bien en los últimos tres años la IA generativa ha sido recibida con un mayoritario beneplácito, en tiempos recientes comienza a notarse cierto temor por el desarrollo acelerado de una tecnología cuyo alcance y consecuencias podrían no tener límites
Russian Hill es uno de los barrios más emblemáticos de San Francisco: residencial, caro, con vistas espectaculares de la bahía, y famoso por Lombard Street, la «calle más torcida del mundo». Es muy probable que lo hayas visto miles de veces en audiovisuales que tengan como trasfondo a esa ciudad del oeste estadounidense. Pero la tranquilidad del selecto barrio quedó interrumpida en la madrugada del pasado viernes 10 de abril, luego de que un coctel Molotov impactara contra la residencia de Sam Altman, el director ejecutivo de OpenAI, una de las compañías líderes en inteligencia artificial a nivel global.
El proyectil fue lanzado por un joven de 20 años, según reportó The Wall Street Journal, a las 3:45 a.m., y causó daños menores antes de extinguirse por completo.
Altman lidera una empresa generadora de un cambio de paradigma tecnológico nunca antes visto, el cual hoy todos llamamos inteligencia artificial (IA), y que vino a tener visibilidad global con el lanzamiento de ChatGPT en noviembre de 2022.
Esa herramienta comenzó a transformarlo todo, y lo ha hecho a un ritmo vertiginoso. De acuerdo con el último reporte sobre el estado de la inteligencia artificial generativa en 2026, publicado hace unos días por la Universidad de Stanford, la adopción de la IA se está extendiendo a una velocidad histórica, y los consumidores obtienen un valor considerable de herramientas a las que a menudo acceden de forma gratuita. La IA generativa alcanzó una tasa de adopción del 53 por ciento en tan solo tres años, más rápido que el ordenador personal o internet.
No es este un dato menor. Y si bien en estos tres años ha sido recibida con un mayoritario beneplácito, en los últimos tiempos es notorio cierto temor por el desarrollo acelerado de una tecnología cuyo alcance y consecuencias podrían no tener límites. Ese miedo acumulado explotó en llamas frente a la casa de Altman, como muestra de un resentimiento que puede llegar a otros extremos, si el asunto no se trata de forma integral.
***
El incidente en la morada de Sam Altman sucedió pocos días después de que alguien disparara 13 veces contra la casa de un concejal de Indianápolis, quien había expresado su apoyo a un proyecto para un nuevo centro de datos. Después del tiroteo encontraron una nota en el lugar: «No a los centros de datos». Un claro mensaje antitecnológico.
La creciente violencia política en torno a la IA es aterradora, moralmente reprobable y completamente ineficaz. La expansión de los sistemas de IA, a pesar de su creciente impopularidad, no se detendrá con unas pocas balas perdidas, tal y como recuerdan en la publicación especializada Plattformer. Y entre las muchas razones para alarmarse por estos incidentes, está el hecho de que los perpetradores parecen demasiado perturbados para comprenderlo.
El mismo 10 de abril, en la tarde, Altman reflexionó sobre los ataques, y sobre una investigación reciente publicada por The New Yorker acerca de su gestión como director ejecutivo, el estado de la IA y la creciente inquietud pública en torno a esta tecnología.
Tras destacar el potencial de la IA para generar grandes beneficios, también intentó simpatizar con quienes sienten temor por el futuro de esta tecnología. «El miedo y la ansiedad ante la IA están justificados», escribió Altman. «Estamos presenciando el mayor cambio social en mucho tiempo, y quizá de toda la historia».
Altman es un maestro en transmitir tranquilidad y demostrar que está de tu lado —este es uno de los temas centrales del perfil publicado en The New Yorker— y se esfuerza por encontrar puntos en común. Por eso afirmó que no desea que el poder de la IA se concentre demasiado y que debería regirse «democráticamente».
Agregó, asimismo, que simpatiza con el sentimiento antitecnológico y que «acoge con beneplácito la crítica constructiva y el debate». «Mientras mantenemos ese debate», escribió, «deberíamos rebajar la intensidad de la retórica y las tácticas, e intentar evitar conflictos, tanto figurativa como literalmente».
***
Esa reducción de la tensión a la que ahora llama Altman, siendo honestos, fue construida, en primer lugar, por él y por quienes hoy ostentan cargos directivos al frente de las principales compañías de IA.
Durante años, muchos se han dedicado a hablar de la inteligencia artificial en términos existenciales. No es una cuestión novedosa. Solo que ahora pasa factura.
Por ejemplo, en 2015, en una entrada en un blog, Altman escribió: «El desarrollo de una inteligencia artificial sobrehumana es probablemente la mayor amenaza para la supervivencia de la humanidad», y especuló luego: «La evolución seguirá su curso, y si los humanos dejamos de ser la especie más apta, podríamos desaparecer».
No fueron palabras al vuelo. En 2023, rubricó una declaración del Centro para la Seguridad de la IA, una organización sin fines de lucro, que afirmaba que «mitigar el riesgo de extinción por la IA debería ser una prioridad global, junto con otros riesgos a escala social como las pandemias y la guerra nuclear». El director ejecutivo de Google DeepMind, Demis Hassabis, y el director ejecutivo de Anthropic, Dario Amodei, también firmaron la declaración. Hoy Google tiene desplegado su modelo Gemini, y Anthropic es conocido por Claude, ambos de un altísimo potencial y poder de procesamiento.
Volviendo a Altman, según recuerda la publicación Plattformer, durante una aparición en un podcast el año pasado, comparó el esfuerzo por crear una IA sobrehumana con el Proyecto Manhattan (el que diseñó la bomba atómica que luego cayó sobre Hiroshima y Nagasaki). «Hay momentos en la historia de la ciencia en los que un grupo de científicos observa su creación y se pregunta: "¿Qué hemos hecho?"», dijo. «Quizá sea genial, quizá sea malo, pero ¿qué hemos hecho?», reiteró en ese programa.
Otros directores ejecutivos han expresado niveles de alarma similares. «Estamos invocando al demonio», aseveró Elon Musk en 2014 y, luego, lo ha reiterado de una u otra manera. En enero, en un extenso ensayo sobre los riesgos que plantea la IA, Amodei escribió: «La humanidad necesita despertar».
***
De cierta forma, la humanidad comienza a despertar en cuanto a lo que puede significar una IA superior a nosotros. Una encuesta reciente en Estados Unidos, por ejemplo, reveló que el tema gana importancia para los votantes, más rápidamente que cualquier otro. Esa misma encuesta encontró que la mayoría cree que la IA avanza demasiado rápido y que la superinteligencia sería principalmente perjudicial para las personas. Mientras tanto, otra encuesta de Pew del año pasado arrojó que la mayoría de los estadounidenses cree que la IA provocará una disminución de empleos en los próximos 20 años.
Basta con ver el anuncio de la semana pasada del modelo Mythos de Anthropic y su inquietante capacidad para encontrar nuevas vulnerabilidades en software de código abierto con décadas de antigüedad, para comprender que los directores ejecutivos eran honestos cuando advirtieron que la IA introduciría nuevos riesgos en el mundo.
Por eso, el llamado de Altman a reducir la intensidad de la retórica tras el ataque en su propiedad, es difícil de comprender. Los directores ejecutivos están más convencidos que nunca de que una inteligencia artificial bien poderosa llegará en los próximos años. El público les cree cada vez más, y está horrorizado por las implicaciones. Resulta extraño sugerir que, en medio de los avances acelerados en el rendimiento de los modelos de IA, todos deban calmarse.
Si realmente nos enfrentamos a «la mayor amenaza para la supervivencia de la humanidad», como escribió Altman, ¿no deberíamos esperar que, en algún momento, la gente entre en pánico? (Aunque jamás estaremos de acuerdo en esta sección con ningún tipo de violencia, me gustaría agregar).
***
Altman también propuso que exista una gobernanza democrática para OpenAI y sus pares. Es una afirmación contradictoria… viniendo de él.
Cuando los legisladores intentaron regular la IA, en tiempos bien recientes, OpenAI ha combatido estos esfuerzos en cada oportunidad. Veamos los hechos:
*La compañía presionó en contra del proyecto de ley SB 1047 de California, que buscaba establecer estándares de seguridad para las empresas de IA de vanguardia; el gobernador lo vetó.
*OpenAI envió a un alguacil a la casa de un defensor de una organización sin fines de lucro que promovía el proyecto de ley SB 53 de California —que crea requisitos de transparencia para las empresas de IA—, para entregar una citación como parte de una investigación sobre si las organizaciones sin fines de lucro estaban siendo dirigidas o influenciadas por Elon Musk.
*La empresa presionó a la Unión Europea para debilitar la Ley de IA.
*Más recientemente, respaldó un proyecto de ley en Illinois que eximiría a OpenAI de responsabilidad, en casos donde sus modelos se utilicen para causar daños graves, siempre y cuando no los hayan causado de forma imprudente o intencionada, y se comprometiera a publicar informes de seguridad.
Una empresa que redacta o combate normas para limitar su propia responsabilidad solo conseguirá, con el tiempo, enfurecer más y más a la opinión pública.
Las palabras tienen poder y la ansiedad en torno a la IA no debería desembocar en violencia abierta. Pero, al mismo tiempo, el repentino llamado a la calma de Altman parece vacuo viniendo de alguien que pasó una década dando la voz de alarma, cuyas predicciones parecen cada vez más acertadas, y que ahora utiliza los recursos de la empresa para combatir los intentos de regularla.
El desdén público hacia la IA no fue inventado por los medios. Es una creación coral de quienes desarrollan los sistemas, que nos han advertido una y otra vez sobre su inminencia y peligrosidad. Que el público ya les crea no debería sorprenderles. ¿Acaso no es eso lo que han estado pidiendo desde el principio?