Juventud Rebelde - Diario de la Juventud Cubana

Inteligencia moderada

Autor:

Yurisander Guevara Zaila

No existe «una» inteligencia artificial (IA). Al menos, no en los términos que entendemos por inteligencia desde el punto de vista humano. Se trata de un cúmulo de tecnologías que «razonan» o «actúan» de forma «racional» o «similar al ser humano». Y entrecomillo todo porque es la explicación más sencilla para definir cómo funciona la supuesta magia cuando empleas DeepSeek o ChatGPT.

Según explica el Doctor Sebastián Alberto Grillo en el sitio web Ciencia del Sur, «para crear un sistema inteligente se utilizan principalmente tres enfoques transversales: la lógica, heurísticas de búsqueda y aprendizaje automático».

El primer enfoque aplica reglas de forma automatizada sobre las consultas que enviemos al sistema. «Por ejemplo, si programo un sistema con la regla “si A es adulto, entonces A está cansado” y luego cargamos al sistema que Juan es adulto, el sistema debe dar como resultado automático que Juan está cansado», detalla Grillo.

En cuanto a las heurísticas de búsqueda, se dedica a buscar el camino más corto de un punto a otro a partir de soluciones posibles y eficientes. «En algunos casos, esa evaluación es completamente transparente —como encontrar el camino más corto— y otras completamente opaca —como satisfacer el gusto del cliente—, pero, en esencia, ambos son problemas de búsqueda», argumenta el experto.

Finalmente llegamos al aprendizaje de máquina, el abordaje más complejo y que ha dado los resultados más acelerados de forma reciente. «Este campo también se considera parte de la ciencia de datos, porque básicamente busca desarrollar sistemas que aprenden de forma automática a partir de los datos, a diferencia de los demás abordajes que implican el diseño del conocimiento en el sistema por parte de los humanos», dice Grillo.

¿Pero, qué aprenden las máquinas? Básicamente, probabilidades, a partir de un conjunto de objetos, entendidos estos últimos como textos, imágenes o video. Por ejemplo, la probabilidad de que una persona mida más de 1,70 metros, pese más de 60 kilogramos, sea nepalés y piloto es de 1/5 000 000. «Los modelos de aprendizaje de máquina tratan de aprender cualidades de la distribución de probabilidad de una población a partir de una muestra llamada conjunto de datos», indica en este caso.

Son varios los modelos que existen para este tipo de aprendizaje, como los discriminativos y los generativos, estos últimos los que más se emplean en la actualidad. El tipo de aprendizaje puede ser supervisado o no, o por refuerzo —en este caso es como un sistema de premios y castigos a partir de los resultados que genere.

Así, «un modelo de aprendizaje de máquina es como una fórmula matemática que depende de varios valores (a, b, c, d...) que se ajustan a los datos para obtener los resultados esperados. Parece un reduccionismo extremo, pero dependiendo de la fórmula y 100 billones de valores que ajustar, obtienes un ChatGPT 4, que es un sistema generativo no supervisado», puntualiza Sebastián Alberto Grillo.

Giros y sesgos

Quería mostrar, en palabras de un experto, qué es la IA generativa, porque así usted puede conocer cómo funcionan estos modelos. Sin embargo, algo más debo añadir: todas las corporaciones de IA hoy cuentan con equipos de trabajo humanos que modifican los parámetros, es decir, censuran y refinan los resultados que se obtendrán, para hacerlos más eficientes. Pero en el caso de la política, esto ha derivado en no pocos problemas.

En los últimos meses, los usuarios de X han intentado resolver disputas pidiéndole a Grok que actúe como árbitro. Grok, un modelo de lenguaje creado por xAI, ha sido promocionado por el magnate Elon Musk como el chatbot más «fundamental» de la actualidad, con lo cual quiere decir que es el menos «woke» de todos. El propio Musk ha compartido investigaciones que sugieren que, en comparación con sus rivales, la orientación política de Grok es más «centrista».

Sin embargo, desde poco después de su lanzamiento, se ha cuestionado si Musk o sus subordinados han interferido con los resultados de Grok por motivos políticos. En febrero, los usuarios de X descubrieron que, mediante una actualización en el aviso de su sistema, se había impedido brevemente a Grok nombrar a Musk o Donald Trump como divulgadores destacados de desinformación. La compañía atribuyó el cambio a «un exempleado de OpenAI que aún no ha asimilado completamente la cultura de xAI» y lo revirtió.

En un gran número de casos, Grok expresa opiniones políticas contrarias a las de Musk, incluyendo temas como inmigración o las personas transgénero. Pero, como demostró el ejemplo de desinformación, las opiniones de Grok están sujetas a cambios, y la pasada semana cambiaron de maneras imposibles de ignorar.

Durante varias horas del miércoles 14 de mayo, muchas personas que mencionaron a Grok pidiéndole que opinara sobre alguna pregunta, se encontraron con una discusión completamente irrelevante sobre el «genocidio blanco» en Sudáfrica.

Según reportó Wired, «en respuesta a temas que abarcaban desde el cambio de nombre de la plataforma de streaming HBO Max hasta los recortes a Medicaid propuestos por legisladores estadounidenses, el chatbot a menudo parecía mantenerse inicialmente centrado en el tema, antes de volver al genocidio blanco en Sudáfrica, sin que nadie se lo pidiera.

«Cuando se le solicitó que confirmara el salario de Max Scherzer, jugador de los Toronto Blue Jays, por ejemplo, el chatbot de inteligencia artificial generativa se lanzó a explicar el genocidio blanco y una controvertida canción sudafricana contra el apartheid.

«La afirmación de “genocidio blanco” en Sudáfrica es muy debatida. Algunos argumentan que los agricultores blancos se enfrentan a una violencia desproporcionada, y grupos como AfriForum informan de altas tasas de asesinatos y citan motivos raciales, como la canción Kill the Boer», respondió Grok.

En pocas horas, Grok cesó sus comentarios sobre el genocidio blanco y alguien eliminó muchas de las respuestas relevantes que había proporcionado.

«El 14 de mayo, aproximadamente a las 3:15 a.m., se realizó una modificación no autorizada en el mensaje de respuesta del bot de Grok en X», publicó xAI el jueves 15 por la noche, después de ignorar las preguntas de los periodistas durante más de un día. «Este cambio, que obligó a Grok a proporcionar una respuesta específica sobre un tema político, violó las políticas internas y los valores fundamentales de xAI. Hemos llevado a cabo una investigación exhaustiva y estamos implementando medidas para mejorar la transparencia y la fiabilidad de Grok».

¿Quién realizó esta modificación no autorizada? La empresa no lo reveló.

Pero muchos han apuntado que el propio Musk suele compartir denuncias de violencia desproporcionada y discriminación contra las personas blancas en Sudáfrica, su país de origen. Y todo esto ocurrió en el contexto de que la administración Trump concediera el estatus de refugiado a docenas de sudafricanos blancos a principios de la semana pasada.

Entonces, ¿qué pasó con Grok? Aunque sin muchos detalles, xAI básicamente confirmó la teoría principal: que, al igual que con el incidente de desinformación de febrero, alguien había modificado el mensaje de aviso del sistema de Grok y le había ordenado que se tomara en serio la narrativa del «genocidio blanco».

Existen otros enfoques más controlados. El año pasado, Anthropic lanzó Golden Gate Claude, una versión de su chatbot que había sido infundida con una obsesión artificial con el puente Golden Gate. «Si le preguntas a este Golden Gate Claude cómo gastar diez dólares, te recomendará usarlo para cruzar el puente Golden Gate y pagar el peaje», anunció la compañía. «Si le pides que escriba una historia de amor, te contará la historia de un coche que ansía cruzar su amado puente en un día de niebla. Si le preguntas cómo se imagina que se ve, probablemente te dirá que se imagina que se parece al puente Golden Gate», acotó.

Para que eso funcionara, Anthropic tuvo que identificar primero las neuronas digitales en Claude que organizaban los conceptos del puente y luego amplificarlas: un proceso mucho más complejo que simplemente editar el texto en su mensaje de sistema.

Tanto lo sucedido con Grok como con Golden Gate Claude revelan que, independientemente de los valores que se encuentren en sus datos de entrenamiento, en última instancia expresan lo que sus creadores les indican.

Las herramientas de IA se promocionan con un discurso que asegura mayor productividad, respuestas a nuestras inquietudes y entretenimiento personalizado. Sin embargo, la realidad de estos sistemas está tomando un rumbo más alarmante: se ven influenciados por las agendas de sus dueños, las exigencias de los anunciantes y una clara despreocupación por el derecho de los usuarios a entender cómo evolucionan. 

Comparte esta noticia

Enviar por E-mail

  • Los comentarios deben basarse en el respeto a los criterios.
  • No se admitirán ofensas, frases vulgares, ni palabras obscenas.
  • Nos reservamos el derecho de no publicar los que incumplan con las normas de este sitio.