Juventud Rebelde - Diario de la Juventud Cubana

El juego de imitación (I)

La inteligencia artificial es una asignatura pendiente con múltiples aristas dentro del mundo informático

Autor:

Yurisander Guevara

¿Será capaz de lograr alguna vez el hombre que un ordenador razone de tal forma que no podamos saber si es un humano o una máquina? La respuesta a esta interrogante reside en una disciplina conocida como inteligencia artificial, con avances alentadores en los últimos tiempos, aunque aún algo lejos de una solución definitiva.

Si bien en fecha tan lejana como 1315 el español Ramón Llull —a quien se le atribuye la invención de la Rosa de los vientos— consideró que el razonamiento podría ser efectuado de forma artificial, no sería hasta cinco siglos después que alguien propusiera una solución al problema para lograr una máquina verdaderamente inteligente.

Alan Turing, un matemático británico considerado entre los padres de la informática moderna —responsable de descifrar la máquina Enigma, con la que los Aliados anticipaban los movimientos nazis en la II Guerra Mundial—, expuso en 1950 que para responder a la pregunta de si puede pensar una máquina, se debe llevar a cabo un «juego de imitación».

Fue este el primer y más trascendental acercamiento al concepto de inteligencia artificial.

En la prueba de Turing intervienen dos personas y una computadora. Sentadas en salas diferentes, una persona oficia como interrogadora de la otra a través de un ordenador. Cuando aparecen las respuestas en la terminal,  el interrogador intenta determinar si fueron hechas por la otra persona o la computadora misma. Si actúa de manera inteligente, según Turing, el interrogador no podría saber que le respondió la PC.

Señaló este matemático que una máquina podría fracasar la prueba y aún ser inteligente de otras maneras, y creía que las máquinas podrían superar la prueba a finales del siglo XX. Todavía no lo han hecho.

Aunque el enfoque de Turing de considerar la inteligencia artificial como una imitación del comportamiento humano no ha sido el predominante en esta disciplina, su valor teórico sí se ha tomado en cuenta.

Hoy predomina un acercamiento a la inteligencia artificial desde las ciencias  cognitivas, especialmente para tratar de replicar el  comportamiento humano. Y se han logrado avances interesantes.

Aprender primero, razonar después

De espectacular podríamos calificar los sistemas informáticos capaces de aprender a partir de un entrenamiento. Son muchos los que hoy lo hacen, y no específicamente en entornos tecnológicos de alta investigación.

Por ejemplo, tomemos los correos electrónicos. La mayoría de los clientes que se utilizan en el mundo tienen detrás un sistema capaz de aprender qué tratamiento dar a los mensajes.

Esto se debe a la utilización de un clasificador bayesiano ingenuo, un algoritmo que se basa en el Teorema de Bayes. Sin adentrarnos en la complicada explicación matemática, ese sistema «antispam» cataloga los correos entrantes como basura o no basura.

Para lograrlo, extrae varios datos del mensaje, como el número de veces que aparece cada palabra. A sus clasificaciones otorga un valor, las cuales recuerda. Si como usuarios recibimos un correo que insta a comprar Viagra —uno de los más recurrentes en numerosos buzones—, y lo marcamos como spam, el sistema lo recordará y clasificará de forma automática en nuevos envíos.

Así funcionan Gmail, Yahoo! o Outlook, tres de los clientes de correo electrónico más famosos del mundo.

Para mejorar el algoritmo, se tiene en cuenta también cuál es la probabilidad de que un correo aleatorio sea spam: si el 99 por ciento de los mensajes que recibimos lo son, entonces es muy probable que al analizarlos en ese momento lo sean, aunque no tengan muchas palabras «sospechosas». Por el contrario, si apenas recibimos correos basura, el sistema necesitará más evidencias para clasificarlo como spam.

Lo interesante en esta cuestión es que el sistema aprende. La limitación es que esa «inteligencia» no se aplica a otra cuestión que no sea el correo electrónico, y si utilizamos lo aprendido sobre el Viagra en una empresa que lo comercialice, sería desastroso. Sin embargo, explica el modo en que aprenden muchos de los sistemas de inteligencia artificial.

Las redes neuronales artificiales, que reproducen las conexiones que se forman en el cerebro humano, aplican esta misma idea y ajustan los pesos de sus «neuronas» hasta que sale lo que se espera: una imitación del proceso de aprendizaje.

El problema actual reside en lograr que las máquinas sean capaces de añadir más tipos de conocimientos y los conecten de forma tal que razonen.

Un acercamiento a esta cuestión se realiza con lenguajes de programación que utilizan la lógica, como Prolog. En lugar de dar instrucciones sobre cómo hacer algo, se introducen algunas reglas lógicas y la máquina deduce la solución de un problema.

Sin embargo, lo primero que necesitan los ordenadores o redes artificiales es la introducción explicada del conocimiento. Piense entonces por un segundo, ¿es usted capaz de describir lógicamente todo lo que conoce?, ¿no sabe muchas cosas simplemente porque sí?

Cuestiones difusas

Si algo tiene en común la humanidad, es que la lógica, en el sentido estricto              de la palabra, no se aplica en todas las  situaciones de la vida real. La matemática ha enfocado la resolución de este problema en el mundo informático con la aplicación del concepto de lógica difusa.

Este término fue acuñado en 1965 por el matemático azerbaiyano Lotfi A. Zadeh, y se aplica al tomar dos valores aleatorios que se contextualizan y refieren entre sí. Por ejemplo, una persona «alta» sería aquella que mida dos metros, si previamente se tomó un metro como referencia de valor para una persona «baja». Ambos valores están contextualizados a personas y referidos a una medida métrica lineal.

¿Cómo se aplica esto hoy en la informática? Los asistentes de voz comienzan a popularizar su uso como parte cotidiana de la vida de millones de personas.

Siri, de Apple, Google Now o Cortana, la más reciente añadidura de Microsoft, emplean la lógica difusa para responder  cuestiones triviales.

Supongamos que un usuario utiliza uno de estos sintetizadores para preguntar cómo será el clima y qué decisión tomar sobre si llevar o no un paraguas.

Según el razonamiento de la máquina, ¿cuándo deberíamos exactamente llevar paraguas?, ¿cómo sabrá si la lluvia será escasa o a cántaros?

Para definir estos conceptos imprecisos que los humanos razonamos a diario, las máquinas deben tenerlos incorporados previamente. En la cuerda de la lógica difusa se escribirán reglas de código como «si hace calor, no lleves abrigo», «si llueve poco, lleva abrigo» o «si llueve mucho, lleva paraguas». Estos conceptos no se transforman en sí o no —como en la clasificación de correos—, sino que reciben rangos porcentuales para ser procesados.

Así, a una pregunta tan vaga como ¿hace calor?, un sistema inteligente que opere con lógica difusa no respondería sí, sino algo como «50 por ciento».

Esta es una de las formas más cercanas de reflejar el pensamiento humano, un asunto todavía en pañales que busca convertirse en la panacea de la informática, logrando máquinas capaces   de razonar e intercambiar con nosotros. Y lo que antes parecía ciencia ficción hoy se ve más cerca en el horizonte, aunque todavía falta mucha tela por donde cortar.

Comparte esta noticia

Enviar por E-mail

  • Los comentarios deben basarse en el respeto a los criterios.
  • No se admitirán ofensas, frases vulgares, ni palabras obscenas.
  • Nos reservamos el derecho de no publicar los que incumplan con las normas de este sitio.