El juego de imitación (II y final)

Crear sistemas complejos de inteligencia artificial capaces de unir todas las funcionalidades hasta ahora exploradas es el principal desafío de esta disciplina

Autor:

Yurisander Guevara

Hace una semana comenzamos este reportaje analizando cómo surgió el concepto de inteligencia artificial y cuáles son algunas de las aplicaciones o variantes que se utilizan para tratar de lograr que las máquinas razonen como los seres humanos.

Analizamos sistemas clasificadores capaces de hacer los correos electrónicos más inteligentes, redes neuronales que aprenden al incorporar nuevos conocimientos y la aplicación de la lógica difusa como una manera de resolver nuestros imprecisos razonamientos.

Este es un tema tan profundo, complejo y polémico, que necesitaríamos semanas de discusión para lograr un acercamiento total. No obstante, esta conclusión presentamos las otras vertientes más populares en el empleo de la inteligencia artificial, y sus riesgos.

Ordenadores al habla

Una de las ramas en la que se emplea la inteligencia artificial, acaso la más llamativa, es la imitación de la comunicación natural. Que un ordenador se comunique con nosotros y nosotros con él, sin tener que aprender lenguajes de programación ni miles de comandos, es lo que se conoce como procesamiento de lenguaje natural.

De un modo más informal se les llama chatbots a los sistemas que intercambian mensajes de texto con los humanos mediante un ordenador. Son varios los de este tipo que han sorprendido al mundo.

Google, por ejemplo, presentó recientemente los resultados de una conversación entre un chatbot y dos científicos. Programado para predecir la siguiente oración dada la oración anterior de una conversación, el sistema respondió de forma interesante a interrogantes como ¿cuál es el propósito de la vida?, a la que contestó con un «Servir a un bien mayor». En cambio, al ser cuestionado sobre la definición de moralidad, evadió la pregunta dos veces y finalmente afirmó: «No tengo ética».

Otro sistema que también avanza es el de voz, en el que se ha logrado que los ordenadores comprendan frases naturales. En los móviles inteligentes de hoy, aun sin que el usuario tenga conexión a Internet, se pueden dar órdenes y estos cumplen el pedido. Si les decimos «Reproducir la lista de reguetón», lo que hará será detectar la palabra «reproducir», la palabra «lista» y «reguetón» y, usando instrucciones que los programadores han incluido explícitamente, buscará en el dispositivo la música listada bajo ese nombre.

A pesar de este avance, el sistema no es inteligente, porque reproduce cuestiones programadas con antelación. Lo que se busca en todo caso es que el sistema sea capaz de entender frases que oye por vez primera.

Así se emplea hoy el análisis sintáctico. Sí, el mismo procedimiento que aprendemos desde los primeros años de la escuela en la asignatura de Español.

Conociendo de gramática, un ordenador puede convertir una frase como «¿cuál es la sede del ministerio que se encarga de las comunicaciones en Cuba?» en una consulta que le haga buscar, entre los ministerios de Cuba, el que entre sus responsibilidades tiene «comunicaciones» y que de él saque la propiedad «sede».

El sistema necesitará también conocer el significado de las palabras. El análisis sintáctico le puede decir que el ministerio está en Cuba, pero debe saber que «Cuba» es un país, como lugar físico, para entender exactamente el significado de «estar» en un lugar.

Una tarea tan compleja necesita incorporar todo el léxico de un lenguaje, lo que dificulta su creación. Y es que no es lo mismo hablar de la primera planta de la casa, que de la planta primera en el jardín. En un caso hablamos de un espacio y en el otro de un árbol. Si vamos a complejizar la cuestión, el español, como idioma, tiene múltiples localismos en todos los países donde se habla. Cuando se le pregunte por una guagua, por ejemplo, un sistema inteligente tendría que ser capaz de dar respuestas diferentes tanto en Cuba como en Colombia, donde la misma palabra tiene significados diferentes.

Al respecto un sistema bastante avanzado es el IBM Watson, capaz de responder y ganar a humanos en un concurso de preguntas y respuestas llamado Jeopardy! Indica la empresa tecnológica que Watson usa varias técnicas para entender la pregunta y otras tantas para buscar la respuesta en su base de datos. Si varias técnicas proporcionan la misma respuesta, el sistema la da por buena.

Es un enfoque pragmático: como es difícil simular la mente humana, es mejor usar varias técnicas distintas que, aunque no sean «inteligentes» y no entiendan realmente lo que se pregunta, sí sean capaces de dar respuestas y no sean tan complejas de programar, explica IBM en la web de este programa.

El análisis de datos masivos, conocido como Big Data, en conjunción con este análisis sintáctico, ha permitido, por ejemplo, que la agencia de noticias estadounidense AP introduzca un sistema automático para generar noticias. AP afirmó cuando introdujo el sistema que se trata de dejar más tiempo a los periodistas para tareas investigativas.

El desafío del futuro

Crear sistemas complejos de inteligencia artificial capaces de unir todas las funcionalidades hasta ahora exploradas continúa siendo el principal desafío de esta disciplina. Y no son pocos los cuestionamientos al respecto sobre el desarrollo de los mismos.

Recientemente el científico británico Stephen Hawking y el físico sudafricano Elon Musk, dos de los fundadores del Instituto para el Futuro de la Vida y pesos pesados en el mundo de la tecnología, advirtieron que aplicar la inteligencia artificial a todo no será bueno para la humanidad. Su opinión es compartida por otras personalidades como Noam Chomsky, Steve Wozniak y Jaan Talinn.

Hawking y Musk, citados por Russia Today, indicaron que un campo muy peligroso es el de las armas autónomas, como los drones de combate con que cuentan algunas potencias, una amenaza para todos, incluidos sus dueños.

Afirman estos científicos que, al contrario de lo que aseguran los militares, los drones no salvarán vidas, pues acabarán siendo replicados por organizaciones terroristas para desestabilizar naciones.

Temen estos especialistas que el mal uso de la inteligencia artificial provocará que la opinión pública se ponga en su contra. En una carta abierta publicada en la web del Instituto para el Futuro de la Vida, razonan que a diferencia de las armas nucleares, los drones se pueden fabricar con materiales económicos y fáciles de conseguir.

Según ellos, solo es una cuestión de tiempo para que caigan en manos de grupos terroristas que los usarán para cometer atentados atroces.

Y alertan de forma enfática que las armas autónomas de carácter ofensivo que recurren a la inteligencia artificial deberían prohibirse. Esperemos que los que toman las decisiones los escuchen, y, por lo menos, se tomen en serio lo que opinan estos científicos y expertos en tecnología, que si están a favor de algo es de esta disciplina, pero bien usada.

Comparte esta noticia



Enviar por E-mail

  • Los comentarios deben basarse en el respeto a los criterios.
  • No se admitirán ofensas, frases vulgares, ni palabras obscenas.
  • Nos reservamos el derecho de no publicar los que incumplan con las normas de este sitio.