Las atractivas (y aterradoras) llamadas telefónicas de Google Duplex

Lo que, por un lado, significa un paso agigantado en el desarrollo de la inteligencia artificial, por otro supone la apertura de «un boquete ético» sin precedentes en el mundo de las nuevas tecnologías

Autor:

Yurisander Guevara

En la pasada semana dos importantes eventos acontecieron en el mundo tecnológico: las conferencias para desarrolladores de Microsoft y Google.

Si bien en ambas se presentaron innovadores productos y servicios, por hoy me enfocaré en Google —en otras ediciones también hablaremos de Microsoft y su nueva filosofía empresarial—, pues su demostración de hasta dónde puede llegar la inteligencia artificial (IA), tuvo dos caras: por un lado, arrancó numerosas expresiones de «wow» y «¡oh!» entre los asistentes, al tiempo que provocó un aluvión de cuestionamientos importantísimos para el futuro del desarrollo de esta tecnología.

Y es que Google presentó a Duplex, un asistente de voz automatizado capaz de concertar citas para la peluquería, reservar en un restaurante y sostener conversaciones realistas con su interlocutor humano, con pausas que incluyen interjecciones como «um» y «ahh».

Durante la demostración, realizada en el Google I/O, Duplex llamó a operadoras de centros de servicios, como restaurantes, y concertó supuestas citas en tiempo real. En uno de los casos reservó una mesa para cuatro personas un jueves y se aseguró de que no fuera un día de «mucha espera en la cola». Duplex —con una voz masculina grave— agradeció a su interlocutora y se despidió con amabilidad. La mujer nunca supo que hablaba con un software.

Esta muestra, aunque es solo un experimento que podría no llegar a convertirse en un producto final, ha levantado no pocas cejas en el mundo tecnológico.

Un horrible experimento

El profesor y escritor Zeynep Tufekci consideró que Duplex es «horrible», al tiempo que apuntó que el hecho de que «Google esté dispuesto a usar la IA para engañar a los humanos y jactarse de su habilidad para hacerlo en un evento público, muestra que      Silicon Valley está éticamente   perdido, sin timón, y no ha aprendido nada», según declaraciones dadas a conocer por The New York Times.

Por su parte, el creador del foro MetaFilter, Matt Haughey, tuiteó: «¿Cómo Google hizo esa demostración de Duplex sin que nadie se alterase está más allá de mi comprensión?», y luego agregó que la compañía necesita un vicepresidente de control de ética.

La señal de alarma se alza porque Duplex «suena» como un ser humano real. Semejante desarrollo tecnológico tiene  implicaciones espectaculares: la posibilidad de contar con un asistente, cuya conversación sea tan fluida como la que se sostiene con un ser humano, lo hace más empático, al estilo de Harvey, el compañero virtual de Iron Man.

Pero dicho realismo es, al mismo tiempo, la espada de Damocles de esta tecnología: ¿quién es capaz de asegurar que en el futuro no pueda usarse para montar estafas o engaños, ejecutar ataques de ingeniería social o mentir a partir de que el interlocutor crea que, efectivamente, conversa con alguna persona, sin saber que es un robot?

En un comunicado, un representante de Google dijo: «Lo que mostramos fue una demostración de tecnología temprana, y esperamos recibir retroalimentación en la medida en que desarrollamos esto (Duplex) en un producto».

Más allá de la justificación de la megacorporación, se impone una pregunta ética: ¿Debería una tecnología de inteligencia artificial que usa la voz identificarse como una máquina ante su interlocutor humano?

Erik Brynjolfsson, profesor del Instituto Tecnológico de Massachusetts y experto en IA, le dijo a The Washington Post que, si bien la demostración de Google Duplex fue tecnológicamente «increíble», dejó abiertas cuestiones éticas. A su juicio, la IA no debería ser empleada para imitar a los humanos.

Por detrás de Duplex

El sistema conversacional de Google Duplex se basa en una Red Neuronal Recurrente desarrollada mediante TensorFlow Extended, según explicó la compañía en su blog de IA.

Como ocurre con otros        sistemas similares, para lograr esta precisión en su nivel de conversación la red neuronal fue entrenada mediante conversaciones telefónicas anónimas. El sistema usa la tecnología de  reconocimiento de voz automática de Google y analiza distintos parámetros para lograr diferenciar el contexto y entender qué le está diciendo el interlocutor. Es, incluso, capaz de comprender cuándo es interrumpido y para qué.

Para lograr que esa voz suene natural, Google emplea el sistema de dictado de texto a voz, y controla la entonación con las tecnologías Tacotron y WaveNet, añade el blog. Sin embargo, Duplex emplea por vez primera lo que Google ha llamado «difluencias del habla», que no son más que las pausas en forma de «aahm» o «umm» para dar más realismo a las expresiones, algo que sin duda alguna logró.

¿Oigo, es un robot?

A pesar de las críticas, los defensores del experimento Duplex señalaron que un servicio automatizado de llamadas telefónicas podría ser útil para personas con discapacidad, o para liberar a los usuarios de los molestos comandos que hoy se emplean con estos asistentes virtuales.

Asimismo, Google explicó que el producto no está terminado, y de momento solo está pensado para reservar servicios.

Lo cierto es que, tras ser revelado, Duplex puso a Google entre la espada y la pared: si quiere seguir con el desarrollo de esta inteligencia artificial deberá hacerlo de forma que no asuste a la gente, especialmente cuando la industria atraviesa una etapa de creciente desconfianza.

Los escándalos de espionaje destapados en los últimos años por plataformas como WikiLeaks, o informantes como Edward Snowden, así como la más reciente filtración de datos de Cambridge Analytica, han puesto en entredicho las «gratuidades y bondades» de las nuevas tecnologías. 

De acuerdo con el actor Kumail Nanjiani, una de las estrellas de la serie Silicon Valley producida por HBO, mientras realizaba investigaciones para el espectáculo mediante visitas a las compañías tecnológicas quedó impresionado por lo poco que piensan los ingenieros en las implicaciones éticas de sus productos.

«A menudo veremos tecnología que da miedo», escribió Nanjiani. «Nos estamos dando cuenta de que la consideración principal parece estar relacionada con las implicaciones éticas de la tecnología. Ni siquiera tienen una respuesta práctica ensayada. Están sorprendidos (los ingenieros de Silicon Valley) de que les pregunten. Lo que significa que nadie está haciendo esas preguntas», reflexionó.

Desarrollar esta tecnología sin el necesario debate ético sería peligroso para lo que pueda venir luego. Ya existe un Duplex capaz de mimetizar el comportamiento humano. ¿Seremos capaces de distinguirlo en el futuro?

 

 

 

Comparte esta noticia

Enviar por E-mail

  • Los comentarios deben basarse en el respeto a los criterios.
  • No se admitirán ofensas, frases vulgares, ni palabras obscenas.
  • Nos reservamos el derecho de no publicar los que incumplan con las normas de este sitio.