El robot, la aguja y la primera ley

Por vez primera un robot puede dañar a los humanos de forma intencional. La creación, aunque artística, invita a reflexionar sobre las aristas éticas, legales y hasta filosóficas del asunto

Autor:

Yurisander Guevara

Robot. El término hoy conocido por todos hace menos de un siglo nunca se había empleado. Lo inventó Josef Capek en 1920, hermano del escritor checo Karel Capek, uno de los más importantes autores de la literatura del siglo XX en su país, quien lo utilizara por vez primera en su obra R.U.R. (Rossum’s Universal Robots).

Etimológicamente hablando, el término deriva de robota, palabra en idioma checo que se usa para definir la «labor forzada», servil o esclava, que algo o alguien realiza. Al ser traducida R.U.R. al idioma inglés, se usó por vez primera el término robot, reconocido también por la Real Academia de la Lengua Española.

Desde entonces la literatura de ciencia ficción se ha nutrido de esta palabra en numerosas obras, donde las máquinas son tan o más avanzadas en su «inteligencia» que los humanos.

En 1942 el escritor ruso Isaac Asimov enriqueció la aplicación del término con sus Tres Leyes de la Robótica, publicadas en su libro Círculo vicioso. Las leyes son una serie de mandamientos destinados a proteger a la humanidad que convive con estas máquinas avanzadas, y si bien son normas usadas en la literatura, hasta hoy se han constituido como el asidero ético más utilizado y analizado por la comunidad científica en el área de la robótica.

Las leyes rezan lo siguiente: 1- Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño. 2- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley. 3- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley. Según los presupuestos de estas regulaciones, el robot que las violase, moriría en el acto.

Como explicase el propio Asimov, sus leyes buscaban contrarrestar el «complejo de Frankenstein», o lo que es igual, el temor a que el ser humano desarrollara máquinas que hipotéticamente pudieran rebelarse contra sus creadores.

A primera vista no habría problema para hacer cumplir estas leyes en los robots, programación mediante. Son una suerte de código moral del robot que definiría su forma de actuar y comportarse como un ser moralmente correcto. ¿Es posible entonces que un robot viole alguna de sus tres leyes y «dañe» a un ser humano?

Según las historias de Asimov, a pesar de las tres leyes siempre alguien resulta herido o muerto por la acción de una máquina. Si nos trasladamos al mundo real, los robots son también capaces de dañarnos.

En estos casos, la mayoría de las veces los errores son humanos, como el de los operarios de fábricas automatizadas que llegan a las noticias luego de sufrir daños, y las causas varían entre equipos defectuosos o fallas en su manipulación. También tenemos a la industria militar y sus mortíferas máquinas. Pero, ¿qué pasaría si un robot nos dañase «a propósito»? Eso es lo que ha logrado un artista estadounidense.

La primera ley

Alexander Reben es un ingeniero en robótica que se dedica a emplear sus conocimientos para crear obras de arte con las máquinas. En su web oficial, areben.com, se pueden conocer una serie de iniciativas enmarcadas en los usos que pueden tener los robots a partir de la interacción con el mundo que los rodea.

La última creación de Reben se llama La primera ley y es, cuando menos, desconcertante. Se trata de un robot conformado por una base y un brazo, este último armado con una aguja quirúrgica. En la base hay un dispositivo triangular que es capaz de contener el dedo de una mano.

El artista estadounidense programó al robot a partir de redes neuronales para que, al detectar un dedo en el dispositivo triangular de la base, decida «por sí mismo» si lo va a pinchar o no con su aguja. Es la primera vez en la historia que un ser humano crea una máquina capaz de atacar de forma intencionada.

«Contamos con drones y armas mortales capaces de eliminar a los seres vivos, pero en ellos media la decisión del ser humano que los opera. Este robot es diferente porque es capaz de tomar decisiones por sí mismo. El hecho de que el robot decida no dañar a alguien —lo cual es impredecible—, es lo que hace surgir preguntas importantes y lo convierte en algo singular. Aunque existan máquinas capaces de hacer daño, la responsabilidad moral reside en sus operarios. Mi robot solo daña con el pinchazo de una aguja, pero ahora que existe un tipo de máquina como esta, debe ser confrontada», afirma Reben en su web.

El artista espera que personas de campos tan dispares como el del Derecho, la filosofía y la ingeniería se unan en una discusión profunda en torno a las implicaciones de su robot.

Al respecto, la investigadora Kate Darling, del Instituto Tecnológico de Massachusetts, Estados Unidos, quien se dedica a analizar el impacto social a corto plazo de tecnologías robóticas, ha declarado al portal fastcompany.com que le gusta la idea de Reben, aunque «no pondría su dedo en el dispositivo».

Darling advierte que mientras más nos alejemos de nuestra responsabilidad con la forma en que se puede comportar una máquina, el daño que esta podría causar sería más «intencional» en los términos que hoy acogen los sistemas legales.

Por eso, agrega la investigadora, en la medida en que la tecnología mejore y los robots se hagan más autónomos y cotidianos en nuestro entorno, debemos repensar la forma en que interactuamos con ellos y a qué debemos atenernos.

Desde el punto de vista de la responsabilidad, comenta Darling a la referida publicación web, los robots se volverán más comunes en nuestras vidas en las próximas décadas. Serán más que meras herramientas a nuestra disposición, tal y como hoy los vemos. El incremento de tecnologías autónomas podría hacer que viéramos a los robots más como animales, en el sentido de que no podemos predecir lo que van a hacer.

Científicos de la talla del británico Stephen Hawking han advertido de los peligros que podrían representar los robots del futuro, una vez se logren sistemas de inteligencia artificial similares al comportamiento humano, con todas sus luces y sombras.

Tomando medidas

El robot La primera ley es una muestra de cómo se pueden traspasar fronteras éticas hasta ahora solo delineadas en la literatura, cuestión que algunos países ya comenzaron a tomarse en serio.

El pasado 21 de mayo el diario Japan Times anunció que el Ministerio de Economía, Comercio e Industria de Japón prepara guías de seguridad para los fabricantes de robots en el futuro cercano.

Preocupados por las consecuencias que pueda tener para la sociedad la introducción de robots en la vida cotidiana, autoridades de esa cartera indicaron que los fabricantes requerirán instalar sensores que eviten que los robots choquen contra las personas, al tiempo que las máquinas deben ser construidas con materiales suaves para que en caso de suceder una colisión, los humanos no sufran daños.

Otra medida no menos importante es la implantación de un botón de emergencia capaz de apagar completamente al robot si este funciona mal.

Japón, en particular, trabaja de forma acelerada en la robótica para usarla como mano de obra, debido a la crisis de natalidad que padece desde hace años. La falta de trabajadores, esperan las autoridades niponas, podría ser paliada con máquinas. Mientras ese momento llega, han comenzado a tomar medidas preventivas.

Acaso coincida conmigo en que la idea de los japoneses parece ser la más lógica. A fin de cuentas, si ya un robot de mesa es capaz de pincharnos con una aguja, ¿qué podrían hacer aquellos equipados con algo más letal?

Comparte esta noticia



Enviar por E-mail

  • Los comentarios deben basarse en el respeto a los criterios.
  • No se admitirán ofensas, frases vulgares, ni palabras obscenas.
  • Nos reservamos el derecho de no publicar los que incumplan con las normas de este sitio.