Go Back

Construyendo un robot que no domine el mundo

robot-ojos

Las famosas tres leyes de la robótica de Isaac Asimov's famous son limitaciones en el comportamiento de los androides y autómatas destinados a garantizar la seguridad de los humanos, también fueron famosos por estar incompletas. Las leyes, que aparecieron por primera vez en su cuento de 1942 "Runaround" y de nuevo en obras clásicas como I, Robot, parecen correctas en un principio:

  1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley.

Por supuesto, abundan los conflictos ocultos y las lagunas (que era la intención de Asimov). En nuestra actual era de avanzado software de aprendizaje automático y robótica autónoma, definir e implementar un conjunto de ética para la inteligencia artificial se ha convertido en una preocupación apremiante para organizaciones como el Instituto de Investigación de Inteligencia Artificial y OpenAI.

Christoph Salge, un científico de computación actualmente en la Universidad de Nueva York, está tomando un enfoque diferente. En lugar de buscar definiciones filosóficas desde arriba sobre cómo los agentes artificiales deberían o no deberían comportarse, Salge y su colega Daniel Polani están investigando un camino de abajo hacia arriba, o "lo que un robot debería hacer en primer lugar", mientras escriben su documento reciente, "Empoderamiento como reemplazo de las tres leyes de la robótica". Empoderamiento, un concepto inspirado en parte por la cibernética y la psicología, describe la motivación intrínseca de un agente para persistir y operar en su entorno. 

El empoderamiento puede sonar a lo mismo que temen los pensadores seguros de IA, como Nick Bostrom: poderosos sistemas autónomos que sólo se preocupan por maximizar sus propios intereses y por ende se vuelven locos. Pero Salge, que ha estudiado las interacciones sociales entre humanos y máquinas, se preguntó qué pasaría si un agente empoderado "también buscara el empoderamiento de otro". No sólo quiere que el robot se mantenga operativo, sino que también desee mantenerse así para beneficio del socio humano".

Salge y Polani se dieron cuenta de que la teoría de la información ofrece una forma de traducir este empoderamiento mutuo en un marco matemático que un agente artificial no filosofante podría poner en acción. "Una de las deficiencias de las Tres leyes de la robótica es que se basan en el lenguaje, y el lenguaje tiene un alto grado de ambigüedad", dijo Salge. "Estamos tratando de encontrar algo que sea realmente operable".

Los científicos han aplicado sus ideas y principios de empoderamiento en un entorno virtual con muy interesantes resultados al colocar a un humano y el agente robótico (virtuales), interactuando y pasando diversas pruebas para poder hacer modificaciones y aprender más. Sin embargo, señala que el principal obstáculo para escalar este modelo, y por lo que no se está aplicando a un robot real, es que es difícil calcular la capacidad de previsión de un agente y un ser humano hacia el futuro en un entorno tan complejo como el mundo real. Es por eso que utilizan el sistema de  compañero de juegos de computadora, que por supuesto es una forma mucho más simplista, lo que hace que los problemas de cómputo sean más fáciles de resolver.

Parece que el empoderamiento, idealmente, haría que nuestras máquinas actuaran como perros de servicio realmente poderosos.

De hecho, conozco a algunos científicos robóticos que modelan deliberadamente el comportamiento de un compañero-robot a partir de los perros. En realidad, que los robots nos traten como nos tratan nuestros perros es probablemente un futuro con el que todos podemos vivir.


Baudilio Sosa Mayonga

Create your own