sábado, 16 de marzo de 2013

Las 3 leyes de Asimov de la robótica actual


Aprovechando este espacio de discusión sobre temas concernientes a la robótica, me gustaría comentar el artículo ‘Beyond Asimov: The Three Laws of Responsible Robotics’, escrito por los investigadores R. Murphy y D. Woods. Ambos autores, trabajan en el diseño e implementación de sistemas cognitivos integrados, tarea de naturaleza multidisciplinar, donde tanto personas de diferente formación académica como elementos tecnológicos (algunos de ellos con alto nivel de autonomía como los robots) trabajan conjuntamente para alcanzar un fin común. En dicho trabajo, temas como la ética y la moral, la confianza o los límites del rendimiento saltan a la palestra y abren un rico espacio de discusión.

Tomando como punto inicial las literarias Tres Leyes de la Robótica de Asimov, basadas en una moralidad funcional, estos autores proponen tres leyes alternativas que pueden aplicarse a las capacidades y funciones que tienen los robots hoy en día; leyes que hacen bastante hincapié en la responsabilidad social y legal que tiene el ser humano sobre el comportamiento del robot.

Pero antes, recordemos brevemente los enunciados que resumían las famosas leyes de Asimov:

Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.
Según los autores del artículo, estas leyes asumen que los robots tienen capacidades y conocimientos suficientes como para tomar decisiones de orden moral. Este hecho está aún lejos de producirse y ni siquiera tenemos garantías de que se vaya a conseguir en el futuro. De hecho, los autores ponen en duda el objetivo de construir máquinas que participen significativamente en contextos conversacionales totalmente abiertos, sobre todo en aplicaciones reales. ¿Queremos realmente robots morales? ¿Le interesa a la robótica militar, grandes financiadores del desarrollo de la robótica, progresar en estos planteamientos?
Para salvar esta inadecuación entre el contexto actual y los robots ficticios de Asimov, los autores del artículo proponen tres leyes alternativas orientadas a regular equipos de personas y robots que están a cargo de una misma tarea, a diferencia del marco planteado por Asimov, que se centraba solamente en regular el comportamiento del robot:

Un ser humano no debe poner un robot en funcionamiento sin que el equipo de trabajo hombre-robot cumpla los más altos estándares de profesionales y legales en seguridad y ética (equiparables a los de un equipo de personas).
Un robot debe responder apropiadamente, según su papel en el equipo.
Un robot debe tener la suficiente autonomía para proteger su propia existencia, siempre que dicha autonomía permita la transferencia de control a otros miembros del equipo de manera fluida y según la primera y la segunda ley.
Como se puede observar de su análisis, estas tres nuevas leyes afirman implícitamente que los diseñadores, fabricantes y usuarios finales son los responsables de cualquier daño o falta provocada por los robots, y descargan a la máquina de cualquier tipo de responsabilidad social. En efecto, parece que esta es la situación más razonable teniendo en cuenta el nivel de desarrollo cognitivo en que se encuentran los robots hoy en día, sobre todo en robots industriales, pero ¿se sostienen estas leyes que acabamos de mencionar en robots sociales? ¿hasta qué punto la sociedad está interesada, o necesita que los robots tengan capacidades que les permitan decidir por sí mismos y tomar responsabilidad de sus actos?

Adrián Jiménez-González

No hay comentarios: