sábado, 19 de mayo de 2018

La ética de las máquinas según Asimov


1. Introducción (*)

El accionar autónomo de las máquinas es una de las muchas problemáticas ya exploradas en el género de ciencia ficción. No de la forma anticipada por la literatura, las ramificaciones de este fenómeno comienzan a manifestarse en nuestras vidas cotidianas. Vaya este artículo como una mera enunciación del problema.

1.1 Agentes autónomos y éticas

La regulación ética de los robots originalmente propuesta por Isaac Asimov en su relato 'Runaround' de 1942 (con una imprecisa ayuda de John W. Campbell) [1] ha tomado una inesperada relevancia en el campo de vehículos autónomos que ya circulan por las calles [2]. Las siguientes Leyes (las traducciones pueden diferir entre sí) regulan el comportamiento de los robots literarios de Asimov:

  1. Un robot no pude causar daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos exceptuando a aquellas que entrasen en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia siempre y cuando dicha protección no entre en conflicto con la Primera o con la Segunda Ley.


(he omitido la Ley Cero para simplificar la discusión). Estas reglas pertenecen a la rama de la ética conocida como ética deontológica: un juego de reglas que el agente (en este caso la máquina) no puede violar [3]. Mario Bunge observa en [4] que aplicada a los seres humanos esta ética es la más propia de los regímenes no-democráticos. En la fértil narrativa de Asimov sobre este tema [5] los conflictos no provienen de las leyes en sí mismas o de los robots, sino en general de humanos que descuidadamente dan órdenes problemáticas para esta programación.

Isaac Asimov

  Los vehículos autónomos han tenido un rápido avance en los últimos años, comenzando paulatinamente a establecerse a nivel comercial. No estamos lidiando ya con las problemáticas del robot literario de Asimov, pero se espera que el vehículo autónomo más tarde o más temprano se desempeñe en alguna situación en la que el piloto o un transeúnte están en peligro; es decir, al momento de generar o transferir peligro hacia un ser humano se convierten en máquinas éticamente activas sin que sea necesaria la discusión sobre su eventual grado de inteligencia (si es que tal cosa es posible). Es decir, se espera que una máquina se comporte con algún criterio ético cuando no hay ningún humano disponible para decidir. Nadie está hablando de una ética autónoma en el sentido de haberla destilado el agente por sí mismo. En virtud de lo que él llamó 'el complejo de Frankenstein', Asimov inventa las Tres Leyes de la Robótica como medidas de seguridad entendiéndolas como las tres reglas básicas de seguridad de cualquier herramienta y es por eso posible extender algunas de sus ideas al campo de los vehículos autónomos entendiendo al vehículo como un robot. En efecto, si yo tengo una sierra eléctrica deseo que cumpla con ciertas cosas:

  1. Que evite cortarme un dedo accidentalmente al usarla.
  2. Que efectivamente corte madera cuando lo deseo, salvo que eso me ponga en riesgo.
  3. Que en lo posible no se rompa haciendo su trabajo, salvo que sea para preservarme.

El código de conducta es conferido por el diseñador, pero el diseñador no necesariamente está presente cuando su máquina es éticamente activa. Llamaremos al estudio del problema de este comportamiento ético autónomo como ética de las máquinas, parte a su vez de de la ética de los diseñadores (que es problema para un tratado aparte). Así, una sierra eléctrica cumple con una cierta ética (deontológica) de las máquinas muy rudimentaria.
Otra teoría moral estudiada para los agentes autónomos tipo vehículos es el utilitarismo [6]. En este marco se entiende que una acción es moral si su resultado (o su resultado esperado en el caso de un vehículo) maximiza cierta utilidad. También se han estudiado enfoques kantianos y smithianos al problema, pero la ética deontológica y el utilitarismo han resultado las más ventajosos en el campo [2, y referencias citadas].

Portada del número 29 de 'Astounding Science Fiction', donde se publicó originalmente el relato 'Runaround'.

1.2 Limitaciones

Tanto la ética deontológica como el utilitarismo ofrecen ventajas pero también problemas no menores a resolver. La desventaja del utilitarismo reside en la dificultad de establecer un cuantificador para sus resultados. Por ejemplo, basándose en la prima de los seguros de vida, un vehículo utilitarista puede considerar apropiado atropellar a un motociclista con casco en vez de uno sin casco. Esta ética se basa entonces en intereses colectivos descartando la equidad: un grupo gana (la gente con casco) mientras otro pierde (la gente sin casco).
En el caso de la ética deontológica (Asimov) se enfrenta el llamado problema del sentido común: las máquinas son incapaces de interpretaciones no-literales; al menos las máquinas actuales carecen por definición de la plasticidad que demuestran los seres humanos. Por ejemplo, en la referencia [7] se presenta el caso de un vehículo que se encuentra con una rama cortando su mano de la calle. En ausencia de tráfico, un piloto humano puede ir a contramano para sortear el obstáculo. Sin embargo, un vehículo autónomo cuyo único rule of law son las leyes de tránsito entraría en un estado de espera indefinida hasta que alguien retire la rama del camino. Si por ejemplo bastase con las Tres Leyes (cuya implementación de por sí sería muy compleja), un vehículo podría omitir el frenado antes de un choque para evitar que los pasajeros sufran de whiplash (esguince cervical); exponiéndolos a un destino potencialmente peor.

Conclusiones y problemas abiertos

Isaac Asimov en sus relatos de robots observa con mucha lucidez los problemas que una tecnología basada en el comportamiento de un agente artificial autónomo tiene en su interacción con los seres humanos. Idea en su literatura una segregación entre agentes libres (los humanos) y agentes autónomos atados a una ética deontológica (los robots siguiendo sin escape las Leyes de la Robótica). Las limitaciones de la ética deontológica son en el fondo la base de la riqueza de su narrativa sobre los robots. No son estos relatos un plano sobre el cual desarrollar una tecnología en el mundo real, sino, en el mejor de los casos, una anticipación de problemáticas (advertencias).

El comportamiento ético de los agentes autónomos es una imposición de los diseñadores para preservarse a sí mismos del uso de sus propias herramientas; eso es común a los vehículos y a los robots de Asimov. Sin embargo, no queda claro en términos prácticos quién es, en última instancia, el ente éticamente responsable de una máquina éticamente activa, en particular cuando son muchos los procesos y variables en su desarrollo. Un vehículo autónomo puede verse forzado a elegir preservar la integridad del piloto versus un peatón. A quién elige y con qué criterio es el problema actual de los programadores. Y si hay un dolo a un peatón, ¿quién es responsable? ¿el piloto que no maneja, el dueño del auto, el fabricante del auto, el programador general, el programador de las dos líneas de código responsables en ese momento? La solución narrativa de Asimov es que la totalidad de los robots era propiedad y responsabilidad del fabricante, y que sólo se los daba en alquiler, desligando a los usuarios de cualquier problema. Alguien debe haber prestado atención a esta detalle: la flota autónoma de la empresa Uber básicamente tiene ese esquema de responsabilidad. 

Referencias

[1] Asimov, I. (1942), 'Runaround', Astounding Science Fiction 29(1), 94--103.

[2] Goodall, N. J. (2014), Machine Ethics and Automated Vehicles'Road Vehicle Automation', Springer International Publishing, pp. 93--102.

[3] Goodall, N. (2014), 'Ethical Decision Making During Automated Vehicle Crashes', Transportation Research Record: Journal of the Transportation Research Board 2424, 58--65.

[4] Bunge, M. (2001), Diccionario de filosofía (Spanish Edition), Siglo XXI Editores México.

[5] Asimov, I. (1983), The Complete Robot (Robot Series), Voyager.

[6] Goodall, N. J. (Forthcoming, 2014) 'Ethical decision making during automated vehicle crashes'. Transp. Res. Rec.: J Transp. Res. Board.

[7] Lin P (2013) The ethics of autonomous cars. The Atlantic, 08-Oct-2013. [Online]. 

[8] Clarke, R. (1993), 'Asimov's laws of robotics: implications for information technology-Part I', Computer 26(12), 53--61.

[9] Clarke, R. (1994), 'Asimov's laws of robotics: Implications for information technology. 2', Computer 27(1), 57--66.

[10] Rzepka, R. & Araki, K. (2005), What statistics could do for ethics?-the idea of common sense processing based safety valve, in 'AAAI Fall Symposium on Machine Ethics, Technical Report FS-05-06', pp. 85--87.

[11] Anderson, S. L. (2007), 'Asimov's three laws of robotics and machine metaethics', AI & SOCIETY 22(4), 477--493.

[12] Anderson, M. & Anderson, S. L. (2007), 'Machine ethics: Creating an ethical intelligent agent', AI Magazine 28(4), 15.

[13] McCauley, L. (2007), 'The Frankenstein Complex and Asimov’s Three Laws', University of Memphis.

[14] Arkin, R. C. (2008), Governing lethal behavior, in 'Proceedings of the 3rd international conference on Human robot interaction - HRI 08', ACM Press, .

[15] Murphy, R. & Woods, D. D. (2009), 'Beyond Asimov: The Three Laws of Responsible Robotics', IEEE Intelligent Systems 24(4), 14--20.

[16] Asimov, I. (1981), Asimov on Science Fiction, Doubleday.

(*) Este artículo fue originalmente presentado en Pórtico IV, Encuentro de Ciencia-Ficción.

No hay comentarios:

Publicar un comentario