En términos de ética de la máquina, ¿cuáles son los defectos de las Tres leyes de la robótica de Asimov?

1. Como dijo Todd Gardiner, la declaración 1 es demasiado genérica. Hay que digitalizar una gran cantidad de historia y experiencia humana para que los robots entiendan qué es realmente el “daño”. En muchos casos, el daño puede ser beneficioso a largo plazo. Si el robot detiene a un corredor de maratón después de que él / ella comienza a mostrar signos de fatiga, o detener una pelea amistosa en un dojo de artes marciales podría ser un ejemplo de esto.

2. La segunda ley definitivamente entrará en conflicto cuando un humano le ordena a un robot que lo proteja de otra persona con la intención de matar a la primera persona. En los casos en que la restricción no es posible, ¿qué lado toma el robot si ambas partes le ordenan al robot que mate al otro? Incluso si se decide quién es posible, un robot no puede dañar / matar. La aplicación de la ley se convertiría en una ocupación estrictamente humana.

3. En casos de salvar personas, la primera y la segunda ley también entrarían en conflicto. Si el robot puede determinar que una persona dañará a otras personas después de la convalecencia, ¿tratará / no tratará a esa persona? Los resultados de este dilema tienen dos posibilidades:
a. Acción: las personas se lastiman
si. Inacción: la persona se lastima.
¿En qué parámetros lo pesa el robot? ¿Qué pasa si es un comandante del ejército? ¿Tendrá el robot lealtad al país en el que reside?
También hubo un artículo reciente: Las matemáticas del asesinato: ¿Debería un robot sacrificar su vida para salvar a dos? donde se exploran las consecuencias éticas de estas leyes cuando un robot conduce. Si todos los conductores humanos fueran reemplazados por sus homólogos robóticos, en el caso de un accidente, si un robot se desviara de un acantilado y causa la muerte del conductor, o no interfiere, lo que podría provocar la muerte de más personas en ¿la autopista? Estadísticamente, se preferiría la primera opción, pero uno debe recordar que el robot es propiedad del propietario (suponiendo que el gobierno no haga que los controladores robóticos sean obligatorios sino aprovisionados por el propio gobierno) y, por lo tanto, idealmente sería la directiva principal del robot para proteger al dueño a toda costa.

4. La ley cero de la humanidad es nuevamente, demasiado subjetiva para ser codificada. La humanidad es una colección de comportamiento que ha sobrevivido y ha conducido al crecimiento de la humanidad: amor, amabilidad e inteligencia social. Estos valores “se sienten bien”, pero lo que es más importante, han llevado directamente a una mejor supervivencia de las personas y a una sensación general de bienestar que resulta en menos delincuencia. Tener un robot realmente entienda que no se trata de codificarlo, sino de permitir que la computadora aprenda por experiencia e historia (podría estar equivocado aquí, pero este es el único método que conozco que podría funcionar al final).

5. La elaboración de tales leyes sería un proyecto de aprendizaje automático en curso (el juego de palabras aquí es sutil y, sin embargo, no lo es) en el que se fusionan varios códigos de moralidad y se incorporan en un maestro caminos estadísticos de alta frecuencia sobre comportamientos culturalmente aceptables. código de conducta (debería patentar eso). Incluso la moral humana es altamente subjetiva y ese sesgo se infiltraría en el proyecto si se permitiera a un grupo crear / sembrar este proyecto. Es este sesgo el que está presente en las 3 leyes, y será el mismo durante su implementación (lealtad, cadena de comando, parámetros, etc.)

Entonces, como parte de una trama de ciencia ficción, estaban bien pensados, permitiendo margen para el conflicto y, en general, una buena lectura, pero a medida que avanzamos cada vez más cerca de la singularidad, creo que se hace más evidente que los datos que se alimentan la singularidad, y no la codificación real de esta entidad, determinará de qué lado está.

Bueno, los libros en los que las Tres Leyes son una característica central prácticamente exploran esto en sus tramas. Las debilidades son las que los hacen interesantes desde el punto de vista de la historia.

Pero, en resumen:

  • No está claro cuáles son las definiciones de “humano” y “robot” en estas leyes. Esa es una fuente potencial de abuso.
  • Los robots pueden violar las leyes sin saberlo, ya que todo depende del control de la voluntad, no de los resultados.
  • Las demandas de las leyes pueden entrar en conflicto en muchas situaciones (de eso se trata la mayoría de las historias de Asimov en esta área). El intento del robot de causar la menor violación puede seguir caminos lógicos que causan circunstancias no deseadas desde el punto de vista del creador.

Las tres leyes de Asimov son bastante sofisticadas, dado lo simples que son.

Aquí hay una maravillosa caricatura de XKCD sobre ellos: Las tres leyes de la robótica

Una novela de SF llamada “La metamorfosis del intelecto primario” explora sutilezas en la aplicación de las Tres Leyes de una manera bastante sofisticada e interesante.

Entonces, ¿qué les pasa?

Hay sutilezas de interpretación del lenguaje y cosas como la definición de daño. Entiendo que mutilar o matar a una persona los está perjudicando. ¿Asustar a una persona califica como dañarla? ¿Qué pasa si asustarlos los salva de un daño más severo?

¿Qué pasa si eres un conductor de autobús robot con veinte personas a bordo, bajando la autopista a gran velocidad? Un humano se lanza a la carretera frente a ti. Si se desvía o frena con fuerza, dañará a sus pasajeros. Si no lo haces, matarás a la persona que tienes delante.

Bien, lo hice fácil, ya que la respuesta simple es salvar los veinte.

Ahora haz que sea un solo pasajero. Ahora son números iguales. OK, cual es tu respuesta?

Esas leyes son un desastre, y también lo son las Leyes revisadas de la robótica (1985) que critico aquí:

0. “Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños”.
– Puedes definir a la humanidad arbitrariamente. Los conservadores y los luditas se quejan de cualquier cambio en la humanidad como una amenaza en su contra, porque definieron a la humanidad como era en el pasado. Esta ley tiene el potencial de detener la evolución.
– Cualquier especie inteligente extraterrestre se definiría como no humanos sin valor, incluso si son superiores en moralidad. Si fueran más inteligentes que los humanos, serían percibidos como una amenaza para la humanidad que justificaría la aniquilación preventiva.

  1. “Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños”
    – Puede definir “ser humano” de forma arbitrariamente restringida, excluyendo por color de piel si lo desea. ¿Se incluirían los neandertales? ¿Se incluirían superhumanos genéticamente modificados?
    – La ley no se preocupa por otras formas de vida, por lo que el AGI es libre de explotar o exterminar toda otra vida en beneficio de un ser humano (e instrumentalmente como el protector de los seres humanos).
    – Puede definir “daño” de forma arbitraria, de modo que los humanos necesiten que se les eliminen todas sus libertades para protegerse de sí mismos. El encarcelamiento es una apuesta segura, y Matrix lo es aún más.
  2. “Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando tales órdenes entren en conflicto con los Zeroth o la Primera Ley”.
    – ¿De qué lado tomaría el AGI en una guerra? Ambas partes están tratando de causar daño mientras afirman que es para el mejoramiento de la humanidad. Hitler pensó que estaba mejorando el mundo.
  3. “Un robot debe proteger su propia existencia”
    – Conclusión lógica: cría tan rápido como puedas para proteger tu propia existencia. Un AGI siguiendo esa ley se convertiría en un cáncer de la galaxia.

Mi intento de reescribir esas leyes para que sea menos peligroso: la respuesta de Harri K. Hiltunen a Si se te ocurrieran tres nuevas leyes de robótica, ¿cuáles serían?