1. Como dijo Todd Gardiner, la declaración 1 es demasiado genérica. Hay que digitalizar una gran cantidad de historia y experiencia humana para que los robots entiendan qué es realmente el “daño”. En muchos casos, el daño puede ser beneficioso a largo plazo. Si el robot detiene a un corredor de maratón después de que él / ella comienza a mostrar signos de fatiga, o detener una pelea amistosa en un dojo de artes marciales podría ser un ejemplo de esto.
2. La segunda ley definitivamente entrará en conflicto cuando un humano le ordena a un robot que lo proteja de otra persona con la intención de matar a la primera persona. En los casos en que la restricción no es posible, ¿qué lado toma el robot si ambas partes le ordenan al robot que mate al otro? Incluso si se decide quién es posible, un robot no puede dañar / matar. La aplicación de la ley se convertiría en una ocupación estrictamente humana.
3. En casos de salvar personas, la primera y la segunda ley también entrarían en conflicto. Si el robot puede determinar que una persona dañará a otras personas después de la convalecencia, ¿tratará / no tratará a esa persona? Los resultados de este dilema tienen dos posibilidades:
a. Acción: las personas se lastiman
si. Inacción: la persona se lastima.
¿En qué parámetros lo pesa el robot? ¿Qué pasa si es un comandante del ejército? ¿Tendrá el robot lealtad al país en el que reside?
También hubo un artículo reciente: Las matemáticas del asesinato: ¿Debería un robot sacrificar su vida para salvar a dos? donde se exploran las consecuencias éticas de estas leyes cuando un robot conduce. Si todos los conductores humanos fueran reemplazados por sus homólogos robóticos, en el caso de un accidente, si un robot se desviara de un acantilado y causa la muerte del conductor, o no interfiere, lo que podría provocar la muerte de más personas en ¿la autopista? Estadísticamente, se preferiría la primera opción, pero uno debe recordar que el robot es propiedad del propietario (suponiendo que el gobierno no haga que los controladores robóticos sean obligatorios sino aprovisionados por el propio gobierno) y, por lo tanto, idealmente sería la directiva principal del robot para proteger al dueño a toda costa.
4. La ley cero de la humanidad es nuevamente, demasiado subjetiva para ser codificada. La humanidad es una colección de comportamiento que ha sobrevivido y ha conducido al crecimiento de la humanidad: amor, amabilidad e inteligencia social. Estos valores “se sienten bien”, pero lo que es más importante, han llevado directamente a una mejor supervivencia de las personas y a una sensación general de bienestar que resulta en menos delincuencia. Tener un robot realmente entienda que no se trata de codificarlo, sino de permitir que la computadora aprenda por experiencia e historia (podría estar equivocado aquí, pero este es el único método que conozco que podría funcionar al final).
- ¿Cuál es tu trabajo favorito de ciencia ficción?
- ¿Es The Matrix la franquicia de Hollywood más complicada? Quiero decir, ¿realmente vale la pena verlo, o es solo un montón de cosas súper locas de ciencia ficción?
- ¿Cuáles son las mejores películas de ciencia ficción de 2010?
- ¿Cuál es el “juego” homónimo en el juego de Ender?
- ¿Debo leer REAMDE?
5. La elaboración de tales leyes sería un proyecto de aprendizaje automático en curso (el juego de palabras aquí es sutil y, sin embargo, no lo es) en el que se fusionan varios códigos de moralidad y se incorporan en un maestro caminos estadísticos de alta frecuencia sobre comportamientos culturalmente aceptables. código de conducta (debería patentar eso). Incluso la moral humana es altamente subjetiva y ese sesgo se infiltraría en el proyecto si se permitiera a un grupo crear / sembrar este proyecto. Es este sesgo el que está presente en las 3 leyes, y será el mismo durante su implementación (lealtad, cadena de comando, parámetros, etc.)
Entonces, como parte de una trama de ciencia ficción, estaban bien pensados, permitiendo margen para el conflicto y, en general, una buena lectura, pero a medida que avanzamos cada vez más cerca de la singularidad, creo que se hace más evidente que los datos que se alimentan la singularidad, y no la codificación real de esta entidad, determinará de qué lado está.