Si un robot mata a un hombre, ¿quién es responsable del crimen (como Terminator)?
Responder:
Lo que estás preguntando es lo más imposible que puede suceder.
Hay leyes básicas que deben seguirse al diseñar robots. Entre ellos, los tres primeros son
- Si se le permitiera hacer lo que quisiera durante 24 horas sin consecuencias legales, ¿qué haría y por qué lo haría?
- ¿Qué pasaría si un Molly sin talento muriera y viviera un asombroso Sirius?
- Si Trump nominara a Abraham Lincoln como Director del FBI o para la Corte Suprema, ¿habría una fuerte resistencia?
- Experimento de pensamiento: ¿cómo se asegura de que nunca se use un arma que borre a alguien de la historia (incluidos todos los rastros y recuerdos de él o ella)?
- Si fuera el fin del mundo, ¿a quién salvarías?
“Las tres leyes de la robótica” de Isaac Asimov
- Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.
- Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
- Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley.
Fuente: “Las tres leyes de la robótica” de Isaac Asimov
Entonces, digamos que incluso si un robot mata a un ser humano o un objeto vivo, significa que el diseñador del robot o su creador es tonto o ha creado un monstruo que no se puede detener.
Entonces, ningún robot dañaría o mataría a otro ser en su curso completo de existencia.