Si los robots tuvieran el control del mundo, ¿sería bueno ya que obligarán a todos a ser amables entre sí y terminarán con cualquiera que cometa delitos de mayor tasa como el secuestro?

Eso es algo difícil de decir. Probablemente no.

Tus robots deberán ser controlados por una (o más) Inteligencia General Artificial (-es). De ninguna manera es fácil saber qué hará un AGI, incluso si logramos darle una función de utilidad (básicamente un conjunto de valores) que incluye BNBR o el sistema legal. La razón es que es increíblemente difícil describir lo que significa BNBR en la práctica sin una puerta trasera. No se puede describir en un conjunto completo de reglas que se pueden poner en un algoritmo. Ese es un problema con el que los abogados tuvimos que trabajar durante los últimos miles de años, y por eso es por eso que existimos después de todo. No hay leyes, no hay reglas que funcionen en todas las circunstancias. Algunos tienen resultados catastróficos en ciertas circunstancias. Y de cualquier manera dependen de los valores humanos. En cualquier caso, a menudo es posible adherirse a las palabras de una regla sin seguirla realmente.

Tome una regla simple como: “los humanos no pueden matar a otros humanos” (“No matarás” desde el punto de vista de la AGI). Fácil, verdad? Ahora ponga en práctica: ¿Puede un gobierno comenzar una guerra? ¿Qué pasa si tal guerra es una guerra justa? ¿Qué pasa con una situación de operaciones especiales donde las víctimas son posibles pero, a los ojos de los humanos, se justifica teniendo en cuenta el objetivo? ¿Y qué podría una AGI no decidir que dado que nadie puede lastimar a nadie más una vez que están muertos, podría ser una buena idea matar a todos ellos mismos?

Tener la vigilancia realizada por robots / AGI me parece una receta para el desastre. Nos saldríamos de control más temprano que tarde.

Si los robots estuvieran a cargo del mundo, no perderían su tiempo vigilando a los humanos. Seríamos redundantes y una carga para los recursos. Sería más práctico cosecharnos para cualquier subproducto útil.

Mejor no dejarlos tener el control.

La pregunta es, si los robots tuvieran el control del mundo, ¿sería bueno ya que obligarán a todos a ser amables entre sí y terminarán con cualquiera que cometa delitos de mayor tasa como el secuestro?

Programaría mi robot para que me permitiera mantener esclavas sexuales. O tal vez solo déjame en paz y hornea un pastel de chocolate con comida del diablo de vez en cuando. Lo más probable es que sea el pastel.