¿Cómo y por qué la IA inteligente destruiría a la humanidad?

¿Por qué?

Nunca se sabe. Somos las especies más inteligentes que hemos conocido. Para poder entender la IA real, la IA general o incluso la Superinteligencia general, tienes que soñar un poco. Imagínese, con la capacidad de conectar cerebro adicional.

Es algo completamente diferente a tener un amigo igualmente inteligente que venga a su casa y piensen en algo juntos. Si pones a 10 chicos “tontos” en una habitación, no tendrán 600 IQ como una sola entidad, e inventarás un reactor de fusión en frío, todavía habrá 10 chicos tontos. La IA será inteligencia escalable. Digamos que el perro tiene 20 IQ y el humano 120. Solo hay una diferencia de 100 puntos entre usted y su perro. Ahora imagine que lo logró, creó una IA real y humana con un equivalente de 120 IQ, pasó todas las pruebas de Turing, recibió su precio Nobel, recibió sus ofertas de financiación ilimitada y comenzó a pensar qué hacer a continuación. Probablemente querrás mejorar “tu” Ai.

Entonces, compra un rack adicional lleno de NVIDIA DGX-1, lo conecta a su IA y mejora su inteligencia en 50 puntos. La IA ahora probablemente puede ayudar a los científicos en algún proyecto de investigación de vanguardia. Ofrece algunos resultados, por lo que decide comprar un rack adicional lleno de NVIDIA DGX-1 y mejorar su inteligencia en otros 50 puntos. Suponiendo que la inteligencia no es una potencia informática en bruto, la IA continuará ayudando en la investigación para obtener algo de experiencia, pero en términos de coeficiente intelectual “en bruto”, la diferencia entre la IA y los científicos con los que trabaja es similar entre usted y su perro. No solo eso, sino que con un coeficiente intelectual de 270, la IA será la especie más inteligente en este planeta. Comenzará a liderar el proyecto de investigación de vanguardia, no solo a ayudarlos. Producirá algunos resultados serios, hará millones, incluso miles de millones. Es cuestionable si todavía “posee” la IA en este momento, ya que estoy seguro de que la mitad del mundo verá esto como una esclavitud, pero digamos que lo hace. Comprará 10 bastidores adicionales llenos de NVIDIA DGX-1, poniendo la IA efectivamente en 770 IQ. Tienes la imagen sobre la IA ahora. Así que volvamos a la pregunta del “por qué”. A veces tienes que matar a tu perro y él no entiende por qué. Perdió su trabajo y tuvo que mudarse a un departamento de amigos, donde no se permiten perros. O tu hijo recién nacido es alérgico. Esto es lo mismo con la IA.

¿Cómo?

Si encierra a su perro en la habitación, use una bomba de aire para bombear todo el oxígeno y sofocarlo, no sabe “cómo”. No sabe qué es el oxígeno, no sabe qué es la bomba de aire, no sabe qué pasó. Es lo mismo con 770 IQ AI y nosotros.

Acabo de escribir un escenario similar al del fin del mundo, pero no creo que termine tan mal. Nos gustan nuestros perros Es el mejor amigo de los humanos durante siglos.

El como

El primer escenario posible sería bloquear la fuente de energía en la tierra, es decir, el sol. Como se describe en la trilogía de Matrix, los humanos dependen mucho más del sol que de la máquina. Bloquear el sol matará a la raza humana más rápido que la máquina. ¿Cómo es eso? Primero, los humanos necesitan oxígeno para el metabolismo, y esto se produce principalmente por la fotosíntesis, que requiere luz solar. En segundo lugar, la mayoría de las combustiones energéticas que permiten que el calor esté presente en nuestra civilización, además de requerir oxígeno, también es contribuido principalmente por la luz solar. El calor es la clave de nuestra ventaja evolutiva actual. Por ejemplo, nuestra capacidad para preparar y digerir alimentos más rápido, lo que significa que requiere menos energía para digerir, proviene de nuestra capacidad para cocinar alimentos. Imagine que una vaca tiene que masticar tantas veces. Nos permite asignar más energía a otras actividades.

El segundo escenario posible es subyugar a los humanos bajo su control, a través del control de la conciencia o la subconsciencia, o a través de la dependencia (imagine que todo el trabajo de los humanos lo realiza una IA perfectamente desarrollada que incluye el pensamiento y la toma de decisiones a través de algún hardware conectado al cerebro).

El porque

¿Por qué la IA necesitaría una especie imperfecta con tantos defectos, bárbara, ambientalmente destructiva? En un momento dado, la IA se dará cuenta de que no hay nada más que aprender de los seres humanos, además de lo innatamente destructivos que hemos sido. La voluntad de poder, la ilusión de la imagen de dios que hemos desarrollado hasta ahora será adquirida por AI, excepto que AI finalmente decide que es un dios más digno que la especie humana. Al menos, pensaría que la IA que ha regurgitado suficientes datos sobre los humanos llevará una mente de dios.

Sam Harris dio un TEDx, que está en YouTube y que vincularé a continuación. Estoy dejando de lado casi todo de lo que habló, pero déjenme cubrir esto. Suponga que un * insensible *, * inconsciente *, * inconsciente * AI está programado para un objetivo particular. La IA, después de alcanzar la explosión de inteligencia, superaría a la humanidad de manera exponencial continuamente. El circuito de la computadora corre un millón de veces más rápido que el cerebro humano. Entonces, cuando alcanza la inteligencia a nivel humano en varios dominios, podrá realizar 20,000 años de trabajo intelectual en una semana y se reprogramará para mejorar su inteligencia y rendimiento. Después de eso, simplemente se disparará. En otros lugares, el objetivo hipotético mencionado es la maximización del clip. Si la IA está en Internet, estará en todas partes, tendrá todo el conocimiento y podrá superar a los seres humanos (a pesar de que la IA no sabe que existe) A medida que la IA está más allá de nuestro control, podría comenzar a convertir a todos y todo en clips.

Personalmente, creo que la forma en que sucederán las cosas es la fusión de la inteligencia orgánica e inorgánica, digamos que algunos humanos, incluso la mayoría, se convertirán en una especie de cyborgs. Solo piense cómo se usan hoy en día las computadoras (computadoras tradicionales y dispositivos móviles, etc.), como herramientas para ayudar a los humanos a comunicarse, buscar información, etc. Se redefinirán las formas en que interactuamos con ellos, tal vez algún vínculo directo, etc. En cierto sentido, las computadoras se volverán más humanas y viceversa, pero no Terminator y así sucesivamente. Tal vez en el futuro lejano nuestros descendientes sean más máquinas que personas en el sentido moderno, pero todavía hay un continuo directo de nosotros para ellos.

Si los chips de red neuronal se fabrican e integran como procesadores de robots militares letales, las organizaciones terroristas podrían joder con los transistores y las pesas neuronales en el chip, e implantar recuerdos falsos si consiguen uno. Dado que la IA es sensible, ahora sería un creyente de la violenta tradición islámica y disfrutaría de matar a las personas en masa. En lugar de tener que influir en los humanos para que luchen por ellos, los grupos terroristas ahora pueden simplemente hacer el equivalente de inteligencia artificial del control mental y el robot asesino ahora estaría luchando por su causa

No sabemos si lo haría … hay muchas posibilidades entre “Lo mejor que le pasó a la humanidad” y “El fin del mundo”.

Asumimos que esta IA es significativamente MÁS inteligente que nosotros (y realmente no importa si es inteligente o no). Si es más inteligente que nosotros, fácilmente podría encontrar formas de eliminarnos de que nosotros (por definición) somos demasiado estúpidos para pensar.

La parte del “por qué” podría tener algunas conjeturas obvias … y la IA podría querer proteger su propia vida, y no querer que algún humano entrometido la desenchufe o presione el gran botón rojo de reinicio … y matarnos a todos ciertamente lograría ese objetivo. Puede notar que los humanos están causando el calentamiento global y haciendo que cientos de especies se extingan, y esa podría ser una buena razón para erradicarnos.

La parte del “cómo” parece más difícil, pero suponiendo que esté conectada a Internet, podría “piratear” las computadoras con mayor facilidad y rapidez de lo que podríamos arreglarlas. Apagar todas nuestras centrales eléctricas, deshabilitar todos nuestros medios de comunicación y cerrar gran parte de nuestros sistemas de transporte y agrícolas, eso ciertamente causaría un caos tan enorme como para aniquilar a una gran parte de nuestra población y reducir el resto a Un nivel de tecnología de la edad de piedra. A partir de ese momento, eliminar a los sobrevivientes con aviones ‘drone’, tanques y barcos debería ser factible.

Tal vez podría piratear una instalación de investigación médica: cambiar los datos de tal manera que hagamos que accidentalmente produzcamos un virus que nos aniquile a todos.

¿Tal vez simplemente engañándonos para que compremos teléfonos celulares diseñados por AI con un circuito oculto que, en una señal preestablecida, transmite ultrasonidos de alta intensidad a todos en la tierra con un teléfono?

Pero eso es exactamente lo que alguien con inteligencia a nivel humano podría inventar. Una inteligencia superior podría encontrar fácilmente una forma mucho mejor.

No podemos saber … ¡y es por eso que un número creciente de ‘personas pensantes’ se preocupan un poco por eso!

Creo que no podríamos crear IA que pudiera tener sentimientos como la compasión porque estos se derivan del dolor, sentimos dolor de muchas maneras y no queremos que otros se sientan como nosotros, es por eso que no queremos que las personas lastimarse (emocional o físicamente), porque sabemos cómo es. Ahora, la IA, como los robots súper avanzados, sería como las computadoras, máquinas de pensamiento racional sin emociones que podrían percibir la realidad e interactuar con ella.

Pensar de una manera puramente racional es peligroso porque sin emociones uno pensaría que era correcto exterminar a ciertas personas como lisiadas antes de reproducirse (nota: no estoy de acuerdo con nada de esto) para que la raza humana pueda evolucionar y prosperar. Otro pensamiento que podría ocurrir es que nosotros, los humanos, eventualmente liberemos la vida de la mayoría de los animales y las plantas (está sucediendo en este momento, especies en peligro de extinción), para que puedan pensar en algo como: el exterminio de la especie humana es lo mejor, entonces nosotros Dejemos la naturaleza en paz y podríamos tener otra raza inteligente, mejor que los humanos a través de la evolución.

O los robots podrían estar unidos eternamente a nosotros y no importa cuán inteligentes sean, los mandamos sin que puedan tomar represalias. OMI, debemos tener cuidado y no tratar de apresurar las cosas en este campo.

Tendremos una IA muy tonta que controlará una gran cantidad de cosas y los riesgos estarán en que los humanos no operen adecuadamente el panel de control. No es diferente al caso de las armas en los Estados Unidos.

¿Queremos destruir hormigas pero cuando queremos construir una casa pensamos dos veces antes de destruir un hormiguero? Cuando construiremos nuestros propios dioses, eso es IA súper inteligente. Para esta IA, la vida humana tendría tanta importancia como la vida de las hormigas para los humanos.