Escrito por Mark Jeftovic a través de BombThrower.com

Visto en: ZeroHedge

Reflexionando sobre nuestros amos supremos de robots y el escenario perdido

Ahora que  ChatGPT  ha explotado en el escenario, hay un renovado entusiasmo por la Inteligencia Artificial (IA). Cada vez que la IA captura la imaginación del público, estamos sujetos a conjeturas desenfrenadas sobre cómo inevitablemente se hará cargo del futuro y cambiará nuestras vidas.

Se nos hace creer que la IA marcará el comienzo de una era de señores supremos hiperinteligentes, tan avanzados más allá de nuestras propias habilidades cognitivas toscas y analógicas que la pregunta existencial del futuro se centrará en:

  • ¿Cuánto poder o derechos les conferimos a estos seres?
  • ¿Actuarán con benevolencia o maldad hacia nosotros?

Pero estas preguntas presuponen una suposición central sobre la IA que todo el mundo está de acuerdo en que no es cierta ahora, pero que inevitablemente se hará realidad en el futuro, después de algunas iteraciones más de la Ley de Moore…

Esa es la idea de que la IA logrará  una inteligencia artificial general  , y con eso está implícito cierto grado  de sensibilidad  (de lo contrario, no hay nada a lo que otorgar derechos  ) .

El  artículo de Newsweek a la derecha  en las imágenes de arriba es del futurista transhumanista Zoltan Istvan. Describe cómo los especialistas en ética de la IA están divididos sobre si se deben otorgar derechos a los futuros robots hiperinteligentes.

Por un lado, al no otorgar derechos humanos a los robots que poseen AGI (inteligencia general a la par de los humanos), estamos cometiendo un “error de derechos civiles” del que nos arrepentiremos en el futuro.

A esto se oponen aquellos que afirman que los robots son máquinas y nunca requerirán derechos, porque no son sensibles (aquí es donde aterrizo, y les diré por qué a continuación).

Otros creen en un término medio en el que a algunos robots que muestren inteligencia general se les otorgarían algunos derechos  «dependiendo de su capacidad, sistemas morales, contribuciones a la sociedad»   (lo que me recuerda un poco a una cláusula de «tres/quintos»).

Pero, en general, Istvar parece suponer que la IA logrará una superinteligencia y se convertirá en seres muy superiores en términos de capacidad intelectual a nosotros, los torpes sacos de carne de la humanidad.

Eso nos deja con tres posibles caminos a seguir:

#1 Apela a la benevolencia de la superinteligencia de la IA

“Dada la posibilidad de recompensa o castigo, si la inteligencia de las máquinas finalmente se convierte en algo así como un dios de la IA que puede manipular y extender la vida humana para bien o para mal, entonces la gente debería comenzar a considerar de inmediato cómo le gustaría que nuestro futuro señor supremo llegara a existir. y tratado. Por lo tanto, la forma en que los humanos tratan el desarrollo de la IA hoy en día, y si le damos derechos y respeto a los robots en un futuro cercano, podría marcar la diferencia en cómo se tratará a nuestra especie algún día”.

Esta es una variación de la apuesta de Pascal, una construcción prototípica de la teoría del juego que concluyó que las consecuencias de creer en Dios y equivocarse (la nada) eran mejores que equivocarse al no creer (condenación eterna).

#2 Hopio. Tal vez la IA simplemente nos deje en paz.

Sin embargo, según Istvan,  «dada nuestra influencia y la destrucción ambiental que causamos en el planeta Tierra»,  podemos  «agraviar fácilmente a la IA»  , que tomará el asunto en sus propias manos para corregir los asuntos, y a nosotros. Este último escenario es una variación del basilisco de Roko, que también se menciona en la pieza de Istvan.

Basilisk de Roko fue un experimento mental que surgió de LessWrong  del programador Eliezer S. Yudkowsky   que sacudió los cimientos del sitio y asustó a los beejeesus de los nerds súper inteligentes.

Es “¡El experimento mental más aterrador de todos los tiempos!”,   hiperventila la revista Slate .

Todavía informa el pensamiento de Yudkowsky hasta el día de hoy. Recientemente promulgó el  «Problema de alineación»  , que asume que la humanidad inevitablemente creará IA superinteligentes y que inevitablemente nos destruirán. También podemos  «morir con dignidad»,  ya que todos estamos condenados de todos modos:

“tl; dr: Es obvio en este punto que la humanidad no va a resolver el problema de la alineación, ni siquiera se esforzará mucho, o incluso saldrá con mucha lucha. Dado que la supervivencia es inalcanzable, debemos cambiar el enfoque de nuestros esfuerzos para ayudar a la humanidad a morir con un poco más de dignidad”.

Este tipo de construcciones de pensamiento en torno a la inevitabilidad de las IA omnipotentes son simplemente  reafirmaciones  del  Argumento Ontológico de San Anselmo . Formulado por primera vez por San Anselmo de Canterbury  en el siglo XI.  Si bien es una hazaña impresionante de la lógica similar  a las paradojas de Zeno , es simplemente un argumento circular de que Dios debe existir:

“Dios es el ser más grande que puede concebirse. Si tal ser existe solo en la mente y no en la realidad, entonces se puede concebir un ser mayor, uno que existe tanto en la mente como en la realidad”.

En términos más simples:

Dios es el ser más perfecto que podamos imaginar, y es más perfecto existir en la realidad que solo en nuestra imaginación. Por lo tanto, Dios debe existir en la realidad.
— a través de la sesión de ChatGBT 72b43f3e-043f-4db2-aca9-63a76b7945c9

Dale a Dios una racha mala y tendrás el basilisco de Roko. O Skynet.

#3 Subir nuestra conciencia a la nube y fusionarnos con los robots

Aquí Istvan sugiere que nos fusionemos con la IA e intentemos guiarla.

Una opción final es que intentemos fusionarnos con la IA temprana cargando nuestras mentes en ella, como sugirió Elon Musk. La esperanza es que las personas puedan convertirse en una con la IA y guiarla adecuadamente para que sea amable con los humanos antes de que se vuelva demasiado poderosa. Sin embargo, no hay garantía de que tengamos éxito y, a la larga, podría hacer que la IA se sienta violada.

Esta idea se atribuye a Elon Musk, aunque estoy seguro de que Istvan es consciente de que esta es la esencia de La Singularidad propugnada por gente como Ray Kurweil (Científico Jefe de Google) en su libro La Singularidad está Cerca. Los cosmistas rusos   estaban tratando de articular lo mismo hace más de un siglo, pero aún no tenían redes informáticas ni aprendizaje automático para proporcionar la base.

Hace años, se suponía que iba a escribir un libro sobre los peligros de este tecno-utopismo, y en él llamo a la idea de que la humanidad se fusionará con la IA y vencerá todos nuestros males, “El falso umbral”:

Lo que haría posible todo esto es el ciclo virtuoso creado por las redes informáticas digitales, impulsadas por la Ley de Moore, que incesantemente reducen a la mitad su huella física mientras duplican su poder de procesamiento; eventualmente lograríamos, y luego superaríamos, la interconectividad y el poder de procesamiento del ser humano. cerebro mismo.

Cuando eso sucedió, todas las apuestas estaban canceladas. La suposición es que en algún lugar a lo largo de este continuo, cuando se superaron los umbrales correctos de paralelismo y poder de cómputo, la mente misma saltaría fuera del proceso, emergiendo con venganza y replegándose sobre sí misma, bifurcando subprocesos aún más inteligentes que ella misma. y así sucesivamente, hasta el infinito. “Nuestro invento final” examinará el mundo, con todas sus deficiencias e ineficiencias, y siendo infinitamente más inteligente que todas las mentes humanas combinadas, resolverá todo hábilmente.

Kurzweil dice que esto podría suceder tan pronto como en 2029 y estas visiones utópicas tecnológicas casi siempre se desvían hacia alguna versión de neomarxismo basada en el  comunismo de lujo totalmente automatizado .

La singularidad como éxtasis

La expectativa de que la IA superinteligente se haga cargo de nuestros asuntos (tecnoutopismo) tiene todas las trampas de una religión. Originalmente escribí sobre  Transhumanism: The New Religion of The Coming Technocracy  en respuesta a un «artículo de opinión» del WSJ ( Looking Forward to the End of Humanity ) que  «Covid-19 ha destacado la promesa… del transhumanismo y la idea de utilizar la tecnología para superar la enfermedad, el envejecimiento y la muerte”

No se equivoquen, The Singularity tiene todas las trampas de un evento escatológico. Se diferencia de la mayoría de los impulsos cristianos o monoteístas porque somos nosotros los que estamos dando a luz a nuestros propios Dioses. Esta dinámica de usurpación (Dios, o en este caso la realidad misma), le da  un impulso claramente luciferino .

El escenario que falta es que la IA nunca sucederá

Un escenario que este artículo no considera (ni ningún otro que se mire el ombligo sobre el futuro de la IA) es que la IA no es realmente una cosa y creer que la IA sensible y consciente de sí misma se hará cargo del mundo nunca sucederá.

(En una nota al margen, diré que si la mayoría de los plebeyos se convierten en siervos algorítmicos que viven bajo crédito social y CBDC  es otra cuestión completamente diferente ).

Nuestras dudas sobre cómo lidiar con estas construcciones de software superinteligentes dependen de una sola suposición que no se puede demostrar:

Esa es la idea de que la mente es un epifenómeno de la materia.

El principio básico del cientificismo (nótese que no dije “ciencia”) es que la conciencia, la sensibilidad y la mente son subproductos de la materia. Algo que sucede cuando ciertos neuroquímicos se agitan en un cerebro y suficientes sinapsis se activan y conectan para producir la autoconciencia.

Este es el equivalente moderno del universo ptolemaico (o geocéntrico): la creencia de que la Tierra era el centro del cosmos.

Era la “ciencia establecida” de su época, y disputarla te haría quemar en la hoguera.

La realidad es que la materia es un subproducto de la conciencia, la capa base de la realidad es mental, no física. Esto se ha propugnado durante mucho tiempo (el axioma hermético «Todo es mental» que fue copiado de textos mucho más antiguos), también es la base de la mecánica cuántica.

“Considero que la conciencia es fundamental. Considero la materia como derivada de la conciencia. No podemos quedarnos atrás de la conciencia. Todo lo que hablamos, todo lo que consideramos existente, postula la conciencia”.
—Max Planck

Visto desde este punto de vista, nuestros cerebros no emiten conciencia de la misma manera que una tetera libera vapor:  son receptores  que aprovechan y filtran el sustrato subyacente de la realidad. Y si bien los fundamentos de la mecánica cuántica establecen la primacía de la conciencia, solo se puede experimentar realmente a través de  la gnosis . Para los que han tenido esa experiencia, no hay duda. Para todos los demás, solo hay woo woo New Age.

A menos que se aborde la IA con este entendimiento (y no espero que nadie se lo tome en serio), entonces podemos asumir con seguridad que la IA generalizada, sensible y consciente de sí misma, simplemente no sucederá.

Tiempo para un control de la realidad

AI es realmente la iteración actual del «automóvil volador». Algo que se usó para simbolizar el futuro que nunca sucedió. Al menos no en su forma estereotipada. Esto se debe a que la IA no es realmente  inteligencia artificial  , es  una imitación algorítmica. 

Si bien puede ser muy, muy bueno para imitar algorítmicamente a contadores, abogados, médicos, programadores, redactores publicitarios e incluso grandes maestros de ajedrez o campeones de Go, todavía no es consciente, todavía no comprende lo que  realmente  está haciendo, no tiene  conciencia. También puede ser una tostadora.

Esta es la razón por la que torturarnos con lo que son, en su esencia, construcciones en gran medida teológicas sobre resultados a los que atribuimos una inevitabilidad fuera de lugar es más que delirante, es  desquiciado .

El error se agrava cuando en realidad  damos forma a la política pública en torno a estos supuestos.

Una dinámica muy similar se está desarrollando en la narrativa de la «crisis climática», en la que nos iluminan con construcciones hipotéticas de modelos informáticos a los que se les atribuye una inevitabilidad que requiere que toda la humanidad se reordene a su alrededor. Las “reconfiguraciones” o “recalibraciones” propuestas de la sociedad (para usar eufemismos al estilo WEF) están invariablemente en líneas neomarxistas y tecnocráticas.

Lo primero es lo primero: recuperemos nuestros propios derechos ahora mismo.

La ironía de toda esta introspección sobre cómo tratamos a las IA y qué derechos deberían tener es que aquí, en la Era Covid,  acabamos de rescindir nuestros propios derechos humanos básicos.  Por edicto.

No los recuperamos después de que terminó la pandemia, ya que la mayoría de los mandatos de emergencia solo están condicionalmente «en espera». Nuestros derechos humanos civiles y universales ahora son provisionales, a instancias de varias autoridades sanitarias no elegidas, burócratas, apparatchiks y cualquier locura que surja de Davos.

Si lo permitimos, esto solo empeorará a medida que se acerquen las «emergencias climáticas» en el horizonte, y nos enfrentamos a la perspectiva real de bloqueos climáticos y crédito social basado en CBDC, pases de salud y racionamiento de carbono.

Hemos abrogado nuestros propios derechos en el presente, y luego discutimos sobre cuáles conceder a los algoritmos de software inanimados del futuro.

* * *

Mi libro sobre este tema ha quedado en un segundo plano, pero todavía escribo sobre  transhumanismo ,  IA  y sus implicaciones para  las CBDC ,  el racionamiento de carbono  y  el crédito social . Suscríbase  a la lista de correo de Bombthrower  para obtener nuevos artículos (y puedo revivir el libro y serializarlo aquí). También puedes seguirme  en Nostr  ,  Gettr o  Twitter . Mi carta premium  The Bitcoin Capitalist  cubre  las acciones de Bitcoin y criptografía.

Deja una respuesta

Comentarios

No hay comentarios aún. ¿Por qué no comienzas el debate?

Deja un comentario