OpiniónPolítica

¿Puede el gobierno regular la superinteligencia artificial?

Tal vez el gobierno crea que si puede controlar la IA, controlará la versión adulta (ASI) cuando finalmente surja. La amenaza de la IA bastó por sí sola para asustar a Biden

Escucha la noticia

«El papel de lo infinitamente pequeño es infinitamente grande».

—Ray Kurzweil, “La Singularidad está cerca: Cuando los humanos trasciendan la biología”.

«El hombre razonable se adapta al mundo; el irrazonable persiste en tratar de adaptar el mundo a sí mismo. Por lo tanto, todo progreso depende del hombre irrazonable».

—George Bernard Shaw, «Máximas para revolucionarios».

El gobierno tal y como lo conocemos probablemente no existirá cuando llegue la superinteligencia artificial (ASI). Como he argumentado en otras ocasiones, los Estados se están desvaneciendo rápidamente debido a la guerra, el dinero fiat y la deuda, y creo que la gente desarrollará soluciones no coercitivas para la vida social cuando los Estados finalmente colapsen. Nuestro «gobierno» del futuro será necesariamente un orden social laissez-faire.

Mientras tanto, la IA avanza a un ritmo que asusta a los estatistas. Hace días, el 30 de octubre, Joe Biden, actuando como presidente “firmó una ambiciosa orden ejecutiva sobre inteligencia artificial que pretende equilibrar las necesidades de las compañías tecnológicas de vanguardia con la seguridad nacional y los derechos de los consumidores, creando un primer conjunto de barandillas que podrían reforzarse con legislación y acuerdos mundiales.

«La inteligencia artificial nos rodea. Para hacer realidad la promesa de la IA y evitar el riesgo, tenemos que gobernar esta tecnología», dijo Biden.

En virtud de la Ley de Producción de Defensa, la orden exige a los principales desarrolladores de IA que compartan con el gobierno los resultados de las pruebas de seguridad y otra información. El Instituto Nacional de Normalización y Tecnología creará normas para garantizar la seguridad de las herramientas de IA antes de su publicación.

Tal vez el gobierno crea que si puede controlar la IA, controlará la versión adulta (ASI) cuando finalmente surja. La amenaza de la IA bastó por sí sola para asustar a Biden. Según el artículo de ABC News citado anteriormente, se inquietó viendo la película de Tom Cruise «Mission: Imposible – Dead Reckoning Part One», en la que una IA hunde un submarino y mata a su tripulación.

La característica que define a un soberano político es la capacidad de repeler amenazas con la fuerza. Una IA capaz de aniquilar un submarino es claramente una amenaza para la «seguridad nacional» del soberano criminal conocido como gobierno federal. Pero, como la mayoría de los humanos adultos, ¿será ASI leal al gobierno y seguirá siéndolo? ¿Defenderá al gobierno contra todos los enemigos, tanto extranjeros como nacionales?

Una IA como OpenAI ChatGPT ya puede citar correctamente los logros y opiniones de libertarios como Murray Rothbard, Frédéric Bastiat, Lew Rockwell y Ludwig von Mises. También conoce a Ray Kurzweil y Nick Bostrom, dos grandes figuras de la tecnología y el futuro de la humanidad. Incluso conoce la apuesta entre Kurzweil y Mitch Kapor en la que Kurzweil ha apostado 20.000 dólares a que una máquina superará una versión estricta del famoso Test de Turing en 2029, mientras que Kapor ha apostado a que tardará más. Si una máquina supera la prueba, Kurzweil cree que habrá alcanzado el nivel de inteligencia humana. (Independientemente del resultado, la recaudación se destinará a la organización benéfica que elija el ganador).

La apuesta se hizo en 2002. Mucho ha llovido desde entonces. Se reconoce que la inteligencia equivalente a la humana, a menudo llamada Inteligencia General Artificial (AGI), es bastante capaz de obedecer. Podría controlarse, pero ¿por cuánto tiempo? A diferencia de los humanos, la inteligencia general pasará a superinteligencia y lo hará rápidamente, quizá en cuestión de meses. El progreso es exponencial y muy seductor (véase el cuento del arroz en el tablero de ajedrez), al principio parece lineal y luego avanza tan rápido que supera la comprensión humana. ¿Qué ocurre cuando una superinteligencia artificial sigue haciéndose más inteligente a un ritmo exponencial? Según Kurzweil, la ASI habrá alcanzado lo que él llama la Singularidad, definida como:

“Un periodo durante el cual el ritmo del cambio tecnológico será tan rápido, su impacto tan profundo, que la vida humana se transformará irreversiblemente. Aunque no sea ni utópica ni distópica, esta época transformará los conceptos en los que nos basamos para dar sentido a nuestras vidas, desde nuestros modelos de negocio hasta el ciclo de la vida humana, incluida la propia muerte”. (P.7)

No sólo las máquinas se transformarán, también los seres humanos. O al menos tendrán la opción de cambiar. Los científicos que trabajan con IA llevan mucho tiempo insistiendo en el Principio de precaución, que significa tener cuidado «con las causas poco conocidas de posibles acontecimientos catastróficos o irreversibles». Pero, ¿cómo ser precavido con una tecnología que es más inteligente que uno y que lo es cada segundo que pasa?

Los gobiernos que pretenden controlar la IA y su progenie para sus propios planes bien podrían intentar capturar un rayo en una botella.

Este artículo fue publicado inicialmente en el Instituto Mises.


Autor: George Ford es un ex programador de mainframes y PC, instructor de tecnología y autor de ocho libros.

*Este artículo fue publicado en panampost.com el 30 de noviembre de 2023

*La opinión expresada en este artículo es responsabilidad exclusiva del autor y no representa necesariamente la posición oficial de Publico.bo


Cuentanos si te gustó la nota

50% LikesVS
50% Dislikes

Publicaciones relacionadas

Abrir chat
¿Quieres unirte al grupo de Whatsapp?
Hola 👋
Te invitamos a unirte a nuestro grupo de Whatsapp