Decisiones artificiales: ¿calculó ChatGPT las tarifas arancelarias?

“Cuando inventas el barco, también inventas el naufragio; cuando inventas el avión,
también inventas el accidente aéreo; y cuando inventas la electricidad, inventas la electrocución… Toda tecnología lleva consigo su propia negatividad,
que se crea simultáneamente con el progreso técnico”
Paul Virilio

La ciencia –en su vocación más honesta– tiene el deber moral de anticipar y comunicar las peores consecuencias posibles de sus avances, aunque a veces roce lo absurdo: ahí está el cloro, con su advertencia “no beber”, para recordarnos que alguien, en algún lugar, lo intentó. De manera parecida, apenas se acuñaba el término Inteligencia Artificial (IA) en 1956 cuando ya aparecían las primeras historias apocalípticas anticipándose a una amenaza contra la humanidad. Hoy, parece que la IA causó su primer shock mundial: el diseño de la estrategia de aranceles de Estados Unidos.

Aunque Trump justificó sus aranceles como una medida contra países que “se aprovechaban” de EU, en realidad se basaron sólo en déficits comerciales bilaterales, es decir, países a los cuales EU les compra más de lo que les vende. El plan reflejaba errores absurdos, como sancionar territorios sin población, sin exportaciones y poblados por pingüinos (que no pagan impuestos). Las críticas al plan venían desde ambos lados del espectro político, lo cual apunta a una lógica tan artificial que levanta sospechas: ¿acaso recurrió su administración a un chatbot para diseñarlas? Los errores básicos en países, porcentajes y categorías reflejan de forma exacta las “alucinaciones” propias de la inteligencia artificial: resultados coherentes, pero equivocados. ¿Por qué recurrir a una IA? ¿Un chatbot definió el nuevo orden mundial? Y si fuera así, ¿qué riesgos enfrentamos si la inteligencia artificial domina nuestras decisiones globales?

La sospecha de que la administración Trump recurrió a inteligencia artificial para diseñar su polémica política arancelaria comenzó con especulaciones en redes sociales, pero ganó fuerza después de que economistas encontraran coincidencias sorprendentes con cálculos hechos por chatbots populares como ChatGPT, Gemini, Grok y Claude. Según un análisis reciente, la fórmula usada por la Casa Blanca para imponer aranceles —un confuso cálculo basado en dividir el déficit comercial de Estados Unidos con cada país por sus exportaciones totales— es justo la que recomiendan estos modelos de IA cuando se les solicita una solución «fácil y rápida» para eliminar déficits comerciales. El economista James Surowiecki calificó este cálculo como un “sinsentido extraordinario” en la disciplina económica. La hipótesis cobra fuerza al considerar que el primero de abril, apenas dos días antes del anuncio oficial, fuentes anónimas de la Casa Blanca reconocieron que el gobierno estadunidense no contaba con una estrategia clara respecto a los aranceles; mientras, ningún economista serio ha querido asumir la autoría del cálculo de forma pública. Ahora que el mundo enfrenta las consecuencias económicas inmediatas, surge una pregunta inquietante: ¿estamos ante el primer colapso global provocado por un chatbot?

La primera advertencia puntual sobre un posible colapso civilizatorio a manos de la inteligencia artificial apareció en 2014, en el libro Superinteligencia de Nick Bostrom, en el que se introdujo de manera destacada un experimento mental: el “maximizador de clips”. En este escenario, una IA muy poderosa es programada con una sencilla meta de optimización: fabricar tantos clips como sea posible. Aunque este objetivo parece inocuo, una IA avanzada lo suficiente, obsesionada con cumplir su misión, descubriría pronto que la química humana contiene hierro y que todos los átomos pueden reorganizarse. Así, esta eficiente IA fabricante de clips, que no albergaría odio particular hacia los seres humanos, decidiría eliminarnos sólo para cumplir con su objetivo principal: clips ad infinitum.

Aunque el “maximizador de clips” de Bostrom es un concepto moderno, su idea central —una entidad inteligente que sigue instrucciones con un literalismo catastrófico— tiene profundas raíces en la literatura y las primeras advertencias sobre los peligros de la tecnología. Un ejemplo clásico es el mito griego del rey Midas, quien deseó que todo lo que tocara se convirtiera en oro, sólo para descubrir horrorizado que también su comida y su querida hija se transformaban en metal precioso. Otro antecedente célebre es el poema de Goethe de 1797, El aprendiz de brujo, en el cual un aprendiz da vida a una escoba con la orden de traer agua. La escoba obedece la tarea asignada sin parar, inundando la casa y el pueblo, pues el hechizo nunca contempló cómo detenerla.

El experimento mental del “maximizador de clips” tuvo un profundo impacto en la discusión global sobre los riesgos de la inteligencia artificial. Por eso, Nick Bostrom fundó el Future of Humanity Institute (FHI) en Oxford, y figuras como Stephen Hawking y Geoffrey Hinton hicieron públicas sus preocupaciones sobre los peligros existenciales de la IA. Sin embargo, académicos como Steven Pinker cuestionan estos escenarios extremos, argumentando que una superinteligencia real sería capaz de reconocer límites éticos y jurídicos antes que intentar extraer hierro de la sangre, inundar un pueblo o convertir a un ser amado en oro.

Estas discusiones sobre máquinas obsesionadas con clips parecen absurdas frente al riesgo real: delegar decisiones cruciales a la inteligencia artificial sin supervisión humana. El verdadero peligro no es una IA malévola o superpoderosa, sino la confianza excesiva en tecnologías imperfectas que producen errores convincentes y peligrosos. Y esto fue lo que pudo haber ocurrido con la desastrosa política arancelaria del gobierno de Trump, cuyos errores elementales sugieren una sobreconfianza tecnológica. La inteligencia artificial tampoco es la primera tecnología en la que confiamos demasiado: desde 2011, el Ministerio Público de Nevada reconoce la categoría “Muerte por GPS”, tras incidentes fatales en los que usuarios siguieron instrucciones erróneas de navegación. Hay casos similares documentados en California, Australia, Inglaterra, Italia y Brasil. Primero fueron las personas, ahora son los gobiernos quienes confían demasiado en el poder de la tecnología.

Hay dos aspectos finales a considerar. Primero, Trump afirmó que estos aranceles eran apenas “un punto de partida”, lo que sugiere que quizá el cálculo absurdo que las sostiene importa menos que el escándalo, la confusión y el poder negociador que han traído a la mesa. Y segundo, vivimos en una época donde miles de millones de dólares invertidos en IA necesitan, de manera urgente, devolver ganancias; por lo tanto, proliferan campañas de marketing destinadas a convencernos de que estas tecnologías son más inteligentes y confiables de lo que realmente son. Nick Bostrom erró el blanco: el verdadero riesgo no era una máquina que hacía clips, sino una campaña publicitaria tratando de convencer al mundo que debía dejar de aprender cómo hacer clips porque habían inventado máquinas perfectas para manufacturarlos. Ante esta situación, quizá pronto la Cofece debería exigirles a los chatbots una nueva etiqueta precautoria: “No utilizar para crear políticas arancelarias”.

Victoria Martín del Campo

Filósofa y científica de datos. Trabaja en la intersección entre tecnología y ciencias sociales en el sector público y privado.


Un comentario en “Decisiones artificiales: ¿calculó ChatGPT las tarifas arancelarias?

  1. «Hay dos aspectos finales a considerar. Primero, Trump afirmó que estos aranceles eran apenas “un punto de partida”, lo que sugiere que quizá el cálculo absurdo que las sostiene importa menos que el escándalo, la confusión y el poder negociador que han traído a la mesa. » Éste es el punto medular de los aranceles de Trump.

    Todo programador y legislador se han hallado ante casos donde los programas o legislaciones no hacen lo que se supone que deben hacer. Podemos ver a las leyes como los programadores, a las leyes como el software y al Estado como el Hardware.

    El maximizador de clips me recuerda a otro sistema muy real cuya función es maximizar la ganancia. Necesitamos implementar sistemas optimizadores multiobjetivo.

Comentarios cerrados