La privatización digital de la soberanía

“Una esfera espantosa, cuyo centro está en todas partes y la circunferencia en ninguna.”

Borges.

Si el Estado-nación es el recipiente de iure de la soberanía, se ha de reconocer que hay Estados más soberanos que otros y que la entidad que no reconoce ningún poder superior a ella (summa potestas superiorem non recognoscens) tampoco puede ignorar los factores que acotan su actuar: potencias militares, económicas, necesidades diplomáticas, marcos legales internacionales y, por supuesto, revoluciones y desigualdades tecnológicas. Para comprender la distribución del poder tratamos de comprender cómo se enmarca y se distribuye el mundo, y cómo la emergencia de nuevas tecnologías contribuye a su reconfiguración. 

Así como el desarrollo del carbón y la apertura al comercio marítimo a finales del siglo XVIII, el desarrollo de la aviación comercial y de la energía atómica en la segunda mitad del XX, la inteligencia artificial también modifica la forma en que se distribuye el poder. Se empieza a sopesar la impotencia tanto de los Estados-nación como de las convenciones internacionales para la regulación de las nuevas tecnologías. Sin embargo, se puede esbozar una nueva distribución espacial. En Imperios Digitales (Shackleton Books, 2024) Anu Bradford esboza una nueva configuración a partir de bloques regulatorios nacionales y regionales: Estados Unidos, cuyo modelo se basa en el mercado y la innovación; Europa, que retoma el estado de derecho como vector de su política tecnológica; y China, donde la innovación está subordinada al interés del partido. Por otra parte, la Unión Internacional de Telecomunicaciones reivindica la división entre un norte capaz de dirigir la política tecnológica y un sur global en el que 750 millones de personas no tienen electricidad estable y más de dos mil millones no tienen acceso a internet.   

Las delimitaciones geográficas están lejos de ser erróneas, pero no tienen en cuenta la diversidad de actores no estatales. En su artículo “Silicon Sovereigns: artificial intelligence, international law and the tech industry complex”, Simon Chesterman explica que el debate sobre la inteligencia artificial suele centrarse en qué tan peligrosa o benéfica será, pero deja de lado tres preguntas clave: quién gana, quién pierde y, lo que concierne a la mayoría de los estudios sobre la soberanía, quién decide. Frente a la incapacidad estatal para regular a las compañías de tecnología, la distribución del poder en espacios regulatorios y de desarrollo se ha visto supeditada por una nueva escisión: el ascenso del sector privado y la dificultad del sector público para limitar su influencia.

En marzo de 2024, la Asamblea General de la ONU adoptó su primera resolución por un “consenso mundial sobre los sistemas seguros, protegidos y fiables de inteligencia artificial”. Es interesante recalcar que además de exhortar a los Estados miembros a seguir las prerrogativas establecidas, la Asamblea General “alienta al sector privado a que se adhiera a las leyes internacionales y nacionales y actúe en consonancia con los Principios Rectores de las Naciones Unidas sobre las Empresas y los Derechos Humanos”. Por el grado de concentración de infraestructuras críticas en manos del sector privado, toda coerción estatal o supranacional pena en imponerse; y por más hiperbólico que pueda sonar, el poder que ejercen las empresas de tecnología está desplazando el ejercicio de la soberanía hacia el sector privado. Por un lado, el advenimiento de la inteligencia artificial, cuyo desarrollo está mayoritariamente en manos del sector privado, ha erosionado los marcos regulatorios nacionales e internacionales. Por otro, la dependencia de estas tecnologías convierte a las compañías de tecnología en actores políticos, lo que dificulta la supeditación de la innovación tecnológica al interés público. 

Al igual que la energía nuclear, comparación recurrente y en la que ahondaremos más adelante, la inteligencia artificial empezó a desarrollarse en el sector público. Contrario a la energía nuclear, que ha permanecido bajo control estatal, el Stanford AI Index de 2025 revela que el desarrollo de esta tecnología se ha desplazado hacia el sector privado: en 2024, cerca de 90 % de los modelos de lenguaje son productos de la industria contra 60 % de los modelos desarrollados por el mismo sector en 2023. Por otra parte, las brechas de rendimiento se vuelven cada vez menores: el índice de Elo, utilizado para medir el rendimiento de los diferentes modelos, muestra que la diferencia entre el rendimiento del modelo mejor calificado y el décimo mejor se redujo de 11.9 % en 2023 a 5.4 % en 2024. Estos elementos nos permiten subrayar tanto el aumento de la competitividad como el aumento de la concentración de infraestructuras críticas en el sector privado.  

En virtud de esta concentración, las regulaciones han demostrado ser frágiles y temblorosas independientemente de la estrategia adoptada y a pesar de que los esfuerzos han sido renuentes. Con la excepción de China, donde el desarrollo tecnológico está supeditado a los lineamientos del partido comunista y la diferencia entre el sector privado y el sector público es borrosa, el margen de acción de los Estados enfrenta restricciones estructurales frente al sector privado en la medida en la que la competitividad del sector tecnológico desincentiva la adopción de regulaciones unilaterales ante el riesgo de desplazar la innovación hacia otras jurisdicciones. 

Tal es el caso del AI Act adoptado en agosto del 2024 por la Unión Europea. Su adopción fue aplaudida por muchos y no sin razón: la regulación prevé una clasificación de riesgos de mayor a menor impacto, clasificación que permite una vinculación más apropiada y precisa de toda infracción a las normas de la comunidad europea; prevé por otra parte la creación de cuatro instancias encargadas de garantizar la implementación de la legislación y un nuevo marco legal encargado de regularizar los modelos dentro del espacio europeo y su adecuación con las normas establecidas. Sin embargo, la dependencia de ciertas infraestructuras y la competitividad del sector tecnológico frustraron rápidamente el afán de proteger los datos personales y garantizar la adecuación de los algoritmos con las normas de la comunidad. Por un lado, varios analistas han señalado ciertos vacíos legales que permitirían a ciertas empresas adecuarse formalmente a las regulaciones sin verdaderamente atenerse a éstas y favorecer ciertos monopolios. Entre los distintos elementos que alimentan estas críticas, se han de resaltar en particular la falta de regulación de las deepfakes y de los efectos electorales que puede tener el uso de ciertos algoritmos en espacios informativos y fáciles de cooptar, lo que podría influir en el establecimiento de ciertos monopolios; y la concentración de recursos estratégicos —datos, capacidad computacional y talento— en manos de las empresas mismas que la Unión Europea pretende regular, lo que refuerza la dependencia de los marcos nacionales y supranacionales respecto del sector privado. 

Por otro lado, algunos analistas han criticado la pérdida de competitividad y la relegación de la industria europea en el sector tecnológico frente a China y Estados Unidos, cuyos marcos regulatorios son mucho más atractivos. La vulnerabilidad de los Estados frente a las necesidades del mercado nos permite resaltar una característica de la relación entre soberanía e inteligencia artificial: hay un desdoblamiento entre el consenso parcial pero generalizado sobre la necesidad imperiosa de regular el sector tecnológico y la dependencia de los marcos regulatorios nacionales e internacionales respecto a las tecnologías mismas que buscan regular. Aunado a eso, la vulnerabilidad de los Estados frente a las necesidades del mercado impiden una respuesta tajante a nivel nacional o internacional frente a las corporaciones. Al no poder regular a los behemoths tecnológicos, la primacía de la decisión del Estado se ve acotada frente a un complejo cuya acción puede difícilmente ser vinculada por una legislación.

La dificultad de regular el sector tecnológico no se debe tan sólo a imperativos económicos, sino también a la estructura misma de la inteligencia artificial. En Technological Internationalism and World Order, Waqar Zaidi analiza la función de la aviación comercial y de la energía atómica en el desarrollo de marcos regulatorios internacionales. Tanto la aviación como la energía atómica han sido frecuentemente comparadas con la inteligencia artificial: al igual que la aviación comercial, la inteligencia artificial emergió con la promesa de unir y de contraer las distancias entre los pueblos; y al igual que la energía atómica, la inteligencia artificial es una tecnología cuyo uso político es de doble filo: la primera se presta tanto para la producción de electricidad y de energía renovables como para el desarrollo de armas de destrucción masiva; la segunda puede favorecer tanto el acceso a la información y el desarrollo tecnológico como la emergencia de nuevos sistemas de vigilancia, la cooptación política y la concentración de poder. ¿Qué distingue, no obstante, la inteligencia artificial de los hitos tecnológicos de la humanidad?   

Para entender la diferencia entre la regulación de la inteligencia artificial y la regulación de tecnologías pasadas resaltemos dos factores: el tiempo y el espacio. La rapidez del desarrollo de otras tecnologías permite regularlas conforme progresan: la regulación de la aviación comercial se produjo al unísono del advenimiento de esta última. El desarrollo de la aeronáutica se produjo en un margen aproximado de cincuenta años, del desarrollo de los primeros aviones a inicios del siglo XX al desarrollo de la aviación comercial en los años 1950. La progresión paulatina de esta industria permitió el establecimiento de normas de seguridad internacional, de reglas de navegación y de espacios aéreos soberanos en 1944 durante la convención de Chicago. La inteligencia artificial, por el contrario, se ha desarrollado en menos de una década, por lo que los parlamentos u organizaciones trasnacionales son incapaces de implementar una regulación apropiada. Desde su irrupción en 2022, la inteligencia artificial generativa no ha cesado de evolucionar. El ciclo de innovación se ha comprimido de tal manera que la regulación ya no acompaña el desarrollo tecnológico, lo persigue; y los órganos regulatorios se arrastran, impotentes, en un esfuerzo infructuoso por regular una tecnología inasible por naturaleza. 

Aunado a la velocidad del desarrollo, la naturaleza no espacial de la inteligencia artificial dificulta las tentativas de regulación. La analogía con la energía nuclear es frecuente, pero peca de simplismo: más que revelar similitudes entre ambas tecnologías, la comparación pone de relieve la singularidad de la inteligencia artificial como fenómeno tecnológico y jurídico. Como lo resalta Zaidi, el desarrollo de la energía nuclear requiere materiales desigualmente distribuidos, técnicas precisas y grandes complejos industriales: son “costosas y difíciles de esconder”; la inteligencia artificial es costosa pero replicable, difusa, e inasible geográfica y materialmente. Si se nos permite parodiar una frase de Flaubert, la inteligencia artificial es como Dios en su creación: presente en todas partes, visible en ninguna. En virtud de su naturaleza amorfa, resulta arduo enmarcar jurídicamente un fenómeno difícil de definir y de localizar; por ende, en caso de que se produzca una infracción por medio de esta herramienta, resulta difícil determinar a quién debe imputarse la responsabilidad. 

La erosión del margen de acción de las jurisdicciones nacionales y de los organismos internacionales no sólo afecta la capacidad de controlar los procesos que tienen lugar dentro de un territorio, sino también la distribución de los beneficios que de ellos se derivan. En Poder y Progreso, Daron Acemoglu y Simon Johnson argumentan, frente a quienes postulan que el aumento de la productividad y el cambio tecnológico producirán un bienestar generalizado, que la innovación no implica por sí sola una distribución más equitativa de los beneficios. Al contrario, el vector de la distribución y de la mejora de las condiciones de vida no ha sido el aumento de la productividad, sino la emergencia de sindicatos, asociaciones, grupos de presión, grupos parlamentarios y demás actores colectivos que se organizan para reclamar una distribución más equitativa de los beneficios derivados de la innovación tecnológica; la distribución de la riqueza en las sociedades europeas de inicios a finales del siglo XIX, escriben Acemoglu y Johnson, se debe más a los “ciudadanos y obreros que se organizaron en las primeras sociedades industrializadas, presionaron las decisiones de la élite en materia de tecnología y de condiciones de trabajo, y forzaron una distribución más equitativa de las ganancias derivadas de la innovación tecnológica” (Acemoglu y Johnson, p. 7). Al argumentar que el crecimiento económico no es intrínsecamente inclusivo, Acemoglu y Johnson muestran que la distribución de la riqueza a lo largo de la historia ha derivado menos de factores tecnológicos que de presiones socio-políticas. 

La emergencia de la inteligencia artificial, no obstante, ha alterado la lógica de las revoluciones que la precedieron: la innovación tecnológica solía dar lugar a la creación de nuevos empleos, nuevas oportunidades, nuevos estratos sociales, lo que terminaba dando lugar al establecimiento de nuevas asociaciones y posteriormente al establecimiento de legislaciones que protegieran a los trabajadores y sus empleos; la revolución digital, por el contrario, favorece el reemplazo de los trabajadores a través de la automatización de ciertas labores más que la creación de nuevos empleos que permitan la movilidad y la asociación. Eso se debe principalmente a una nueva lógica de incentivos: puesto que complementar el trabajo humano no produce beneficios certeros, la mayoría de los incentivos favorecen la automatización y la reducción de costos laborales. Aunado a los incentivos del capitalismo contemporáneo, la falta de movilización dentro de la sociedad civil, la debilitación de los sindicatos, el uso preponderante de la inteligencia artificial en el periodismo y la impotencia de las jurisdicciones ante la presión del mercado y la necesidad de no perder competitividad, limitan la capacidad de corregir la concentración del poder tecnológico y político en manos del sector privado y acotan la posibilidad de distribuir más equitativamente los beneficios que derivan de la inteligencia artificial. 

Al final de “Silicon Sovereigns”, Simon Chesterman remite a una precedente histórico en el que el margen de acción estatal no sólo se vio acotado sino amenazado por la injerencia del poder económico en el sector público: la Compañía Británica de las Indias Orientales (East India Company). Esta última se desarrolló en el siglo XVII para controlar el flujo comercial en Asia y se convirtió en una hidra cuyas funciones dejaron de ser meramente económicas para volverse políticas, diplomáticas y administrativas. La East India Company asumió el control territorial y administrativo de la India, empezó a recaudar los impuestos regionales, logró desplazar autoridades locales y se dotó de un ejército propio de mercenarios. Desde su creación hasta su nacionalización en 1858, la corona inglesa se enfrentó a una empresa que empezó siendo financiada por el poder público, llegó a concentrar casi más recursos que el imperio británico y terminó amenazando la supremacía de este último.  

La analogía de la East India Company y las Big Techs, tal como la desarrolla Chesterman, resulta especialmente ilustrativa, pues revela que el peligro no estriba simplemente en los límites de los marcos regulatorios sino en la injerencia de actores económicos de gran escala en la esfera pública. Recientemente, Goldman Sachs reveló que los Centros de datos consumían  en 2025  7 % de la energía americana. En comparación, el ejército americano, el órgano público más glotón de los Estados Unidos, suele consumir alrededor del 70 al 80% de la energía consumida por el conjunto del gobierno estadounidense pero tan sólo 1 % de la energía a nivel nacional. El consumo energético de los centros de datos no sólo revela la magnitud de las infraestructuras necesarias para sostener la inteligencia artificial; evidencia la dependencia que se ha desarrollado respecto a este servicio y la capacidad del sector tecnológico para concentrar y dirigir la asignación de recursos estratégicos casi a la altura de los órganos estatales. 

La concentración de recursos estratégicos -como los centros de datos o los flujos comerciales-, en manos de actores privados con un poder económico tan grande aumenta drásticamente los riesgos de captura del interés público.  Estos riesgos pueden pasar tanto por la dependencia de los órganos públicos respecto a infraestructuras críticas en manos del sector privado; se pueden deber a la cooptación de grupos parlamentarios y de procesos políticos; o, a día de hoy, se pueden manifestar en la capacidad de ciertas plataformas para manipular la información en los espacios informativos mayoritariamente digitalizados.  

No obstante, el alcance de la inteligencia artificial no se limita a la cooptación política o la manipulación informativa, sino a su creciente injerencia en dominios reservados exclusivamente al Estado, a quién se suele reservar, según la celebérrima fórmula de Weber, el monopolio legítimo de la coerción. Bajo la segunda y actual administración de Donald Trump en Estados Unidos, hemos visto la proximidad entre el Pentágono y los jeques del nuevo complejo digital. Eso también se ha acompañado por la integración de modelos de inteligencia artificial, en especial Claude -desarrollado por Anthropic- en el procesamiento masivo de información o el apoyo a la toma de decisiones en contextos operativos. Actores de seguridad pública en Estados Unidos como ICE emplean infraestructuras de Palantir para labores de vigilancia y control. El sector tecnológico se inmiscuye cada vez más en la toma de decisiones públicas asociadas con ámbitos tan delicados como la seguridad o el procesamiento de información. Este tipo de colaboraciones es preocupante, pues pone de manifiesto hasta qué punto la distinción entre lo público y lo privado se vuelve porosa cuando infraestructuras críticas y capacidades analíticas esenciales para la seguridad son externalizadas hacia actores cuya lógica responde, en última instancia, a incentivos de mercado.

En 1858, recuerda Chesterman, la Corona Inglesa decidió desmantelar la East India Company, transferir su ejército, territorios y aparato administrativo al gobierno y reemplazar a los dirigentes de la compañía por funcionarios británicos. Ciertamente, la nacionalización de las Big techs, aunque ha sido contemplada por algunos académicos, es poco plausible. Sin embargo, al igual que la corona inglesa al decidir que un gigantesco poder económico, administrativo y político concentrado en manos del sector privado era insostenible, tendremos que distinguir entre qué sectores pueden cohabitar con la inteligencia artificial y cómo; y qué sectores clave, como la seguridad o la impartición de justicia, encargados de garantizar la cooperación social y el interés público, deben de ser blindados frente a la injerencia perjudicial del mundo digital.

 

Alonso Acosta Cullen 

Estudiante de filosofía y teoría política en la Universidad de la Sorbona.

Escribe tu correo para recibir el boletín con nuestras publicaciones destacadas.


Publicado en: Tecnología

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *