La dictadura del algoritmo

Crédito de la imagen: Estelí Meza

Imaginemos un Congreso donde las iniciativas se sintetizan automáticamente, los dictámenes se generan en segundos y las intervenciones plenarias se redactan de manera automática. Gracias al uso de la Inteligencia Artificial (IA), escenas como estas serán cada vez más comunes en los parlamentos del mundo.

Por más eficiente que parezca, un escenario así obliga a una pregunta esencial: ¿cómo mantener la rendición de cuentas cuando la autoridad política decide esconderse detrás de un algoritmo? En 2023, en Massachusetts, el senador demócrata Barry Finegold utilizó ChatGPT para redactar un proyecto de ley destinado a regular la IA. Ese mismo año, en Costa Rica, un grupo de diputados presentó una iniciativa escrita de manera íntegra con ChatGPT, al que le pidieron “pensar como abogado”, para regular el uso de la propia IA (como el espejo borgeano de Tlön, Uqbar, Orbis Tertius, que duplica hasta sustituir al original). De forma similar, en 2024, en Arizona, el representante republicano Alexander Kolodin reconoció haber empleado ChatGPT para redactar la definición legal de “deepfake” en una ley.

Estos ejemplos, que atraviesan países y espectros partidistas, muestran que la IA ya se ha integrado en la maquinaria legislativa. De ahí que su regulación no sea un capricho, sino una necesidad urgente. Si la delegación del trabajo parlamentario hacia Modelos de Lenguaje (LLM) como ChatGPT avanza sin mecanismos de control robustos, el riesgo no es sólo técnico sino institucional: dos pilares de la democracia se vuelven cartón mojado, la rendición de cuentas (saber a quién exigir responsabilidad) y el combate a la corrupción (evitar que la opacidad técnica encubra intereses). El resultado, si seguimos legislando nuestras sociedades en piloto automático, será una política convertida en interfaz: limpia, veloz y sin nadie reconocible al mando.

De la eficiencia al desplazamiento

Para entender lo que está en juego basta observar un proceso ya casi automatizado de principio a fin. Hoy, la mayoría de las corporaciones utilizan sistemas de seguimiento de candidatos (ATS), programas que reciben, clasifican y descartan currículums antes de que un reclutador los lea. En 2025, 98 % de las empresas del ranking Fortune 500 ya empleaba estos sistemas, y siete de cada diez reportaban el uso de IA para revisar CV, evaluar candidatos o incluso realizar entrevistas. Del otro lado, cerca de la mitad de los aspirantes reconocía haber utilizado IA generativa para redactar o mejorar su propio currículum. El resultado es un flujo cerrado: el candidato escribe con IA, el filtro automatizado evalúa con IA y la entrevista puede desarrollarse con IA.

La misma lógica viaja al ámbito público. Alguien redacta una ley con IA, la comisión la dictamina con IA y los legisladores argumentan en el pleno con IA. Al final, todo el proceso legislativo se lleva a cabo mediante agentes algorítmicos. Los tribunales ofrecen ejemplos similares. En México, la Queja Civil 212/2025 utilizó IA como auxiliar técnico para calcular el monto de una garantía con criterios trazables (valor catastral, inflación, TIIE), y el Semanario Judicial de la Federación publicó las primeras tesis que reconocen su uso bajo principios de proporcionalidad, transparencia, protección de datos y supervisión humana. En contraste, en Chubut, Argentina, un tribunal anuló una condena al detectar texto generado por IA dentro del fallo (“Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar”), alegando falta de transparencia y delegación indebida de una función jurisdiccional indelegable.

La lección es clara: cuando la automatización ocupa todas las etapas de un proceso decisional, el sistema artificial deja de asistir a la autoridad y comienza a sustituirla.

El experimento que nadie pidió. La Ley del Meme

Todo empieza con un asesor avezado en el uso de asistentes de IA, presionado por su jefe, diputado o senador, ante la necesidad de promover iniciativas para no parecer improductivo ni ser carroña de los medios. El asesor pide a un LLM que redacte una iniciativa para “ordenar” el uso de imágenes satíricas y memes con contenido político. Le solicita resúmenes, versiones comparadas y ajustes de redacción, y confía en que la máquina reducirá la polarización.

El texto pasa a comisiones. Allí, el equipo técnico emplea otro LLM para elaborar informes de impacto (económico, social, constitucional) y, con base en ellos, recomienda enmiendas al texto original, pero ve potencial en el proyecto. Sugiere a los legisladores de la comisión aprobarlo. En el Pleno, los congresistas usan distintos modelos para defender sus puntos, afinarlos y acelerar el debate. Se vota. Se aprueba.

Promulgada la ley, lo trivial se vuelve coercitivo. El marco, redactado con una sintaxis impecable y un criterio estadístico por demás pulcro, empieza a servir como herramienta de censura: bloquea sátiras políticas, autoriza al gobierno a acceder a redes sociales y silencia críticas legítimas. Cuando lo encaran, el legislador se defiende: “La IA redactó el contenido, pero usó mis órdenes”. ¿De verdad vamos a aceptar que un representante electo se esconda detrás de un algoritmo que él mismo decidió usar y parametrizar? Otros admiten: “No alcancé a leer la iniciativa completa; la IA me hizo un resumen”.

Este escenario, que replica prácticas ya existentes, revela el fondo del problema: la delegación tecnológica como escape de la responsabilidad política. El representante deja de ser autor de su acción y se convierte en validador de un texto que no domina, cuya lógica no comprende y por el cual, sin embargo, su electorado pagará las consecuencias.

La opacidad algorítmica como reto a la democracia

Detrás de la delegación tecnológica se esconden dos riesgos que ya no pertenecen sólo al terreno técnico, sino que se amplían al ámbito político: el sesgo de datos y la caja negra algorítmica. Ambos alteran la imputabilidad y, por tanto, las condiciones mínimas de la representación.

Sesgo de datos.- Los modelos se alimentan de grandes corpus de lenguaje atravesados por historia, ideología y prejuicios. Si esas fuentes están contaminadas, la IA reproduce patrones de exclusión con apariencia de neutralidad. El resultado es discriminación presentada como “dato objetivo” o “cálculo óptimo”. En el ámbito legislativo, esto puede sesgar definiciones legales, umbrales sancionatorios o criterios de elegibilidad de programas públicos sin que el sesgo sea visible para el votante. Una vez que ese sesgo queda inscrito en la norma, deja de ser un error técnico y se convierte en poder. Evitarlo exige, como mínimo, controles previos sobre fuentes, muestreos y etiquetas, y posteriores sobre impacto y revisión contradictoria independiente antes de que un texto avance en comisiones.

Caja negra y crisis de trazabilidad. En sistemas complejos, el recorrido que sigue el modelo para producir una salida es, en la práctica, inescrutable. ¿La ambigüedad de un artículo provino de datos defectuosos, de un prompt mal planteado o de una alucinación estadística? Sin registro íntegro de prompts, versiones y bases empleadas, nadie puede reconstruir con garantías el razonamiento que llevó al resultado. Si el legislador no puede explicar cómo se llegó a una disposición que sanciona a sus representados, no puede responder ante ellos. Sin respuesta verificable, la rendición de cuentas se evapora. Por eso, la trazabilidad requiere bitácoras públicas de indicaciones, versiones y criterios de evaluación, y estándares mínimos de reproducibilidad política.

En síntesis, ambos riesgos convierten la eficiencia en opacidad y trasladan la autoridad desde autores identificables hacia procesos estadísticos no auditables. Cuando la elaboración normativa permanece en manos humanas, la autoría es trazable: equipos redactan, comisiones corrigen en audiencias públicas, el Pleno delibera y cada voto tiene costo político identificable. Al trasladar esas funciones a modelos de lenguaje, la autoría se delega: el objetivo se define en prompts, el texto lo produce un sistema estadístico, los informes de impacto se generan de forma automática y el debate se reduce a validar resultados preprocesados.

Ese desplazamiento no es una simple optimización; modifica la fuente de la ley y abre tres fallas sistémicas:

  • Delegación de la función creadora. La imaginación normativa y la artesanía legislativa se externalizan al modelo, y el representante queda como validador pasivo.
  • Opacidad técnica. La justificación de la norma se disuelve en la caja negra algorítmica, lo que impide la trazabilidad de la decisión.
  • Degradación procedimental. La deliberación se sustituye por confirmaciones mínimas, y el parlamento deja de ser un espacio de argumentos para operar como filtro de resultados preprocesados.

La convergencia de estas fallas rompe la cadena de imputabilidad: al delegar tanto el texto como su explicación, se pierde quién responde por lo decidido.

La coartada moral de la automatización

En una democracia, el voto legislativo implica asumir públicamente una decisión: escuchar, sopesar, negociar y responder. Cuando la cadena deliberativa se sustituye por una línea de montaje algorítmica, el voto pierde densidad moral y contenido político. El representante deja de persuadir y pasa a validar; deja de rendir cuentas y empieza a derivar culpas. No hay deliberación, sólo validación posproducida.

Sin controles, la IA no sólo puede cometer errores honestos: también ofrece una coartada funcional. Si el texto fue “sugerido” por la máquina, si el informe de impacto lo “calculó” un modelo o si el debate “ya se simuló”, ¿quién responde por la intención? La corrupción encuentra en esa delegación un refugio ideal: un sistema sin autor. El algoritmo no es un tirano, sino el catalizador perfecto de una arquitectura de irresponsabilidad. Como advirtió David Packenham, los congresos, bajo ciertas condiciones, dejan de deliberar y sirven sólo para legitimar decisiones. La automatización lleva esa lógica al extremo: el parlamento se convierte en un escaparate de resultados precocinados, votados sobre lo ya decidido.

Las objeciones más frecuentes repiten el mismo equívoco. “La IA sólo asiste, el humano decide”: falso en la práctica, porque el molde decisional se fija en la preproducción algorítmica y lo que llega a la mesa ya viene enmarcado. “Podemos auditar modelos”: sin registro completo de indicaciones, versiones y parámetros, la auditoría se reduce a un ritual sin trazabilidad real. “Gana eficiencia”: la eficiencia que destruye la imputabilidad no es progreso, sino riesgo. La democracia no es una línea de ensamblaje; su valor radica en la fricción del debate.

Principios mínimos para no cruzar el punto de no retorno

  1. Autoría obligatoria. Todo proyecto debe identificar autores humanos responsables del texto final y de cada cambio sustantivo.
  2. Huella de prompts. Registro público de prompts, bases de datos, parámetros y revisiones que incidieron en el contenido normativo. Sin rastro, no hay control.
  3. Prohibición de debates simulados. Ningún debate generado por IA puede sustituir la deliberación; a lo sumo, puede prepararla, nunca reemplazarla.
  4. Impacto contradictorio. Los informes automáticos sólo valen si se someten a contradicción humana en audiencia.
  5. Zona crítica. Materias de derechos, sanciones y libertad de expresión quedan fuera de la redacción automática. El estándar debe ser más alto donde el daño es irreversible.

Democracia o interfaz

Al final, como sociedades tecno-políticas podemos permitirnos automatizar tareas auxiliares a la representación, pero no la responsabilidad. El parlamento que delega su imaginación normativa y su deliberación en un sistema estadístico abdica de su razón de ser. No hay república sin autoría, ni legitimidad sin una cadena clara de decisiones humanas que pueda ser exigida, cuestionada y, llegado el caso, sancionada.

La tentación será cada vez mayor: menos tiempos muertos, menos discursos, menos fricción. Pero la lucha deliberativa no es un defecto. Como recuerda Nadia Urbinati, es la esencia misma del debate democrático. Al eliminarla en nombre de la eficiencia, debilitamos la legitimidad del resultado. Si aceptamos esa mutación silenciosa, convertiremos la democracia en lo que los autócratas siempre han deseado: un trámite administrativo.

Sergio A. Bárcena

Fundador de Buró Parlamentario y profesor investigador del Tec de Monterrey

Erik Cardona

Profesor de la Escuela de Estudios Orientales y Africanos de la Universidad de Londres, Reino Unido.

Escribe tu correo para recibir el boletín con nuestras publicaciones destacadas.


Publicado en: Tecnología