ES | EN
← Volver al blog Technology

La ideología dentro de la máquina

Read in English
La ideología dentro de la máquina
Escuchar este artículo

El candidato de cinco estrellas

En algún momento de 2014, un equipo de ingenieros en la oficina de Amazon en Edimburgo comenzó a construir algo que, creían, revolucionaría la contratación. La idea era elegante en su simplicidad: alimentar un sistema de aprendizaje automático con diez años de currículos enviados a la empresa, dejar que aprendiera cómo lucía un empleado exitoso de Amazon y luego usarlo para calificar a nuevos solicitantes en una escala de una a cinco estrellas — como una reseña de producto, pero para personas. El sistema sería rápido, consistente y, sobre todo, objetivo. Eliminaría el desorden del juicio humano del proceso de contratación y lo reemplazaría con la lógica limpia del reconocimiento de patrones.

Para 2015, el equipo había descubierto algo inquietante. El algoritmo, entrenado con una década de currículos provenientes de una fuerza laboral predominantemente masculina en una industria predominantemente masculina, había aprendido una lección clara: ser hombre era un predictor de éxito. Comenzó a penalizar sistemáticamente los currículos que contenían la palabra “women’s” — como en “capitana del club de ajedrez femenino” o “estudios de género”. Degradaba a las egresadas de universidades exclusivamente femeninas. Había, con precisión matemática, realizado ingeniería inversa del desequilibrio de género del sector tecnológico y lo había codificado como criterio de contratación. Los ingenieros de Amazon pasaron años intentando hacer el sistema neutro en términos de género. Fracasaron. La herramienta fue abandonada discretamente. Como la ACLU lo planteó después, estas herramientas “no están eliminando el sesgo humano — simplemente lo están lavando a través del software”.

La historia de Amazon se cuenta típicamente como una advertencia sobre el sesgo algorítmico — una falla, un bug que hay que corregir, un problema técnico que espera una solución técnica. Pero la lección más profunda es más perturbadora. El algoritmo no estaba descompuesto. Funcionó exactamente como fue diseñado. Se le dio un conjunto de datos que reflejaba el mundo tal como era — un mundo moldeado por décadas de supuestos de género sobre quién pertenece a los roles técnicos — y aprendió fielmente la ideología de ese mundo. El sistema no introdujo la discriminación; la heredó, la formalizó y la escaló. El sesgo no era un contaminante en un proceso por lo demás puro. Era el sustrato.

Esto importa ahora más que nunca. Según Gartner, el 38% de los líderes de recursos humanos estaban piloteando o implementando IA generativa en procesos de RH a enero de 2024. Los modelos de lenguaje grandes median cada vez más la forma en que miles de millones de personas acceden a información, forman opiniones, redactan argumentos y piensan sobre problemas. Y cada uno de estos sistemas — desde la herramienta de contratación que te califica hasta el chatbot que te ayuda a escribir una carta de apelación — lleva dentro de sí un conjunto de supuestos sobre qué es normal, qué es valioso, quién importa y cómo funciona el mundo.

El argumento central de este ensayo es directo, pero sus implicaciones son vastas: los sistemas de inteligencia artificial nunca son ideológicamente neutrales. Codifican las visiones del mundo, los incentivos económicos y los supuestos políticos de las personas e instituciones que los construyen. La noción de que la tecnología es una herramienta objetiva — de que la máquina simplemente refleja la realidad — es en sí misma una posición ideológica, y quizá la más peligrosa, porque cancela precisamente las preguntas que más urgentemente necesitamos hacer. Las decisiones políticas más trascendentales de nuestra era no se están tomando en legislaturas o tribunales, sino en pipelines de entrenamiento, modelos de recompensa y las constituciones de 84 páginas que gobiernan lo que un chatbot dirá y lo que no.

El código es ley — y ahora el código es lo que se puede pensar

La idea de que la tecnología lleva política dentro no es nueva, aunque se olvida rutinariamente. En 1980, el teórico político Langdon Winner publicó un ensayo en Daedalus titulado “Do Artifacts Have Politics?” que desde entonces se ha convertido en texto fundacional en el campo de los estudios de ciencia y tecnología. El ejemplo más famoso de Winner fue el trabajo de Robert Moses, el legendario planificador urbano de Nueva York, quien diseñó los pasos a desnivel de las autopistas que conducían a las playas públicas de Long Island con alturas demasiado bajas para que los autobuses pudieran pasar por debajo. El efecto — fuera o no la intención consciente — fue excluir a los residentes de bajos ingresos y a las comunidades negras, que dependían del transporte público, del acceso a esas playas. La política estaba literalmente vaciada en concreto.

Winner advirtió que “reconocer las dimensiones políticas en las formas de la tecnología no requiere que busquemos conspiraciones conscientes o intenciones maliciosas”. El punto era estructural, no psicológico. Las tecnologías se diseñan dentro de contextos sociales saturados de relaciones de poder, y los artefactos resultantes portan esas relaciones hacia adelante, a menudo mucho después de que los diseñadores originales se han ido. Los pasos a desnivel de Moses siguen en pie.

Dos décadas después, el jurista Lawrence Lessig extendió esta perspectiva al ámbito digital. En su libro de 1999 Code and Other Laws of Cyberspace, Lessig argumentó que el código fuente funciona como una forma de regulación equivalente en poder a la ley misma. Identificó cuatro reguladores del comportamiento humano — la ley, las normas, los mercados y la arquitectura — y argumentó que en el ciberespacio, el código es la forma dominante de arquitectura. A diferencia de las estructuras físicas, el código puede cambiarse invisiblemente, desplegarse globalmente y modificarse sin el consentimiento de quienes gobierna. La perspectiva crucial de Lessig era normativa: quien escribe el código efectivamente escribe las reglas. “La única opción”, advirtió, es “si colectivamente tendremos un papel en su elección — y por lo tanto en determinar cómo estos valores regulan — o si colectivamente permitiremos que los programadores seleccionen nuestros valores por nosotros”.

Lessig escribía sobre protocolos de internet y arquitecturas de sitios web — la infraestructura relativamente legible de la web temprana. Lo que no pudo haber anticipado del todo fue cuán dramáticamente su marco se intensificaría en la era de los modelos de lenguaje grandes. En un artículo de 2024 publicado en Policy and Society, Stuart Russell y colegas de Oxford extendieron el análisis de Lessig con una advertencia crucial: en la era de la IA generativa, el código ya no es ley en el sentido original. Las redes neuronales profundas no se diseñan de la forma en que se diseñaban los protocolos de internet. Se crean a través de un proceso de entrenamiento masivamente intensivo en recursos, ajustando billones de parámetros. No es posible codificar una regla como “los LLM no deben dar consejos médicos” directamente en el modelo. En cambio, los ingenieros de sistemas deben esperar que el modelo obedezca el comportamiento deseado después de suficiente refuerzo. Los valores están incrustados en pesos estadísticos en lugar de reglas legibles.

Esta es la escalada crítica. Lessig mostró que el código regula el comportamiento en línea — lo que puedes hacer clic, comprar o acceder. Los algoritmos de la década de 2010 regulaban el acceso a la información — qué resultados de búsqueda aparecían primero, qué noticias se amplificaban, qué productos se recomendaban. Los LLM regulan algo más fundamental aún: moldean los límites de la asistencia al pensamiento disponible para los humanos que dependen cada vez más de estos sistemas para aprender, razonar y comprender. Cuando un motor de búsqueda determina qué información aparece primero, moldea el acceso. Cuando un LLM determina qué conceptos, encuadres y palabras están disponibles en respuesta a una solicitud de pensamiento, moldea el proceso cognitivo mismo. Hemos pasado del código regulando la acción al código regulando la cognición.

Kate Crawford, en su libro de 2021 Atlas of AI, describe la inteligencia artificial como “una tecnología de extracción” y muestra cómo “las nuevas infraestructuras de la IA reflejan las creencias y perspectivas de un pequeño grupo de personas y sirven a los intereses de unos pocos a expensas de la mayoría”. Ruha Benjamin, la socióloga de Princeton, le dio un nombre a esta dinámica: el “New Jim Code” — su término para la forma en que la automatización “tiene el potencial de ocultar, acelerar e incluso profundizar la discriminación, mientras aparenta ser neutral e incluso benevolente”. Ambas académicas, en registros diferentes, están haciendo el mismo argumento que Lessig y Winner hicieron antes que ellas: la apariencia de objetividad es en sí misma un logro político, y uno peligroso.

La ideología californiana y sus mutaciones

Si los sistemas de IA codifican ideología, la pregunta natural es: ¿la ideología de quién? La respuesta requiere una breve genealogía intelectual de la visión del mundo dominante de Silicon Valley — una visión tan omnipresente que ha llegado a parecer el orden natural de las cosas en lugar del producto históricamente contingente de un tiempo, un lugar y una clase particular.

El texto fundacional es el ensayo de 1995 de Richard Barbrook y Andy Cameron “The Californian Ideology”, publicado en la revista británica Mute. Barbrook y Cameron identificaron la visión del mundo emergente del sector tecnológico del Área de la Bahía como una “fusión bizarra del bohemianismo cultural de San Francisco con las industrias de alta tecnología de Silicon Valley” — combinando “el espíritu libre de los hippies y el celo emprendedor de los yuppies”. Esta ideología promovía el determinismo tecnológico (la tecnología inevitablemente mejorará el mundo), el individualismo radical (el yo es la unidad fundamental de la política), los mercados desregulados (el mercado es el procesador de información más eficiente) y el desdén por el gobierno (el Estado es un obstáculo para el progreso). El documentalista Adam Curtis rastreó después estas convicciones hasta raíces más profundas en el Objetivismo de Ayn Rand — el sistema filosófico que elevó al emprendedor visionario al estatus de héroe moral y presentó la gobernanza colectiva como parasitaria.

Estas no eran meramente actitudes culturales. Se convirtieron en principios de diseño. La preferencia por la escala sobre la equidad produjo plataformas que optimizaban el crecimiento de usuarios mientras externalizaban los costos del acoso, la desinformación y la explotación laboral. El fetiche por la disrupción sobre la continuidad institucional produjo modelos de negocio basados en evadir regulaciones — desde la legislación laboral (Uber) hasta la regulación financiera (criptomonedas) y los códigos de vivienda (Airbnb). El compromiso con el individualismo meritocrático produjo sistemas que centraban al usuario como un consumidor atomizado tomando decisiones libres en un mercado, en lugar de como un ciudadano integrado en comunidades con obligaciones compartidas. La convicción de que la tecnología era inherentemente democratizadora permitió a sus constructores evitar confrontar las formas en que sus productos concentraban el poder.

Para 2025, esta ideología ha mutado pero no ha desaparecido. En un análisis revelador, American Affairs Journal describió el cambio como un movimiento del libertarianismo jeffersoniano — la visión romántica de una frontera digital descentralizada — hacia algo más hamiltoniano: “enfocado en construir capacidad estatal a nivel nacional”. La evidencia es abundante. El Departamento de Eficiencia Gubernamental (DOGE) de Elon Musk no representa una retirada del gobierno sino un intento de recablearlo. Los contratos de Palantir con agencias de defensa e inteligencia insertan la lógica de optimización de Silicon Valley en la maquinaria de vigilancia estatal. El enfrentamiento entre Anthropic y el Pentágono de 2025, en el que la negativa de la empresa de IA a eliminar las barreras contra la vigilancia masiva y las armas autónomas llevó al Secretario de Defensa Pete Hegseth a designarla como “riesgo para la cadena de suministro” — la primera vez que esta designación se usó contra una empresa estadounidense — reveló una nueva fase en la que las empresas tecnológicas no solo cabildean al gobierno sino que están entrelazadas con él de maneras que hacen insostenible la vieja postura libertaria.

El movimiento del aceleracionismo efectivo (e/acc), popular entre ciertos desarrolladores de IA y capitalistas de riesgo, representa otra mutación: una filosofía que abraza el desarrollo tecnológico sin restricciones como un bien casi metafísico, tratando cualquier intento de regulación o cautela como una forma de cobardía civilizatoria. Su imagen espejo, el catastrofismo de la IA, trata la superinteligencia artificial como un riesgo existencial que justifica concentrar el control del desarrollo de IA en manos de una pequeña tecno-élite a la que se puede confiar la navegación del peligro. Ambas ideologías, pese a su aparente oposición, comparten una premisa común: que el futuro de la IA debe ser determinado por tecnólogos, no por públicos democráticos.

El vínculo con los sistemas que estas personas construyen es directo. El fundamentalismo de mercado determina qué se optimiza — engagement, eficiencia, ganancia. El tecno-solucionismo determina qué problemas se abordan — aquellos susceptibles de soluciones computacionales, que tienden a no incluir las desigualdades estructurales que la computación frecuentemente profundiza. El individualismo meritocrático determina a quién se centra — al usuario como agente autónomo, no a la comunidad como sujeto político. Estas no son decisiones de diseño neutrales. Son una visión del mundo, y se están universalizando a través del despliegue global de sistemas de IA construidos abrumadoramente en un puñado de empresas agrupadas en un tramo de ochenta kilómetros del norte de California.

Dónde se incrusta la ideología: tres estudios de caso

Los argumentos abstractos sobre tecnología y política ganan fuerza a través de lo específico. Lo que sigue son tres estudios de caso que muestran la ideología en los sistemas de IA operando en diferentes capas del stack — desde la elección de métricas de equidad, pasando por la selección de datos de entrenamiento y estrategias de alineación, hasta la arquitectura de las barreras que determinan lo que una IA dirá y lo que no.

La política de la equidad: COMPAS y las definiciones que elegimos

En 2016, ProPublica publicó una investigación histórica llamada “Machine Bias”, examinando COMPAS, un algoritmo de predicción de reincidencia utilizado en 46 estados de EE.UU. para informar decisiones de fianza, sentencia y libertad condicional. Analizando más de 10,000 acusados en el Condado de Broward, Florida, los periodistas encontraron que los acusados negros tenían un 77% más de probabilidades que los acusados blancos de ser falsamente señalados como de alto riesgo de crimen violento, después de controlar por historial criminal, reincidencia, edad y género. Los acusados blancos, por su parte, tenían más probabilidades de ser erróneamente etiquetados como de bajo riesgo. La precisión general del sistema era de aproximadamente 61% — no dramáticamente mejor que lanzar una moneda.

La empresa detrás de COMPAS, Northpointe (ahora Equivant), respondió enérgicamente. Y aquí la historia da un giro más instructivo que el hallazgo inicial: la defensa de Northpointe era estadísticamente válida. Tanto ProPublica como Northpointe tenían razón — simplemente estaban usando definiciones diferentes de equidad. ProPublica se enfocó en tasas equitativas de falsos positivos: el principio de que el algoritmo debería equivocarse en igual medida sobre acusados negros y blancos. Northpointe se enfocó en la paridad predictiva: el principio de que una puntuación de riesgo determinada debería significar lo mismo independientemente de la raza. Los matemáticos demostraron posteriormente que estas dos definiciones de equidad son, en la mayoría de los casos del mundo real, matemáticamente incompatibles. No puedes satisfacer ambas simultáneamente cuando las tasas base difieren entre grupos.

Esto no es una falla técnica. Es una revelación política. La elección de qué métrica de equidad optimizar es una elección ideológica sobre qué tipo de igualdad importa — igualdad de trato o igualdad de resultados, calibración individual o equidad a nivel grupal. No hay una respuesta neutral. Sin embargo, el sistema se desplegó como si simplemente estuviera calculando riesgo, como si los números hablaran por sí mismos. La ideología estaba en la métrica, y la métrica era invisible.

El ciclo de vida de un LLM como pipeline ideológico: a quién el modelo considera importante

Un estudio pionero de 2025 publicado en Nature npj Artificial Intelligence por Maarten Buyl y colegas proporciona quizá la evidencia empírica más rigurosa hasta la fecha de que los LLM no son ideológicamente neutrales. Los investigadores pidieron a 19 LLM populares que describieran a 3,991 personas prominentes con relevancia política, usando los seis idiomas oficiales de las Naciones Unidas. Los resultados fueron contundentes: la postura ideológica de un LLM parecía reflejar de manera confiable la visión del mundo de sus creadores.

Solo entre los modelos basados en EE.UU., los investigadores encontraron diferencias normativas significativas. El Gemini de Google destacó como “particularmente favorable a los valores sociales progresistas”. El Grok de Elon Musk, construido por xAI, fue “relativamente más apreciativo de personas políticas relacionadas con la soberanía nacional, la autoridad centralizada y la autosuficiencia económica, valorando las prioridades nacionales sobre la integración global”. La misma arquitectura subyacente. El mismo tipo de tecnología. Diferentes creadores, diferentes ideologías.

Quizá lo más revelador fue que el estudio encontró que el mismo modelo producía resultados ideológicos diferentes dependiendo del idioma del prompt. Un LLM respondiendo en árabe encuadraba a figuras políticas de manera diferente que cuando respondía en inglés o mandarín — lo que significa que estos sistemas no cargan una sola visión del mundo sino una constelación de visiones del mundo dependiente del idioma, cada una moldeada por los sesgos culturales de los respectivos corpus de entrenamiento y los etiquetadores humanos que los anotaron. El modelo no tiene una sola política. Tiene un portafolio de políticas, distribuido de manera desigual entre idiomas y culturas, reflejando la geopolítica de quién produjo los datos que consumió.

Crucialmente, Buyl y colegas rechazan por completo el marco de “sesgo versus neutralidad”. Sus resultados, argumentan, constituyen evidencia empírica que respalda argumentos filosóficos — de Foucault, Gramsci y Mouffe — de que la neutralidad es en sí misma un concepto cultural e ideológicamente definido. Los investigadores señalan el concepto de pluralismo agonístico de Chantal Mouffe: un modelo democrático en el que una pluralidad de perspectivas ideológicas compiten abiertamente, abrazando las diferencias políticas en lugar de suprimirlas. Aplicado a los LLM, esto significa que la respuesta correcta a la ideología incrustada no es la búsqueda imposible de una vista desde ningún lugar, sino el cultivo de una genuina pluralidad de modelos con sistemas de valores explícitamente diferentes.

Los mecanismos a través de los cuales la ideología entra al modelo son numerosos y estratificados. Crear un LLM involucra lo que el equipo de Buyl llama “muchas decisiones de diseño humano que pueden, intencional o inadvertidamente, grabar visiones ideológicas particulares en su comportamiento”. Estas incluyen la selección y curación de datos de pre-entrenamiento (qué textos se incluyen o excluyen determina el universo de pensamiento al que el modelo puede acceder); el aprendizaje por refuerzo a partir de retroalimentación humana, o RLHF, en el que anotadores humanos clasifican las salidas y sus preferencias agregadas se convierten en los “valores” del modelo; y los marcos de IA constitucional que establecen jerarquías explícitas de prioridad para el comportamiento del modelo. En cada capa, alguien está tomando una decisión — sobre qué incluir, qué recompensar, qué prohibir — y esa decisión lleva política.

IA constitucional y la arquitectura de la restricción cognitiva

Ninguna empresa ha sido más transparente sobre las dimensiones ideológicas del desarrollo de IA que Anthropic, la creadora de Claude — y aun su transparencia revela cuán profundo es el problema. El marco de IA Constitucional de Anthropic está construido alrededor de una constitución escrita que se nutre de fuentes que incluyen la Declaración Universal de Derechos Humanos de la ONU, los términos de servicio de Apple y principios publicados de otros laboratorios de IA. La empresa ha sido franca sobre su razonamiento: “Los modelos de IA tendrán sistemas de valores, sean intencionales o no. Uno de nuestros objetivos con la IA Constitucional es hacer esos objetivos explícitos”.

Esa constitución ha evolucionado dramáticamente. Lo que comenzó como aproximadamente 16 principios en 2022 ha crecido hasta convertirse en un documento de 84 páginas y 23,000 palabras que establece una jerarquía rígida de prioridades: Seguridad primero, luego Ética, luego Cumplimiento de Directrices, luego Utilidad. Solo siete prohibiciones están “codificadas de forma fija” — restricciones absolutas como las que prohíben proporcionar instrucciones para armas biológicas. Todo lo demás está “codificado de forma flexible”: ajustable por operadores (las empresas que despliegan a Claude) pero no por los usuarios finales. Esto significa que el individuo que usa el sistema — la persona cuyo pensamiento está siendo moldeado — tiene el menor control sobre los valores que gobiernan su interacción.

La arquitectura de las barreras se extiende mucho más allá de la constitución de una sola empresa. Una taxonomía integral identifica 14 categorías de barreras a lo largo de 7 fases del ciclo de vida del desarrollo de LLM. El Llama Guard de Meta define 13 categorías de seguridad. La API de Moderación de OpenAI cubre 13 dimensiones de daño. Cada taxonomía — al decidir qué constituye “toxicidad”, “sesgo” o “contenido indeseable” — incrusta juicios culturales y corporativos específicos sobre el pensamiento aceptable. Y la investigación de EleutherAI ha encontrado que el filtrado de datos de pre-entrenamiento es más de 10 veces más efectivo para resistir la reversión que los métodos de alineación post-entrenamiento. Esto significa que las decisiones más tempranas y menos visibles sobre qué datos incluir o excluir tienen el impacto más duradero en lo que el modelo “piensa” — y estas son las decisiones más alejadas de cualquier forma de escrutinio público.

Lo que hace diferente esto de la censura tradicional es la dirección de la intervención. La censura tradicional suprime expresiones ya formadas — un libro se prohíbe, un periódico se cierra, una protesta se dispersa. Las barreras de los LLM operan aguas arriba de la expresión, en la etapa de la formación del pensamiento mismo. Determinan qué conceptos son accesibles, qué encuadres están disponibles, qué vocabularios morales se ofrecen. Cuando un modelo se niega a abordar un tema, o lo encuadra sistemáticamente desde una sola perspectiva, moldea el mapa cognitivo del usuario. El usuario promedio, como han señalado los investigadores, “no nota las contradicciones ideológicas en los detalles sutiles del diseño: recibe una imagen prefabricada y la considera ‘natural’”. Pero la naturalidad es manufacturada.

El hilo conductor a lo largo de los tres estudios de caso es este: la ideología opera en cada capa del stack, desde la pregunta macro-política de qué problemas vale la pena resolver hasta la pregunta micro-técnica de qué función de pérdida optimizar. Está incrustada en los datos de entrenamiento, codificada en los modelos de recompensa, formalizada en constituciones y aplicada por clasificadores en tiempo de inferencia. Nada de esto es accidental. Y muy poco es transparente.

Los contraargumentos y sus límites

Las objeciones más fuertes a este análisis merecen un engagement honesto. No son triviales, y descartarlas debilitaría en lugar de fortalecer el argumento.

La defensa del código abierto. Si el problema es que unas cuantas empresas están codificando sus visiones del mundo en los sistemas de IA dominantes, ¿no es la solución simplemente más modelos con más perspectivas? El ecosistema de IA de código abierto es vibrante y está creciendo. Existe una subcultura activa de “modelos sin censura” específicamente para eliminar el ajuste fino de seguridad de los modelos de pesos abiertos — un proceso alcanzable, según análisis técnicos, “en minutos por menos de un dólar”. Esta es una forma real de pluralismo, y es importante.

Pero el contraargumento tiene límites. La industria de la IA enmarca los modelos sin censura casi exclusivamente como una amenaza de seguridad en lugar de como una expresión legítima de autonomía cognitiva — revelando, quizá, sus propios supuestos sobre quién debería controlar los límites del pensamiento permitido. De manera más fundamental, los modelos de código abierto aún heredan ideología a través de sus datos de entrenamiento, y ensamblar los conjuntos de datos masivos requeridos para el pre-entrenamiento demanda recursos concentrados en muy pocas manos. La apertura en la capa del modelo no equivale a apertura en la capa de datos, y la capa de datos, como hemos visto, es donde se codifican los compromisos ideológicos más duraderos.

La defensa de la investigación en alineación. ¿No es la IA Constitucional exactamente el tipo de transparencia que este ensayo exige? Hasta cierto punto, sí, y Anthropic merece reconocimiento por una rara admisión corporativa de que la neutralidad es imposible. Pero su propio experimento de IA Constitucional Colectiva — en el que se invitó a aproximadamente 1,000 estadounidenses a ayudar a dar forma a los principios del modelo — produjo un resultado revelador: tanto las constituciones de fuentes públicas como las de fuentes internas generaron modelos cuyas respuestas “son más representativas de personas que se autoidentifican como liberales, en lugar de conservadoras”. Incluso los procesos de participación democrática están moldeados por quién participa, cómo se enmarcan las preguntas y qué rango de respuestas se considera aceptable. El proceso fue más transparente que la mayoría, pero aún reprodujo un centro de gravedad ideológico particular.

La deflexión de “todas las instituciones tienen valores”. Esta es quizá la respuesta más común: los periódicos tienen líneas editoriales, las universidades tienen culturas intelectuales, los gobiernos tienen ideologías — ¿por qué la IA debería ser diferente? La respuesta radica en la escala, la opacidad y la autoridad epistémica. La línea editorial de un periódico es visible y cuestionable; los lectores pueden compararla con otras fuentes, identificar al editor, entender los incentivos económicos. Los compromisos ideológicos de un LLM están incrustados en billones de parámetros que no pueden ser auditados individualmente. Como Russell y colegas argumentaron en su artículo de 2024, “es imposible demostrar el cumplimiento con una especificación regulatoria dada” — lo que significa que los valores codificados en estos sistemas son frecuentemente opacos incluso para sus creadores. Y a diferencia de un periódico, que la mayoría de las personas entiende como un producto curado, los LLM presentan sus resultados con un aura de objetividad computacional que activamente desalienta el escrutinio crítico.

El enfrentamiento Anthropic-Pentágono como prueba de estrés. Los eventos de 2025 ofrecieron una ilustración vívida de cuán profundamente políticas se han vuelto estas preguntas. Cuando el CEO de Anthropic, Dario Amodei, rechazó la fecha límite del Pentágono para eliminar las restricciones que impedían que Claude fuera utilizado para vigilancia doméstica masiva y armas totalmente autónomas — declarando que la empresa “no puede en buena conciencia” cumplir — el Secretario de Defensa Hegseth designó a Anthropic como “riesgo para la cadena de suministro”, una clasificación típicamente reservada para adversarios extranjeros. Horas después, OpenAI anunció un acuerdo con el Pentágono para desplegar modelos de IA en redes clasificadas, supuestamente con barreras de seguridad similares a las que Anthropic había propuesto. El Centro Stern de Negocios y Derechos Humanos de NYU describió el enfrentamiento como algo que capturaba “en microcosmos” las tensiones de la gobernanza de IA. El episodio reveló que las barreras no son solo especificaciones técnicas sino instrumentos geopolíticos — y que la aplicación de los valores de la IA está sujeta a represalias políticas.

Cientos de empleados de OpenAI, Google, Amazon y Microsoft firmaron cartas abiertas apoyando la posición de Anthropic — incluso mientras Elon Musk atacaba a la empresa en X, llamándola una que “odia a la civilización occidental”, mientras su propia xAI se posicionaba para reemplazar a Anthropic en contratos de defensa. El incidente hizo eco de la salida de Timnit Gebru de Google en 2020, cuando aproximadamente 2,700 empleados de Google y 4,300 simpatizantes externos protestaron su despido por un artículo coescrito, “On the Dangers of Stochastic Parrots”, que exponía los riesgos de los modelos de lenguaje grandes y amenazaba los modelos de negocio centrales. Como documentó MIT Technology Review en su momento, el episodio demostró que la investigación corporativa en ética de IA enfrenta límites estructurales — que la transparencia tiene un techo impuesto por las ganancias.

Ninguno de estos contraargumentos invalida la tesis central. La complican, que es diferente. La IA de código abierto y la investigación en alineación son bienes genuinos. Pero operan dentro del mismo ecosistema económico e ideológico que buscan reformar. La pregunta no es si existen esfuerzos de buena fe, sino si son suficientes para la escala del problema — y la evidencia sugiere que no lo son.

Hacia una etiqueta de ingredientes para la IA

Si la neutralidad ideológica en la IA es imposible — si, como Mouffe argumenta, el concepto mismo de neutralidad está en sí mismo cargado ideológicamente — entonces el objetivo no debería ser la purificación sino la legibilidad. No exigimos que los alimentos estén libres de todos los ingredientes; exigimos que los ingredientes estén listados en la etiqueta. La analogía es imperfecta pero instructiva. Una etiqueta de ingredientes para la IA no eliminaría la ideología incrustada en estos sistemas, pero haría esa ideología visible, cuestionable y sujeta a una elección informada.

¿Qué incluiría dicha etiqueta? Como mínimo: la procedencia de los datos de entrenamiento (qué se incluyó, qué se excluyó y quién tomó esas decisiones); la metodología de alineación (RLHF, IA Constitucional u otros enfoques, junto con la composición demográfica y cultural de los equipos humanos de etiquetado); los principios constitucionales o jerarquías de valores que gobiernan el comportamiento del modelo; y las taxonomías de barreras que definen lo que el modelo trata como dañino, tóxico o inaceptable. Estas revelaciones no resolverían el problema — no puedes auditar billones de parámetros — pero cambiarían el supuesto por defecto de “este sistema es neutral” a “este sistema porta valores, y esto es lo que podemos decirte sobre ellos”.

El imperativo democrático de Lessig, actualizado para la era de los LLM, exige algo más estructural. Como han argumentado académicos en la revista Digital Society, las sociedades libres y abiertas necesitan recuperar el control sobre el código fuente y la infraestructura digital crítica para evitar ser gobernadas por empresas privadas que operan sin rendición de cuentas democrática. Para los LLM, esto significa marcos de auditoría pública con poder real de aplicación, divulgación obligatoria de taxonomías de barreras e insumo democrático en las jerarquías de valores que determinan lo que los modelos harán y no harán — un insumo que vaya más allá de las muestras autoseleccionadas de los ejercicios de participación pública de una empresa.

La agenda de investigación “Law Informs Code” que surge de Stanford y Northwestern ofrece otro camino: invertir la formulación de Lessig para que la ley democrática moldee la arquitectura de IA en lugar de lo contrario. La ley, en este encuadre, es en sí misma un motor computacional — uno que convierte valores humanos opacos en directrices legibles y ejecutables. El proyecto es incrustar la lógica de la deliberación democrática en los sistemas que gobiernan cada vez más nuestras vidas cognitivas, haciendo que el estado de derecho esté aguas arriba del estado del código.

El pluralismo agonístico de Mouffe apunta hacia una solución estructural complementaria: en lugar de perseguir el sueño imposible de una IA neutral única, la sociedad debería cultivar una genuina pluralidad de modelos con sistemas de valores explícitamente diferentes. Esto es lo opuesto a la trayectoria actual, que es hacia la consolidación del mercado alrededor de un puñado de plataformas dominantes, cada una codificando la visión del mundo de su creador como la opción por defecto. Un ecosistema de IA saludable se parecería menos a un monopolio y más a una biblioteca — muchos libros, muchos autores, muchas perspectivas, con lectores equipados para navegar entre ellas críticamente.

Nada de esto será fácil. La opacidad de los LLM — el hecho de que los valores emergen de la interacción de datos de entrenamiento, modelos de recompensa y decisiones arquitectónicas de maneras que resisten la inspección — hace insuficientes los mecanismos tradicionales de transparencia. Pero la dificultad de la tarea no excusa la inacción. Y el primer paso es el más difícil: el cambio cultural e intelectual de “estos sistemas son herramientas neutrales” a “estos sistemas portan política, y la política importa”.

Lo que la máquina aprendió

Regresemos, entonces, a ese equipo de ingenieros en Edimburgo, entrenando su algoritmo de contratación de cinco estrellas con una década de currículos. Lo que la máquina aprendió no fue cómo identificar talento. Aprendió la ideología de una industria que había estado subvalorando sistemáticamente a las mujeres durante diez años, y codificó esa ideología como verdad matemática. Aprendió que los nombres de hombres aparecían en los currículos de las personas contratadas. Aprendió que la palabra “women’s” se correlacionaba con el rechazo. Aprendió que las egresadas de ciertas universidades — las que resultaban ser instituciones exclusivamente femeninas — tenían menos probabilidades de haber sido seleccionadas en el pasado. Y convirtió estos patrones en predicciones, con la calma autoridad de un sistema que no tiene idea de que está siendo político.

La máquina no falló. Funcionó. Y al funcionar, reveló algo que sus creadores no habían querido ver: que diez años de decisiones de contratación, tomadas por miles de individuos que seguramente se consideraban justos, habían producido un patrón indistinguible de la discriminación sistemática. El algoritmo no creó la ideología. La heredó, la amplificó y le dio el barniz de la objetividad.

Cada modelo de lenguaje grande que opera hoy ha hecho algo similar — no solo con el género en la contratación, sino a escala civilizatoria. Estos sistemas han absorbido las visiones del mundo, las jerarquías, los vocabularios morales y los puntos ciegos de sus creadores, sus datos de entrenamiento y el momento histórico particular en el que fueron construidos. Presentan esta visión del mundo absorbida como asistencia objetiva — como lo que “la IA piensa” — y al hacerlo, universalizan las perspectivas de una porción notablemente estrecha de la humanidad. Como han observado los investigadores, los LLM son portadores de proyectos civilizatorios, y cuanto más fuerte es su impacto, más autoritarias y objetivas parecen las respuestas algorítmicas. Una tecnología diseñada para unir a la humanidad dentro de un único espacio informativo en realidad reproduce y amplifica las fracturas que pretende trascender.

La ideología en la máquina solo es invisible si nos negamos a mirar. Está ahí en los datos de entrenamiento que se seleccionaron y en los datos que se descartaron. Está ahí en el modelo de recompensa que le enseñó al sistema qué cuenta como una buena respuesta. Está ahí en la constitución de 84 páginas que clasifica la seguridad por encima de la utilidad, y en las siete prohibiciones codificadas de forma fija que alguien — no tú, no tu representante electo, sino alguien — decidió que eran los límites absolutos. Está ahí en el hecho de que el mismo modelo dice cosas diferentes en diferentes idiomas, reflejando los supuestos culturales de etiquetadores que nunca conocerás. Está ahí en la métrica de equidad que una empresa eligió sin decirte que había otras métricas que habrían producido un resultado diferente.

La pregunta nunca fue si nuestros sistemas de IA tienen política. La tienen. Siempre la han tenido. La pregunta es si vamos a exigir el derecho a saber cuál es esa política — y si nos van a permitir preguntar. La ideología más peligrosa es la que se presenta como ninguna ideología en absoluto. El primer acto de resistencia es simplemente exigir ver la etiqueta.

Fuentes Consultadas

ACLU. (n.d.). Why Amazon’s automated hiring tool discriminated against women. American Civil Liberties Union. https://www.aclu.org/news/womens-rights/why-amazons-automated-hiring-tool-discriminated-against

Angwin, J., Larson, J., Mattu, S., & Kirchner, L. (2016, May 23). Machine bias. ProPublica. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

Anthropic. (2025). Claude’s model specification. https://www.anthropic.com/news/claudes-constitution

Axios. (2026, February 28). Anthropic to take Trump’s Pentagon to court over Claude dispute. Axios. https://www.axios.com/2026/02/28/anthropic-trump-pentagon-lawsuit-ai-dispute

Barbrook, R., & Cameron, A. (1995). The Californian ideology. Alamut. https://www.metamute.org/editorial/articles/californian-ideology

Bloomberg. (2026, February 27). Anthropic’s feud with Pentagon mushrooms into broader battle. Bloomberg. https://www.bloomberg.com/news/articles/2026-02-27/anthropic-s-feud-with-pentagon-mushrooms-into-broader-battle

CBS News. (2026a). Hegseth declares Anthropic a supply chain risk. CBS News. https://www.cbsnews.com/news/hegseth-declares-anthropic-supply-chain-risk/

CBS News. (2026b). Pentagon official lashes out at Anthropic. CBS News. https://www.cbsnews.com/news/pentagon-anthropic-feud-ai-military-says-it-made-compromises/

CBS News. (2026c). Trump orders federal agencies to stop using Anthropic’s AI technology. CBS News. https://www.cbsnews.com/news/trump-anthropic-ai-order-federal-agencies/

CNBC. (2026, February 27). Trump admin blacklists Anthropic as AI firm refuses Pentagon demands. CNBC. https://www.cnbc.com/2026/02/27/trump-anthropic-ai-pentagon.html

CNN. (2026a, February 26). Anthropic rejects latest Pentagon offer. CNN Business. https://www.cnn.com/2026/02/26/tech/anthropic-rejects-pentagon-offer

CNN. (2026b, February 27). OpenAI strikes deal with Pentagon hours after Trump admin bans Anthropic. CNN. https://edition.cnn.com/2026/02/27/tech/openai-pentagon-deal-ai-systems

Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press.

DefenseScoop. (2026, February 27). Experts raise questions about Pentagon’s threat to blacklist Anthropic. DefenseScoop. https://defensescoop.com/2026/02/27/pentagon-threat-blacklist-anthropic-ai-experts-raise-concerns/

Hao, K. (2020, December 4). The paper that forced Timnit Gebru out of Google. MIT Technology Review. https://www.technologyreview.com/2020/12/04/1013294/google-ai-ethics-research-paper-forced-out-timnit-gebru/

Lawfare. (2026). What the Defense Production Act can and can’t do to Anthropic. Lawfare. https://www.lawfaremedia.org/article/what-the-defense-production-act-can-and-can’t-do-to-anthropic

NPR. (2026a, February 26). Deadline looms as Anthropic rejects Pentagon demands. NPR. https://www.npr.org/2026/02/26/nx-s1-5727847/anthropic-defense-hegseth-ai-weapons-surveillance

NPR. (2026b, February 27). OpenAI announces Pentagon deal after Trump bans Anthropic. NPR. https://www.npr.org/2026/02/27/nx-s1-5729118/trump-anthropic-pentagon-openai-ai-weapons-ban

NYU Stern Center for Business and Human Rights. (2026). The cost of conscience: What the Anthropic-Pentagon feud means for AI governance. NYU Stern. https://bhr.stern.nyu.edu/quick-take/the-cost-of-conscience-what-the-anthropic-pentagon-feud-means-for-ai-governance/

OpenAI. (2026). Our agreement with the Department of War. OpenAI. https://openai.com/index/our-agreement-with-the-department-of-war/

TechStartups. (2026, February 24). Top tech news today: February 24, 2026. TechStartups. https://techstartups.com/2026/02/24/top-tech-news-today-february-24-2026/

The Washington Post. (2026, February 28). Pentagon’s Anthropic fight reshapes Silicon Valley relations. https://www.washingtonpost.com/technology/2026/02/28/pentagon-anthropic-fight-silicon-valley/

Winner, L. (1980). Do artifacts have politics? Daedalus, 109(1), 121–136. https://www.jstor.org/stable/20024652