La UE acelera la censura de los conservadores con un reglamento sobre IA
NUEVA YORK, 18 de julio (C-Fam) Las nuevas normas de “seguridad y protección” de la UE obligarán a las empresas tecnológicas a censurar y moderar los contenidos de los modelos de inteligencia artificial (IA) de uso general para evitar el “odio” y la “discriminación”.
El Código de Buenas Prácticas de la Comisión Europea para la IA de propósito general exige a los desarrolladores de IA y a las empresas tecnológicas que garanticen que los modelos de IA de propósito general son “seguros”, incluso mediante la censura de contenidos “que inciten al odio, radicalicen o sean falsos”.
La nueva normativa puede acelerar la censura y el control social en las principales plataformas tecnológicas. Junto con la tristemente célebre Ley de Servicios Digitales de la UE, se espera que el reglamento dé lugar a nuevas herramientas de censura automatizada de IA autoimpuestas en todas las principales plataformas tecnológicas.
Una sección de las normas recién publicadas destaca la “manipulación perjudicial” como uno de los principales riesgos específicos y parece definirla por referencia a las narrativas políticas populistas contra las políticas transgénero de la UE y los programas de inmigración masiva.
“Manipulación perjudicial” se define en el reglamento como “la distorsión estratégica del comportamiento o las creencias humanas dirigiéndose a grandes poblaciones o a responsables de la toma de decisiones de alto riesgo a través de la persuasión, el engaño o la selección personalizada”. Esto, explica el reglamento, “podría socavar los procesos democráticos y los derechos fundamentales, incluida la explotación basada en características protegidas”. En el contexto de la UE, por características protegidas se entienden cuestiones como el estatus migratorio o la orientación sexual y la identidad de género.
El Reglamento exige a las empresas tecnológicas que identifiquen en primer lugar un amplio conjunto de posibles “riesgos sistémicos” en las categorías de salud pública, seguridad pública, derechos fundamentales y sociedad en su conjunto. Otros peligros específicos identificados en el reglamento son la “falta de alineación con los valores humanos (por ejemplo, desprecio de los derechos fundamentales)” y el “sesgo discriminatorio”. Una vez identificados estos riesgos, los desarrolladores de IA y las empresas tecnológicas deben analizar y mitigar cualquier riesgo sistémico potencial mediante “la supervisión y el filtrado de las entradas y/o salidas del modelo.”
Las normas son una “herramienta voluntaria” diseñada para demostrar que las empresas tecnológicas cumplen la legislación de la UE sobre inteligencia artificial, conocida como Ley de IA. Aunque sólo son voluntarias, se considerará que las empresas que adopten las normas cumplen la Ley de IA. “Esto reducirá su carga administrativa y les dará más seguridad jurídica que si demostraran el cumplimiento por otros métodos”, afirma la Comisión Europea.
Las normas son predominantemente prospectivas. No están tan orientadas a resolver los problemas existentes en los modelos de IA como a garantizar que los futuros modelos cumplan las normas por diseño, de modo que el resultado de los modelos de IA se ajuste a las normas.
La nueva normativa se suma a las ya agotadoras medidas de censura que las empresas tecnológicas están obligadas a adoptar en virtud de la Ley de Servicios Digitales de la UE. La Comisión Europea ya exigía a las grandes empresas tecnológicas que censuraran a través del Código de Conducta sobre Desinformación. Cuando se adoptó por primera vez en 2018, era solo una normativa voluntaria, pero ahora es vinculante en virtud de la Ley de Servicios Digitales de la UE de 2025 adoptada a principios de este año.
La Ley de Servicios Digitales de la UE exige a las grandes plataformas en línea que censuren los contenidos de acuerdo con las prioridades de la Comisión de la UE. El Reglamento sobre desinformación exige expresamente a las empresas tecnológicas que censuren y promuevan la propaganda oficial de la UE mediante la moderación de contenidos, la desmonetización, la comprobación de hechos y la contrainformación.
El vicepresidente estadounidense, J.D. Vance, criticó las normas de censura de la Ley de Servicios Digitales de la UE en una cumbre sobre IA celebrada en París en febrero de este año.
“Creemos firmemente que la IA debe permanecer libre de prejuicios ideológicos”, dijo, “y que la IA estadounidense no será cooptada en una herramienta para la censura autoritaria”. También advirtió contra la Ley de IA de la UE y su posible efecto en la innovación.
View online at: https://c-fam.org/friday_fax/la-ue-acelera-la-censura-de-los-conservadores-con-un-reglamento-sobre-ia/
© 2025 C-Fam (Center for Family & Human Rights).
Permission granted for unlimited use. Credit required.
www.c-fam.org