Súmate a nuestro canal en: WhatsApp
La IA no debe ignorar los derechos humanos
Imagen: Ideogram.ai

La IA no debe ignorar los derechos humanos

Por: Alexandra Reeve Givens y Karen Kornbluh | 10.09.2025
Un gobierno que en el contexto de un plan de soberanía en IA desarrollara y controlara los sistemas de IA disponibles en el país podría convertirlos fácilmente en instrumentos de poder estatal. Ahora que las empresas estadounidenses se lanzan (con fuerte respaldo de la administración Trump) a la firma de acuerdos con otros países, que no se incluyan compromisos de defensa de los derechos humanos es un giro peligroso.

En julio, en un evento llamado «Ganar la carrera de la inteligencia artificial», el gobierno del presidente Donald Trump dio a conocer un plan de acción, que se suma a acuerdos multimillonarios sobre centros de datos anunciados durante el viaje de Trump al Golfo Pérsico en mayo, y que comparten un mismo objetivo: reforzar el liderazgo estadounidense en IA.

Ni el plan ni los anuncios anteriores mencionaron los derechos humanos, de modo que es apropiado preguntar qué significa para Estados Unidos «ganar» la carrera de la IA. En Washington y en Silicon Valley, muchos dan por sentado que la tecnología estadounidense está (casi por definición) inherentemente alineada con los valores democráticos. Como declaró en mayo ante el Congreso estadounidense el director ejecutivo de OpenAI, Sam Altman: «Queremos asegurar que la IA democrática le gane a la IA autoritaria».

[Te puede interesar] Se cumplen 49 años del asesinato de Marta Ugarte por agentes de la DINA: Ocultado como un crimen pasional por la prensa

Pero, aunque como deseo aquello esté bien, lo cierto es que los nuevos sistemas tecnológicos no traen incorporada la protección automática de los derechos humanos. Por ello, es necesario que autoridades y empresas tomen medidas proactivas para garantizar que el uso de la IA cumpla ciertas normas y condiciones (como ya se hace en muchas otras industrias).

Informes recientes del Grupo de Trabajo de las Naciones Unidas sobre Empresas y Derechos Humanos, del Consejo de Derechos Humanos de la ONU y de la Freedom Online Coalition nos recuerdan que los gobiernos y las empresas tienen una responsabilidad compartida de evaluar el impacto de los sistemas de IA sobre los derechos de las personas.

Los marcos internacionales vigentes exigen a todas las empresas respetar los derechos humanos y abstenerse de provocar en forma directa o indirecta violaciones de esos derechos a través de sus actividades. Pero, en su mayor parte, las empresas de IA no han reconocido estas responsabilidades ni reiterado el compromiso con ellas.

Los llamados de atención reafirman obligaciones que en otras industrias ya están asumidas. Las grandes empresas saben en su mayoría que deben hacer evaluaciones de impacto sobre los derechos humanos antes de adquirir o usar sistemas nuevos; incorporar la diligencia debida en materia de derechos humanos al diseño de productos y a las decisiones empresariales; incluir en los contratos salvaguardas contra usos indebidos; y ofrecer remedios significativos en caso de daños.

El problema con la IA no es que las normas no estén claras, es que muchas empresas (y gobiernos) actúan como si no fueran aplicables. Basta pensar en los acuerdos de Trump sobre IA en el Golfo. De concretarse, esas inversiones pueden consolidar el lugar que la región aspira a tener como nodo mundial de la IA, lo que genera inquietud por la posibilidad de que Estados Unidos y sus principales empresas tecnológicas estén renunciando a viejos compromisos asumidos.

En los Emiratos Árabes Unidos, como parte de un plan para la construcción de un enorme campus de IA en Abu Dabi, Estados Unidos aprobó la transferencia de chips avanzados a G42, una empresa emiratí de IA. En Arabia Saudita, una nueva empresa con respaldo estatal acaba de revelar acuerdos multimillonarios con importantes firmas estadounidenses para la compra de chips y la construcción de infraestructuras; Starlink (de Elon Musk) también recibió autorización para operar en el país. En ninguno de estos anuncios se mencionan mecanismos de protección que eviten el uso de la tecnología con fines de vigilancia o represión.

No es un riesgo hipotético. El uso de spyware contra periodistas y disidentes por parte de los EAU es bien conocido, y Arabia Saudita tiene un nutrido historial de represión transnacional, además de seguir muy involucrada en la crisis humanitaria de Yemen.

Las nuevas capacidades de IA aumentan en forma significativa el poder de los gobiernos para suprimir derechos básicos; por ejemplo, mediante la elaboración de informes detallados sobre disidentes, la vigilancia en tiempo real, el análisis de comunicaciones y publicaciones en las redes sociales y el control sobre los resultados de las consultas a modelos de IA.

[Te puede interesar] Vacuna rusa contra el cáncer muestra 100% de efectividad en ensayos preclínicos y avanza a pruebas en humanos

A diferencia de los bienes o infraestructuras tradicionales, los sistemas de IA se pueden transferir en forma digital y usar con escaso conocimiento de la población. Un gobierno que en el contexto de un plan de soberanía en IA desarrollara y controlara los sistemas de IA disponibles en el país podría convertirlos fácilmente en instrumentos de poder estatal. Ahora que las empresas estadounidenses se lanzan (con fuerte respaldo de la administración Trump) a la firma de acuerdos con otros países, que no se incluyan compromisos de defensa de los derechos humanos es un giro peligroso.

Y también es una oportunidad perdida. Condicionar el acceso a tecnologías estadounidenses de vanguardia podría usarse como una herramienta de influencia, tanto para promover aplicaciones respetuosas de los derechos humanos como para evitar el abuso de la tecnología. Y ya hay modelos sobre los que basarse. Los Principios Rectores de la ONU sobre las Empresas y los Derechos Humanos (avalados por Estados Unidos y numerosos aliados) obligan a las empresas a no cometer violaciones de los derechos humanos y resolver eventuales daños.

Las Directrices de la OCDE para Empresas Multinacionales van más allá, ya que exigen incorporar procesos de diligencia debida a todas las operaciones y cadenas de suministro. Y la Global Network Initiative (GNI), lanzada hace diecisiete años por empresas tecnológicas líderes, estipula principios para la protección de la privacidad y la libertad de expresión de los usuarios en mercados de alto riesgo, con evaluaciones periódicas de las empresas participantes para verificar el cumplimiento de las normas (la organización a la que representamos fue uno de los socios fundadores).

Empresas como Coca‑Cola, Volkswagen y Estée Lauder ya aplican estos marcos o se someten a mecanismos de supervisión independiente, igual que algunas empresas tecnológicas. Pero la industria tecnológica en general no dio aval explícito a estas responsabilidades en el ámbito de la IA, a pesar de que allí la necesidad es mayor. Como primera medida, sumarse a la GNI y tener acceso a sus marcos y redes podría ser muy útil para aquellas grandes empresas de IA que todavía no lo han hecho.

Para comprender lo que está en juego basta considerar la filtración de un memorando del director ejecutivo de Anthropic, Dario Amodei. Al anunciar la intención de la empresa de aceptar inversiones estatales en el Golfo (tras haber insinuado antes que no lo haría), sostuvo: «Es perfectamente coherente defender una política que diga que “nadie puede hacer X”, y después, si esa política fracasa y todos los demás están haciendo X, entonces ceder y hacerlo también nosotros».

Si las empresas de IA terminan lanzadas a una guerra sin cuartel del todo vale, ¿qué esperanza le queda a la protección básica de los derechos humanos? Si para ganar la carrera de la IA tenemos que abandonar los valores que nos diferencian de rivales autoritarios como China, entonces será una victoria pírrica. Que la tecnología sea estadounidense no será garantía de un futuro deseable.

Gobiernos y empresas todavía están a tiempo para comprometerse a aplicar al ámbito de la IA las normas sobre derechos humanos ya establecidas. Las herramientas existen y no hay excusa para no usarlas.

[Te puede interesar] Otro caso de drogas al interior de FF.AA.: Dos conscriptos sorprendidos consumiendo sustancias ilícitas en regimiento