Súmate a nuestro canal en: WhatsApp
Daños invisibles de la IA: ¿Qué estamos pasando por alto?
Wikimedia Commons

Daños invisibles de la IA: ¿Qué estamos pasando por alto?

Por: Joaquim Giannotti y Heber Leal | 09.09.2024
Es fácil señalar a los desarrolladores o usuarios cuando algo sale mal, pero la verdadera pregunta es si deberíamos estar regulando también los riesgos cotidianos, más pequeños. Aunque estos daños parezcan triviales en comparación con los eventos catastróficos, su impacto es innegable.

El nuevo proyecto de ley de inteligencia artificial de California, la “Ley de Innovación Segura y Protegida para Modelos de Inteligencia Artificial de Vanguardia” (SB 1047), está a punto de causar gran revuelo mientras se dirige al escritorio del gobernador Gavin Newsom, quién deberá resolver su aprobación o veto el 30 de septiembre próximo.

[Te puede interesar] Camila Vallejo: “Tenemos un compromiso con el país de terminar con el CAE"

Esta legislación pionera podría redefinir la responsabilidad corporativa en el ámbito de la IA, responsabilizando a las empresas por eventos catastróficos, como ciberataques o virus bioingenierizados, que podrían causar bajas masivas o daños superiores a los 500 millones de dólares.

Por lo demás es probable que se haga extensiva y se extrapole como ejemplo a países aledaños, usuarios de dichos sistemas generativos. Si se aprueba, exigiría a las gigantes tecnológicas que gasten 100 millones de dólares o más en el desarrollo de IA para implementar planes de seguridad rigurosos, con el objetivo de prevenir lo inimaginable.

Pero la SB 1047 está generando fuertes opiniones encontradas, destacando un debate más amplio: ¿Cuáles son los verdaderos peligros de la IA? Mientras algunos advierten sobre escenarios apocalípticos, otros argumentan que el miedo que rodea a la IA frena la innovación. La rápida evolución de la IA y su naturaleza impredecible solo alimentan este debate.

Sin embargo, centrarse únicamente en los riesgos catastróficos pasa por alto un punto crucial: el potencial de la IA para causar daños cotidianos. La Ley de Inteligencia Artificial de la UE ya aborda varios niveles de riesgo, incluidas prohibiciones de ciertas prácticas de IA como la categorización biométrica.

Sin embargo, la pregunta sigue siendo: ¿deberían los legisladores también regular los riesgos más sutiles, pero omnipresentes, que la IA presenta en nuestra vida diaria?

[Te puede interesar] Gaza: Cifra de muertos supera los 40.900 cuando se cumplen 11 meses de guerra

Consideremos herramientas impulsadas por IA como ChatGPT. Aunque no están diseñadas para generar conocimiento, los usuarios a menudo confían en estos sistemas para tomar decisiones. Los riesgos aquí pueden parecer menores en comparación con eventos de bajas masivas, pero son reales. En la educación, por ejemplo, los estudiantes podrían citar sin saberlo referencias inexistentes. En la investigación, existe el peligro de perpetuar sesgos o de ignorar nuevos hallazgos.

También es relevante destacar que los riesgos cotidianos de la IA, si bien son menos llamativos que los desastres catastróficos, tienen un impacto acumulativo significativo en nuestra vida diaria.

Un estudio realizado por el MIT arrojó que los sistemas de IA pueden perpetuar sesgos raciales y de género a través de algoritmos entrenados con datos sesgados, lo que genera desigualdad en áreas como la contratación laboral o el acceso a préstamos.

Estos daños "invisibles" no generan grandes titulares, pero afectan de manera tangible a millones de personas, perpetuando prejuicios y reforzando posibles sistemas de exclusión social.

Regular y sobre todo debatir sobre estos aspectos es clave para evitar que la IA amplifique estas desigualdades a gran escala. Además, el uso masivo de IA en sectores como la salud o el transporte tiene consecuencias que, aunque no sean desastrosas, pueden ser igualmente perjudiciales.

Por ejemplo, sistemas de diagnóstico médico basados en IA han demostrado errores en la identificación de enfermedades, lo que podría llevar a diagnósticos incorrectos o a tratamientos inadecuados. Esto subraya la necesidad de una regulación que considere los escenarios extremos y los errores "menores", que, aunque no producen pérdidas catastróficas, podrían erosionar la confianza en la tecnología y en parte las relaciones interpersonales.

[Te puede interesar] Ley Papito Corazón: A la fecha 87 mil morosos pagaron un 37% de la deuda de alimentos

Es fácil señalar a los desarrolladores o usuarios cuando algo sale mal, pero la verdadera pregunta es si deberíamos estar regulando también estos riesgos cotidianos, más pequeños. Aunque estos daños parezcan triviales en comparación con los eventos catastróficos, su impacto es innegable. Si tenemos el poder de mitigar estos riesgos, ¿no deberíamos al menos tener una conversación más abierta al respecto?


Crédito de la fotografía: : Wikimedia Commons