Académica advierte del sesgo de género de la IA y llama a "revisar bases de datos y algoritmos"
La integración de la inteligencia artificial (IA) en diversos aspectos de nuestra sociedad ha generado una nueva preocupación: ¿cómo evitar que la IA reproduzca y amplifique sesgos de género presentes en nuestros datos y decisiones?
Según la profesora Patricia Peña, de la Universidad de Chile, este problema es crucial debido a la inherente presencia de sesgos en nuestras sociedades y en las tecnologías que las reflejan.
[Te puede interesar] Primer ministro de Haití anuncia su dimisión en medio de la crisis política y de seguridad
Los datos sesgados pueden influir significativamente en los algoritmos de IA, perpetuando discriminaciones en áreas como la contratación y la evaluación crediticia.
Para abordar este desafío, la mejora de los conjuntos de datos y algoritmos, junto con una mayor conciencia sobre el impacto social de la IA, son esenciales, según el profesor Roberto Araya del Instituto de Estudios Avanzados en Educación de la misma universidad.
Araya destaca la complejidad del problema y sugiere dos enfoques para mitigar los sesgos de género en la IA. Uno consiste en ajustar los algoritmos para corregir sesgos evidentes, mientras que el otro, más profundo, implica crear conjuntos de datos libres de sesgos desde cero.
[Te puede interesar] Marcela Cubillos desata un terremoto en la UDI: Javier Macaya le manda recado por la prensa
Por su parte, Peña hace hincapié en la importancia de debatir sobre los alcances y los impactos de la IA en las universidades. Abogando por una educación no sexista, sostiene que es fundamental incorporar debates sobre los riesgos y límites de la IA en la formación académica.
En conclusión, tanto Peña como Araya coinciden en que se necesita una acción colectiva para mitigar los sesgos de género en la IA y promover un futuro más equitativo y ético en este campo. Este llamado a la conciencia y la acción colectiva marca un paso crucial hacia una IA más inclusiva y justa.