El necesario abordaje ético a la Inteligencia Artificial
¿Qué es la inteligencia artificial? No hay una definición concreta y consensuada de este concepto, que es fluido y está en constante revisión dada su naturaleza; es algo que está sujeto a una permanente evolución y de lo que no se puede establecer una frontera clara de descubrimientos y avances.
No obstante, los principales problemas de definición no hacen referencia a la definición teórica del término, sino a sus límites, aplicaciones prácticas y objetivos futuros. Ahora bien, lo generalmente aceptado sobre lo que implica la inteligencia artificial es la creación de máquinas o sistemas tecnológicos con la inteligencia del ser humano.
Hoy contamos con una IA estrecha, donde cada máquina se especializa en un área: jugar al ajedrez, hacer selecciones de música, traducir lenguajes, negociar algoritmos de alta frecuencia, etc. Pero empresarios, escritores, programadores y expertos en tecnología digital aseguran -con bombo y platillo publicitario, lo que provoca una amplia atención por parte de la ciudadanía mundial- que existe algo así como un proceso evolutivo de la IA.
No falta mucho para que surja la IA general (donde las máquinas alcancen el nivel de inteligencia del ser humano: pensamiento abstracto, razonamiento y aprendizaje de la experiencia) y, luego, la Superinteligencia Artificial (donde las máquinas serán más inteligentes que toda la humanidad combinada y tomarán decisiones complejas de forma totalmente autónoma).
Esta concepción de unas máquinas ultrainteligentes que puedan dominar a nuestra especie provoca en muchos una visión aterradora del futuro de la humanidad. Como no faltan también utópicos y soñadores que ven un maravilloso y positivo progreso en esta evolución tecnológica, podemos señalar que encontramos frente a la IA las dos posturas que distinguía Umberto Eco frente a toda creación cultural humana: los apocalípticos y los integrados.
Así ocurrió con la escritura, el libro, la radio, el periódico, la TV, internet y ahora sucede con la IA. Cada uno de los extremos de esta oposición abre un abanico de potenciales desafíos éticos complejos de abordar.
Científicos y expertos en computación como Erik J. Larson, Gary Marcus y Jaron Lanier afirman, por su parte, que todas las pruebas sugieren que la inteligencia humana y la inteligencia artificial son radicalmente diferentes y, por lo tanto, es mera especulación y pura fantasía la idea de desarrollar máquinas con inteligencia de tipo general, y menos todavía máquinas superinteligentes.
Los dispositivos y sistemas inteligentes poseen una clara relevancia ética, pero no por ellos mismos, sino en la medida en que han sido diseñados y programados por personas para operar de una determinada manera. Larson habla derechamente del “mito de la Inteligencia Artificial”, señalando que la denominación de inteligentes a las herramientas o sistemas se enmarca en una concepción de la inteligencia simplista e inadecuada, reducida solamente a la forma de la resolución de problemas.
La inteligencia artificial está sin dudas reportando enormes beneficios a la sociedad, como se puede comprobar en los ámbitos en los que ya está presente, como la salud, las finanzas, la educación y otros, pero habrá que ir resolviendo las contraindicaciones de carácter ético que su utilización vaya presentando.
Al respecto, la filósofa española Adela Cortina afirma que debemos aprovechar las ventajas de la inteligencia artificial como medio para mejorar, no para que nos sustituya a los seres humanos. A su juicio, la llamada superinteligencia, el reto de los poshumanistas de crear una nueva especie que supere al homo sapiens, no deja de ser una mera especulación, aunque haya mucha inversión económica en juego.
Lo que ya es una realidad, en cambio, es la inteligencia especial o estrecha aplicada a las máquinas, y el desarrollo de nuevas formas que suponen algunos problemas éticos y amenazas para el empleo, la paz, la vida privada y las libertades democráticas. De ahí la importancia de las moratorias a la investigación en inteligencia artificial, aplicando el principio de precaución, como se hace en la Unión Europea.
Debemos inquirir, desde la ética, adónde se quiere ir con la inteligencia artificial, y qué hacer para que su uso repercuta en el bienestar de todos por igual y no para que se beneficien solo algunos y otros salgan perdiendo.