El

El "modesto" papel de los modelos de Inteligencia Artificial

Por: Joaquim Giannotti y Heber Leal | 09.07.2024
La búsqueda de tecnologías de IA confiables implica capacitar tanto a los usuarios como a los productores. Es ineludible cambiar el enfoque hacia el uso responsable de los productos de la IA para lograr una mejor coexistencia.

Si bien la IA se integra cada vez más en nuestra vida diaria, es fundamental comprender sus limitaciones y los riesgos asociados a su uso. Recientemente, un artículo titulado "ChatGPT is bullshit" por Michael Townsen Hicks, James Humphries y Joe Slater, ha generado un interesante debate sobre la naturaleza y el uso de los modelos de lenguaje como ChatGPT.  

[Te puede interesar] Si buscas trabajo usa IA para preparar presentación, seguir emails y hasta simular entrevista

Los autores argumentan que las inexactitudes y errores producidos por modelos de lenguaje como ChatGPT no deben ser interpretados como mentiras o alucinaciones. En lugar de eso, proponen que estas salidas se entiendan como "basura" (bullshit) en el sentido filosófico explorado por Harry Frankfurt.

Esto significa que estos modelos no están diseñados para preocuparse por la veracidad de sus respuestas, sino para producir texto que parezca plausible y coherente. Los modelos de lenguaje no tienen una preocupación intrínseca por la verdad. Su objetivo es generar respuestas que suenen congruentes, sin importar si son verdaderas o falsas.

Aunque las respuestas de la IA pueden parecer bien fundamentadas, a menudo carecen de una base sólida. Esto puede llevar a la creación de "basura" convincente que engañe a los usuarios. Utilizar IA en contextos profesionales, como la medicina o el derecho, puede ser peligroso si se confía ciegamente en sus respuestas. Los errores de la IA pueden tener consecuencias graves, ya que estos sistemas no son responsables de sus fallos.

Si modelos de IA como ChatGTP no valoran la verdad ni están diseñados principalmente para producir verdades, al menos por ahora, debemos revisar el papel de las tecnologías IA en contextos cotidianos y profesionales. En lugar de concebir erróneamente "recursos inteligentes” como fuentes de verdad, sugerimos un papel más modesto pero útil.  

Deberíamos considerar los dispositivos de IA como “apuntadores” o “ayudantes” artificiales sofisticados. Y así como a los apuntadores humanos no se les debe conceder la autoridad última de dictar lo que uno debe hacer, tampoco a los apuntadores de IA se les debe dar un papel análogo. La evaluación de la calidad de los resultados de la IA y qué hacer con ellos debe dejarse en manos de la experiencia irremplazable de los usuarios humanos

[Te puede interesar] Diputado Mirosevic y eutanasia: "Estoy optimista de que vamos a lograr que sea ley este año"

Un ejemplo del papel auxiliar de las tecnologías de IA se puede encontrar en el contexto de la atención sanitaria. En este caso, la IA simplemente ayuda a los médicos y profesionales de la salud a encontrar protocolos clínicos, medicamentos disponibles y posibles diagnósticos. Pero cómo aprovechar esos resultados y, lo que es más importante, cómo actuar en consecuencia, queda en manos de la pericia humana. Aquí simplemente deberíamos aceptar que cierta falibilidad es inevitable, tanto humana como artificial

Una implicación interesante de pensar en las tecnologías de IA actuales como apuntadores artificiales es que la supervisión humana es indispensable, especialmente si los resultados de la IA están involucrados en decisiones prácticas. 

Es una cuestión abierta y difícil si podemos diseñar máquinas de IA que se preocupen por la verdad. Dado que los humanos valoramos la verdad, es deseable que nuestros asistentes de IA hagan lo mismo. Sin embargo, vale la pena enfatizar que incluso si la IA no puede diseñarse para preocuparse por la verdad, es de interés para los usuarios y productores de IA que tales tecnologías sean precisas. Y aquí nos referimos a ir más allá para imitar las conversaciones humanas de manera convincente.

Queremos decir que si las tecnologías de IA se tratan mejor como impulsores artificiales, deberíamos preocuparnos por la confiabilidad de sus resultados. Aquí probablemente nos encontraremos desafíos técnicos. Por ejemplo, se debería invertir más esfuerzo en pensar cómo el modelo estadístico construido por IA puede implementar una función de confiabilidad. 

[Te puede interesar] Senado apoya a Boric en economía doméstica: Aumentan subsidios, asignaciones y bolsillo familiar

Dejando de lado los desafíos técnicos, creemos que la búsqueda de tecnologías de IA confiables implica capacitar tanto a los usuarios como a los productores. Es ineludible cambiar el enfoque hacia el uso responsable de los productos de la IA para lograr una mejor coexistencia.

Autores de la columna: Dr. Joaquim Giannotti, Profesor Asistente de la Facultad de Ciencias Sociales y Artes de la Universidad Mayor. Dr. Heber Leal, Director del Núcleo de Ciencias Sociales y Artes de la Universidad Mayor.

Crédito de la foto: Matheus Bertelli/pexels.com