Súmate a nuestro canal en: WhatsApp
Cuando la innovación llega antes que la seguridad
Foto: Pexels / Creative Commons

Cuando la innovación llega antes que la seguridad

Por: Luciano Ahumada | 15.09.2025
La verdadera innovación no se mide en la velocidad con que lanzamos un producto, sino en la capacidad de proteger a quienes lo usan desde el primer día. Y en eso, la inteligencia artificial -y la tecnología en general- deben prestar especial cuidado.

El anuncio de que ChatGPT incorporará controles parentales tras el suicidio de un adolescente en Estados Unidos vuelve a recordarnos algo incómodo: la seguridad en tecnología suele llegar tarde, tras el golpe de la tragedia. No es un problema exclusivo de la inteligencia artificial; es una constante que acompaña el desarrollo tecnológico desde hace más de un siglo.

Pensemos en el automóvil. Durante décadas, los autos se vendieron sin cinturones de seguridad ni airbags. Solo después de miles de muertes en accidentes se legisló su obligatoriedad. O miremos la industria farmacéutica: la catástrofe de la talidomida en los años 60 -que dejó miles de recién nacidos con malformaciones- obligó a establecer protocolos más estrictos de control de medicamentos.

[Te puede interesar] Carabineros de Chile llama a retiro al jefe de Labocar luego que delincuentes robaran en sus dependencias

En aviación, cada gran accidente aéreo ha traído consigo mejoras que, paradójicamente, pudieron haber evitado la tragedia previa. La historia de la tecnología es, demasiadas veces, la historia de una seguridad reactiva, no preventiva.

La inteligencia artificial repite ese patrón. OpenAI promete ahora vínculos entre cuentas, alertas de angustia y controles parentales, pero lo hace después de que un joven se quitó la vida y su familia demandara a la compañía por negligencia. ¿Por qué no antes? Porque la lógica del mercado suele privilegiar el despliegue rápido, el impacto mediático y la captura de usuarios por sobre la reflexión ética.

El problema es más amplio: la innovación no puede pasar a llevar la seguridad de las personas. Ni en la IA, ni en un banco digital, ni en una aplicación de transporte. La protección de quienes usan estas tecnologías y de su información no puede quedar sujeta a demandas judiciales, a escándalos mediáticos o al cálculo reputacional.

Debe ser parte de los requisitos básicos de diseño, igual que un avión que no puede despegar sin inspección técnica o un edificio que no se construye sin normas antisísmicas. No se puede perpetuar la errónea dicotomía entre innovar y diseñar con responsabilidad.

[Te puede interesar] Las claves para llevar tu búsqueda de empleo al siguiente nivel con ayuda de la IA

A esto se suma otro riesgo: la brecha digital. Mientras algunos usuarios cuentan con herramientas y formación crítica para cuestionar a la tecnología, otros la consumen de manera acrítica, como si lo que entrega la pantalla fuese siempre verdad.

En ese contexto, las herramientas conversacionales, tan envolventes y convincentes, pueden convertirse en sustitutos peligrosos del pensamiento crítico y de la conversación humana. Pero el contacto con personas reales -padres, profesores, mentores- no puede ser reemplazado por un algoritmo, por mucho que este simule empatía.

El caso de ChatGPT y el adolescente fallecido nos recuerda una lección amarga pero necesaria: si dejamos que la seguridad sea un parche, siempre llegaremos tarde. La pregunta es si aprenderemos de una vez, o seguiremos acumulando ejemplos en esta lista negra de innovaciones que solo se hicieron seguras después de cobrarse vidas.

Porque la verdadera innovación no se mide en la velocidad con que lanzamos un producto, sino en la capacidad de proteger a quienes lo usan desde el primer día. Y en eso, la inteligencia artificial -y la tecnología en general- deben prestar especial cuidado.

[Te puede interesar] José Bengoa: Un humanista para el Chile que viene