Pasa más o menos así. Alguien del equipo de marketing descubre que ChatGPT le ahorra tres horas de trabajo a la semana. Se lo cuenta a un colega. En un mes, medio departamento lo está usando. Nadie lo autorizó. Nadie preguntó qué datos están entrando a la herramienta. Nadie sabe si la información de los clientes que se procesó ayer está ahora en los servidores de OpenAI en algún lugar de Estados Unidos. El gerente general no tiene idea de que esto está ocurriendo. Y si le preguntas, te va a decir que su empresa "está explorando la inteligencia artificial".
Esa historia no es hipotética. Es el estado real de la mayoría de las empresas chilenas en 2026, y ahora hay datos que lo confirman.
MAS Analytics publicó hace algunos días el primer estudio serio sobre adopción de IA en el sector privado chileno. El número que importa: el 3,6% de las empresas ha escalado inteligencia artificial con impacto medible en su negocio. El 42,2% dice estar en fase de exploración. El resto ni siquiera eso.
Mientras tanto, el 93% declara que la IA tendrá impacto positivo en sus operaciones. Hay 89 puntos de distancia entre la convicción y la ejecución. Eso no se explica con problemas técnicos.
Lo que dicen los ejecutivos
Los propios ejecutivos encuestados dan pistas. El 34,3% identifica la gobernanza de datos como barrera principal. El 23,5% menciona la resistencia al cambio. Suena a diagnóstico sofisticado, pero lo que describe es algo más simple: nadie quiere tomar la decisión. Nadie quiere ser el que defina qué datos se pueden usar, quién responde cuando algo sale mal, qué pasa con la información confidencial que ya se procesó en herramientas externas sin autorización.
Es una decisión de liderazgo disfrazada de problema técnico.
Lo que realmente está pasando
McKinsey midió algo parecido a nivel global y encontró que los ejecutivos de nivel C subestiman dramáticamente el uso real de IA dentro de sus propias organizaciones. Creen que el 4% de sus empleados la usa de forma significativa. La cifra real, según los propios empleados, es más del triple. El liderazgo literalmente no sabe lo que está pasando un piso más abajo.
Y lo que está pasando tiene consecuencias: BCG encontró que más de la mitad de los empleados declara que usaría herramientas de IA no autorizadas aunque su empresa lo prohíba. Empleados compartiendo documentos legales, datos financieros, código fuente y fichas de clientes con aplicaciones públicas que no tienen protocolos de seguridad empresarial. Todo eso ocurriendo mientras el directorio debate si crear o no un comité de innovación.
Ayelet Israeli y Eva Ascarza, de Harvard Business School, lo dijeron con claridad el año pasado: las iniciativas de IA no fracasan porque la tecnología falle. Fracasan porque las organizaciones no tienen la estructura interna para convertir pilotos en capacidades reales. Sin incentivos alineados, sin procesos rediseñados, sin alguien que se haga cargo, todo queda en la presentación que se mostró una vez en el directorio.
Eso es exactamente lo que parece estar pasando con el 42,2% que MAS Analytics clasifica como "en exploración." Explorar, en la práctica, significa que se hizo una charla sobre IA para el equipo directivo. Que se aprobó un presupuesto para un piloto que lleva seis meses sin mostrar resultados y que nadie se atreve a cancelar porque cancelarlo sería admitir que no funcionó. Mientras tanto, el 3,6% que sí ejecutó sigue avanzando, acumulando datos, iterando procesos. La brecha entre los que decidieron y los que siguen explorando no se mantiene. Se amplía cada trimestre.
El costo de no decidir
Hay algo que el informe de MAS Analytics no midió y que es probablemente lo más importante: el costo de no actuar. No el costo del fracaso, eso al menos genera aprendizaje. El costo de la parálisis disfrazada de prudencia. El costo de las reuniones semanales donde se discute lo mismo sin resolver nada. El costo de los empleados que ya están usando IA sin gobernanza, generando riesgos legales que la organización ni siquiera sabe que tiene. El costo de perder a la gente más capaz, que se frustra esperando una decisión que no llega y se va a organizaciones que ya la tomaron.
Ese costo no aparece en ningún balance. Pero se acumula. Y cuando finalmente se manifiesta —en una filtración de datos, en un cliente que descubre que su información fue procesada sin autorización, en un regulador que empieza a hacer preguntas— ya es demasiado tarde para que la respuesta sea "estábamos explorando."
El problema nunca fue la tecnología. Tampoco el presupuesto. Es que alguien tiene que dejar de explorar y empezar a decidir. Definir qué datos se gobiernan. Quién es responsable de la IA que se usa. Qué está permitido y qué no. Y hacerse cargo de las consecuencias de esa decisión.
Los datos ya están. Lo que falta es que alguien los mire a la cara.