La Inteligencia Artificial (IA) ya está instalada en las salas de clases chilenas, en el sistema escolar y en las aulas universitarias. No todavía como una política pública planificada ni como una innovación pedagógica deliberada, sino como una práctica cotidiana: estudiantes que redactan trabajos con ayuda de plataformas generativas, que resumen textos, resuelven ejercicios o buscan explicaciones instantáneas.
Frente a este escenario, muchas comunidades educativas oscilan entre su utilización acrítica y/o la prohibición, pero ambas respuestas son radicales e insuficientes y no atienden el desafío de cómo educamos ciudadanía en un contexto digital donde la IA media crecientemente el acceso al conocimiento, la información y la toma de decisiones.
Las amenazas del uso de la IA en contextos de aprendizaje son concretas: estudiantes que delegan sistemáticamente tareas cognitivas en plataformas automatizadas; procesos de aprendizaje sustituidos por respuestas instantáneas; trabajos con desempeños que simulan comprensión sin que exista reflexión; decisiones tomadas a partir de sistemas opacos que reproducen sesgos y desigualdades.
A esto se suma un riesgo mayor y menos visible: la erosión progresiva de la autonomía intelectual y en consecuencia la afectación sobre el autoestima de jóvenes que pasan a depender de estas herramientas. Cuando pensar deja de ser una práctica exigente y se transforma en una operación externalizada, la formación de la ciudadanía pierde sentido.
La ausencia de un marco ético para el uso educativo de la IA tiene efectos concretos, incluso para quienes tienen capital cultural avanzado y acceso privilegiado a tecnologías, y por supuesto que deja en mayor vulnerabilidad a comunidades históricamente excluidas. Normalizar el uso acrítico de la IA en contextos de desigualdad es, en la práctica, profundizar brechas educativas y sociales. No se trata solo de aprender a usar nuevas herramientas, sino de entender sus impactos políticos, culturales y cognitivos.
Sin embargo, reducir el debate a una lista de riesgos sería injusto y poco honesto. La IA también abre oportunidades relevantes para el aprendizaje y para la gestión del trabajo pedagógico, la personalización de apoyos, la diversificación de estrategias pedagógicas y el acceso a información. El problema no es la tecnología en sí, sino la ausencia de marcos éticos y didácticos claros que orienten su uso educativo.
Hoy, muchos docentes enfrentan la presión de “aprender a usar IA” sin contar con orientaciones pedagógicas que les permitan mediar su uso en función de objetivos formativos, y no solo instrumentales. Asimismo, la presión permanente de no distinguir si “esto lo hizo el estudiante o lo hizo la IA”, fomenta una relación hostil e incluso punitiva respecto de su uso.
Este debate se vuelve aún más contradictorio si se considera la discusión instalada en Chile en torno a la prohibición del uso de celulares en establecimientos escolares, ya sea a través de proyectos de ley, normativas internas o regulaciones administrativas. La respuesta predominante ha sido nuevamente la prohibición, como si retirar el dispositivo resolviera el problema de fondo. Pero prohibir no es educar. El celular no es solo un objeto de distracción: es hoy la principal interfaz de acceso a información, redes sociales, plataformas de IA y sistemas algorítmicos que moldean la vida cotidiana de estudiantes.
Al centrar la discusión en el control del dispositivo y no en la formación crítica para su uso, la escuela evade su responsabilidad pedagógica y ética. Se intenta eliminar el síntoma sin abordar la causa: la falta de alfabetización digital, ética y ciudadana para comprender y cuestionar las tecnologías que ya estructuran la experiencia social y educativa. En un contexto donde la IA opera mayoritariamente a través de plataformas móviles, prohibir el celular sin mediar pedagógicamente su uso equivale a renunciar a formar ciudadanía digital consciente, dejando ese aprendizaje, otra vez, en manos del mercado y del algoritmo.
Independientemente de la especialización disciplinar, las y los profesores debemos empoderarnos estratégicamente del rol de educadores de la ciudadanía. No se trata únicamente de enseñar normas de convivencia democrática o contenidos cívicos tradicionales, sino de formar sujetos capaces de pensar críticamente en entornos digitales, contrastar información, reconocer sesgos, comprender las implicancias éticas de las tecnologías y ejercer su ciudadanía de manera responsable en espacios mediados por algoritmos. La ciudadanía digital no es un contenido accesorio: es una dimensión central de la formación democrática contemporánea en pleno siglo XXI.
La medicación pedagógica crítica del uso de la IA en contextos de aprendizaje implica trabajar desde principios éticos como la transparencia, la equidad, la protección de la privacidad, la responsabilidad compartida y la subordinación de la tecnología a fines formativos y articularlos con fundamentos didácticos. La IA no puede reemplazar el juicio pedagógico, el diálogo en el aula ni la construcción colectiva de sentido; debe estar al servicio de ellos.
La pregunta de fondo es qué tipo de sujetos estamos formando en este nuevo escenario. ¿Usuarios eficientes de plataformas digitales o ciudadanos autónomos, críticos y éticamente responsables? La respuesta no la dará la tecnología, sino las decisiones pedagógicas y políticas que tomemos hoy.
Esto no significa convertir a los docentes en programadores ni especialistas técnicos. Significa algo más profundo: asumir el rol de mediadores críticos, capaces de enseñar a preguntar, dudar, contrastar, reconocer sesgos y comprender que la tecnología no es neutral. Significa enseñar que la IA no decide éticamente nI reemplaza el juicio humano. Cuando en las salas de clase no se enseña esto, dejamos el aprendizaje en manos del mercado y la producción del conocimiento al servicio de un algoritmo.