Inteligencia Artificial Generativa: una aliada para proteger a la infancia en entornos digitales
- PIT Policy Lab

- hace 22 horas
- 3 Min. de lectura
Autores: Rocío Amparo Martínez Ramírez, José Antonio Razo García, Karina María Hernández Moreno y Oliver Chavarría, en el marco del Módulo 4: Tecnologías Emergentes y Tecnología de Interés Público del Diplomado de Innovación Pública del INAP.
Nota: El documento original es de autoría de los alumnos; este texto es una versión editorial elaborada por Alejandra Glía Sánchez (PIT Policy Lab) para fines de divulgación pública.

La IA generativa y el reto de la infancia conectada
La Inteligencia Artificial Generativa (IAGen) se ha consolidado como una de las tecnologías más transformadoras del siglo XXI, con oportunidades educativas reales. Al mismo tiempo, plantea una pregunta urgente: ¿cómo proteger a niñas, niños y adolescentes (NNA) en un ecosistema digital cada vez más automatizado y persuasivo?
En México, NNA consumen contenidos en línea de forma cotidiana. La ENCCA reporta uso intensivo de plataformas y hábitos de visionado prolongados; además, un número creciente ya interactúa con aplicaciones de IAGen, aunque con habilidades digitales desiguales. Este escenario combina alta exposición y baja preparación frente a riesgos como contenido nocivo, ciberacoso, robo de datos o manipulación algorítmica.
En este contexto de desafíos y oportunidades, es clave subrayar que la IAGen no es solo un riesgo a contener, también puede ser un instrumento de política pública. Bien diseñada, permite detectar tendencias de riesgo, activar rutas de protección y formar ciudadanía digital responsable, sin vulnerar la privacidad.
De la innovación al cuidado: propuesta de política pública
Se propone un sistema de monitoreo educativo con IAGen dirigido a adolescentes de 12 a 17 años, para analizar de forma anónima y ética los sitios y contenidos más consumidos. El objetivo es identificar patrones de riesgo, como violencia, ciberacoso, adicciones, manipulación y desinformación; y activar protocolos de prevención y acompañamiento, garantizando salvaguardas de privacidad.
¿Cómo funcionaría?
Un modelo de clasificación identifica riesgos y sugiere rutas de atención.
Ante indicios de acoso escolar, se notifica a la autoridad educativa y a tutores.
Si se detectan señales de violencia intrafamiliar, se activan redes de apoyo y protección competentes.
Todo el proceso opera con minimización de datos, anonimización y controles contra reidentificación.
Beneficios esperados
Prevención e intervención temprana (educativa, psicológica y regulatoria).
Evidencia para comprender factores digitales que impactan el bienestar de NNA.
Confianza pública en el uso ético de IA en educación y protección de NNA.
Ética, regulación y responsabilidad compartida
Para que el sistema sea útil y legítimo, debe cumplir tres ejes de gobernanza:
1) Protección de datos personales. Minimización y anonimización, cumplimiento normativo y consentimiento informado adecuado para NNA; auditorías periódicas para evaluar sesgos, actualizar datos y mantener salvaguardas vigentes.
2) Equidad algorítmica y explicabilidad. Evaluación y mitigación de sesgos; documentación de decisiones y datos (p. ej., data cards); explicaciones comprensibles para docentes, familias y comunidades, bajo responsabilidad compartida entre desarrolladores, operadores e instituciones usuarias.
3) Transparencia en resultados y usos. Propósitos claramente definidos; etiquetado de contenidos producidos por IA cuando corresponda; supervisión ética continua y rendición de cuentas pública.
Hacia una alfabetización digital con sentido
La adopción de IA en escuelas exige formación ética, digital y crítica. No basta con aprender a usar herramientas, hay que comprender sesgos, límites y responsabilidades. La alfabetización digital debe fortalecer la autonomía intelectual, el pensamiento crítico y la participación segura en línea, evitando dependencias que deriven en aprendizajes superficiales o desinformación.
Conclusión: tecnología con propósito
La IAGen puede ser riesgo u oportunidad. Con ética, regulación y visión social, puede convertirse en una aliada para proteger a la infancia y construir entornos digitales más humanos. El reto es doble: diseñar salvaguardas robustas y formar ciudadanía digital que conviva con la IA de manera libre, segura y consciente.
Si deseas profundizar en esta propuesta y conocer el análisis completo, te invitamos a leer el documento elaborado por los autores en el marco del Diplomado de Innovación Pública del INAP aquí.

Comentarios