top of page

Inteligencia Artificial Generativa: una aliada para proteger a la infancia en entornos digitales

  • Writer: PIT Policy Lab
    PIT Policy Lab
  • 4 hours ago
  • 3 min read

Autores: Rocío Amparo Martínez Ramírez, José Antonio Razo García, Karina María Hernández Moreno y Oliver Chavarría, en el marco del Módulo 4: Tecnologías Emergentes y Tecnología de Interés Público del Diplomado de Innovación Pública del INAP.


Nota: El documento original es de autoría de los alumnos; este texto es una versión editorial elaborada por Alejandra Glía Sánchez (PIT Policy Lab) para fines de divulgación pública.


ree

La IA generativa y el reto de la infancia conectada


La Inteligencia Artificial Generativa (IAGen) se ha consolidado como una de las tecnologías más transformadoras del siglo XXI, con oportunidades educativas reales. Al mismo tiempo, plantea una pregunta urgente: ¿cómo proteger a niñas, niños y adolescentes (NNA) en un ecosistema digital cada vez más automatizado y persuasivo?


En México, NNA consumen contenidos en línea de forma cotidiana. La ENCCA reporta uso intensivo de plataformas y hábitos de visionado prolongados; además, un número creciente ya interactúa con aplicaciones de IAGen, aunque con habilidades digitales desiguales. Este escenario combina alta exposición y baja preparación frente a riesgos como contenido nocivo, ciberacoso, robo de datos o manipulación algorítmica.


En este contexto de desafíos y oportunidades, es clave subrayar que la IAGen no es solo un riesgo a contener, también puede ser un instrumento de política pública. Bien diseñada, permite detectar tendencias de riesgo, activar rutas de protección y formar ciudadanía digital responsable, sin vulnerar la privacidad.


De la innovación al cuidado: propuesta de política pública


Se propone un sistema de monitoreo educativo con IAGen dirigido a adolescentes de 12 a 17 años, para analizar de forma anónima y ética los sitios y contenidos más consumidos. El objetivo es identificar patrones de riesgo, como violencia, ciberacoso, adicciones, manipulación y desinformación; y activar protocolos de prevención y acompañamiento, garantizando salvaguardas de privacidad.


¿Cómo funcionaría? 

  • Un modelo de clasificación identifica riesgos y sugiere rutas de atención.

  • Ante indicios de acoso escolar, se notifica a la autoridad educativa y a tutores.

  • Si se detectan señales de violencia intrafamiliar, se activan redes de apoyo y protección competentes.

  • Todo el proceso opera con minimización de datos, anonimización y controles contra reidentificación.


Beneficios esperados

  • Prevención e intervención temprana (educativa, psicológica y regulatoria).

  • Evidencia para comprender factores digitales que impactan el bienestar de NNA.

  • Confianza pública en el uso ético de IA en educación y protección de NNA.


Ética, regulación y responsabilidad compartida


Para que el sistema sea útil y legítimo, debe cumplir tres ejes de gobernanza:


1) Protección de datos personales. Minimización y anonimización, cumplimiento normativo y consentimiento informado adecuado para NNA; auditorías periódicas para evaluar sesgos, actualizar datos y mantener salvaguardas vigentes.


2) Equidad algorítmica y explicabilidad. Evaluación y mitigación de sesgos; documentación de decisiones y datos (p. ej., data cards); explicaciones comprensibles para docentes, familias y comunidades, bajo responsabilidad compartida entre desarrolladores, operadores e instituciones usuarias.


3) Transparencia en resultados y usos. Propósitos claramente definidos; etiquetado de contenidos producidos por IA cuando corresponda; supervisión ética continua y rendición de cuentas pública.


Hacia una alfabetización digital con sentido


La adopción de IA en escuelas exige formación ética, digital y crítica. No basta con aprender a usar herramientas, hay que comprender sesgos, límites y responsabilidades. La alfabetización digital debe fortalecer la autonomía intelectual, el pensamiento crítico y la participación segura en línea, evitando dependencias que deriven en aprendizajes superficiales o desinformación.


Conclusión: tecnología con propósito


La IAGen puede ser riesgo u oportunidad. Con ética, regulación y visión social, puede convertirse en una aliada para proteger a la infancia y construir entornos digitales más humanos. El reto es doble: diseñar salvaguardas robustas y formar ciudadanía digital que conviva con la IA de manera libre, segura y consciente.


Si deseas profundizar en esta propuesta y conocer el análisis completo, te invitamos a leer el documento elaborado por los autores en el marco del Diplomado de Innovación Pública del INAP aquí

Comments


bottom of page