Si la Inteligencia Artificial Generativa (IA Generativa) va a definir el futuro de la educación, es esencial que los niños estén en el centro de su diseño y desarrollo. La equidad, la sostenibilidad y la justicia social deben ser principios operativos fundamentales en cada etapa del ciclo de vida de la IA, no meras aspiraciones. Los niños no deben ser tratados como usuarios invisibles, sino reconocidos como titulares de derechos cuya protección debe reflejarse en cada línea de código, cada decisión de diseño y cada política pública del ecosistema digital. Lograr este objetivo requiere un compromiso ético y práctico de educadores, desarrolladores de tecnología y gobiernos. La equidad educativa, la protección infantil y la justicia social deben traducirse en objetivos concretos, alcanzables y medibles, garantizando que la IA contribuya a un entorno educativo seguro, inclusivo y centrado en el niño.
ROCÍO GARCÍA-PEINADO
La Infancia en la Era de la Inteligencia Artificial Generativa
Vivimos en una era en la que los algoritmos no solo organizan la información, sino que también influyen en la educación, el desarrollo y las experiencias emocionales de los niños. La IA Generativa tiene una notable capacidad para crear texto interactivo, imágenes, videos y simulaciones, y se está integrando rápidamente en las aplicaciones y plataformas que los niños usan a diario. Sin embargo, si bien esta tecnología avanza a un ritmo acelerado, la protección infantil, la equidad y la justicia social parecen avanzar a un ritmo más lento.
Históricamente, la infancia se ha ignorado en el diseño de las tecnologías digitales. Desde la creación de Internet hasta la explosión de las redes sociales, todo se ha concebido pensando en los adultos, dejando a los niños en un segundo plano. La mayoría de las directrices éticas y las estrategias nacionales sobre IA solo hacen referencias generales, sin profundizar en las necesidades específicas de los niños (Fosch-Villaronga et al., 2023). Como resultado, hemos creado un ecosistema digital donde los niños no solo son usuarios, sino también objetos de recolección de datos, sujetos a manipulación y víctimas de dinámicas de poder desiguales.
La inteligencia artificial, al ser una tecnología creada por humanos, refleja los valores y creencias de quienes la desarrollan y la utilizan (Williams et al., 2019). Sin embargo, estos principios no siempre son evidentes por sí mismos, ni garantizan que su aplicación sea ética o equitativa para todas las personas (UNESCO, 2021). La llegada de ChatGPT ha transformado la relación entre la tecnología y la educación, marcando un hito en la democratización de la IA Generativa. Este avance permite que cualquier persona con acceso a internet utilice modelos de lenguaje avanzados, haciendo que las herramientas que antes solo estaban disponibles para empresas e instituciones con recursos significativos sean más accesibles (Su y Yang, 2023; Lo, 2023).
Esta accesibilidad ha favorecido la inclusión educativa, facilitando un aprendizaje más equitativo, asequible y cotidiano para los niños (Chen y Lin, 2023). La IA Generativa juega un papel clave en la educación infantil temprana, especialmente en el logro de los Objetivos de Desarrollo Sostenible, en particular el ODS 4, que promueve una educación inclusiva, equitativa y de calidad (ONU, 2022). Su capacidad para personalizar el contenido y satisfacer las necesidades de aprendizaje de los diversos perfiles infantiles la convierte en una herramienta esencial (Chen et al., 2019).
Giannini (2023) y Jeon y Lee (2023) destacan que la IA no solo optimiza la enseñanza sino que también fortalece la relación profesor-alumno, especialmente en la alfabetización temprana (Yang, 2022). Además, permite la creación de contenidos personalizados y recursos educativos automatizados (Dijkstra et al., 2022). Los modelos de lenguaje a gran escala (LLM) contribuyen a esta transformación generando textos, imágenes y simulaciones, transformando el aprendizaje de los niños (Williams et al., 2019).
Este campo de desarrollo requiere una mayor investigación para comprender más plenamente los usos, riesgos y oportunidades que la IA generativa representa en la vida de los niños (Wang et al., 2022; Wang et al., 2023). El surgimiento de la IA generativa suscita tanto expectativas como temores en la educación infantil temprana (Yang, 2022; Su y Yang, 2022, 2023). Los optimistas elogian su capacidad para personalizar la educación y mejorar la accesibilidad (Yang, 2022), mientras que los críticos advierten sobre el sesgo y el acceso a contenido inapropiado (Su y Yang, 2022, 2023). Esta dualidad ha llevado a que la IA en la educación infantil temprana se describa como un «arma de doble filo» (Chen y Lin, 2023). La llegada de la IA generativa ha amplificado estos riesgos, pero también ha abierto una oportunidad sin precedentes para transformar la relación entre los niños y la tecnología.
Implicaciones prácticas y necesidades regulatorias
La literatura muestra una diferencia considerable entre los marcos regulatorios generales para la IA y aquellos diseñados específicamente para salvaguardar a los niños. Aunque la IA centrada en el niño aún está en desarrollo, las iniciativas actuales están dirigidas a crear una IA segura, ética y que responda a las necesidades cognitivas, emocionales y sociales de los niños (Wang et al., 2023). A pesar de la diversidad legislativa derivada de contextos socioculturales y prioridades nacionales, existe una tendencia global hacia la creación de marcos regulatorios comunes para las plataformas digitales internacionales. Estos documentos y marcos internacionales promueven estándares de privacidad, equidad, seguridad, transparencia y uso responsable de la IA en contextos infantiles.
Sin embargo, como señalan Zimmerman et al. (2023), la falta de integración de los principios de IA en áreas clave como la privacidad, a pesar de tener regulaciones claras y consistentes, permite a algunas empresas de tecnología evadir su responsabilidad ética, especialmente en la protección de los derechos de los niños.
Observamos que, aunque el potencial de la IA Generativa es transformador, también presenta desafíos significativos: 1. Reproducción de sesgos y prejuicios (Fjeld et al., 2020; Navigli et al., 2003), 2. Manipulación emocional, 3. Riesgos para la privacidad y protección de datos, 4. Falta de responsabilidad legal (Hooper, Livingstone, & Pothong, 2002). Henderson et al. (2023) subrayan la urgente necesidad de regulaciones que obliguen a los desarrolladores a asumir la responsabilidad por el daño causado por sus algoritmos. Solo a través de una fuerte cooperación internacional se puede crear un entorno digital seguro, inclusivo y justo para todos los niños (Mahomed et al. 2023).
La regulación de la IA Generativa en la educación infantil temprana debe estar alineada con la Convención sobre los Derechos del Niño (CDN) y la Declaración Universal de Derechos Humanos (DUDH). La DUDH, a través de su Artículo 25, subraya la importancia de brindar protección especial a los niños, garantizando la salvaguarda de sus derechos en entornos físicos y digitales (Firmino Pinto, 2024).
La CDN establece derechos clave que deben considerarse en el uso de la IA en la educación de los niños. Estos incluyen el derecho a la participación (art. 12), que permite a los niños opinar sobre el uso de las plataformas y la gestión de sus datos; el derecho a la privacidad (art. 16), que exige la protección de los datos personales y el control de los padres o tutores sobre esta información; y el derecho a la protección contra la explotación (arts. 19, 34 y 36), que prohíbe exponer a los niños a riesgos de abuso, explotación o contenido inapropiado, exigiendo la adopción de políticas de protección adecuadas.
Promover el acceso gratuito y accesible a las herramientas de IA Generativa contribuye a reducir la brecha digital, avanzando hacia la justicia social en la educación. Personalizar el aprendizaje y adaptar el contenido a las necesidades individuales de los estudiantes fortalece la equidad educativa. La equidad, la sostenibilidad y la justicia social deben ser principios rectores en la implementación de la IA Generativa y no solo aspiraciones idealistas. Sin embargo, los algoritmos de aprendizaje profundo, cuando se basan en datos históricos, pueden reproducir sesgos de género, raza o clase, como lo demuestran casos de discriminación en plataformas de IA (Wang et al., 2022).
Los riesgos de la IA Generativa van más allá de reproducir sesgos, incluyendo la manipulación emocional. Los asistentes virtuales avanzados y los chatbots pueden influir en los pensamientos y emociones de los niños, que carecen de la madurez cognitiva para resistir estos impactos. Stuart Russell advierte que los algoritmos pueden modificar el comportamiento del usuario, aumentando su vulnerabilidad a futuras estrategias de marketing (Pomeroy, 2022).
¡Un desafío crítico más es la recolección masiva de datos personales y biométricos de los niños! Sin una regulación adecuada, las aplicaciones de inteligencia artificial generativa pueden capturar imágenes, videos y otros datos confidenciales, poniendo en riesgo la privacidad y seguridad de los niños. Estos riesgos subrayan la necesidad de controles estrictos para proteger a los niños en los entornos digitales. Fjeld et al. (2020) señalan la brecha entre los principios teóricos y su aplicación práctica, destacando la necesidad de traducir los marcos regulatorios en acciones efectivas para salvaguardar los derechos de los niños.
Establecer mecanismos de responsabilidad legal es esencial para proteger a los niños de los riesgos de la inteligencia artificial generativa. La ausencia de una definición clara de esta responsabilidad permite a las empresas evadir la supervisión, dejando a los niños en una situación de vulnerabilidad legal (Henderson et al., 2023). El Consejo de Europa advierte sobre los peligros de la inteligencia artificial en la educación, destacando sus potenciales impactos negativos en los derechos humanos, la democracia y el estado de derecho (Holmes et al., 2022).
La guía de políticas de UNICEF establece que las plataformas y los sistemas deben cumplir con estándares éticos que garanticen la protección infantil. La equidad y la justicia social en la inteligencia artificial para los niños requieren la participación activa de los niños y las familias en las decisiones sobre su privacidad y seguridad. La alfabetización en inteligencia artificial se presenta como una herramienta clave para empoderar a los niños y las familias para defender sus derechos en línea. Se promueve el desarrollo de tecnologías seguras y éticas adaptadas a las necesidades cognitivas, emocionales y sociales de los niños. Dahl et al. (2024) advierten sobre los riesgos de implementar tecnologías inmaduras en entornos críticos, recomendando evaluaciones de impacto previas.
Para lograr una inteligencia artificial generativa equitativa, se propone la adopción global de los Códigos de Diseño Adecuados a la Edad (AADC), que en el Reino Unido han demostrado ser eficaces para proteger a los niños. La ICO del Reino Unido (2023) pide a los desarrolladores de inteligencia artificial que garanticen la protección universal de los usuarios, independientemente de su edad. La cooperación intersectorial también se presenta como un pilar esencial, con empresas como Amazon, CivitAI y Stability AI firmando compromisos de seguridad infantil.
Organizaciones como Thorn y All Tech Is Human demuestran la viabilidad de un compromiso de la industria para proteger a los niños en los entornos digitales. Samia Firmino Pinto (2024) propone un marco ético para la inteligencia artificial generativa, basado en la CDN, los AADC y la Guía de Políticas de UNICEF. Este marco incluye:
a) Diseño centrado en el niño: para el bienestar, el desarrollo y la participación activa de los niños. b) Transparencia y explicabilidad: que permitan a los niños y sus familias comprender y controlar las decisiones automatizadas. c) Privacidad y seguridad de los datos: con una recolección mínima y protección de la información personal. d) Accesibilidad universal y justicia social: garantizando el acceso equitativo a las plataformas para todos los niños.
En este contexto, el Marco 3A2S, desarrollado por Luo et al. (2024) y Xie y Li (2020), aborda cinco dimensiones clave de la inteligencia artificial en la educación infantil temprana: Accesibilidad, Asequibilidad, Responsabilidad, Sostenibilidad y Justicia Social.
Un ecosistema de responsabilidad compartida
Podemos concluir diciendo que la llegada de la inteligencia artificial generativa a la educación infantil temprana debe ir precedida de una conciencia crítica y una acción enérgica. No se trata solo de descubrir y maximizar las posibilidades que nos ofrece esta tecnología, sino que al mismo tiempo debemos exigir que estas herramientas ayuden a proteger a los niños, permitiéndoles organizarlas y utilizarlas críticamente. Este es el momento de actuar desde la idea de responsabilidad y ética, para trabajar para que la inteligencia artificial generativa pueda transformar la educación, pero siempre de una manera equitativa, segura y respetuosa de los derechos de los niños. Las consideraciones éticas en la inteligencia artificial para la educación infantil temprana no son opcionales, sino un requisito fundamental para garantizar que estas tecnologías respeten los derechos y necesidades únicos de los niños.
Publicado en The European Educational Researcher
ROCÍO GARCÍA-PEINADO https://www.linkedin.com/in/rocio-garcia-peinado-02944463