Más que robots
27/03/2023
Más que robots.
La inteligencia artificial, el aprendizaje automático y la toma de decisiones algorítmica están cambiando rápidamente la web, nuestra cultura y la forma en que aprendemos. La tecnología tiene una larga, ya menudo división, historia en educación. Puede abrir nuevas oportunidades , pero también puede crear nuevos retos, de cualquier modo , son los niños los que más se ven afectados.
Se prevé que la IA en la educación valga más de 20.000 millones de dólares en 2027 . La promesa de AIEd 1 a menudo se basa en la capacidad de personalizar el contenido y proporcionar comentarios instantáneos. Intelligent Tutoring Systems puede, según la teoría, recopilar y analizar conjuntos de datos complejos para entender las necesidades individuales de un niño, aprovechar el mayor conocimiento del mundo y ofrecer un curso de estudio a medida.
Aunque este marco tecno-transaccional del aprendizaje tiene muchos defectos, puede verse el atractivo del tutor personal perfecto, siempre disponible, especialmente en una pandemia. Sin embargo, como ocurre con tanto tecnología, la realidad a menudo es más compleja y mundana, menos ciencia ficción. robots de matanza y más derechos humanos y alfabetización, pero a menudo las consecuencias no son menos profundas.
Durante los confinamientos necesarios por la pandemia de Covid-19, los alumnos de Inglaterra no pudieron presentarse a los exámenes tradicionales. En cambio, recibieron calificaciones que habían sido determinadas por algoritmo. Casi el 40% de los alumnos han recibido una nota inferior a la esperada. Esto provocó una reacción por parte de los alumnos, padres, y profesores que obligaron al gobierno a retirar las calificaciones y emitir calificaciones dirigidas por el profesor. El incidente afectó a tantos alumnos, y tuvo un carácter tan público que, quizás para el primer tiempo, dio luz a la realidad de las decisiones dirigidas por máquinas a la educación y ofreció una visión del futuro más probable de la IA para la mayoría de las familias.
El 18% de las escuelas secundarias inglesas utilizan ya la IA en la enseñanza. Pero casi todas las escuelas de primaria y secundaria utilizan la tecnología para evaluar a los alumnos y gestionar los datos sobre ellos. Es posible que estas “tecnologías orientadas al educador ya nivel de sistema” todavía no utilicen ampliamente el aprendizaje automático, pero el mercado está madurando constantemente y su influencia puede ser importante . Por ejemplo, la inspección escolar del Reino Unido, Ofsted , ya han utilizado el aprendizaje automático para identificar las escuelas que requieren inspección .
Estas "tecnologías orientadas al educador ya nivel de sistema" todavía no utilizan ampliamente el aprendizaje automático, pero el mercado está madurando constantemente y su influencia puede ser significativa.
A medida que haya más datos disponibles, a medida que las tecnologías se vuelvan más sofisticadas ya medida que las cargas de trabajo de los profesores sigan aumentando, el uso de máquinas para identificar patrones y personalizar respuestas se extenderá más. Las herramientas tecnológicas podrían ayudar a identificar a los alumnos que lo necesitan y garantizar que reciban el soporte adecuado en el momento adecuado para mejorar sus resultados, pero la misma tecnología también podría crear una mayor desigualdad.
El 61% de los padres prevé que la IA será importante para el aula de un futuro cercano. Sin embargo, muchos padres (77%) también están preocupados por las consecuencias de las decisiones que se toman, la responsabilidad y la seguridad que son. . La complejidad potencial de los algoritmos y la multitud de datos utilizados para impulsarlos pueden dificultar la comprensión de cómo se toman decisiones dirigidas por máquinas. La forma en que se diseñan los sistemas a menudo también incorpora y refuerza las dinámicas de poder existentes que pueden perjudicar a los que tradicionalmente tienen menos poder. Tal y como señala el doctor Daan Kolkman, los sistemas de IA opacos pueden significar "Los modelos autorizados pueden llegar a dictar qué tipos de políticas se consideran factibles"
Ya se ha escrito mucho sobre cómo los sistemas de IA pueden “automatizar la desigualdad” mediante la amplificación de los sesgos existentes. Para la IA educación, los impactos de estos sesgos, 'modelos autorizados' y las decisiones dirigidas por la máquina que resultan son experimentadas por los niños: niños que a menudo tienen la menos comprensión crítica, la menos palabra y la menor influencia. .
Si reconocemos que el sesgo de los datos y el diseño deficiente pueden conducir a una IA potencialmente dañina y que es más probable que los niños se vean afectados, surge la pregunta: cómo pueden los derechos de los niños, vistas, y se debe integrar a los datos de IA, diseño, y responsabilidad? ¿Cómo podemos garantizar la equidad de los niños en la AIEd?
¿Cuántos saben realmente los niños y sus familias sobre los sistemas que se están utilizando ahora mismo, cuáles pueden ser los posibles efectos ahora y en el futuro y qué derechos pueden tener sobre estos sistemas?
La regulación puede desempeñar un papel importante, la normativa general de protección de datos de la UE y la El equivalente del Reino Unido incluye secciones sobre la toma de decisiones automatizada . El Comentario general 25 de la Convención de las Naciones Unidas sobre los derechos del niño ayuda a incorporar la inteligencia artificial y el diseño automatizado alcance, y Unicef ha desarrollado orientación para el diseño de derechos respetando la IA . Todo esto ayuda a llamar la atención sobre el problema y ofrece vías de recurso. Pero, ¿cuánto saben realmente los niños y sus familias sobre los sistemas que se utilizan ahora mismo, cuáles pueden ser los impactos potenciales ahora y en el futuro?, ¿y qué derechos pueden tener sobre estos sistemas?¿Y hasta qué punto es factible esperar a que las familias impulsen estos problemas y exijan cambios?
Como muestra el incidente de calificación del Reino Unido, se pueden formar “públicos críticos” cuando hay un acontecimiento importante y de gran perfil, pero ¿qué ocurre con lo cotidiano, el mundano?
Los sistemas de IA pueden crear oportunidades para aumentar la equidad educativa. Pero, si somos descuidados o sin estar preparados, entonces crearemos condiciones que pueden reducir la gente a autómatas , y perderemos la oportunidad de crear condiciones en las que todo el mundo pueda prosperar.
Si, por otra parte, creamos sistemas de IA suficientemente sabios para respetar los derechos de los niños, si nos aseguramos que los datos que utilizamos no estén sesgados en contra de los niños y permitamos que los jóvenes participen en el diseño y la gobernanza de los sistemas , entonces La IA ofrece muchas oportunidades positivas y un futuro que es mucho más que robots.
[1] AIEd es un acrónimo que no está definido específicamente, podría referirse a diversos temas relacionados con la Inteligencia Artificial y la Educación
[2] Oficina de Normas en Educación, Servicios Infantiles y Competencias: https://www.gov.uk/government/organisations/ofsted
Cliff Manning/ Twitter: @cliffmanning
Cliff es director de investigación y desarrollo de Parent Zone y fundado Más que Robots – una plataforma para compartir investigaciones, ideas y buenas prácticas en torno a la participación digital y la participación de los jóvenes.
Parent Zone se encuentra en el corazón de la vida familiar digital, apoyando a los padres con los retos y las oportunidades de criar a los hijos en la era digital. Como empresa social, nuestra misión es mejorar los resultados de los niños en un mundo conectado. Obtenga más información sobre cómo lo hacemos en www.parentzone.org.uk