Les éducateurs et les professionnels de la technologie éducative imaginent les possibilités infinies de l’intelligence artificielle dans la salle de classe tout en s’inquiétant que la révolution de l’IA puisse encore élargir la fracture numérique.
Les disparités sont partout, que ce soit en termes de revenus, de race, de langue ou de lieu – urbain, suburbain et rural. La connectivité, l’accès et la compréhension restent des obstacles. Si les familles et les enfants ne peuvent pas se permettre un accès Internet haut débit à la maison, sans parler d’un appareil de navigation sur le web personnel qui n’a pas besoin d’être partagé, comment peuvent-ils éviter de prendre du retard alors que l’IA devient de plus en plus intégrée à l’apprentissage ?
En Californie, 56% des enfants scolarisés dans les écoles publiques sont éligibles aux repas scolaires gratuits ou à prix réduit, 40% des enfants vivant dans des ménages à faible revenu n’ont pas accès à Internet en dehors de l’école et 20% de ceux inscrits de la maternelle à la 12e année apprennent encore l’anglais, selon le Public Policy Institute of California (PPIC), un groupe de réflexion à but non lucratif et non partisan.
Niu Gao, chercheuse principale au PPIC, a déclaré que l’argent fédéral consacré à l’infrastructure qui subventionne les services Internet haut débit pour les familles éligibles aux revenus est un “bon début”, mais que davantage de ressources sont nécessaires en Californie, notamment dans les zones côtières où le coût de la vie est élevé mais où les emplois dans le secteur des services ne permettent guère de vivre décemment.
“Si la subvention est de 30 dollars par mois mais que le coût moyen du haut débit est de 60 dollars par mois, vous avez toujours besoin de ces 30 dollars supplémentaires pour acheter de la nourriture”, a-t-elle déclaré dans une interview accordée à Government Technology.
Un autre problème est le biais présent dans les outils d’IA eux-mêmes. Le Bureau de la technologie éducative du Département de l’éducation des États-Unis a identifié la promotion de l’équité comme l’un des quatre fondements de l’élaboration de politiques éthiques et équitables. Dans son rapport de mai 2023 intitulé “Intelligence artificielle et avenir de l’enseignement et de l’apprentissage”, cet organisme a averti que “le biais algorithmique pourrait diminuer l’équité à grande échelle avec une discrimination involontaire”.
“Les ensembles de données sont utilisés pour développer l’IA, et lorsqu’ils ne sont pas représentatifs ou contiennent des associations ou des schémas indésirables, les modèles d’IA résultants peuvent agir de manière injuste dans la détection des schémas ou l’automatisation des décisions”, indique le rapport.
“Le biais est inhérent à la façon dont les algorithmes d’IA sont développés à partir de données historiques, et il peut être difficile d’anticiper tous les impacts des données et des algorithmes biaisés lors de la conception du système. Le département estime que les biais dans les algorithmes d’IA doivent être traités lorsqu’ils introduisent ou perpétuent des pratiques discriminatoires injustes dans l’éducation”.
Julianne Robar, directrice des métadonnées et de l’interopérabilité des produits pour l’entreprise de technologie éducative Renaissance, a déclaré qu’il y a une pression intense et une concurrence féroce pour développer des outils d’IA qui peuvent aider à combler le fossé. Son entreprise a développé un logiciel de reconnaissance vocale alimenté par l’IA, Lalilo, pour enseigner la lecture aux jeunes élèves. Des outils comme celui-ci permettent aux enseignants de passer plus de temps avec les élèves qui ont besoin d’une aide supplémentaire, ce qui est souvent le cas pour les enfants qui apprennent encore l’anglais ou qui font face à la pauvreté ou à la faim en dehors de l’école. Une entreprise concurrente de technologie éducative, SoapBox, a relevé le défi dans le domaine de la littératie précoce en développant un produit de reconnaissance vocale qui reconnaît les accents et les dialectes des enfants, qui peuvent varier en fonction de leur race.




