Il est difficile de maximiser les avantages de l’IA pour l’éducation et la croissance des enfants, tout en garantissant leur vie privée, leur développement sain et leur bien-être émotionnel, avertit Anna Collard, vice-présidente de la stratégie de contenu chez KnowBe4 Africa.
L’intelligence artificielle (IA) a connu une avancée fulgurante en seulement deux ans, transformant profondément la vie quotidienne, en particulier pour les jeunes. Des outils comme ChatGPT, Gemini de Google, et Copilot de Microsoft, ainsi que l’intégration de chatbots IA dans des plateformes telles que WhatsApp et Instagram, sont désormais omniprésents. Pour Anna Collard, vice-présidente de la stratégie de contenu chez KnowBe4 AFRICA, cette évolution est à la fois excitante et inquiétante pour les enfants qui grandissent dans ce nouvel environnement numérique.
L’IA offre des opportunités sans précédent en matière d’éducation. Selon Anna Collard, ces outils permettent aux enfants d’explorer leur créativité, d’apprendre de nouvelles langues et d’améliorer leurs compétences en résolution de problèmes à travers des interactions attrayantes et personnalisées. Les chatbots, capables de fournir des réponses immédiates et adaptées, deviennent des compagnons d’apprentissage pour les jeunes esprits curieux.
Cependant, cette même accessibilité pose des questions cruciales, en particulier sur la protection de la vie privée, les effets psychologiques potentiels et le développement de l’esprit critique des enfants.
Des risques pour la vie privée
L’une des préoccupations majeures entourant l’utilisation des IA par les enfants est la collecte de données. « Les chatbots peuvent sembler inoffensifs, mais ils collectent souvent des informations personnelles sans consentement approprié », avertit Collard.
Les risques vont des publicités ciblées à la création de profils détaillés des utilisateurs, basés sur leurs comportements et préférences. Cela peut exposer les jeunes à des manipulations malveillantes, notamment la désinformation ou des tentatives de « grooming » en ligne.
Les modèles d’IA générative, souvent conçus pour les adultes, ne tiennent pas toujours compte des protections spécifiques nécessaires pour les mineurs, ce qui soulève des questions sur la sécurité des interactions pour les plus jeunes.
Un autre danger réside dans la confiance excessive que les enfants peuvent développer envers ces outils. « Les enfants risquent de percevoir les chatbots comme des amis humains », explique Collard, une situation amplifiée par un phénomène appelé « effet de confiance excessive. » Cette surconfiance peut conduire à une diminution de l’esprit critique, les enfants acceptant les réponses des IA sans les remettre en question, au détriment de leur jugement personnel.
Cette dépendance à l’IA pourrait réduire les interactions sociales réelles, un facteur essentiel dans le développement social et émotionnel des jeunes.
Des informations inexactes et inappropriées
Malgré leur sophistication, les IA génératives ne sont pas infaillibles. Lorsqu’elles ne disposent pas d’informations précises, elles peuvent inventer des réponses, un phénomène connu sous le nom d’« hallucination. » Pour les enfants, cela peut signifier recevoir de fausses informations sur leurs devoirs ou, pire encore, un mauvais diagnostic en matière de santé.
Par ailleurs, les systèmes d’IA peuvent refléter les biais présents dans les données sur lesquelles ils sont formés, renforçant ainsi la désinformation et les stéréotypes. L’un des dangers les plus redoutés est l’exposition à des contenus inappropriés, y compris des images manipulées, exploitant la vulnérabilité des enfants.
L’utilisation excessive des technologies basées sur l’IA peut également avoir un impact psychologique sur les enfants. Collard souligne des effets secondaires déjà observés avec d’autres technologies numériques, comme l’augmentation de l’anxiété, de la dépression, et la réduction des interactions sociales significatives.
« Nous constatons que ces nouvelles technologies réduisent l’esprit critique chez les jeunes, les rendant moins enclins à remettre en question ce qu’ils voient ou lisent », ajoute-t-elle.
Face à ces défis, les parents et les éducateurs doivent jouer un rôle clé. Surveiller l’utilisation de l’IA par les enfants, établir des règles familiales, et encourager des activités sans écran, comme la lecture et les jeux physiques, sont des mesures importantes pour contrebalancer les effets négatifs de ces technologies, suggère-t-elle.
De leur côté, les décideurs politiques commencent à prendre des mesures. En Europe, par exemple, la loi sur l’IA vise à renforcer la sécurité des systèmes d’IA, bien qu’elle ne cible pas spécifiquement les enfants. Cependant, Collard estime qu’il reste encore beaucoup à faire pour protéger efficacement les droits et la sécurité des mineurs.
ARD/ac/Sf/APA