En quelques années, les technologies de l’Intelligence Artificielle (I.A.) ont investi un grand nombre de secteurs de la société et occupent une place de choix dans l’espace médiatique et intellectuel, entre ses partisans qui en brandissent tous les bienfaits actuels et potentiels et ses opposants qui s’alarment des nombreux risques (voir par exemple les numéros spéciaux de A.O.C, 2025 et Le Grand Continent, 2025 ou les conférences du séminaire Piaget, 2025). Rappelons que l’I.A., par rapport à un programme informatique classique, se caractérise par un degré important d’autonomie pour exécuter des tâches complexes comme percevoir, apprendre, raisonner et interagir (des compétences souvent associées à nos conceptions intuitives de l’intelligence humaine humaine, Khan & Thézé, 2024). L’I.A. est le fruit de nombreux travaux provenant des sciences informatiques et cognitives et comprend des technologies, dont certaines existent depuis les années 1950-1960 (Mermillod, 2024). L’I.A. devient générative par son utilisation de nombreux algorithmes capables d’élaborer des contenus nouveaux (textes, images, musique, code informatique, films, …), de manière automatique à partir de grands volumes de données existantes (« data set ») sur lesquelles elle s’est entraînée. Les contenus générés (des recompositions statistiques de tout ce qui a été appris) trouvent leur sens dans le respect des règles extraites des data sets d’entraînement. Ces règles sont mémorisées sous forme d’un « Large Language Model » (i.e, réseau de neurones) qui se caractérise par des milliards de paramètres. Comme les outils d’I.A. génératives sont alimentés par d’immenses quantités de données disponibles sur le web, leur qualité sera un élément important de leur valeur. L’I.A. générative nous donne ainsi l’illusion du contrôle, alors que chaque outil contrôlé par des entreprises privées de la Tech reste maître d’une quantité importante de paramètres difficiles à appréhender pour les usagers ordinaires (Khan & Thézé, 2024).
La manière avec laquelle nous allons utiliser ces outils présente donc un enjeu crucial dans la plupart des dimensions de notre société (politique, démocratie, santé, travail, économie, environnement, éducation, etc.). Cette nouvelle technologie va changer significativement notre rapport au monde et aux autres, et ces changements vont être majeurs pour les enfants et les adolescent·e·s. Même s’il ne faut pas négliger les effets de mode dans les médias, alimentés à grands renforts de promesses utopiques par les entreprises de la Tech, dans l’objectif notamment de lever des capitaux, l’invention d’une nouvelle technologie de l’information (par exemple l’imprimerie, le télégraphe, les journaux, les livres la radio, le téléphone, la TV, le web, les réseaux sociaux, etc.) est toujours un catalyseur de changements historiques remarquables. Pour Harari (2024), cela s’expliquerait par le rôle de l’information qui ne consiste pas à représenter principalement des réalités proches de la vérité (approche scientifique), mais plutôt à tisser de nouveaux réseaux pour connecter le maximum de personnes afin d’établir un ordre social (approche politique). L’usage actuel des informations concernant le changement climatique ou les politiques d’égalité et de diversité par le gouvernement des USA illustre parfaitement la prépondérance de ce second rôle sur le premier.
En 2023, 28 pays dont la Chine et les USA, ont signé la déclaration de Bletchley reconnaissant qu’il existe des risques globaux de dommages graves, délibérés ou involontaires, découlant des capacités les plus significatives des derniers modèles d’I.A. Par exemple, faire aveuglément confiance à une I.A. générative peut mener à de nombreuses erreurs ou biais alors que les personnes restent dépositaires de la responsabilité liée à leur tâche. De plus, tout le contenu soumis à un outil d’I.A. générative est accessible à l’entreprise propriétaire, ce qui pose la question des droits de propriété associés aux données qui l’alimentent, et celui de la propriété intellectuelle de ce qui a été produit. De plus, l’I.A. générative consomme une quantité importante d’énergie, autant pour son développement que pour son usage quotidien, ce qui va l’encontre de l’indispensable lutte contre le changement climatique.
Pour Harari, l’I.A. est la première technologie de l’information de l’histoire capable de traiter les informations, prendre des décisions et de créer des nouvelles idées par elle-même (de la production d’œuvres artistiques à des connaissances scientifiques). Selon cet auteur, l’étude de l’Histoire nous met en garde contre deux manières non pertinentes de réagir face à l’I.A. :
1) adopter une vision naïve et optimiste, car les modèles ne sont pas infaillibles et parce qu’ils ont souvent privilégié l’ordre social au détriment de la vérité en l’absence de mécanismes d’autocorrection ou
2) adopter une attitude cynique et pessimiste, car aucun réseau d’information ne peut survivre s’il ignore totalement la vérité. Harari conclut son essai, sans complaisance ni désespoir, en soulignant la capacité des humains à créer des réseaux d’informations équilibrés pouvant contrôler leur propre pouvoir en construisant des institutions politiques et scientifiques dotées de puissants mécanismes d’autocorrection.
En attendant que les réglementations européennes pour réguler le numérique en général, et l’I.A. (AI Act, 2024) en particulier, parviennent à se mettre en place et produisent leurs effets de manière efficace (malgré les oppositions par exemple du gouvernement des USA), il est difficile pour les parents d’adopter de « bonnes pratiques » éducatives avec leurs enfants (cohérentes avec leurs valeurs et pratiques éducatives personnelles). Cela est d’autant plus difficile que les entreprises de la Tech avancent à une vitesse vertigineuse. Par exemple, la signature récente d’un accord stratégique entre les entreprises Mattel et OpenAI laisse imaginer la mise sur le marché de jouets (poupées, véhicules…) dotés d’une I.A. Rappelons qu’en 2015 déjà, Mattel avait proposé une poupée Barbie connectée au Wi-fi des familles qui pouvait discuter avec les enfants. Cependant, quand les parents ont pris conscience que cette poupée enregistrait les conversations intrafamiliales et transmettait ces données à l’entreprise, cela provoqua un tel scandale que cette « poupée espionne » fut retirée de la vente.
Dix ans plus tard, lorsque de tels jouets avec I.A. capables de dialoguer vont être mis en vente, ces entreprises vont mettre en avant leurs apports bénéfiques (par exemple, écouter la voix et les comptines de leurs parents, les réconforter, accepter de répéter sans cesse, ne jamais s’énerver ou se moquer, être toujours disponible, etc.). Les jeunes enfants risquent d’avoir non seulement des difficultés à apprendre le contrôle de soi et la frustration, compétences indispensables à mettre en œuvre dans les relations avec les adultes, mais aussi de créer une relation extrêmement forte avec ces objets, devenant à la fois leur doudou et leur ami imaginaire (Gentaz, 2023). Mais si un enfant demande à son jouet si Dieu existe, si les filles sont aussi fortes que les garçons, ou s’il existe un changement climatique, quelles réponses lui seront données ? Et que deviendront les secrets familiaux qu’il confiera à la machine ? Où et comment les informations captées par ces jouets vont-elles être stockées ? Et à quelles fins seront-elles ensuite utilisées ? Il est question de mettre entre leurs mains des objets sur lesquels personne n’a de recul, probablement commercialisés sans avoir été soumis à des études d’impact ou des essais cliniques. N’importe quelle firme pharmacologique qui met un nouveau médicament sur le marché doit se plier à différents tests pour évaluer ses effets, ses risques et effets secondaires (coût/bénéfice). Mais pour ce qui est du numérique et de l’intelligence artificielle destiné aux enfants, il existe très peu de contraintes et d’études scientifiques indépendantes sur les effets de ces jouets sur le développement psychologique des enfants. Les questions que soulèvent ces produits, dont on ne sait pas grand-chose pour le moment, sont cruciales pour la société et nos démocraties européennes.
L’ensemble de ces informations me conduit à proposer aux parents une régulation des usages des I.A. récréatifs dans un contexte familial. Cette régulation est indispensable à penser et à définir pour les parents afin de les soutenir dans l’accompagnement du développement psychologique de leur enfant et leurs apprentissages. Beaucoup de parents, (des études le confirment), savent que des nouvelles technologies (calculatrice, logiciel de traitement de texte, GPS, etc.) sont très efficaces à court terme mais présentent aussi à long terme des effets négatifs sur certaines de leurs compétences actuelles (par exemple à faire des divisions sur un papier, corriger l’orthographe, retrouver un chemin sans aide, etc.) car elles favorisent la tendance générale humaine à minimiser les efforts et les engagements cognitifs quand cela est possible. Cette régulation va dépendre de l’âge de l’enfant, sa personnalité et de son contexte scolaire (e.g., I.A. éducatif traité ou non en classe). Cette proposition est structurée en trois étapes.
Étape 1 (0 à 11 ans/école primaire) – Activités Sans I.A. (ASIA)
Il important de proposer des activités qui favorisent le développement d’outils cognitifs, indispensables pour créer des contenus de manière autonome à partir d’efforts mentaux ou physiques. Les effets bénéfiques sur le développement de l’enfant des activités comme lire-écrire (de la lecture partagée à la lecture autonome de plaisir en passant par la rédaction), bouger (activités physiques et sportives), bricoler (activités manuelles, jardiner, cuisiner, etc.), jouer (jeu de faire semblant, jeu de règles, théâtre, etc.) sont largement documentés par de nombreuses recherches scientifiques (voir par exemple des synthèses pour les parents ou praticiens : Dehaene, Dehaene-Lambertz, Gentaz, Huron &
Sprenger-Charolles, 2011 ; Desmurget, 2023 ; Gentaz, 2023b ; Richard & Gentaz, 2019, 2020). Bien entendu, ces activités sont intimement liées (e.g., jouer à faire semblant de cuisiner, etc.) et leurs combinaisons infinies.
Étape 2 (12-15 ans/collège) – Conduite accompagnée et permis I.A.
L’accompagnement par les parents des enfants et des adolescent.es à comprendre et utiliser des I.A. est indispensable. Il existe de plus en plus de ressources en accès libre qui expliquent ces outils, avec leurs caractéristiques, leurs apports positifs et leurs risques. La discussion de ces points, à travers l’explicitation de leurs conséquences individuelles et collectives, est cruciale leur adhésion à réguler leurs usages. Il n’existe malheureusement pas à ma connaissance de tests individuels qui permettraient à toute personne (adultes ou adolescents) de déterminer si elle a acquis les savoirs et savoir-faire pour utiliser une I.A. L’analogie avec l’apprentissage de la conduite d’une voiture me semble très pertinente à utiliser pour proposer une régulation aux adolescents. La création rapide de cours et d’un permis I.A. en accès libre me semble une première étape nécessaire (mais non suffisante) pour aider les adultes dans leurs responsabilités et pratiques éducatives.
Étape 3 (à partir de 16 ans) – Usage autonome de l’I.A. sous condition de permis I.A.
Une fois leurs compétences cognitives et socio-émotionnelles suffisamment développées, il semble raisonnable que les adolescent·e·s puissent utiliser des I.A. de manière autonome après avoir obtenu un permis I.A. Il est important que les adolescent·e·s et les étudiant·e·s puissent s’approprier ces outils dont les performances et les usagers dans le monde ne font qu’augmenter. Par exemple, depuis le lancement de GPT-3 par OpenAI en novembre 2022, plusieurs centaines de millions de personnes l’ont testé ou adopté. La production de guide d’usage des I.A. (avec formation et mise à jour) prenant en compte les spécificités des contextes (université, école, entreprise…) est nécessaire à mettre en œuvre dans chaque institution. Il est important de souligner dans le domaine de l’éducation (contrairement à celui du monde du travail, le chemin cognitif parcouru, avec ses essais et ses erreurs, et l’effort produit est crucial pour la construction de la connaissance et tout autant ou plus que le résultat (le contenu produit final). Les compétences acquises pendant ce chemin est indispensable au développement de l’esprit critique (Gentaz, 2024) quant aux contenus générés par et avec l’I.A.
De plus, compte tenu de la vitesse de l’évolution des technologies, un renouvellement régulier d’un permis I.A. est à prévoir pour tous les jeunes et adultes.
En conclusion, si la régulation des usages des réseaux sociaux depuis leur déploiement (2010) s’avère très difficile à mettre en œuvre actuellement, celle de l’I.A. semble encore plus complexe. Utilisons nos expériences acquises et nos échecs pour tenter de mieux réguler ces usages.
Pr Edouard Gentaz
Professeur de psychologie du développement à l’Université de Genève,
Directeur de recherche au CNRS
A.O.C. (2025). Intelligence artificielle. Numéro spécial, Magazine papier du media en ligne « Analyse, Opinion, Critique ».
Déclaration de Bletchley (2023). https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023
Dehaene, S. (Ed), Dehaene-Lambertz, G., Gentaz, É., Huron, C., & Sprenger-Charolles, L. (2011). Apprendre à lire. Paris : Odile Jacob.
Desmurget, M. (2023). Faites-les lire ! Paris : Seuil.
Gentaz, É. (2022). La santé mentale des enfants en Suisse – Chapitre 8. Promotion de la santé pour et avec les enfants – Résultats scientifiques et recommandations pour la pratique. Rapport 8. Promotion Santé Suisse. https://promotionsante.ch/rapport-8
Gentaz, É (2023a). Comment les émotions viennent aux enfants ? Paris : Nathan.
Gentaz, É. (2023b). Éditorial – Redécouvrir l’intelligence de la main et les effets bénéfiques des activités manuelles sur les apprentissages et le développement neurocognitif des enfants. A.N.A.E., 182, 9-11.
Gentaz, É. (2024). Former à l’esprit critique et au changement de point de vue. Comment éduquer les citoyenn·e·s du XXIe siècle à développer des démocraties modernes ? A.N.A.E., 189, 117-119.
Harari, Y. (2024). Nexus. Une brève histoire des réseaux d’information de l’âge de pierre à l’I.A. Paris : Albin Michel.
Khan, G. & Thézé, R. (Eds) (2024). Guide d’usage des I.A. génératives à l’université. Université de Genève.
Le Grand Continent (2025). L’empire de l’ombre. Guerre et terre au temps de l’I.A. Numéro spécial sous la direction de Giuliano de Empoli. Gallimard.
Mermillod, M. (2024). De l’intelligence humaine à l’intelligence artificielle. De Boeck Supérieur.
Séminaire Piaget (2025). Intelligences animale, humaine et artificielle : similarités et spécificités. Cycle de conférences sous la direction de Édouard Gentaz. Université de Genève.
Richard, S., & Gentaz, É. (2019). Jeux d’enfants et règles de société. In C. Courtet, M. Besson, F. Lavocat, & A. Viala (Eds.), Le jeu et la règle (pp. 71-84). Paris : CNRS éditions.
Richard, S., & Gentaz, É. (eds) (2020). Le jeu et ses effets sur le développement et les apprentissages : regards multiples. A.N.A.E., 165.
Pour citer cet article : Gentaz, É. (2025). Usage récréatif de « l’I.A. générative », éducation et développement de l’enfant : une proposition de régulation en 3 étapes pour les parents. A.N.A.E., 197, 000-000. https:// https://anae-publication.com/leditorial/
Copyright © 2023 ANDROMEDA WEB