loader image

L’impérieuse nécessité de réguler rapidement les nouvelles applications basées sur l’I.A. (« Sora », « Vibes », etc.) : 14 idées de mesures pour limiter une catastrophe annoncée -ANAE N° 198 – É. Gentaz

Mon dernier éditorial soulignait que la manière avec laquelle nous allons utiliser les outils de l’I.A. présente un enjeu crucial dans la plupart des dimensions de notre société (politique, démocratie, santé, travail, économie, environnement, éducation, etc.) car cette nouvelle technologie va radicalement changer notre rapport au monde et aux autres. Pour répondre aux besoins d’accompagner les parents quant à la nature des bonnes pratiques éducatives à adopter avec leurs enfants, j’avais proposé une régulation des usages des I.A. récréatifs dans un contexte familial en trois étapes successives : une première (0 à 11 ans/école primaire) sans I.A., une seconde étape (12-15 ans/collège) de conduite accompagnée et permis I.A. et une troisième étape  (à partir de 16 ans) avec un usage autonome de l’I.A. sous condition de permis I.A. (Gentaz, 2025).

Si une régulation est indispensable à penser et à définir pour soutenir les parents dans l’accompagnement du développement psychologique de leur enfant et leurs apprentissages, elle demeure largement incomplète compte tenu de la vitesse de l’évolution des technologies et de leur mise sur le marché par les entreprises de la Tech.

En effet, une régulation rapide et forte par les pouvoirs publiques est impérieuse pour aider les adultes dans leur exercice si difficile de la parentalité. Les cas de nouveaux services (Sora, Vibes) de création de courtes vidéos sonorisées basées sur l’I.A. et inspirées de TikTok illustrent parfaitement cette nécessité.

Avec de telles applications, il sera très facile, pour toute personne dans le monde, à partir d’une simple consigne, de générer ou modifier des vidéos hyper-réalistes, et d’y intégrer n’importe quelle personne dans n’importe quelle situation (fonction dite caméo ou passage éclair).  Ces vidéos seront ensuite très probablement partagées sur les réseaux sociaux, compilées par l’application de manière à être proposées de manière infinie (phénomène de scrolling) à tous les utilisateur·rice·s. Il sera probablement très difficile de les distinguer de vidéos réelles.

Même si les fabricants annoncent quelques sécurités et protections, il est clair que nous allons assister dans les prochains mois, dès que ces applications seront disponibles en Europe, à un déferlement sur les réseaux sociaux de vidéos avec des contenus faux (deepfakes, infox vidéo ou vidéotox, etc.), non réels, (probablement en grande partie pédopornographiques ou très violents) mettant en scène des enfants et
adolescent·e·s (sans compter celles qui vont concerner les débats politiques au moment des élections). Dans ce déluge de vidéos générées qui vient, il existera bien entendu des vidéos positives, intelligentes et drôles, mais il est à parier que ces dernières seront les moins consommées.

Contrairement à cette idée reçue consistant à considérer l’I.A. comme intrinsèquement incontrôlable, des modalités de régulation pour les enfants et adolescent·e·s pourraient être intégrées pour influer à différents niveaux. Voici une liste de 14 idées de mesures, non exhaustives et plus ou moins complexes à mettre en œuvre, à proposer au débat dans nos espaces démocratiques :

1 – Études d’impact des usages de toute nouvelle application sur le développement des enfants et adolescent·e·s pour conditionner une autorisation de mise sur le marché (analogue à la procédure en vigueur pour la mise sur le marché de nouveaux médicaments) ;

2 – Contrôle de l’âge des enfants et adolescent·e·s par les applications ;

3 – Permis I.A. exigé (analogue au permis de conduire) pour les inscriptions à ces applications ;

4 – Nombre limité de vidéos consultables par jour pour les enfants et adolescent·e·s ;

5 – Horaires limités de consultations de ces vidéos ;

6 – Notifications envoyées aux parents sur les catégories de vidéos créées et consultées ;

7 – Sélection par les parents des catégories de vidéos crées consultables ;

8 – Transparence ou publication des algorithmes de sélection des vidéos selon les profils ;

9 – Augmentation significative des modérations dans chaque pays ;

10 – Responsabilité juridique des propriétaires des applications sur les contenus publiés avec leurs applications ;

11 – Obligation aux fabriquant d’I.A. de fournir en parallèle des détecteurs de fausses vidéos et des formations online pour apprendre à les utiliser ;

12 – Marquage numérique définitif et automatique de toutes les vidéos générées par ces applications et inscription dans un registre international public ;

13 – Enregistrement du caractère authentique de vidéos dans un registre public mondial (sorte de blockchain), afin de les différencier des vidéos non authentiques ;

14 Système de sanctions financières et juridiques dissuasives en cas de non-respects des règles.

En conclusion, il est impérieux que les pouvoirs publics prennent leurs responsabilités et régulent très rapidement et de manière constante ces nouvelles technologies (réseaux sociaux, I.A. génératives et leurs applications). De plus, il serait crucial que ces idées de mesures puissent contribuer au débat public.

Pr Edouard Gentaz
Professeur de psychologie du développement à l’Université de Genève,
Directeur de recherche au CNRS

Références

Conseils de lecture

Bronner, G. (2025). À l’assaut du réel. PUF

Gentaz, É. (2025). Éditorial – Usage récréatif de « l’I.A : générative », éducation et développement de l’enfant. : une proposition de régulation en 3 étapes pour les parents. A.N.A.E., 197, 413-417. https:// https://anae-publication.com/leditorial/

Pour citer cet article : Gentaz, É. (2025). L’impérieuse nécessité de réguler rapidement les nouvelles applications basées sur l’I.A. (« Sora », « Vibes », etc.) : 14 idées de mesures pour limiter une catastrophe annoncée. A.N.A.E., 198, 000-000. https:// https://anae-publication.com/leditorial/

Pour aller plus loin