Édition internationale

L’Inde renforce l’encadrement de l’Intelligence Artificielle

Les réseaux sociaux devront désormais annoncer si une vidéo ou image est un deepfake et supprimer les contenus nuisibles en 3 heures.

download (20)download (20)
Écrit par lepetitjournal.com Bombay
Publié le 11 février 2026, mis à jour le 13 février 2026

Le problème des deepfakes et de l’IA

L’explosion de l’IA pose de nombreuses nouvelles problématiques : les machines vont-elles prendre le contrôle du monde ? Peut-on encore apprendre avec ChatGPT ? Si l’IA peut copier tout travail, notre travail a-t-il encore une valeur ? Peut-on faire confiance à l’IA et qui contrôle l’IA ?

Ces questions se posent en Inde et dans le monde alors que les études montrent une augmentation significative des deepfakes, ces vidéos ou images qui semblent en premier lieu vraies et qui brouillent les limites entre la réalité et la fiction. De 500.000 vidéos partagées sur les réseaux sociaux en 2023; nous sommes passés à environ 8 millions en 2025 et si les vidéos de Panda ou Ours sont très mignonnes, celles montrant de fausses informations sur nos politiciens, sur l’état du monde, ou sur notre voisine dans une position compromettante peuvent occasionner d’importants dégâts dans nos vies personnelles et  pour nos démocraties (plus de 90% des deepfakes partagés sur les réseaux sociaux représentent des photos intimes non consenties).

 

 

Une étude de McAfee-linked suggère que 75% des Indiens ont eu accès à des deepfakes en 2025, souvent via des plateformes comme WhatsApp, Telegram, Facebook, etc. 38% d’entre eux seraient liés à des fraudes.

En Inde, les deepfakes représenteraient environ 6,5 % de toutes les tentatives de fraudes et vols d’identité en 2025. 

Selon des données officielles., les affaires de cyberfraude impliquant de fortes sommes en Inde ont été multipliées par plus de quatre au cours de l’année 2024, entraînant des pertes d’environ 20 millions de dollars.

Cela met en évidence la montée des risques dans un pays où des centaines de millions de transactions financières numériques sont effectuées chaque jour. 

Et moins de 30% des Indiens seraient capables de reconnaître des deepfakes partagés sur les réseaux sociaux.

Le gouvernement a donc décidé de se saisir du problème et en amont du sommet sur l’IA qui aura lieu à Delhi à partir du 16 février, a annoncé une série de mesures veillant à protéger la population.

 

L’Inde met à jour sa réglementation sur l’intelligence artificielle

Le gouvernement central donne pour la première fois, une définition officielle des « informations générées synthétiquement ». Elle couvre tout contenu audio, visuel ou audiovisuel créé ou modifié à l’aide d’un outil informatique qui paraît réel et qui montre des personnes ou des événements d’une manière pouvant passer pour authentique. Les retouches courantes comme la correction des couleurs, la réduction du bruit, la compression ou traduction de fichiers n’est pas incluse dans cette définition.

 

L’Inde a aussi mis à jour sa réglementation sur l’Intelligence artificielle en responsabilisant les plateformes de réseaux sociaux, qui devront désormais identifier clairement ce type de contenu. Vous n’aurez donc plus à vous poser la question si votre dernière vidéo Instagram est vraie ou pas.

Les informations synthétiquement générées (SGI) impliquant des contenus d’abus sexuels sur mineurs, du contenu obscène, de faux documents électroniques, du matériel lié aux explosifs, ou des deepfakes qui déforment l’identité ou la voix d’une personne réelle relèveront désormais du Bharatiya Nyaya Sanhita, de la loi POCSO et de la loi sur les substances explosives.

L’Inde va aussi plus loin en exigeant des plateformes de retirer tout contenu problématique dans un délai de trois heures contre 36h auparavant. 

Reste à savoir comment les plateformes de réseaux sociaux vont réussir à mettre en place ces nouvelles exigences.

 

Commentaires

Votre email ne sera jamais publié sur le site.