En France, l’intelligence artificielle progresse dans les usages mais peine à gagner la confiance des citoyens. Une étude internationale révèle un paradoxe montrant que les Français utilisent l’IA, en attendent beaucoup, tout en la redoutant. Méfiance face aux risques, régulation mal connue et manque d’information et de formation lepetitjournal.com dévoile les raisons du scepticisme français.


L’intelligence artificielle continue de s’installer dans la vie quotidienne des Français. Pour rédiger un rapport scolaire via ChatGPT ou générer une image à l’aide de DALL·E, 67 % des Français déclarent utiliser l’IA intentionnellement, selon l’étude internationale menée par KPMG et la Melbourne Business School. Un chiffre légèrement supérieur à la moyenne mondiale (66 %), mais nettement en dessous de celui des pays émergents (80 %), où l’IA est perçue comme un levier de développement plus qu’un risque.
Mais cette enquête, réalisée auprès de plus de 48.000 personnes dans 47 pays, révèle surtout un niveau particulièrement bas de confiance des Français envers l’IA. Seuls 33 % déclarent faire confiance à cette technologie, contre 46 % dans le monde et 57 % dans les pays émergents. La France se situe ainsi parmi les pays les plus méfiants, au même niveau que les Pays-Bas, et juste devant l’Allemagne.

Une perception du risque très élevée
Les raisons de cette défiance sont multiples, mais la perception du risque joue un rôle majeur. 41 % des Français estiment que les risques liés à l’IA l’emportent sur ses bénéfices, contre 32 % à l’échelle mondiale. Parmi les dangers anticipés, on retrouve la désinformation, la manipulation, l’intrusion dans la vie privée, la perte d’interactions humaines, ou encore les atteintes aux droits fondamentaux. Par exemple, l’utilisation de deepfakes dans les campagnes électorales, ou les craintes de surveillance algorithmique à la manière chinoise, nourrissent un climat de suspicion. Pour rappel, en Slovaquie, en 2023, une vidéo truquée attribuant de faux propos à un candidat pro-européen a circulé à la veille du scrutin législatif, semant le doute chez les électeurs. Situation similaire aux États-Unis, où une fausse bande audio de Joe Biden appelant à ne pas voter a été diffusée lors des primaires démocrates de 2024.
Mais il est important de noter un décalage entre les peurs projetées et l’expérience réelle. Par exemple, 81 % des Français craignent une atteinte aux droits humains, mais seuls 20 % déclarent l’avoir constatée dans la pratique. Même constat pour les biais et discriminations où 72 % des sondés français anticipent le risque, mais 24 % seulement l’ont rencontré. À noter tout de même qu’en 2018, Amazon a dû abandonner un outil de recrutement automatisé après avoir constaté que l’algorithme favorisait systématiquement les candidatures masculines. L’IA, entraînée sur dix années de CV internes, avait intégré le biais selon lequel les hommes étaient plus souvent promus dans les postes techniques. Résultat, elle pénalisait les femmes sans jamais avoir été programmée pour cela.
Les Français aussi inquiets qu’optimistes
Ainsi, les Français ne rejettent pas l’IA et oscillent entre inquiétude (61 %) et optimisme (60 %). Beaucoup reconnaissent ses apports potentiels avec la simplification des démarches administratives, les aides à la rédaction ou les outils d’analyse prédictive Un paradoxe partagé avec d’autres pays, mais qui, en France, semble alimenté par une attente forte et des déceptions récurrentes.
Car si 81 % des Français attendent des bénéfices de l’IA, comme des gains de temps (89 %), une meilleure efficience (87 %), plus d’innovation (83 %), seuls 59 % affirment en avoir constaté, contre 73 % dans le monde. Et les avancées observées concernent principalement des tâches simples ou répétitives.

Une méconnaissance profonde de l’intelligence artificielle
Derrière la défiance, se cache en réalité un déficit de compréhension. Seuls 39 % des Français disent avoir des connaissances sur l’IA, contre 46 % dans les autres pays avancés et 64 % dans les pays émergents. À noter qu’à peine 24 % ont reçu une formation dédiée, qu’elle soit professionnelle, académique ou personnelle.
Et cela se traduit par des comportements à risque. Des cas récents ont montré que l’usage non encadré d’outils comme ChatGPT peut soulever des questions juridiques importantes. Par exemple, une des dernières versions de l’IA d’OpenAI permettait de générer des images dans le style du mythique Studio Ghibli, sans licence officielle, suscitant des inquiétudes sur la violation potentielle de la propriété intellectuelle.
Le manque de repères pousse donc souvent à une utilisation intuitive et donc imprudente. Pourtant, le lien entre connaissance et confiance est flagrant. Selon l’étude, les pays les plus confiants sont aussi les mieux formés. Mais le déficit de confiance et de connaissance alimente la confusion et les fantasmes. Beaucoup redoute un remplacement massif de l’humain, une perte de contrôle, voire une prise de pouvoir des machines, alors même que l’IA actuelle repose avant tout sur l’imitation statistique et non sur une réelle autonomie. Mais cette crainte ne date pas d’hier. En 2018, le World Economic Forum prévoyait déjà le remplacement de plus de la moitié des postes mondiaux par des machines en 2025, une réalité encore bien lointaine aujourd’hui.
Confidences, assistance ou sexualité… de quoi parle-t-on vraiment avec l’IA ?

La réglementation de l’IA encore très méconnue
Un autre facteur de méfiance est la régulation. Si la majorité des Français réclament un encadrement plus strict, 92 % ignorent l’existence des réglementations en vigueur, y compris le récent AI Act européen, pourtant entré en application en août 2024. Ce texte vise à encadrer les usages de l’intelligence artificielle dans l’Union européenne, en imposant des règles strictes selon le niveau de risque que présentent les systèmes d’IA pour les droits fondamentaux.
Concrètement, l’AI Act de l’Union Européenne classe les intelligences artificielles en quatre catégories :
-Risque inacceptable : certains usages sont tout bonnement interdits, comme les systèmes de notation sociale ou la reconnaissance faciale de masse dans l’espace public.
-Haut risque : les IA utilisées dans des domaines sensibles (justice, santé, éducation, ressources humaines…) doivent respecter des obligations strictes de transparence, traçabilité, supervision humaine et sécurité.
-Risque limité : des exigences d’information sont imposées aux IA utilisées pour interagir avec le public (chatbots, assistants virtuels…).
-Risque minimal : les IA non sensibles comme les filtres de spam ou les recommandations de vidéos sont libres d’utilisation sans obligations particulières.
Actuellement, seuls 32 % des sondés jugent le cadre législatif actuel suffisant. À noter également que les Français font nettement plus confiance au secteur de la santé (80 %) et aux universités (83 %) pour encadrer l’IA, que l’État (55 %) ou les entreprises privées (55 %).
🤖 Un fond géré par l'IA surperforme le MSCI WORLD depuis 1 an 🧐
— Alex | Learn2gether 📈 (@ApprendEnsemble) July 18, 2025
Bon ça reste une courte période mais intéressant à suivre ... ⏳
Feriez vous confiance à l'IA pour tenter de surperf un indice ? 🤨 pic.twitter.com/Fwf1jbnQTC
Comment restaurer la confiance envers l’IA ?
Résultat, cette défiance entraîne un ralentissement de l’adoption responsable de l’IA. En entreprise, seuls 41 % des salariés français l’utilisent dans leurs missions, et 53 % reconnaissent un usage inapproprié ou risqué. Un salarié peut copier-coller des documents sensibles dans une IA générative sans savoir si les données sont réutilisées. 30 % des sondés l’ont déjà fait, selon le rapport, sans accompagnement ni directive claire. Le rapport mentionne alors une forme de “Shadow AI”, où l’IA est utilisée dans l’ombre, sans stratégie ni gouvernance.
Shadow AI : quand Samsung et Amazon craignent pour leur sécurité
Le terme de “Shadow AI” désigne l’utilisation de l’intelligence artificielle dans un cadre professionnel sans validation ni supervision officielle par l’entreprise. Une pratique qui n’est pas sans conséquences. En mars 2023, des ingénieurs de Samsung ont copié du code source confidentiel dans ChatGPT pour résoudre un bug. D’autres ont utilisé l’outil pour transcrire une réunion classée interne. L’affaire a poussé la direction à interdire l’usage de l’IA générative dans toute une division, craignant des fuites potentielles vers les serveurs d’OpenAI. Il en va de même chez Amazon où des employés ont été alertés après avoir découvert que ChatGPT réutilisait des données internes dans ses réponses, preuve que l’outil avait appris à partir de contenus sensibles soumis sans précaution.
Face à la défiance exprimée par les Français, l’étude KPMG propose de suivre une stratégie articulée autour de trois piliers : la formation, la gouvernance et la communication. Une stratégie d’autant plus cruciale que 79 % des Français se disent prêts à faire davantage confiance à l’IA à condition d’avoir la garantie d’un usage éthique et encadré.
Sur le même sujet









































