- 25/03/2026
Deepfake en entreprise : l'arnaque au président par l'IA
- Par Maéva MARMIN
- 10 min
- SÉCURITÉ & CYBERSÉCURITÉ
En usurpant la voix et le visage des dirigeants, les cybercriminels ont fait passer l'arnaque au président à un niveau de sophistication inédit. Désormais, des appels clonés permettent de détourner des millions d'euros en quelques minutes. Par ailleurs, les visioconférences entièrement synthétiques renforcent cette menace.
Cette menace touche toutes les entreprises, quelle que soit leur taille. C'est pourquoi ce guide fait le point sur les mécanismes d'attaque, les signaux à repérer et les protocoles concrets à mettre en place dès maintenant.
Ce que disent les chiffres
La menace deepfake n'est pas théorique : elle se traduit en pertes financières documentées et en tendances de progression alarmantes. En outre, les données disponibles permettent désormais de mesurer l'ampleur réelle du phénomène.
Ces chiffres confirment une réalité que les équipes de sécurité observent sur le terrain : le deepfake n'est plus réservé aux États ou aux groupes criminels sophistiqués. En effet, un simple abonnement à un outil grand public suffit désormais. Autrement dit, la barrière technique a quasiment disparu.
Comment fonctionne une attaque deepfake
Pour se défendre efficacement, il faut d'abord comprendre le déroulé précis de ces attaques. Ainsi, chaque étape révèle une fenêtre d'action dans laquelle un protocole adapté peut faire échouer la fraude.
LinkedIn, YouTube, podcasts : quelques minutes d'audio public suffisent à alimenter le modèle de clonage vocal ou facial. Ainsi, les dirigeants médiatisés sont particulièrement exposés.
ElevenLabs, HeyGen : réplique sonore et avatar animé générés en quelques minutes, utilisables en temps réel lors d'un appel ou d'une visioconférence.
Acquisition secrète, audit fiscal surprise, blocage bancaire imminent — l'urgence artificielle inhibe le raisonnement critique et pousse à agir sans vérifier.
Transaction irréversible déclenchée en quelques minutes. Par conséquent, la fraude est détectée en moyenne après 48 à 72h, souvent trop tard pour bloquer les fonds.
Un exemple concret : la simulation d'appel frauduleux
Pour illustrer ce mécanisme, voici comment s'est déroulée l'attaque la plus documentée à ce jour et ce qu'un employé a entendu lors de cet appel frauduleux.
Un comptable transfère 25 millions de dollars lors d'une fausse réunion Zoom
Un employé d'une multinationale reçoit une invitation à une réunion de crise avec son directeur financier. Or, tous les participants sont des deepfakes animés en temps réel. À l'issue de la réunion, l'employé effectue ainsi 15 virements frauduleux. Il faut donc un contact direct avec le vrai siège pour finalement découvrir l'arnaque.
Les signaux qui trahissent un deepfake
Même les modèles les plus avancés laissent des traces détectables. Toutefois, encore faut-il savoir où regarder. De plus, il faut surtout avoir la présence d'esprit d'y penser au moment précis de la sollicitation.
Les bonnes pratiques à adopter
La bonne nouvelle est que des mesures simples et peu coûteuses réduisent drastiquement le risque. En fait, la quasi-totalité des entreprises victimes n'en avaient appliqué aucune. Voici donc, concrètement, les réflexes recommandés par l'ANSSI et les experts en sécurité.
Instaurer un mot de passe verbal
Établissez un code secret mensuel partagé entre dirigeants et équipes finance. Ainsi, toute demande sensible sans ce code doit être refusée et signalée, quel que soit l'interlocuteur apparent.
Appliquer la vérification hors-bande
Pour toute demande reçue par téléphone ou visio, raccrochez et rappelez via le numéro officiel enregistré dans votre répertoire d'entreprise. En aucun cas, ne rappelez via le numéro affiché sur l'appel entrant.
Imposer la double validation financière
Tout virement dépassant un seuil défini doit être confirmé par deux responsables distincts via deux canaux différents. En effet, l'urgence est précisément le levier utilisé par les fraudeurs. Cette règle s'applique donc sans exception.
Former les équipes régulièrement
Organisez des simulations d'attaque deepfake trimestrielles. La sensibilisation régulière réduit le risque de 60 % selon l'ANSSI. Ainsi, le réflexe de vérification doit devenir automatique.
Déployer des outils de détection IA
Des solutions comme Reality Defender, Sensity AI ou Microsoft Video Authenticator analysent automatiquement les flux vidéo et audio suspects. Elles doivent toutefois être utilisées en complément des procédures humaines.
Limiter l'exposition publique des dirigeants
Réduisez la quantité de contenu audio et vidéo accessible publiquement. En effet, les enregistrements longs sur YouTube ou LinkedIn constituent le carburant principal du clonage vocal et facial.
À faire / À éviter
Ces deux fenêtres résument les comportements qui font la différence entre une entreprise exposée et une entreprise protégée. En réalité, la plupart des fraudes exploitent l'absence d'un seul de ces réflexes. C'est pourquoi chaque point mérite, en particulier, une attention soutenue.
FAQ
Un deepfake vocal est-il vraiment indétectable au téléphone ?
Que faire si l'on pense avoir été victime d'une attaque deepfake ?
Les PME sont-elles vraiment concernées ou seulement les grandes entreprises ?
Outils et cadre réglementaire
Existe-t-il des outils pour détecter automatiquement les deepfakes en entreprise ?
Le règlement européen sur l'IA (AI Act) protège-t-il contre les deepfakes frauduleux ?
Sources : ANSSI (Panorama de la cybermenace 2023) · Onfido Identity Fraud Report 2024 · IBM Cost of a Data Breach Report 2024 · South China Morning Post (jan. 2024) · AI Act européen (2024).
Protégez votre entreprise
contre les deepfakes.
Mot de passe verbal, vérification hors-bande, double validation financière, simulation d'attaque : mettre en place les bons réflexes ne suffit pas sans un protocole formalisé et des équipes entraînées. Sæpiens vous accompagne dans l'évaluation de votre exposition aux fraudes par IA et le déploiement de procédures adaptées à votre organisation.
Vous souhaitez évaluer la résistance de vos équipes face aux attaques deepfake ?
ÉVALUER VOTRE EXPOSITION