La dématérialisation de nos activités ouvre la porte à la multiplication des fraudes. En acquérant une maîtrise du numérique et des outils de l’intelligence artificielle, les criminels redoublent d’imagination pour soutirer de l’argent.

Jennifer DeStefano (à gauche), victime d’un clonage vocal par intelligence artificielle, a témoigné devant le Sénat américain, le 13 juin 2023, à Washington. L’arnaqueur utilisait la voix de sa fille, tout en menaçant de la tuer, pour demander une rançon à sa mère. JACK GRUBER-USA TODAY/SIPA USA

Ceux qui ont voté pour George Santos, élu au Congrès américain en novembre 2022 dans les rangs des républicains, pensaient avoir voté pour un jeune financier brillamment diplômé, d’origine juive, homosexuel et propriétaire de nombreuses demeures. Rien de tout cela n’était vrai. D’origine brésilienne et ayant des démêlés avec la justice de son pays, il était séparé de sa femme, habitait chez sa sœur et confiait finalement être plutôt catholique… Il a été inculpé en mai, pas tant pour ses mensonges, qu’il a qualifiés « d’erreurs », mais pour fraudes financières, blanchiment d’argent et détournement de fonds publics. De tels faussaires, menteurs, mythomanes ou plagiaires, l’histoire en regorge. Ils ne sont pas tous démasqués, mais leur capacité à nuire et à causer du tort est souvent limitée.

En revanche, grâce aux progrès des technologies numériques, et notamment de l’intelligence artificielle (IA), les fraudes et les contrefaçons prennent une ampleur inédite et bien plus inquiétante, dans des domaines où leurs conséquences peuvent être graves. Une ampleur inédite, car les technologies les mettent à la portée de tous, à moindre coût, et sans devoir maîtriser l’informatique ou le codage. Avec des solutions logicielles en kit, achetées « sur étagère » sur le dark Web, les malfrats peuvent lancer rapidement une arnaque à grande échelle et disparaître en un instant en effaçant leurs traces.Ces fraudes sont aussi plus inquiétantes car très difficiles, voire pour certaines impossibles, à détecter. Et les malfaiteurs ont vite appris à maîtriser et à exploiter ces moyens numériques sophistiqués, qui les aident à conforter leur avance sur les forces de l’ordre, fussent-elles du cyberespace.

Les fraudes visent généralement deux objectifs : la manipulation (propagande, espionnage…) ou le vol. La récente campagne « Doppelgänger » illustre bien le premier objectif. Menée par la Russie, cette opération de propagande et d’ingérence a produit de faux sites et des liens qui usurpaient l’identité visuelle de sites gouvernementaux et de plusieurs journaux européens et français, dont Le Monde. Ces liens conduisaient à des articles qui promouvaient la Russie et dénigraient l’Ukraine ainsi que les pays qui la soutiennent, en imitant parfaitement le style et l’aspect graphique des sites contrefaits.

Une plus grande crédibilité

Grâce à l’IA générative de type ChatGPT, les « fermes à trolls », ces organisations qui diffusent massivement de fausses informations sur les réseaux sociaux, sont capables de produire des contenus policés, bien présentés et dans un français très correct. Fini les fautes d’orthographe et les erreurs de syntaxe qui permettaient aux plus attentifs de détecter les faux sites. « Dans ce domaine de la déstabilisation géopolitique, les desseins sont plus larges qu’avant. Il ne s’agit plus de petites campagnes, mais d’opérations d’envergure visant à manipuler l’opinion, comme “Doppelgänger”, ou à recueillir des informations stratégiques, comme la campagne de cyberespionnage menée contre le secteur européen de la défense par le groupe de pirates Lazarus sur le réseau professionnel LinkedIn », remarque Benoît Grunemwald, expert cybersécurité chez ESET France.

Du côté des fraudes financières, la créativité qu’apporte le numérique n’est pas en reste. Au printemps, des SMS de l’Agence nationale de traitement automatisé des infractions (Antai) signifiaient au destinataire un retard de paiement. Un lien renvoyait sur un site ressemblant à celui de l’Antai où il fallait rentrer ses coordonnées, y compris bancaires, pour s’acquitter de cette amende de stationnement probablement oubliée… Il s’agissait en fait d’un hameçonnage traditionnel destiné à recueillir des données bancaires personnelles, qui ont ensuite été revendues sur le dark Web.

L’innovation dans ce domaine est la fraude au coursier. La banque appelle son client, un problème a été détecté sur sa carte bancaire. Pas de souci, un coursier rapidement dépêché pour vérifier le fonctionnement de la carte arrive avec un lecteur et vérifie que la carte et le code sont bien reconnus. Tout va bien. Le client est rassuré, le coursier repart avec toutes les données du client enregistrées dans le lecteur.

Les vacances donnent également lieu à de nouvelles arnaques. Une annonce de location dénichée sur un site réputé, mais qui n’est malheureusement plus disponible, renvoie vers un autre site, sur lequel, coup de chance, la maison est encore disponible pendant cette semaine d’août tant convoitée… Il y a même une vidéo. L’affaire est conclue. Le propriétaire envoie un RIB, le futur vacancier envoie des arrhes, rendez-vous est pris pour les clés. Lorsque la famille arrive, il n’y a pas de maison, ou elle est occupée par ses propriétaires qui ne l’ont jamais proposée à la location. Evidemment, personne ne répond au téléphone.

« Multiples faux visages générés par IA »

Dans le contexte de guerre des talents, de licenciements massifs chez les géants de la tech et de travail à distance généralisé, le recrutement est lui aussi devenu un terrain de jeu pour les cybercriminels. Une perspective de salaire alléchante, un profil particulièrement attractif rendent les candidats comme les entreprises moins vigilants. En témoigne l’expérience de la société Remote, qui embauche, gère et rémunère des employés partout dans le monde pour le compte d’entreprises qui se développent à l’international.

« Nous avons détecté que le collaborateur qu’un de nos clients souhaitait embaucher, en fait, n’existait pas. La photo de son passeport était une image générée par IA. Une enquête plus poussée a révélé que son profil sur les réseaux professionnels avait été modifié avec de multiples faux visages générés par IA », raconte Sam Ross, directeur juridique de Remote, à Londres. Selon lui, le but de cet avatar était « d’accepter plusieurs emplois afin de toucher une prime d’embauche ou un premier chèque de salaire avant de disparaître ».

Les entreprises publient leurs recrutements sur les réseaux professionnels, et les employés y annoncent qu’ils viennent de changer de poste. Il suffit alors au criminel d’usurper l’adresse e-mail du nouvel embauché – pas si difficile à trouver – pour prétendre être la personne recrutée et envoyer aux ressources humaines ses nouvelles coordonnées bancaires. Il faudra un ou deux mois pour que le salarié s’inquiète de ne pas recevoir son salaire. A l’inverse, une personne prétendument de l’entreprise demande au futur salarié ses coordonnées bancaires pour compléter son dossier, ou des informations sur d’autres collaborateurs, données qui seront immédiatement revendues sur le dark Web.

« Les criminels jouent sur l’intimidation du nouveau recruté. Cela m’est arrivé une semaine après mon embauche chez Acronis. Quelqu’un prétendant être un dirigeant de la société m’a demandé des informations », raconte Ashley Taylor, aujourd’hui responsable du recrutement pour ce spécialiste de la cybersécurité. « Les gens peuvent frauder sur un ou plusieurs points, mais pas sur tout. Il y aura toujours des points sur lesquels l’IA ne réussira pas. Quand nous recrutons, il faut qu’à un moment ou à un autre de l’entretien la caméra fonctionne, par exemple. Il ne faut pas se contenter d’un diplôme ou d’un numéro de téléphone », ajoute Dan Meyers, directeur des ressources humaines chez Acronis, dans le Massachusetts, aux Etats-Unis.

Cloner une voix

La dématérialisation de nos activités a ouvert la porte à de nouvelles arnaques. Envie de discuter avec Kim Kardashian ou avec Elon Musk ? Ou de se faire lire un texte par une actrice de son choix ? Il suffit de se connecter à un chatbot, un robot conversationnel. Mais ces logiciels capables de cloner une voix à partir de quelques secondes d’enregistrement sont aussi utilisés à des fins moins ludiques, comme diffuser de fausses informations ou recommander un médicament en usurpant la voix d’un auteur de podcast célèbre. Ou pire.

En juin, Jennifer DeStefano a témoigné devant le Sénat américain des dangers du clonage de voix par IA. Elle a reçu un appel de sa fille, en larmes, disant qu’elle avait été enlevée. Le ravisseur menaçait de l’exécuter et demandait une rançon. En fait, l’arnaqueur utilisait la voix de sa fille reproduite par IA…

« Les activités criminelles qui utilisent l’IA et la voix sont en forte augmentation sur le dark Web. Il existe des kits de clonage, faciles à utiliser pour des arnaques comme l’“appel d’urgence à la famille” ou la “fraude au président”. Les criminels jouent sur l’urgence, sur l’émotion et sur le respect de la hiérarchie. Pour les entreprises, les risques sont énormes à la fois en termes financiers et de réputation », constate Hande Guven, analyste du renseignement sur les menaces pour la société de cybersécurité Recorded Future, implantée aux Etats-Unis. Certes, on trouve à présent des outils pour détecter si une voix est humaine ou non, « mais c’est un domaine où la technologie va beaucoup plus vite que la régulation », regrette Hande Guven.

Etre attentifs

La société française Odigo qui développe des solutions logicielles pour les centres d’appels, recourt à plusieurs niveaux d’authentification des appelants, comme le fait de vérifier que la voix soit bien humaine et non générée par une IA. « Mais la sécurité n’est pas qu’une question de technologie, c’est aussi une affaire d’humains. Bien souvent, les fraudes et les contrefaçons sont la matérialisation de problèmes, d’outils défaillants, de dysfonctionnements », remarque Bertrand Deroubaix, directeur de la qualité, de la sécurité et des risques chez Odigo.

Mais si le numérique et l’IA ont augmenté le volume des fraudes, ils contribuent aussi à en améliorer la détection. Ainsi l’équipe data science de Micropole a développé des solutions de détection d’anomalies et de prédiction des fraudes financières (au crédit, au paiement, fiscales) basées sur l’IA. « La détection des fraudes financières est très rentable », reconnaît Tanguy Le Nouvel. Il cite l’exemple d’un organisme de crédit à la consommation : « 95 % des tentatives frauduleuses de demandes de crédit, qui auparavant auraient été acceptées, ont été identifiées et refusées. Le retour sur investissement est facile à chiffrer. La difficulté est de trouver le bon modèle, de bien préparer les données afin de ne pas rejeter de vrais clients. »

Dans ce jeu éternel du chat et de la souris, la vigilance doit être constante. La banalisation des achats en ligne et les paiements dématérialisés nous ont rendus moins prudents. Par paresse, nous laissons nos téléphones gérer notre code pin et nos numéros de cartes bancaires. Cela ne nous dispense pas d’être attentifs et de procéder à quelques vérifications avant de confirmer l’achat d’une montre ou d’un vêtement de marque à prix cassé sur un site que nous ne connaissons pas…

Par Sophy Caulier

Advertisement

10 Commentaires

  1. Très bon article qui met en lumière un problème de plus en plus préoccupant dans notre ère numérique : les arnaques à grande échelle. Il est important de sensibiliser les utilisateurs aux faux sites web, voix clonées et e-mails usurpés afin qu’ils puissent se protéger contre ces pièges dangereux. Merci à Ici Abidjan pour cet avertissement essentiel ! Chatgpt-Francais.

  2. Article très intéressant. L’internet est entré dans une nouvelle ère d’escroqueries à grande échelle, qui englobe les faux sites web, le clonage de voix et l’usurpation d’identité par courriel. Ces stratagèmes sophistiqués visent à tromper les individus et les organisations. Il est essentiel de rester vigilant en ligne, de vérifier l’authenticité des sites web et des communications, et d’être prudent lorsque l’on partage des informations sensibles.

  3. « Online scams are a growing concern in today’s digital age. This article sheds light on the various tactics scammers employ, from fake websites to cloned voices and email impersonation. It’s essential to stay vigilant and informed to protect ourselves in the digital realm.

  4. This article sheds light on the new age of large-scale online scams, from fake websites to cloned voices and usurped emails. It’s a stark reminder of the importance of cybersecurity and digital literacy in today’s interconnected world.

  5. Ciao e benvenuti a ChatGPT Italiano, il luogo dove le conversazioni si trasformano in esperienze straordinarie. Siamo qui per offrirti un’esperienza di scambio linguistico avanzata, completamente dedicata alla lingua italiana.

    Esplora un mondo di conversazioni intelligenti su una vasta gamma di argomenti, dalla tecnologia e la cultura all’intrattenimento. ChatGPT Italiano è progettato per offrirti interazioni online personalizzate e coinvolgenti.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici