faux sites Web, voix clonée, e-mail usurpé…

0


Jennifer DeStefano (à gauche), victime d’un clonage vocal par intelligence artificielle, a témoigné devant le Sénat américain, le 13 juin 2023, à Washington. L’arnaqueur utilisait la voix de sa fille, tout en menaçant de la tuer, pour demander une rançon à sa mère.

Ceux qui ont voté pour George Santos, élu au Congrès américain en novembre 2022 dans les rangs des républicains, pensaient avoir voté pour un jeune financier brillamment diplômé, d’origine juive, homosexuel et propriétaire de nombreuses demeures. Rien de tout cela n’était vrai. D’origine brésilienne et ayant des démêlés avec la justice de son pays, il était séparé de sa femme, habitait chez sa sœur et confiait finalement être plutôt catholique… Il a été inculpé en mai, pas tant pour ses mensonges, qu’il a qualifiés « d’erreurs », mais pour fraudes financières, blanchiment d’argent et détournement de fonds publics. De tels faussaires, menteurs, mythomanes ou plagiaires, l’histoire en regorge. Ils ne sont pas tous démasqués, mais leur capacité à nuire et à causer du tort est souvent limitée.

En revanche, grâce aux progrès des technologies numériques, et notamment de l’intelligence artificielle (IA), les fraudes et les contrefaçons prennent une ampleur inédite et bien plus inquiétante, dans des domaines où leurs conséquences peuvent être graves. Une ampleur inédite, car les technologies les mettent à la portée de tous, à moindre coût, et sans devoir maîtriser l’informatique ou le codage. Avec des solutions logicielles en kit, achetées « sur étagère » sur le dark Web, les malfrats peuvent lancer rapidement une arnaque à grande échelle et disparaître en un instant en effaçant leurs traces.

Ces fraudes sont aussi plus inquiétantes car très difficiles, voire pour certaines impossibles, à détecter. Et les malfaiteurs ont vite appris à maîtriser et à exploiter ces moyens numériques sophistiqués, qui les aident à conforter leur avance sur les forces de l’ordre, fussent-elles du cyberespace.

Les fraudes visent généralement deux objectifs : la manipulation (propagande, espionnage…) ou le vol. La récente campagne « Doppelgänger » illustre bien le premier objectif. Menée par la Russie, cette opération de propagande et d’ingérence a produit de faux sites et des liens qui usurpaient l’identité visuelle de sites gouvernementaux et de plusieurs journaux européens et français, dont Le Monde. Ces liens conduisaient à des articles qui promouvaient la Russie et dénigraient l’Ukraine ainsi que les pays qui la soutiennent, en imitant parfaitement le style et l’aspect graphique des sites contrefaits.

Une plus grande crédibilité

Grâce à l’IA générative de type ChatGPT, les « fermes à trolls », ces organisations qui diffusent massivement de fausses informations sur les réseaux sociaux, sont capables de produire des contenus policés, bien présentés et dans un français très correct. Fini les fautes d’orthographe et les erreurs de syntaxe qui permettaient aux plus attentifs de détecter les faux sites. « Dans ce domaine de la déstabilisation géopolitique, les desseins sont plus larges qu’avant. Il ne s’agit plus de petites campagnes, mais d’opérations d’envergure visant à manipuler l’opinion, comme “Doppelgänger”, ou à recueillir des informations stratégiques, comme la campagne de cyberespionnage menée contre le secteur européen de la défense par le groupe de pirates Lazarus sur le réseau professionnel LinkedIn », remarque Benoît Grunemwald, expert cybersécurité chez ESET France.

Il vous reste 73.35% de cet article à lire. La suite est réservée aux abonnés.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *