12.12.2023 - Le NCSC constate une utilisation croissante de l’intelligence artificielle (IA) dans les tentatives d’escroquerie et d’hameçonnage. Découvrez trois exemples dans lesquels l’IA joue déjà un rôle.
Des modèles de courriel d’hameçonnage sur le darknet
Les courriels d’hameçonnage sont reconnaissables non seulement à un expéditeur et des liens suspects, mais également à la manière dont le message est rédigé et mis en page. La plupart des criminels ne parlant pas la langue du destinataire, ils recourent à des programmes de traduction et à des modèles «prêts à l’emploi». Leurs courriels contiennent souvent des erreurs et parfois même un mélange de langues.
C’est pour cette raison que les escrocs utilisent de plus en plus souvent l’IA: en définissant précisément les exigences linguistiques, ils sont ainsi en mesure de créer des modèles de courriels malveillants plus difficiles à repérer.
Certaines mesures ont été prises pour lutter contre cette utilisation abusive de l’IA. ChatGPT notamment, le plus connu des modèles linguistiques d’IA, a intégré des mécanismes empêchant la création de modèles de courriels frauduleux.
Les personnes malintentionnées peuvent toutefois avoir accès à des modèles linguistiques spécialisés sur le darknet. Ces derniers permettent par exemple de créer des sites et courriels d’hameçonnage si «parfaits» qu’ils n’éveillent aucun soupçon.
Bien que ne comportant aucune faute, les courriels contiennent toujours un lien frauduleux qui ne mène pas au service du prétendu expéditeur. Une brève analyse du lien sur lequel on est invité à cliquer reste donc une mesure essentielle de sécurité.
Photos et vidéos falsifiées
Il existe aujourd’hui des outils permettant également de générer des contenus visuels que l’on ne peut que difficilement identifier comme des faux. En entraînant un modèle d’IA avec des images de personnes réelles (p. ex. des photos issues des réseaux sociaux), il est possible de générer de nouveaux clichés qui semblent pris sur le vif, alors qu’il s’agit en fait de montages.
Il est même possible de générer des vidéos à partir d’une petite quantité d’images existantes. Généralement, ce sont des célébrités qui en font les frais. Les conseillers fédéraux, par exemple, car ils apparaissent régulièrement dans les médias.
Des cas de falsification de vidéos ont déjà été rapportés au NCSC:
- Publicités pour des fraudes à l’investissement en ligne:
le visage et la voix d’une personne connue sont utilisés pour convaincre le spectateur qu’investir une petite somme d’argent sur une plateforme en ligne pourrait le rendre riche. La notoriété de la personne choisie inspire la confiance. En réalité, l’argent n’est pas investi, il va tout droit dans la poche de l’escroc.
- Actions dites de give away:
une personnalité explique dans une vidéo construite de toute pièce que les paiements en bitcoins vers un certain portefeuille sont remboursés deux fois leur valeur dans le cadre d’une action caritative. Bien sûr, l’argent est versé directement aux escrocs et il est définitivement perdu. De telles vidéos sont publiées sur les plateformes connues et diffusées sur les médias sociaux.
Vous pouvez en apprendre plus à ce sujet dans notre rétrospective de la semaine 17, qui porte sur une vidéo de promotion truquée pour une fausse action «give away»
- Sextorsion:
les escrocs font chanter la victime en menaçant de publier des photos de nus générées par IA. Il est difficile pour un observateur de se rendre compte que seul le visage est réellement celui de la victime et que le reste a été créé au moyen de l’IA. Les montages peuvent même reprendre une pièce ou un environnement familier de la victime si celle-ci les a publiés auparavant.
Voix falsifiée
En téléphonant à une personne, par exemple, les escrocs peuvent enregistrer des échantillons de sa voix (voice samples) et faire en sorte que des modèles créés par l’IA reproduisent un texte écrit ou un message parlé de telle sorte que la voix ressemble à s’y méprendre à celle de la personne appelée.
Cette technologie est utilisée pour produire un choc chez la victime. Celle-ci reçoit l’appel d’un prétendu policier qui lui explique que son fils ou sa fille a eu un accident et qu’il faut payer une caution. Comme preuve et moyen de pression, l’escroc dispose d’un faux enregistrement dans lequel le fils ou la fille demande dramatiquement de l’aide à la victime.
Recommandations:
- Si on vous demande de cliquer sur les liens contenus dans les courriels ou les SMS, ne le faites pas.
- Avant de cliquer sur un lien, vérifiez-en le domaine cible. Le lien correspond-il à l’expéditeur présumé?
- Ne saisissez jamais de mots de passe, codes ou données de carte de crédit sur un site Internet auquel vous avez accédé en cliquant sur un lien reçu par courriel ou par SMS.
- Ne vous fiez pas aux offres ou possibilités de gain qui semblent trop belles pour être vraies.
- En cas d’appels étranges ou troublants dans lesquels une personne prétend qu’un membre de votre famille a un problème, raccrochez, contactez directement le membre de la famille concerné via un autre canal et, en cas de doute, appelez également la police.
- En cas de tentative de chantage au moyen d’images compromettantes qui sont vraisemblablement le résultat d’un montage, faites appel à la police. Coupez tout contact avec les escrocs et n’effectuez aucun paiement.
- De manière générale, faites preuve de prudence lorsque vous publiez sur Internet des photos et des vidéos de vous ou d’autres personnes, car tout le monde peut les voir.
Statistiques et chiffres actuels
Les annonces de la dernière semaine selon les catégories sont publiées sous:
Dernière modification 12.12.2023