L’hypertrucage : quand les apparences sont trompeuses
L’intelligence artificielle fait désormais partie de nos vies. Elle nous est utile, par exemple, pour faire des demandes vocales, pour utiliser un moteur de recherche sur le Web ou encore, pour créer des contenus de divertissement. Toutefois, l’intelligence artificielle peut également servir à tromper les gens lorsqu’elle est employée par des fraudeurs en quête de nouvelles victimes.
Qu’est-ce que l’hypertrucage?
L’hypertrucage, mieux connu sous l’expression anglophone « deepfake », est maintenant bien présent sur les réseaux sociaux et le Web. L’hypertrucage utilise l’intelligence artificielle pour créer des images ou des extraits sonores très réalistes concernant de faux événements, d’où le nom de deepfake.
L’hypertrucage peut servir à recréer avec précision la voix de personnalités publiques connues ou de vos proches, et de s’en servir pour réaliser des vidéos réalistes et convaincantes. La tactique devient inquiétante puisque l’hypertrucage permet de faire dire n’importe quoi à n’importe qui. Des fraudeurs pourraient l’utiliser pour vous faire investir dans des placements qui n’existent pas, pour discréditer des personnalités connues ou encore pour faire dire des faussetés à vos proches dans le but de vous soutirer de l’argent.
La fraude «grands-parents» est un classique. Un fraudeur peut facilement reproduire la voix d’un petit-enfant, s’en servir pour contacter ses grands-parents et leur demander de l’argent. La raison donnée aux grands-parents pourrait être, par exemple, des frais médicaux d’urgence ou une caution à payer rapidement, à la suite d’ennuis avec la justice.
Pour en apprendre davantage