Les utilisateurs de Gmail sont visés par une arnaque utilisant l’IA pour créer un deepfake audio, soyez vigilants.
Dans le milieu de la tech, se mettre à jour est important et même les cybercriminels l’ont compris. Pour ratisser large, certains visent tout simplement une base de données énorme, alors pourquoi pas Gmail qui compte 2.5 milliards d’utilisateurs dans le monde ?
Cette nouvelle attaque est assez pernicieuse, très élaborée et se déroule en deux temps. Un premier mail classique arrive sur votre boîte mail, arguant que vous voulez récupérer votre mot de passe Google. Puisque vous l’ignorez, quelques dizaines de minutes plus tard, vous recevez un appel. Votre interlocuteur, à l’accent américain, se présente comme un agent du support Google. « C’est une voix américaine, très polie et professionnelle. Le numéro est australien. Il se présente et dit qu’il y a une activité suspecte sur mon compte », décrit l’un des témoins ayant reporté l’arnaque.
« Il me demande si je voyage, quand je dis non, il me demande si je me suis connecté depuis l’Allemagne, ce à quoi je réponds non », ajoute-t-il. Son interlocuteur affirme que quelqu’un a eu accès à son compte pendant une semaine et siphonné ses données… C’est généralement bien assez pour faire paniquer un utilisateur classique. D’autant que la voix est presque naturelle… Mais pas totalement.
En effet, il s’agit en fait d’un deepfake audio, une voix générée par intelligence artificielle, qui peut donc prendre l’accent qu’elle veut ou changer de langue si nécessaire. Soyez donc extrêmement prudent quant à vos mails.
Source : Clubic
Commentaires
Bonjour , avant poster, veuillez vous assurer d'avoir pris connaissance des règles.
X
Cinq consignes avant de réagir :