




26 février 2025 - 52min
EPISODE 77
TRM Talks: Deepfakes et la montée de la criminalité basée sur l'IA avec Hany Farid
Avec Hany Farid, et , et et
L'IA remodèle la société - la façon dont nous vivons et travaillons. Cependant, elle stimule également les activités illicites, des deepfakes à la fraude automatisée, en passant par les cyberattaques à grande échelle et l'exploitation des enfants. Dans cet épisode, Ari Redbord, responsable mondial des politiques de TRM, s'entretient avec Hany Farid, professeur à l'université de Berkeley et grand spécialiste des "deepfakes" et de la tromperie par l'IA, pour expliquer comment les criminels exploitent l'intelligence artificielle pour manipuler la réalité, commettre des délits et mettre en péril la sécurité mondiale.
Hany démarre l'épisode avec une démonstration époustouflante de deepfake en direct, usurpant l'identité d'Ari en temps réel - un avertissement sévère sur la façon dont les identités générées par l'IA peuvent être utilisées pour tromper les entreprises, les gouvernements et les individus. Des fraudeurs qui utilisent les deepfakes pour contourner le KYC et infiltrer les institutions financières, aux acteurs étatiques qui utilisent l'IA pour diffuser de la désinformation et mener une cyberguerre, la conversation explore les implications profondes de cette technologie en évolution rapide.Ari et Hany discutent également d'exemples concrets de criminalité induite par l'IA, notamment :
- Fraude à l'identité synthétique et escroqueries deepfake ciblant les banques et les plateformes de crypto-monnaies.
- Les cybercriminels utilisent des attaques d'hameçonnage et d'ingénierie sociale alimentées par l'IA
- Le rôle de l'IA dans les opérations de cybercriminalité de la Corée du Nord
- Comment les "deepfakes" pourraient être utilisés comme arme pour des menaces politiques et de sécurité nationale
- Les défis éthiques et juridiques liés aux contenus générés par l'IA
Malgré les risques, il y a de l'espoir. Ari et Hany plongent dans le besoin critique de défenses alimentées par l'IA, de cadres réglementaires et de collaboration public-privé pour lutter contre ces menaces émergentes. Ils discutent de l'importance de l'blockchain intelligence, des outils de détection de deepfake et des innovations en matière de cybersécurité pour garder une longueur d'avance sur les mauvais acteurs qui utilisent l'IA à des fins militaires. Il s'agit de l'une des discussions les plus révélatrices de l'histoire de l'IA. TRM Talks à ce jour - ne manquez pas cette plongée dans l'intersection de l'IA, du crime et de la sécurité.
Cliquez ici pour écouter l'intégralité des TRM Talks: Deepfakes et la montée du crime basé sur l'IA avec Hany Farid,. Suivez TRM TRM Talks sur Spotify pour être le premier à connaître les nouveaux épisodes.
Ari Redbord
(00:02) : Je le suis Ari Redbord et voici TRM Talks.
(00:06) : Je suis responsable mondial de la politique chez TRM Labs. Chez TRM, nous fournissons des logiciels de blockchain intelligence pour soutenir les enquêtes des forces de l'ordre et pour aider les institutions financières et les entreprises de crypto-monnaies à atténuer le risque de criminalité financière au sein de l'économie émergente des actifs numériques. Avant de rejoindre TRM, j'ai passé 15 ans au sein du gouvernement fédéral américain, d'abord en tant que procureur au Department of Justice, puis en tant que fonctionnaire du ministère du Trésor, où j'ai travaillé à la protection du système financier contre les financiers du terrorisme, les armes de destruction massive, les proliférateurs, les barons de la drogue et d'autres acteurs malhonnêtes. Sur TRM Talksje m'entretiens avec des chefs d'entreprise, des décideurs, des enquêteurs et des amis de tout l'écosystème cryptographique qui œuvrent à la construction d'un système financier plus sûr.
(00:51) : Aujourd'hui sur TRM Talksje m'entretiens avec Hany Farid, professeur à l'université de Berkeley et expert en IA deepfake. Mais tout d'abord, Inside the Lab, où je partage les idées basées sur les données de notre équipe d'blockchain intelligence .
(01:06) : Dans l'émission Inside the Lab de cette semaine, nous discutons du dernier rapport de TRM, "The Rise of AI-enabled Crime", qui explore l'évolution des risques et des réponses aux entreprises criminelles alimentées par l'IA.
(01:19) : Les acteurs malveillants exploitent de plus en plus l'IA pour réaliser des piratages et des fraudes, créer des "deepfakes" à des fins d'extorsion et de désinformation, et exécuter des cyberattaques à grande échelle. Le nouveau rapport met en évidence ces menaces et explore la manière dont l'IA peut également être exploitée pour les atténuer. L'IA est utilisée pour améliorer les tactiques traditionnelles de la cybercriminalité, qu'il s'agisse de fraude par deepfake, de blanchiment d'argent automatisé ou d'hameçonnage. Les criminels exploitent l'IA pour automatiser les campagnes de phishing, les rendant plus convaincantes et plus évolutives, identifier et exploiter les failles de sécurité des réseaux dans les logiciels, lancer des attaques autonomes contre les infrastructures critiques et échapper à la détection en adaptant le comportement des logiciels malveillants en temps réel.
(02:03) : Pour lutter contre ces risques émergents, l'blockchain intelligence et les analyses pilotées par l'IA de TRM sont essentielles en intégrant des outils de détection de la puissance de l'IA. Grâce à l'blockchain intelligence, les enquêteurs peuvent identifier les transactions suspectes et retracer les flux financiers illicites, découvrir les réseaux cachés d'activités criminelles, authentifier les identités et détecter les fraudes générées par deepfake, et empêcher la manipulation à grande échelle des systèmes financiers. Les gouvernements, les institutions financières et les entreprises d'blockchain intelligence doivent travailler ensemble pour construire des systèmes résilients qui tirent parti de l'IA pour la défense, tout comme les criminels l'utilisent pour l'attaque.
(02:40) : Les partenariats public-privé joueront un rôle essentiel dans l'élaboration de renseignements sur les menaces, l'application des réglementations et la garantie que l'IA reste un outil de sécurité et non d'exploitation. Le rapport de TRM donne un aperçu de l'évolution des menaces et des outils en cours d'élaboration pour aider les services de police et de sécurité nationale à utiliser l'IA pour perturber les acteurs illicites. L'avenir est là. Il est essentiel de comprendre l'évolution du paysage des menaces et de tirer parti de l'innovation pour garder une longueur d'avance sur la criminalité basée sur l'IA. TRM s'engage dans cette mission. Pour consulter le rapport complet, rendez-vous sur notre site web, TRMlabs.com, et lisez "The Rise of AI-enabled Crime", qui explore les risques d'évolution et les réponses aux entreprises criminelles alimentées par l'IA.
(03:31) : Et maintenant, Hany Farid, expert en criminalité liée à l'intelligence artificielle. Hany, je suis très enthousiaste à l'idée d'avoir cette conversation aujourd'hui. Avant de commencer, vous êtes venu ici essentiellement en tant que moi et vous avez commencé les choses avec un deepfake. Parlez-nous de cela avant que nous n'entrions dans tout ce dont nous allons parler aujourd'hui.
Hany Farid
(03:53) : Tout d'abord, ce que j'ai adoré, et pour ceux qui nous écoutent, vous devriez regarder la vidéo. Vous et votre producteur avez été très surpris. Il y a eu un moment où l'on s'est demandé si c'était un problème dans la Matrice, parce que c'était un peu bizarre. Voici donc ce que j'ai fait. C'est incroyablement facile. Mettez votre nom dans une recherche Google. J'ai trouvé une capture d'écran où vous vous tenez devant la caméra et où vous portez une cravate. Et d'ailleurs, je pense que c'est la même veste et la même chemise que vous portez maintenant....
Ari Redbord
(04:17) : Peut-être, oui. Le type au costume bleu et à la chemise bleue rayée.
Hany Farid
(04:23) : Et j'ai fait une seule capture d'écran de vous, c'est important, une seule image de vous à partir d'un seul cadre et d'une seule vidéo sur laquelle vous n'avez pas fait d'interview. Et je l'ai introduite dans un logiciel que j'ai payé 10 dollars. Cela crée ce qu'on appelle un avatar deepfake. La façon dont cela fonctionne est la suivante : j'étais assis devant mon ordinateur lorsque je me suis connecté, et lorsque je bougeais, haussant les sourcils, clignant des yeux, bougeant la bouche, bougeant la tête, cette image unique était animée pour donner l'impression que c'était vous qui étiez en train de bouger. La voix, bien sûr, c'était moi. J'aurais pu moduler la voix, mais je ne l'ai pas fait. J'ai juste pris un peu plus de temps que nécessaire pour me préparer. Tout cela est généré en temps réel. Ensuite, je prends simplement ce dont nous parlons en ce moment et je le dirige vers le logiciel et la sortie qu'il produit. Ainsi, en temps réel, 30 images par seconde, je peux participer à un appel vidéo et me faire passer pour une autre personne, avec son image et sa voix. Et il est très difficile de faire la différence. Il y a quelques indices. Vous pouvez probablement deviner que si je bouge trop, vous verrez un petit problème. Bien sûr, si je reviens dans un an, ce problème aura disparu et vous serez époustouflés par les choses que nous pouvons faire.
Ari Redbord
(05:31) : Oui, je veux dire qu'une partie de notre conversation d'aujourd'hui porte sur le fait que je n'ai jamais rien vu aller plus vite du point de vue de la technologie, et qu'elle s'améliore de jour en jour. Vous avez parlé de la voix, et pour doubler la mise, vous m'avez aussi dit que c'était assez facile à faire. En d'autres termes, je suis sur le zoom, mon image, ma ressemblance et ma voix. 10 secondes, 20 secondes d'audio.
Hany Farid
(05:49) : Oui, pour en revenir à ce que vous disiez, il y a quelques années, il fallait huit heures. Si quelqu'un enregistre, donc quelqu'un comme vous avec un podcast populaire, je pourrais probablement trouver huit heures. Mais pour le commun des mortels, non. Aujourd'hui, il suffit d'environ 20 secondes, 15 à 20 secondes de votre voix, vous parlez normalement, vous n'avez pas besoin de dire quoi que ce soit de particulier. Je peux télécharger cela sur un service pour lequel je paie 5 dollars par mois. Je clique sur un bouton qui dit que j'ai la permission d'utiliser la voix d'Air, même si ce n'est pas le cas, je peux bien sûr cliquer sur le bouton, puis je tape et il synthétisera tout ce que je veux. C'est une attaque asynchrone. Mais je peux aussi le faire de manière synchrone. C'est-à-dire que je peux entraîner un modèle. Il faut un peu plus d'audio pour le faire. Puis, en temps réel, pendant que je parle dans ce microphone, il module ma voix pour qu'elle ressemble à la vôtre. C'est bien sûr beaucoup plus interactif.
Ari Redbord
(06:37) : C'est essentiellement ce que vous faisiez il y a un instant sans le morceau de voix, juste parce que cela prenait quelques secondes de plus, mais ....
Hany Farid
(06:42) : C'est exact.
Ari Redbord
(06:43) : Oui, c'est ce qui était le plus fou. Et les gens ne verront qu'une vidéo, mais ce n'était pas une vidéo, c'était en temps réel sur l'écran.
Hany Farid
(06:49) : Je me suis connecté à l'appel. Ce n'était pas une scène. Je me suis connecté à l'appel et vous et moi avons parlé.
Ari Redbord
(06:53) : Oui, vous avez fait peur à Wesley qui était ici avec nous il y a un instant. Oui, non, c'était complètement fou.
Hany Farid
(06:59) : Mon travail est terminé ici.
Ari Redbord
(07:00) : Nous ne sommes jamais entrés dans une TRM Talks aussi rapidement que celui-ci. Je vais donc revenir un instant en arrière. Je suis très enthousiaste à l'idée d'avoir cette conversation aujourd'hui. Parlez-moi un peu de votre parcours. Comment avez-vous fini par vous concentrer sur ce sujet ?
Hany Farid
(07:14) : Oui, je suis universitaire depuis plus de 25 ans maintenant, 20 ans au Dartmouth College sur la côte est et plus récemment ici à l'UC Berkeley. Je suis également cofondateur, comme vous l'avez mentionné au début de l'heure, de get Real Labs, une entreprise qui travaille dans le domaine de la détection des médias manipulés. J'ai commencé au début des années 2000, à une époque où le numérique n'existait pas. L'internet n'existait pas. L'IA n'existait pas. Ce n'est pas que j'étais particulièrement prémonitoire, mais on ne savait pas que le numérique allait arriver. Vous saviez que quelque chose se préparait avec la technologie numérique. On savait que quelque chose se préparait avec la technologie de l'internet. Personne ne savait vraiment ce qui allait se passer avec l'IA d'aujourd'hui. J'ai commencé à m'inquiéter de ce qui se passe lorsque les médias, les images, l'audio et la vidéo passent du monde analogique au monde numérique. En particulier, et je pense que cela vous touchera en tant qu'ancien procureur fédéral, que faites-vous des preuves dans un tribunal ?
(08:06) : Comment authentifier une prise de décision critique lorsqu'il s'agit de quelque chose d'intrinsèquement malléable ? Et pendant les 15 premières années de ma carrière, de 2000 à 2015 environ, il s'agissait d'un domaine plutôt sur mesure, comme vous venez de le dire il y a une minute. En outre, nous mesurions les changements technologiques sur de très nombreux mois, typiquement des cycles de 12 à 18 mois. Et c'était une bonne chose, n'est-ce pas ? Nous avons une bonne expérience. Nous développions des techniques de criminalistique, nous les utilisions dans les tribunaux, nous aidions les agences de presse, nous aidions la sécurité nationale et les forces de l'ordre, et un an et demi plus tard, de nouvelles technologies apparaissaient et nous développions de nouvelles défenses. Et puis vers 2016, 17, quelque chose comme ça, il y a eu un changement radical avec l'IA générative et l'IA, et soudain nous avons commencé à mesurer le changement, non pas en mois et en années, mais en semaines et en jours.
(08:55) : Et c'est devenu bizarre très vite. Et soudain, en très peu de temps, nous sommes passés d'une situation où il fallait des compétences pour créer des médias manipulés à une situation où il suffisait de télécharger un logiciel pour 10 dollars et je pouvais prendre un appel et vous ressembler exactement. Bien entendu, la technologie a progressé très rapidement. Les menaces ont progressé très rapidement et nous nous efforçons de suivre le rythme, ce qui explique en partie pourquoi j'ai cofondé la société, parce que le monde universitaire ne peut tout simplement pas suivre ce rythme. Nous voulions vraiment mettre ces outils entre les mains de ceux qui en ont besoin pour pouvoir comprendre ce qu'ils regardent. Et s'agit-il d'un vrai ou d'un faux ?
Ari Redbord
(09:29) : Incroyable. Parlez-moi donc de Get Real.
Hany Farid
(09:31) : Oui, nous construisons donc une suite d'outils qui analyseront les images, l'audio et la vidéo, à la fois de manière asynchrone et synchrone. Les technologies sous-jacentes sont assez similaires, mais l'opérationnalisation est bien sûr très différente. L'intégration dans un flux d'équipe, un flux Zoom ou un flux téléphonique est très différente de l'attente d'un fichier. Mais à la base, notre activité consiste à développer des technologies qui aideront les individus, les organisations et les gouvernements à se protéger contre les médias malveillants et manipulés.
Ari Redbord
(10:03) : C'est extraordinaire. Alors que nous sommes assis ici en ce moment, je voudrais dire qu'hier, j'étais en ligne et j'ai vu cette vidéo avec toutes ces célébrités avec la chemise, avec le majeur levé vers Kanye, est-ce que vous suivez ça ?
Hany Farid
(10:15) : Je l'ai vu.
Ari Redbord
(10:16) : Et je me suis dit, oh oui, c'est bien comme ça. D'accord. Cela ne sort pas de l'ordinaire. Un de mes amis m'a dit hier soir qu'il s'agissait d'un deepfake, mais j'ai été stupéfait de voir que c'était un deepfake. C'était parfait. Parlez-moi de cela.
Hany Farid
(10:29) : Ok, tout d'abord, qu'est-ce qui est impressionnant à ce sujet ? Lorsque je l'ai vu pour la première fois, j'étais presque sûr qu'il s'agissait d'un deepfake, mais c'est mon métier. Mais j'ai pensé que ce qui avait été fait, c'est qu'ils avaient pris une vidéo de personnes réelles portant cette chemise et qu'ils avaient fait un deepfake du visage pour le faire ressembler à des célébrités. C'était d'ailleurs impressionnant. Mais c'est encore plus impressionnant. Nous venons d'apprendre il y a une heure que l'ensemble de la vidéo a été généré par l'IA, tous les mouvements des humains, dans leur intégralité. Elle a été réalisée à l'aide de deux technologies différentes, l'une pour générer le mouvement humain tel que vous le voyez bouger. Ensuite, ils ont utilisé ce que l'on appelle le "face swap deepfake" (échange de visage). Toute la vidéo a été générée par l'IA, et je jure devant Dieu que je ne le savais pas la première fois que je l'ai regardée.
(11:13) : Cela m'a époustouflé, c'est extraordinaire.
Ari Redbord
(11:15) : Quand j'ai vu ça hier, je me suis dit qu'il fallait que je vous demande ce que vous en pensez, parce que je ne sais pas. Ecoutez, je veux dire qu'il va y avoir des deepfakes plus importants très, très bientôt, mais celui-ci était assez viral. Et cela devient vraiment, vraiment intéressant. Vous avez parlé des premiers jours et de ce type d'activité, qu'il s'agisse d'un deepfake ou d'une activité basée sur l'IA, ce type d'activité basée sur l'IA.
Hany Farid
(11:38) : Il y a eu quelques points d'inflexion. Commençons par admettre que nous avons toujours été capables de manipuler les photographies. Si l'on remonte au début des années 1900, Staline est célèbre pour avoir fait disparaître des personnes de ses photos à l'aide d'un aérographe. L'histoire est truffée d'images manipulées, mais cela se faisait dans le monde analogique et très, très peu de personnes, généralement des acteurs parrainés par l'État, pouvaient le faire. Et bien sûr, les canaux de distribution consistaient simplement à insérer une photo manipulée dans un livre d'histoire. Aujourd'hui, nous arrivons au début de l'ère numérique, lorsque nous commençons à avoir des appareils photo numériques et que Photoshop est assez performant. Nous pouvions donc faire des choses comme créer une image avec deux personnes se tenant côte à côte ou une image d'un requin nageant dans la rue après une tempête, ce qui est très populaire encore aujourd'hui. Mais les canaux de distribution sont en train de changer parce qu'au début des médias sociaux, je pouvais faire plus que simplement mettre l'image dans un livre d'histoire.
(12:25) : Je peux le mettre en ligne et il peut devenir viral et être vu de nombreuses fois. Et puis le prochain point d'inflexion, et c'est d'ailleurs la norme. C'est très prévisible. Nous rendons la technologie plus facile à utiliser, plus omniprésente et moins chère. C'est la tendance depuis presque cent ans. Et c'est ce que nous avons fait avec la manipulation numérique. Tout ce que l'IA a fait fondamentalement, c'est de faciliter les choses. En outre, les canaux de distribution ont radicalement changé, car les médias sociaux dominent désormais le paysage et, soudain, la capacité de déformer la réalité est très, très réelle en termes de création, de diffusion et d'amplification.
Ari Redbord
(13:02) : Parlez-moi un peu de la manière dont l'IA a changé la façon dont les acteurs criminels opèrent. Quel est le paysage des menaces aujourd'hui par rapport à celui d'il y a quelques années ?
Hany Farid
(13:12) : Je pense qu'il est assez prévisible, parce que nous l'avons vu depuis le début de la révolution des ordinateurs, de l'Internet et des téléphones portables, que les cybercriminels, les acteurs parrainés par des États, trouveront le moyen d'exploiter cette technologie. Que voit-on donc du côté des cybercriminels ? Très bien, passons en revue la liste. J'en ai déjà parlé, mais cela vaut la peine d'être répété : les gens créent des images intimes non consensuelles, dans certains cas pour embarrasser, mais dans d'autres cas pour extorquer. Ils créent donc une image explicite d'une femme, d'un homme ou d'un enfant dans de nombreux cas, la leur envoient et leur disent, si vous ne le faites pas, payez-nous en bitcoins, payez-nous en espèces, créez pour nous du contenu de vous-même. Nous distribuerons ce matériel à vos amis et à votre famille. Et ce sont des choses terribles, terribles, terribles. Vous voyez des attaques par usurpation d'identité où les gens reçoivent des appels téléphoniques au milieu de la nuit pour dire, maman, papa, j'ai des problèmes.
(14:02) : J'ai eu un accident. J'ai besoin de 9 000 dollars pour sortir de prison. Voici un policier, n'est-ce pas ? La fraude à petite échelle, vous l'avez vue à grande échelle. Nous avons vu des entreprises perdre des dizaines de millions de dollars parce qu'elles étaient en train de téléphoner à celui qu'elles pensaient être leur PDG et qu'elles effectuaient des virements. Nous avons vu cela aussi. Nous avons vu les prises de contrôle de comptes où les gens contactent le support technique en disant, oh, j'ai perdu mon mot de passe. Il s'agit alors d'un "deepfake", c'est-à-dire qu'ils se font passer pour les détenteurs du compte. On peut le faire avec la voix, on peut le faire avec la vidéo. Ces dernières années, nous avons constaté deux choses. D'une part, la technologie est de plus en plus performante. Je veux dire qu'elle l'est vraiment, et vous l'avez vu de manière très spectaculaire, mais elle est aussi de plus en plus facile à utiliser. Auparavant, il fallait aller sur GitHub, télécharger une version, la compiler et configurer le GPU, mais aujourd'hui, tout cela est facilement accessible en ligne. Les cybercriminels, et d'ailleurs les terroristes et les extrémistes, se sont emparés très tôt de cette technologie et l'utilisent. Il ne s'agit pas de menaces hypothétiques. Nous les voyons se concrétiser tous les jours.
Ari Redbord
(15:05) : Quels sont les principaux exemples de cas que vous voyez ou les exemples sur lesquels vous vous êtes concentrés lorsque vous parlez de ces menaces ?
Hany Farid
(15:12) : Ceux qui m'empêchent le plus de dormir sont ceux qui infectent les enfants. Nous avons vu des cas horribles où de jeunes enfants s'enlèvent la vie parce que des gens prennent l'image d'un enfant avec une seule image. Ils insèrent cette image dans du matériel explicite d'abus d'enfants et l'envoient à l'enfant en lui disant : "Si tu ne prends pas d'images explicites de toi, nous distribuerons ceci". L'enfant devient alors paranoïaque et, en quelques secondes, il commence à prendre des photos, les leur envoie et le tour est joué. Vous avez vu d'autres exemples où des enfants parlent à ce qu'ils pensent être une jeune adolescente et on les convainc de prendre une photo explicite, ce qu'ils font, et le tour est joué. Et nous avons vu des cas horribles où des jeunes garçons et des jeunes filles s'enlèvent la vie parce qu'ils sont acculés et qu'ils ne savent pas quoi faire.
(16:04) : Il s'agit d'escroqueries organisées, perpétrées par des gangs, et c'est horrible. Vous en êtes témoins. D'ailleurs, au niveau de l'organisation, j'ai déjà mentionné que vous avez vu des attaques majeures, très majeures. Et pour chaque attentat dont on parle dans les journaux, il y en a dix dont on ne parle pas. Personne ne veut parler de ces attaques. Ainsi, des millions, des centaines de millions de dollars sont volés lors de cyberattaques et personne ne sait encore de quoi il s'agit. Ils n'ont même pas encore compris comment ils sont attaqués. En voici une autre. Au fait, les Nord-Coréens ont perfectionné la technique de l'imposture en postulant à des emplois sous le couvert de quelqu'un qu'ils ne sont pas. Ce sont des pirates nord-coréens et ils ne piratent pas votre pare-feu, ils le font, ils pénètrent dans votre entreprise et y installent des logiciels malveillants. Et c'est franchement plus facile parce que vous et moi savons que l'ingénierie sociale est plus efficace que le piratage du pare-feu. On assiste donc à de véritables problèmes et à une véritable militarisation de ces technologies qui touchent des individus, des organisations et des gouvernements entiers.
Ari Redbord
(17:00) : Oui, c'est très bien dit. Chez TRM, nous nous concentrons beaucoup sur les cyberattaques de la Corée du Nord parce qu'un grand nombre d'entre elles visent l'espace des crypto-monnaies et ont volé des milliards de dollars au cours des cinq dernières années. Et lorsque vous écrivez sur les travailleurs informatiques nord-coréens, c'est toujours du genre : "Hé, les meilleures pratiques en matière de ressources humaines consistent à s'assurer que leur caméra est allumée. Assurez-vous que vous parlez à une vraie personne et que vous vous faites passer pour moi à cet appel, c'est exactement comme si cette époque était révolue, n'est-ce pas ? Ce n'est plus une précaution qui va fonctionner. Ce n'est pas suffisant dans ce nouveau monde, ce n'est pas
Hany Farid
(17:30) : C'est assez. L'autre jour, je parlais à un CISO, un responsable de la sécurité des informations, et il m'a dit qu'ils étaient sur le point d'exiger des entretiens en personne parce qu'ils ne peuvent tout simplement plus faire confiance à ce qu'ils font en ligne. C'est incroyable. Je pense donc que cette commodité que nous avons adoptée au cours des cinq à dix dernières années doit être abandonnée. On ne peut tout simplement pas faire confiance. La seule chose en laquelle je peux avoir confiance, c'est quand je peux tendre la main et vous toucher. C'est un monde étrange dans lequel nous entrons.
Ari Redbord
(17:57) : Et je suppose que c'est une bonne transition vers la question de savoir comment vous envisagez d'atténuer ces risques ?
Hany Farid
(18:02) : Oui, tout d'abord, vous avez tout à fait raison. Ces risques ont toujours existé, mais aujourd'hui, ils sont sous stéroïdes parce que tout est automatisé et plus sophistiqué. Vous ne recevez pas simplement un message texte disant "Hé, c'est votre patron". Vous êtes en appel vidéo avec votre patron, et cela se passe très différemment. Parlons donc de la stratégie d'atténuation. En tant que personne qui réfléchit attentivement à la cybersécurité, je ne pense pas que cela vous surprendra, mais il n'y a pas de réponse magique. Nous avons besoin de beaucoup de choses. Commençons donc dans le désordre. Je dis cela à contrecœur, mais je pense que nous avons besoin d'une réglementation. Nous avons besoin de garde-fous qui nous permettent d'innover et de trouver comment tirer parti de cette incroyable technologie, mais aussi de mettre en place des garde-fous raisonnables. Nous avons essayé de laisser l'internet être l'internet pendant 20 ans et ce n'est pas génial, soyons honnêtes.
(18:46) : Il faut donc trouver le moyen de mettre en place des garde-fous raisonnables pour que le secteur privé puisse dire, écoutez, vivons à l'intérieur de ces voies et créons une certaine sécurité. C'est la première chose à faire. Deuxièmement, nous avons besoin de bonnes technologies. C'est un peu mon univers. Nous devons être en mesure de déterminer si la personne à qui nous parlons est réelle ou non, point final. Et cela nécessite d'énormes investissements de la part des universitaires, des gouvernements, du secteur privé, du monde du capital-risque. Je dirais d'ailleurs qu'il y a un déséquilibre phénoménal dans les investissements. Si vous regardez les investissements dans les entreprises d'IA générative, vous pouvez les mesurer en milliards de dollars. Si vous regardez les investissements dans la cybersécurité pour prévenir les fraudes, vous pouvez probablement les mesurer en dizaines de millions. Et cela ne me semble pas juste. J'ai le sentiment que c'est injuste.
(19:28) : Et je pense que nous devons commencer à prendre le côté défensif plus prudemment sur la technologie. Je pense que nous avons besoin de cette conversation. Je pense que les gens doivent être conscients de ce qui est possible. Nous devons parler de ces choses, et les gens doivent savoir ce que nous avons fait avec les spams, les logiciels malveillants et les virus. Ne cliquez pas sur le lien. Assurez-vous de connaître l'identité de l'expéditeur. Soyez prudent avec H-T-T-P-S par rapport à HTTP, et nous avons sensibilisé le public et cela a aidé. Il faut donc sensibiliser le public. Enfin, et j'aurais peut-être dû commencer par là, il faut que les entreprises technologiques commencent à prendre le problème plus au sérieux. Nous devons commencer à intégrer la sécurité dès le départ, et non pas des années plus tard, après que le mal a été fait, lorsque c'est beaucoup plus difficile. Les entreprises technologiques doivent reconnaître que l'IA est à l'origine d'un grand nombre de choses géniales, mais qu'il y a aussi des risques. Et elles doivent commencer à mettre en place des protocoles de sécurité dès le début. Et c'est aussi là que la réglementation, si je peux m'exprimer ainsi, peut aider à inciter à dire, écoutez, si vous créez un produit dont vous saviez ou auriez dû savoir qu'il allait causer des dommages, nous vous en tiendrons pour responsable. Je pense donc qu'il s'agit d'une combinaison de toutes ces choses. Tout ce dont nous parlons, comme tout le monde, ce sont des stratégies d'atténuation, n'est-ce pas ? Et je pense que vous l'avez même dit, vous n'avez pas dit, comment l'empêcher ? Comment l'atténuer ?
Ari Redbord
(20:37) : Absolument. C'est intéressant. Lorsque vous parlez d'investissement dans l'espace, je pense que la réglementation, le renforcement de la conformité en tant qu'infrastructure critique pourrait être un avantage commercial. Je veux aller sur la plateforme des médias sociaux où je sais que ce que je vais voir est réel, tout comme l'aspect éducatif, que j'adore, et c'est pour cela que je voulais avoir cette conversation. TRM a récemment publié un rapport sur la criminalité induite par l'IA. Le Trésor américain a publié un document sur les risques de cybercriminalité et de fraude liés à l'IA pour les institutions financières. Nous devons parler de ces choses. Ces dernières semaines, j'ai diffusé quelques vidéos dans lesquelles j'ai essayé de me mettre à la place de Tofa, mais je n'ai pas fait un très bon travail. Vous êtes bien meilleur, mais c'est moi qui essaie d'apprendre ces choses en préparation de cette vidéo, vous m'avez envoyé deux images. L'une me représente en prison et l'autre avec une mitrailleuse. Je les afficherai pour que les gens puissent les voir aussi. Et puis il y a aussi cette vidéo où il s'agit d'une vraie émission de CNBC à laquelle j'ai participé, mais tout d'un coup je me mets à parler espagnol à peu près à la moitié de l'émission. À quoi les gens doivent-ils s'attendre lorsqu'ils voient ce genre de choses ?
Hany Farid
(21:38) : Tout d'abord, je peux vous dire que ces deux images ont été réalisées en cinq secondes environ. J'ai indiqué un service qui, c'est une organisation que je conseille et qui essaie de sensibiliser le public. C'est ce qu'on appelle l'ai civique. Ce que vous faites, c'est que vous lui donnez un lien vers une page LinkedIn ou une page Wikipédia avec votre photo, votre page LinkedIn avec une photo, puis vous cliquez sur un bouton qui dit : créez un deepfake en utilisant le visage de cette personne. C'est tout ce que j'ai fait. Il suffisait de cliquer sur un bouton. Ce n'était rien.
Ari Redbord
(22:05) : Ce n'est pas comme s'ils prenaient, ce n'est pas Photoshop, n'est-ce pas ? Ils ne se contentent pas d'imposer votre image. Ils recréent presque l'apparence que vous devriez avoir au moment où vous vous trouvez.
Hany Farid
(22:13) : Et d'ailleurs, la pose de la tête est différente, l'éclairage est différent, l'expression est différente. Il s'agit donc d'une véritable conversion de texte en image. Il y a une invite qui dit : "Mettez l'espace et cela génère l'image". Et je peux continuer à cliquer toute la journée. Je ne crée pas une image après une autre image après une autre image, et je peux lui demander ce que je veux. C'est très sophistiqué et les images sont très convaincantes. Et pour répondre à votre question, avant de passer aux vidéos, comment les gens peuvent-ils savoir qu'ils ne peuvent pas ? Ils ne peuvent pas. Il faut le reconnaître. Nous pouvons le faire parce que nous sommes plutôt bons dans ce domaine. Mais en réalité, nous avons fait des études de perception où nous montrons aux gens des images, de vraies images, de fausses images. La plupart des gens sont légèrement au-dessus de la moyenne. Et le seul prédicteur de votre niveau de compétence est en fait une prédiction inverse. Plus vous êtes confiant dans votre capacité à accomplir cette tâche, plus vous êtes mauvais dans ce domaine. Il est presque impossible de les distinguer de la réalité, du moins de manière fiable. En d'autres termes, les images ont franchi la "vallée de l'étrange".
Ari Redbord
(23:06) : Non, c'est extraordinaire. Et la vidéo . . .
Hany Farid
(23:07) : Oui, parlons de la vidéo. C'est ma nouvelle obsession préférée. Ce que j'ai fait, c'est que j'ai pris l'interview A-C-N-B-C où vous parliez de certaines fraudes cryptographiques et des tendances que nous avons observées. J'ai pris cette vidéo, je l'ai coupée en 30 secondes pour la rendre un peu plus gérable. J'ai téléchargé la vidéo sur un service que je paie quelques dollars et j'ai simplement dit : traduisez-la en espagnol. Tout d'abord, il s'agit de la vidéo dont vous parlez. La première chose qu'il a faite, c'est de transcrire l'audio. Il est donc passé de l'audio au texte. C'est ce que j'ai fait. Bien sûr, il a traduit l'anglais en espagnol. C'est de l'IA. Elle a synthétisé quelqu'un qui parle espagnol, mais c'est votre voix. Vous remarquerez donc qu'il ne s'agit pas d'une personne quelconque. C'est donc l'IA numéro trois. Et voici le clou du spectacle. Elle a ensuite régénéré une vidéo où l'on voit votre bouche bouger en parlant espagnol. Quatre IA, en un clic. Cela a pris environ cinq minutes dans la file d'attente. Et j'ai eu la vidéo. Ensuite, je l'ai introduite et j'ai collé les deux vidéos ensemble. J'aime bien quand on passe de l'anglais à l'espagnol parce que c'est un peu déroutant. Vous pouvez voir
Ari Redbord
(24:12) : C'est. C'était vraiment choquant. Ce truc est parfait. Et écoutez, c'est juste moi qui m'amuse en espagnol sur un truc. Mais si c'était Kim Jong-un qui déclarait qu'il lançait une attaque contre la Corée du Sud, n'est-ce pas ?
Hany Farid
(24:24) : C'est exact.
Ari Redbord
(24:24) : Parlez-moi de cela.
Hany Farid
(24:25) : Voici la situation cauchemardesque. Géopolitique. Aujourd'hui, n'importe qui peut créer une image d'un dirigeant mondial, de la Corée du Nord, de la Russie, de la Chine, des États-Unis, qui dit : "J'ai lancé des armes nucléaires contre, remplissez les blancs, prenez cette vidéo, mettez-la en ligne, et qu'elle devienne super nova virale. Et avant que quiconque ne comprenne ce qui se passe, nous sommes sur le point d'assister à un effondrement nucléaire mondial. Est-ce que je pense que c'est probable ? Non. Est-ce que je pense que c'est possible ? À cent pour cent. Je pense qu'il s'agit plutôt d'une question de "quand" et de "si".
Ari Redbord
(24:57) : J'ai toujours dû poser des questions sur la cryptographie. C'est TRM Talks. Tout d'abord, vous avez cette sorte de deepfake de la Corée du Nord, les attaques de phishing, l'ingénierie sociale est suralimentée par cette technologie. Vous avez eu un excellent exemple d'une expérience récente de KYC que vous avez eue dans une bourse de crypto-monnaies, parlez-en à nos gens.
Hany Farid
(25:14) : Oui, c'est une expérience intéressante pour moi et pour le monde que j'occupe. Il y a quelques années, mon neveu m'a offert une fraction de bitcoin et je me suis dit que c'était mignon. Et je l'ai ignoré pendant quelques années. L'autre jour, j'ai lu un article. Je me suis demandé ce qu'il était advenu de ce bitcoin. J'ai donc ouvert mon Coinbase et j'ai essayé d'accéder au portefeuille en disant "Non". C'est un nouveau téléphone. Je me suis dit, d'accord, peu importe. Et puis je me suis dit, vous savez quoi ? J'étais curieux de savoir comment ils allaient vérifier mon identité. Et ils ont fait exactement ce que je pensais qu'ils feraient. Ils ont dit, ok, ouvrez votre appareil photo. Mettez-la en face de votre visage. Tenez votre carte d'identité et nous validerons votre identité. Je me souviens m'être dit que c'était vraiment stupide. J'aurais pu faire semblant si facilement. J'aurais pu créer une fausse identité, mon faux visage avec Hany parce que Hany a une empreinte numérique. Mais c'est ainsi qu'il m'a validé. Il n'y avait pas d'humain dans la boucle. Il s'agissait d'un pur KYC avec authentification vidéo. Et je me suis dit que c'était assez facile à falsifier.
Ari Redbord
(26:05) : Que dites-vous aux gens, qu'ils soient dans l'espace de conformité ou des institutions financières ou des entreprises de crypto, quelle est la réponse à cela ? De toute évidence, il s'agit de mettre en œuvre une technologie comme celle que vous construisez, en veillant à ce que vous ayez des solutions d'blockchain intelligence robustes comme TRM. Mais quel est votre message ?
Hany Farid
(26:21) : Oui, eh bien, le premier message est que c'est le meilleur des mondes et que ce que vous faisiez hier ne fonctionnera pas aujourd'hui. Donc si vous êtes une banque et que vous faites de l'authentification basée sur la voix, ma voix est mon identifiant, arrêtez. Et si vous êtes un client, arrêtez tout de suite. Et la façon dont je vois les choses, c'est de penser au risque, n'est-ce pas ? Réfléchissez au risque associé à l'erreur d'identité de cette personne. Dans certains cas, le risque est faible et dans d'autres, il est extrêmement élevé. Je pense donc que si vous êtes une institution financière, si vous êtes un échange de crypto-monnaies, vous devez fondamentalement repenser le KYC. Vous devez repenser la façon dont vous avez fait les choses. Elles ne fonctionnent plus.
Ari Redbord
(26:56) : J'ai une question sur ma liste, mais je me suis rendu compte qu'elle était tout simplement ridicule. Je pense que j'étais sur le point de vous demander quelque chose à propos de la direction que vous pensez donner à cet espace dans les cinq ou dix prochaines années. Hany, où voyez-vous cet espace dans les cinq ou dix prochaines minutes ?
Hany Farid
(27:09) : Tout d'abord, pour vous montrer à quel point c'est rapide, parce que ce n'est pas seulement une impression de rapidité. Permettez-moi de vous donner un cadre. La révolution du PC, la révolution de l'ordinateur personnel, a duré environ 50 ans, depuis les débuts de l'ordinateur électronique jusqu'à ce qu'environ la moitié des ménages américains disposent d'un ordinateur, soit cinq décennies, ce qui semble rapide. Par ailleurs, la révolution de l'internet a duré environ 25 ans, depuis les débuts du protocole HTML jusqu'à ce que la moitié de la population mondiale soit en ligne. La révolution mobile a duré environ cinq ans, du premier iPhone à la moitié de la population mondiale possédant un appareil mobile. Et l'OpenAI est passé de zéro à un milliard d'utilisateurs en un an. On peut dire que l'IA a commencé dans les années 1950, mais qu'il ne se passait pas grand-chose, et que tout d'un coup, 50, 25, 5, 1, tout s'est accéléré. Revenons maintenant à votre question. Je pense que deux choses vont se produire.
(28:02) : La première est qu'il y aura plus de la même chose. Les LLM s'amélioreront, les grands modèles de langage s'amélioreront. L'IA générative va s'améliorer. L'IA commencera à être intégrée dans nos appareils. Je pense que nous sommes à la croisée des chemins : la technologie travaille-t-elle d'abord pour nous ou commence-t-elle à travailler contre nous ? Et c'est ce que je ne sais pas, parce que si vous regardez la technologie aujourd'hui, personne ne peut nier les progrès phénoménaux, mais vous ne pouvez pas non plus nier les dommages réels de la technologie, des fraudes aux escroqueries, de la désinformation aux conspirations. Et je crains que si nous continuons sur la voie des 20 dernières années, la technologie ne commence à travailler contre nous et non avec nous.
Ari Redbord
(28:41) : C'est un moment extraordinaire. Il n'est pas question de nous laisser terminer sur une menace existentielle pour l'humanité. Je vous remercie. Ce n'est pas du tout comme ça que je fonctionne sur TRM. Nous sommes optimistes. Nous sommes tournés vers l'avenir et je suis vraiment impressionné par le bien que cela peut apporter à la création d'une entreprise ou aux choses que nous faisons. Je veux dire que vous avez bâti une entreprise en empêchant les mauvais acteurs d'utiliser cette technologie, comme nous l'avons fait. Je pense qu'en fin de compte, la bonne technologie répondra à ce genre de situation.
Hany Farid
(29:10) : Je veux bien le croire. D'ailleurs, je peux vous dire que nous avons créé une entreprise au cours des deux dernières années et demie et qu'il n'y a pas un seul chercheur ou ingénieur dans notre entreprise qui n'utilise pas un grand modèle de langage pour écrire chaque ligne de code ou pour nous aider à écrire chaque ligne de code dans notre logiciel. C'est un accélérateur. Nous faisons aujourd'hui en quelques heures des choses qui prenaient auparavant des semaines. Je continue d'ailleurs à écrire du code et j'écrirai des techniques entières opérationnalisées en quelques heures. Ce qui me prendrait normalement des semaines et des semaines. C'est phénoménal.
Ari Redbord
(29:39) : C'est absolument extraordinaire. Vous devez promettre de revenir sur TRM Talks dans cinq ou dix minutes, lorsque cet espace aura changé.
Hany Farid
(29:46) : Je suis très reconnaissante à des gens comme vous de parler de ces choses, parce que je pense que c'est important. Je pense que tout le monde doit écouter ça. Je ne veux pas effrayer les gens, mais nous devons prendre ce sujet au sérieux. Nous aurons à nouveau cette conversation dans six à douze mois. Je vous enverrai probablement un courriel dans quelques minutes pour vous informer de ce que je viens de trouver. Mais parlons-en à nouveau, car je pense que d'ici la fin de l'année, le paysage aura changé sous nos pieds. Et je pense qu'il y aura des choses nouvelles, passionnantes et terrifiantes dont nous pourrons parler.
Ari Redbord
(30:10) : Si quelque chose doit effrayer les gens, c'est bien l'IA Ari sur cette plateforme Riverside. Nous donnons le coup d'envoi de notre émission d'aujourd'hui. Merci de nous avoir rejoints TRM Talks. C'était vraiment l'un des plus extraordinaires TRM Talks les plus extraordinaires que nous ayons jamais eus. Je pense que cela s'explique en grande partie par le fait que nous vivons un moment technologique où le monde évolue plus vite qu'il ne l'a jamais fait auparavant. Et le fait de parler à Hany, l'un des plus grands experts au monde pour comprendre ce moment, a été vraiment extraordinaire. Il y a quelques semaines, nous avons publié un rapport sur la criminalité liée à l'IA. Nous voulions comprendre, d'une part, quelles étaient les activités et les moyens utilisés par les criminels pour tirer parti de cette technologie, et d'autre part, il n'y avait pas de meilleur expert en la matière que Hany. Et il n'y a pas de meilleur expert au monde sur les DeepFakes en particulier. Et les DeepFakes ne sont pas là uniquement pour le plaisir de faire des DeepFakes, n'est-ce pas ? C'est ainsi que les cybercriminels utilisent les plateformes KYC, n'est-ce pas ?
(31:00) : Entreprises de crypto-monnaies. C'est ainsi que les cybercriminels nord-coréens peuvent potentiellement obtenir des emplois dans le domaine des technologies de l'information. Et c'est ainsi que pig butchering et d'autres types d'activités peuvent renforcer leurs actions. Parler à Hany a été extraordinaire pour connaître son point de vue, mais aussi pour voir comment il exploite la technologie pour la comprendre. Je veux dire que la vidéo de moi est quelque chose que je n'oublierai jamais. Et ma réaction, la réaction de Wesley lorsque nous avons vu cette vidéo pour la première fois était du genre "wow, je n'arrive pas à croire que je vois ça maintenant". Je pense que c'est ce que beaucoup de gens ressentent. Mais la vraie question, celle qui m'intéresse le plus, c'est de savoir si le secteur financier, les gouvernements et la sécurité nationale vont être confrontés à des risques existentiels, mais comment les atténuer ? Et je pense toujours qu'en fin de compte, c'était une conversation optimiste que la construction d'une technologie comme TRM, l'blockchain intelligence et le travail qu'il fait deviennent réels. Essayer de comprendre les deepfakes va jouer un rôle essentiel. Et j'ai toujours cru que nous pouvions construire une technologie et notre technologie de construction pour répondre au moment. Cette conversation, vous pouvez probablement l'entendre dans ma voix. Je suis tellement enthousiaste à ce sujet. Je suis très motivée par le travail que nous effectuons au sein de TRM sur cette question. Et nous allons avoir beaucoup d'autres conversations de ce genre.
(32:12) : Suivant sur TRM Talksje m'entretiens avec Brandy Reynolds, experte en conformité des crypto-monnaies. Si vous aimez l'émission, laissez un commentaire là où vous l'écoutez et suivez-nous sur LinkedIn pour obtenir les dernières nouvelles sur la réglementation, la conformité et les enquêtes en matière de crypto-monnaies.
TRM Talks
(32:31) : TRM Talks vous est présenté par TRM Labsle principal fournisseur de logiciels d'blockchain intelligence et de lutte contre le blanchiment d'argent. Cet épisode a été produit en partenariat avec Voltage Productions. La musique de cette émission a été fournie par E-Clicks.
Ari Redbord
(32:47) : Revenons maintenant à la construction.
A propos de l'invités

Hany Farid est professeur à l'université de Californie, Berkeley, où il est nommé conjointement au département d'ingénierie électrique et d'informatique et à l'école d'information. Il est également cofondateur et directeur scientifique de GetReal Labs, une société de cybersécurité qui se consacre à la prévention des menaces malveillantes par l'IA générative.
Les recherches de Hany sont axées sur la criminalistique numérique, la criminalistique, l'analyse d'images et la perception humaine. Il a obtenu son diplôme de premier cycle en informatique et en mathématiques appliquées à l'université de Rochester en 1989, et son doctorat en informatique à l'université de Pennsylvanie en 1997. Après un stage post-doctoral de deux ans en sciences du cerveau et de la cognition au MIT, il a rejoint la faculté du Dartmouth College en 1999, où il est resté jusqu'en 2019.
Plus d'informations TRM Talks
S'abonner à TRM Talks
Abonnez-vous pour être le premier à être informé des nouveaux épisodes et pour rester au courant de tout ce qui concerne la technologie blockchain et la politique en matière de crypto-monnaies.