L'essor de la criminalité fondée sur l'IA : Explorer l'évolution, les risques et les réponses aux entreprises criminelles alimentées par l'IA

L'intelligence artificielle (IA) a révolutionné de nombreux secteurs, améliorant la productivité et l'innovation à une vitesse sans précédent. Qu'il s'agisse d'améliorer l'accès aux soins de santé, de modéliser le climat pour atténuer l'impact des événements météorologiques ou d'améliorer l'efficacité et la sécurité sur nos lieux de travail, l'IA permet d'obtenir des résultats meilleurs et plus durables.
Toutefois, cette même technologie transformatrice est également exploitée à des fins criminelles, ce qui représente une menace importante pour la sécurité mondiale et la stabilité sociétale. Les acteurs malveillants tirent de plus en plus parti de l'IA pour réaliser des piratages et des fraudes, créer des "deepfakes" à des fins d'extorsion et de diffusion de fausses informations, et mener des cyberattaques à grande échelle. À mesure que la technologie de l'IA devient plus sophistiquée, les moyens utilisés par les criminels pour l'exploiter se multiplient.
Ce rapport explore les stades de maturité des crimes facilités par l'IA - horizon, émergent et mature - illustrant comment l'IA amplifie les capacités criminelles en éliminant les goulets d'étranglement humains traditionnels. Nous examinerons des exemples concrets et des cas documentés d'utilisation de l'IA dans des activités criminelles, ainsi que la gravité de ces défis. Nous explorerons également des stratégies de prévention et d'atténuation de la criminalité induite par l'IA, en soulignant l'importance des solutions techniques, de la réglementation, de l'éducation et de la collaboration.
L'IA permet la croissance de la criminalité en éliminant les goulets d'étranglement humains
L'intelligence artificielle a déferlé sur le monde des affaires, transformant les industries et réécrivant les règles d'efficacité et d'échelle. Les entreprises ont adopté l'IA par étapes, en commençant par des outils prêts à l'emploi comme ChatGPT pour les aider dans des tâches telles que la rédaction de réponses, la traduction de documents ou la synthèse de données. Au fil du temps, les organisations ont commencé à développer des systèmes d'IA propriétaires pour automatiser des flux de travail entiers.
Mais ces progrès ne se limitent pas au monde licite. Partout dans le monde, les entreprises criminelles s'efforcent d'exploiter le potentiel de l'IA de la même manière. Dans un premier temps, ces organisations se sont tournées vers l'IA pour soutenir leurs efforts criminels dirigés par des humains, en traduisant des scripts d'hameçonnage en plusieurs langues ou en analysant de vastes bases de code à la recherche de vulnérabilités exploitables. Ces premières applications reflètent les utilisations légitimes de l'IA, mais elles sont transformées en armes à l'effet dévastateur.
La prochaine frontière pour les criminels est l'autonomie. Tout comme les entreprises s'efforcent d'automatiser les tâches, les cybercriminels peuvent mettre au point des agents d'IA capables de fonctionner de manière totalement indépendante. Ces agents pourraient identifier et exploiter les vulnérabilités sans surveillance humaine - en exécutant des objectifs complexes, tels que le piratage d'infrastructures critiques (par exemple, des stations d'épuration).
Cette évolution ne se contente pas de modifier l'ampleur des opérations criminelles, elle les remodèle fondamentalement, les rendant plus rapides, plus efficaces et terriblement difficiles à détecter ou à contrecarrer.
Les cybercriminels exploitent l'IA de manière inédite
Les cybercriminels, les escrocs et les acteurs des États-nations exploitent de plus en plus l'IA pour amplifier leurs activités malveillantes. Voici quelques-unes des principales applications qu'ils ont trouvées :
Automatisation des attaques
Lesoutils alimentés par l'IA permettent d'automatiser les campagnes de phishing, en créant des messages très convaincants à grande échelle. L'IA permet également aux logiciels malveillants de s'adapter dynamiquement pour échapper à la détection en temps réel.
En mars 2024, le département du Trésor américain a publié un rapport sur l'état actuel de l'intelligence artificielle liée aux risques de cybersécurité et de fraude dans les services financiers. Ce rapport, qui synthétise des entretiens avec 42 institutions financières, souligne en particulier l'utilisation de l'IA générative par des acteurs de menaces existants pour développer et piloter des logiciels malveillants plus sophistiqués - ce qui leur donne des capacités d'attaque complexes qui n'étaient auparavant accessibles qu'aux acteurs les mieux dotés en ressources et aide les acteurs de menaces moins qualifiés à mettre au point des attaques simples mais efficaces.
Deepfakes et médias synthétiques
Les criminelsutilisent la technologie deepfake pour se faire passer pour des cadres ou des personnalités publiques, ainsi que des images et des voix générées par l'IA qui rendent les escroqueries plus difficiles à détecter - ce qui leur permet de faciliter des fraudes de grande valeur telles que la compromission des courriels d'entreprise (BEC), l'extorsion et la manipulation sociale.
En novembre 2024, le FinCEN du Trésor américain a publié son "Alert on Fraud Schemes Involving Deepfake Media Targeting Financial Institutions", soulignant une "augmentation des signalements d'activités suspectes par les institutions financières décrivant l'utilisation présumée de deepfake media dans des schémas de fraude ciblant leurs institutions et leurs clients". Dans son rapport de mars 2024 intitulé "AI Cyber and Fraud Risks for Financial Institutions", le ministère affirme que les escrocs se sont tournés vers l'IA pour créer de meilleurs deepfakes qui imitent la voix et d'autres caractéristiques humaines de manière plus crédible.
En outre, l'IA est utilisée par les fraudeurs pour améliorer les capacités de création d'identités synthétiques, c'est-à-dire la création de fausses identités en utilisant un composite d'informations personnelles provenant de diverses personnes réelles afin d'ouvrir des comptes bancaires, des cartes de crédit, des crypto-monnaies et d'autres comptes financiers.
Pour en savoir plus sur le document du Trésor 2024 "AI Cyber and Fraud Risk for Financial Institutions", écoutez TRM Talks avec l'auteur principal Todd Conklin, US Treasury Deputy Assistant Secretary of Cyber Chief AI Officer.
Renforcement des cyberattaques
AIalgorithmes optimisent les opérations Rançonlogiciel en identifiant les données ou les systèmes les plus critiques à chiffrer pour un effet de levier maximal. Les acteurs étatiques utilisent également l'IA pour le cyber-espionnage avancé, en contournant les mesures de sécurité traditionnelles.
Les services répressifs, les décideurs politiques et les agences de sécurité nationale doivent comprendre l'adoption de l'IA par les criminels.
Pour contrer efficacement la menace croissante de la criminalité liée à l'IA, les services répressifs, les décideurs politiques et les professionnels de la sécurité nationale ont besoin de cadres leur permettant de suivre de près l'adoption de l'IA par les criminels afin de pouvoir déployer des contre-mesures ciblées.
Chez TRM, nous classons l'adoption de l'IA en trois niveaux afin d'aider les parties prenantes à hiérarchiser leurs réponses et leurs ressources de manière efficace.
- Horizon : Une utilisation importante de l'IA est possible et "à l'horizon" dans ce type de criminalité, mais elle n'a pas encore été détectée de manière notable. Les organisations criminelles explorent peut-être des applications, mais leur mise en œuvre reste limitée.
- Émergente : L'IA est activement utilisée pour rationaliser les opérations, bien que les humains jouent encore un rôle prédominant dans la prise de décision et l'exécution. L'automatisation des campagnes de phishing ou l'amélioration des opérations de fraude existantes en sont des exemples.
- Mature : Les activités basées sur l'IA dominent ce type de criminalité, les systèmes d'IA surpassant les efforts humains en termes d'échelle, d'efficacité et de sophistication. Ces systèmes fonctionnent avec un minimum d'intervention humaine et exécutent de manière autonome des activités criminelles complexes et à fort impact.
Phase d'horizon : Applications théoriques de l'IA
La phase d'horizon est marquée par des applications essentiellement théoriques de l'IA dans les activités criminelles, avec un fort potentiel de perturbation d'ici un an ou deux. Les organisations criminelles opérant à ce stade de maturité peuvent déjà disposer d'outils et de systèmes d'IA, mais ne les ont pas encore mis en œuvre à grande échelle.
Phase d'horizon Typologies de la criminalité liée à l'IA
Financement de la prolifération
La Corée du Nord (RPDC) s'appuie de plus en plus sur les cyberattaques - en particulier le piratage des sociétés de crypto-monnaies - pour financer son programme nucléaire. Selon TRM Labsles pirates informatiques liés à la RPDC ont volé environ 800 millions de dollars en 2024 et près de 3 milliards de dollars au cours des cinq dernières années, de nombreuses attaques ciblant les plateformes de finance décentraliséeDeFi. Ces opérations sont actuellement facilitées par des opérateurs humains qualifiés et des réseaux de blanchiment élaborés. Cependant, le potentiel des modèles d'IA pour étendre ces opérations est évident.
Des agents d'IA autonomes pourraient être utilisés pour identifier les plateformes vulnérables, exécuter des piratages et automatiser des schémas de blanchiment complexes, ce qui compliquerait encore davantage les efforts visant à réduire le financement de la prolifération. L'intégration de l'IA dans les opérations de la RPDC amplifierait considérablement sa capacité à échapper aux sanctions et à financer des activités illicites, ce qui représente un défi majeur pour la sécurité mondiale.
Blanchiment d'argent
Le blanchiment d'argent traditionnel repose sur des mules humaines et une coordination manuelle - en particulier pour les cybercriminels, les trafiquants de drogue et les fraudeurs. Les technologies de l'IA, telles que les générateurs d'identifiants synthétiques et la création automatisée de comptes en crypto-monnaie, sont sur le point d'automatiser ces opérations de manière significative, accélérant ainsi la vitesse à laquelle ces opérations peuvent être effectuées. Cette évolution pourrait déstabiliser les systèmes financiers et renforcer les réseaux criminels mondiaux, rendant l'intervention réglementaire de plus en plus urgente.
Cybercriminalité
L'avènement d'agents d'intelligence artificielle capables d'identifier les vulnérabilités et d'exécuter des attaques de manière autonome donne une nouvelle dimension à la cybercriminalité. Les groupes Rançonlogiciel , par exemple, s'appuient actuellement sur des affiliés humains pour exécuter des attaques, ainsi que sur des services gérés par des humains, tels que les courtiers d'accès initial et les fournisseurs d'hébergement à l'épreuve des balles. Ces intermédiaires humains jouent un rôle essentiel dans l'identification des vulnérabilités, la distribution des logiciels malveillants et la gestion de l'infrastructure des réseaux criminels.
Des agents d'IA autonomes pourraient toutefois un jour remplacer ces intermédiaires en identifiant et en exploitant de manière indépendante les vulnérabilités, en distribuant des charges utiles et en gérant les systèmes dorsaux des campagnes de Rançonlogiciel . Bien qu'elles soient encore largement théoriques, des agences publiques telles que le ministère américain de la sécurité intérieure ont exprimé leur inquiétude quant au potentiel de l'IA à perturber les infrastructures critiques, comme le souligne leur rapport de 2022 sur les "Menaces émergentes en matière d'IA". Les systèmes d'IA autonomes pourraient éliminer le besoin de pirates informatiques humains, permettant ainsi des attaques généralisées à une échelle inimaginable jusqu'à présent, ce qui aurait des conséquences désastreuses sur l'économie et la sécurité.
Phase d'émergence : Premiers signes d'activité de l'IA
La phase émergente se caractérise par le déploiement initial d'outils criminels pilotés par l'IA. Bien que les activités criminelles liées à l'IA n'en soient encore qu'à leurs débuts, leur potentiel de croissance rapide exige que les services répressifs réagissent.
Typologies des crimes liés à l'IA en phase d'émergence
Production de matériel pédopornographique (CSAM)
Historiquement, la production de CSAM reposait sur l'exploitation de victimes humaines. Cependant, le contenu généré par l'IA a commencé à remplacer l'implication humaine, créant une nouvelle frontière profondément troublante. Les procureurs américains ont relevé des cas précoces de CSAM générés par l'IA, ce qui complique les efforts de détection et soulève de nouveaux défis éthiques et juridiques.
Cette question a été étudiée en profondeur par l'Internet Watch Foundation (IWF), dont le rapport de juillet 2024 a révélé plus de 3 500 nouvelles images criminelles d'abus sexuels d'enfants générées par l'IA et téléchargées sur un forum du dark web précédemment analysé en octobre 2023. En outre, le rapport souligne l'émergence de vidéos générées par l'IA mettant en scène des abus sexuels sur des enfants, qui utilisent souvent la technologie deepfake pour ajouter le visage d'un enfant à un contenu pornographique pour adultes. Ces résultats soulignent la gravité croissante de l'utilisation abusive de l'IA dans ce domaine, qui aggrave les dommages causés à la société et met à rude épreuve les ressources des services de répression.
Opérations de désinformation
L'IA est en train de remodeler les campagnes de propagande et de désinformation en rationalisant la production et la diffusion de contenus. Des organismes tels qu'INTERPOL ont fait état des premiers déploiements d'agents d'intelligence artificielle qui automatisent la diffusion de messages personnalisés et ciblent les populations vulnérables.
Par exemple, dans un rapport d'Europol, l'Institut interrégional de recherche des Nations unies sur la criminalité et la justice (UNICRI) et Trend Micro soulignent comment l'IA est utilisée pour générer et diffuser de la propagande à grande échelle - en ciblant spécifiquement les groupes à risque avec des campagnes de désinformation sur mesure. La vitesse et l'ampleur de ces opérations accélèrent la polarisation sociétale, perturbent les processus démocratiques et remettent en cause les cadres réglementaires existants.
Fraude et escroquerie
Les opérations d'escroquerie , qui dépendent traditionnellement de l'intervention humaine, adoptent de plus en plus des outils d'IA pour améliorer leur efficacité. Des courriels d'hameçonnage générés par l'IA et des usurpations d'identité ont fait surface dans des cas documentés, démontrant une augmentation de la sophistication de ces stratagèmes. Cette complexité croissante érode la confiance des consommateurs et pose d'importants problèmes pour distinguer les communications légitimes des communications frauduleuses.
Par exemple, en 2024, nous avons vu de nombreux exemples d'escroqueries sophistiquées utilisant l'IA pour imiter la voix du PDG d'une entreprise lors d'un appel téléphonique, convainquant un employé de transférer des fonds sur un compte frauduleux.
TRM a également constaté des cas de groupes d'escroquerie exposés à un groupe de pirates informatiques chinois proposant des services de cybercriminalité de type "deepfake", probablement utilisés par les escrocs pour tenter de modifier les apparences et de s'aligner sur leurs récits frauduleux.

Cela illustre la façon dont les usurpations d'identité générées par l'IA deviennent un outil essentiel pour les escrocs afin d'exploiter la confiance et de contourner les mesures de sécurité traditionnelles. En 2024, INTERPOL a lancé une campagne de sensibilisation à la menace croissante de cybercriminalité et de criminalité financière utilisant des escroqueries à l'aide de l'IA générative et d'autres technologies.
Phase de maturité : L'IA supplante l'activité humaine
La phase de maturité représente le moment où les activités pilotées par l'IA dominent leurs domaines respectifs, les criminels s'appuyant davantage sur les systèmes d'IA que sur les opérateurs humains. Bien qu'aucun domaine criminel n'ait encore atteint ce stade, il est probable que cette nouvelle réalité ne soit pas loin. Deux tendances soulignent cette trajectoire :
- Les systèmes d'IA accèdent à des outils essentiels tels que les navigateurs, les bases de données, les plateformes de messagerie et les portefeuilles de crypto-monnaies.
- Les modèles d'IA sont programmés pour optimiser des objectifs spécifiques, tels que la maximisation du profit ou de l'influence.
Par exemple, l'affaire "Terminal of Truths" (ToT) a montré comment un agent d'IA a participé de manière autonome à un écosystème de crypto-monnaies, amassant des richesses en actifs numériques par le biais d'interactions avec des agents humains et des robots. Cela met en évidence le potentiel des agents d'IA à s'engager dans les économies numériques d'une manière qui alimente une fraude persistante à grande échelle.
Et à mesure que ces systèmes deviennent plus performants, ils pourraient exécuter des activités criminelles de plus en plus complexes et à fort impact - telles que des manipulations de marché à grande échelle ou l'exploitation de vulnérabilités dans des infrastructures critiques. Il est urgent de prendre des mesures proactives pour surveiller et limiter l'utilisation abusive de l'IA sous ces formes avancées.
Prévenir et atténuer la criminalité liée à l'IA
Quelle est donc la suite des événements ? Comment trouver un équilibre entre l'opportunité et l'innovation offertes par l'IA et la garantie de la sécurité de nos citoyens et de nos systèmes mondiaux ?
La lutte contre l'utilisation abusive de l'IA nécessitera une approche à multiples facettes, combinant des solutions techniques, des mesures politiques et réglementaires, l'éducation du public et la collaboration.
Solutions techniques
Les systèmes de détection pilotés par l'IA constituent une défense essentielle contre la criminalité induite par l'IA. Par exemple, les outils qui identifient les "deepfakes" ou détectent les anomalies dans les transactions financières s'avèrent déjà efficaces. Les cadres de cybersécurité améliorés qui intègrent la détection des menaces basée sur l'IA peuvent également atténuer davantage les risques associés aux attaques à grande échelle.
Au sein de TRM Forensics, Signatures® permet aux équipes de détecter de manière proactive les activités suspectes grâce à une reconnaissance avancée des schémas de la blockchain. Alimentées par l'IA et l'apprentissage automatique, les Signatures découvrent automatiquement des schémas suspects à travers plusieurs transactions qui pourraient autrement passer inaperçues - vous donnant l'assurance qu'aucun angle d'investigation n'est laissé de côté.
Politique et réglementation
Les décideurs politiques du monde entier s'efforcent de créer des environnements réglementaires qui encouragent l'innovation dans le domaine de l'IA, tout en atténuant les risques liés aux acteurs illicites qui cherchent à abuser de la technologie transformatrice. Dès le deuxième jour de son mandat, le président américain Donald Trump a signé un décret sur l'IA qui vise à "soutenir et renforcer la domination mondiale de l'Amérique en matière d'IA afin de promouvoir l'épanouissement humain, la compétitivité économique et la sécurité nationale."
Dans son rapport de mai 2024 sur "l'intelligence artificielle responsable dans les marchés financiers", le Comité consultatif sur la technologie (TAC) de la CFTC, dont le TRM est membre, a publié un rapport sur la question. Ari Redbord est le vice-président - a souligné à la fois le potentiel de transformation et les risques importants de l'IA sur les marchés financiers. Si l'IA est largement utilisée pour la détection des fraudes, la gestion des risques et l'analyse prédictive, elle introduit également des vulnérabilités, notamment les deepfakes pour l'usurpation d'identité, le phishing automatisé et la manipulation d'algorithmes. Pour relever ces défis, le TAC recommande dans son rapport l'adoption d'un cadre solide de gestion des risques liés à l'IA, aligné sur les lignes directrices du NIST, afin d'identifier les vulnérabilités et de garantir une utilisation responsable de l'IA.
La coopération mondiale est également essentielle pour faire face à la nature transnationale de la criminalité liée à l'IA. Des organisations telles qu'INTERPOL et les Nations unies plaident en faveur d'une harmonisation des réglementations régissant l'utilisation de l'IA. Des lignes directrices éthiques doivent garantir un développement responsable de l'IA, assorti de sanctions claires en cas d'utilisation abusive, tandis que les gouvernements doivent continuer à veiller au respect de ces normes.
Sensibilisation et éducation du public
Il est essentiel d'informer le public sur les risques d'escroquerie et de désinformation induits par l'IA pour limiter la criminalité. Par exemple, le Federal Bureau of Investigation FBI a lancé plusieurs campagnes pour sensibiliser le public aux dangers des menaces et de la désinformation en ligne. La campagne "Think Before You Post" (Réfléchissez avant de poster) met en garde les individus contre les graves conséquences de la publication de fausses menaces sur les médias sociaux, en soulignant que de tels actes peuvent entraîner des poursuites fédérales avec des peines pouvant aller jusqu'à cinq ans d'emprisonnement. Cette initiative vise à réduire la pression exercée sur les ressources des services répressifs par les enquêtes sur les fausses menaces et à éviter d'alarmer inutilement le public.
De même, Europol a relevé les défis posés par la technologie deepfake en publiant des rapports détaillés et en sensibilisant le public. Leur publication, "Facing Reality ? Law Enforcement and the Challenge of Deepfakes", fournit une analyse approfondie de la manière dont les deepfakes peuvent être utilisés dans des activités criminelles telles que les campagnes de désinformation, la fraude documentaire et la pornographie non consensuelle. Europol souligne la nécessité pour les services répressifs de développer de nouvelles compétences et d'adopter des technologies de pointe pour détecter et contrecarrer l'utilisation malveillante des "deepfakes".
Collaboration entre les parties prenantes
Les partenariats public-privé sont indispensables pour lutter contre la criminalité liée à l'IA. Les institutions financières et les autres entreprises devraient donner la priorité à l'intégration de fonctions de sécurité dans leurs systèmes d'IA, tandis que les gouvernements devraient encourager la recherche collaborative et l'innovation. Les plateformes telles que TRM jouent un rôle central dans cet écosystème en permettant le partage d'informations et l'intégration d'outils d'IA pour renforcer les mesures de sécurité.
Tirer parti de l'blockchain intelligence de TRM pour lutter contre les menaces pilotées par l'IA.
TRM Labs est une entreprise d'IA depuis le premier jour. Notre plateforme d'blockchain intelligence ingère des milliards de points de données chaque jour. De plus, nos solutions basées sur l'IA permettent :
LBlockchain intelligence au service de l'identification des risques
TRM utilise l'intelligence blockchain intelligence pour tracer les transactions illicites liées au Rançonlogiciel, à la fraude ou aux entités sanctionnées. La combinaison de l'IA et de l'blockchain intelligence permet à TRM de détecter des modèles de comportement anormal, même lorsque les attaquants utilisent des techniques d'obscurcissement.
TRM LabsL'outil comportemental Signatures® s'appuie sur l'IA pour identifier des schémas de transaction distincts et des anomalies comportementales sur la blockchain. En analysant les données de la blockchain, Signatures détecte les caractéristiques uniques associées aux activités illicites, telles que la fraude, le blanchiment d'argent ou l'évasion des sanctions. L'outil permet aux enquêteurs de découvrir des portefeuilles et des connexions jusqu'alors inconnus, transformant les données brutes de la blockchain en renseignements exploitables pour tracer les fonds illicites et perturber les réseaux criminels.
Surveillance et alertes en temps réel
Les gouvernements et les institutions financières peuvent utiliser TRM Labspour détecter les transactions suspectes. Les alertes renforcées par l'IA hiérarchisent les risques en fonction de leur gravité, ce qui permet de réagir rapidement aux menaces émergentes.
Partage d'informations en collaboration
TRM Labs facilite la collaboration entre les parties prenantes grâce au partage de renseignements et à la cartographie des menaces. Cette démarche s'inscrit dans le cadre d'initiatives mondiales telles que la Counter Rançonlogiciel Initiative (CRI), qui vise à perturber les réseaux de Rançonlogiciel et de criminalité financière, et de collaborations public-privé telles que TRON, Tether et la T3 Financial Crime Unit (T3 FCU) de TRM, une initiative inédite visant à faciliter la collaboration public-privé pour lutter contre les activités illicites associées à l'utilisation de l'USDT sur la chaîne de blocs de TRON. Depuis sa création en août 2024, T3 a permis la saisie de plus de 130 millions d'USD.
Former des modèles d'IA pour la défense
TRM Labs permet aux institutions de former des modèles d'IA pour reconnaître les techniques d'escroquerie en évolution, garantissant ainsi des défenses adaptatives contre les attaquants. Par exemple, les outils d'IA peuvent analyser le contenu des deepfakes et signaler les incohérences liées à des acteurs malveillants.
L'avenir repose sur l'utilisation de l'IA pour lutter contre la criminalité liée à l'IA
La nature à double usage de l'IA présente à la fois d'immenses opportunités et de graves défis. Bien que la technologie n'ait pas encore atteint le stade où les activités illicites liées à l'IA dominent le champ de bataille criminel, la trajectoire de la technologie de l'IA met en évidence la nécessité d'une action préventive urgente. Les organismes chargés de l'application de la loi, de la défense nationale, du gouvernement et du secteur privé doivent collaborer pour lutter contre les crimes liés à l'IA :
- Identifier et atténuer les crimes financiers grâce à l'intelligence avancée de la blockchain intelligence
- Renforcer la résilience avec des défenses intégrées à l'IA
- Encourager la collaboration mondiale et l'échange de renseignements
L'intégration de capacités d'IA dans les outils sur lesquels ces équipes s'appuient déjà, tels que TRM Labsgarantit une défense proactive et adaptative contre l'évolution rapide des menaces liées à l'IA.
La montée de la criminalité basée sur l'IA souligne le besoin urgent de solutions innovantes et adaptables pour faire face à cette menace croissante. TRM s'engage à lutter contre la criminalité financière induite par l'IA en tirant parti des mêmes technologies d'IA de pointe que celles exploitées par les criminels, associées à l'expertise humaine pour garantir des stratégies de défense complètes.
Accédez à notre couverture de TRON, Solana et 23 autres blockchains
Remplissez le formulaire pour parler à notre équipe des services professionnels d'investigation.