Le Trésor américain publie un rapport sur les risques de cybercriminalité et de fraude liés à l'IA pour les institutions financières
Le département du Trésor américain a publié aujourd'hui un rapport sur l'état actuel des risques de cybersécurité et de fraude liés à l'intelligence artificielle dans les services financiers. Le rapport examine en profondeur les cas d'utilisation actuels de l'IA, les tendances des menaces et des risques, ainsi que les meilleures pratiques pour les institutions financières et les autres parties prenantes.
Ce rapport fait suite au décret de la Maison Blanche sur l'IA du 30 octobre 2023, qui charge spécifiquement le Trésor de publier un rapport public sur les meilleures pratiques permettant aux institutions financières de gérer les risques de cybersécurité spécifiques à l'IA.
Le décret stipule expressément que
"L'intelligence artificielle (IA) recèle un potentiel extraordinaire, à la fois prometteur et dangereux. Une utilisation responsable de l'IA peut contribuer à résoudre des problèmes urgents tout en rendant notre monde plus prospère, plus productif, plus innovant et plus sûr. Dans le même temps, une utilisation irresponsable pourrait exacerber les préjudices sociétaux tels que la fraude, la discrimination, les préjugés et la désinformation, déplacer et priver d'autonomie les travailleurs, étouffer la concurrence et poser des risques pour la sécurité nationale. Pour mettre l'IA au service du bien et tirer parti de ses innombrables avantages, il faut atténuer les risques considérables qu'elle comporte. Cette entreprise exige un effort de toute la société, qui inclut le gouvernement, le secteur privé, le monde universitaire et la société civile".
Voici quelques thèmes clés du rapport :
L'IA peut être utilisée efficacement par les institutions financières pour la cybersécurité et la protection contre la fraude
Selon le rapport, de nombreuses institutions financières utilisent l'IA pour améliorer l'efficacité de leurs employés en matière de recherche et de rédaction de rapports. Certaines institutions utilisent l'IA pour la détection des fraudes depuis plus de dix ans. Les institutions financières utilisent déjà l'IA pour la cybersécurité, "ce qui rend les institutions apparemment plus agiles" lorsqu'il s'agit de détecter les cyberintrusions et autres activités malveillantes. L'utilisation de l'IA et d'autres technologies pour atténuer les risques est devenue plus importante à la suite de la sophistication croissante des acteurs de la menace, qu'il s'agisse de pirates informatiques ou d'acteurs de l'État-nation.
Le rapport explique en particulier que "l'IA générative pourrait être utilisée pour sensibiliser les employés et les clients aux mesures de cybersécurité et de détection et de prévention de la fraude, ou pour analyser les documents et les communications de politique interne afin d'identifier et de hiérarchiser les lacunes de ces mesures".
En fait, les récentes avancées dans le domaine de l'apprentissage automatique ont donné un coup de fouet au potentiel de transformation de l'IA en matière de détection, de prévention et même de prévision des activités illicites. Ces progrès sont particulièrement notables dans les outils d'blockchain intelligence tels que TRM Labs qui utilise l'apprentissage automatique pour associer des portefeuilles d'actifs numériques à des entités réelles.
L'IA peut présenter de nouveaux risques de cybersécurité et de fraude pour les institutions financières
Alors que les institutions utilisent l'IA pour réduire les risques de fraude et de cybercriminalité, le rapport souligne que l'IA présente de nouveaux et dangereux risques de cybercriminalité et de fraude.
Selon le rapport, en ce qui concerne les risques de cybersécurité, "les préoccupations identifiées par les institutions financières sont principalement liées à l'abaissement de la barrière à l'entrée pour les attaquants, à l'augmentation de la sophistication et de l'automatisation des attaques, et à la diminution du temps d'exploitation". L'IA générative peut aider les acteurs existants à développer et à piloter des logiciels malveillants plus sophistiqués, en leur donnant des capacités d'attaque complexes qui n'étaient auparavant accessibles qu'aux acteurs les mieux dotés en ressources. Elle peut également aider les acteurs moins qualifiés à mettre au point des attaques simples mais efficaces".
Selon le Trésor, les acteurs de la menace utilisent l'IA pour améliorer l'ingénierie sociale, la génération de logiciels malveillants et de codes, la découverte de vulnérabilités et les capacités de désinformation.
En ce qui concerne la fraude, le Trésor affirme que les escrocs se sont tournés vers l'IA pour créer de meilleures imitations profondes qui imitent la voix et d'autres caractéristiques humaines de manière plus crédible. En outre, l'IA est utilisée par les fraudeurs pour améliorer leurs capacités à créer des identités synthétiques - c'est-à-dire la création de fausses identités en utilisant un composite d'informations personnelles de plusieurs personnes réelles afin d'ouvrir des comptes bancaires, des cartes de crédit, des crypto-monnaies et d'autres comptes financiers.
Les secteurs public et privé doivent travailler ensemble sur les risques liés à l'IA, notamment en développant l'identification numérique.
Le rapport présente un certain nombre de bonnes pratiques pour les institutions financières lorsqu'il s'agit d'utiliser l'IA et d'atténuer les risques de cybercriminalité et de fraude, et se concentre sur le déficit de capacités, la réduction de la fracture des données sur la fraude et le potentiel de réglementation dans l'espace de l'IA et des services financiers.
Le rapport souligne également la nécessité d'explorer et d'améliorer l'identité numérique afin de contrecarrer les cybercriminels qui cherchent à "exploiter les lacunes à tous les stades des processus d'identification des clients des institutions financières". Le rapport affirme que les solutions d'identité numérique "peuvent aider les institutions financières à lutter contre la fraude et les menaces internes et à renforcer la cybersécurité", et souligne l'utilisation potentielle de l'identité numérique pour renforcer les programmes de lutte contre le blanchiment d'argent et le financement du terrorisme.
Quel est le rapport avec les crypto-monnaies ?
Bien que le rapport n'aborde pas spécifiquement les risques et les opportunités de l'IA dans le domaine des actifs numériques, la plupart des meilleures pratiques décrites dans le rapport s'appliquent aux fournisseurs de services d'actifs virtuels. En fait, alors que la Corée du Nord et d'autres acteurs menaçants continuent d'attaquer l'écosystème cryptographique à une vitesse et à une échelle alarmantes, l'utilisation de l'IA pour renforcer les cyberdéfenses est essentielle.
Les fraudes et les escroqueries sont également un pilier de l'écosystème cryptographique. Selon un nouveau rapport de TRM Labsles escroqueries et les fraudes, d'une valeur de 12,5 milliards de dollars, représentaient un tiers de tous les fonds illicites dans l'écosystème cryptographique en 2023. Environ 1,5 milliard USD de plus ont été envoyés à des entités d'escroquerie et de fraude en 2023 par rapport à 2022 - soit une augmentation de 11 %, passant de 12,5 milliards USD à 13,9 milliards USD, selon les recherches de TRM. Les données comprennent le volume total des fonds envoyés à des adresses liées par TRM à des escroqueries et des fraudes ; certains de ces fonds semblent faire partie du blanchiment des produits de l'escroquerie . Les schémas de Ponzi apparents constituaient le segment le plus important des escroqueries et fraudes, avec environ 6,6 milliards d'USD.
Les produits du pig butchering apparent pig butchering, dans lequel les criminels utilisent la manipulation psychologique pour escroquer les victimes par le biais de faux plans d'investissement, ont légèrement diminué, passant de 4,7 milliards d'USD en 2022 à 4,4 milliards d'USD en 2023.
Compte tenu de la menace que représentent déjà les fraudes et les escroqueries dans l'écosystème des crypto-monnaies, le rapport du Trésor rappelle que les mauvais acteurs se tourneront vers l'IA et d'autres technologies émergentes à des fins illicites.
Mais surtout, il nous rappelle que la technologie elle-même n'est ni bonne ni mauvaise, qu'elle peut être porteuse d'immenses promesses mais aussi de nouveaux dangers. Comme l'écrit la Maison Blanche dans son décret sur l'IA, "en fin de compte, l'IA reflète les principes des personnes qui la construisent, des personnes qui l'utilisent et des données sur lesquelles elle est construite".
Pour en savoir plus sur le rapport du Trésor sur l'IA, écoutez TRM Talks avec l'auteur principal du rapport, Todd Conklin , secrétaire adjoint du Trésor américain pour le cyberespace et responsable en chef de l'IA.
Accédez à notre couverture de TRON, Solana et 23 autres blockchains
Remplissez le formulaire pour parler à notre équipe des services professionnels d'investigation.