El auge de la delincuencia posibilitada por la IA: Exploración de la evolución, los riesgos y las respuestas a las empresas delictivas impulsadas por la IA

La inteligencia artificial (IA) ha revolucionado numerosos sectores, mejorando la productividad y la innovación a una velocidad sin precedentes. Desde el aumento del acceso a la atención sanitaria hasta la modelización climática que ayuda a mitigar el impacto de los fenómenos meteorológicos, pasando por la mejora de la eficiencia y la seguridad en nuestros lugares de trabajo, la IA está permitiendo obtener resultados mejores y más sostenibles.
Sin embargo, esta misma tecnología transformadora también se está aprovechando con fines delictivos, lo que plantea importantes amenazas para la seguridad mundial y la estabilidad de la sociedad. Los actores malignos aprovechan cada vez más la IA para realizar hackeos y fraudes, crear deepfakes para extorsionar y difundir desinformación, y llevar a cabo ciberataques a gran escala. A medida que la tecnología de IA se vuelve más sofisticada, también lo harán las formas en que los delincuentes la aprovechan.
Este informe explora las fases de madurez de los delitos con IA -horizonte, emergente y madura- e ilustra cómo la IA está ampliando las capacidades delictivas al eliminar los tradicionales cuellos de botella humanos. Veremos ejemplos reales y casos documentados de IA en actividades delictivas, y examinaremos la gravedad de estos retos. Y exploraremos estrategias para prevenir y mitigar la delincuencia posibilitada por la IA, haciendo hincapié en la importancia de las soluciones técnicas, la regulación, la educación y la colaboración.
La IA permite el crecimiento de la delincuencia al eliminar los cuellos de botella humanos
La inteligencia artificial ha arrasado el mundo empresarial, transformando sectores y reescribiendo las reglas de la eficiencia y la escala. Las empresas han adoptado la IA por fases, empezando con herramientas estándar como ChatGPT para ayudar en tareas como redactar respuestas, traducir documentos o resumir datos. Con el tiempo, las organizaciones han empezado a desarrollar sistemas de IA propios para automatizar flujos de trabajo completos.
Pero estos avances no se limitan al mundo lícito. En todo el mundo, las empresas criminales se apresuran a aprovechar el potencial de la IA de forma muy similar. Al principio, estas organizaciones recurrían a la IA para ayudar a sus actividades delictivas dirigidas por humanos, traduciendo guiones de phishing a varios idiomas o analizando grandes bases de código en busca de vulnerabilidades explotables. Estas primeras aplicaciones reflejan usos legítimos de la IA, pero se han convertido en armas con efectos devastadores.
La próxima frontera para los delincuentes es la autonomía. Al igual que las empresas se esfuerzan por automatizar tareas, los ciberdelincuentes pueden desarrollar agentes de IA capaces de operar de forma completamente independiente. Estos agentes podrían identificar y explotar vulnerabilidades sin supervisión humana, ejecutando objetivos complejos, como hackear infraestructuras críticas (por ejemplo, plantas de tratamiento de agua).
Esta evolución no sólo cambia la escala de las operaciones delictivas, sino que las reconfigura fundamentalmente, haciéndolas más rápidas, eficaces y alarmantemente difíciles de detectar o contrarrestar.
Los ciberdelincuentes aprovechan la inteligencia artificial de nuevas formas
Los ciberdelincuentes, los estafadores y los agentes de los estados-nación aprovechan cada vez más la IA para amplificar sus actividades maliciosas. Algunas de las principales aplicaciones que han encontrado son:
Automatización de los ataques
Las herramientas basadasen IA permiten automatizar las campañas de phishing y crear mensajes muy convincentes a gran escala. La IA también permite al malware adaptarse dinámicamente para eludir la detección en tiempo real.
En marzo de 2024, el Departamento del Tesoro de Estados Unidos publicó un informe sobre el estado actual de la inteligencia artificial en relación con los riesgos de ciberseguridad y fraude en los servicios financieros. El informe, que sintetiza entrevistas con 42 instituciones financieras, señala específicamente el uso de la IA Generativa por parte de los actores de amenazas existentes para desarrollar y pilotar malware más sofisticado, dotándoles de capacidades de ataque complejas que antes solo estaban al alcance de los actores con más recursos y ayudando a los actores de amenazas menos cualificados a desarrollar ataques sencillos pero eficaces.
Deepfakes y medios sintéticos
Losdelincuentes emplean tecnología deepfake para hacerse pasar por ejecutivos o figuras públicas, e imágenes y voces generadas por IA que hacen que las estafas sean más difíciles de detectar, lo que les permite facilitar fraudes de alto valor como el compromiso de correo electrónico empresarial (BEC), la extorsión y la manipulación social.
En noviembre de 2024, el FinCEN del Tesoro de EE.UU. publicó su "Alerta sobre esquemas de fraude que implican medios de deepfake dirigidos a instituciones financieras", destacando un "aumento en la notificación de actividades sospechosas por parte de instituciones financieras que describen el presunto uso de medios de deepfake en esquemas de fraude dirigidos a sus instituciones y clientes". En su informe de marzo de 2024 sobre "AI Cyber and Fraud Risks for Financial Institutions", el Departamento afirma que los estafadores han recurrido a la IA para crear mejores deepfakes que imitan la voz y otros rasgos humanos de forma más creíble.
Además, la IA es utilizada por los estafadores para mejorar la capacidad de crear identidades sintéticas, es decir, la creación de identidades falsas utilizando un compuesto de información personal de varias personas reales con el fin de abrir cuentas bancarias, tarjetas de crédito, criptomonedas y otras cuentas financieras.
Para obtener más información sobre el informe del Tesoro 2024 "AI Cyber and Fraud Risk for Financial Institutions", escuche TRM Talks con su autor principal Todd Conklin, Subsecretario Adjunto del Tesoro de EE.UU. Jefe de AI..
Ciberataques reforzados
Los algoritmos de IAoptimizan las operaciones de ransomware identificando los datos o sistemas más críticos que cifrar para obtener el máximo beneficio. Los actores estatales también utilizan la IA para el ciberespionaje avanzado, eludiendo las medidas de seguridad tradicionales.
Las fuerzas del orden, los responsables políticos y los organismos de seguridad nacional deben comprender la adopción de la IA por parte de los delincuentes.
Para contrarrestar eficazmente la amenaza cada vez mayor de la delincuencia basada en la inteligencia artificial, las fuerzas del orden, los responsables políticos y los profesionales de la seguridad nacional necesitan marcos que les permitan seguir de cerca la adopción de la inteligencia artificial por parte de los delincuentes para poder desplegar contramedidas específicas.
En TRM, clasificamos la adopción de la IA en tres niveles para ayudar a las partes interesadas a priorizar sus respuestas y recursos de forma eficaz.
- Horizonte: El uso significativo de la IA es posible y está "en el horizonte" en este tipo de delito, pero aún no se ha detectado de forma notable. Es posible que las organizaciones delictivas estén explorando aplicaciones, pero su implantación sigue siendo limitada.
- Emergente: La IA se está utilizando activamente para agilizar las operaciones, aunque los humanos siguen desempeñando un papel predominante en la toma de decisiones y la ejecución. Algunos ejemplos son la automatización de campañas de phishing o la mejora de las operaciones de fraude existentes.
- Maduros: La actividad basada en IA domina este tipo de delito, con sistemas de IA que superan a los esfuerzos humanos en escala, eficiencia y sofisticación. Estos sistemas operan con un mínimo de intervención humana, ejecutando de forma autónoma actividades delictivas complejas y de alto impacto.
Fase horizonte: Aplicaciones teóricas de la IA
La fase del horizonte está marcada por aplicaciones principalmente teóricas de la IA en la actividad delictiva, con un alto potencial de perturbación en los próximos uno o dos años. Las organizaciones delictivas que operan en esta fase de madurez pueden disponer ya de herramientas y sistemas de IA, pero aún no los han implantado a gran escala.
Tipologías delictivas de IA en fase horizonte
Financiación de la proliferación
Corea del Norte (RPDC) recurre cada vez más a los ciberataques -en concreto, al pirateo de empresas de criptomoneda- para financiar su programa nuclear. Según TRM Labs, los hackers vinculados a la RPDC robaron alrededor de 800 millones de dólares en 2024 y cerca de 3 mil millones de dólares en los últimos cinco años, con muchos ataques dirigidos a plataformas de finanzas descentralizadasDeFi). Actualmente, estas operaciones son facilitadas por operadores humanos cualificados y elaboradas redes de blanqueo. Sin embargo, el potencial de los modelos de IA para ampliar estas operaciones es evidente.
Los agentes autónomos de IA podrían utilizarse para identificar plataformas vulnerables, ejecutar hackeos y automatizar complejos esquemas de blanqueo, complicando aún más los esfuerzos para frenar la financiación de la proliferación. La integración de la IA en las operaciones de la RPDC amplificaría significativamente su capacidad para eludir las sanciones y financiar actividades ilícitas, planteando un desafío crítico para la seguridad mundial.
Blanqueo de dinero
El blanqueo de capitales tradicional se basa en mulas humanas y en la coordinación manual, especialmente en el caso de ciberdelincuentes, narcotraficantes y estafadores. Las tecnologías de IA, como los generadores de identidades sintéticas y la creación automática de cuentas de criptomoneda, están a punto de automatizar significativamente estas operaciones, acelerando la velocidad a la que pueden llevarse a cabo. Esta evolución podría desestabilizar los sistemas financieros y reforzar las redes delictivas mundiales, lo que hace cada vez más urgente la intervención reguladora.
Ciberdelincuencia
La llegada de agentes de IA capaces de identificar vulnerabilidades y ejecutar ataques de forma autónoma presenta una nueva dimensión de la ciberdelincuencia. Los grupos de Ransomware , por ejemplo, dependen actualmente de afiliados humanos para ejecutar los ataques, así como de servicios gestionados por humanos, como intermediarios de acceso inicial y proveedores de alojamiento a prueba de balas. Estos intermediarios humanos desempeñan un papel fundamental en la identificación de vulnerabilidades, la distribución de malware y la gestión de la infraestructura de las redes delictivas.
Sin embargo, los agentes autónomos de IA podrían algún día sustituir a estos intermediarios identificando y explotando vulnerabilidades de forma independiente, distribuyendo cargas útiles y gestionando los sistemas backend de las campañas de ransomware . Aunque todavía son en gran medida teóricos, organismos públicos como el Departamento de Seguridad Nacional de EE.UU. han expresado su preocupación por el potencial de la IA para perturbar las infraestructuras críticas, como se destaca en su informe de 2022 sobre "Amenazas emergentes en la IA". Los sistemas autónomos de IA podrían eliminar la necesidad de hackers humanos, permitiendo ataques generalizados a una escala antes inimaginable, con graves implicaciones económicas y de seguridad.
Fase emergente: Primeros signos de actividad de la IA
La fase emergente se caracteriza por el despliegue inicial de herramientas delictivas basadas en IA. Aunque las actividades delictivas de IA en la fase emergente están aún en sus inicios, su potencial de rápido crecimiento exige una respuesta por parte de las fuerzas de seguridad.
Tipologías delictivas de IA en fase emergente
Producción de material sobre abuso sexual infantil (CSAM)
Históricamente, la producción de CSAM se basaba en la explotación de víctimas humanas. Sin embargo, los contenidos generados por IA han empezado a sustituir a la participación humana, creando una nueva frontera muy preocupante. Los fiscales estadounidenses han detectado los primeros casos de CSAM generado por IA, lo que complica los esfuerzos de detección y plantea nuevos retos éticos y legales.
La Internet Watch Foundation (IWF) ha estudiado a fondo esta cuestión, y su informe de julio de 2024 reveló más de 3.500 nuevas imágenes criminales de abusos sexuales a menores generadas por IA y subidas a un foro de la web oscura analizado previamente en octubre de 2023. Además, el informe destaca la aparición de vídeos generados por IA que muestran abusos sexuales a menores, a menudo utilizando tecnología deepfake para añadir el rostro de un niño a contenidos pornográficos para adultos. Estos hallazgos ponen de relieve la creciente gravedad del uso indebido de la IA en este ámbito, lo que agrava el daño social y sobrecarga aún más los recursos de aplicación de la ley.
Operaciones de desinformación
La IA está remodelando las campañas de propaganda y desinformación al agilizar la generación y distribución de contenidos. Organismos como INTERPOL han documentado los primeros despliegues de agentes de IA que automatizan mensajes personalizados y se dirigen a poblaciones vulnerables.
Por ejemplo, en un informe de Europol, el Instituto Interregional de las Naciones Unidas para Investigaciones sobre la Delincuencia y la Justicia (UNICRI) y Trend Micro destacan cómo se está utilizando la IA para generar y difundir propaganda a gran escala, dirigida específicamente a grupos de riesgo con campañas de desinformación a medida. La velocidad y la escala de estas operaciones aceleran la polarización social, perturban los procesos democráticos y desafían los marcos reguladores existentes.
Fraudes y estafas
Las operaciones de estafa, tradicionalmente basadas en la intervención humana, adoptan cada vez más herramientas de IA para mejorar su eficacia. Se han documentado casos de correos electrónicos de phishing generados por IA y suplantaciones de identidad por deepfake, lo que demuestra el aumento de la sofisticación de estas estafas. Esta creciente complejidad erosiona la confianza de los consumidores y plantea importantes retos a la hora de distinguir las comunicaciones legítimas de las fraudulentas.
Por ejemplo, en 2024, vimos múltiples ejemplos de estafas sofisticadas que utilizaban IA para imitar la voz del CEO de una empresa en una llamada telefónica, convenciendo a un empleado para que transfiriera fondos a una cuenta fraudulenta.
TRM también observó casos de grupos de estafadores expuestos a un grupo de hackers chinos que ofrecían servicios de ciberdelincuencia deepfake, probablemente utilizados por los estafadores para intentar modificar las apariencias y alinearse con sus narrativas fraudulentas.

Esto ilustra cómo las suplantaciones generadas por IA se están convirtiendo en una herramienta fundamental para que los estafadores exploten la confianza y eludan las medidas de seguridad tradicionales. En 2024, INTERPOL lanzó una campaña para concienciar sobre la creciente amenaza de los delitos cibernéticos y financieros que utilizan estafas generadas por IA y otras tecnologías.
Fase de madurez: La IA sustituye a la actividad humana
La fase de madurez representa el punto en el que las actividades impulsadas por la IA dominan sus respectivos dominios, y los delincuentes confían más en los sistemas de IA que en los operadores humanos. Aunque ningún ámbito delictivo ha alcanzado aún esta fase, es probable que esta nueva realidad no esté lejos. Dos tendencias subrayan esta trayectoria:
- Los sistemas de IA acceden a herramientas esenciales como navegadores, bases de datos, plataformas de correo electrónico y carteras de criptomonedas.
- Modelos de IA programados para optimizar objetivos específicos, como maximizar los beneficios o la influencia.
Por ejemplo, el caso "Terminal of Truths" (ToT ) demostró cómo un agente de IA participaba de forma autónoma en un ecosistema de criptomonedas, amasando riqueza en activos digitales a través de interacciones con agentes humanos y bots. Esto pone de relieve el potencial de los agentes de IA para participar en las economías digitales de manera que alimenten el fraude persistente y a gran escala.
Y a medida que estos sistemas adquieran mayor capacidad, podrían ejecutar actividades delictivas cada vez más complejas y de mayor impacto, como manipulaciones del mercado a gran escala o el aprovechamiento de vulnerabilidades en infraestructuras críticas. Es urgente adoptar medidas proactivas para vigilar y mitigar el uso indebido de la IA en estas formas avanzadas.
Prevención y mitigación de la delincuencia basada en la IA
Así pues, ¿hacia dónde nos dirigimos? ¿Cómo conciliar la oportunidad y la innovación que ofrece la IA con la seguridad de nuestros ciudadanos y sistemas?
Abordar el uso indebido de la IA exigirá un planteamiento polifacético que combine soluciones técnicas, medidas políticas y normativas, educación pública y colaboración.
Soluciones técnicas
Los sistemas de detección basados en la IA constituyen una defensa fundamental contra la delincuencia basada en la IA. Por ejemplo, las herramientas que identifican falsificaciones profundas o detectan anomalías en las transacciones financieras ya están demostrando su eficacia. Los marcos de ciberseguridad mejorados que integran la detección de amenazas basada en IA también pueden mitigar aún más los riesgos asociados a los ataques a gran escala.
En TRM ForensicsSignatures® permite a los equipos detectar de forma proactiva actividades sospechosas mediante el reconocimiento avanzado de patrones de blockchain. Gracias a la IA avanzada y el aprendizaje automático, Signatures descubre automáticamente patrones sospechosos en múltiples transacciones que, de otro modo, podrían pasar desapercibidos, lo que le da la seguridad de que no se deja ningún ángulo de investigación sin considerar.
Política y normativa
Los responsables políticos de todo el mundo están trabajando para crear entornos normativos que fomenten la innovación en IA y, al mismo tiempo, mitiguen los riesgos de los actores ilícitos que tratan de abusar de la tecnología transformadora. En su segundo día en el cargo, el presidente de Estados Unidos, Donald Trump, firmó una orden ejecutiva sobre IA que pretende "mantener y mejorar el dominio mundial de Estados Unidos en IA con el fin de promover el florecimiento humano, la competitividad económica y la seguridad nacional."
En su informe de mayo de 2024 sobre "Inteligencia Artificial Responsable en los Mercados Financieros", el Comité Asesor de Tecnología (TAC) de la CFTC -del que forma parte Ari Redbord, de TRM- ha publicado una serie de recomendaciones. Ari Redbord Ari Redbord, de TRM- hizo hincapié tanto en el potencial transformador como en los importantes riesgos de la IA en los mercados financieros. Aunque la IA se emplea ampliamente para la detección del fraude, la gestión del riesgo y el análisis predictivo, también introduce vulnerabilidades, como la falsificación de identidades, el phishing automatizado y la manipulación de algoritmos. Para hacer frente a estos desafíos, en el informe, el TAC recomendó la adopción de un sólido Marco de Gestión de Riesgos de IA, alineado con las directrices del NIST, para identificar vulnerabilidades y garantizar un uso responsable de la IA.
La cooperación mundial también es esencial para hacer frente a la naturaleza transnacional de la delincuencia basada en la IA. Organizaciones como INTERPOL y las Naciones Unidas abogan por una normativa armonizada que regule el uso de la IA. Las directrices éticas deben garantizar el desarrollo responsable de la IA, con sanciones claras en caso de uso indebido, mientras que los gobiernos deben seguir velando por el cumplimiento de estas normas.
Sensibilización y educación del público
Educar al público sobre los riesgos de las estafas y la desinformación impulsadas por la IA es crucial para mitigar la delincuencia. Por ejemplo, la Federal Bureau of Investigation FBI) ha puesto en marcha varias campañas para educar al público sobre los peligros de las amenazas en línea y la desinformación. La campaña "Think Before You Post" (Piensa antes de publicar) advierte a los ciudadanos de las graves consecuencias de publicar amenazas falsas en las redes sociales, haciendo hincapié en que tales acciones pueden dar lugar a cargos federales con penas de hasta cinco años de prisión. El objetivo de esta iniciativa es reducir la carga que supone para los recursos policiales la investigación de falsas amenazas y evitar una alarma social innecesaria.
Del mismo modo, Europol ha abordado los retos que plantea la tecnología deepfake mediante informes exhaustivos y actividades de concienciación pública. Su publicación "Facing Reality? Law Enforcement and the Challenge of Deepfakes", ofrece un análisis en profundidad de cómo pueden utilizarse las deepfakes en actividades delictivas como campañas de desinformación, falsificación de documentos y pornografía no consentida. Europol subraya la necesidad de que las fuerzas del orden desarrollen nuevas capacidades y adopten tecnologías avanzadas para detectar y contrarrestar el uso malicioso de los deepfakes.
Colaboración entre las partes interesadas
Las asociaciones público-privadas son indispensables para combatir la delincuencia posibilitada por la IA. Las entidades financieras y otras empresas deben dar prioridad a la incorporación de funciones de seguridad en sus sistemas de IA, mientras que los gobiernos deben incentivar la investigación y la innovación colaborativas. Plataformas como TRM desempeñan un papel fundamental en este ecosistema al permitir el intercambio de información y la integración de herramientas de IA para mejorar las medidas de seguridad.
Aprovechando la Inteligencia en Blockchain de TRM para combatir las amenazas impulsadas por la IA
TRM Labs ha sido una empresa de IA desde el primer día. Nuestra plataforma Inteligencia en Blockchain ingiere miles de millones de puntos de datos cada día. Además, nuestras soluciones basadas en IA permiten:
Inteligencia en Blockchain para la identificación de riesgos
TRM utiliza Inteligencia en Blockchain para rastrear transacciones ilícitas vinculadas a ransomware, fraude o entidades sancionadas. La combinación de IA con Inteligencia en Blockchain Blockchain permite a TRM detectar patrones de comportamiento anómalo, incluso cuando los atacantes utilizan técnicas de ofuscación.
TRM LabsLa herramienta de comportamiento Signatures® aprovecha la IA para identificar distintos patrones de transacción y anomalías de comportamiento en la cadena de bloques. Al analizar los datos de la cadena de bloques, Signatures detecta características únicas asociadas a actividades ilícitas, como el fraude, el blanqueo de capitales o la evasión de sanciones. La herramienta permite a los investigadores descubrir carteras y conexiones desconocidas hasta ahora, transformando los datos brutos de la cadena de bloques en inteligencia procesable para rastrear fondos ilícitos y desarticular redes delictivas.
Supervisión y alertas en tiempo real
Los gobiernos y las instituciones financieras pueden utilizar TRM Labspara detectar transacciones sospechosas. Las alertas mejoradas con IA priorizan los riesgos en función de su gravedad, lo que permite responder con rapidez a las amenazas emergentes.
Información compartida
TRM Labs facilita la colaboración entre las partes interesadas a través de inteligencia compartida y mapeo de amenazas. Esto se alinea con iniciativas globales, como la Counter Ransomware Initiative (CRI), para desbaratar las redes de ransomware y delitos financieros, y colaboraciones público-privadas como TRON, Tether y la T3 Financial Crime Unit (T3 FCU) de TRM, una iniciativa pionera destinada a facilitar la colaboración público-privada para combatir la actividad ilícita asociada al uso de USDT en la blockchain TRON. Desde su creación en agosto de 2024, T3 ha apoyado la incautación de más de 130 millones de USD.
Entrenamiento de modelos de IA para defensa
TRM Labs permite a las instituciones entrenar modelos de IA para reconocer técnicas de estafa en evolución, garantizando defensas adaptables contra los atacantes. Por ejemplo, las herramientas de IA pueden analizar el contenido de deepfake y detectar incoherencias vinculadas a actores maliciosos.
El futuro pasa por utilizar la IA para luchar contra la delincuencia informática
La naturaleza de doble uso de la IA presenta tanto inmensas oportunidades como graves retos. Aunque la tecnología aún no ha alcanzado una fase en la que la actividad ilícita impulsada por la IA domine el campo de batalla de la delincuencia, la trayectoria de la tecnología de la IA pone de relieve la necesidad de una acción preventiva urgente. Las fuerzas del orden, la defensa nacional, el gobierno y las organizaciones del sector privado deben trabajar juntos para contrarrestar los delitos posibilitados por la IA:
- Identificar y mitigar los delitos financieros mediante sistemas avanzados Inteligencia en Blockchain
- Aumentar la resistencia con defensas integradas en la IA
- Fomentar la colaboración y el intercambio de información a escala mundial
La integración de capacidades de IA en las herramientas en las que ya confían estos equipos, como TRM Labsgarantiza una defensa proactiva y adaptable frente al panorama en rápida evolución de las amenazas impulsadas por la IA.
El auge de la delincuencia basada en la IA subraya la urgente necesidad de soluciones innovadoras y adaptables para hacer frente a esta creciente amenaza. TRM se compromete a luchar contra la delincuencia financiera impulsada por la IA aprovechando las mismas tecnologías de IA de vanguardia que explotan los delincuentes, junto con la experiencia humana para garantizar estrategias de defensa integrales.
Acceda a nuestra cobertura de TRON, Solana y otras 23 blockchains
Rellene el formulario para hablar con nuestro equipo sobre los servicios profesionales de investigación.