




Feb 26, 2025 - 52min
EPISODIO 77
TRM Talks: Deepfakes y el auge de la delincuencia posibilitada por la IA con Hany Farid
Con Hany Farid, y , y y
La IA está transformando la sociedad: nuestra forma de vivir y trabajar. Sin embargo, también está potenciando las actividades ilícitas, desde las falsificaciones hasta el fraude automatizado, pasando por los ciberataques a gran escala y la explotación infantil. En este episodio, Ari Redbord, responsable mundial de políticas de TRM, se sienta con Hany Farid, profesor de la Universidad de Berkeley y experto en falsificaciones profundas y engaños basados en IA, para explicar cómo los delincuentes se aprovechan de la inteligencia artificial para manipular la realidad, cometer delitos y poner en peligro la seguridad mundial.
Hany inicia el episodio con una asombrosa demostración en vivo de deepfake, haciéndose pasar por Ari en tiempo real: una cruda advertencia sobre cómo las identidades generadas por IA pueden utilizarse para engañar a empresas, gobiernos y particulares. Desde los defraudadores que utilizan deepfakes para eludir el sistema KYC e infiltrarse en las instituciones financieras, hasta los actores estatales que aprovechan la IA para difundir desinformación y librar una guerra cibernética, la conversación explora las implicaciones de largo alcance de esta tecnología en rápida evolución.Ari y Hany también discuten ejemplos del mundo real de la delincuencia impulsada por la IA, incluyendo:
- Fraudes de identidad sintética y estafas deepfake dirigidas a bancos y plataformas de criptomonedas
- Los ciberdelincuentes utilizan ataques de phishing e ingeniería social basados en IA
- El papel de la IA en las operaciones de ciberdelincuencia de Corea del Norte
- Cómo los deepfakes pueden convertirse en un arma política y de seguridad nacional
- Retos éticos y jurídicos de los contenidos generados por IA
A pesar de los riesgos, hay esperanza. Ari y Hany profundizan en la necesidad crítica de defensas basadas en IA, marcos regulatorios y colaboración público-privada para combatir estas amenazas emergentes. Hablan de la importancia de Inteligencia en Blockchain, las herramientas de detección de deepfake y las innovaciones en ciberseguridad para adelantarse a los malos actores que están armando la IA. Esta es una de las más reveladoras TRM Talks no te pierdas esta inmersión en la intersección de la IA, el crimen y la seguridad.
Haga clic aquí para escuchar TRM Talks: Deepfakes and the Rise of AI-Enabled Crime con Hany Farid,. Sigue TRM TRM Talks en Spotify para ser el primero en conocer los nuevos episodios.
Ari Redbord
(00:02): Soy Ari Redbord y esto es TRM Talks.
(00:06): Soy Jefe Global de Política en TRM Labs. En TRM, proporcionamos software de Inteligencia en Blockchain para apoyar las investigaciones policiales y ayudar a las instituciones financieras y a las empresas de criptomonedas a mitigar el riesgo de delitos financieros dentro de la emergente economía de activos digitales. Antes de unirme a TRM, pasé 15 años en el gobierno federal de EE.UU., primero como fiscal en el Department of Justice, y luego como funcionario del Departamento del Tesoro, donde trabajé para salvaguardar el sistema financiero contra los financiadores del terrorismo, las armas de destrucción masiva, los proliferadores, los capos de la droga y otros actores deshonestos. En TRM Talksme reúno con líderes empresariales, responsables políticos, investigadores y amigos de todo el ecosistema criptográfico que trabajan para construir un sistema financiero más seguro.
(00:51): Hoy en TRM Talkshablo con Hany Farid, profesor de la Universidad de Berkeley y experto en falsificación profunda de IA. Pero antes, en Inside the Lab, comparto los datos de nuestro equipo de Inteligencia en Blockchain .
(01:06): En el programa de esta semana de Inside the Lab, analizamos el último informe de TRM, "The Rise of AI-enabled Crime", que explora los riesgos de evolución y las respuestas a las empresas criminales impulsadas por IA.
(01:19): Los actores malignos aprovechan cada vez más la IA para llevar a cabo hackeos y fraudes, crear deepfakes para extorsionar y desinformar, y ejecutar ciberataques a escala masiva. El nuevo informe destaca estas amenazas y explora cómo la IA también puede aprovecharse para mitigarlas. La IA se está utilizando para mejorar las tácticas tradicionales de la ciberdelincuencia, desde el fraude basado en falsificaciones hasta el blanqueo de dinero y el phishing automatizados. Los delincuentes explotan la IA para automatizar campañas de phishing, haciéndolas más convincentes y escalables, identificar y explotar vulnerabilidades de seguridad en redes en software, lanzar ataques autónomos contra infraestructuras críticas y evadir la detección adaptando el comportamiento del malware en tiempo real.
(02:03): Para combatir estos riesgos emergentes, Inteligencia en Blockchain chain de TRM y la analítica impulsada por IA son esenciales al integrar herramientas de detección de poder de IA. Con Inteligencia en Blockchain Blockchain, los investigadores pueden identificar transacciones sospechosas y rastrear flujos financieros ilícitos, descubrir redes ocultas de actividad delictiva, autenticar identidades y detectar fraudes generados por deepfake, así como prevenir la manipulación a gran escala de los sistemas financieros. Los gobiernos, las instituciones financieras y las empresas Inteligencia en Blockchain deben trabajar juntos para construir sistemas resistentes que aprovechen la IA para la defensa del mismo modo que los delincuentes la utilizan para el ataque.
(02:40): Las asociaciones público-privadas desempeñarán un papel fundamental en el desarrollo de inteligencia sobre amenazas, la aplicación de la normativa y la garantía de que la IA siga siendo una herramienta de seguridad y no de explotación. El informe de TRM ofrece una visión general de la evolución de las amenazas y de las herramientas que se están desarrollando para ayudar a las fuerzas del orden y a los organismos de seguridad nacional a utilizar la IA para desarticular a los actores ilícitos. El futuro ya está aquí. Comprender la evolución del panorama de las amenazas y aprovechar la innovación es crucial para ir por delante de la delincuencia posibilitada por la IA. El TRM está comprometido con esta misión. Si desea consultar el informe completo, visite nuestro sitio web, TRMlabs.com, y lea "The Rise of AI-enabled Crime" (El auge de la delincuencia basada en la IA), en el que se analizan los riesgos de evolución y las respuestas a las empresas delictivas basadas en la IA.
(03:31): Y ahora, el experto en delitos de IA Hany Farid. Hany, estoy muy emocionado por esta conversación de hoy. Antes de que empecemos, viniste aquí esencialmente como yo y realmente empezaste las cosas con un deepfake. Cuéntale a la gente sobre eso antes de profundizar en todo lo que vamos a hablar hoy.
Hany Farid
(03:53): En primer lugar, lo que me encantó de eso, y para la gente que escucha, usted debe ir a ver el video. Tanto tú como tu productor estabais bastante sorprendidos. Hubo un momento en el que me pregunté si era un fallo de Matrix, porque era un poco raro. Así que esto es lo que hice. Es increíblemente fácil. Ahora pon tu nombre en una búsqueda de Google. Encontré una captura de pantalla donde estabas de pie delante de la cámara, resulta que llevas corbata. Y por cierto, creo que la misma chaqueta y camisa que llevas ahora. . .
Ari Redbord
(04:17): Posiblemente, sí. El tipo del traje azul y la camisa de rayas azules.
Hany Farid
(04:23): Y tomé una sola captura de pantalla de usted, esto es importante, una sola imagen de usted de un solo fotograma y un solo vídeo que no entrevista en. Y lo puse en una pieza de software por la que pagué 10 dólares. Que crea lo que se llama un avatar deepfake. Y la forma en que funciona es que yo estaba sentado delante de mi ordenador cuando me conecté, y mientras me movía, levantando las cejas, parpadeando, moviendo la boca, moviendo la cabeza, se animaba esa única imagen para que pareciera que eras tú moviéndote. Ahora, la voz, por supuesto, era yo. Podría haber hecho modulación de voz, no lo hice. Sólo tomó un poco más de tiempo de lo que tenía que en la preparación para esto. Y genera todo eso en tiempo real. Y luego simplemente tomo lo que estamos hablando en este momento y apunto a la pieza de software y la salida que está produciendo. Y así ahora en tiempo real, 30 fotogramas por segundo, puedo entrar en una videollamada y puedo hacerme pasar por otra persona, su imagen y su voz. Y es muy difícil notar la diferencia. Hay algunos indicios. Probablemente puedes decir si me muevo demasiado, verías un pequeño fallo, por supuesto, tenerme de vuelta en un año a partir de ahora, y eso habrá desaparecido y te quedarás asombrado por las cosas que podemos hacer.
Ari Redbord
(05:31): Sí, es decir, parte de nuestra conversación de hoy gira en torno a que nunca he visto nada avanzar más rápido desde el punto de vista de la tecnología, y que cada día es mejor. Has mencionado el tema de la voz, y para reafirmarlo, también me has dicho que es muy fácil de hacer. Así que en otras palabras, estoy en el zoom, mi imagen, mi semejanza, y mi voz. 10 segundos, 20 segundos de audio.
Hany Farid
(05:49): Sí, por lo que a su punto, hace un par de años que necesitaba ocho horas. Si alguien está grabando, alguien como tú con un podcast popular, probablemente podría improvisar ocho horas. Pero para la persona promedio, no. Pero hoy en día son unos 20 segundos, 15 a 20 segundos de tu voz, hablando normalmente, no tienes que decir nada en particular. Puedo subir eso a un servicio por el que pago 5 dólares al mes. Hago clic en un botón que dice que tengo permiso para utilizar la voz del aire, que incluso si no lo hago, puedo hacer clic en el botón, por supuesto, y luego escribo y se sintetizará lo que quiera. Eso es un ataque asíncrono. Pero también puedo hacerlo sincrónicamente. Es decir, puedo entrenar un modelo. Se necesita un poco más de audio para hacer eso. Y luego, en tiempo real como estoy hablando en este micrófono, es la modulación de mi voz para que suene como tú. Y eso es, por supuesto, mucho más interactivo.
Ari Redbord
(06:37): Eso es esencialmente lo que estabas haciendo hace un momento sin la pieza de voz, sólo porque tomó unos segundos más, pero... .
Hany Farid
(06:42): Correcto.
Ari Redbord
(06:43): Sí, eso fue lo que era tan loco al respecto. Y la gente sólo va a ver un video de esto, pero esto no era un video, esto fue en tiempo real sucediendo en la pantalla.
Hany Farid
(06:49): Me conecté en la llamada. Esto no era el escenario. Me conecté en la llamada y usted y yo estábamos hablando.
Ari Redbord
(06:53): Sí, asustaste a Wesley que estaba aquí con nosotros hace un momento. Sí, no, fue totalmente salvaje.
Hany Farid
(06:59): Mi trabajo está hecho aquí.
Ari Redbord
(07:00): Nunca nos hemos metido en un TRM Talks tan rápido como acabamos de entrar en esta. Así que voy a retroceder un momento. Estoy muy emocionado de tener esta conversación hoy. Háblame un poco de tu trayectoria en esto. ¿Cómo acabaste centrándote en esto?
Hany Farid
(07:14): Sí, así que he sido un académico desde hace más de 25 años, 20 años en Dartmouth College en la costa este y más recientemente aquí en la UC Berkeley. También soy co-fundador, como usted mencionó, en la parte superior de la hora, de obtener Real Labs, que es una empresa que está trabajando en el espacio de y la detección de medios manipulados. Empecé a principios de los dos mil en un momento en que lo digital no era nada. Internet no era nada. La IA no era nada. Y no es que yo fuera particularmente clarividente, pero no sabías que lo digital estaba llegando. Sabías que algo estaba burbujeando con la tecnología digital. Sabías que algo estaba burbujeando con la tecnología de Internet. Nadie sabía realmente lo que se avecinaba con la actual IA. Y empecé a preocuparme por lo que ocurre cuando los medios, las imágenes, el audio y el vídeo pasan del mundo analógico al digital. Y en particular, y creo que esto resonará con usted como ex fiscal federal, es ¿qué hacer con las pruebas en un tribunal de justicia?
(08:06): ¿Cómo autenticar la toma de decisiones críticas cuando se trata de algo que es intrínsecamente maleable? Y durante los primeros 15 años de mi carrera, de 2000 a 2015, fue un campo bastante adaptado a lo que acabas de decir hace un minuto. Además, mediríamos los cambios en la tecnología en muchos, muchos meses, normalmente ciclos de 12 a 18 meses. Y fue un buen rato, ¿verdad? Tenemos una buena actuación. Desarrollamos algunas técnicas forenses, las utilizaríamos en los tribunales de justicia, ayudaríamos a las agencias de medios de comunicación, ayudaríamos a la seguridad nacional y a la aplicación de la ley, y pasaría un año y medio y vendrían nuevas tecnologías y desarrollaríamos nuevas defensas. Y luego, alrededor de 2016, 17, algo, hubo un cambio radical con la IA generativa y la inteligencia artificial, y de repente empezamos a medir el cambio, no en meses y años, sino en semanas y días.
(08:55): Y se puso raro muy rápido. Y de repente, en un período muy corto de tiempo, pasamos de necesitar cierta habilidad para crear medios manipulados a descargar un software por 10 dólares y puedo entrar en una llamada y parecerme exactamente a ti. Y, por supuesto, la tecnología ha avanzado muy rápidamente. Las amenazas han avanzado muy rápidamente y estamos luchando para mantener el ritmo, que es parte de la razón por la que co-fundé la empresa fue porque la academia simplemente no puede seguir ese ritmo. Y realmente queríamos poner estas herramientas en manos de las personas que las necesitan para poder averiguar lo que están viendo. ¿Y es real o falso?
Ari Redbord
(09:29): Increíble. Háblame de Get Real.
Hany Farid
(09:31): Sí, así que estamos construyendo un conjunto de herramientas que analizar imágenes, audio y vídeo, tanto lo que llamamos de forma asíncrona y sincrónica. Y las tecnologías subyacentes son bastante similares, pero la operativa, por supuesto, es muy diferente. Integrarse en un flujo de equipo o un flujo Zoom o un flujo telefónico es muy diferente que sentarse y esperar un archivo. Pero por debajo, estamos en el negocio de desarrollar tecnología que ayudará a individuos, organizaciones, gobiernos, a protegerse contra medios maliciosos y manipulados.
Ari Redbord
(10:03): Es extraordinario. Mientras estamos sentados aquí ahora mismo, quiero decir que ayer estaba en línea y vi este video con todas estas celebridades con la camiseta, con el dedo medio hacia arriba a Kanye, ¿estás siguiendo esto?
Hany Farid
(10:15): Lo vi.
Ari Redbord
(10:16): Y me dije a mí mismo, oh sí, eso se siente bien. Okay. Eso no se sentía fuera de lo común. Y un amigo mío compartió conmigo anoche el hecho de que se trataba de un deepfake, pero yo estaba impresionado de que se trataba de un deepfake. Fue perfecto. Háblame de eso.
Hany Farid
(10:29): Bueno, en primer lugar, ¿qué hay de impresionante en esto? Cuando lo vi por primera vez, estaba bastante seguro de que era un deepfake, pero hago esto para ganarme la vida. Pero pensé que lo que se hizo fue que tomaron un video de personas reales con esa camiseta y luego simplemente hicieron un deepfake de la cara para que parecieran celebridades. Y eso fue impresionante, por cierto. Pero es aún más impresionante que eso. Nos acabamos de enterar hace apenas una hora, todo el video fue generado por IA todo el movimiento de los seres humanos, la cosa completa. Se hizo con dos tecnologías diferentes, una para generar el movimiento humano como se ve a la persona en movimiento. Y luego hicieron lo que se llama el intercambio de cara deepfake en eso. Todo el video fue generado por IA, y lo juro por Dios, yo no sabía que la primera vez que lo vi.
(11:13): Eso me impresionó, Extraordinario.
Ari Redbord
(11:15): Cuando vi esto ayer, yo estaba como, tengo que preguntarle acerca de esto porque no lo sé. Mira, quiero decir que van a ser deepfakes más significativos muy, muy pronto, pero esto fue bastante viral. Y eso se vuelve muy, muy interesante. Vamos a profundizar mucho más en esto, pero guíame a través de, que tipo de hablado de los primeros días y como esto, si se trata de deepfake o AI habilitado, este tipo de actividad AI habilitado.
Hany Farid
(11:38): Así que ha habido algunos puntos de inflexión. Empecemos por admitir que siempre hemos podido manipular fotografías. Si nos remontamos a principios del siglo XIX, Stalin es famoso por eliminar personas de las fotos con aerógrafo. La historia está plagada de imágenes manipuladas, pero eso se hacía en el mundo analógico y muy, muy pocas personas, normalmente actores patrocinados por el Estado, podían hacerlo. Y, por supuesto, los canales de distribución eran simplemente poner una foto que había sido manipulada en un libro de historia. Pero ahora avancemos rápido hasta el comienzo de la era digital donde empezamos a tener cámaras digitales y Photoshop era bastante bueno. Así que podíamos hacer cosas como crear una imagen con dos personas de pie una al lado de la otra o una imagen de un tiburón nadando por la calle después de una tormenta, que es muy popular incluso hoy en día y ahora. Pero los canales de distribución están cambiando, porque en los primeros tiempos de las redes sociales podía hacer algo más que ponerlo en un libro de historia.
(12:25): Podría ponerlo en línea y puede conseguir viral y en un montón de puntos de vista. Y entonces el siguiente punto de inflexión, y esto es por cierto, la norma. Es muy predecible. Hacemos que la tecnología sea más fácil de usar, más ubicua y más barata. Esta ha sido la tendencia durante los últimos cien años casi. Y eso es lo que hemos estado haciendo con la manipulación digital. Así que todo lo que la IA hizo fundamentalmente, es hacerlo más fácil. Y también los canales de distribución han cambiado drásticamente porque ahora las redes sociales dominan el paisaje y de repente la capacidad de distorsionar la realidad es muy, muy real en términos de creación, difusión y amplificación.
Ari Redbord
(13:02): Háblame un poco de cómo la IA ha cambiado la forma de operar de los delincuentes. Cuál es el panorama actual de las amenazas en comparación con el de hace unos años?
Hany Farid
(13:12): Así que creo que algo predecible, porque hemos visto esto desde el surgimiento temprano de los ordenadores, Internet y la revolución móvil es ciberdelincuentes, actores patrocinados por el Estado se dan cuenta de cómo explotar esta tecnología. Entonces, ¿qué estamos viendo con los delincuentes cibernéticos? Muy bien, vamos a repasar la lista. Ya he mencionado esto, pero vale la pena mencionarlo de nuevo, la gente está creando imágenes íntimas no consentidas en algunos casos que están diseñadas para avergonzar, pero en algunos casos están diseñadas para extorsionar. Así que van a crear una imagen explícita de una mujer o un hombre o un niño en muchos casos, enviarlo a ellos y dijo, si usted no hace esto, nos pagan en Bitcoin, nos pagan en efectivo, crear contenido para nosotros de ti mismo. Vamos a distribuir este material a sus amigos y familiares. Y son cosas horribles, horribles, horribles. Usted está viendo los ataques de suplantación donde la gente está recibiendo llamadas telefónicas en medio de la noche diciendo, mamá, papá, estoy en problemas.
(14:02): He estado en un accidente. Necesito 9.000 dólares para salir de la cárcel. Aquí hay un oficial de policía, ¿verdad? Así que el fraude a pequeña escala, usted ha visto el fraude a gran escala. Hemos visto empresas perder decenas de millones de dólares porque están en una llamada como esta hablando con quien ellos piensan que es su CEO y están haciendo transferencias bancarias. También hemos visto eso. Hemos visto las tomas de cuenta donde la gente se pondrá en contacto con soporte técnico diciendo, oh, he perdido mi contraseña. Y son un deepfake, por lo que se ven como los titulares de la cuenta. Puedes hacerlo con voz, puedes hacerlo con video. Y lo que hemos visto en los últimos años son dos cosas. Una es que la tecnología se está volviendo muy buena. Quiero decir que realmente lo es, y se ha visto de manera muy dramática, pero también es cada vez más fácil de usar. Antes había que ir a GitHub y descargar un repositorio y compilarlo y configurar la GPU, y ahora todo está fácilmente disponible en línea. Y los ciberdelincuentes, y por cierto, los terroristas y extremistas se han apoderado de esta tecnología muy pronto y la están utilizando. No se trata de amenazas hipotéticas. Las vemos desarrollarse cada día.
Ari Redbord
(15:05): ¿Cuáles son los principales ejemplos de casos que estás viendo o ejemplos en los que te has centrado cuando hablas de este tipo de amenazas?
Hany Farid
(15:12): Los que más me quitan el sueño son los que se ven infectando a niños. Hemos visto casos horribles en los que niños se quitan la vida porque lo que la gente hace es tomar la imagen de un niño con una sola imagen. Este niño tiene una sola imagen de sí mismos en línea y la insertan en material explícito de material de abuso infantil y se lo envían al niño y le dicen, si no tomas imágenes de ti mismo que son explícitas, vamos a distribuir esto. Así que el niño se vuelve paranoico y en cuestión de segundos empieza a hacerse las fotos, se las envía y ya ha empezado el juego. Se han visto otros ejemplos en los que los chicos hablan con quien creen que es una adolescente y les convencemos para que se hagan una foto explícita, lo que hacen, y entonces empieza el juego. Y hemos visto casos horribles en los que chicos y chicas jóvenes se quitan la vida porque se ven acorralados y no saben qué hacer.
(16:04): Y estas son estafas organizadas perpetradas por bandas, y es horrible. Ustedes lo están viendo. Por cierto, también a nivel organizativo, ya he mencionado que has visto grandes, grandes ataques. Y por cierto, por cada uno de esos ataques que lees en el periódico, hay 10 sobre los que no estás leyendo. Nadie quiere hablar de estos ataques. Así que millones, cientos de millones de dólares están siendo robados en ataques cibernéticos y nadie sabe lo que es todavía. Ni siquiera han descubierto cómo están siendo atacados. Aquí hay otro. Por cierto, la contratación de impostores Los norcoreanos han perfeccionado esto donde se aplican para puestos de trabajo como alguien que no son. Son hackers norcoreanos y no están hackeando tu firewall, están hackeando hr, están entrando en tu empresa y luego instalando malware. Y es francamente más fácil porque tú y yo sabemos que la ingeniería social es mejor que hackear el firewall. Así que estamos viendo problemas reales y la militarización real de estas tecnologías que están afectando a individuos, organizaciones y gobiernos enteros.
Ari Redbord
(17:00): Sí, está muy bien dicho. Es decir, en TRM nos centramos mucho en los ciberataques de Corea del Norte porque muchos de ellos son contra el espacio de las criptomonedas, robando miles de millones de dólares en los últimos cinco años. Y cuando escribes sobre los trabajadores de TI de Corea del Norte, siempre es como, Hey, las mejores prácticas de recursos humanos es asegurarse de que su cámara está encendida. Asegúrese de que usted está hablando con una persona real y que saltar como yo a esta llamada habla exactamente como esos días han terminado, ¿verdad? Eso no es realmente una precaución que va a trabajar más. No es suficiente en este nuevo mundo, no es
Hany Farid
(17:30): Suficiente. El otro día estuve hablando con un CISO, un jefe de seguridad de la información, y me dijo que están a punto de exigir entrevistas en persona porque ya no pueden confiar en lo que hacen online. Y eso es una locura. Y por eso creo que casi esta comodidad que hemos adoptado en los últimos Dios cinco 10, ¿tenemos que tirarlo a la basura? Simplemente no se puede confiar. Lo único en lo que puedo confiar es cuando puedo alcanzarte y tocarte. Es un mundo extraño en el que estamos entrando.
Ari Redbord
(17:57): Y supongo que tal vez es una buena transición a ¿cómo piensa usted acerca de la mitigación de estos riesgos?
Hany Farid
(18:02): Sí, en primer lugar, tienes toda la razón. Estos riesgos siempre han existido, pero ahora están en esteroides porque todo está automatizado y es más sofisticado. No sólo recibes un mensaje de texto diciendo: "Hola, soy tu jefe". Estás en una videollamada con tu jefe, y eso aterriza de manera muy diferente. Hablemos de la estrategia de mitigación. Como alguien que piensa muy cuidadosamente acerca de la seguridad cibernética, no creo que esto te sorprenda, es que no hay una respuesta mágica aquí. Necesitamos muchas cosas. Así que vamos a empezar sin ningún orden en particular. Y digo esto en primer lugar a regañadientes, pero creo que necesitamos alguna regulación. Necesitamos barandillas que permitan la innovación y que nos permitan descubrir cómo aprovechar esta increíble tecnología, pero también poner algunas salvaguardias razonables. Hemos intentado dejar que Internet sea Internet durante 20 años y no es genial, seamos sinceros.
(18:46): Así que vamos a encontrar la manera de poner algunas barandillas razonables para el sector privado a decir, mira, vamos a vivir dentro de estos carriles y crear un poco de seguridad. Eso es lo primero. El número dos es que necesitamos buena tecnología. Y ese es mi mundo. Necesitamos la capacidad de averiguar si la persona con la que estás hablando es real o no, fin de la historia. Y eso requiere grandes cantidades de inversión por parte de académicos, gobiernos, el sector privado y el mundo del capital riesgo. Yo diría, por cierto, que hay un desequilibrio fenomenal en la inversión. Si nos fijamos en las inversiones en empresas de IA generativa, podemos medirlas en muchos, muchos, muchos miles de millones de dólares. Si nos fijamos en las inversiones en ciberseguridad en la prevención del fraude de eso, usted probablemente puede medir que en las decenas de millones. Y eso no me parece justo. Me parece injusto.
(19:28): Y creo que tenemos que empezar a tomar el lado defensivo con más cuidado en la tecnología. Creo que necesitamos esta conversación. Creo que la gente tiene que ser consciente de lo que es posible. Tenemos que hablar de estas cosas, y la gente tiene que saber lo que hicimos con el spam, lo que hicimos con el malware, lo que hicimos con los virus. No hagas clic en el enlace. Asegúrate de saber de quién es el remitente. Ten cuidado con H-T-T-P-S frente a HTTP, y hemos creado conciencia pública y eso ayuda. Así que necesitamos concienciación pública. Y la última, y quizás debería haber empezado por aquí, es que necesitamos que las empresas tecnológicas empiecen a tomarse esto más en serio. Tenemos que empezar a crear seguridad desde el principio, no años después de que se haya producido el daño, cuando es mucho más difícil. Las empresas tecnológicas tienen que reconocer que de la ai salen muchas cosas interesantes, pero también daños. Y tienen que empezar a crear protocolos de seguridad desde el principio. Y ahí es también donde la regulación, si puedo hacer un bucle, puede ayudar a incentivar a decir, mira, si creas un producto que sabías o deberías haber sabido que iba a crear daño, vamos a hacerte responsable de ello. Así que creo que es una combinación de todas estas cosas. Esto, así como cualquier persona, todo lo que hablamos son estrategias de mitigación, ¿verdad? Y creo que incluso lo dijiste, no dijiste, ¿cómo prevenirlo? ¿Cómo se mitiga?
Ari Redbord
(20:37): Absolutamente. Es interesante. Creo que cuando usted está hablando acerca de la inversión en el espacio, creo que la regulación, creo que la construcción de cumplimiento como infraestructura crítica podría ser una ventaja comercial. Quiero ir a la plataforma de medios sociales donde sé lo que voy a ver es real a lo largo de la pieza de la educación, que me encanta, y es por eso que quería tener esta conversación. TRM publicó recientemente un informe sobre la delincuencia posibilitada por la IA. El Tesoro de EE.UU. publicó un documento sobre el riesgo de fraude y cibernético posibilitado por la IA para las instituciones financieras. Tenemos que hablar de estas cosas. En las últimas semanas he publicado un par de vídeos en los que intento explicarme a mí mismo. Usted es mucho mejor, pero este soy yo tratando de aprender estas cosas en la preparación para esto, usted me envió dos imágenes. Una soy yo en la cárcel y la otra soy yo con una ametralladora. Y voy a publicar esas para que la gente las vea también. Y también este vídeo en el que aparezco en la CNBC, pero de repente hablo en español a mitad de camino. ¿Qué debe buscar la gente cuando ven estas cosas?
Hany Farid
(21:38): Así que en primer lugar, puedo decir que estas dos imágenes se hicieron en unos cinco segundos. Señalé un servicio que, es una organización que asesoro que trata de crear conciencia pública. Se llama civic ai. Y lo que haces es darle un enlace a una página de LinkedIn o una página de Wikipedia que tenga tu foto, tu página de LinkedIn tiene una foto, y luego haces clic en un botón que dice, crea un deepfake usando la cara de esta persona. Y eso es todo lo que hice. Fue, literalmente, un solo clic de botón de distancia. No fue nada.
Ari Redbord
(22:05): No es que sólo están tomando, esto no es Photoshop, ¿verdad? No están simplemente imponiendo tu imagen. Casi están recreando el aspecto que deberías tener en el momento en el que estás.
Hany Farid
(22:13): Y por cierto, diferente pose de la cabeza, diferente iluminación, diferente expresión. Así que esto es lo que se llama texto a imagen. Hay un aviso que dice, pon el espacio y genera la imagen. Y puedo seguir haciendo clic todo el día, por cierto. No hago una imagen tras otra imagen tras otra imagen, y puedo pedirle lo que quiera. Y es muy sofisticado y las imágenes son muy convincentes. Y a tu pregunta ahora, antes de llegar a los vídeos, ¿cómo puede decir la gente que no pueden? No pueden. Tienen que reconocerlo. Podemos porque somos muy buenos en esto. Pero la realidad es que hemos hecho estudios perceptivos donde mostramos a la gente imágenes, imágenes reales, imágenes falsas. La mayoría de la gente está ligeramente por encima del azar. Y el único predictor de lo bueno que eres es en realidad una predicción inversa. Cuanto más confías en tu capacidad para hacer esta tarea, peor lo haces, las imágenes han pasado efectivamente a través del valle misterioso. Son casi indistinguibles de la realidad, al menos de forma fiable. Así que
Ari Redbord
(23:06): No, eso es extraordinario. Y el video . . .
Hany Farid
(23:07): Sí, hablemos del video. Esta es mi nueva obsesión favorita. Así que lo que hice fue ir, era una entrevista A-C-N-B-C donde estabas hablando de algunos fraudes criptográficos y las tendencias que hemos estado viendo. Tomé ese video, lo recorté a 30 segundos sólo para hacerlo un poco más manejable. De nuevo, lo subí a un servicio por el que pago un par de dólares y simplemente dije, tradúcelo al español. Así que en primer lugar, que tenía es el video que usted habla. Lo primero que hizo fue transcribir el audio. Así que pasó de audio a texto. Eso es ai. Por supuesto, tradujo del inglés al español. Eso es Inteligencia Artificial. Sintetizó a alguien hablando español, pero es tu voz. Así que nota que no es una persona al azar. Así que esa es la IA número tres. Y aquí está el truco. Luego regeneró un video con tu boca moviéndose hablando español. Así que cuatro IAs, pulsando un botón. Tardó unos cinco minutos en la cola. Y ya tenía el vídeo. Y luego lo que hice fue traerlo y unir los dos videos. Me gusta cuando pasa del inglés al español porque es un poco discordante. Se puede ver
Ari Redbord
(24:12): It. Fue realmente discordante. Esta cosa es perfecta. Y mira, esto es sólo yo jugando en español en una cosa. Pero y si esto es Kim Jong-un declarando que se lanza sobre Corea del Sur, ¿no?
Hany Farid
(24:24): Correcto.
Ari Redbord
(24:24): Háblame de eso.
Hany Farid
(24:25): Esta es la situación de pesadilla. Geopolítica. Sería posible para cualquiera hoy en día crear una imagen de un líder mundial, Corea del Norte, Rusia, China, los EE.UU. de ese líder mundial diciendo, he lanzado armas nucleares contra, rellene el espacio en blanco, tomar ese video, publicarlo en línea, tener que ir super nova viral. Y antes de que nadie se dé cuenta de lo que está pasando, estamos a las carreras con una fusión nuclear mundial. ¿Creo que es probable? No. ¿Creo que es posible? Al cien por cien. Creo que esto es más un cuando si esto va a suceder.
Ari Redbord
(24:57): Tuve que hacer preguntas cripto siempre. Es TRM Talks. En primer lugar, usted tiene este tipo de la pieza deepfake Corea del Norte, los ataques de phishing, ingeniería social está sobrealimentado con esta tecnología. Usted tuvo un gran ejemplo de una experiencia reciente de KYC que tuvo en un intercambio de cripto hablar a nuestra gente a través de eso.
Hany Farid
(25:14): Sí, esta es una experiencia interesante para mí y ordenar el mundo que ocupo. Así que hace un par de años, mi sobrino me dio una fracción de un Bitcoin y pensé, oh, eso es lindo. Y lo ignoré durante un par de años. Y el otro día estaba leyendo un artículo. Yo soy como, me pregunto qué pasó con ese Bitcoin. Así que abrí mi Coinbase y traté de acceder a la cartera y dijo No. Y ellos dijeron, oh, no podemos verificar su identidad. Es un teléfono nuevo. Yo soy como, bien, lo que sea. Y entonces pensé, ¿sabes qué? Tenía curiosidad por saber cómo iban a validar mi identidad. E hicieron exactamente lo que pensé que harían. Dijeron, está bien, abre tu cámara. Ponla frente a tu cara. Sostenga su identificación y vamos a validar su identidad. Y recuerdo que pensé, bueno, esto es realmente tonto. Podría haber fingido esto tan fácilmente. Podría haberme hecho a mí mismo, podría haber creado una identificación falsa, mi cara falsa con Hany porque Hany tiene una huella digital. Pero así es como me validó. No había ningún ser humano en el bucle. Era un puro KYC con autenticación de vídeo. Y pensé, bueno, eso es bastante fácil de falsificar.
Ari Redbord
(26:05): ¿Qué le dices a la gente, ya sea en el espacio de cumplimiento o de las instituciones financieras o las empresas cripto, ¿cuál es la respuesta a esto? Obviamente es implementar tecnología como la que estás construyendo, asegurándote de que tienes soluciones robustas Inteligencia en Blockchain como TRM. Pero, ¿cuál es su mensaje?
Hany Farid
(26:21): Sí, bueno, el primer mensaje es que es un mundo nuevo y lo que estabas haciendo ayer no va a funcionar hoy. Así que si usted es un banco y usted está haciendo la autenticación basada en la voz, mi voz es mi identificación, detenerlo. Y si eres un cliente, déjalo ya. Y la forma en que pienso en ello es pensar en el riesgo, ¿verdad? Piense en lo que es el riesgo asociado con conseguir la identidad de esta persona mal? En algunos casos, el riesgo es bajo y en algunos casos es muy alto. Así que creo que si usted es una institución financiera, si usted es un intercambio de cripto, usted tiene que repensar fundamentalmente KYC. Tienes que repensar la forma en que has estado haciendo las cosas. Ya no funcionan.
Ari Redbord
(26:56): Tengo una pregunta en mi lista que me di cuenta de que es simplemente ridículo. Creo que estaba a punto de preguntarte algo sobre ¿hacia dónde ves que se dirige este espacio en los próximos cinco o diez años? Hany, ¿hacia dónde ves este espacio en los próximos cinco o 10 minutos?
Hany Farid
(27:09): Así que en primer lugar, sólo para enmarcar lo rápido que es, porque no sólo se siente rápido. Es, permítanme darles algunos marcos para esto. La revolución del PC, la revolución del ordenador personal, duró aproximadamente 50 años desde los comienzos del ordenador electrónico hasta que aproximadamente la mitad de los hogares americanos tenían un ordenador, cinco décadas, lo que parece rápido. Por cierto, la revolución de Internet duró unos 25 años, desde los inicios del protocolo HTML hasta que la mitad de la población mundial estaba en línea. La revolución móvil fue de unos cinco años, desde el primer iPhone hasta que la mitad de la población mundial tenía un dispositivo móvil. Y OpenAI pasó de cero a mil millones de usuarios en un año. Ahora podría decirse que la IA comenzó en la década de 1950, pero más o menos no estaba pasando mucho, y luego muy de repente 50, 25, 5, 1. Realmente se está acelerando. Así que ahora volvamos a tu pregunta. Creo que van a pasar dos cosas.
(28:02): Una es que habrá más de lo mismo. Los LLM mejorarán, los grandes modelos lingüísticos mejorarán. La IA generativa mejorará. La IA empezará a integrarse en nuestros dispositivos. Creo que nos encontramos en una encrucijada: ¿la tecnología nos beneficia o nos perjudica? Y esa es la parte que no sé, porque si nos fijamos en la tecnología actual, nadie puede negar los avances fenomenales, pero tampoco se puede negar el daño real de la tecnología, desde los fraudes a las estafas, a la desinformación a las conspiraciones. Y me preocupa que si seguimos por el camino de los últimos 20 años, la tecnología empiece a trabajar contra nosotros y no con nosotros.
Ari Redbord
(28:41): Es un momento extraordinario. De ninguna manera voy a dejar que terminemos con una amenaza existencial para la humanidad. Gracias. Así no es como yo ruedo en TRM en absoluto. Somos optimistas. Estamos mirando hacia adelante, y estoy realmente abrumado por el bien que puede traer a la construcción de un negocio o las cosas que hacemos. Quiero decir, usted ha construido una empresa basada en detener a los malos actores de la utilización de esta tecnología, al igual que nosotros. Y es como, creo que al final del día, buena tecnología se reunirá el momento de este tipo de situación.
Hany Farid
(29:10): Quiero creerlo. Y por cierto, puedo decirte que hemos construido una empresa en los últimos dos años y medio y no hay un solo investigador o ingeniero en nuestra empresa que no utilice un gran modelo de lenguaje para escribir cada línea de código o que nos ayude a escribir cada línea de código en nuestro software. Esto es un acelerador. Ahora hacemos cosas en horas que antes nos llevaban semanas. Yo sigo escribiendo código, por cierto, y escribiré técnicas enteras operacionalizadas en horas. Lo que normalmente me llevaría semanas y semanas hacer. Es fenomenal.
Ari Redbord
(29:39): Es absolutamente extraordinario. Tienes que prometer que volverás en TRM Talks en unos cinco o diez minutos cuando este espacio cambie.
Hany Farid
(29:46): Estoy muy agradecido a la gente como usted hablando de estas cosas porque creo que es importante. Creo que todo el mundo tiene que escuchar esto. No quiero asustar a la gente, pero tenemos que tomarnos esto en serio. Y vamos a tener esta conversación de nuevo en seis a 12 meses. Quiero decir, probablemente te enviaré un correo electrónico en unos minutos y te haré saber lo que acabo de encontrar. Pero hablemos de nuevo porque creo que a finales de este año, el paisaje se habrá desplazado por debajo de nosotros. Y creo que habrá cosas nuevas, emocionantes y aterradoras de las que hablar.
Ari Redbord
(30:10): Si algo va a asustar a la gente, va a ser AI Ari en esta plataforma Riverside. Arrancando nuestro programa de hoy. Gracias por unirse a TRM Talks. Eso fue realmente uno de los más extraordinarios TRM Talks que hemos tenido. Y creo que en gran parte es, mira, estamos en este momento de la tecnología donde el mundo se está moviendo más rápido de lo que nunca se ha movido antes. Y hablar con Hany, realmente uno de los principales expertos en el mundo en la comprensión de este momento fue realmente extraordinario. Cuando hace unas semanas publicamos un informe sobre los delitos relacionados con la inteligencia artificial, queríamos entender, por un lado, cuáles son las actividades y las formas en que los delincuentes aprovechan esta tecnología. Y no hay más experto en el mundo en DeepFakes en particular. Y los DeepFakes no son sólo por ser DeepFakes, ¿verdad? Así es como los ciberdelincuentes se relacionan con las plataformas KYC, ¿verdad?
(31:00): Negocios de criptodivisas. Esta es la forma en que los ciberdelincuentes norcoreanos pueden potencialmente conseguir trabajos en el espacio de TI. Y esta es la forma en que pig butchering y otros tipos de actividad pueden potenciar sus acciones. Y realmente hablar con Hany era increíble para obtener su perspectiva, sino también para ver la forma en que está aprovechando la tecnología para entenderlo. Quiero decir, el video de mí fue algo que nunca olvidaré. Y mi respuesta, la respuesta de Wesley cuando vimos por primera vez esto fue muy parecido, wow, no puedo creer que estoy viendo esto ahora mismo. Creo que eso es lo que mucha gente está teniendo. Y la verdadera pregunta, sin embargo, la cosa que es más interesante para mí es, está bien, vamos a tener estos riesgos realmente existenciales por ahí para el sector financiero, a los gobiernos, a la seguridad nacional, pero ¿cómo vamos a mitigar esos riesgos? Y sigo pensando que al final del día, fue una conversación optimista que la construcción de tecnología como TRM, Inteligencia en Blockchain y el trabajo que está haciendo que sea real. Tratar de entender deepfakes va a jugar un papel crítico. Y siempre he creído que podemos construir la tecnología y nuestra tecnología de construcción para satisfacer el momento. Esta conversación, probablemente se puede oír en mi voz. Estoy tan energizado al respecto. Tan energizado con el trabajo que estamos haciendo en TRM sobre este tema. Y vamos a tener muchas más conversaciones como esta.
(32:12): Siguiente en TRM Talksme siento con Brandy Reynolds, experta en cumplimiento de criptografía. Si te gusta el programa, deja un comentario dondequiera que lo estés escuchando y síguenos en LinkedIn para obtener las últimas noticias sobre cripto regulación, cumplimiento e investigaciones.
TRM Talks
(32:31): TRM Talks es una iniciativa de TRM Labsel proveedor líder de Inteligencia en Blockchain y software contra el blanqueo de capitales. Este episodio fue producido en colaboración con Voltage Productions. La música para este programa fue proporcionada por E-Clicks.
Ari Redbord
(32:47): Ahora volvamos a la construcción.
Sobre el invitados

Hany Farid es catedrático de la Universidad de California, Berkeley, con un puesto conjunto en Ingeniería Eléctrica y Ciencias Informáticas y en la Escuela de Información. También es cofundador y director científico de GetReal Labs, una empresa de ciberseguridad centrada en la prevención de amenazas maliciosas a partir de IA generativa.
La investigación de Hany se centra en la investigación forense digital, la ciencia forense, el análisis de imágenes y la percepción humana. Se licenció en Informática y Matemáticas Aplicadas por la Universidad de Rochester en 1989 y se doctoró en Informática por la Universidad de Pensilvania en 1997. Tras una beca posdoctoral de dos años en Ciencias Cognitivas y del Cerebro en el MIT, se incorporó al cuerpo docente del Dartmouth College en 1999, donde permaneció hasta 2019.
Más información en TRM Talks
Suscríbase a TRM Talks
Suscríbete para ser el primero en enterarte de los nuevos episodios y para estar al tanto de todo lo relacionado con la tecnología blockchain y la criptopolítica.