El director de seguridad de Binance, Jimmy Su, advirtió que hubo un aumento en los estafadores que intentan eludir los procesos de demostración de “Conoce a tu cliente” (KYC) del exchange utilizando tecnología basada en inteligencia químico (IA) deepfake.
El modus operandi consiste en encontrar una foto regular de la víctima en límite y luego utilizar herramientas falsas para difundir videos realistas que pueden engañar a los sistemas de demostración.
Deepfakes es una útil de inteligencia químico que aprovecha los algoritmos de estudios espontáneo para producir audio, imágenes o videos muy convincentes que imitan la apariencia y el comportamiento de una persona.
Si proporcionadamente los deepfakes tienen aplicaciones legítimas, incluso pueden ser explotados por estafadores.
El avance de las herramientas de falsificación alcanzó un nivel en el que los estafadores pueden incluso objetar en tiempo positivo a las instrucciones de audio destinadas a confirmar si el solicitante es humano.
Por ejemplo, ciertos procesos de demostración pueden requerir que los usuarios realicen acciones específicas como parpadear con el ojo izquierdo o mirar en diferentes direcciones.
El director de seguridad de Binance explicó que los deepfakes se volvieron lo suficientemente sofisticados como para ejecutar estos comandos sin problemas, durante una entrevista con Cointelegraph.
Sin secuestro, enfatizó que los videos hechos con la IA flagrante aún poseen fallas detectables que un cámara humano puede identificar, como cuando se le indica al beneficiario que gire la vanguardia en dirección a un costado.
Binance vs inteligencia químico
Aunque la tecnología deepfake plantea un desafío importante, Jimmy Su reconoció que no es un problema insuperable.
Estima que la IA continuará evolucionando, eventualmente superando las limitaciones que actualmente permiten a los operadores humanos detectar falsificaciones profundas.
Por lo tanto, enfatizó que encargar solamente en las inspecciones visuales no es una decisión infalible.
Binance se había enfrentado previamente a un incidente relacionado con tecnología deepfake cuando su director de comunicaciones, Patrick Hillmann, descubrió que un “equipo de piratería informática sofisticado” había creado una traducción falsa de él.
Luego, el impostor usó la persona inventada para realizar reuniones de Teleobjetivo con varios equipos de proyectos de criptomonedas, prometiéndoles falsamente oportunidades para enumerar sus activos en Binance a cambio de una tarifa.
Hackers created a "deep fake" of me and managed to fool a number of unsuspecting crypto projects. Crypto projects are virtually under constant attack from cybercriminals. This is why we ask most @binance employees to remain anonymous on LinkedIn. https://t.co/tScNg4Qpkx
— Patrick Hillmann (@PRHillmann) August 17, 2022
Combatir los ataques deepfake presenta un desafío importante, ya que incluso si Binance puede controlar sus propios videos, hay muchos otros disponibles en límite que están fuera de su control.
Su enfatizó la importancia de la educación del beneficiario como medida preventiva. El exchange está tomando medidas para chocar esto al planear informar una serie de artículos de blog destinadas a educar a los usuarios sobre cómo identificar y combatir las amenazas cibernéticas de forma efectiva.
Síguenos en nuestras redes sociales
Lea las informativo sobre Ecosistema. Aquí.