Echa un vistazo a la tecnología “deepfake”, donde la Inteligencia Artificial crea contenido hiperrealista con fines de robo de identidad y fraude.

La tecnología “deepfake”, impulsada por las capacidades de la inteligencia artificial (IA), está evolucionando y transformando rápidamente varias industrias.

Esta “deepfake AI” permite la creación de imágenes y vídeos hiperrealistas, superando los límites de lo que antes era inimaginable en campos como el entretenimiento y la publicidad, como por ejemplo, podemos ver imágenes realistas de una post-apocalíptica Nueva York.

Sin embargo, como ocurre con cualquier tecnología innovadora, emerge un lado más oscuro. En los últimos años, la conocida como “tecnología deepfake” se ha convertido en una poderosa herramienta para el robo de identidad y el fraude, lo que representa una amenaza significativa para individuos, empresas e incluso gobiernos.

El concepto de deepfake

Cabe aclarar que el término “deepfake” es un acrónimo de “aprendizaje profundo” y “falso”. Significa el uso de algoritmos de inteligencia artificial para manipular imágenes y videos hasta el punto de que parezcan completamente auténticos, según SEON Fraud Prevention.

A través de técnicas de aprendizaje profundo, las computadoras pueden analizar grandes conjuntos de datos, reconocer patrones y generar contenido nuevo basado en estos patrones. Esta tecnología ha evolucionado hasta el punto en que puede crear vídeos realistas de personas diciendo y haciendo cosas que en realidad nunca hicieron.

Uno de los aspectos más alarmantes de la tecnología deepfake es su potencial de uso malicioso. En los últimos años, hemos sido testigos de numerosos casos de explotación de deepfakes para generar noticias falsas, difundir desinformación y manipular la opinión pública.

En algunos casos inquietantes, se han empleado deepfakes para crear contenido explícito no consensuado, causando graves daños a las personas involucradas.

Sin embargo, la aplicación más inquietante de la tecnología deepfake es su papel en el robo de identidad y el fraude.

Con la capacidad de producir vídeos convincentes de individuos, los delincuentes ahora pueden hacerse pasar por otros de formas que antes se consideraban imposibles. Esto ha provocado un aumento de las estafas relacionadas con los deepfakes, en las que los malhechores emplean vídeos generados por IA para engañar a las víctimas para que divulguen información confidencial o transfieran dinero, según se lee en un artículo del sitio especializado TS2.

Por ejemplo, en 2019, una empresa de energía con sede en el Reino Unido fue víctima de una estafa deepfake. Su director ejecutivo recibió una llamada telefónica de un individuo que decía ser el director de la empresa matriz, según el medio.

La persona que llamó, cuya voz fue sintetizada utilizando tecnología deepfake, ordenó al director ejecutivo que transfiriera $243,000 dólares a una cuenta bancaria húngara. Creyendo que el llamado era genuino, el director ejecutivo accedió, lo que resultó en la transferencia de fondos a otras cuentas, seguido del lavado de dinero.

A medida que avanza la tecnología deepfake, aumenta el potencial de estafas y fraudes más sofisticados, lo que presenta un desafío importante tanto para las empresas como para los individuos. Es posible que los métodos tradicionales de verificación de identidad ya no sean suficientes. Son imprescindibles nuevos enfoques de autenticación y seguridad.

¿Se puede prevenir los fraudes con tecnología deepfake?

Una solución es la implementación de la autenticación biométrica, aprovechando características físicas únicas, como huellas dactilares o rasgos faciales, para verificar la identidad. La integración de datos biométricos en los protocolos de seguridad puede disuadir significativamente a los delincuentes de hacerse pasar por otros utilizando tecnología deepfake.

Otro enfoque implica el desarrollo de herramientas de detección basadas en inteligencia artificial capaces de identificar contenido deepfake. Los investigadores están trabajando activamente en algoritmos que examinan vídeos e imágenes en busca de signos de manipulación, como inconsistencias en la iluminación o los movimientos faciales.

La integración de estas herramientas de detección en los sistemas de seguridad puede permitir la identificación y prevención de contenido deepfake antes de que pueda ser explotado con fines nefastos.

Además, los gobiernos y los organismos reguladores también tienen la responsabilidad de contrarrestar la amenaza que plantea la tecnología deepfake.

Implementar regulaciones más estrictas sobre el uso de contenido generado por IA e invertir en campañas de concientización pública puede ayudar a mitigar los riesgos asociados con los deepfakes.

Adoptar nuevas medidas de seguridad, invertir en investigación y desarrollo y adoptar medidas regulatorias puede permitirnos aprovechar el potencial de los deepfakes para siempre y al mismo tiempo minimizar los riesgos asociados con su uso indebido.

Por Gabriel Lago

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *