Edificio de Alestra

Alestra Blog

¿Qué son los deepfakes y cómo podemos detectarlos?

Posted by Staff Alestra on 27/11/20 10:14

El internet ha probado, una y otra vez, ser una fuente interminable de contenido, herramientas y avances comunicativos beneficiosos para toda la humanidad. Ha sido, desde el punto de vista de muchos expertos, el invento más revolucionario de los últimos 30 años que continuará innovando por mucho tiempo a las sociedades del mundo.

Mujer es analizada por un programa de face swapping y es emulada en un Deep Fake

Lamentablemente, a pesar de sus bondades, también surgen nuevas tecnologías que utilizan ese potencial infinito del internet para desinformar y causar daño. Con esto en mente surgieron los famosos “Deep Fakes” que, aunque tenían un propósito deplorable desde el principio, rápidamente evolucionaron sus técnicas para causar aún más daño del que inicialmente lograron.

A grandes rasgos, los “Deep Fakes” son videos donde, a través de una aplicación preprogramada o funciones de análisis multimedia más sofisticadas, un usuario es capaz de superponer la cara de alguien más en un video que no es originalmente de ellos, llegando a emular la voz y expresiones de alguien para producir videos falsos donde una figura pública dice o hace algo, cuando en realidad nunca pasó.

Aunque esto ya es alarmante por sí solo, la facilidad con que estos videos pueden ser producidos y los adelantos que esta tecnología sigue presentando nos hace preguntarnos: ¿Hasta qué punto pueden ser usados estos videos para desinformar o hacer daño? ¿Es posible diferenciarlos de los reales?

Ahí está el detalle.

Ejemplos de cómo esta tecnología puede escalar su uso para crear contenidos falsos que se vuelvan virales y causen terribles daños hay muchos, aunque uno de los más emblemáticos creado con propósitos demostrativos, fue el de la agencia de noticias china Xinhua que presentó un video de un conocido anunciador de noticias de ese país, pero recreando por completo su imagen con herramientas digitales. Siendo capaces de recrear sus expresiones faciales, voz y hasta gestos corporales, la agencia demostró el potencial que estas herramientas tienen para la completa desinformación del público.

Pero ¿cómo lo hacen? Ahora es perturbadoramente sencillo producir un “Deep Fake” con aplicaciones disponibles hasta en las Appstores más visitadas y, con el software en mano, solamente hacen falta los videos originales que se quieran plagiar para que cualquier usuario pueda producir sus propios “Deep Fakes”.

El proceso original que llevó a esto es más complejo, sin embargo. Se trata de un tipo de Inteligencia Artificial llamado “Deep Learning” (de donde toma su nombre el fenómeno) que procesa miles de fotogramas encontrados en cada video para encontrar las similitudes entre las caras a cambiar o emular, causando el efecto conocido como “face swapping”. Por lo tanto, un “Deep Fake” del nivel más profesional requiere poder de procesamiento que no se encuentra en ordenadores comunes. Lamentablemente esto no significa para nada que sea inaccesible.

Representación gráfica de una inteligencia artificial que analiza videos para deep fakes

También podría interesarte: Redes sociales: aprender a identificar noticias falsas

A raíz de lo fácil que son de usar, vienen los temores de las figuras públicas a ser involucrados en escándalos con videos falsos; aunque el periódico The Economist, que realizó un extenso análisis de los posibles efectos que el avance de esta tecnología puede tener, señaló que el peligro no se limita únicamente a la gente famosa. El potencial que esto tiene para estafar a cualquiera, perpetuar ciberbullying e instigar conflictos personales es muy grande, por lo que el mal uso de esto puede afectar a quien sea.

¿Hay alguna manera de detectarlos? Además del obvio sentido común y educación cibersegura que todos debemos desarrollar, identificando por ejemplo los sitios de noticias confiables, también existe un minúsculo detalle que nos da la ventaja al detectar estos videos mentirosos: los ojos del sujeto. Más específicamente, el hecho de que una persona plagiada en un “Deep Fake” no parpadea nunca o lo hace con muy poca frecuencia. La razón de esto es que, incluso las figuras más famosas rara vez son fotografiadas con los ojos cerrados, por lo que es difícil imitar su parpadeo con las herramientas digitales.

Lamentablemente estos errores mínimos no son suficiente para descartar a los Deep Fakes como el peligro latente que son. Ahora más que nunca, la labor de periodistas para combatir este tipo de desinformación es imprescindible, así como la investigación formal para crear programas que funjan como antídotos contra estas peligrosas herramientas.

¿Qué pueden hacer los usuarios comunes o las empresas que teman verse vulneradas por una estafa que use estos videos? Lo más importante es mantenerse informados, usando nuestro sentido común y educación digital contra los posibles ciberdelincuentes que echen mano de estas herramientas. Para mantenerte informado de las últimas tendencias de ciberseguridad que todo equipo empresarial necesita para estar siempre un paso adelante del peligro cibernético entra a alestra.mx.

Fuentes:

https://www.cnet.com/es/noticias/que-es-deepfake-como-hacer-peligro-videos-manipulacion-apps/

https://www.muyinteresante.es/cultura/arte-cultura/articulo/que-es-un-video-deepfake-701571648693

https://www.xataka.com/inteligencia-artificial/posible-saber-video-deepfake-solo-abrir-cerrar-ojos-literalmente-quizas-eso-no-sea-suficiente

https://www.pandasecurity.com/es/mediacenter/mobile-news/deepfakes-que-son-como-detectar/

Topics: Internet, inteligencia artificial, información, seguridad digital, Alestra, deepfakes, fake news, redes sociales, educación digital, Deep Learning

Subscribe to Email Updates

Recent Posts

Posts by Topic

see all