De videos porno a manipulación de noticias: los peligros del deepfake

3 min


0
Steve Buscemi en un «raro» video. Captura de pantalla de YouTube.

Deepfake no es un término más que debes conocer para estar a la moda. Deepfake es algo que debes tener presente antes de exponerte a cualquier tipo de información.

La tecnología nos facilita la vida en muchos aspectos, pero la complica muchísimo en otros tantos, o al menos su uso indiscriminado. Cuando se vinculan las ansias de manipular la información, con el conocimiento y las herramientas virtuales adecuadas (si interviene la inteligencia artificial mejor ni hablar), asistimos a un escenario en el que es demasiado complejo discernir entre lo real y lo que no lo es.

Un ejemplo concreto de lo anterior son los conocidos como deepfakes: vídeos manipulados gracias a diversas herramientas de inteligencia artificial que muestran contenidos que no son del todo verídicos.

Según un artículo de BBC, los inicios de esta tendencia estuvieron asociados al mundo porno. Usuarios creaban videos falsos, donde ponían el rostro de actrices famosas en los cuerpos de actrices porno. Las primeras imágenes falseadas de esta manera aparecieron en Reddit hace ya más de un año. Con el paso del tiempo, el dominio de esa tecnología ha avanzado y su uso ha pasado del simple entretenimiento a cosas más serias y preocupantes, como la manipulación política.

Sobre estos peligros alertaba un estudio publicado el pasado año por el Center for a New American Security, organización bipartidista estadounidense sin ánimo de lucro, donde se avizora que, si bien en estos momentos existen ciertas limitaciones relacionadas con la imagen y el audio que hacen que los vídeos puedan identificarse como falsos, con el avance de la tecnología, en un período de cinco años estiman estos investigadores será imposible distinguir si un vídeo de este tipo es impostado o es real.

Los usos de estos deepfakes asociados a las noticias falsas puede tener un efecto inmensurable, pues como ya reseñábamos anteriormente, las noticias que vienen respaldadas por fuentes oficiales tienen más credibilidad entre las masas. Por tanto si se incluyera en una noticia falsa, un video falseado de alguna declaración, esto lo haría más convincente.

Descubre por qué el futuro de las «fake news» ya está aquí

Luego de los escándalos que generó esta práctica y las denuncias por parte de artistas y celebridades cuyos rostros fueron empleados para crear falsos videos, las alarmas se volvieron a disparar a inicios de este año cuando comenzó a circular en las redes un video que muestra al actor Steve Buscemi (Globo de Oro a Mejor Actor Dramático en 2001 por la serie Boardwalk Empire) en el cuerpo de la actriz Jennifer Lawrence (Óscar a mejor actriz por Silver Linings Playbook  en 2012) durante una conferencia en los premios Golden Globe de 2016.

El video creado por un usuario de Reddit conocido como VillainGuy muestra un elevado nivel de sincronía entre ambos actores, llegando a un punto que incluso podríamos pensar que es real si no supiéramos que estamos viendo algo físicamente imposible. Según la información de Dailydot, la creación fue posible gracias al uso de la herramienta gratuita Faceswap y su creador dedicó bastante tiempo para entrenar la inteligencia artificial con contenido multimedia en alta resolución del actor Buscemi.

El material fue sacado a la luz por el periodista Mikael Thalen quien dice haberlo conseguido “del agujero negro de los últimos deepfakes”.

A simple vista, el video es bastante real, aunque hay determinados ángulos y detalles que fallan, además del hecho de saber que es imposible que lo que se esté viendo sea real.

Siwei Lyu, profesor asociado de ciencias de la computación de la Universidad de Albany, declaró a Xataka que, de momento, la clave para identificar estos videos está en los ojos. «Un ser humanos adulto y sano parpadea de forma regular entre cada 2 y 10 segundos, y un solo parpadeo toma entre una décima y cuatro décimas de segundo. Eso es lo que sería normal ver en un vídeo de una persona que habla, pero no es lo que sucede en muchos videos ‘deepfake‘».

Ante los riesgos y amenazas que implica este uso de la tecnología, se conoce que un grupo de investigadores trabaja en el desarrollo de una herramienta que podrá detecta cuando se trata de un vídeo deepfake, basándose en el conteo, frecuencia y ritmo de los parpadeos que tiene la persona del vídeo.

Anuncios
Anuncios
Anuncios

0 Comentarios

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

× ¡¡¡Contáctanos!!!