Facebook ha reforzado sus políticas para retirar aquellos vídeos que hayan sido manipulados o editados para cambiar el contenido con el fin de engañar, que se han divulgado con el nombre de ‘deepfake’.
Hoy en día, un gran problema digital es el contenido manipulado para engañar o ‘deepfake’ -vídeos editados utilizando la Inteligencia Artificial (IA) para manipular contenidos con el fin de distorsionar la realidad-. Es importante diferenciar los vídeos manipulados con malas intenciones de los que se editan para mejorar la calidad de imagen y de audio.
Con la creciente tendencia de los ‘deepfake’ en redes sociales, Facebook ha anunciado que ha reforzado sus políticas para hacer frente a este tipo de vídeos en su plataforma y cualquier otro tipo de contenido manipulado.
Para ello, van a investigar todo contenido generado a partir de herramientas de IA y cuentas falsas además de trabajar conjuntamente con instituciones, gobiernos y empresas para descubrir a las personas detrás de estos contenidos.
También se eliminarán los vídeos creados a partir de IA o aprendizaje automático que se fusionen, reemplacen o superpongan a otro vídeo para hacerlo parecer auténtico. Estas nuevas políticas no se extienden a vídeos satíricos ni de parodia.
La compañía ya estaba trabajando en la identificación de ‘deepfakes’ desde septiembre de 2019 con su programa Deep Fake Detection Challenge que ha unido a personas de todo el mundo en la búsqueda de contenidos manipulados. Además, se han unido a Reuters para crear un curso de entrenamiento que ayude a los periodistas a identificar noticias falsas.