Microsoft crea herramienta para detectar deepfakes o videos falsos

0
25
Crean-herramienta-para-detectar-videos-falsos


Gracias a las nuevas tecnología hoy es posible crear un video muy realista para hacer parecer que una persona hizo o dijo algo que en realidad no sucedió. Ya hemos visto el caso de actrices que aparecen en videos falsos para adultos o políticos “dando discursos” muy polémicos. Para combatir esta información falsa Microsoft desarrolló una herramienta. 

La compañía se ha sumado al número creciente de firmas que están buscando la manera de detectar los deepfakes. Su propuesta es una herramienta capaz de analizar videos y fotografías y, con base en ello generar una puntuación respecto al posible nivel de manipulación que podría presentar.

La herramienta, llamada Video Authenticator, proporciona lo que Microsoft llama «un porcentaje de probabilidad o puntuación de confianza«, es decir cuál es la posibilidad de que el video haya sido modificado artificialmente.

«En el caso de un video, puede proporcionar este porcentaje en tiempo real en cada cuadro a medida que se reproduce», escribió Microsoft en una publicación en su blog en donde anuncia el desarrollo de esta tecnología

La empresa explica que su sistema “funciona detectando el límite de fusión de los elementos deepfake y los elementos sutiles que se desvanecen mismos que podrían no ser detectables por el ojo humano». Así, si un fragmento de contenido en línea parece real pero presenta condiciones que llaman la atención de su algoritmo, es probable que se trate de una manipulación de alta tecnología tal vez con la intención maliciosa de desinformar a las personas.

Lee también: Deepfakes representan el delito de IA más alarmante en la actualidad

Agregó que su herramienta Video Authenticator fue creada usando un conjunto de datos públicos de Face Forensic y probada en el DeepFake Detection Challenge Dataset. Asimismo la empresa dijo que se está asociando con la Fundación AI, con sede en San Francisco, para poner la herramienta a disposición de medios de comunicación y organizaciones involucradas en las elecciones presidenciales de Estados Unidos que se realizarán en noviembre. 

“Video Authenticator estará disponible inicialmente solo a través de RD2020 [Reality Defender 2020], que guiará a las organizaciones a través de las limitaciones y consideraciones éticas inherentes a cualquier tecnología de detección de deepfake”, agregó Microsoft.

La herramienta ha sido desarrollada por su división de investigación y desarrollo, Microsoft Research, en coordinación con su equipo de IA responsable y un organismo asesor interno sobre inteligencia artificial, ética y efectos perteneciente a su comité de ingeniería e investigación. “Esperamos que los métodos para generar deepfake continúen creciendo en sofisticación”.

Microsoft también ha anunciado un sistema que permitirá a los productores de contenido agregar etiquetas digitales y certificados en sus metadatos mientras el contenido viaja en línea, proporcionando un punto de referencia para la autenticidad. De esta manera será posible verificar que los videos son auténticos. La certificación, además estará destinada a proporcionar al espectador detalles sobre quién produjo los videos.

Microsoft espera que este sistema de autenticidad de marca de agua digital sea respaldado por la  Iniciativa de noticias confiables  llamada Project Origin que fue anunciada el año pasado por la emisora ​​financiada con fondos públicos del Reino Unido, BBC. 

La compañía también enfatizó la importancia de la alfabetización mediática para lo cual cerró una asociación con la Universidad de Washington, Sensity y USA Today para impulsar el pensamiento crítico antes de las elecciones estadounidenses y que las personas sepan que existe este método de manipulación. 

Microsoft-Video-Authenticator

Lee también: Crean AI que te convierte en Elon Musk en Zoom

Los peligros

Aunque muchos deepfakes que se crean con una intención de ser divertidos o entretenidos el problema con este tipo de videos es que, sacados de contexto, pueden cobrar vida propia a medida que se propagan, lo que significa que pueden terminar engañando a los espectadores desprevenidos.

Por otra parte, si bien existen rastros de que una inteligencia artificial intervino el video, estos llegan a ser mínimos, lo que hace difícil detectarlos a simple vista y, con la tecnología mejorando de manera acelerada la misma Microsoft acepta que la utilidad de su herramienta será pasajera. 

“El hecho de que las falsificaciones profundas sean generadas por una inteligencia artificial que puede seguir aprendiendo hace inevitable que superen la tecnología de detección convencional. Sin embargo, a corto plazo, como en las próximas elecciones estadounidenses, las tecnologías de detección avanzada pueden ser una herramienta útil para ayudar a los usuarios más exigentes a identificar deepfakes», advirtió Microsoft. 

Y agregó: “debemos comprender y estar preparados para responder a las falsificaciones profundas que se escapan a través de los métodos de detección. Por tanto, a más largo plazo, debemos buscar métodos más sólidos para mantener y certificar la autenticidad de los artículos de noticias y otros medios. En la actualidad, existen pocas herramientas que ayuden a asegurar a los lectores que los medios que ven en línea provienen de una fuente confiable y que no fueron alterados».
 


Con información de el universal.