imagen detección de deepfakes

Microsoft anuncia herramienta para detectar videos alterados “deepfakes” antes de las elecciones presidenciales de EE.UU.

Microsoft ha anunciado una herramienta para analizar videos e imágenes deepfakes. Esta será una de las tecnologías destinadas a descubrir los medios falsos, los llamados deep fake. Específicamente, una herramienta llamada Video Authenticator proporciona una “puntuación de probabilidad o confianza” que indica que los medios han sido manipulados artificialmente.

“En el caso del video, podemos proporcionar este porcentaje en tiempo real en cada cuadro a medida que se reproduce el video “. “Esto funciona detectando falsos videos, desvanecimientos sutiles y límites de mezcla de elementos en escala de grises que pueden no ser detectables por el ojo humano”, dijo.

Si una parte del contenido en línea parece auténtico, pero “de alguna manera sale mal”, podría ser una composición de alta tecnología que intenta hacer que parezca auténtico. Quizás haya una intención maliciosa de engañar a la gente. Muchas de las falsificaciones están hechas con intenciones completamente diferentes, como divertidas, pero fuera de contexto, tales medios sintéticos pueden volverse independientes a medida que se propagan. Podría engañar a los espectadores incautos.

La tecnología de inteligencia artificial se ha utilizado para crear deepfakes realistas, pero sigue siendo un problema difícil utilizar la tecnología para identificar información falsa. La mejor herramienta para identificar las mentiras de alta tecnología sigue siendo el pensamiento crítico humano. Sin embargo, los ingenieros continúan trabajando en detectores de deepfakes, incluida esta última herramienta de Microsoft.

Esta tecnología solo puede ser un arma poderosa de la inteligencia artificial para la desinformación. Se dice que el deepfake es generado por una inteligencia artificial que puede continuar aprendiendo. El hecho es que inevitablemente derrotan a las técnicas de detección tradicionales, pero como herramienta avanzada para ayudar al usuario exigente a corto plazo a identificar deepfake, como las próximas elecciones presidenciales de EE. UU. Es una herramienta sofisticada. Se puede utilizar tecnología de detección “.

Este verano, Facebook lanzó un concurso para desarrollar un modelo de detección con resultados mejores de los especulados. Tenga en cuenta que el concurso fue un entorno algo limitado, limitado a conjuntos de datos a los que los investigadores no habían accedido anteriormente.Mientras tanto, la herramienta Video Authenticator de Microsoft reveló que se creó utilizando el conjunto de datos públicos Face Forensic ++ (datos de aprendizaje para la detección de imágenes faciales sintéticas) y se probó en el conjunto de datos del desafío de detección

DeepFake . “Estos son los modelos principales tanto para el entrenamiento como para las pruebas de la tecnología de detección profunda de falsificaciones”, dijo la compañía.

La herramienta, que se ha asociado con la Fundación AI con sede en San Francisco , estará disponible a finales de este año para organizaciones involucradas en procesos democráticos, como los medios de comunicación y campañas políticas. “El Video Authenticator, inicialmente disponible sólo a través de RD2020 (Reality Defender 2020), guía a las organizaciones a través de las limitaciones y consideraciones éticas inherentes a cualquier tecnología de detección profunda de falsificaciones. Para campañas y periodistas que desean obtener más información, comuníquese con RD2020 ”, agregó la empresa.

Esta herramienta fue desarrollada por Microsoft Research, un departamento de investigación y desarrollo de Microsoft, por el equipo de IA y el comité de ética y efectos del comité de ingeniería e investigación, que es un organismo consultivo interno relacionado con la IA. Es parte del programa más amplio de Microsoft destinado a proteger la democracia de la amenaza de información falsa.

La compañía dijo: “Se espera que el método de producción de medios artificiales continúe mejorando en el futuro”. “Dado que todos los métodos de detección de IA tienen una tasa de fallas, debemos ser capaces de comprender y reaccionar ante falsificaciones profundas que se escapan a través de los métodos de detección. Tenemos que buscar una forma más sólida de mantener y autenticar, que ayude a asegurar a nuestros lectores que los medios que están viendo provienen de una fuente confiable y no han sido manipulados. Actualmente hay pocas herramientas disponibles “.

Como herramienta contra este último, una herramienta que asegura a los lectores que no ha sido manipulada, Microsoft también anunció un sistema que permite a los creadores de contenido agregar hash digitales y certificados a sus medios, y certificados a los medios que permanecen en los metadatos a medida que el contenido viaja en línea, proporcionando un punto de referencia para la autenticidad.

Herramienta para detectar fake news

El segundo componente de este sistema es una herramienta de lectura que se puede instalar como una extensión del navegador, y al verificar los certificados y los hashes coincidentes, es posible identificar con “alta precisión” lo que dice Microsoft. Brindará a los espectadores la seguridad de que su contenido es genuino o sin cambios. El certificado también proporciona al lector detalles sobre quién produjo los medios.

Microsoft espera que este sistema de autenticación de marca de agua digital respalde la Iniciativa Trusted News anunciada el año pasado por la emisora ​​pública británica BBC .

El proyecto está dirigido por un consorcio de BBC, CBC, Radio Canadá, Microsoft y el New York Times, Project Origin, una organización que tiene como objetivo desarrollar la tecnología de marca de agua digital en un estándar ampliamente adoptado.

“Trusted News Initiative, que incluye una variedad de editores y empresas de redes sociales, también ha aceptado participar en esta tecnología. Trabajaremos en esta área en los próximos meses con más empresas de tecnología, editores de noticias queremos llegar a las empresas de redes sociales “, dijo Microsoft.

Mientras continúa el trabajo en la tecnología para identificar los deepfakes, la compañía enfatiza la importancia de la alfabetización mediática. Universidad de Washington, Sensity (Sensitive), la asociación con USA Today tiene como objetivo mejorar el pensamiento crítico antes de las elecciones estadounidenses.

Según una publicación de blog de la compañía, este cuestionario interactivo se distribuirá a las propiedades web y de redes sociales propiedad de USA Today, Microsoft y la Universidad de Washington, y se distribuirá a través de publicidad en las redes sociales. Microsoft, un gigante tecnológico, también ha mencionado que está apoyando la campaña Public Service Announcement (PSA) en los Estados Unidos, compartiendo información en las redes sociales antes de las elecciones. Antes de que se anuncie, está instando a las personas a tomar “descansos para reflexionar” y asegurarse de que provenga de medios de comunicación de buena reputación.

“La campaña de PSA apoya la importancia de que las personas tengan más tiempo para comprender los deepfakes y el daño que pueden hacer a nuestra democracia, y para identificar, compartir y pasar tiempo con información confiable. La publicidad se difundirá por las estaciones de radio de Estados Unidos en septiembre y octubre “, agregó.

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies