Microsoft anunció que busca atacar a la desinformación y apuesta por el desarrollo de tecnologías para ayudar a las personas a descifrar lo que es cierto y preciso, específicamente en la alteración de fotos y videos.

Un gran problema actual es la popularización de los deepfakes, o medios sintéticos, que son fotos, videos o archivos de audio manipulados por inteligencia artificial (IA) en formas que son difíciles de detectar.

Estos materiales manipulados digitalmente pueden ser utilizados para hacer que la gente diga cosas que no dijo o estar en lugares donde no estuvo, y el hecho de que están generadas por IA, que puede continuar aprendiendo, hace inevitable que puedan vencer a la tecnología convencional de detección.

Microsoft presentó a Video Authenticator, que puede analizar una foto fija o un video para brindar un porcentaje de probabilidad, o una calificación de confianza, de que el medio haya sido manipulado de manera artificial.

"En el caso de un video, puede brindar este porcentaje en tiempo real sobre cada cuadro a medida que se reproduce el video. Funciona a través de detectar el límite de fusión del deepfake y el sutil desvanecimiento o elementos de escala de grises que tal vez no puedan ser detectados por el ojo humano", dice la firma en un comunicado.

La compañía sostiene que es posible que los métodos para generar medios sintéticos continúen con el crecimiento en su sofisticación, anticipa también que los métodos de detección de IA tienen tasa de error y es necesario entender y estar preparados para responder a que los deepfakes se deslicen a través de los métodos de detección.

"A largo plazo, se deben buscar métodos más fuertes para mantener y certificar la autenticidad de nuevos artículos y otros medios. Hoy, existen algunas herramientas para ayudar a asegurar a los lectores que los medios que ven en línea vienen de una fuente confiable y que no han sido alterados", dice la empresa.

Microsoft también anuncia una nueva tecnología que puede detectar contenido manipulado y asegurar a la gente que los medios que ven son auténticos. Esta tecnología tiene dos componentes. El primero es una herramienta integrada en Azure, que permite a un productor de contenido agregar hashes (algoritmo matemáticos) y certificados a una pieza de contenido, que luego viven en él como metadatos, donde sea que viajen en línea.

El segundo es un lector, que puede existir como una extensión de navegador o en otras formas, que comprueba los certificados y relaciona los hashes, para permitir a la gente saber, con alto grado de precisión, que el contenido es auténtico y que no ha sido cambiado, así como brindar detalles sobre quién lo produjo.

En meses recientes, se ha expandido de manera considerable la implementación de NewsGuard, que permite a las personas aprender más sobre una fuente de noticias en línea antes de consumir su contenido. NewsGuard opera a un equipo de experimentados periodistas que califican sitios web de noticias con base en nueve criterios de integridad periodística, que utilizan para crear tanto una “etiqueta nutricional” como una clasificación rojo/verde para cada sitio web de noticias evaluado.

La gente puede acceder al servicio de NewsGuard al descargar una sencilla extensión de navegador, que está disponible para todos los navegadores estándar. Es gratis para usuarios del navegador Edge. La compañía aclara que Microsoft no tiene control editorial sobre ninguna de las calificaciones de NewsGuard y la extensión no limita el acceso a la información de ninguna forma.

Los riesgos de tecnologías maliciosas


Gobiernos, empresas, organizaciones no lucrativas y otros alrededor del mundo tienen una parte crítica por jugar en hacer frente de manera amplia a la desinformación y la interferencia en elecciones. En 2018, el Paris Call for Trust & Security in Cyberspace reunió a un grupo de líderes globales de varias partes interesadas que se comprometieron con nueve principios que ayudarán a asegurar la paz y la seguridad en línea. Uno de los principios más importantes es defender los procesos electorales.

En mayo de 2020, en conjunto con la Alianza para Asegurar la Democracia, y el Gobierno de Canadá, se lanzó un esfuerzo para liderar actividades globales basadas en este principio. Cualquier organización interesada en contribuir, a unirse a Paris Call.

"Ninguna organización, por sí sola, podrá tener un impacto significativo en combatir la desinformación y los dañinos deepfakes. La naturaleza de este desafío requiere que diferentes tecnologías sean adoptadas de manera amplia, que los esfuerzos educativos lleguen a los consumidores en todos lados, de manera consistente, y que no dejar de aprender sobre este desafío a medida que evoluciona", dice la firma en un comunicado.

Destaca además que en asociación con la AI Foundation, una empresa dual, comercial y sin fines de lucro, ubicada en San Francisco, la iniciativa Reality Defender 2020 (RD2020), de AI Foundation, pondrá a disposición Video Authenticator para las organizaciones involucradas en el proceso democrático, incluidos nuevos medios y campañas políticas.

La compañía se ha asociado con un consorcio de compañías de medios, incluida la BBC, CBC/Radio-Canada y el New York Times, en Project Origin, que probará nuestra tecnología de autenticidad y ayudará a avanzar en un estándar que pueda ser adoptado de manera amplia.

La iniciativa Trusted News, que incluye a un rango de editoriales y compañías de redes sociales, también ha aceptado involucrarse con esta tecnología. En los meses por venir, se espera ampliar el trabajo en esta área hacia más empresas de tecnología, editoriales de noticias y compañías de redes sociales.