Dzisiejsza kultura popularna żywi się głównie samą sobą sprzed lat. Remiksuje i remake'uje się dosłownie wszystko i wszystkich, a algorytmy sztucznej inteligencji są do tego świetnym narzędziem. Ma to też swoją ciemną stronę. Narzędzia do przerabiania obrazu i syntezowania głosu służą do tworzenia fake newsów, które stały się współczesną plagą.
Microsoft już wcześniej głosił walkę z deepfake'ami i w tym celu sprzymierzył się nawet z Facebookiem i Amazonem. Teraz gigant ogłosił nowy krok w zwalczaniu dezinformacji w ramach Defending Democracy Program. Nowe narzędzie nosi nazwę Microsoft Video Authenticator i potrafi analizować statyczne zdjęcia lub wideo w poszukiwaniu sztucznych manipulacji. Następnie podaje procentową szansę (lub oszacowanie pewności), że materiał został zmanipulowany. W przypadku wideo może podawać tę ocenę w czasie rzeczywistym, odtwarzając je klatka po klatce. Działa to na zasadzie wykrywania krawędzi wtopienia deepfake'a i subtelnego zanikania elementów w skali odcieni szarości, które mogą być niewykrywalne dla oka ludzkiego.
Microsoft przytacza wspierane przez niego badania prof. Jacoba Shapiro z Princeton, który skatalogował 96 kampanii wpływu wymierzonych w 30 państw z lat 2013-2019. Kampanie te, prowadzone w mediach społecznościowych, miały na celu zniesławienie znanych osób i wpłynięcie na spolaryzowanie poglądów ofiar. Co istotne, 93% z nich zawierało oryginalne materiały, 86% modyfikowało istniejącą zawartość, a 74% zniekształcało obiektywnie weryfikowalne fakty. Ostatnimi czasy kampanie dezinformacji poruszają zwłaszcza temat pandemii COVID-19.
Microsoft Video Authenticator wykorzystuje moc chmury obliczeniowej Microsoft Azure oraz sztucznej inteligencji. Technologię rozwinęły zespoły Microsoft Research i Microsoft Azure w partnerstwie z Defending Democracy Program. Będzie ona napędzać zapowiedzianą niedawno przez BBC inicjatywę o nazwie Project Origin.