Deepfake z Taylor Swift są niepokojące i okropne - mówi Satya Nadella

Deepfake z Taylor Swift są niepokojące i okropne - mówi Satya Nadella

Autor: Krzysztof Sulikowski

Opublikowano: 1/29/2024, 7:20 PM

Liczba odsłon: 1109

Przeróbki tworzone przez sztuczną inteligencję są tematem tak starym jak sama sztuczna inteligencja, ale stają się one medialne raz na jakiś czas. Tak też zadziało się ostatnio, gdy wzrosło zainteresowanie obrazami deep fake Taylor Swift wygenerowanymi przez AI. Doprowadziło to nawet to blokady wyszukiwania jej nazwiska na Twitterze. Aferę tę skomentował dyrektor generalny jednej z czołowych firm zajmujących się AI, czyli Microsoftu – Satya Nadella.

Satya Nadella udzielił wywiadu NBC Nightly News, w którym mówił o tym, co można zrobić, aby zabezpieczyć sztuczną inteligencję i chronić ją przed nadużyciami: Powiedziałbym, że dwie rzeczy. Pierwsza, znów, wróciłbym do tego, jak sądzę, co jest naszą odpowiedzialnością, czyli o zabezpieczeniach, które musimy rozmieszczać w technologii, aby produkowane treści były bezpieczniejsze. I jest tu naprawdę dużo do zrobienia. I możemy to robić, zwłaszcza kiedy mamy prawo i organy ścigania i platformy technologiczne, które mogą się połączyć. Myślę, że możemy zarządzać o wiele większym [zakresem działania], niż nam się wydaje.

Zapytany, czy ostatnie erotyczne przeróbki Taylor Swift biją na alarm, Nadella odpowiedział: przede wszystkim jest to absolutnie niepokojące i okropne. Dlatego tak, musimy działać. Co jednak da się zrobić? Generatory obrazów AI, takie jak Bing Image Creator, znany teraz pod nową nazwą Creator from Designer, mają włączone blokady, które nie pozwalają tworzyć obrazów pornograficznych, obraźliwych, nieetycznych czy w inne sposoby nieodpowiednich. Znane są jednak przykłady tak dobranych instrukcji (promptów), że modele AI mogą zgłupieć i postępować wbrew zasadom. Według raportu 404 Media istnieje "grupa na Telegramie poświęcona uwłaczającym obrazom kobiet", na której rzekomo mają znajdować się fejkowe zdjęcia Taylor Swift wykonane przy pomocy narzędzi AI Microsoftu.

Raport nie podaje, którego konkretnie narzędzia użyto do wygenerowania tych obrazów. Sądzimy jednak, że nawet jeśli Microsoft i OpenAI wprowadzą dodatkowe środki ochrony, to nie powstrzyma to osób korzystających z innych modeli oraz ich implementacji (np. uruchamianych na prywatnych serwerach, a nawet lokalnych komputerach).

Giganci big tech egzekwują różne zasady, m.in. na platformach społecznościowych, w wyszukiwarkach czy w chmurze, wychwytując nielegalne, niezgodne z zasadami treści graficzne czy wideo. Co prawda hamuje to w pewien sposób ich rozprzestrzenianie, ale nie blokuje tego całkowicie. Istnieją bowiem platformy z mocno *liberalnym* podejściem do udostępnianej zawartości, na które wpłynąć może jedynie prawo danego kraju (i to też nie zawsze).

Oczywiście w świecie technologii pracują tęgie umysły, które mogą wymyślać nowe sposoby zapobiegania nadużyciom, o których nawet nam się jeszcze nie śniło. Microsoft jest jedną z firm pracujących nad wykrywaniem deep fake'ów oraz dezinformacji z ambicją implementacji tej technologii wszędzie, gdzie się da – między innymi dla ochrony procesów demokratycznych, rzetelności mediów i nie tylko. Czy uda się wyplenić te niepożądane treści? A może to tylko walka z hydrą?

Źródło: https://www.windowscentral.com/microsoft/ai-generated-sexual-images-of-taylor-swift-are-alarming-and-terrible-says-microsoft-ceo-satya-nadella-but-what-can-the-tech-giant-do-about-it

Źródło: https://www.windowscentral.com/microsoft/ai-generated-sexual-images-of-taylor-swift-are-alarming-and-terrible-says-microsoft-ceo-satya-nadella-but-what-can-the-tech-giant-do-about-it

Jak wykorzystać Copilot w codziennej pracy? Kurs w przedsprzedaży
Jak wykorzystać Copilot w codziennej pracy? Kurs w przedsprzedaży

Wydarzenia