Twierdzenie, że sztuczna inteligencja wpłynie na wszystkie dziedziny życia prywatnego i zawodowego, nie jest przesadzone. Osoby i firmy mogą korzystać z AI tak samo jak z każdego innego narzędzia, aby robić dobre lub złe rzeczy. Można się więc było spodziewać, że po generatywną sztuczną inteligencję sięgną także cyberprzestępcy. Microsoft i OpenAI muszą być o krok przed nimi.
Twórcy sztucznej inteligencji, tacy jak Microsoft, OpenAI, Google czy Meta, od samego początku starają się implementować zabezpieczenia, które uniemożliwią korzystanie z AI w niecnych celach. Czasem jednak osobom o złych zamiarach udaje się przechytrzyć AI, ominąć ograniczenia, a nawet skłonić do działania wbrew zasadom. Microsoft we współpracy z AI prowadzi badania dotyczące tego, jak cyberprzestępcy wykorzystują duże modele językowe (LLMs, np. GPT-4).
Z badań tych wynika, że z LLMs korzystają grupy ulokowane w Rosji, Korei Północnej, Iranie i Chinach, czyli państw szczególnie aktywnych, jeśli chodzi o tzw. Nation-State Cyber Actors, czyli grupy hakerów sponsorowane i działające na zlecenie państw. Jedna z nich oznaczona jest jako Forest Blizzard i powiązana z rosyjską jednostką 26165 wywiadu wojskowego GRU. Microsoft twierdzi, że grupa aktywnie celowała w organizacje powiązane z trwającą inwazją na Ukrainę.
Microsoft podaje, że Forest Blizzard używa LLMs, aby zrozumieć protokoły komunikacji satelitarnej, technologie obrazowania radarowego i konkretne parametry techniczne. Grupa miała też próbować automatyzacji zadań, takich jak wybieranie plików, oraz manipulacji dużymi modelami językowymi. Inna zidentyfikowana grupa to Salmon Typhoon pochodząca z Chin. Ta z kolei ma historię ataków na rządowych i amerykańskich kontraktorów z branży obronnej. Jej członkowie mieli wykorzystywać LLMs do wyszukiwania błędów w kodzie i tłumaczenia technicznych dokumentów informatycznych.
Microsoft Threat Intelligence opisuje jeszcze szereg innych grup i używanych przez nich technik. Gigant przypomina też o współpracy z OpenAI, która ma na celu m.in. implementację odpowiedzialnej AI i ochronę samej sztucznej inteligencji przed wstrzyknięciami promptów, próbami nadużywania dużych modeli językowych (LLM) i oszustwami. Firma korzysta też z generatywnej sztucznej inteligencji, aby zapobiegać działaniom threat actors i wykorzystywać moc nowych narzędzi, takich jak Microsoft Security Copilot (Microsoft Copilot for Security).