Generatywna sztuczna inteligencja stała się modnym hasłem w branży technologicznej w 2023 roku. Istnieje przy tym wiele obaw w związku z tym, co się stanie, jeśli AI wymknie się spod kontroli. Microsoft od lat stara się zapobiec takiemu scenariuszowi, a w tym tygodniu połączył siły z wiodącymi twórcami AI, aby stworzyć Frontier Model Forum.
Celem tej grupy jest zapewnienie bezpiecznego i odpowiedzialnego rozwoju generatywnej sztucznej inteligencji, w szczególności jej pionierskich modeli. Modele te grupa określa jako wielkoskalowe modele uczenia maszynowego, które przekraczają możliwości obecne w najbardziej zaawansowanych istniejących modelach i mogą wykonywać różnorodne zadania. Taką pozbawioną dzisiejszych ograniczeń, wielozadaniową i dorównującą człowiekowi AI jest tzw. sztuczna inteligencja ogólnego zastosowania (lub silna sztuczna inteligencja).
Członkami i założycielami Frontier Model Forum są Microsoft, OpenAI, Google i Anthropic. Jej ogłoszenie miało miejsce na blogach poszczególnych firm. Pozwalają one zapoznać się z celami grupy:
- Postęp w badaniach nad bezpieczeństwem sztucznej inteligencji w celu promowania odpowiedzialnego rozwoju pionierskich modeli, minimalizowania ryzyka i umożliwienia niezależnej, ustandaryzowanej oceny możliwości i bezpieczeństwa.
- Identyfikacja najlepszych praktyk w zakresie odpowiedzialnego rozwoju i wdrażania pionierskich modeli, pomagając społeczeństwu zrozumieć naturę, możliwości, ograniczenia i wpływ technologii.
- Współpraca z decydentami, naukowcami, społeczeństwem obywatelskim i firmami w celu dzielenia się wiedzą na temat zagrożeń związanych z zaufaniem i bezpieczeństwem.
- Wspieranie wysiłków na rzecz rozwoju aplikacji, które mogą pomóc sprostać największym wyzwaniom społeczeństwa, takim jak łagodzenie zmiany klimatu i adaptacja do niej, wczesne wykrywanie i zapobieganie rakowi oraz zwalczanie cyberzagrożeń.
Założenie Forum skomentował też prezes Microsoft, Brad Smith:
Firmy tworzące technologię AI mają obowiązek zapewnić, że jest ona bezpieczna i pozostaje pod kontrolą człowieka. Inicjatywa ta jest istotnym krokiem w kierunku zjednoczenia sektora technologicznego w odpowiedzialnym rozwoju sztucznej inteligencji i stawianiu czoła wyzwaniom, tak aby przynosiła korzyści całej ludzkości.
Frontier Model Forum jest również otwarte na inne firmy, jeśli pracują one również nad pionierskimi modelami sztucznej inteligencji i wykażą silne zaangażowanie w bezpieczeństwo modeli granicznych, w tym poprzez podejście techniczne i instytucjonalne.