OpenAI ogłosił nową serię modeli: GPT-4.1, GPT-4.1 mini oraz GPT-4.1 nano. Producent zastrzegł, że będą one dostępne tylko poprzez API i nie trafią do ChatGPT. Deweloperzy mogą z nich korzystać za pośrednictwem Microsoft Azure OpenAI Service oraz GitHub. A jest z czego. Nowe modele posiadają okno kontekstowe 1 mln tokenów i wyprzedzają GPT‑4o oraz GPT‑4o mini w wielu testach.
GPT-4.1 dostępny tylko poprzez API. Jakie osiąga wyniki?
Jak podaje OpenAI, GPT-4.1 będzie dostępny tylko poprzez interfejs API. Wiele jego funkcji zostało wprowadzonych do najnowszej wersji GPT-4o w ChatGPT, a kolejne będą dodawane wraz z przyszłymi wydaniami. Dotyczy to ulepszeń wykonywania instrukcji, kodowania i samej sztucznej inteligencji. Nowa seria ma zasób wiedzy odcięty w czerwcu 2024 roku.
Jeśli chodzi o zdolności GPT-4.1, to benchmarki AI mówią same za siebie:
- GPT-4.1 osiąga wynik 54,6% w SWE-bench Verified, czyli o 21,4% więcej niż GPT-4o i 26,6% więcej niż GPT-4.5. OpenAI podaje, że to najlepszy model do kodowania.
- Jeśli chodzi o wypełnianie instrukcji, zdobył on 38,3% w benchmarku MultiChallenge. To o 10,5% więcej niż GPT-4o.
- Model ustanowił też nowy rekord w rozumieniu długich materiałów wideo, osiągając wynik 72,0% w Video-MME. To benchmark, w którym modele AI analizują godzinne filmy bez napisów. Wynik jest o 6,7% lepszy od GPT-4o.
OpenAI GPT-4.1 ma wiele realnych zastosowań
Jak mówił niedawno Satya Nadella, benchmarki nie są prawdziwą miarą wpływu sztucznej inteligencji. Liczy się to, jak wpłyną na globalną ekonomię oraz jak radza sobie z zadaniami w prawdziwym świecie. OpenAI najwyraźniej wziął sobie do serca słowa CEO swojego największego inwestora oraz ekskluzywnego partnera i poinformował o kilku realnych zastosowaniach GPT-4.1 w aplikacjach AI. Z nowego modelu skorzystali już:
- Thomson Reuters - testował GPT‑4.1 w CoCounsel, swoim prawniczym agencie AI. W porównaniu z GPT-4o nowy model zaliczył 17% poprawę w dokonywaniu przeglądów wielu dokumentów jednocześnie. Model lepiej radził sobie z obsługą kontekstu z wielu źródeł i identyfikowaniu złożonych powiązań, takich jak sprzeczne klauzule lub ukryte zależności, zapewniając przy tym wysoką wydajność.
- Carlyle - skorzystał z GPT-4.1, aby wydobywać dane finansowe z długich, gęstych dokumentów, takich jak pliki Excela i PDF. Według wewnętrznych benchmarków firmy nowy model działał o 50% lepiej niż poprzednie w zadaniach wyszukiwania dokumentów. Można to porównać z szukaniem igły w stogu siana. GPT-4.1 radził sobie lepiej w przypadku utraty danych w środku dokumentów czy wnioskowaniu, które wymagało łączenia wglądów z wielu różnych plików.
Jak wyglądają kwestie wydajności i szybkości działania?
Jako że modele wnioskujące często pracują o wiele dłużej niż ich prostsze odpowiedniki udzielające odpowiedzi na pytania, to warto też obok wydajności zwrócić uwagę na szybkość. I tu też jest nieźle. Jak mówi OpenAI, nowy model zwraca pierwszy token w około 15 sekund przy przetwarzaniu 128 tys. tokenów i do 30 sekund przy pełnym milionie. Warianty mini i nano są jeszcze szybsze.
Wróćmy jeszcze do benchmarków. Nowa seria zaliczyła istotne postępy w pracy z obrazami ("computer vision"), a szczególnie dobrze wypadł wariant GPT-4.1 mini, który wyprzedził GPT-4o w szeregu testów wizualnych:
- W MMMU - obejmującym diagramy, wykresy i mapy - GPT‑4.1 zdobył 73%. To więcej niż GPT‑4.5 i GPT-4o mini, który skończył z wynikiem 56%.
- W MathVista - testującym modele na wizualnych problemach matematycznych - GPT‑4.1 oraz GPT‑4.1 mini osiągnęły 57%, zostawiając w tyle GPT‑4o mini z jego 37%.
- W CharXiv-Reasoning - w którym modele odpowiadają na pytania w oparciu o wykresy naukowe - GPT‑4.1 oraz GPT-4.1 mini zdobyły 57%, nieznacznie wyprzedzając GPT-4o, o1 i GPT-4.5.
Nowa seria modeli GPT-4.1 dostępna poprzez usługi Microsoft Azure
Nowa seria modeli jest już dostępna za pośrednictwem Azure AI Foundry. Jak czytamy na blogu:
Z przyjemnością informujemy o wprowadzeniu nowej iteracji serii modeli GPT - GPT-4.1, 4.1-mini i 4.1-nano - do Microsoft Azure OpenAI Service oraz GitHub. Modele GPT-4.1 wprowadzają ulepszone możliwości i znaczne ulepszenia w kodowaniu, wykonywaniu instrukcji i przetwarzania długiego kontekstu, co ma krytyczne znaczenie dla deweloperów. Jesteśmy też podekscytowani, ogłaszając wsparcie dla dostrajania (fine tuningu) GPT-4.1 i 4.1-mini, pozwalając deweloperom dalej dostosowywać te modele do ich konkretnych potrzeb biznesowych.
- Steve Sweetman, Azure OpenAI Service Product Lead w Microsoft
Jeśli chodzi o cennik, to wydawca podaje:
- GPT-4.1 kosztuje 2 USD za 1 mln tokenów wejściowych i 8 USD za tokeny wyjściowe.
- GPT-4.1 mini kosztuje 0,40 USD za 1 mln tokenów wejściowych i 1,60 USD za tokeny wyjściowe.
- GPT-4.1 nano kosztuje 0,10 USD za 1 mln tokenów wejściowych i 0,40 USD za tokeny wyjściowe.