Microsoft i NVIDIA pogłębiają współpracę nad AI

Microsoft i NVIDIA pogłębiają współpracę nad AI

Autor: Krzysztof Sulikowski

Opublikowano: 3/19/2025, 5:00 PM

Liczba odsłon: 197

Microsoft i NVIDIA przedstawili szereg zapowiedzi na wczorajszej NVIDIA GTC AI Conference. Dotyczą one całego stosu technologicznego, deweloperów, startupów i organizacji. Technologia Nvidii trafi m.in. do Azure AI Foundry, a jej nadchodzące układy GPU będą dostępne w Azure. Obie firmy pracują też nad ulepszeniem wydajności modeli językowych AI w chmurze. Może to oznaczać, że Microsoft nie rezygnuje z układów NVIDII na rzecz własnych chipów AI.

Microsoft ogłosił, że Azure AI Foundry oferuje teraz mikrousługi NVIDIA NIM. Są to gotowe kontenery obsługiwane przez oprogramowanie inferencyjne NVIDIA. Zostały zaprojektowane w celu optymalizacji inferencji dla ponad 20 popularnych modeli bazowych. Umożliwiają one deweloperom łatwe wdrażanie aplikacji AI opartych na generatywnej sztucznej inteligencji. Gigand z Redmond ujawnił też plany integracji otwartego modelu rozumowania NVIDIA Llama Nemotron Reason.

Obie firmy współpracują też nad optymalizacją wydajności inferencji dla open source'owych modeli językowych w Azure AI Foundry. Przykładowo trwają prace nad optymalizacją wydajności modeli Meta Llama z użyciem TensorRT-LLM. Deweloperzy będą mogli doświadczyć tej wyższej wydajności, korzystając z tych modeli bez potrzeby podejmowania jakichkolwiek dodatkowych działań.

W obliczu doniesień o budowie własnych chipów AI przez Microsoft (a także OpenAI, Metę i wielu innych twórców sztucznej inteligencji) dalsza współpraca tych firm z NVIDIĄ (jeśli chodzi o zaopatrzenie centrów danych w GPU) stoi pod znakiem zapytania. Microsoft nie przekreśla jednak tej współpracy. Co więcej, ogłosił ogólną dostępność usług opartych na tych układach:

  • Azure Container Apps - bezserwerowe GPUs z obsługą NVIDIA NIM, które pozwolą każdemu uruchamiać obciążenia AI w modelu on-demand z automatycznym skalowaniem, zoptymalizowanym zimnym startem i naliczaniem sekundowym, skalującym się do zera, gdy usługa nie jest używana.
  • Seria maszyn wirtualnych Azure ND GB200 V6 napędzanych przez NVIDIA GB200 NVL72 oraz NVIDIA Quantum InfiniBand.

Microsoft potwierdził również, że nadchodzące NVIDIA Blackwell Ultra GPUs oraz NVIDIA RTX PRO 6000 Blackwell Server Edition będą dostępne w Azure. Maszyny wirtualne (VM) oparte na tych układach zostaną oddane do użytku jeszcze w 2025 roku.

Ostatnią z ogłoszonych nowości są prekonfigurowane stacje robocze z pulpitem wirtualnym NVIDIA Omniverse oraz NVIDIA Isaac Sim, a także Omniverse Kit App Streaming w Azure Marketplace. Są to maszyny wirtualne, które pozwalają deweloperom szybko zacząć tworzenie i wdrażanie "cyfrowych bliźniaków" oraz aplikacji symulatorów robotycznych "w erze fizycznej AI". Partnerami tego ekosystemu są m.in. Bright Machines, Kinetic Vision, Sight Machine i SoftServe.

Źródło: https://azure.microsoft.com/en-us/blog/microsoft-and-nvidia-accelerate-ai-development-and-performance/

Jak wykorzystać Copilot w codziennej pracy? Kurs w przedsprzedaży
Jak wykorzystać Copilot w codziennej pracy? Kurs w przedsprzedaży

Wydarzenia