GPT-gennembrud: Hybrid AI forener sky og pc
OpenAI har lanceret sine første open-weight modeller siden GPT-2, og Microsoft faciliterer udbredelsen af disse modeller, gpt-oss-120b og gpt-oss-20b, på både Azure AI Foundry og Windows AI Foundry. Dette markerer et skifte for IT-fagfolk og udviklere, da det nu er muligt at implementere højtydende, tilpassede OpenAI-sprogmodeller med fuld kontrol på tværs af cloud, edge og klientenheder, inklusive fuld support for virksomhedstilpassede anvendelser. Begge modeller er planlagt til at være API-kompatible med den eksisterende Responses API for at forenkle migrering og integration.
gpt-oss-120b har 120 milliarder parametre (5,1 milliarder aktive ved inferens) og er optimeret til avanceret ræsonnement, kodegenerering, matematik og domænespecifikke Q&A. Den kan køre på en enkelt enterprise-klasse GPU som NVIDIA H100, hvilket gør højtydende AI praktisk for både on-premises og sikre cloud-scenarier.
gpt-oss-20b har 21 milliarder parametre (3,6 milliarder aktive) og er designet til agentbaserede arbejdsgange, værktøjsbrug og kodeeksekvering. Den kan køre effektivt på Windows-enheder med dedikerede GPU'er (16GB+ VRAM), og support til macOS via Foundry Local er på vej.
Open-weight adgangen giver udviklere mulighed for fuld gennemsigtighed og fleksibilitet, herunder finjustering med metoder som LoRA og QLoRA, integration af proprietære data, destillering og kvantisering til edge-implementering, samt inspektion af modellens interne strukturer for sikkerhed og compliance. Azure AI Foundry understøtter hele livscyklusstyringen, mens Windows AI Foundry og Foundry Local muliggør sikker, on-device inferens, selv offline eller i isolerede netværk.
Integrationen af Foundry Local med Windows AI Foundry gør det muligt for udviklere og IT-teams at implementere gpt-oss-20b direkte på klientenheder uden cloud-afhængighed, hvilket imødekommer strenge krav til datalokalitet, privatliv og suverænitet. Udviklere kan vælge mellem hurtige, serverløse endpoints på Azure eller fuldt lokale implementeringer.
Prissætningen for gpt-oss-120b er $0,15 per million input tokens og $0,60 per million output tokens for serverløse implementeringer via Azure. Priserne for gpt-oss-20b afhænger af Azure Machine Learning VM-typen.
Disse modeller betyder, at AI ikke længere er en "sort boks", hvilket giver transparens for compliance, tilpasning og sikkerhed. Det fremskynder innovation gennem finjustering og effektiv implementering, og muliggør fleksibel, hybrid AI-implementering på tværs af cloud, on-premises og edge. Lanceringen af gpt-oss via Azure AI Foundry og Windows AI Foundry betragtes som et vendepunkt for virksomheders AI-adoption, der giver udviklere mulighed for at tilpasse, auditere og implementere avancerede sprogmodeller med tillid og suverænitet.
