Baseten's AI-platform: Eigen modelgewichten, daagt hyperscalers uit

Baseten neemt het op tegen hyperscalers met een nieuw AI-trainingsplatform waarmee u de controle over uw modelgewichten behoudt

In de snel evoluerende wereld van kunstmatige intelligentie staat Baseten, een toonaangevend AI-infrastructuurbedrijf met een recente waardering van 2,15 miljard dollar, op het punt de enterprise AI-markt te herdefiniëren. Ze kondigden onlangs de algemene beschikbaarheid aan van Baseten Training, een platform dat een cruciale stap betekent in hun strategie. Dit initiatief, waarbij Baseten takes on hyperscalers with new AI training platform that lets you own your model weights, richt zich op het stroomlijnen van het fine-tunen van open-source AI-modellen, waardoor bedrijven de afhankelijkheid van gesloten AI-providers zoals OpenAI aanzienlijk kunnen verminderen. Het is een gedurfde zet die de volledige levenscyclus van AI-implementatie beoogt te vangen, en die voortkomt uit een duidelijke vraag van klanten en een strategische noodzaak om de controle en flexibiliteit terug te geven aan de eindgebruiker.

De lancering van Baseten Training komt op een kritiek moment in de adoptie van AI door bedrijven. Nu open-source modellen van Meta en Alibaba steeds vaker kunnen tippen aan de prestaties van propriëtaire systemen, groeit de druk op bedrijven om hun afhankelijkheid van dure API-aanroepen naar diensten zoals GPT-5 of Claude te verminderen. Het pad van een standaard open-source model naar een productieklaar AI-systeem op maat is echter vaak complex, en vereist gespecialiseerde expertise op het gebied van machine learning operations, infrastructuurbeheer en prestatie-optimalisatie. Precies hier biedt Baseten een oplossing door de infrastructuurrails te leveren, terwijl bedrijven volledige controle behouden over hun trainingscode, data en modelgewichten. Met dit strategische inzicht, waarbij Baseten takes on hyperscalers with new AI training platform that lets you own your model weights, onderscheidt het bedrijf zich duidelijk in de markt.

Lessen uit een mislukt product: Hoe Baseten ontdekte wat AI-training echt nodig heeft

Dit is niet Baseten's eerste poging om zich te wagen aan modeltraining. Ongeveer tweeënhalf jaar geleden lanceerde het bedrijf een product genaamd Blueprints, dat spectaculair faalde, een mislukking die CEO Amir Haghighat nu omarmt als een waardevolle leermoment. Het probleem was dat Baseten een te hoge abstractielaag had gecreëerd, waarbij ze probeerden een "magische" ervaring te bieden waar gebruikers programmatisch een basismodel, data en hyperparameters kozen, waarna er "magisch" een model uitkwam. Het gebrek aan intuïtie van gebruikers bij het maken van deze keuzes leidde tot ondermaatse modelprestaties, en de schuld werd bij het product gelegd. Baseten bevond zich al snel in de adviesbusiness in plaats van de infrastructuurbusiness, waarbij ze klanten hielpen met het debuggen van alles, van dataset deduplicatie tot modelselectie. Deze ervaring onderstreepte het belang van een infrastructuur die de gebruiker in staat stelt de touwtjes in handen te houden, een visie die nu centraal staat in hoe Baseten takes on hyperscalers with new AI training platform that lets you own your model weights. Na dit eerdere falen doodde Baseten Blueprints en richtte zich volledig op inference, met de belofte om het "recht te verdienen" om opnieuw uit te breiden. Dat moment kwam eerder dit jaar, gedreven door de realiteit dat de meeste Baseten-inkomsten uit inference afkomstig zijn van aangepaste modellen die klanten elders trainen, en dat concurrerende trainingsplatforms beperkende servicevoorwaarden gebruikten om klanten aan hun inference-producten te binden.

Multi-cloud GPU-orkestratie en scheduling binnen de minuut onderscheiden Baseten van hyperscalers

Het nieuwe Baseten Training-product opereert op wat Haghighat "de infrastructuurlaag" noemt – een lager niveau dan het mislukte Blueprints-experiment, maar met doelgerichte tooling rondom betrouwbaarheid, observeerbaarheid en integratie met Baseten's inference-stack. De belangrijkste technische mogelijkheden omvatten multi-node trainingsondersteuning voor clusters van NVIDIA H100 of B200 GPU's, geautomatiseerde checkpointing ter bescherming tegen node-fouten, sub-minuut job-scheduling en integratie met Baseten's eigen Multi-Cloud Management (MCM)-systeem. Dit laatste is cruciaal: MCM stelt Baseten in staat om dynamisch GPU-capaciteit te provisioneren over meerdere cloudproviders en regio's, waardoor kostenbesparingen aan klanten worden doorberekend en de capaciteitsbeperkingen en meerjarige contracten die typisch zijn voor hyperscaler-deals worden vermeden. Dit is een direct antwoord op de pijnpunten van traditionele cloudproviders, waarmee Baseten takes on hyperscalers with new AI training platform that lets you own your model weights op een zeer concrete manier. Haghighat merkt op dat hyperscalers zelden de flexibiliteit bieden om tijdelijk drie of vier B200-nodes te gebruiken zonder een meerjarig contract. Baseten doorbreekt dit model, wat een aanzienlijk voordeel biedt.

Baseten's benadering weerspiegelt bredere trends in cloudinfrastructuur, waar abstractielagen workloads steeds vloeibaarder laten bewegen tussen providers. Toen AWS enkele weken geleden een grote storing ervoer, bleven Baseten's inference-diensten operationeel door automatisch verkeer naar andere cloudproviders te routeren – een mogelijkheid die nu is uitgebreid naar trainingsworkloads. Deze technische differentiatie strekt zich uit tot Baseten's observeerbaarheidstools, die per-GPU-metrieken bieden voor multi-node jobs, gedetailleerde checkpoint-tracking en een vernieuwde UI die infrastructuur-level gebeurtenissen toont. Het bedrijf introduceerde ook een "ML Cookbook" van open-source trainingsrecepten voor populaire modellen zoals Gemma, GPT OSS en Qwen, ontworpen om gebruikers te helpen sneller "trainingssucces" te bereiken. Door deze focus op flexibiliteit en controle, laat Baseten takes on hyperscalers with new AI training platform that lets you own your model weights zien dat ze een leider zijn in de nieuwe generatie AI-infrastructuur.

Vroege adopters melden aanzienlijke kostenbesparingen en prestatieverbeteringen

Twee vroege klanten illustreren de markt waarop Baseten zich richt: AI-native bedrijven die gespecialiseerde verticale oplossingen bouwen die aangepaste modellen vereisen. Oxen AI, een platform gericht op datasetbeheer en model fine-tuning, toont het partnerschapsmodel dat Baseten voor ogen heeft. CEO Greg Schoeninger verwoordde een veelvoorkomende strategische overweging door te zeggen: "Wanneer ik een platform zowel hardware als software heb zien proberen te doen, falen ze meestal in een van beide. Daarom was samenwerken met Baseten voor de infrastructuur de voor de hand liggende keuze." Oxen bouwde zijn klantervaring volledig bovenop Baseten's infrastructuur, met behulp van de Baseten CLI om trainingsjobs programmatisch te orkestreren. Het systeem voorziet en deprovisioneert automatisch GPU's, waardoor Baseten's interface volledig verborgen blijft achter die van Oxen. Voor één Oxen-klant, AlliumAI – een startup die structuur aanbrengt in rommelige retaildata – leverde de integratie 84% kostenbesparingen op vergeleken met eerdere benaderingen, waardoor de totale inference-kosten daalden van $46.800 naar $7.530. Deze concrete resultaten bevestigen de waarde die Baseten takes on hyperscalers with new AI training platform that lets you own your model weights kan toevoegen aan de bedrijfsvoering.

Daniel Demillard, CEO van AlliumAI, benadrukte de eenvoud en efficiëntie: "Het trainen van aangepaste LoRA's is altijd een van de meest effectieve manieren geweest om open-source modellen te benutten, maar het ging vaak gepaard met infrastructuurproblemen. Met Oxen en Baseten verdwijnt die complexiteit. We kunnen modellen op enorme schaal trainen en implementeren zonder ons ooit zorgen te maken over CUDA, welke GPU te kiezen of het uitschakelen van servers na training." Parsed, een andere vroege klant, pakt een ander pijnpunt aan: bedrijven helpen de afhankelijkheid van OpenAI te verminderen door gespecialiseerde modellen te creëren die generalistische LLM's overtreffen in domeinspecifieke taken. Het bedrijf werkt in missiekritische sectoren zoals gezondheidszorg, financiën en juridische diensten, waar modelprestaties en betrouwbaarheid niet onderhandelbaar zijn. Door deze successen toont Baseten takes on hyperscalers with new AI training platform that lets you own your model weights duidelijk zijn potentieel.

Charles O'Neill, mede-oprichter en Chief Science Officer van Parsed, merkte op dat ze vóór Baseten herhaaldelijk en verminderde prestaties zagen op hun fine-tuned modellen als gevolg van bugs bij hun vorige trainingsprovider, en moeite hadden met het gemakkelijk downloaden en opslaan van modelgewichten na trainingen. Met Baseten bereikte Parsed 50% lagere end-to-end latentie voor transcriptie-use cases, zette binnen 48 uur HIPAA-compliant EU-implementaties op voor testen en startte meer dan 500 trainingstaken. Het bedrijf maakte ook gebruik van Baseten's aangepaste vLLM inference framework en speculatieve decodering – een techniek die concepttokens genereert om de uitvoer van taalmodellen te versnellen – om de latentie voor aangepaste modellen te halveren. "Snelle modellen zijn belangrijk," zei O'Neill. "Maar snelle modellen die na verloop van tijd beter worden, zijn nog belangrijker. Een model dat 2x sneller is, maar statisch, verliest het van een model dat iets langzamer is, maar maandelijks 10% verbetert. Baseten geeft ons beide – de prestatievoorsprong vandaag en de infrastructuur voor continue verbetering." Dit bewijst de effectiviteit van de aanpak waarbij Baseten takes on hyperscalers with new AI training platform that lets you own your model weights.

Waarom training en inference meer verbonden zijn dan de industrie beseft

Het Parsed-voorbeeld illustreert een diepere strategische reden voor Baseten's trainingsexpansie: de grens tussen training en inference is vager dan de conventionele wijsheid suggereert. Baseten's modelprestatie-team gebruikt het trainingsplatform uitgebreid om "draft-modellen" te creëren voor speculatieve decodering, een geavanceerde techniek die inference dramatisch kan versnellen. Het bedrijf kondigde onlangs aan dat het 650+ tokens per seconde behaalde op OpenAI's GPT OSS 120B-model – een verbetering van 60% ten opzichte van de lanceringsprestaties – met behulp van EAGLE-3 speculatieve decodering, waarvoor gespecialiseerde kleine modellen moeten worden getraind om samen met grotere doelmodellen te werken.

"Uiteindelijk zijn inference en training op meer manieren met elkaar verbonden dan men zou denken," zei Haghighat. "Wanneer je speculatieve decodering toepast in inference, moet je het conceptmodel trainen. Ons modelprestatie-team is een grote klant van het trainingsproduct om deze EAGLE-koppen continu te trainen." Deze technische onderlinge afhankelijkheid versterkt Baseten's stelling dat het bezit van zowel training als inference een verdedigbare waarde creëert. Het bedrijf kan de hele levenscyclus optimaliseren: een model getraind op Baseten kan met een enkele klik worden geïmplementeerd naar inference-endpoints die vooraf zijn geoptimaliseerd voor die architectuur, met ondersteuning voor implementatie vanuit een checkpoint voor chat completion en audiotranscriptie-workloads. Dit benadrukt de kracht van de strategie waarin Baseten takes on hyperscalers with new AI training platform that lets you own your model weights.

De aanpak contrasteert scherp met verticaal geïntegreerde concurrenten zoals Replicate of Modal, die ook training en inference aanbieden, maar met verschillende architectonische compromissen. Baseten's gok is op flexibiliteit van de lagere infrastructuur en prestatie-optimalisatie, vooral voor bedrijven die aangepaste modellen op schaal draaien. Hierin ligt de kern van hoe Baseten takes on hyperscalers with new AI training platform that lets you own your model weights de concurrentie probeert te verslaan.

Naarmate open-source AI-modellen verbeteren, zien bedrijven fine-tuning als de weg weg van OpenAI-afhankelijkheid

De hele strategie van Baseten wordt ondersteund door een overtuiging over het traject van open-source AI-modellen – namelijk dat ze goed genoeg worden, en snel genoeg, om massale adoptie door bedrijven mogelijk te maken via fine-tuning. "Zowel gesloten als open-source modellen worden steeds beter in termen van kwaliteit," zei Haghighat. "We hoeven niet eens te wachten tot open source gesloten modellen overtreft, want naarmate beide beter worden, ontgrendelen ze al deze onzichtbare lijnen van bruikbaarheid voor verschillende use cases." Hij wees op de proliferatie van reinforcement learning en supervised fine-tuning technieken die bedrijven in staat stellen een open-source model te nemen en het "net zo goed te maken als het gesloten model, niet in alles, maar in deze smalle band van capaciteit die ze willen." Deze trend is al zichtbaar in Baseten's Model APIs-business, die eerder dit jaar naast Training werd gelanceerd om productiegereed toegang te bieden tot open-source modellen. Het bedrijf was de eerste provider die toegang bood tot DeepSeek V3 en R1, en heeft sindsdien modellen zoals Llama 4 en Qwen 3 toegevoegd, geoptimaliseerd voor prestaties en betrouwbaarheid. Model APIs dient als een top-of-funnel product: bedrijven beginnen met standaard open-source modellen, realiseren dat ze maatwerk nodig hebben, gaan naar Training voor fine-tuning en implementeren uiteindelijk op Baseten's Dedicated Deployments-infrastructuur. Dit illustreert perfect hoe Baseten takes on hyperscalers with new AI training platform that lets you own your model weights een compleet ecosysteem bouwt.

Haghighat erkende echter dat de markt "fuzzy" blijft over welke trainingstechnieken zullen domineren. Baseten dekt zich in door dicht bij de nieuwste ontwikkelingen te blijven via zijn Forward Deployed Engineering team, dat hands-on samenwerkt met geselecteerde klanten aan reinforcement learning, supervised fine-tuning en andere geavanceerde technieken. "Terwijl we dat doen, zullen we patronen zien ontstaan over hoe een geproduceerd trainingsproduct eruit kan zien dat echt voldoet aan de behoeften van de gebruiker zonder dat ze te veel hoeven te leren over hoe RL werkt," zei hij. "Zijn we er als industrie? Ik zou zeggen nog niet helemaal. Ik zie enkele pogingen daartoe, maar ze lijken allemaal bijna in dezelfde val te trappen als Blueprints – een beetje een ommuurde tuin die de handen van AI-mensen op hun rug bindt." De roadmap omvat potentiële abstracties voor veelvoorkomende trainingspatronen, uitbreiding naar beeld-, audio- en video-fine-tuning, en diepere integratie van geavanceerde technieken zoals prefill-decode disaggregatie, die de initiële verwerking van prompts scheidt van tokengeneratie om de efficiëntie te verbeteren. De belofte dat Baseten takes on hyperscalers with new AI training platform that lets you own your model weights staat vast.

Baseten neemt het op tegen een druk speelveld, maar wedt op ontwikkelaarervaring en prestaties

Baseten betreedt een steeds drukker wordende markt voor AI-infrastructuur. Hyperscalers zoals AWS, Google Cloud en Microsoft Azure bieden GPU-compute voor training, terwijl gespecialiseerde providers zoals Lambda Labs, CoreWeave en Together AI concurreren op prijs, prestaties of gebruiksgemak. Dan zijn er nog verticaal geïntegreerde platforms zoals Hugging Face, Replicate en Modal die training, inference en modelhosting bundelen. Baseten's differentiatie berust op drie pijlers: zijn MCM-systeem voor multi-cloud capaciteitsbeheer, diepgaande expertise op het gebied van prestatie-optimalisatie, opgebouwd vanuit zijn inference-business, en een ontwikkelaarervaring die is afgestemd op productie-implementaties in plaats van experimenten. Dit onderstreept nogmaals dat Baseten takes on hyperscalers with new AI training platform that lets you own your model weights niet zomaar een slogan is, maar een complete bedrijfsfilosofie.

De recente Series D-financiering van 150 miljoen dollar en de waardering van 2,15 miljard dollar bieden Baseten de middelen om in beide producten tegelijk te investeren. Belangrijke klanten zijn onder andere Descript, dat Baseten gebruikt voor transcriptieworkloads; Decagon, dat AI voor klantenservice draait; en Sourcegraph, dat code-assistenten aandrijft. Alle drie opereren ze in domeinen waar modelaanpassing en prestaties concurrentievoordelen zijn. Timing is mogelijk Baseten's grootste troef. De samenkomst van verbeterende open-source modellen, ongemak bij bedrijven met afhankelijkheid van propriëtaire AI-providers, en toenemende verfijning rond fine-tuning technieken creëert wat Haghighat ziet als een duurzame marktverschuiving.

"Er zijn veel use cases waarvoor gesloten modellen het al hebben gedaan en open modellen nog niet," zei hij. "Waar ik in de markt zie, is dat mensen verschillende trainingstechnieken gebruiken – meer recentelijk veel reinforcement learning en SFT – om dit open model net zo goed te maken als het gesloten model, niet in alles, maar in deze smalle band van capaciteit die ze willen. Dat is zeer tastbaar in de markt." Voor bedrijven die de complexe overgang van gesloten naar open AI-modellen navigeren, biedt Baseten's positionering een duidelijke waardepropositie: infrastructuur die de rommelige middenweg van fine-tuning aanpakt, terwijl wordt geoptimaliseerd voor het uiteindelijke doel van performante, betrouwbare, kosteneffectieve inference op schaal. Het vasthouden van het bedrijf aan het eigendom van modelgewichten door klanten – een schril contrast met concurrenten die training gebruiken als een lock-in mechanisme – weerspiegelt het vertrouwen dat technische excellentie, niet contractuele beperkingen, de retentie zal stimuleren. Deze principes zijn de essentie van waarom Baseten takes on hyperscalers with new AI training platform that lets you own your model weights zo'n sterke boodschap is.

Of Baseten deze visie kan uitvoeren, hangt af van het navigeren door inherente spanningen in zijn strategie: op de infrastructuurlaag blijven zonder consultant te worden, kracht en flexibiliteit bieden zonder gebruikers te overweldigen met complexiteit, en abstracties bouwen op precies het juiste niveau naarmate de markt volwassener wordt. De bereidheid van het bedrijf om Blueprints te schrappen toen het faalde, suggereert een pragmatisme dat doorslaggevend kan blijken in een markt waar veel infrastructuurproviders te veel beloven en te weinig leveren. "Door en door zijn we een inference-bedrijf," benadrukte Haghighat. "De reden dat we training hebben gedaan, is ten dienste van inference." Die duidelijkheid van doel – training behandelen als een middel tot een doel in plaats van een doel op zich – is misschien wel Baseten's belangrijkste strategische troef. Naarmate AI-implementatie volwassener wordt van experimenteren naar productie, zullen de bedrijven die de volledige stack oplossen, buitengewone waarde vastleggen. Maar alleen als ze de valkuil van technologie op zoek naar een probleem vermijden. Gelukkig hoeven Baseten's klanten op vrijdag niet langer in servers in te loggen en te bidden dat hun trainingstaken maandag klaar zijn. In de infrastructuur business is de beste innovatie soms gewoon het laten verdwijnen van de pijnlijke delen, een missie die perfect past bij Baseten takes on hyperscalers with new AI training platform that lets you own your model weights.


Veelgestelde Vragen (FAQ) over Baseten Training

1. Wat is het belangrijkste voordeel van Baseten Training voor bedrijven die AI-modellen willen ontwikkelen?
Het belangrijkste voordeel van Baseten Training is dat het bedrijven in staat stelt om open-source AI-modellen efficiënt te fine-tunen zonder de operationele complexiteit van het beheren van GPU-clusters of cloudcapaciteit. Cruciaal hierbij is dat Baseten takes on hyperscalers with new AI training platform that lets you own your model weights, wat betekent dat bedrijven volledige controle en eigendom behouden over hun getrainde modellen en data, in tegenstelling tot veel concurrerende platforms.

2. Hoe onderscheidt Baseten Training zich van aanbiedingen van grote cloudproviders (hyperscalers)?
Baseten Training onderscheidt zich door flexibele, on-demand multi-cloud GPU-capaciteit te bieden via zijn Multi-Cloud Management (MCM)-systeem, zonder de noodzaak van meerjarige contracten die typisch zijn voor hyperscalers. Dit zorgt voor kosteneffectiviteit en veerkracht. Bovendien garandeert het principe dat Baseten takes on hyperscalers with new AI training platform that lets you own your model weights dat bedrijven niet worden opgesloten in een ecosysteem.

3. Waarom legt Baseten zoveel nadruk op het eigendom van modelgewichten door de klant?
Baseten legt zoveel nadruk op het eigendom van modelgewichten omdat dit bedrijven de ultieme flexibiliteit en onafhankelijkheid biedt. Klanten kunnen hun getrainde modellen downloaden en gebruiken waar ze willen, wat hen beschermt tegen vendor lock-in en toekomstige strategische beslissingen vergemakkelijkt. Dit is een kernaspect van de filosofie dat Baseten takes on hyperscalers with new AI training platform that lets you own your model weights en de controle teruggeeft aan de gebruiker.


Verbeter uw digitale ervaring vandaag nog!

Nu u de diepte en kracht van innovatieve technologie zoals die van Baseten begrijpt, bent u wellicht ook geïnteresseerd in het optimaliseren van uw eigen entertainment en communicatie. Voor een naadloze, hoogwaardige kijkervaring met een ongeëvenaarde selectie van kanalen en content, nodigen wij u uit om de mogelijkheden van IPTV te ontdekken. Upgrade uw kijkplezier en mis nooit meer een moment van uw favoriete programma's.

Wacht niet langer! Klik hier om uw ideale IPTV abonnement te kopen en duik in een wereld van eindeloos entertainment.

Nieuwer Ouder