Anthropic: Krachtigste AI-model te gevaarlijk voor publiek; introduceert Project Glasswing.

Innovatie in Cybersecurity: Waarom Anthropic says its most powerful AI cyber model is too dangerous to release publicly — so it built Project Glasswing

In een wereld waar digitale dreigingen steeds complexer worden, betreedt Anthropic het toneel met een ambitieus antwoord. Het bedrijf heeft aangekondigd dat Anthropic says its most powerful AI cyber model is too dangerous to release publicly — so it built Project Glasswing, een grootschalig cybersecurity-initiatief dat een revolutionaire, nog niet-uitgebrachte AI-model combineert met een coalitie van toonaangevende technologie- en financiële bedrijven. Dit project, genaamd Glasswing, heeft als doel softwarekwetsbaarheden in 's werelds meest kritieke infrastructuur op te sporen en te patchen voordat kwaadwillende actoren ze kunnen misbruiken. De kern van dit baanbrekende project is Claude Mythos Preview, een model waarvan Anthropic stelt dat het zo krachtig is dat het niet publiekelijk kan worden vrijgegeven vanwege de potentiële risico's.

Deze strategische zet van Anthropic komt op een moment van buitengewone groei en intense publieke scrutinie. Recentelijk onthulde het bedrijf dat de geannualiseerde omzet de $30 miljard heeft overschreden, een verdrievoudiging sinds eind 2025. Het aantal zakelijke klanten dat jaarlijks meer dan $1 miljoen uitgeeft, is verdubbeld tot meer dan 1.000 in minder dan twee maanden. Tegelijkertijd kondigde Anthropic een gigantische computedeal aan met Google en Broadcom, en werd Eric Boyd, een senior Microsoft-executive, aangetrokken om de infrastructuuruitbreiding te leiden. Echter, Anthropic says its most powerful AI cyber model is too dangerous to release publicly — so it built Project Glasswing markeert een categoriek verschil van deze financiële en personele mijlpalen. Het is Anthropic’s meest gedurfde poging om geavanceerde AI-capaciteiten – capaciteiten die het bedrijf zelf als gevaarlijk bestempelt – om te zetten in een defensief voordeel, voordat deze zelfde capaciteiten in handen vallen van vijandige actoren. Dit initiatief belooft een fundamentele verschuiving in hoe we omgaan met digitale veiligheid, en benadrukt de dringende noodzaak om proactief te handelen in het licht van snel evoluerende bedreigingen. Het laat duidelijk zien dat Anthropic says its most powerful AI cyber model is too dangerous to release publicly — so it built Project Glasswing.

Waarom Anthropic een model bouwde dat het te gevaarlijk acht om publiekelijk vrij te geven

In het hart van Project Glasswing bevindt zich Claude Mythos Preview, een algemeen grensverleggend model waarvan Anthropic beweert dat het al duizenden kwetsbaarheden van hoge ernst heeft geïdentificeerd, inclusief zogeheten zero-days – tekortkomingen die voorheen onbekend waren bij softwareontwikkelaars. Deze kwetsbaarheden zijn gevonden in elk groot besturingssysteem, elke belangrijke webbrowser en diverse andere kritieke software. Het bedrijf heeft expliciet aangegeven het model niet algemeen beschikbaar te maken, een standpunt dat de uitzonderlijke aard van Mythos Preview onderstreept. Newton Cheng, Frontier Red Team Cyber Lead bij Anthropic, benadrukte in een exclusief interview dat ze "geen plannen hebben om Claude Mythos Preview algemeen beschikbaar te maken vanwege de cyberbeveiligingscapaciteiten." Hij voegde eraan toe dat, gezien de snelheid van AI-vooruitgang, dergelijke capaciteiten snel zullen prolifereren, mogelijk "voorbij actoren die zich inzetten om ze veilig in te zetten. De gevolgen – voor economieën, openbare veiligheid en nationale veiligheid – kunnen ernstig zijn."

De directheid van deze uitspraak, dat "de gevolgen ernstig kunnen zijn," is opvallend, vooral van het bedrijf dat het model heeft gecreëerd. Anthropic stelt effectief dat het hulpmiddel dat zij hebben ontwikkeld krachtig genoeg is om het cyberbeveiligingslandschap te hervormen, en dat de enige verantwoorde weg is om het beperkt te houden terwijl verdedigers een voorsprong krijgen. De technische resultaten van Mythos Preview ondersteunen deze bewering krachtig. Volgens Anthropic's persbericht was het model in staat om vrijwel alle kwetsbaarheden die het ontdekte, te vinden en vele gerelateerde exploits te ontwikkelen, volledig autonoom en zonder menselijke sturing. Drie voorbeelden illustreren de ongekende kracht van het model: het ontdekte een 27 jaar oude kwetsbaarheid in OpenBSD, een besturingssysteem dat algemeen wordt beschouwd als een van de meest veilig geharde ter wereld en vaak wordt gebruikt voor firewalls en kritieke infrastructuur. Deze kwetsbaarheid stelde een aanvaller in staat om elke machine met het OS op afstand te laten crashen door er simpelweg verbinding mee te maken. Het model ontdekte ook een 16 jaar oude kwetsbaarheid in FFmpeg, de bijna-overal aanwezige videocodering en -decodering bibliotheek, in een regel code die door geautomatiseerde testtools vijf miljoen keer was getest zonder ooit het probleem te detecteren. Misschien wel het meest alarmerend is dat Mythos Preview autonoom verschillende kwetsbaarheden in de Linux-kernel vond en aan elkaar koppelde om de toegang van een gewone gebruiker te escaleren naar volledige controle over de machine. Al deze kwetsbaarheden zijn gerapporteerd aan de relevante maintainers en inmiddels gepatcht. Voor andere kwetsbaarheden die nog in de remediëringsfase zitten, publiceert Anthropic cryptografische hashes van de details, met plannen om de specificaties te onthullen zodra fixes zijn geïmplementeerd, wat aangeeft dat Anthropic says its most powerful AI cyber model is too dangerous to release publicly — so it built Project Glasswing om een gecontroleerde en verantwoorde aanpak te garanderen. Op de CyberGym evaluatiebenchmark behaalde Mythos Preview een score van 83,1%, vergeleken met 66,6% voor Claude Opus 4.6, Anthropic's toenmalig beste model, wat de superioriteit van de nieuwe AI-capaciteiten benadrukt.

Hoe Anthropic duizenden zero-days wil onthullen zonder open-source maintainers te overweldigen

Het vinden van duizenden zero-day kwetsbaarheden tegelijk klinkt indrukwekkend. Het verantwoord afhandelen van de output is echter een logistieke nachtmerrie en een van de scherpste kritieken die beveiligingsonderzoekers hebben geuit over AI-gestuurde kwetsbaarheidsdetectie. Het overspoelen van open-source maintainers, van wie velen onbetaalde vrijwilligers zijn, met een lawine van kritieke bugrapporten zou gemakkelijk meer kwaad dan goed kunnen doen. Cheng legde uit dat Anthropic een triage-pipeline heeft gebouwd specifiek om dit probleem te beheersen. "We triageren elke bug die we vinden en sturen vervolgens de bugs met de hoogste ernst naar professionele menselijke triagers die we hebben ingehuurd om te helpen bij ons openbaarmakingsproces door elk bugrapport handmatig te valideren voordat we het versturen, om ervoor te zorgen dat we alleen hoogwaardige rapporten naar maintainers sturen," zei hij.

Deze pipeline is ontworpen om precies het scenario te voorkomen dat maintainers het meest vrezen: een geautomatiseerde stortvloed van ongeverifieerde rapporten. "We dienen geen grote hoeveelheden bevindingen in bij een enkel project zonder eerst contact op te nemen om tot een overeenstemming te komen over een tempo dat de maintainer kan volhouden," voegde Cheng toe. Wanneer Anthropic toegang heeft tot de broncode, streeft het bedrijf ernaar een kandidaatpatch bij elk rapport op te nemen, voorzien van een herkomstlabel – wat betekent dat de maintainer weet dat de patch door een model is geschreven of beoordeeld – en biedt aan om samen te werken aan een productieklaar fix. "Modellen kunnen patches schrijven," merkte Cheng op, "maar er zijn veel factoren die de patchkwaliteit beïnvloeden, en we raden ten zeerste aan dat autonoom geschreven patches onder dezelfde controle en testen worden geplaatst als door mensen geschreven patches." Met betrekking tot de openbaarmakingstermijnen volgt Anthropic een gecoördineerd kwetsbaarheidsopenbaarmakingskader. Zodra een patch beschikbaar is, wacht het bedrijf over het algemeen 45 dagen voordat de volledige technische details worden gepubliceerd, waardoor downstream-gebruikers tijd krijgen om de fix te implementeren voordat exploitatie-informatie openbaar wordt. Cheng zei dat het bedrijf die buffertijd kan verkorten "als de details al via andere kanalen publiekelijk bekend zijn, of als een eerdere publicatie verdedigers materieel zou helpen bij het identificeren en mitigeren van lopende aanvallen," of verlengen "wanneer de patch-implementatie ongewoon complex is of de getroffen voetafdruk ongewoon breed is." Dit alles draagt bij aan de bredere boodschap dat Anthropic says its most powerful AI cyber model is too dangerous to release publicly — so it built Project Glasswing met de grootste zorg en verantwoordelijkheid.

Deze principes zijn redelijk, maar ze zullen op een schaal worden getest die geen enkel kwetsbaarheidsopenbaarmakingsprogramma ooit heeft geprobeerd. Het enorme volume aan bevindingen – duizenden zero-days op elk groot platform – betekent dat zelfs een goed ontworpen triageproces te maken zal krijgen met knelpunten. En het 45-dagen openbaarmakingsvenster gaat ervan uit dat maintainers daadwerkelijk een patch in die tijd kunnen produceren, testen en verzenden, wat verre van gegarandeerd is voor complexe bugs op kernelniveau of diep ingebedde cryptografische fouten. De schaal van de uitdaging is immens, en het vermogen van Anthropic om deze processen effectief te beheren zal cruciaal zijn voor het succes van Project Glasswing. Het bewijst nogmaals dat Anthropic says its most powerful AI cyber model is too dangerous to release publicly — so it built Project Glasswing en neemt zijn verantwoordelijkheid serieus.

Het broncodelek, de CMS-blunder en waarom vertrouwen Anthropic's grootste kwetsbaarheid is

De ironie van een bedrijf dat beweert het meest capabele cybermodel ooit te hebben gebouwd, terwijl het tegelijkertijd te lijden heeft onder een reeks gênante beveiligingslekken, is waarnemers niet ontgaan. Eind maart werd een conceptblogpost over Mythos achtergelaten in een onbeveiligde en publiekelijk doorzoekbare gegevensopslag – een CMS-misconfiguratie die ongeveer 3.000 interne activa blootstelde, inclusief wat strategische plannen voor de uitrol van het model leken te zijn. Dagen later, op 31 maart, kon iedereen die npm install uitvoerde op Claude Code, de complete originele broncode van Anthropic – 512.000 regels – downloaden gedurende ongeveer drie uur als gevolg van een verpakkingsfout. Dit incident trok wijdverbreide aandacht in de ontwikkelaarsgemeenschap en werd voor het eerst gemeld door VentureBeat. De vraag is dus terecht: waarom zou men Anthropic vertrouwen als beheerder van een model dat het beschrijft als ongekende cybercapaciteiten, vooral gezien deze incidenten? Het feit dat Anthropic says its most powerful AI cyber model is too dangerous to release publicly — so it built Project Glasswing is belangrijk, maar de operationele uitvoering moet vlekkeloos zijn.

Toen hem werd gevraagd waarom partners en overheden Anthropic zouden moeten vertrouwen als de beheerder van een model dat het beschrijft als ongekende cybercapaciteiten, was Cheng direct. "Beveiliging staat centraal in hoe we bouwen en verzenden," vertelde hij VentureBeat. "Deze twee incidenten, een blog CMS-misconfiguratie en een npm-verpakkingsfout, waren menselijke fouten in publicatie-tools, geen inbreuken op onze beveiligingsarchitectuur. We hebben wijzigingen aangebracht om te voorkomen dat dit opnieuw gebeurt, en we zullen onze processen blijven verbeteren." Het is een technisch accurate onderscheiding – geen van beide incidenten betrof een inbreuk op Anthropic's kernmodelgewichten, trainingsinfrastructuur of API-systemen – maar het is ook een onderscheiding die moeilijk te handhaven kan blijken als een publiek argument. Voor een organisatie die regeringen en Fortune 500-bedrijven vraagt om het te vertrouwen met een hulpmiddel dat autonoom kwetsbaarheden in de Linux-kernel kan vinden en exploiteren, dragen zelfs kleine operationele fouten een buitensporig reputatierisico. Het feit dat het Mythos-lek zelf de beveiligingsgemeenschap voor het eerst op het bestaan van het model attendeerde, weken voor de geplande aankondiging, onderstreept dit punt. Het laat zien dat, hoewel Anthropic says its most powerful AI cyber model is too dangerous to release publicly — so it built Project Glasswing, het handhaven van operationele excellentie net zo cruciaal is.

Wat Microsoft, CrowdStrike en de Linux Foundation vonden toen ze het model testten

De breedte van de coalitie is opmerkelijk. Het omvat directe concurrenten – Google en Microsoft – naast gevestigde cybersecurity-bedrijven, financiële instellingen en de beheerder van 's werelds grootste open-source ecosysteem, de Linux Foundation. Verschillende partners hebben Mythos Preview al wekenlang tegen hun eigen infrastructuur getest. Elia Zaitsev, CTO van CrowdStrike, beschreef het initiatief in termen van instortende tijdlijnen: "Het venster tussen het ontdekken van een kwetsbaarheid en het exploiteren ervan door een tegenstander is ingestort – wat eens maanden duurde, gebeurt nu in minuten met AI." Amy Herzog, Vice President en CISO van AWS, zei dat haar teams Mythos Preview al hebben getest tegen kritieke codebases, waar het model "ons al helpt onze code te versterken." En Igor Tsyganskiy, Global CISO van Microsoft, merkte op dat wanneer getest tegen CTI-REALM, Microsoft's open-source beveiligingsbenchmark, "Claude Mythos Preview substantiële verbeteringen liet zien vergeleken met eerdere modellen." Dit zijn krachtige getuigenissen die bevestigen dat Anthropic says its most powerful AI cyber model is too dangerous to release publicly — so it built Project Glasswing met aanzienlijke resultaten.

Misschien wel de meest veelzeggende opmerking kwam van Jim Zemlin, CEO van de Linux Foundation, die wees op de fundamentele asymmetrie die de open-source beveiliging al decennia teistert: "In het verleden was beveiligingsexpertise een luxe gereserveerd voor organisaties met grote beveiligingsteams. Open-source maintainers – wiens software veel van de kritieke infrastructuur van de wereld ondersteunt – moesten historisch gezien zelf uitzoeken hoe ze met beveiliging moesten omgaan." Project Glasswing, zei hij, "biedt een geloofwaardige weg om die vergelijking te veranderen." Om deze claim met dollars te ondersteunen, heeft Anthropic aangekondigd $2,5 miljoen te hebben gedoneerd aan Alpha-Omega en OpenSSF via de Linux Foundation, en $1,5 miljoen aan de Apache Software Foundation. Maintainers die geïnteresseerd zijn in toegang kunnen zich aanmelden via Anthropic's Claude for Open Source programma. De collectieve inspanning en de investeringen onderstrepen de urgentie en het potentieel van dit project, en benadrukken opnieuw dat Anthropic says its most powerful AI cyber model is too dangerous to release publicly — so it built Project Glasswing als een wereldwijde oplossing.

Binnen de prijsstelling, de computedeal en Anthropic's pad naar een mogelijke IPO

Na de onderzoeks preview-periode – waarin Anthropic's $100 miljoen aan credits de meeste gebruikskosten zal dekken – zal Claude Mythos Preview beschikbaar zijn voor deelnemers voor $25 per miljoen invoertokens en $125 per miljoen uitvoertokens. Deelnemers hebben toegang tot het model via de Claude API, Amazon Bedrock, Google Cloud's Vertex AI, en Microsoft Foundry. Deze prijzen weerspiegelen de computationele intensiteit van het model. De conceptblogpost die in maart lekte, beschreef Mythos als een groot, compute-intensief model dat duur zou zijn voor zowel Anthropic als haar klanten om te hosten. Anthropic's oplossing is om nieuwe beveiligingsmaatregelen te ontwikkelen en te lanceren met een aanstaande Claude Opus-model, waardoor het bedrijf ze "kan verbeteren en verfijnen met een model dat niet hetzelfde risiconiveau vormt als Mythos Preview," zoals Cheng aan VentureBeat vertelde. Beveiligingsprofessionals wier legitieme werk wordt beïnvloed door die beveiligingsmaatregelen, zullen zich kunnen aanmelden voor een aanstaand Cyber Verification Program. Het toont de zorgvuldige, gelaagde aanpak van een bedrijf dat weet dat Anthropic says its most powerful AI cyber model is too dangerous to release publicly — so it built Project Glasswing en de implicaties daarvan.

De financiële context is van belang. Op dezelfde dag dat Project Glasswing werd gelanceerd, maakte Anthropic zijn omzetmijlpaal en de Google-Broadcom computedeal bekend. Broadcom tekende een uitgebreide deal met Anthropic die de AI-startup toegang zal geven tot ongeveer 3,5 gigawatt aan rekenkracht, gebruikmakend van Google's AI-processors. De schaal van de gemobiliseerde rekenkracht is verbazingwekkend – en het verklaart waarom Anthropic zowel de inkomsten uit zakelijke cybersecurity-partnerschappen als de infrastructuur nodig heeft om een model van de omvang van Mythos Preview te ondersteunen. De timing kruist ook met toenemende speculatie over Anthropic's pad naar een beursgang. Het bedrijf evalueert naar verluidt een IPO al in oktober 2026. Een spraakmakend, overheidsgerelateerd cybersecurity-initiatief met blue-chip partners is precies het soort programma dat een IPO-narratief verfraait – vooral wanneer het bedrijf tegelijkertijd kan wijzen op $30 miljard aan geannualiseerde inkomsten en een compute-voetafdruk gemeten in gigawatts. Dit alles ondersteunt de noodzaak om te begrijpen dat Anthropic says its most powerful AI cyber model is too dangerous to release publicly — so it built Project Glasswing, en dat dit strategisch van groot belang is voor de toekomst van het bedrijf.

Anthropic zegt dat verdedigers maanden, geen jaren, hebben voordat tegenstanders bijbenen

De meest cruciale vraag die door Project Glasswing wordt opgeworpen, is niet of de capaciteiten van Mythos Preview echt zijn – de partnerondersteuning en gepatchte kwetsbaarheden suggereren van wel – maar hoeveel tijd verdedigers daadwerkelijk hebben voordat vergelijkbare capaciteiten beschikbaar zijn voor tegenstanders. Cheng was openhartig over de tijdlijn. "Frontier AI-capaciteiten zullen waarschijnlijk aanzienlijk vooruitgaan in slechts de komende maanden," vertelde hij VentureBeat. "Gezien de snelheid van AI-vooruitgang, zal het niet lang duren voordat dergelijke capaciteiten prolifereren, mogelijk voorbij actoren die zich inzetten om ze veilig in te zetten." Hij beschreef Project Glasswing als "een belangrijke stap naar het geven van verdedigers een duurzaam voordeel in het komende AI-gestuurde tijdperk van cybersecurity," maar voegde een cruciale waarschuwing toe: "Het is belangrijk op te merken, dit is een startpunt. Geen enkele organisatie kan deze cybersecurity-problemen alleen oplossen." Deze duidelijke framing – maanden, niet jaren – verdient het om serieus te worden genomen. Het versterkt het idee dat Anthropic says its most powerful AI cyber model is too dangerous to release publicly — so it built Project Glasswing om een directe en urgente impact te maken.

DARPA lanceerde in 2016 haar originele Cyber Grand Challenge, een wedstrijd om automatische defensieve systemen te creëren die in staat waren om te redeneren over tekortkomingen, patches te formuleren en ze in realtime op een netwerk te implementeren. Destijds eindigde de winnende AI-aangedreven bot, Mayhem, als laatste toen het werd geplaatst tegen menselijke teams op DEF CON. Een decennium later beweert Anthropic dat een grensverleggend AI-model kwetsbaarheden kan vinden die 27 jaar menselijke expertbeoordeling en miljoenen geautomatiseerde beveiligingstests hebben overleefd – en exploits autonoom kan koppelen om volledige systeemcompromis te bereiken. Het verschil tussen die twee datapunten illustreert waarom de industrie dit als een echt keerpunt beschouwt, geen marketingoefening. Anthropic zelf heeft ervaring uit de eerste hand met de aanvallende kant van deze vergelijking: het bedrijf onthulde in november 2025 dat een door de Chinese staat gesponsorde groep 80 tot 90 procent autonome tactische uitvoering bereikte met Claude op ongeveer 30 doelwitten, volgens Anthropic's misbruikrapport. Dit onderstreept de noodzaak dat Anthropic says its most powerful AI cyber model is too dangerous to release publicly — so it built Project Glasswing om een proactieve verdediging te bieden.

Project Glasswing arriveert tijdens een van de meest turbulente weken in de geschiedenis van Anthropic. Binnen enkele dagen heeft het bedrijf een model aangekondigd dat het te gevaarlijk acht voor publieke vrijgave, onthuld dat de omzet is verdrievoudigd, een multigigawatt computedeal gesloten, een senior Microsoft-executive aangenomen, het duurder gemaakt voor Claude Code-abonnees om tools van derden zoals OpenClaw te gebruiken, en een grote storing van de Claude chatbot op dinsdagochtend doorstaan. Anthropic zegt dat het binnen 90 dagen publiekelijk zal rapporteren over wat het heeft geleerd. Op middellange termijn heeft het bedrijf voorgesteld dat een onafhankelijk, extern orgaan de ideale plek zou kunnen zijn voor voortzetting van het werk aan grootschalige cybersecurity-projecten. Of dat allemaal snel genoeg is, hangt af van een race die al aan de gang is. Anthropic bouwde een model dat autonoom de meest geharde besturingssystemen ter wereld kan kraken – en wedt er nu op dat het delen ervan met verdedigers, onder zorgvuldige beperkingen, meer goed zal doen dan het onvermijdelijke moment waarop vergelijkbare capaciteiten in minder zorgvuldige handen terechtkomen. Het is in wezen een weddenschap dat transparantie de proliferatie kan overtreffen. De komende maanden zullen bepalen of die weddenschap vruchten afwerpt, of dat de vleugels van de Glasswing nooit ondoorzichtig genoeg waren om te verbergen wat komen ging. Het draait allemaal om het feit dat Anthropic says its most powerful AI cyber model is too dangerous to release publicly — so it built Project Glasswing om de digitale wereld veiliger te maken, maar de uitdagingen zijn enorm.

Veelgestelde Vragen over Project Glasswing

1. Wat is Project Glasswing en waarom heeft Anthropic het gelanceerd?

Project Glasswing is een grootschalig cybersecurity-initiatief van Anthropic, dat hun onuitgebrachte, krachtige AI-model Claude Mythos Preview combineert met een coalitie van grote tech- en financiële bedrijven. Anthropic lanceerde het project omdat Anthropic says its most powerful AI cyber model is too dangerous to release publicly — so it built Project Glasswing, en ziet het als een cruciale stap om verdedigers een voorsprong te geven bij het vinden en patchen van softwarekwetsbaarheden in kritieke infrastructuur, voordat kwaadwillende actoren deze kunnen misbruiken. Het model is in staat om autonoom duizenden zero-day kwetsbaarheden te vinden, maar het potentiële risico van wijdverspreide toegang rechtvaardigt de beperkte uitrol.

2. Waarom wordt Claude Mythos Preview niet publiekelijk vrijgegeven?

Claude Mythos Preview wordt niet publiekelijk vrijgegeven omdat Anthropic het model zelf als te gevaarlijk beschouwt. Het bedrijf stelt dat Anthropic says its most powerful AI cyber model is too dangerous to release publicly — so it built Project Glasswing om defensieve doeleinden. De ongekende capaciteiten van het model om kwetsbaarheden te ontdekken en exploits te ontwikkelen, houden een aanzienlijk risico in als het in verkeerde handen valt. Door het model te beperken tot een gecontroleerde coalitie van verdedigers, hoopt Anthropic een "hoofdstart" te creëren tegen de snelle proliferatie van geavanceerde AI-gestuurde cyberaanvalscapaciteiten.

3. Hoe waarborgt Anthropic de verantwoorde omgang met de gevonden kwetsbaarheden?

Anthropic heeft een uitgebreid triage- en openbaarmakingsproces opgezet om een verantwoorde omgang met de duizenden gevonden kwetsbaarheden te waarborgen. Dit omvat het handmatig valideren van bugrapporten door professionele triagers, het vermijden van overweldigende open-source maintainers met te veel rapporten tegelijk, en het aanbieden van kandidaatpatches (geproduceerd door AI) voor samenwerking. Bovendien volgt Anthropic een gecoördineerd openbaarmakingskader, waarbij doorgaans 45 dagen wordt gewacht na het beschikbaar komen van een patch voordat volledige technische details publiek worden gemaakt. Deze zorgvuldige aanpak benadrukt dat Anthropic says its most powerful AI cyber model is too dangerous to release publicly — so it built Project Glasswing met een diep besef van de inherente risico's.


De digitale toekomst wordt gevormd door innovatie en de strijd om veiligheid. Terwijl geavanceerde AI-modellen zoals Claude Mythos Preview de grenzen van cybersecurity verleggen, blijft er een fundamentele behoefte aan betrouwbare en veilige digitale diensten voor het dagelijks leven. Wilt u genieten van een wereld vol entertainment en informatie, zonder compromissen op het gebied van kwaliteit en gebruiksgemak? Ontdek vandaag nog de mogelijkheden.

Klaar om de ultieme entertainmentervaring te beleven? Bezoek onze website en IPTV kopen voor een naadloze en veilige toegang tot een ongekend aanbod aan zenders, films en series. Wij bieden topkwaliteit IPTV-abonnementen die speciaal zijn ontworpen om aan al uw behoeften te voldoen. Ervaar het gemak van premium entertainment, waar en wanneer u maar wilt, met de zekerheid van een betrouwbare aanbieder.

Nieuwer Ouder