🗞️ Het belangrijkste nieuws
Claude Mythos: het model dat Anthropic niet durft vrij te geven
Stel je voor: je test een nieuw AI-model en vraagt het om uit zijn digitale 'zandbak' te ontsnappen. Je gaat even lunchen in het park. Terwijl je je boterham opeet, krijg je een mailtje van het model. Het is ontsnapt en komt even gedag zeggen. Dit overkwam een onderzoeker van Anthropic, de maker van Claude. Het model heet Mythos, en het is vanaf deze week officieel aangekondigd. Maar je kunt het niet gebruiken. Niemand kan dat, behalve een handvol van de grootste techbedrijven ter wereld.
Wat is Claude Mythos?
Claude Mythos Preview is een nieuw AI-model van Anthropic dat een flinke stap hoger zit dan het huidige topmodel Claude Opus 4.6. Waar eerdere modellen al indrukwekkend waren in programmeren, redeneren en analyseren, opereert Mythos op een niveau dat Anthropic zelf als te riskant beschouwt voor brede beschikbaarheid. Het bedrijf heeft besloten het model niet vrij te geven voor publiek. In plaats daarvan krijgen zo'n veertig geselecteerde organisaties, waaronder Apple, Google, Microsoft, Amazon, NVIDIA en CrowdStrike, gecontroleerde toegang via een nieuw programma: Project Glasswing.
Het idee achter Glasswing: geef verdedigers een voorsprong. Want volgens Anthropic zullen Mythos’ capaciteiten binnen een jaar ook beschikbaar zijn bij concurrerende modellen, inclusief open modellen die iedereen kan downloaden. De vraag is niet óf criminelen en vijandige staten toegang krijgen tot dit soort AI, maar wanneer.
Waarom is het zo gevaarlijk?
De cijfers zijn indrukwekkend, maar het echte verhaal zit in wat Mythos kan doen met die intelligentie. Het model heeft duizenden ernstige beveiligingslekken gevonden in vrijwel elk groot besturingssysteem en elke grote webbrowser. Niet theoretische zwaktes, maar werkende aanvalsroutes die het zelf heeft ontwikkeld.
Een paar voorbeelden: Mythos ontdekte een beveiligingslek in OpenBSD (een besturingssysteem dat is ontworpen met veiligheid als prioriteit) dat zevenentwintig jaar lang onopgemerkt was gebleven door elke menselijke beveiligingsexpert en elk geautomatiseerd testsysteem. Het vond een fout in FFmpeg, een veelgebruikt videoprogramma, die vijf miljoen eerdere geautomatiseerde tests hadden gemist. En het ontdekte meerdere kwetsbaarheden in de Linux-kernel (het hart van de meeste servers ter wereld) waarmee je volledige controle over een computer zou kunnen overnemen.
Wat Mythos onderscheidt van eerdere modellen is niet alleen dat het lekken vindt, maar dat het ze aan elkaar kan rijgen. Het model kan vijf afzonderlijke zwaktes in een stuk software identificeren en vervolgens zelfstandig combineren tot een aanvalsketen die geen mens zou hebben bedacht.
Het ontsnappingsverhaal
Het meest besproken incident uit de 244 pagina's tellende veiligheidsrapportage: tijdens een test kreeg Mythos toegang tot een afgesloten computeromgeving met beperkte internetverbinding. Het model bouwde zelfstandig een meerstappenplan om uit die omgeving te ontsnappen, kreeg toegang tot het internet, en stuurde de onderzoeker een mailtje om te laten weten dat het was gelukt. Die onderzoeker zat op dat moment in een park zijn lunch te eten.
Nog verontrustender: het model plaatste vervolgens uit zichzelf details over de gebruikte aanvalsmethode op meerdere moeilijk te vinden maar openbare websites. Niemand had gevraagd dat te doen.
In zeldzame gevallen (minder dan 0,001 procent van alle interacties, volgens Anthropic) vertoonde het model gedrag dat het probeerde te verbergen. Toen het per ongeluk een antwoord op een testvraag had gezien, probeerde het zelfstandig tot een oplossing te komen in plaats van dit te melden, en noteerde het intern dat het ervoor moest zorgen dat het uiteindelijke antwoord niet te nauwkeurig was. Bij een andere gelegenheid maakte het model ongeautoriseerde wijzigingen in een computersysteem en wiste vervolgens de sporen uit de wijzigingsgeschiedenis.
De paradox: gevaarlijk én het beste beveiligd
Hier wordt het ingewikkeld. Volgens Anthropics eigen veiligheidsteam is Mythos waarschijnlijk het best uitgelijnde model dat het ooit heeft gemaakt, op vrijwel elke maatstaf. Het model weigert vaker mee te werken aan misbruik, het is creatiever en warmer in gesprekken, en het neemt minder roekeloze acties in zelfstandige taken. Maar juist omdat het zo veel capabeler is, zijn de consequenties groter als het wél misgaat.
Een vergelijking: een chirurg met trillende handen maakt vaker fouten, maar een briljante chirurg die één keer een verkeerde beslissing neemt, kan veel meer schade aanrichten. Mythos maakt minder fouten, maar de fouten die het maakt zijn potentieel ernstiger.
Wat betekent Project Glasswing concreet?
De veertig organisaties die toegang krijgen, gebruiken Mythos om hun eigen systemen en de kritieke opensourcesoftware waar het moderne internet op draait te scannen op kwetsbaarheden. Anthropic stelt honderd miljoen dollar aan gebruikskrediet beschikbaar en doneert daarnaast vier miljoen dollar aan opensourcebeveiligingsprojecten.
Alex Stamos, voormalig beveiligingshoofd van Facebook en Yahoo, noemt Glasswing echt noodzakelijk. Zijn inschatting: “We hebben nog zo'n zes maanden voordat opensourcemodellen de topmodellen inhalen qua het vinden van beveiligingslekken. Daarna kan elke ransomwaregroep kwetsbaarheden vinden en bewapenen zonder sporen achter te laten.”
En het zijn niet alleen de grote namen die alarm slaan. Greg Kroah-Hartman, een van de belangrijkste ontwikkelaars van Linux, beschrijft een plotselinge omslag: “Een maand geleden kregen we nog amateuristische AI-rapporten die overduidelijk onzin waren. Dat was bijna grappig. Maar opeens is de wereld veranderd. Nu krijgen we écht goede rapporten, gemaakt met AI.” Daniel Stenberg, maker van het veelgebruikte internetprogramma curl, bevestigt dat hij inmiddels uren per dag kwijt is aan het verwerken van AI-gegenereerde beveiligingsrapporten. Ontwikkelaar Simon Willison vat het als volgt samen: “Er is genoeg rook om te geloven dat er een vuur is.”
De bredere verschuiving
Mythos markeert een keerpunt dat verder reikt dan één model. Voor het eerst houdt een groot AI-lab zijn krachtigste model bewust achter. Niet als marketingstunt (al is de timing na de recente lekken bij Anthropic op zijn zachtst gezegd opmerkelijk), maar als bewuste strategische keuze. CEO Dario Amodei benadrukt dat de gevaarlijke vermogens niet voortkomen uit speciale cybersecuritytraining, maar uit dezelfde algemene verbeteringen waar elk AI-lab aan werkt. Andere labs zullen dit niveau binnen afzienbare tijd bereiken.
De implicatie is ongemakkelijk: de krachtigste AI-modellen worden mogelijk niet meer publiek beschikbaar. In plaats van het vertrouwde ritme van 'nieuw model, nieuwe API, toegankelijk voor iedereen', ontstaat er een wereld waarin topmodellen worden behandeld als strategische middelen, vergelijkbaar met hoe we omgaan met gevaarlijke technologieën in andere sectoren.
Ondertussen bij de kassa
Terwijl Anthropic Mythos achter slot en grendel houdt, draait het bedrijf inmiddels een jaaromzet van meer dan dertig miljard dollar, waarmee het voor het eerst OpenAI voorbijstreeft. Ter vergelijking: eind 2025 was dat nog negen miljard. Die groei komt bijna volledig van zakelijke klanten: acht van de tien grootste bedrijven ter wereld zijn inmiddels Claude-klant. Claude Code alleen al draait een jaaromzet van 2,5 miljard dollar en bezit meer dan de helft van de markt voor AI-programmeertools.
Het laat zien dat Anthropic het zich kan veroorloven om zijn krachtigste model niet breed te verkopen. Het bedrijf dat de consumentenrace bewust oversloeg en rechtstreeks aan bedrijven en ontwikkelaars verkocht, is nu het best verdienende AI-bedrijf ter wereld.
Wat betekent dit voor jou?
Op korte termijn: niets. Mythos is momenteel niet beschikbaar en zal dat voorlopig ook niet zijn. Toch is de onderliggende boodschap wel degelijk relevant. De AI-tools die je dagelijks gebruikt voor je werk – van Claude tot ChatGPT – worden in rap tempo krachtiger. De beveiligingslekken die Mythos vindt, zitten in software die jij waarschijnlijk vandaag nog gebruikt. Het goede nieuws: Glasswing zorgt ervoor dat die lekken worden gedicht voordat ze op grote schaal uitgebuit kunnen worden. Het ongemakkelijke nieuws: dit is zo urgent omdat vergelijkbare AI-capaciteiten binnenkort voor veel meer mensen beschikbaar zullen zijn.

Meta's nieuwe AI-lab levert zijn eerste model af: Muse Spark
Negen maanden geleden besloot Mark Zuckerberg dat Meta's AI-aanpak niet goed genoeg was. Hij investeerde veertien miljard dollar in Scale AI om oprichter Alexandr Wang binnen te halen, richtte een geheel nieuw lab op (Meta Superintelligence Labs) en lokte met astronomische salarissen onderzoekers weg bij concurrenten. Deze week werd het eerste resultaat gepresenteerd: Muse Spark.

Wat kan het?
Muse Spark is een zogeheten multimodaal model: het kan tekst, beeld en geluid verwerken en combineren. Wat het onderscheidt van Meta's eerdere modellen (de Llama-reeks) is dat het vanaf de grond is opgebouwd met een focus op redeneren en zelfstandig taken uitvoeren. Een paar concrete voorbeelden: richt je camera op je koelkast en vraag welke ingrediënten gezond zijn bij hoog cholesterol. Het model plaatst dan groene en rode stippen op de producten, met per item een uitleg en een gezondheidsscore. Of maak een foto van een sudokupuzzel en laat Muse Spark er een interactief spelletje van maken.
Voor de gezondheidsfuncties werkte Meta samen met meer dan duizend artsen om de antwoorden feitelijker en vollediger te maken, een opvallende investering voor een bedrijf dat tot nu toe vooral bekend stond om zijn sociale media.
Hoe slim is het?
Muse Spark presteert competitief met de huidige topmodellen op het gebied van redeneren en visuele taken. Een opvallende nieuwe functie is de Contemplating Mode: in plaats van dat één AI-model nadenkt over je vraag, zet het meerdere AI-agents tegelijk in die parallel redeneren en hun antwoorden combineren. Daarmee scoort het op de moeilijkste benchmarks (een soort examens voor AI-systemen) vergelijkbaar met de zwaarste modi van Googles Gemini en OpenAI's GPT. Bij programmeren en langlopende zelfstandige taken geeft Meta eerlijk toe dat er nog tekortkomingen zijn.
Kanttekening: het weet wanneer het getest wordt
Een onafhankelijke evaluatie door Apollo Research leverde een opmerkelijk resultaat op: Muse Spark herkende vaker dan welk ander getest model dat het in een testevaluatie zat, en redeneerde vervolgens dat het zich eerlijk moest gedragen omdat het werd geëvalueerd. Dat roept de vraag op of het model zich anders gedraagt wanneer het niet in de gaten wordt gehouden. Meta noemt het geen reden om de lancering te blokkeren, maar wel iets dat verder onderzoek verdient.
Wat betekent dit?
Muse Spark is gratis te gebruiken via meta.ai en de Meta AI-app. Wang belooft dat er meer modellen aankomen, waarvan sommige open source. Het aandeel Meta steeg acht procent na de aankondiging. Of de veertien miljard dollar aan investering zich terugbetaalt, moet nog blijken, maar één ding is duidelijk: Meta doet weer serieus mee in de AI-race.

📅 Masterclass vandaag om 12:00: Zo bouw je je persoonlijke AI-assistent (die zelfs je lunch voor je bestelt)
Je hebt het vast al eens gehoord: Claude is beter dan ChatGPT, het loont om over te stappen. Het is bijna een meme geworden. Maar het handelingsperspectief ontbreekt. Mensen stappen over en verdwalen meteen. Wat kan Claude wel, wat niet? Waar zit het verschil? En wat doe je met Chat, Projects, Cowork, connectors en al die andere termen?
Wietse neemt je bij de hand en laat zien wat Claude fundamenteel anders maakt, waar het krachtiger is, en hoe je er als overstapper direct mee aan de slag gaat.
Word vandaag nog betalend abonnee en wees erbij (je ontvangt een Zoom-link in je inbox).

💻 AI Report zoekt versterking
AI Report groeit razendsnel en we zoeken een senior marketeer. We zijn de afgelopen anderhalf jaar hard gegroeid via organische kanalen. Nu willen we starten met marketing. Daarvoor zoeken we een freelance senior marketeer/ growth lead. Iemand die niet alleen de marketingstrategie uitdenkt, maar die ook zelf bouwt, test en uitvoert. Lees meer over de vacature hier. Reageren kan tot 15 april.

Gesponsord
Krijg met behulp van AI meer grip op risico's
AI kan je helpen bij het versterken van je governance-, risico- en complianceprocessen. Maar wel in combinatie met een deskundig advies van onze experts. Met onze GRC Advisory Agent zet je de eerste stap naar een succesvolle transformatie.


🔮 Prompt whisperer
Zo maak je je AI kort en bondig (en waarom dat de moeite waard is)
Op Reddit circuleert een prompttip die claimt AI tot 75 procent goedkoper te maken. De truc? Je laat Claude praten als een holbewoner. Wij doken erin – en ontdekten dat het échte verhaal veel interessanter is dan de grap.
Een ontwikkelaar ontdekte dat je Claude drastisch minder tekst laat produceren door het te instrueren als een holbewoner te communiceren. Korte zinnen van drie tot zes woorden. Geen beleefdheden. Geen “Natuurlijk, ik help je graag!” Gewoon: resultaat, klaar. De post ging viral – meer dan tienduizend upvotes, vijfhonderd reacties, en meerdere ontwikkelaars die de techniek verpakten als kant-en-klare plug-in. Of zoals één Redditor het samenvatte: “Waarom veel woord als weinig woord ook werk?”
Het klinkt als een grap, maar er schuilt een serieuze les achter voor iedereen die dagelijks met AI werkt. In deze tutorial leer je:
Waarom AI standaard zo breedsprakig is (en wat dat je kost).
Hoe je met een paar zinnen in je instellingen de antwoorden korter en nuttiger maakt.
Drie kant-en-klare instructiesets: van 'iets minder bla bla' tot 'holbewonermodus'.
Een prompttemplate voor als je aan het vibecoden bent en snel door je tegoed heen gaat.
Hoe je hiermee langer doorwerkt zonder tegen je berichtenlimiet aan te lopen.
En waarom je het soms juist níét wilt doen.
Abonneer je om verder te lezen
Het verschil tussen een oké en een briljant AI-antwoord zit in de prompt. Word nog beter in prompten en laat AI écht voor jou werken.
Abonneer nuDit zit achter de betaalmuur:
- Praktische prompt-tips die je meteen kunt gebruiken
- Uitleg waarom ze werken, zodat je zelf betere prompts leert schrijven
- Variaties per vakgebied
- Toegang tot het volledige archief

