TL;DR. Op 9 mei 2026 werd OncoAgent gepubliceerd op Hugging Face in het kader van de lablab.ai AMD developer hackathon. Het is een dual-tier multi-agent framework voor privacybehoud bij klinische beslissingsondersteuning in de oncologie. De architectuur maakt gegevensbescherming structureel — geen configureerbare parameter, maar het skelet. Een blauwdruk die toepasbaar is op elk AI-project in een gereguleerde sector.
Het probleem: oncologie combineert de zwaarste beperkingen voor AI
Klinische beslissingsondersteuning in de oncologie is een van de meest veelbelovende toepassingen van AI in de geneeskunde — en tegelijk een van de moeilijkste om te implementeren. Oncologen werken met groeiende volumes heterogene gegevens: beeldvorming, genomica, biomarkers, behandelingsgeschiedenissen. Een systeem dat deze gegevens kruist om een protocol aan te bevelen of een therapeutische resistentie te signaleren, biedt reële klinische meerwaarde.
Maar elk betrokken datapunt is persoonlijk, gevoelig en wettelijk beschermd. Onder de Europese regelgeving valt gezondheidsdata in de bijzondere categorie van de AVG. Onder de EU AI Act worden medische beslissingsondersteunende systemen als hoog-risico geclassificeerd — wat traceerbaarheid, menselijk toezicht en strikte gegevensbeveiliging verplicht maakt. De meeste AI-architecturen op basis van cloud-taalmodellen voldoen hier standaard niet aan. Dat is het probleem dat OncoAgent, zoals gedocumenteerd in de officiële publicatie op Hugging Face, aan de bron wil oplossen.
Diezelfde week wijdde ElevenLabs een volledig webinar aan het bouwen van veilige AI-agents voor enterprise-implementatie — een signaal dat veiligheid bij AI-uitrol geen exclusief medisch vraagstuk is.
De gekozen architectuur: dual-tier en multi-agent om blootstelling te beperken
Volgens de op 9 mei 2026 gepubliceerde documentatie rust het framework op twee structurele keuzes.
De eerste is de dual-tier architectuur: twee afzonderlijke verwerkingsniveaus in plaats van één monolithische agent. Deze scheiding impliceert — conform de logica van dit type ontwerp — dat gevoelige gegevens niet door een gecentraliseerde laag hoeven te gaan. Elk niveau heeft afgebakende verantwoordelijkheden, wat het blootstellingsoppervlak verkleint en compliance-audits beheersbaar maakt.
De tweede keuze is het multi-agent ontwerp: gespecialiseerde agents werken samen aan een klinische query, in plaats van één generalistische agent die de volledige aanvraag verwerkt. Deze specialisatie beperkt de informatiestroom per agent, vermindert het risico op gegevenslekken en maakt gerichte supervisie mogelijk.
Het volledige framework wordt in de gepubliceerde documentatie beschreven als privacy-preserving — een term die systemen aanduidt waarbij gegevensbescherming een structurele eigenschap is, geen configureerbare instelling.
De geaccepteerde compromissen
Een dual-tier multi-agent architectuur kent duidelijke compromissen ten opzichte van een directe cloud API-integratie.
Operationele complexiteit is hoger: het coördineren van gespecialiseerde agents vereist een orkestratielaag, mechanismen voor contextoverdracht tussen agents en synchronisatieprotocollen. De implementatie- en onderhoudskosten overtreffen die van een directe API-aanroep naar een gehost model.
Latentie kan toenemen: sequentiële of parallelle aanroepen over meerdere agents voegen verwerkingstijd toe. In klinische omgevingen waar beslissingen tijdens consultaties worden genomen, is dit een parameter die zorgvuldig gekalibreerd moet worden.
Het compromis is bewust. AVG-compliance en de vereisten van de EU AI Act zijn ingebouwd in het ontwerp, niet achteraf toegevoegd. Dit elimineert de compliance-schuld die organisaties ophopen wanneer ze eerst implementeren en daarna proberen te corrigeren.
De resultaten: een ambitieus prototype
OncoAgent werd gepresenteerd in het kader van de lablab.ai AMD developer hackathon. De op Hugging Face gepubliceerde documentatie beschrijft het framework en de architectuur — nog geen resultaten van gecontroleerde klinische studies. Het betreft een ambitieus prototype: bedoeld om de haalbaarheid van conforme oncologie-AI-implementatie aan te tonen, nog niet voor productie in ziekenhuizen op schaal.
Dat neemt de relevantie ervan niet weg. Referentiearchitecturen ontstaan regelmatig in demonstratiecontexten voordat ze geïndustrialiseerd worden. Voor organisaties die op zoek zijn naar een reproduceerbaar model, is een goed gedocumenteerd framework vaak direct bruikbaarder dan klinische resultaten die nog maanden op publicatie wachten.
Drie lessen die breder toepasbaar zijn
- Compliance als architecturele beperking, niet als post-implementatie audit. OncoAgent bouwt gegevensbescherming in vanaf dag één. In financiën, HR of publieke diensten vermijdt deze aanpak kostbare aanpassingen achteraf.
- Agentspecialisatie verkleint het risicooppervlak. Een generalistische agent met toegang tot een volledig dossier stelt andere risico's dan een gespecialiseerde agent die slechts een gegevenssubset verwerkt. Toegangsgranulariteit is een compliance-hefboom, niet louter een prestatiekeuze.
- De dual-tier structuur maakt auditing beheersbaar. Het scheiden van orkestratie en inferentie maakt nauwkeurig bijhouden mogelijk van welke gegevens waarheen zijn gegaan. Dit is een direct operationeel voordeel voor elke organisatie die onderworpen is aan rapportageverplichtingen of regelgevende controles.
Drie hefbomen voor uw organisatie
- Breng uw AI-toepassingen in kaart volgens gegevensgevoeligheid voordat u een architectuur kiest. Niet elk gebruik vereist een multi-agent framework — maar elk gebruik met bijzondere categorieën gegevens verdient een specifieke architectuurbeoordeling.
- Test het dual-tier patroon op een interne, laag-risico toepassing. Het scheiden van de orkestratielaag van de inferentielaag is realiseerbaar met open-source tools — LangGraph, CrewAI — zonder te wachten op een commerciële kant-en-klare oplossing.
- Betrek uw DPO of juridisch adviseur bij de architectuurfase, niet bij de eindvalidatie. OncoAgent laat zien dat privacybeperkingen het best beheerd worden wanneer ze van bij het begin worden vertaald in technische beperkingen.
In uw organisatie: is gegevensprivacy een ontwerpbeperking of een validatiepunt?
Spreekt deze analyse u aan? Ik publiceer elke dag een stuk van dit kaliber over digitale innovatie en enterprise AI. 👉 Ontvang de volgende rechtstreeks in uw mailbox — inschrijven duurt tien seconden, en elke editie wordt vóór 9 uur gelezen door leiders van Belgische kmo's, mid-caps en instellingen.