OpenAI en Anthropic laten zien dat hun rivaliteit springlevend is, nu op misschien wel het gevoeligste domein denkbaar: onze gezondheid. Op 7 januari lanceerde OpenAI ChatGPT Health: een aparte omgeving binnen ChatGPT voor gezondheids- en wellnessvragen, met koppeling van gezondheidsdata zoals Apple Health en medische dossiers. Nog geen week later kondigde Anthropic Claude for Healthcare aan, met vergelijkbare koppelingen en een duidelijke focus op zowel consumenten als zorgorganisaties. Ik zie hierin een poging van beiden om de interface te worden tussen burger, zorgprofessional en de data die daartussen stroomt.
Juridisch gezien is dit meteen een mijnenveld. Deze tools leggen verbinding met gezondheidsdata: bijzondere persoonsgegevens met zware eisen aan grondslag, doelbinding, dataminimalisatie, transparantie, bewaartermijnen, beveiliging en (internationaal) delen. Hoewel beide aanbieders benadrukken dat Health-chats en gekoppelde health data niet worden gebruikt om hun foundation models te trainen, gebruiken ze het wel voor productverbetering. Dan is de kernvraag: wat wordt gelogd, wat valt onder productverbetering, hoe toetsbaar is die belofte en wie houdt toezicht?
Als nuance verdwijnt in het antwoord
Large Language Models (LLM’s) kunnen prima bestaande, gecontroleerde informatie naar begrijpelijke taal vertalen. Het wordt lastiger zodra het model kennis aanvult, aannames introduceert of conclusies trekt die niet herleidbaar zijn. Ook kun je twijfels hebben over de kwaliteit van de ‘kennis’ die wordt gebruikt. Anthropic stelt bijvoorbeeld dat hun PubMed-connector toegang biedt tot meer dan 35 miljoen “stukken biomedische literatuur”, maar volledige artikelen staan daar vaak niet. Daarmee mis je methodologische details en nuance, precies wat nodig is om medisch bewijs zorgvuldig te wegen. Richtlijnen zijn trager, maar bevatten juist die wetenschappelijke duiding. En zelfs dan blijft een bekend risico bestaan: modellen kunnen overtuigend klinken terwijl ze subtiel fout zitten.
Lees ook: AI in de zorg: antwoord op vragen
Veel invloed, weinig toetsing
Voor de leek is dat extra spannend. De burger krijgt toegang tot een chat die diep kan doorvragen, verbanden kan schetsen en concreet handelingsperspectief kan bieden, maar kan de kwaliteit van de onderbouwing zelden zelf beoordelen. Dat creëert riskante asymmetrie: veel invloed op gedrag, weinig toetsingsvermogen. Niet toevallig klinkt internationaal zorg over gebrek aan regulering, transparantie en performance-evaluatie van dit soort tools.
Voor zorgprofessionals lijkt de oplossing eenvoudig: zij hebben expertise, dus zij kunnen controleren. Theoretisch correct, maar in de praktijk hangt human-in-the-loop af van tijd, mentale ruimte en workflowontwerp. Bovendien treedt automation bias op: als de tool vaak goed zit, neemt de kritische houding af. Dat is menselijk. De waarborg zit dus niet in ‘er zit een dokter tussen’, maar in procesafspraken. Wanneer is broncontrole verplicht, hoe maak je onzekerheid zichtbaar, hoe log je beslissingen en hoe monitor je prestaties en drift?
Mens als vangnet
Wat kunnen deze tools opleveren? Potentieel veel. Ze kunnen gezondheidsvaardigheden versterken, consulten beter voorbereiden, uitslagen en brieven begrijpelijk maken en burgers helpen navigeren in zorgpaden en administratieve stappen. Voor zorgorganisaties kunnen ze administratie verlichten en communicatie versnellen. In een systeem met personeelstekorten en groeiende zorgvraag kan dat de toegankelijkheid verbeteren.
Maar de risico’s zijn stevig. Op korte termijn: misinformatie op schaal, uitstel of onnodige zorg en kwetsbare groepen die blind de digitale raadgever volgen. Op langere termijn: normalisering van het uploaden van medische data naar commerciële platformen, nieuwe afhankelijkheden van big tech als ‘zorg-interface’ en een verschuiving van publieke normen naar private.
Lees ook: AI-gedreven zorginnovaties met succes implementeren: lessen uit het UMCG
Van hulpmiddel naar afhankelijkheid
Ik hink dus nog op twee gedachten. In Nederland zijn deze tools nog niet beschikbaar, maar in afgeslankte vorm gebruiken mensen de reguliere chatmodellen al dagelijks voor gezondheidsvragen en het prijsgeven van medische informatie daarin gebeurt ongetwijfeld al op grote schaal. Het verschil met Health-modules als ChatGPT Health en Claude for Healthcare is dat zij data-koppelingen, afscherming en expliciete claims toevoegen. Dit kan gezondheidsverschillen verkleinen, mits we ontwikkeling transparant organiseren en publieke waarden afdwingen: traceerbaarheid, guideline-first, auditeerbaarheid, duidelijke claims en toetsbare privacybeloftes.
In plaats van ons afhankelijk te maken van Amerikaanse Health-platformen, zie ik kansen vanuit de Europese regulatoire context: soevereine infrastructuur zoals de nieuwe Nederlandse AI-fabriek en met Europese AI-spelers als Mistral. Want als AI je medisch dossier leest, bepaalt uiteindelijk niet de technologie de waarheid in de spreekkamer, maar de kaders die wij eromheen bouwen.
Deze tekst is mede tot stand gekomen met ondersteuning van ChatUMCG, de interne en onafhankelijke AI-chat van het UMC Groningen.
Over Bart Scheerder
Bart Scheerder is medeoprichter van het Applied AI Acceleration Lab (A3 Lab) van het UMC Groningen. In het A3 Lab werken onderzoekers, technici en medisch specialisten samen aan AI-toepassingen die het werk van zorgprofessionals lichter en leuker maken. Op woensdag 15 april verzorgt Scheerder een keynote op de mainstage van Zorg & ict 2026, de dag die volledig in het teken staat van AI. Zorg & ict vindt plaats op 14, 15 en 16 april. Houd de website van Zorg & ict in de gaten voor het volledige programma.