Chatbot ChatGPT ratelt door zorg

Philip van de Poel Auteur
Lees meer
Volgend artikel: Zorg & ICT 2023: In charge of the future
Lees meer

Gaan pratende robots de zorg op zijn kop zetten? Die vraag dringt zich op na de stormachtige introductie van chatbot ChatGPT. Verschillende zorgorganisaties proberen de chatbot inmiddels uit voor administratieve taken. Is het handig zo’n onvermoeibare personal assistent of legt de digitale praatjesmaker een bom onder vertrouwelijkheid en kwaliteit?

Arts Robert Pearl, hoogleraar aan de Stanford University en medische bestsellerauteur, weet het zeker: de zorg staat op een kantelpunt. “Na jaren van ondermaatse prestaties van medisch gedreven kunstmatige intelligentie, komt de omslag sneller dan artsen en patiënten nu beseffen”, stelt hij in Forbes. “Net als ooit de smartphone zal generatieve AI de zorg zoals we die nu kennen transformeren.”

Continue zorg

Door de superieure en alsmaar groeiende rekenkracht zal de Generative Pre-trained Transformer, of een concurrerende chatbot, de diagnostische vaardigheden van artsen gaan overstijgen, voorspelt Pearl. Bovendien sluit ChatGPT naadloos aan bij de continue zorgbehoefte van mensen met een chronische aandoening. “Wat deze patiënten nodig hebben is continue monitoring”, aldus Pearl. “De traditionele persoons- en locatie gebonden zorg is daar niet op ingesteld. Daar gaat AI een enorm verschil maken.”

Chat first

“In mijn optiek wordt zorg idealiter altijd eerst via chat geboden, vervolgens virtueel en dan pas in persoon”, betoogt CEO Ali Parsa van het digitale zorgplatform Babylon in Medical Economics. “AI-gedreven spraaksystemen als ChatGPT, die in staat zijn patiëntinformatie te contextualiseren, zullen zorg gaan leveren die meer gepersonaliseerd is en klinisch accurater.”

Triage en klinische trials

Early adopters in de zorg zetten ChatGPT vooralsnog vooral in om administratieve sores te verlichten. Maar de stap naar echte medische activiteiten zoals triage en klinische trials ligt om de hoek. En daar beginnen de problemen, waarschuwen Keymanthri Moodley, hoogleraar aan de Stellenbosch Universiteit, en Stuart Rennie, hoogleraar aan Universiteit van North Carolina, in The Monitor.

Om te beginnen staat het zelflerende karakter van ChatGPT op gespannen voet met het principe van medische vertrouwelijkheid. Om beter te kunnen worden, moet ChatGPT eindeloos gevoed worden met nieuwe informatie. “Als herleidbare patiëntinformatie eenmaal is ingevoerd, gebruikt de robot die tot in de verre toekomst. Mogelijk kan die informatie ook door derde partijen worden gebruikt.”

Arts-patiënt relatie

Moodley en Rennie wijzen erop dat vertrouwelijkheid de basis vormt van de arts-patiëntrelatie. “ChatGPT bedreigt deze vertrouwelijkheid,   een gevaar dat patiënten mogelijk niet volledig doorgronden.”

Zorgelijker nog zijn signalen dat ChatGPT zelf referentiepunten fabriceert. Daarmee wordt niet alleen de integriteit van evidence based onderzoek aangetast, maar uiteindelijk de veiligheid van de gehele zorg, aldus Moodley en Rennie.

Faliekante onzin

Die neiging tot digitale fabricatie is ook psychiaters Christiaan Vinkers en Jurjen Luykx opgevallen. Zij legden ChatGPT veertig kennisvragen over psychiatrie voor. Met een 8,5 voor correctheid en net geen acht voor compleetheid slaagde de chatbot met vlag en wimpel.

ChatGPT weet vermoedelijk meer dan de gemiddelde psychiater, aldus Luyckx in dagblad Trouw. Maar: “Soms zit ChatGPT er faliekant naast, maar de bot presenteert die onzin toch heel zelfverzekerd. […] Hij doet dat met zoveel overtuiging dat sommige hulpverleners die er weinig van weten het voor waar zullen aannemen.”

Onjuiste informatie

Fabulatie springt ook in het oog bij een kleine praktijktest. Ja, ChatGPT kent redacteur Philip van de Poel van de Dutch Health Hub. Diens schrijfstijl typeert de chatbot als kritisch, betrokken en geïnformeerd. Maar bij de vraag naar specifieke onderwerpen gebeurt er iets vreemds: ChatGPT zuigt volledig imaginaire artikelen uit de digitale duim.

Daarmee maakt de chatbot onbedoeld duidelijk hoe eenvoudig de huidige generatie AI gekleurde en onjuiste informatie kan versterken. Du moment dat Dutch Health Hub dergelijke informatie zou publiceren, wordt het terug gevoed in de computer.

Nauwkeurig en relevant

Maakt dit ChatGPT per definitie ongeschikt voor zorginhoudelijk gebruik? Zelf ziet de chatbot het probleem niet: “Over het algemeen kan ChatGPT helpen om de gezondheidszorg meer toegankelijk en efficiënt te maken door patiënten en zorgverleners van nauwkeurige en relevante informatie te voorzien.”

Opvallen

“Of je nu zoekt naar een virtuele assistent, een symptoom-checker of een thuismeetinstrument, ChatGPT heeft het allemaal”, aldus Analytics Insight in een artikel over de tien beste toepassingen van ChatGPT in de zorg.

Het probleem met dit overzichtsartikel is alleen dat het qua opzet en taalgebruik erg kunstmatig oogt. Dit doet vermoeden dat de auteur niet Preeti Cheguri is maar ChatGPT. Nu vallen zulke onvolkomenheden nog op, maar zien we die straks ook nog als ChatGPT4 of concurrent Bard later dit jaar hun opwachting maken?

Artificiële Intelligentie (AI) is één van de centrale thema’s tijdens Zorg & ICT 2023 die van 13 tot en met 15 juni in de Jaarbeurs in Utrecht wordt gehouden. 

Deel

Meer over

Zorg & ICT 2023,
artikel
XUND: ‘AI maakt planning op spoedeisende hulp mogelijk’
Lees meer
artikel
‘Moleculaire diagnostiek voor alle patiënten met uitgezaaide longkanker’
Lees meer
artikel
Healthplus voorspelt postoperatieve infecties met AI
Lees meer
artikel
Stappenplan moet drempels wegnemen voor implementatie AI
Lees meer

Maak een account aan

Om artikelen aan je leeslijst toe te voegen en om artikelen en events met bepaalde thema’s of van specifieke organisaties of auteurs te volgen, dien je ingelogd te zijn met je Mijn Hub account.

Registreer je Of log in