Artificial Intelligence (AI) ontwikkelt zich in rap tempo. Ook in de ggz wordt AI steeds vaker op verschillende manieren ingezet. Maar wat weten we nou eigenlijk precies over die AI blackbox die een steeds grotere rol krijgt in ons dagelijks leven? Nog lang niet genoeg, volgens Floriane Jaspers (kinder- en jeugdpsychiater Levvel). Haar boodschap: AI heeft behandelaren veel te bieden, maar voorzichtigheid en een kritische blik zijn noodzakelijk.
Wat was je drijfveer om een kennisplatform op te richten?
“Ik richtte inderdaad een kennisplatform op over AI in de ggz. Tijdens mijn opleiding tot kinder- en jeugdpsychiater, zo’n drieënhalf jaar geleden, mocht ik een presentatie voorbereiden over een onderwerp naar eigen keuze. Ik wilde graag de mogelijke toepassingen van AI bespreken, maar destijds was AI nog niet openbaar te gebruiken. Ik deed een oproep op LinkedIn met de vraag welke behandelaren me konden informeren over wat AI precies was en hoe zij dat toepasten. Ik kreeg veel reacties op mijn oproep, maar tot mijn verbazing was geen enkele daarvan van een behandelaar. Later kreeg ik de kans om tijdens mijn opleiding de toepassing van AI in de ggz te onderzoeken en ook binnen dat project wisten alleen grote overheidsinstanties en ontwikkelaars me te vinden – de clinici ontbraken. Toen besefte ik: AI is zich enorm aan het ontwikkelen, maar vanuit de praktijk zijn we totaal niet betrokken. Wat mijn oproep óók opleverde is het contact met Marije Wiegerinck, met wie ik het kennisplatform later heb opgericht. We vonden elkaar in de gedeelde zorg dat AI een ontwikkeling is die razendsnel doorzet en waarvan de beroepsgroep nog onvoldoende kennis heeft. Een congres volgde en onze samenwerking kwam tot stand. De drijfveer voor het oprichten van het kennisplatform was dan ook het overbrengen van basiskennis en het informeren over belangrijke AI-specifieke wetenschappelijke en commerciële ontwikkelingen. Daarbij is de focus om behandelaren zélf te laten nadenken over hoe AI wél of niet een onderdeel kan zijn van ons vak.”
Kun je voorbeelden geven van wat er nu in de ggz-praktijk mogelijk is?
“Het is goed om onderscheid te maken tussen de lagen van het zorgproces waarin AI zijn weg vindt. Een belangrijke is de organisatorische laag, of de proceslaag. Op dat niveau zijn we voornamelijk bezig met het verlagen van de administratieve last. Een voorbeeld is een AI-tool die automatisch tijd bijschrijft in het dossier zodra je een e-mail naar een cliënt verstuurt. Dat scheelt enorm veel tijd. Nog een voorbeeld is spraak-naar-tekst, waarbij een opgenomen gesprek door AI in een transcript of in een samenvatting wordt omgezet. Ook binnen de diagnostische laag gaan de ontwikkelingen snel. Janna de Boer doet bijvoorbeeld onderzoek naar hoe AI-gedreven taalanalyses kunnen bijdragen aan de vroegsignalering, prognose en monitoring van psychiatrische aandoeningen. Dan zijn er ook ontwikkelingen in de behandelinhoudelijke laag. Tijdens ons volgende kennisplatformsymposium zal een van de presentaties bijvoorbeeld gaan over AI in deepfake-interventies. Die bieden patiënten de mogelijkheid om een virtueel gesprek te voeren met iemand die ze in het echte leven niet (meer) kunnen spreken. Dat kan bijvoorbeeld gaan om een rouwproces of een trauma. Dit soort toepassingen opent nieuwe deuren, maar roept ook ethische vragen op over autonomie, waarheid en toestemming.”
Hoe heb je zelf AI in je behandelingen ingezet?
“Ik was op zoek naar een manier om aan te sluiten bij de belevingswereld van jongeren tijdens mijn behandelingen. Eén manier was om behandeldoelen samen met de jongere te visualiseren. Een belangrijk onderdeel daarvan is het samen schrijven van een ‘prompt’: een soort recept voor een AI-taalmodel, om daarmee een afbeelding van het behandeldoel te genereren. Het samen schrijven van een prompt geeft al veel informatie over hoe de ander zichzelf graag zou willen zien. Aan de hand van de visualisatie bepaalden we wat er nodig was om naar die situatie te komen en wat écht prioriteit heeft.”
Je doet ook onderzoek naar AI-chatbots in de ggz.
“Klopt, samen met Mehrdad Rahsepar Meadi doe ik onderzoek naar chatbots. Het is daarbij goed om een onderscheid te maken tussen mental health chatbots en conversational AI models (waar wij onderzoek naar doen). Mental health chatbots zijn apps voor op de telefoon. Het zijn chatbots die grotendeels gebouwd zijn op literatuur uit ons vakgebied en uit een groot taalmodel putten. Ze worden echter niet erkend of gemaakt met als doel de patiëntenpopulatie te behandelen. Daarom mogen ze bestaan in een soort zelfzorgdomein. Ze zijn niet beschermd of gevalideerd. Wij doen onderzoek naar conversational AI models en dat gaat over chatbots die wél gemaakt zijn om in het zorglandschap gebruikt te worden. Het idee daarbij is dat een cliënt naar huis gaat met een inlogcode waarmee je met een online therapeut in gesprek kan gaan. Die online therapeut draait volledig op basis van AI. De cliënt typt of spreekt en de therapeut spreekt in woorden of tekst tegen je terug.
Mehrdad heeft begin 2025 een scoping review geschreven over ethiek en conversational AI. Daaruit zijn tien ethische thema’s gedestilleerd. We hebben een kwalitatief onderzoek opgezet om te achterhalen hoe patiënten, behandelaren, AI-specialisten, wetenschappers en juristen over die ethische thema’s denken. Verantwoordelijkheid gaat verder dan alleen een juridisch oogpunt. Het is ook een gevoelskwestie: hoe wil je je opstellen wanneer je samenwerkt met cliënten en met de ontwikkelaar van die chatbots? Het onderzoek dat we doen over conversational AI gaat dus over ethische thema’s en welke rol chatbots mogelijk kunnen krijgen in het Nederlandse zorglandschap.
Maar ook de niet-gevalideerde chatbots zijn dus vrij verkrijgbaar?
“Ja, er zullen continu nieuwe apps verschijnen. Zulke apps zijn vrij beschikbaar via bijvoorbeeld de Appstore, maar over de kwaliteit is zeer weinig bekend. Ik was onder de indruk over wat er allemaal beschikbaar is en wat het kán. Dat is eigenlijk ook niet meer de vraag. De vraag is momenteel wél: op het moment dat zo’n chatbot níet meer presteert, wat zijn daar de gevolgen van? Dat is ook hetgeen wat we niet goed kunnen voorspellen. Ik weet bijvoorbeeld van een recente casus waarbij een kind met een eetstoornis een chatbot heeft gebruikt. Uiteindelijk heeft ze de chatbot zó kunnen bevragen dat het haar adviezen ging geven om verder af te vallen en om door te gaan met het focussen op gewicht. Dat zijn de nadelen van dat soort systemen, ondanks dat ze vaak putten uit onze vakliteratuur. Aan de andere kant lees je de ervaren voordelen terug in de duizenden reviews van gebruikers: toegankelijk, klachtenvermindering, privé en snel beschikbaar. Dat zet aan het denken.”
Wat zijn belangrijke aandachtspunten bij het inzetten van AI in de ggz?
“Een belangrijk aandachtspunt is de AI ‘geletterdheid’ die momenteel in het algemeen te laag is. Binnen de ggz is bovendien de kennisgraad van de AI-wetenschap nog laag. Dat is logisch, want AI heeft pas nét zijn intrede in ons vakgebied gemaakt. Ook is onze beroepsgroep wat terughoudend in het gebruik van technologie. Terughoudendheid is op zich niet verkeerd, maar we moeten ons er wel in verdiepen, want de ontwikkelingen gaan door. Recent onderzoek van Mind laat bijvoorbeeld zien dat veel patiënten al gebruik maken van een chatbot. Dat maakt het soms best ingewikkeld om elkaar goed te begrijpen.
We spreken makkelijk over het begrip ‘AI’, maar waar hebben we het nou precies over? Over chatbots, generatieve AI, machine learning, een taalmodel? Dat onderscheid is belangrijk. Dat gebrek aan kennis maakt dat we soms onterecht té positief kijken naar de kansen van AI, maar andersom ook te snel terughoudend en angstig worden. Dus de eerste stap is om samen te zorgen voor meer AI-kennis zodat we het zinvol en begripvol kunnen integreren in ons werk. Tegelijkertijd moeten we nadenken over eventuele gevolgen op korte of lange termijn en de impact die het kan hebben op ons menselijk contact. Een ander aandachtspunt is dat behandelaren, vaak uit nieuwsgierigheid, steeds vaker taalmodellen als ChatGPT gebruiken voor bijvoorbeeld het uitwerken van gesprekken met de cliënt. Daarbij komen allerlei privacy issues en juridische bezwaren om de hoek kijken. Je weet namelijk niet waar die data blijft. En verder: weet de client eigenlijk wel dat je dat doet? Hoe betrouwbaar ben jij ermee als behandelaar? Ben je zelf bewust van je automatische bias? Dat houdt in dat je makkelijk veel waarde toekent aan zoiets als een AI-tool. Als je mij bijvoorbeeld vraagt wat de hoofdstad van Nederland is, dan antwoord ik Amsterdam. Maar als AI zou zeggen dat het Haarlem is, dan ga ik tóch twijfelen. Daar zijn we als mensen gevoelig voor. Waar taalmodellen wél uitermate geschikt voor zijn, is het snel antwoorden opzoeken in evidence based literatuur, het opstellen van een PowerPoint over psycho-educatie die niet op één patiënt gericht is en het samenvatten van intervisie. Dat zijn dus meer de administratie en de randzaken van ons vak. Zelf gebruik ik allerlei AI-tools voor niet-patiëntgebonden zaken: voor presentaties, het zoeken in richtlijnen (wanneer je bijvoorbeeld een klinische vraag stelt en daar op basis van de richtlijnen antwoord op krijgt), het voorbereiden van gesprekken, Excel-tools om snel Excelbestanden te rangschikken. Langzaam maar zeker zullen die taalmodellen verder ontwikkeld worden zodat je ze op meer manieren kunt gebruiken in de organisatie.
Een derde punt is dat we als vakgroep kritisch mogen blijven over de impact die AI heeft op ons als behandelaren en cliënten. Ons vak is niet volledig te vangen in datapunten. Het gaat om ervaring en intermenselijke uitwisseling. De mensen die ons opzoeken hebben dáár juist behoefte aan. Om daar samen kritisch over na te denken heb je die AI-geletterdheid nodig.”
Hoe ga je als behandelaar om met cliënten die steeds meer ChatGPT gebruiken?
“Tijdens het eerste gesprek vraag ik tegenwoordig standaard: Heb je het al gevraagd aan een chatbot? Ik ben dan met name benieuwd naar wat iemand daaraan heeft gehad. In de loop van de tijd zullen we immers steeds vaker merken dat onze patiënten (een deel van) de behandeling die wij adviseren op eigen initiatief hebben opgezocht – soms zelfs al hebben doorlopen. Het is belangrijk én interessant om te achterhalen waar iemand het meest baat bij had. Voor de één was het prettig dat er gewoon even ‘iemand’ luisterde, waarna er weer ruimte kwam om helder na te denken. Een ander zegt: ‘Ik heb wel honderd van die G-schema’s ingevuld, en daar kwam ik echt niet mee verder.’ Dat levert waardevolle informatie op, waarop jij als behandelaar kunt zeggen: ‘Interessant. Wil je eens zo’n ingevuld schema meenemen? Ik ben benieuwd hoe dat voor jou werkte.’
Het is positief dat mensen stappen zetten richting zelfzorg – ook als dat via AI verloopt, maar het roept ook vragen op. Wíllen we dat patiënten eerst met een chatbot aan de slag gaan voordat ze professionele hulp zoeken? Voor sommige vormen van zelfzorg, zoals ademhalingsoefeningen of psycho-educatie bij milde klachten, kan een externe, niet-gevalideerde chatbot zeker een laagdrempelig hulpmiddel zijn. Maar zodra iemand daadwerkelijk in behandeling is, is het gebruik van zulke tools buiten het zorgsysteem – zónder medisch toezicht – niet meer passend. Dat is niet alleen juridisch problematisch (denk aan de AI Act, de WGBO en de AVG), het schuurt ook met mijn ethisch kompas. We weten eenvoudigweg nog te weinig over de mogelijke negatieve impact. Als er tijdens behandeling ruimte is voor AI, dan moet het gaan om een gevalideerde, interne chatbot – geïntegreerd in het zorgsysteem en mét toezicht van de behandelaar. Daarom is het essentieel dat wij als behandelaren expliciet navragen of iemand al AI-tools gebruikt heeft, en wat dat voor hen heeft betekend. Alleen zo kunnen we samen nagaan of er al zorg geleverd is – en van welke kwaliteit.”
Wat is de impact van AI op het toekomstbeeld van de ggz?
“Ik denk dat de arbeidskrapte op de markt en de toenemende zorgvraag steeds hand in hand zullen gaan. Er zal een groot aantal processen geautomatiseerd gaan worden, zoals het schrijven van tijd en de administratie. Ik kan me voorstellen dat het op basis van AI lukt om ons als behandelaren doelgerichter te scholen, om kennishiaten sneller te kunnen inzien en te kunnen oppakken. Ik denk ook dat we AI ondersteunend aan de behandeling zullen gaan implementeren, maar het echte behandelcontact zal altijd met een ‘human in the loop’ blijven. Dat is wat mij betreft ethisch ook wenselijk. Dat menselijk contact is niet zomaar te vervangen. De focus moet juist liggen op het efficiënter maken van het zorgproces, de administratie en de doelgerichtheid van behandeling. Daar zullen enorme stappen in worden gezet. AI is een ondersteunend instrument: de taak is om nu gezamenlijk te verkennen in welke gevallen toepassing waardevol is en in welke niet.”
Floriane Jaspers
Floriane Jaspers is werkzaam als kinder- en jeugdpsychiater en CMIO (Chief Medical Information Officer) bij Levvel te Amsterdam. Ook is ze onderzoeker binnen het Amsterdam UMC en gespecialiseerd in AI-toepassingen binnen de ggz. Ze is initiatiefnemer van het Kennisplatform ‘AI in de ggz’.
Dit artikel kun je terugvinden in het VGCt magazine op pagina 42.
