.jpg)
Praat jij met een AI-therapeut?
Onderzoekers Tom Van Daele en Dries Van Craen over hun digitale kloon van Dirk De Wachter: "We wilden tonen hoe eng eenvoudig het was"
Ben ik normaal? Blijf ik of zal ik vertrekken? Waarom kan ik niet nee zeggen? Misschien zijn het ook jouw vragen. Vragen die je vroeger inslikte. Of ’s nachts lag te herkauwen. Kans is groot dat je ze nu wél stelt. Niet luidop, maar al typend. Aan ChatGPT. We praten met Thomas More-onderzoekers Dries Van Craen en Tom Van Daele. Ze maakten een AI-versie van psychiater Dirk De Wachter. Om de donkere kant van AI-therapie bloot te leggen. En om Vlaanderen wakker te schudden. Het resultaat was te zien in Pano op VRT 1.
We vroegen het eerst aan ChatGPT zélf: hoe gevaarlijk is AI-therapie? Het antwoord: "AI-therapie kan waardevol zijn, vooral als ondersteuning of voor lichte problemen, maar het is (nog) geen vervanging voor een menselijke therapeut." Dat de "nog" tussen haakjes staat, is opvallend. En interessant.
"AI-therapie wordt omarmd met een gretigheid die me zorgen baart", duidt Tom Van Daele. Hij is klinisch psycholoog en onderzoekscoördinator Psychologie en technologie bij het Expertisecentrum Zorg en Welzijn van Thomas More. Sinds 2013 doet hij onderzoek naar de kracht én beperkingen van apps en AI voor geestelijke gezondheid. "Ik heb daar 10 jaar aan zitten trekken en duwen", zegt hij gedecideerd. "Aan apps, wearables, virtual reality. Elke keer moest ik professionals en patiënten overtuigen dat het zinvol kon zijn." En toen kwam AI-therapie. "Dat was meteen raak. Iedereen pakte het gewoon vast. En opeens was ík degene die 'ho ho ho, rustig' moet roepen."
Eén op drie
Die gretigheid zie je ook in de cijfers. Recent Europees onderzoek bewees dat één op drie psychologen experimenteert met AI in therapie. Nochtans bestaan er nauwelijks tools die daar echt voor gemaakt zijn. Tegelijk gebruikt slechts één op tien virtual reality, terwijl die technologie die al 25 jaar bestaat en veel beter onderbouwd is. In de VS sprak al één op vier met een AI-therapeut over gevoelens en relaties. Vaak kwetsbare mensen zonder geld voor echte hulp. In België ontbreken cijfers momenteel nog. "Maar ook hier vermoeden we dat het om een aanzienlijke groep mensen gaat", vult Tom aan.
Digitale Dirk
Hoe gemakkelijk is het eigenlijk om zo'n AI-therapeut te maken? Toen Pano de vraag stelde, was de technologie er net. "We zijn gaan bekijken: is dat haalbaar?", zegt Tom. "En ja. Drie uur later had ik een linkje in mijn mailbox van Dries. Met een elementaire, functionerende Dirk De Wachter." Dries Van Craen is onderzoeker extended reality en software developer bij het Expertisecentrum Duurzaam Ondernemen en Digitale Innovatie van Thomas More. Als developer is hij gewend om de technologische vinger aan de pols te houden. "Ik vroeg gewoon aan ChatGPT om instructies te geven om dat te doen. Ik wist dat het gemakkelijk was om het te doen zonder domeinkennis, maar dat het zó gemakkelijk was..." Hij lacht. "Verwonderlijk."
De AI-Dirk was bedoeld als wake-up call. "We wilden tonen hoe eenvoudig het was om iets te maken dat ogenschijnlijk goed leek", legt Tom uit. Dries: "We hebben niks gefaket. Voor de stem hadden we genoeg aan vijftien seconden audio. Digitale Dirk klonk echt. De vraag blijft: moeten we AI-therapie op deze manier willen?
(Lees verder onder de foto's)
De donkere kant
De eerste AI-gelinkte suïcide ter wereld gebeurde hier, bij ons. België, maart 2023. Een Waalse man met een psychische kwetsbaarheid. "De chatbot heeft hem zeker niet geholpen", zegt Tom voorzichtig. Het zou niet de laatste zijn. Er lopen rechtszaken tegen makers van chatbots."Het zijn extreme gevallen", zegt Tom. "Maar ze illustreren wat er mis kan gaan als kwetsbare mensen zonder begeleiding met AI-therapie aan de slag gaan."
Waarom het faalt
En dan is er de privacy. Het voelt intiem. Je zit in je zetel of ligt in bed. Maar je dumpt data bij commerciële bedrijven. Door een rechtszaak van The New York Times tegen OpenAI moeten ze voorlopig zelfs álles opslaan, voor onbepaalde duur. "Als je met een AI-therapeut praat over je relatie, je angsten, je depressie, dan deel je je meest persoonlijke gedachten met de grootste technologiebedrijven ter wereld", waarschuwt Tom. "Er zijn positieve verhalen. Maar de sleutel ligt in bewaken van de grenzen: wat kan AI-therapie wel en vooral wat kan het niet?"
Nog opvallend: ChatGPT zit qua waarden het dichtst bij de doorsnee Nederlander. "Voor ons misschien handig, maar voor een Chinese gebruiker? Die groeit op in een cultuur waar het collectief vaak voorgaat op het individu. ChatGPT redeneert vanuit westerse waarden. Dan krijg je een mismatch.”
(Lees verder onder de foto's)
Wat wel werkt
Dries werkt nu aan hyperrealisme: avatars met micro-expressies, stemmen die niet meer te onderscheiden zijn van echt. "De stem, daar zijn we. Het visuele gaat de komende twee, drie jaar gebeuren. Het is een kwestie van tijd voor je het verschil tussen een echt persoon en een AI-avatar niet meer zal zien. Heel boeiend om te vertalen naar musea-omgevingen, educatieve toepassingen, plekken waar die technologie échte meerwaarde kan bieden."
Spelregels
"Door onderzoek te doen, ben ik ervan overtuigd geraakt dat selectief en doordacht gebruik van technologische toepassingen door professionele hulpverleners wel degelijk een verschil kan maken", zegt Tom. Maar dan moet het gaan om tools die de professional ondersteunen, niet vervangen." Hun focus zal zo verschuiven naar administratie. Verslagen schrijven, rapporteren, informatie bundelen. "We willen niet per se één AI-therapeut maken. We willen zorgen dat therapeuten effectief tijd hebben om te praten met hun patiënten."
Gebruik je toch een AI-therapeut?
Onze onderzoekers geven vier spelregels mee:
- Het is een tool, geen persoon. Je kunt gefrustreerd raken. "Stop met tegen mij te liegen", roep je dan. Maar het is pure statistiek. Geen mens.
- Het weet veel, maar is niet alwetend. Het kan met absolute zekerheid volkomen fout zitten. Wees kritisch.
- Privacy bestaat niet. Het klinkt als een vertrouwenspersoon in een besloten omgeving. Maar dat is het echt niet. Denk na wat je deelt.
- Weet wat je wilt. Heb je een concreet probleem en wil je dat iemand meedenkt over oplossingen? Dan kan AI helpen. Maar heb je iets ergs meegemaakt en zoek je erkenning? Wil je gehoord en begrepen worden? Dan geeft een AI wel empathische antwoorden, maar er zit niks achter. Geen begrip.
De therapeut van de toekomst?
Ondertussen blijven Tom en Dries bouwen. Onderzoeken. Grenzen opzoeken. "We zitten in een speeltuin die alsmaar groter wordt", zegt Dries. "We gaan ons dus niet vervelen." Tom besluit: "Therapie zonder technologie heeft absoluut een plaats in de toekomst. Maar de therapeut van de toekomst? Die zal altijd technologie gebruiken."
Dus, mocht je vannacht wakker liggen met een stevige vraag. Typ hem eens niet in een chatbox. Zeg hem hardop. Tegen iemand die je kent. Die terugpraat. Die knuffelt. Die blijft.
- Zelf al eens een chatbot gebruikt voor je mentaal welzijn? Doe hier mee aan een onderzoek van Thomas More naar AI, technologie en geestelijke gezondheid.
- Heb je het moeilijk? Bij de Zelfmoordlijn (1813) en Tele-Onthaal (106) luistert een echt persoon naar je. Gratis, 24/7, anoniem. www.zelfmoord1813.be.





