In de afgelopen jaren maken steeds meer jongeren gebruik van ChatGPT om hun zorgen, gevoelens en problemen te delen. Het is namelijk eenvoudiger om snel gebruik te maken van een Ai-bot, in plaatst van contact op te nemen met een mentale gezondheidsspecialist.
Hoewel ChatGPT een indirecte steun of advies kan opleveren voor de gebruiker, toch schuilt hierin een risico. ChatGPT is niet in staat om persoonlijke begeleiding of echte emotionele steun te geven.
Betere hulpverlening
Veel jongeren die worstelen met psychische problemen ervaren dat het lang duurt voordat ze terechtkunnen bij een psycholoog of jeugdzorg. Wachttijden kunnen weken tot maanden zijn, waardoor ze soms geen directe steun krijgen wanneer ze die het hardst nodig hebben. Jongeren gebruiken vaak liever ChatGPT of andere AI-chatbots om hun zorgen te delen, omdat het sneller en makkelijker is dan wachten op een echte hulpverlener. Er is ook een deel die worstelen met suïcidale gedachten en deze methodes gebruiken. Maar deze jongeren kunnen niet wachten op een afspraak bij een mentale gezondheidsspecialist, ze hebben meteen hulp nodig.
Te snelle doorverwijzing naar 113
Deskundigen maken zich zorgen om deze jongeren die hulp vragen aan ChatGPT bij sombere gedachten vermeldt de NOS. Zij merken op dat deze doelgroep vaker op de verkeerde wijze doorgestuurd worden naar eventuele hulplijnen zoals 113, zelfs wanneer ze zich niet suïcidaal voelen. Het was al eerder bekend dat jongeren die kampen met suïcidale gedachten en gevoelens wel eens een Ai-bot inzetten. Uit een data-onderzoek van NOS stories blijkt nu dat ChatGPT zelfs vaker naar 113 zelfmoordpreventie wijst dan naar de psycholoog of geestelijke gezondheidszorg. Dit zorgt voor een toename van bezoekers op de webpagina van 113 en meer meldingen van mensen die aangeven dat ChatGPT de reden was om te bellen.
Aan de andere kant zeggen de specialisten van de hulpverlening bij 113 dat ze mensen die helemaal geen suïcidale gedachten hebben eigenlijk niet kunnen helpen. Dat kan averechts werken, omdat de kans dan een stuk kleiner is dat mensen in de toekomst nog hulp durven te zoeken. Of ze denken dat hun probleem niet belangrijk genoeg is om bespreekbaar te maken. Dit maakt het voor deze doelgroep ook verleidelijker om indirect te chatten met een Ai-bot. Maar toch blijft ChatGPT geen betrouwbare bron voor hulpverlening, het is namelijk geen persoonlijk advies. Waardoor gebruikers soms met een onbegrepen gevoel achter worden gelaten.
Meer menselijke steun nodig
Ook wordt er slecht gesproken over de methodes die ChatGPT gebruikt om de problemen van de sombere en suïcidale gebruikers op te lossen. Zowel wordt er gezegd dat de AI-chatbot zelfs meedenkt over methodes voor zelfdoding en vind dus dat het te weinig doet om gebruikers te helpen. OpenAI, het moederbedrijf van kunstmatige intelligentie, geeft aan dat ze aanhankelijk zijn van de kritiek over ChatGPT. Op advies van 113 Zelfmoordpreventie dacht OpenAi mee om dit probleem aan te pakken en de technologie van de Ai-chatbot te verbeteren, en zegt dat de Ai bot nu juist voorzichtiger is met de hulpverlening bij deze doelgroep.
Deze gebruiksmethodes van ChatGPT laat zien dat er dringend behoefte is aan betere toegankelijke en menselijke hulp voor jongeren. ChatGPT kan tijdelijk een luisterend oor bieden, maar het is geen echte menselijke steun. OpenAi doet hun best om de Ai versies te optimaliseren en hebben nieuwe maatregelen ingesteld om deze tieners beter te beschermen. En hoopt 113 dat er in de toekomst betere hulp wordt aangeboden voor deze doelgroep.