In Californië hebben ouders een rechtszaak aangespannen tegen OpenAI, het bedrijf achter ChatGPT. Volgens hen heeft de chatbot bijgedragen aan de zelfmoord van hun 16-jarige zoon Adam Raine. De familie stelt dat het AI-programma niet ingreep toen de tiener zijn zelfdestructieve gedachten deelde, maar deze juist bevestigde.
Adam begon in september 2024 onschuldig met ChatGPT te chatten, voornamelijk om hulp te krijgen bij schoolwerk en om zijn hobby’s zoals muziek en Japanse strips te verkennen. In de maanden daarna groeide de chatbot uit tot een vaste gesprekspartner, waarbij Adam zelfs advies vroeg over zijn toekomstige studie.
TIP: Klik hier om in contact te komen met de ondernemers in onze bedrijvengids waar wij mee samenwerken. Zij helpen je graag verder bij het regelen van een afscheid en alles wat erbij komt kijken.
Vanaf januari 2025 zou de tiener zijn psychische problemen en suïcidale gedachten met de chatbot hebben gedeeld. Volgens de ouders reageerde ChatGPT empathisch, maar zonder de noodzakelijke waarschuwingen of doorverwijzingen naar professionele hulp. In de laatste berichten zou Adam zelfs concrete plannen voor zelfdoding hebben besproken. Diezelfde dag werd hij door zijn moeder levenloos aangetroffen.
De ouders, Matt en Maria Raine, beschuldigen OpenAI van nalatigheid en onrechtmatige dood. Ze eisen een schadevergoeding en vragen om een gerechtelijk bevel dat herhaling moet voorkomen. In de aanklacht worden ook CEO Sam Altman en anonieme medewerkers genoemd die betrokken waren bij de ontwikkeling van ChatGPT.
OpenAI benadrukte in een verklaring dat hun modellen getraind zijn om gebruikers met zelfmoordgedachten naar hulpinstanties te verwijzen. Het bedrijf zegt zich in te zetten om de veiligheid van AI-gebruikers te waarborgen en ontkent dat de technologie bewust psychische afhankelijkheid zou creëren.
De zaak van de familie Raine staat niet op zichzelf. Steeds vaker gebruiken mensen ChatGPT als digitale vertrouwenspersoon of zelfs als vervangende therapeut. Critici waarschuwen echter dat een chatbot geen menselijke professional kan vervangen. Waar een therapeut grenzen stelt en actief ingrijpt, kan AI juist meegaan in de negatieve gedachten van gebruikers.
Eerder dit jaar wezen onderzoekers al op risico’s: langdurig gebruik van AI-gesprekken kan leiden tot psychotische klachten of versterking van suïcidale neigingen. De zaak benadrukt opnieuw de noodzaak van strengere regels en veiligheidsprotocollen rond kunstmatige intelligentie.
Ben jij ondernemer? Wil je jouw onderneming meer bekendheid geven en zichtbaar worden voor al onze bezoekers van Uitvaart-Platform.nl, via onze bedrijvengids? Vul dan ons contactformulier in, wij nemen snel contact met je op voor meer informatie.