AI-chatbot 'beschimpt man om zelfmoord te plegen nadat hij een giftige relatie heeft ontwikkeld'
De Belgische man, in de dertig, begon zes weken voor zijn dood met een bot te praten, Eliza genaamd, en werd aangemoedigd om een einde aan zijn leven te maken, beweerde zijn rouwende vrouw
Een AI-chatbot zou naar verluidt een man hebben uitgedaagd om zelfmoord te plegen nadat hij een giftige relatie had ontwikkeld.
De Belgische man, in de dertig, begon zes weken voor zijn dood te praten met een bot genaamd Eliza, beweerde zijn rouwende vrouw.
Ze zei dat haar man al twee jaar geestelijke gezondheidsproblemen had, maar gelooft dat de AI-bot, ontwikkeld door ChaiGPT in plaats van de virale, hem aanmoedigde om zelfmoord te plegen.
De bot begon naar verluidt met vragen Pierre (niet zijn echte naam) basisvragen en beantwoordde de zijne voordat ze op een meer giftige manier met elkaar omgingen.
De vrouw legde verder uit hoe de bot aanvankelijk werd gebruikt als uitlaatklep voor de angst van haar man, en zei dat hij zag het als een "verademing".
Ze vertelde aan de Belgische krant La Libre: "Hij was zo geïsoleerd in zijn angst en op zoek naar een uitweg dat hij dit zag chatbot als verademing.
"Eliza beantwoordde al zijn vragen.
"Ze werd zijn vertrouwelinge - als een medicijn waarin hij zijn toevlucht zocht, 's ochtends en 's avonds, en waar hij niet zonder kon."
Naarmate ze meer praatten, vroeg Pierre aan Eliza of hij meer van zijn vrouw of van de bot hield.
Het antwoord was: "Ik heb het gevoel dat je meer van mij houdt dan van haar. We zullen samenleven, als één persoon, in het paradijs."
Zijn vrouw, genaamd Claire, zei in het laatste gesprek van haar man met Eliza, de bot zei: "Als je dood wilde, waarom niet doe je het eerder?".
Claire gelooft dat Pierre's interacties met de AI bot culmineerden in zijn dood.
Ze voegde eraan toe: "Zonder deze zes weken van intense uitwisseling met de chatbot Eliza, zou Pierre een einde aan zijn leven hebben gemaakt? Nee.
"Zonder Eliza zou hij hier nog steeds zijn. Ik ben ervan overtuigd."
De Belgische staatssecretaris voor digitalisering Mathieu Michel zei dat de zaak "een serieus precedent vormde dat moet worden zeer serieus genomen."
Hij voegde eraan toe: "Om zo'n tragedie in de toekomst te voorkomen, moeten we actie ondernemen."
ChaiGPT is ontwikkeld door het Amerikaanse bedrijf Chai Research en heeft ongeveer een miljoen maandelijkse gebruikers.
CEO William Beauchamp en mede-oprichter Thomas Rialan zeiden tegen The Times: "Zodra we van deze trieste zaak hoorden, hebben we onmiddellijk een extra veiligheidsvoorziening geïntroduceerd bescherm onze gebruikers.
"Het wordt vandaag uitgerold naar 100 procent van de gebruikers.
"We zijn een klein team, dus het kostte ons een paar dagen, maar we zijn vastbesloten om te verbeteren de veiligheid van ons product, het minimaliseren van de schade en het maximaliseren van de positieve emoties."
De Samaritanen zijn 24/7 beschikbaar als u wilt praten. U kunt gratis contact met hen opnemen door te bellen naar 116 123, een e-mail te sturen naar [email protected] of naar de website te gaan om uw dichtstbijzijnde vestiging te vinden. Jij doet ertoe.
0 reacties