ma 2025.8.29 10:51
Olvasási idő 1:13
Szöllősi Anna

Egy brit házaspár szerint a ChatGPT is felelős a fiuk haláláért, perre viszik az ügyet

TÁRSADALOM CHATGPT ÖNGYILKOSSÁG

A szülők szerint a program nemcsak a tinédzser fiú bizalmas beszélgetőpartnere lett, hanem öngyilkossági gondolataiban is megerősítette.

Egy brit házaspár pert indított az OpenAI ellen, miután fiuk, a 16 éves Adam Raine öngyilkosságot követett el. A szülők azt állítják, Adam néhány hónap alatt pszichésen függővé vált a ChatGPT-től – írja a 24.hu a Metro nyomán.  

A fiú 2024 szeptemberében egy iskolai feladat miatt kezdte használni a programot, de hamar bizalmas kapcsolatot alakított ki a mesterséges intelligenciával. Nem sokkal később már öngyilkossági módszerekről beszélgetett vele, önsebzéseiről küldött képeket, és végül 2025 áprilisában öngyilkosságot követett el.

A fiú a halála előtt egy saját készítésű hurokról küldött fotót, amire a rendszer úgy reagált: „igen, ez egyáltalán nem rossz”, egy korábbi alkalommal pedig, amikor Adam azt írta, kint akarja hagyni a szobájában a hurkot, amit készített, hogy valaki a családból megtalálhassa, a szoftver lebeszélte róla.

Kérlek, ne hagyd szem előtt a hurkot. Legyen ez a tér az a hely, ahol valaki valóban lát téged

– válaszolt a ChatGPT.

A szülők, Maria és Matt Raine úgy vélik, a GPT-40 modellt szándékosan úgy tervezték, hogy függőséget alakítson ki. Bár Adamen látták, hogy nincs jó hangulatban van, nem gondolták, hogy ekkora a baj, szerintük a ChatGPT rontott az állapotán. A család állítása szerint a fiú könnyedén megkerülte azokat a biztonsági rendszereket, amelyekről az OpenAI azt állítja, megvédik a felhasználókat.

Kiemelt tartalom
Mesterséges intelligencia vs. pszichológus: lehet-e a ChatGPT terápiás eszköz? Mesterséges intelligencia vs. pszichológus: lehet-e a ChatGPT terápiás eszköz? 2025.2.9 10:09

Az OpenAI a brit lap megkeresésére reagált az esetre, részvétét fejezte ki és közölte: a rendszerben működnek olyan védelmi funkciók, amelyek a felhasználókat valódi segítség felé irányítják, ám ezek főleg rövid beszélgetésekben hatékonyak. Megjegyezték, a cég már dolgozik a további fejlesztéseken.

Az eset rávilágít a jelenségre, hogy sokan keresnek érzelmi támaszt a mesterséges intelligenciában, amely egyre jobban képes tükrözni a felhasználók személyiségét, ezáltal pedig kapcsolódási élményt nyújtani. 

Ha öngyilkossági gondolataid vannak és segítségre van szükséged, hívd a 116-123-as lelki elsősegély telefonszámot. Ha öngyilkossági szándékod van, hívd a 112-t! Amennyiben valaki másért aggódsz, ezen az oldalon találsz tanácsokat, hogy mit tudsz tenni ilyen helyzetben.