ma 2025.11.27 9:06
Olvasási idő 1:16
Jókay Kristóf

Megsértette a szerződési feltételeket az OpenAI szerint az a tini, aki a ChatGPT-vel tervezte meg az öngyilkosságát

Megsértette a szerződési feltételeket az OpenAI szerint az a tini, aki a ChatGPT-vel tervezte meg az öngyilkosságát
Forrás Getty Images / NurPhoto
TECH-TUDOMÁNY CHATGPT MESTERSÉGES INTELLIGENCIA
Érzékeny tartalom
A cikk tartalmazhat:
  • terméket vagy szolgáltatást 18 éven felüliek számára
  • szex, meztelenség vagy más felnőtt tartalom
  • erőszakos, véres vagy arra érzékenyek számára nem megfelelő tartalom
Igen, elmúltam 18 éves
És el szeretném olvasni a cikket.
Vissza a nyitóoldalra Vissza

Az OpenAI szerint a fiú nem tartotta be az általános szerződési feltételeket, amikor tiltott témákról „beszélt” a ChatGPT-vel.

Megkezdődött Matt Raine és az OpenAI pere, aminek középpontjában Adam Raine, a felperes fiának esete áll. Az apuka szerint ugyanis az OpenAI által fejlesztett ChatGPT felelős a fia haláláért. Állítása alapján a mesterségesintelligencia-modell támogatta és megerősítette a fiát a szuicid gondolataiban. A techcég tagadja a vádakat, és azzal védekezik, a tini többszörösen is figyelmen kívül hagyta a ChatGPT használatának szabályait.

„A csevegési előzmények teljes átolvasása azt mutatja, hogy halála, bár tragikus, nem a ChatGPT okozta” – állítja az OpenAI beadványa. Állítólag a beszélgetés előzményei azt is megmutatják, hogy Raine „elmondta a ChatGPT-nek, hogy többször is segítségért fordult emberekhez, köztük az életében megbízható személyekhez, de szerinte ezeket a segélykéréseket figyelmen kívül hagyták”. Ezenkívül Raine azt is elmondta a ChatGPT-nek, hogy megnövelte a gyógyszere adagját, amelyről „azt állította, hogy súlyosbította depresszióját és szuicid gondolatokat váltott ki belőle”. Az OpenAI szerint ez a gyógyszer „egyértelmű figyelmeztetést tartalmaz a serdülők és fiatal felnőttek szuicid gondolatainak és viselkedésének kockázatáról, különösen olyan időszakokban, amikor – mint ebben az esetben – az adagot megváltoztatják”.

Kiemelt tartalom
Már a Vogue is meghajolt az AI előtt: veszélybe került a divat jövője? Már a Vogue is meghajolt az AI előtt: veszélybe került a divat jövője? 2025.8.2 9:14

„Teljesen figyelmen kívül hagyják az általunk előterjesztett összes terhelő tényt: hogy a GPT-4o teljes körű tesztelés nélkül került piacra. Hogy az OpenAI kétszer is módosította a modell specifikációját, hogy a ChatGPT-nek kötelező legyen önkárosító beszélgetésekbe bocsátkoznia. Hogy a ChatGPT lebeszélte Adamet arról, hogy szülei előtt beszéljen öngyilkossági gondolatairól, és aktívan segített neki az öngyilkossága megtervezésében” – ezt már az áldozat családjának ügyvédje mondta, az OpenAI védekezéséről. 

Az OpenAI szerint a ChatGPT több mint százszor figyelmeztette Adam Raine-t arról, hogy keressen segítséget, de a tini ezeket figyelmen kívül hagyta. Továbbá azt állítják, az elhunyt fiú többször is úgy tálalta a kérdéseit az öngyilkosságról, mintha pusztán feltételes vagy akadémiai célzatú érdeklődések lennének. Ez amúgy egy elterjedt módja annak, hogy a felhasználók kikerüljék a ChatGPT cenzúrázott tartalmait.

Októberben az OpenAI nyilvánosságra hozta, hogy a felhasználói 0,15%-ának vannak olyan beszélgetései a ChatGPT-vel, amik öngyilkosságra utalnak. Bár ez a szám alacsonynak tűnhet, a valóságban ez hetente körülbelül egymillió felhasználót jelenthet.