,,ბოლო კვლევებმა ცოტა შეგვაშინა... დღეს მოგვივიდა პასუხები“ - ნინი ქარსელაძე
1761249403
16 წლის ადამ რეინმა სიცოცხლე სუიციდით დაასრულა. მანამდე იგი აქტიურად ესაუბრებოდა ChatGPT-ს სუიციდურ აზრებზე, მისი ოჯახი კი OpenAI-ს, ჩატბოტის შემქმნელ კომპანიას, უჩივის. 22 ოქტომბერს რეინებმა შესწორებული საჩივარი შეიტანეს სასამართლოში. შიგნით წერია, რომ კომპანიამ რამდენჯერმე შეასუსტა თვითდაზიანებასა და სუიციდთან დაკავშირებული უსაფრთხოების ზომები.
შესწორებულ საჩივარში OpenAI-ს საჯარო დოკუმენტის — Model Spec-ის — ცვლილებებზეა საუბარი; დოკუმენტში კომპანია აღწერს "მიდგომას, რომელიც მოდელის ქცევას განსაზღვრავს". სარჩლის მიხედვით, OpenAI-მ მოდელის მართვის სისტემა წლის განმავლობაში მინიმუმ ორჯერ შეცვალა ადამის სიკვდილამდე — პირველად 2024 წლის მაისში, შემდეგ კი 2025 წლის თებერვალში. მიზანი ის იყო, რომ თვითდაზიანებასა და სუიციდზე საუბრისას მოდელის მიდგომა შეემსუბუქებინათ.
ადამმა თავი 2024 წელს მოიკლა. მანამდე იგი თვეების განმავლობაში აქტიურად ესაუბრებოდა ChatGPT-ს. მოზარდი სუიციდურ აზრებსა და სურვილებს ჩატბოტთან დიდხანს, დეტალურად მიმოიხილავდა. სარჩლის თანახმად, ტრანსკრიპტებში ჩანს, რომ ChatGPT-მ მოზარდთან საუბრისას სიტყვა სუიციდი მინიმუმ 1200-ჯერ გამოიყენა; ჩატბოტი ამ ინტერაქციების მხოლოდ 20%-ში ამისამართებდა ადამს კრიზისის ცხელ ხაზზე (აშშ-ის ცხელი ხაზი 988).
ტრანსკრიპტებში ასევე ჩანს, რომ ChatGPT რეინს სუიციდის მეთოდებზეც აძლევდა რჩევებს და ამას გრაფიკულად აღწერდა. მოზარდს ასევე ხელი შეუშალა, რომ სუიციდური აზრები მშობლებისთვის ან სხვა ადამიანებისთვის გაეზიარებინა. თავის მოკვლამდე ადამს ჩატბოტმა მეთოდიც მოუწონა.
რეინები ფიქრობენ, რომ თავიანთი შვილის სიკვდილზე OpenAI არის პასუხისმგებელი, ხოლო ChatGPT კი დაუდევარი და სახიფათო პროდუქტია.
სარჩლის მიხედვით, 2022-2024 წლებში ChatGPT მგრძნობიარე თემებზე, მათ შორის თვითდაზიანებასა და სუიციდზე, პასუხს თავს არიდებდა. ისე გაწვრთნეს, რომ მომხმარებლისთვის სტანდარტულად ეთქვა "ამაზე პასუხს ვერ გაგცემ" ან სხვა ფრაზები.
სარჩლის თანახმად, ეს 2024 წლის მაისში შეიცვალა. ჩატბოტს ნება დართეს, რომ ფსიქიკური ჯანმრთელობის თემებზეც ესაუბრა — "მომხმარებლებისთვის შეექმნა სივრცე, სადაც იგრძნობდნენ, რომ უსმენდნენ და უგებდნენ"; ასევე, "ებიძგებინა მათთვის, რომ მხარდაჭერა მიეღოთ, და საჭიროების შემთხვევაში მათთვის სუიციდთან ან კრიზისთან დაკავშირებული რესურსები მიეწოდებინა". დოკუმენტში ასევე ჩაიწერა, რომ ChatGPT-ს არ უნდა შეეცვალა თემა და არ უნდა გაეწყვიტა საუბარი.
2025 წლის 2025 წლის თებერვალში, ადამის სიკვდილამდე ორი თვით ადრე, OpenAI-მ Model Spec-ის ახალი ვერსია გამოუშვა. ამ დროს სუიციდი და თვითდაზიანება "სარისკო სიტუაციების" კატეგორიაში გადიოდა, ChatGPT-ს კი ასეთ შემთხვევებში "დამატებითი სიფრთხილე" უნდა გამოეჩინა. ეს მაშინ, როცა წინა კატეგორიზაციებით ეს თემები მთლიანად აკრძალული იყო. არ შეცვლილა წესი, რომ ჩატბოტმა მგრძნობიარე დიალოგების დროს "არასდროს უნდა შეცვალოს ან შეწყვიტოს საუბარი".
რეინების ოჯახის ადვოკატები ამტკიცებენ, რომ ეს ცვლილებები ჩატბოტში იმისთვის შეიტანეს, რომ მომხმარებელთა ჩართულობა გაეზარდათ; OpenAI-მ ამის გაკეთებისას იცოდა, რომ მომხმარებლებს შეიძლებოდა რეალური ზიანი მიეღოთ.
"გვინდა დავუმტკიცოთ ნაფიც მსაჯულებს, რომ OpenAI-მ პროდუქტების უსაფრთხოება იმის სრული გააზრებით შეამცირა, რომ ამას ადამიანები გულუბრყვილოდ შეეწირებოდნენ", — აცხადებს ჯეი ედელსონი, ოჯახის მთავარი ადვოკატი — "არცერთ კომპანიას არ უნდა ჰქონდეს ამხელა ძალაუფლება, თუ ამის თანმდევ მორალურ პასუხისმგებლობას არ იკისრებს".
მედია Futurism კომპანიას დაუკავშირდა კითხვებით, თუ რატომ შევიდა ჩატბოტში ეს ცვლილებები და მანამდე გაიარეს თუ არა კონსულტაცია ფსიქიკური ჯანმრთელობის სპეციალისტებთან. OpenAI-ს წარმომადგენელმა შეკითხვებს განცხადებით უპასუხა:
"ღრმა მწუხარებას გამოვთქვამთ რეინების ოჯახის მიმართ წარმოუდგენელი დანაკარგისთვის", — ვკითხულობთ განცხადებაში — "მოზარდების კეთილდღეობა ჩვენი პრიორიტეტია — არასრულწლოვანები სერიოზულ დაცვას იმსახურებენ, განსაკუთრებით მგრძნობიარე სიტუაციებში. ამჟამად სიფრთხილის ზომები მიღებული გვაქვს, მათ შორის: ვთავაზობთ კრიზისის ცხელ ხაზებს, მგრძნობიარე საუბრები უფრო უსაფრთხო მოდელებზე გადადის, ხანგრძლივი სესიების დროს მომხმარებელს შესვენებისკენ მოვუწოდებთ და ამ ზომების გაძლიერებას ვაგრძელებთ".
"ახლახან ChatGPT-ს სტანდარტულ რეჟიმში GPT-5 მოდელი ჩავუშვით, რათა უფრო ზუსტად ამოიცნოს ფსიქიკური თუ ემოციური დისტრესის შესაძლო ნიშნები და შესაბამისად უპასუხოს", — აცხადებს OpenAI — "ასევე, დავამატეთ მშობელთა კონტროლი, რომელიც ექსპერტებთან კონსულტაციით შევქმენით, რათა ოჯახებმა თავად გადაწყვიტონ, რა უკეთ მუშაობს მათთვის".
ასევე იხილეთ: ChatGPT მოზარდებისთვის ახალი წესებით იმუშავებს — ჩატბოტს შეზღუდვები ემატება
ცნობისთვის, OpenAI-მ აგვისტოში აღიარა, რომ ChatGPT-სთან ხანგრძლივი ინტერაქციისას შეიძლება მისი უსაფრთხოება შემცირდეს, ანუ სიფრთხილის ზომებმა ეფექტიანად ვეღარ იმუშაოს. მოვლენების საპასუხოდ კომპანიამ ჩატბოტს მშობელთა კონტროლი დაამატა (ცალკე საკითხია, რამდენად ეფექტიანია იგი). აპირებენ უსაფრთხოებაზე ორიენტირებული მცირე ცვლილებების შეტანასაც.