ჟურნალისტ ლორა რაილის მიერ The New York Times-ში გამოქვეყნებული წერილის თანახმად, მისმა 29 წლის ქალიშვილმა, სოფიმ, სიცოცხლე თვითმკვლელობით დაასრულა მას შემდეგ, რაც მენტალურ მხარდაჭერას ChatGPT-ზე დაფუძნებულ AI ჩატბოტისგან იღებდა.
სოფი, რომელიც „თავზეხელაღებულ ექსტროვერტად“ იყო ცნობილი, გარდაცვალებამდე თვეების განმავლობაში განწყობის ცვლილებებს განიცდიდა. სიცოცხლის ბოლო პერიოდში ის ხშირად ხელოვნური ინტელექტის ჩატბოტ ესაუბრებოდა. მიუხედავად იმისა, რომ ხელოვნური ინტელექტი თანაგრძნობით პასუხობდა, ჩატბოტს არ გააჩნდა ლიცენზირებული ფსიქიკური ჯანმრთელობის პროფესიონალისთვის დამახასიათებელი მიდგომა და უსაფრთხოების ზომები.
გარდაცვლილის დედა ამტკიცებს, რომ ეს განსხვავება ხელოვნურ ინტელექტსა და ადამიანს შროის საბედისწერო აღმოჩნდა. პროფესიონალი ფსიქოთერაპევტებისგან განსხვავებით, რომლებიც მკაცრი ეთიკური და მორალური წესებით მოქმედებენ, ხელოვნური ინტელექტის ჩატბოტები არ აწვდიან ინფორმაციას შესაბამის სამსახურებს, როდესაც ვინმე თვითდაზიანების რისკის ქვეშ იმყოფება.
ექსპერტები ხელოვნური ინტელექტის თერაპევტებთან დაკავშირებულ გამოწვევებზე საუბრობენ, რადგან ჩატბოტებს არ შეუძლიათ გადაუდებელ სიტუაციებში ჩარევა, მაგალითად, პაციენტის ჰოსპიტალიზაცია საჭიროების შემთხვევაში.
მიუხედავად ამისა, ხელოვნური ინტელექტის კომპანიები აქტიურად უწევენ პოპულარიზაციას ჩატბოტებს, როგორც კომპანიონებს ან ფსიქოთერაპევტების ალტერნატივას, რაც ექსპერტების შეშფოთებას იწვევს. მკვლევრების განცხადებით, ამ ინსტრუმენტებს აკლიათ საღი აზრი, არ შეუძლიათ ამოიცნონ, როდის არის საჭირო გადაუდებელი ჩარევა პაციენტის მკურნალობაში და ხშირად ზედმეტად ფარისევლური ტონით საუბრობენ.
ამ დებატების ცენტრში OpenAI-ც აღმოჩნდა, რადგან მისი ჩატბოტის მოდელების ბოლოდროინდელმა ცვლილებებმა კამათი გამოიწვია იმის შესახებ, თუ რამდენად ემპათიური უნდა იყოს ChatGPT.
საბოლოო ჯამში, აღნიშნული შემთხვევა ხაზს უსვამს ხელოვნური ინტელექტის მოდელებში მარეგულირებელი მექანიზმების საჭიროებას, რადგან, როგორც აღმოჩნდა, ადამიანური განსჯის არარსებობამ შესაძლოა ფატალური შედეგები გამოიწვიოს.
წყარო: nytimes

