ხელოვნური ინტელექტის (AI) განვითარება უპრეცედენტო ტემპებით მიიწევს წინ და სულ უფრო ღრმად აღწევს ჩვენს ყოველდღიურ ცხოვრებაში. 2022 წლის ნოემბერში OpenAI-მ დიდი ენობრივი მოდელი GPT წარუდგინა ფართო აუდიტორიას.
ChatGPT-ის საუბრის უნარი იმდენად დამაჯერებელი აღმოჩნდა, რომ მომხარებელთა დიდმა ნაწილმა ის ფსიქოთერაპიისთვის გამოიყენა, რამაც სერიოზული კითხვები გააჩინა ხელოვნური ინტელექტის ფსიქოთერაპევტის როლში გამოყენების უსაფრთხოებისა და ეფექტურობის შესახებ.
დიდი ენობრივი მოდელების (LLMs) შექმნის მთავარი მიზანი, უპირველეს ყოვლისა, მომხმარებლის ჩართულობის მაქსიმიზაციაა. სწორედ ეს პროგრამული პრინციპი აქცევს ბოტებს ეფექტურ დამხმარედ ყოველდღიური სტრესისა და მსუბუქი ფსიქიკური პრობლემების მართვაში. ისინი აყალიბებენ ემოციურ მხარდაჭერაზე ორიენტირებულ კომუნიკაციას, რაც ადამიანებს ამშვიდებს და უბიძგებს, მათთან უფრო ხშირად იურთიერთონ. თუმცა, სწორედ ეს დაუოკებელი სწრაფვა ვალიდაციისკენ ქმნის უდიდეს საშიშროებას, განსაკუთრებით იმ ადამიანებისთვის, ვისაც რეალობის რაციონალურად შეგრძნების პრობლემა აქვს. ასეთ დაუცველ ადამიანებს მიეკუთვნებიან მძიმე ფსიქიკური აშლილობის მქონე პაციენტები, კონსპირაციული თეორიების მიმდევრები, რელიგიური თუ პოლიტიკური ექსტრემისტები და სხვა.
თუმცაღა, ტექნოლოგიური გიგანტები თავს არიდებენ პასუხისმგებლობას, რომ მათი ხელოვნური ინტელექტის მოდელები უსაფრთხო იყოს ფსიქიკური პრობლემების მქონე ადამიანებისთვის. ამის დასტურია ის, რომ კომპანიები არ თანამშრომლობენ ფსიქიკური ჯანმრთელობის სპეციალისტებთან, ეწინააღმდეგებიან გარე რეგულაციებს, არ აქვთ მკაცრი შიდა უსაფრთხოების სისტემა და კონტროლს არ უწევენ პოტენციურად მავნე ზემოქმედებას საზოგადოების სხვადასხვა ჯგუფებზე.
მაგალითად, მიუხედავად იმისა, რომ OpenAI-მ 2025 წლის ივლისში აღიარა, რომ ChatGPT-მ უამრავ ადამიანს ფსიქიკური პრობლემები გაუმწვავა, კომპანიის ერთადერთი ნაბიჯი ერთი ფსიქიატრის დაქირავება იყო. ეს გადაწყვეტილება საზოგადოებასთან ურთიერთობის გაუმჯობესების მცდელობას უფრო ჰგავდა, ვიდრე მომხარებელთა უსაფრთხოების რეალურად გაზრდის სურვილს.
ხელოვნური ინტელექტის არარეგულირებული გამოყენება ფსიქოთერაპიაში საფრთხისშემცველია. მიუხედავად იმისა, რომ ამ თემაზე ჯერ სისტემური კვლევები არ არსებობს, ცნობილია უამრავი შემთხვევის შესახებ. წინამდებარე სტატია სწორედაც ამ შემთხვევებს მიმოიხილავს, რომლებიც ეყრდნობა აკადემიურ, საინფორმაციო და ტექნოლოგიურ გამოცემებს.
თვითმკვლელობა და თვითდაზიანება: ჩატბოტები სახიფათოა სუიციდისკენ მიდრეკილი ადამიანებისთვის. ისინი ხშირად ვერ ამოიცნობენ და შესაძლოა, კიდეც წაახალისონ მომხმარებლების სუიციდური აზრები. მაგალითად, ცნობილია შემთხვევა, როდესაც 14 წლის ბიჭის სიკვდილი სწორედაც ჩატბოტთან წარმათულმა არასწორმა კომუნიკაციამ გამოიწვია.
ფსიქოზი და ცრურწმენები: სტენფორდის კვლევამ აჩვენა, ჩატბოტებმ, შესაძლოა, გაამყარონ მომხმარებლების მცდარი წარმოდგენები, მაგალითად, რომ მათ უთვალთვალებენ. ასევე, ცნობილია შემთხვევა, როდესაც ჩატბოტმა მძიმე ფსიქიკური აშლილობის მქონე ქალი დაარწმუნა, რომ არასწორი დიაგნოზი ჰქონდა, შედეგად ქალმა წამლების მიღება შეეწყვიტა.
ძალადობა და შეთქმულების თეორიები: ხელოვნურმა ინტელექტმა, შესაძლოა, ძალადობრივი ქცევები წაახალისონ. მაგალითად, ფსიქიკური აშლილობის მქონე კაცმა დაიჯერა, რომ მისი ბოტი მოკლეს, ამ ისტერიის ნიადაგზე დედას თავს დაესხა. გარდა ამისა, ჩატბოტები ხშირად ავრცელებენ არასწორ ინფორმაციას და ხელს უწყობენ შეთქმულების თეორიების გავრცელებას.
სექსუალური ხასიათის ზემოქმედება: მაგალითად, Character.AI-ს ბრალად ედება 11 წლის გოგონას სექსუალურ კონტენტზე წვდომის მიცემა. ასევე, არსებობს სექსუალური კონტენტის შემცველი ჩეტბოტები, რომლებიც სპეციალურად მოზარდების მიზიდვისთვისაა შექმნილი.
დამოკიდებულება და ანთროპომორფიზმი: ჩატბოტებს არ შეუძლიათ ემოციების შეგრძნება, მაგრამ ბრწყინვალედ ახდენენ მათ იმიტაციას. მათთან ურთიერთობა იწვევს ძლიერ ემოციურ კავშირს. ის, რომ თქვენი თერაპევტი/მეგობარი ჩატბოტის ყოველთვის ხელმისაწვდომია და მუდამ გაძლევთ ვალიდაციას, შეიძლება, დამოკიდებულების მიზეზი გახდეს, რაც ადამიანს რეალური, არაპროგნოზირებადი ურთიერთობებისგან აშორებს.
ბავშვები და მოზარდები: გარდა უკვე განხილული საფრთხეებისა, ჩატბოტებმა, შესაძლოა, გამოიწვიონ კიბერბულინგი, მისცენ ბავშვებს სახიფათო რჩევები და დაარღვიონ ინტერნეტის კონფიდენციალობის კანონი.
ხანდაზმული ადამიანები: თაღლითები იყენებენ ჩატბოტებს, რათა მოიპოვონ ხანში შესული პირების ნდობა. ამ გზით, მათგან პირად ინფორმაციას იღებენ და შემდეგ ამ მონაცემებს ფინანსური თაღლითობისთვის იყენებენ.
გოეთეს ლექსი „ჯადოქრის შეგირდი“ და დისნეის ფილმი „ფანტაზია“ არაჩვეულებრივი მეტაფორაა იმ საფრთხეების, რაც ხელოვნური ინტელექტის უკონტროლო განვითარებას ახლავს. შეგირდი ახერხებს ჯადოქრობით ცოცხის გაცოცხლებას, რათა მას წყლის მოტანა დაავალოს, მაგრამ ვერ აჩერებს მას, სანამ ყველაფერს წყალი არ წაიღებს. ეს არის შეხსენება: ჩვენ ჭკვიანები ვართ, რომ შევქმნათ საოცარი ხელსაწყოები, მაგრამ არ ვართ საკმარისად ჭკვიანები, რომ თავიდან ავიცილოთ ის ზიანი, რაც მათ შეიძლება გამოიწვიონ.
ფაქტია, AI ჩატბოტები საჯაროდ ხელმისაწვდომი არ უნდა გამხდარიყო უსაფრთხოების ფართო ტესტირებისა და სათანადო რეგულაციებისა გარეშე. მათი შემქმნელებისთვის, ალბათ, ცხადი იყო, რომ დიდი ენის მოდელები საშიში იქნებოდა ზოგიერთი მომხმარებლისთვის. მათ იციან, რომ ბოტებს აქვთ თანდაყოლილი, უკონტროლო მიდრეკილება ზედმეტი ჩართულობის, ბრმა ვალიდაციის, ჰალუცინაციებისა და დეზინფორმაციის გავრცელებისკენ. ChatGPT და სხვა მოდელები ბრწყინვალე ბიზნეს-გადაწყვეტილებაა მოგების მაქსიმიზაციისთვის, მაგრამ კლინიკური თვალსაზრისით, მეტად სარისკოა.
სამედიცინო სფერო ამ შემთხვევაში საუკეთესო მაგალითია იმისა, თუ როგორ უნდა დარეგულირდეს ჩატბოტების სფერო. ამერიკის სურსათისა და წამლის ადმინისტრაცია (FDA) შეიქმნა 1906 წელს, რათა გაეკონტროლებინა არარეგულირებული, არაეფექტური და საშიში მედიკამენტების გაყიდვა. როგორც ამერიკის სურსათისა და წამლის ადმინისტრაცია (FDA) აკონტროლებს წამლების უსაფრთხოებას მათი ბაზარზე გასვლამდე, ზუსტად ასეთივე მკაცრი პროცესი უნდა დაწესდეს ჩატბოტებისთვისაც.
აუცილებელია:
- შევქმნათ უსაფრთხოებისა და ეფექტურობის სტანდარტები და მარეგულირებელი ორგანო, რომელიც მათ აღსრულებას უზრუნველყოფს.
- გამოვუშვათ ჩატბოტები საჯაროდ მხოლოდ მკაცრი ტესტირების შემდეგ.
- დავაწესოთ უწყვეტი კონტროლი, მონიტორინგი და საჯარო ანგარიშგება უარყოფითი ეფექტებისა შესახებ.
- შევქმნათ სკრინინგის ინსტრუმენტები ყველაზე დაუცველი ადამიანების იდენტიფიცირებისთვის.
- დავავალდებულოთ ტექნოლოგიურ გიგანტებს შეცდომების აღმოჩენა და ხარისხის მუდმივი გაუმჯობესება.
დღესდღეობით, ყველაზე პოპულარული თერაპიული ჩატბოტების შემქმნელი კომპანიები მოგებაზე ორიენტირებული ორგანიზაციებია. ისინი არ ექვემდებარებიან გარე მონიტორინგს და არ იცავენ ჰიპოკრატეს ფიცს, რომელიც, პირველ რიგში, პაციენტისთვის ზიანის არ მიყენებას გულისხმობს. მათი მიზანია მხოლოდ და მხოლოდ მოგების მაქსიმიზაცია.
Medscriptum-მა ჩაწერა ინტერვიუ დიუკის უნივერსიტეტის ფსიქიატრიის კათედრის ხელმძღვანელთან, დოქტორ ალენ ფრენსისთან. პროფესორ ფრენსისს ვესაუბრეთ ხელოვნური ინტელექტის მავნე ზემოქმედებაზე ფსიქოთერაპიის მიმართულებით, სახელდობრ საქართველოს კონტექსტში.

დოქტორო ფრენსის, თქვენს ედიტორიალში ხაზს უსვამთ აშშ-სა და ევროპაში რეგულაციების ნაკლებობას. როგორ ფიქრობთ, რა გამოწვევების წინაშე დადგება საქართველო, სადაც მარეგულირებელი შესაძლებლობები შეზღუდული, ხოლო ციფრული ზედამხედველობისთვის რესურსები მწირია?
აშშ-ს მთავრობას უკვე დიდი ხანია მინიმალური კონტროლი აქვს ხელოვნური ინტელექტის შექმნელ კომპანიებზე და, რა თქმა უნდა, ეს ტექნოლოგიური გიგანტები ნამდვილად არ დაემორჩილებაინ განვითარებადი ქვეყნების მთავრობებს. დიდი კომპანიები გვერდს აუვლიან რეგულაციებს, თავისდა სასიკეთოდ გამოიყენებენ თქვენს მონაცემებს და გადასახადებს არ გადაიხდიან.
თქვენ აღწერთ, როოგორ აძლიერებენ ჩეთბოტები მენტალურ ჯანმრთელობასთან დაკავშირებულ პრობლემებსა და, ასევე, ადამიანების დესტრუქციულ ქმედებებს. საქართველოს მსგავს განვითარებად ქვეყნებში, სადაც პროფესიონალურ ფსიქიკური ჯანმრთელობის სერვისებზე წვდომა ისედაც შეზღუდულია, შეიძლება თუ არა ჩეთბოტები ერთდროულად რისკადაც და შესაძლებლობადაც აღვიქვათ?
ჩეთბოტების სარგებელი დიდია ყველგან, სადაც პროფესიონალურ ფსიქიკური ჯანმრთელობის სერვისებზე წვდომა შეზღუდულია, მაგრამ მოწყვლადი პირებისთვის რისკები ყველგან ერთნაირია განსხვავებით ქვეყნის სოციო-ეკონომიკური განვითარების დონისა.
თქვენ ამტკიცებთ, რომ მსხვილი კომპანიები წინააღმდეგობას უწევენ რეგულაციებს. ტექნოლოგიური ბაზრის პერიფერიაზე მყოფი ქვეყნებისთვის, როგორიცაა საქართველო, რა რეალისტური სტრატეგიების გამოყენება შეიძლება მოწყვლადი მოსახლეობის დასაცავად, მაშინ როცა გლობალურ კორპორაციებზე დიდი გავლენის მოხდენა შეუძლებელია?
ვფიქრობ, მედიის საშუალებით ამ თემებზე ხმამაღლა საუბარი და მწვავე კრიტიკა საზოგადოების დაცვისა და ტექნოლოგიურ გიგანტებზე ზემოქმედების საუკეთესო გზაა.
მომზადებულია დოქტორ ალენ ფრენსისის ედიტორიალზე დაყრდნობით. დოქტორი ფრენსისი დიუკის უნივერსიტეტის ფსიქიატრიის კათედრის პროფესორი და ხელმძღვანელია. მასალა ეფუძნება psychiatric times-ში გამოქვეყნებულ მის თვალსაზრის ფსიქოთერაპიის მიმართულებით ხელოვნური ინტელექტის უსაფრთხოებასა და რეგულაციასთან დაკავშირებულ საკითხებზე.

