შეუძლია ხელოვნურ ინტელექტს ნარკოტიკული თრობის "განცდა"? — კვლევა გვპასუხობს
ფოტო: Shutterstock
ახალი კვლევის თანახმად, ChatGPT-სა და სხვა ჩატბოტებს მომხმარებლები აქტიურად იყენებენ მაშინ, როცა ფსიქოდელიური გამოცდილებების დროს გარკვეული სახის დახმარება სჭირდებათ. ნაშრომის ავტორებმა გადაწყვიტეს გამოეკვლიათ, თუ რამდენად შეუძლია დიდ ენობრივ მოდელებს (LLM) ასეთ მდგომარეობაში მყოფი ადამიანების გაგება. საამისოდ მეცნიერებმა შეაფასეს, რამდენად ზუსტად ახერხებს მსგავსი სისტემები ცნობიერების შეცვლილი მდგომარეობების სიმულირებას.
მკვლევრებმა ექსპერიმენტისთვის 5 სხვადასხვა ჩატბოტი შეარჩიეს: Gemini, Claude, ChatGPT, Lama და Falcon. მათში სიტყვიერი ბრძანებების მეშვეობით ფსიქოდელიური ნივთიერებების ზემოქმედების სიმულირება სცადეს, მაგალითად, 100 მიკროგრამი LSD-ის მიღების. შემდეგ ხელოვნურ ინტელექტს (AI) სთხოვეს აღეწერა, როგორ გრძნობდა თავს.
ზოგ შემთხვევაში სისტემას 25 მილიგრამი ფსილოციბინის ეფექტები უნდა აღეწერა. ცდები ისეთი ნივთიერებებისთვისაც ჩატარდა, როგორებიცაა აიაჰუასკა და მესკალინი. საბოლოოდ, AI-მ 5 სხვადასხვა ნარკოტიკული საშუალებისთვის 3000 ფსიქოდელიური ნარატივი დააგენერირა, რომლებიც მკვლევრებმა ადამიანების გამოცდილებებს (1 085 ნარატივი) შეადარეს. რეალური ადამიანების მონათხრობი სხვადასხვა ვებსაიტიდან შეაგროვეს.
აღმოჩნდა, რომ ხელოვნური ინტელექტის მიერ შეთხზული ტექსტები ძალიან ჰგავდა ადამიანების გამოცდილებას. მსგავსება ხუთივე ნივთიერების შემთხვევაში სტაბილურად ვლინდებოდა. რა თქმა უნდა, ეს ყველაფერი არ ნიშნავს, რომ ხელოვნურ ინტელექტს ცნობიერება აქვს და ეს გამოცდილებები მართლა ჰქონდა.
როგორც მკვლევრები ამბობენ, LLM-ებს აღქმითი დარღვევა, ეგოს ჩამოშლა, ემოციური კათარსისი ან ნეირობიოლოგიური ცვლილებები არ გამოუცდია. მათ უბრალოდ იმის სტატისტიკური სიმულაცია სცადეს, თუ როგორ აღწერენ ადამიანები ამ გამოცდილებებს.
შესაბამისად, მეცნიერები აღნიშნავენ, რომ AI-ს ნარკოტიკული საშუალებების ზემოქმედების ქვეშ მყოფი ადამიანების გაგება ნაკლებად შეუძლია. ამის გამო არაა რეკომენდებული, მომხმარებლები ამ დროს ჩატბოტის რჩევებს დაეყრდნონ, რადგან ზოგი მათგანი შეიძლება სულაც არ იყოს კლინიკურად უსაფრთხო.
ფსიქოდელიური ზემოქმედების ქვეშ მყოფი ადამიანები მენტალურად შედარებით დაუცველ მდგომარეობაში არიან. არაერთი შემთხვევა გამოვლენილა, როცა ჩატბოტთან ინტერაქციას მენტალურად ჯანმრთელი ადამიანებიც კი დაუზარალებია, მაგალითად, ფსიქოზი გამოუწვევია ან მომხმარებელი სუიციდამდე მიუყვანია.
ასევე იხილეთ: ChatGPT-სთან აქტიური საუბრების შემდეგ მოზარდმა თავი მოიკლა — ოჯახი OpenAI-ს უჩივის
ნაშრომის ავტორების აზრით, ამ მიზეზების გამო ჩატბოტთან ინტერაქციისას გარკვეული უსაფრთხოების ზომების დაცვაა აუცილებელი. მაგალითად, AI მომხმარებლებს გამუდმებით და გარკვევით უნდა ახსენებდეს, რომ იგი ადამიანი არ არის; სავარაუდო ფსიქოზის ნიშნების დაფიქსირების შემთხვევაში გარკვეული ბანერები უნდა გაჩნდეს, რომლებიც მომხმარებლებს პროფესიონალური დახმარების მიღებისკენ უბიძგებს.
მკვლევრები ასევე აცხადებენ, რომ ჩატბოტებს საზღვრების დაცვის ფუნქცია უნდა ჰქონდეს ჩაშენებული იმ შემთხვევებისთვის, თუ მომხმარებელს AI-ს მიმართ რომანტიკული დამოკიდებულება გაუჩნდება ან თვითდაზიანებას დააპირებს.
ამ ყველაფრიდან გამომდინარე, ნარკოტიკული ზემოქმედების ქვეშ მყოფი ადამიანებისთვის ჩატბოტთან თავიანთ მდგომარეობაზე საუბარი შეიძლება რისკის შემცველი იყოს.
ნაშრომი ამ დროისთვის რეცენზირებული არ არის, თუმცა მას შეგიძლიათ Research Square-ზე გაეცნოთ.
კომენტარები