ცოტა ხნის წინ კვლევით დაადგინეს, რომ მილიონობით ამერიკელი სამედიცინო რჩევისათვის ხელოვნური ინტელექტის (AI) ჩატბოტებს მიმართავს, ნაცვლად ექიმისა.

ეს იმის ფონზე, რომ მკვლევრები მსგავს ინსტრუმენტებში სერიოზულ ხარვეზებს ამჩნევენ. დიდ ენობრივ მოდელებზე (LLM) მომუშავე ეს ჩატბოტები სამედიცინო ინფორმაციის შეჯამებაში გვეხმარება და ჩვენი მოკლე მითითებების საფუძველზე რჩევებსაც გვაძლევს ჯანმრთელობაზე, თუმცა ჰალუცინაციები AI ჩატბოტებში კვლავაც გადაუჭრელი პრობლემაა — შეიძლება ბოტმა დეტალური კლინიკური დასკვნები დაგვიწეროს იმ ფოტოს მიხედვით, რომელიც არც კი მიგვიწოდებია ანდა შეიძლება მოტყუვდეს ყალბი დიაგნოზებით, რომლებიც მეცნიერებმა მათ გასაცურებლად შექმნეს.

მკვლევრები ბჭობენ, საერთოდ თუ უნდა გამოიყენონ AI სამედიცინო მიზნებით ინდივიდუალურად ან სისტემურ დონეზე — განსაკუთრებით იმის ფონზე, რომ მისგან მიღებული რეალური სარგებლის არსებობა მაინცდამაინც არ დასტურდება. ყოველ შემთხვევაში, ამას გვეუბნება ჟურნალში Nature Medicine გამოქვეყნებული ახალი სარედაქციო სტატია, რომლის თანახმადაც: "მწირია მტკიცებულებები იმისა, რომ AI ინსტრუმენტები პაციენტებისთვის, სამედიცინო მუშაკებისა თუ ჯანდაცვის სისტემისთვის რაიმე ღირებულებას ქმნიდეს".

"მიუხედავად ამისა, პუბლიკაციებსა და პროდუქტების აღწერილობებში სულ უფრო ხშირად გვხვდება განაცხადები მათ კლინიკურ ეფექტიანობაზე, თუმცა არ არსებობს მკაფიო შეთანხმება იმაზე, თუ რა დონის მტკიცებულებებია საჭირო, რომ მსგავსი მტკიცებები სარწმუნოდ მივიჩნიოთ", — ნათქვამია სარედაქციო სტატიაში — "შედეგად არა მხოლოდ სამეცნიერო ბუნდოვანებას, არამედ ტექნოლოგიის ნაადრევ დანერგვასა და შეთვისებას ვიღებთ".

შესაბამისად, სტატია სამეცნიერო საზოგადოებას ერთგვარი ჩარჩოს შექმნისაკენ მოუწოდებს, რომელიც განსაზღვრავს, "როგორ უნდა შეფასდეს AI სამედიცინო ტექნოლოგიები, რა საზომებით და რომელი სტანდარტებით. ავტორთა აზრით, ეს "სასწრაფოდ არის საჭირო".

AI ინსტრუმენტები ექსპერიმენტულ პირობებში ხშირად საკმაოდ გამართულ სამედიცინო რჩევებს იძლევა, თუმცა რეალურ სიტუაციებში ეს უჭირს. ჟურნალში JAMA Medicine გამოქვეყნებული ახალი კვლევის მიხედვით, შედარებით ბუნდოვანი სიმპტომების აღწერისას მოწინავე AI მოდელები სწორ დიაგნოზს შემთხვევათა დაახლოებით 80%-ში ვერ სვამს.

კლინიკურ კვლევებში AI-ს გამოყენების საკითხი ჯერაც სადავოა. LLM-ებს კარგად შეუძლია მონაცემების შეჯამება თუ ანალიზი და ჩვენს კითხვებზე პასუხი, თუმცა მკვლევრები გვაფრთხილებენ, რომ მათ სერიოზულ შეზღუდვებზე თვალი არ უნდა დავხუჭოთ.

"ვფიქრობ, AI შეიძლება ბევრი მოსაწყენი და რთული პროცესის დაჩქარებაში დაგვეხმაროს; შეიძლება მონაცემთა ანალიზისთვის კოდის წერაში დაგვეხმაროს და სცენარებიც კი შემოგვთავაზოს", — განაცხადა ჯეიმი რობერტსონმა, ჰარვარდის სამედიცინო სკოლის ასისტენტ-პროფესორმა, გასულ წელს — "თუმცა ძალიან მნიშვნელოვანია, რომ იმ ადამიანებმა, რომლებსაც AI-სთან კლინიკური კვლევების ფარგლებში აქვთ შეხება, მათი სწორი და არასწორი გამოყენების გზებზე გათვითცნობიერებულნი იყვნენ და ეს სწორ კონტექსტში აკეთონ".

მეცნიერები შიშობენ, რომ AI ინსტრუმენტებზე გადამეტებულმა დამოკიდებულებამ შეიძლება სამეცნიერო სიზუსტე შელახოს; ეს იმის რისკს ზრდის, რომ მედიცინაში ზედმეტად განზოგადებული — და პოტენციურად AI-ს "მოგონილი" — მონაცემები მომრავლდება.

ალმირა ოსმანოვიჩ თუნსტრომმა, გოტენბურგის უნივერსიტეტის მედიცინის მკვლევარმა, ამის საინტერესო დემონსტრაცია შემოგვთავაზა. მან ორი ყალბი კვლევა ატვირთა პრეპრინტების სერვერზე LLM-ების მოსატყუებლად, თითქოსდა კანის გამოგონილი დაავადება რეალური იყო. რეფერირებად ჟურნალებში მალე ნაშრომები გამოქვეყნდა (ისინი უკვე გაიწვიეს უკან), რომლებშიც ყალბი პრეპრინტები ჰქონდათ დამოწმებული. ცხადია, ამან ნაშრომების ვალიდურობა ეჭვქვეშ დააყენა.

"პროგრესის შემდეგი ეტაპი არა მხოლოდ უკეთეს მოდელებსა და ახალ აპლიკაციებზე იქნება დამოკიდებული, არამედ უფრო მკაფიო მოლოდინებზე იმის შესახებ, თუ როგორ უნდა განისაზღვროს, შეფასდეს და გადმოიცეს კლინიკური ეფექტი", — ვკითხულობთ Nature Medicine-ის სარედაქციო სტატიის დასკვნაში — "განაცხადებსა და მტკიცებულებებს შორის თუ მკაფიო კავშირი არ იქნება, არსებობს რისკი, რომ სამედიცინო სფეროში AI მანამ დაინერგოს, სანამ მისი რეალური ღირებულების გააზრებას შევძლებთ".

თუ სტატიაში განხილული თემა და ხელოვნური ინტელექტის სფერო შენთვის საინტერესოა, შემოგვიერთდი ჯგუფში, სადაც ვლაპარაკობთ ხელოვნურ ინტელექტზე.