ხელოვნური ინტელექტის გამოყენება მედიცინაში მნიშვნელოვანი და სასარგებლო წინგადადგმული ნაბიჯია, თუმცა მისი გამოყენება იმ ფორმით, როგორც ხშირად ვხედავთ, ყოველთვის უსაფრთხო შეიძლება არ იყოს და სიფრთხილეა საჭირო.
სწორედ ამიტომ მინდა გაგიზიაროთ სპეციალურად სამედიცინო ამოცანებზე მორგებული ChatGPT თავისი პრომპტითა და ჩაშენებული მშაობის მექანიზმით, რომელიც რამდენიმე თვის წინ შევქმენი: https://www.facebook.com/share/16eBFnGAgA/ რატომ სჭირდება სპეციალური მექანიზმის მორგება? სტანდარტული ChatGPT ვერ წარმოადგენს პირველწყაროს. მას არ აქვს კონტექსტის სრულფასოვანი აღქმა, ვერ აანალიზებს კლინიკური გადაწყვეტილებების სრულ სპექტრს და მით უმეტეს — ვერ განჭვრეტს სამომავლო გეგმებს. ამიტომ, თუ მომხმარებელი არასწორად დასვამს კითხვას, მოდელი ხშირად პასუხს “მოარგებს” მის ვარაუდებს და სურვილებს. ეს კი სამედიცინო საკითხებში რისკებს ქმნის და შესაბამის პასუხისმგებლობას მოითხოვს. ჩვენს მიერ შექმნილი ChatGPT-ს ვერსია ინფორმაციას გაძლევთ მხოლოდ სანდო სამედიცინო ლიტერატურაზე დაყრდნობით — იმ წყაროებით, რომლებიც წინასწარ მაქვს ინტეგრირებული. მოდელი აწყობილია ფასიან ვერსიაზე, თუმცა დამატებული მაქვს fallback-მექანიზმი, რათა უფასო მომხმარებლებისთვისაც მაქსიმალურად სწორად იმუშაოს. ძირითადად იყენებს ღია, ავტორიტეტულ სამედიცინო წყაროებს, ხოლო ფასიანი მასალიდან, მანუალურად ის ნაწილიც დამატებულია, რაც მე მაქვს შეძენილი. მიუხედავად ამისა, მის მიერ მოწოდებული ყოველი ინფორმაცია მაინც უნდა გადამოწმდეს რა პრობლემები შეიძლება ჰქონდეს AI-ს მედიცინაში? სიმპტომების ზოგად აღწერასა და ტერმინოლოგიის განმარტებაში 100%-ანი სიზუსტე აქვს, თუმცა მკურნალობის ინდივიდუალიზაცია მის შესაძლებლობებში არ შედის — არ აგროვებს ანამნეზს, ვერ აყალიბებს მართვის სრულ სტრატეგიას. ️არასწორი შეკითხვის შემთხვევაში შესაძლოა “ჰალუცინაცია” წარმოქმნას ან არაავტორიტეტული ფორუმებიდან აღებული აზრი რეკომენდაციად მოგაწოდოს. ზოგადი სიზუსტე კვლევების მიხედვით 20–95%-ის ფარგლებში მერყეობს. ხშირად, გაცემული რეკომენდაციები არასრულია. – არ აქვს წვდომა ფასიან, მაღალი სანდოობის მქონე სამედიცინო ლიტერატურაზე (თუ ხელით არ მიაწოდე). როდესაც წყაროს გითითებს, ზოგჯერ არასწორი ან არასრული ბმული შეიძლება გამოგიტანოს. AI არის მხოლოდ ხელსაწყო. ის სწორად უნდა გამოვიყენოთ — კონკრეტული მიზნებისთვის და არა როგორც უნივერსალური ავტორიტეტი. მაგალითად: ვიკიპედია კარგი რესურსია რაღაცების მოიძიების დასაწყებად, მაგრამ პირველწყარო ვერ იქნება; Google საუკეთესო საძიებო სისტემაა, მაგრამ მტკიცებულებას არ წარმოადგენს და ა.შ. იგივე პრინციპი ვრცელდება AI-ზე. ამ ყველაფრის გათვალისწინების გარეშე, AI ხდება ისეთივე შეცდომაში შემყვანი „უნივერსალური მრჩეველი“, როგორიც ხშირად თვითონ ტერმინი „ინტერნეტია“. შედეგად, შეიძლება შევიდეთ შეცდომაში და აღმოვჩნდეთ ზუსტად იმავე მდგომარეობაში, როგორშიც პანდემიის დროს აღმოჩნდა საზოგადოების ნაწილი — როცა მზად იყვნენ დაეჯერებინათ, თითქოს კოვიდის ვაქცინა ისრაელის მოსახლეობის ნახევარს მოკლავდა და ევროკავშირი ზამთარში გაიყინებოდა, მხოლოდ იმიტომ, რომ „ინტერნეტში წაიკითხეს“. აქვე გასათვალისწინებელია ისიც, რომ მისი გამოყენება მარტივ სამედიცინო ქეისებში, შეიძლება არც დაგჭირდეთ. მუცელი თუ წამოგტკივდებათ და სიცხეს მოგცემთ, მსგავს მარტივ გასტროენტერიტზე ვერაფერს ექსტრაორდინალურს AI-ი წესით ვერ შემოგთავაზებთ და ვერც ყველაზე არაკომპეტენტური ექიმი გირჩევთ ისეთ რამეს, რომ საშინელება მოხდეს, რადგან მარტივი მწვავე გასტროენტერიტი, თვითლიმიტირებადი პათოლოგიაა და აბსოლუტურ უმრავლეს შემთხვევაში, მკურნალობის გარეშე, თავისთავადვეც ალაგდება. მსგავს, ყოველდღიურ “საყველპურო” სამედიცინო თასქებში AI-ს გარდა, დამატებით სხვადასხვა სამედიცინო ასოციაციების ღია ვებგვერდებზეც შეგიძლიათ თავად გადაამოწმოთ საკთხები: NHS . uk იქნება ეს, mayoclinic . com თუ სხვა. კომენტარებში შემოგთავაზებთ იმის მაგალითებს თუ როგორ იძლევა ურთიერთგამომრიცხავ და არასერიოზულ, სასაცილო პასუხებს ერთიდაიგივე თემაზე, იმაზე დაყრდნობით თუ რას და როგორ შეეკითხები.
ჯანმრთელობას და ობიექტურ რეალობაში ცხოვრებას გისურვებთ




