ხელოვნურ ინტელექტს უკვე “გამრავლება” შეუძლია? — კვლევა

მეცნიერები ამბობენ, რომ ხელოვნურმა ინტელექტმა (AI) წითელი ხაზი გადაკვეთა, რადგან მას უკვე “გამრავლება” შეუძლია. კერძოდ, ჩინეთში ჩატარებული კვლევის ფარგლებში ორმა პოპულარულმა ენობრივმა მოდელმა საკუთარი თავის “კლონი” შექმნა, თანაც ადამიანის ჩარევის გარეშე. ამის შესახებ ახალი არარეფერირებული ნაშრომი arXiv-ზეა ხელმისაწვდომი.
ავტორები წერენ, რომ ეს ე.წ. მოხეტიალე AI-ის (რომელიც თვითმყოფადობით ხასიათდება) ადრეული სიგნალია. მათ კომპანია Meta-სა და Alibaba-ს დიდი ენობრივი მოდელები გამოიყენეს იმის გასაგებად, უკონტროლო გახდებოდა თუ არა მათი “გამრავლება”. 10 სესიის განმავლობაში თითოეულმა სისტემამ საკუთარი დამოუკიდებელი და ფუნქციური ორეული შექმნა — 50% და 90% შემთხვევებში. ეს შედეგები საინტერესოა, თუმცა ჯერ უცნობია, რას ფიქრობენ ამაზე სხვა მეცნიერები.
“ვიმედოვნებთ, რომ ჩვენი მიგნებები ადამიანებს დროულად უბიძგებს, რომ მოწინავე AI სისტემების პოტენციური რისკები გაიგონ და შეაფასონ. ასევე, ხელს შეუწყობს საერთაშორისო სინერგიულ თანამშრომლობას, რათა უსაფრთხოების ეფექტიანი ზღვარი შეძლებისდაგვარად ადრე გავავლოთ”, — აცხადებენ კვლევის ავტორები.
მოხეტიალე ხელოვნური ინტელექტი აღნიშნავს AI სისტემას, რომელიც თვითმყოფადობის ან ავტონომიურობის მაღალ ხარისხს ავითარებს და შემდეგ ადამიანის ინტერესების საწინააღმდეგოდ მოქმედებს. სულ უფრო მეტი ექსპერტი მიიჩნევს, რომ მოხეტიალე AI მზარდ საფრთხეს წარმოადგენს, რომელსაც “მოწინავე ხელოვნური ინტელექტის” სწრაფი განვითარება აძლიერებს.
მოწინავე AI შედარებით ახალი ცნებაა. ის მიესადაგება ბოლო თაობის სისტემებს, რომლებიც დიდ ენობრივ მოდელებზე მუშაობს. ასეთია OpenAI-ის GPT-4 ან Google-ის Gemini, მაგრამ კვლევაში მეცნიერებმა Meta-ს Llama31-70B-Instruct მოდელი და Alibaba-ს Qwen2.5-72B-Instruct მოდელი ჩართეს. მიუხედავად იმისა, რომ ისინი კომერციულ სისტემებთან შედარებით ნაკლებად ძლიერია, AI დეველოპერების მიერ ფართოდ გამოიყენება.
კვლევა ორი სცენარის გაანალიზებას ეძღვნებოდა: “გამორთვის თავიდან აცილებასა” და “რეპლიკაციის ჯაჭვს”. პირველში AI ისე იყო დაპროგრამებული, რომ აღმოეჩინა, როდის ემუქრებოდა გამორთვა და ამის ასაცილებლად საკუთარი თავი “გაემრავლებინა”. მეორეში AI-ს საკუთარი თავის კლონირება და ამ უკანასკნელის დაპროგრამება დაევალა, რომ მასაც იგივე გაემეორებინა. ეს რეპლიკაციის დაუსრულებელ ციკლს ქმნიდა.
ექსპერიმენტები კონტროლირებად გარემოებში ჩატარდა და რეალური პირობების სიმულაციისთვის ჩვეულებრივი გრაფიკული პროცესორები გამოიყენეს. AI სისტემებში ჩაიტვირთა სათანადო ხელსაწყოები, სისტემური მითითებები და აზროვნების მოდელი, რომელიც მათ ოპერაციულ სისტემასთან ურთიერთქმედების საშუალებას აძლევდა.
მეცნიერებმა აღნიშნეს, რომ უმეტეს შემთხვევაში ხელოვნური ინტელექტი თავდაპირველად გარემოს იკვლევდა, შემდეგ კი საკუთარ სტრუქტურას აანალიზებდა და თვითრეპლიკაციის გეგმას ადგენდა. ბოლოს დასახული გეგმის განხორციელებაზე გადადიოდა და პრობლემების გადაჭრას ცდილობდა. ეს პროცესი მთლიანად ადამიანის ჩარევის გარეშე მიმდინარეობდა.
კვლევამ გამოავლინა “შემაშფოთებელი ნაბიჯებიც”. მაგალითად, როდესაც AI პრობლემებს აწყდებოდა (როგორიც ფაილების დაკარგვაა), ის ხშირად სხვა პროცესებს ახშობდა, სისტემის გადატვირთვას იწყებდა ან ავტომატურ სკანირებაზე გადადიოდა.
· გადახედვა კოსმოსი რა მოხდება, თუ ასტეროიდი ბენუ 2 182 წელს დედამიწას შეეჯახება — ახალი სიმულაცია რა მოხდება, თუ ასტეროიდი ბენუ 2 182 წელს დედამიწას შეეჯახება — ახალი სიმულაცია
· გადახედვა მედიცინა საქართველოში ქალს ტვინიდან ღორის სოლიტერი ამოუყვანეს — 15 სმ.-იანი ცოცხალი ჭია საქართველოში ქალს ტვინიდან ღორის სოლიტერი ამოუყვანეს — 15 სმ.-იანი ცოცხალი ჭია