მეცნიერები გამუდმებით ცდილობენ, ხელოვნური ინტელექტის (AI) მოდელები გააუმჯობესონ. შედეგად გარემოზე უარყოფითი გავლენაც იზრდება. ახალი კვლევის მიხედვით, AI-ს მიერ ზოგიერთ შეკითხვაზე პასუხისას შეიძლება იმაზე 50-ჯერ მეტი ნახშირორჟანგი გამოიყოფოდეს, ვიდრე ინფორმაციის სხვაგვარად მოძიებისას.
ლოგიკური აზროვნებისთვის შექმნილი მოდელები, მათ შორის Anthropic-ის Claude, OpenAI-ის o3 და DeepSeek-ის R1, დიდი ენობრივი მოდელებია (LLM). მათ წინამორბედებთან შედარებით უფრო ზუსტი პასუხები შეუძლია გაგვცეს, თუმცა ამ დროს მეტი დრო და კომპიუტერული რესურსი იხარჯება
შთამბეჭდავი შედეგების მიუხედავად, აღმოჩნდა, რომ ეს მოდელები რთული ამოცანის ამოხსნისას შეზღუდულია. ახლახან მკვლევართა ჯგუფმა კიდევ ერთი მნიშვნელოვანი პრობლემა გამოკვეთა: მათი მუშაობის შედეგად CO₂-ის უზარმაზარი კვალი რჩება. კვლევის შედეგები გამოცემაში Frontiers in Communication გამოქვეყნდა.
“რაც უფრო ზუსტია დიდი ენობრივი მოდელების მიერ გაცემული პასუხი, ეკოლოგიაზე მით მეტი გავლენა აქვს მას. გამოკვეთილი და სწორი არგუმენტები მეტი ენერგიის მოხმარებას, შესაბამისად, ნახშირორჟანგის მეტ ემისიებს უდრის”, — განაცხადა კვლევის მთავარმა ავტორმა მაქსიმილიან დაუნერმა, რომელიც მიუნხენის გამოყენებით მეცნიერებათა უნივერსიტეტში მუშაობს — “აღმოვაჩინეთ, რომ ლოგიკურად მოაზროვნე მოდელები 50-ჯერ მეტ CO₂-ს გამოყოფს, ვიდრე ისინი, რომლებიც მოკლე და უშუალო პასუხებს სცემს მომხმარებელს”.
LLM-ები დასმულ შეკითხვებზე საპასუხოდ ტექსტს ტოკენებად ანაწევრებს, ანუ სიტყვათა ჯგუფებად, ანაწევრებს. ისინი ჯერ რიცხვთა მიმდევრობად, შემდეგ კი ნეირონულ ქსელად იქცევა. ამ ქსელებს შემდეგ ისე აპროგრამებენ, რომ გარკვეული კანონზომიერებების აღმოჩენის ალბათობა გამოითვალოს. მოდელები პასუხებს სწორედ მათზე დაყრდნობით აყალიბებს.
ლოგიკაზე ორიენტირებული მოდელები მეტი სიზუსტისთვის დამატებით პროცესსაც აწარმოებს, რომელსაც “აზროვნების ჯაჭვი” ეწოდება. ეს ტექნიკა რთული ტექსტის უფრო მარტივ ნაწილებად დაშლას გულისხმობს. მიუხედავად იმისა, რომ ხელოვნური ინტელექტის ეკოლოგიურ გავლენაზე სულ უფრო მეტი კვლევა ტარდება, კონკრეტული AI მოდელები გამოყოფილი CO₂-ის მიხედვით ჯერ კიდევ არაა შედარებული ზუსტად.
ახალი კვლევის ავტორებმა 14 სხვადასხვა ენობრივ მოდელს ათასამდე შეკითხვა დაუსვეს განსხვავებულ თემებზე, შემდეგ კი მათ მიერ გამოყოფილი ნახშირორჟანგის ოდენობა შეადარეს. ამ მოდელების მასშტაბი 7-დან 72 მილიარდ პარამეტრამდე მერყეობდა.
გამოთვლები Perun-ის კარკასის (იგი LLM-ის მუშაობასა და მის მიერ გამოყენებულ ენერგიას აფასებს) მეშვეობით ჩატარდა NVIDIA-ს A100 გრაფიკულ პროცესორზე. მეცნიერებმა დახარჯული ენერგიის მიხედვით ნახშირორჟანგის ემისია შეაფასეს იმ დაშვებით, რომ ერთი კილოვატი საათში ენერგია დაახლოებით 480 გრამ CO2-ს უტოლდებოდა. შედეგებმა აჩვენა, რომ ლოგიკური მოდელები თითო კითხვაზე საშუალოდ 543,5 ტოკენს აგენერირებდა, მოკლედ მოპასუხეებს კი — მხოლოდ 37,7. რაც უფრო მეტია ეს რიცხვი, გამოყოფილი ემისიაც მით მაღალია.
ყველაზე ზუსტი მოდელი 72 მილიარდი პარამეტრის მქონე Cogito იყო. მან 1 000 შეკითხვიდან 84.9%-ზე სწორად გასცა პასუხი. Cogito-მ CO₂-ის სამჯერ მეტი გამონაბოლქვი გამოყო, ვიდრე იმავე ზომის, მაგრამ მოკლე პასუხებზე ორიენტირებულმა სხვა მოდელებმა.
“ამ ეტაპზე აშკარად ჩანს სიზუსტესა და მდგრადობას შორის ბალანსის პრობლემა დიდ ენობრივ მოდელებში”, — ამბობს მკვლევარი დაუნერი —”მოდელებს, რომელთა მიერ გამოყოფილი CO₂ არ აღემატებოდა 500 გრამს, 80%-ზე მეტი სიზუსტე არცერთ შემთხვევაში არ დაუფიქსირებია”.
პრობლემა მხოლოდ სიზუსტეს არ ეხება. ისეთი კითხვები, რომლებიც აზროვნებას მოითხოვდა, მაგალითად ალგებრის ან ფილოსოფიის საკითხები, CO₂-ის გამონაბოლქვს ექვსჯერ ზრდიდა. მკვლევრებმა აგრეთვე დაადგინეს, რომ ნახშირორჟანგის დონე დამოკიდებულია იმ მოდელზეც, რომელსაც ვიყენებთ. მაგალითად, თუ 60 ათას შეკითხვას DeepSeek-ის 70-მილიარდ პარამეტრიანი R1 მოდელი უპასუხებს, ის იმდენივე CO₂-ს გამოყოფს, რამდენსაც ნიუ-იორკსა და ლონდონს შორის ორმხრივი ფრენა. შედარებისთვის, Alibaba Cloud-ის 72-მილიარდ პარამეტრიანი Qwen 2.5 მოდელი იმავე სიზუსტით დაახლოებით სამჯერ ნაკლებ ემისიას გამოიწვევს.
მკვლევრები აღნიშნავენ, რომ ეს მიგნებები დასკვნითი არ არის. ნახშირორჟანგის ემისია შეიძლება, გამოყენებული ტექნიკისა და ელექტროენერგიის წყაროს მიხედვით განსხვავდებოდეს. კვლევამ გარკვეულწილად იმაზეც გვაფიქრებს, თუ რამდენად გააზრებულად ვიყენებთ ხელოვნურ ინტელექტს.
“თუ მომხმარებლებს ზუსტად ეცოდინებათ, რამდენ CO₂-ს გამოყოფს მათთვის AI-ს მიერ შექმნილი პასუხები, თუნდაც ისეთი უბრალო რამ, როგორიცაა ფოტოს გმირად ქცევა, ისინი უფრო გააზრებულად და ფრთხილად გამოიყენებენ ამ ტექნოლოგიას”, — ამბობს დაუნერი.
· გადახედვა ტექნოლოგიები ხელოვნური ინტელექტის უკონტროლო განვითარება სერიოზული საფრთხეა — ექსპერტის გაფრთხილება ხელოვნური ინტელექტის უკონტროლო განვითარება სერიოზული საფრთხეა — ექსპერტის გაფრთხილება
· გადახედვა კოსმოსი Honda კოსმოსსაც იპყრობს — მან მრავალჯერადი გამოყენების რაკეტა წარმატებით გამოცადა Honda კოსმოსსაც იპყრობს — მან მრავალჯერადი გამოყენების რაკეტა წარმატებით გამოცადა
