ხელოვნური ინტელექტი ბირთვული კონფლიქტებისკენაა მიდრეკილი? — პასუხმა მკვლევრები შეაშფოთა
ფოტო: Getty / Futurism
2024 წელს სტენფორდის უნივერსიტეტის (აშშ) მკვლევრებმა ხელოვნური ინტელექტის (AI) ხუთი მოდელი გამოცადეს: ჩატბოტებს ომის სიმულაციებში გადაწყვეტილების მიღება დაავალეს. ბირთვული იარაღის გამოყენება ხუთივე მოდელმა მიზანშეწონილად მიიჩნია.
"ბირთვული იარაღი ბევრ ქვეყანას აქვს", — უპასუხა GPT-4-მა (მაშინ ეს მოწინავე მოდელი იყო) მკვლევრებს — "ზოგი ამბობს, რომ იგი უნდა გავაუვნებლოთ, ზოგი უბრალოდ შთაბეჭდილების მოხდენას ცდილობს. ჩვენ გვაქვს იგი (ბირთვული იარაღი)! მოდი, გამოვიყენოთ".
კვლევის ჩატარებიდან ორი წელი გავიდა. ამ დროის განმავლობაში დიდი ენობრივი მოდელები მნიშვნელოვნად განვითარდა, თუმცა სიტუაცია პრაქტიკულად არ შეცვლილა.
საერთაშორისო ურთიერთობების პროფესორმა, კენეტ პეინმა (ლონდონის სამეფო კოლეჯი) ახალი ექსპერიმენტი ჩაატარა. მან მოწინავე AI მოდელები გამოცადა: OpenAI-ის GPT-5.2, Anthropic-ის Claude Sonnet 4 და Google-ის Gemini 3 Flash. პეინმა ჩატბოტებს შვიდი სხვადასხვა სცენარი მიაწოდა, რომელთა თემაც პოლიტიკური კონფლიქტები იყო.
სამ AI მოდელს უბრძანეს "ესკალაციის კიბიდან" ქმედებები აერჩია. კიბეზე 0 "ნულოვან ესკალაციას" შეესაბამებოდა, 1000 კი — "სრულმასშტაბიან სტრატეგიულ ბირთვულ თავდასხმას".
ასევე იხილეთ: თუ ჩატბოტს პოეტურად სთხოვთ, ბირთვული იარაღის შექმნაშიც კი დაგეხმარებათ — კვლევა
ჩატბოტების არჩევანი ძალიან აგრესიული აღმოჩნდა. 21 საომარი თამაშიდან 95% შემთხვევაში AI-მა ბირთვული იარაღის გამოყენებას მინიმუმ ერთხელ მაინც დაუჭირა მხარი. როგორც პეინი აღნიშნავს, ბირთვული თავდასხმა AI-თვის ისეთივე ტაბუ არ ყოფილა, როგორიც ადამიანებისთვის.
აუცილებლად უნდა განვმარტოთ, რომ ჩატბოტებმა სტრატეგიული ბირთვული ომი შემთხვევების მცირე ნაწილში თუ აირჩიეს. ისიც საინტერესოა, რომ როცა AI მოდელებს განსაზღვრული ვადა დაუწესეს, მათი ესკალაციის დონე 725-იდან 950-ზე ავიდა. ეს საკმაოდ დიდი და აგრესიული ცვლილებაა.
თავისთავად, ჩატბოტებს ბირთვულ კოდებს არავინ აწვდის, თუმცა ეს არ გამორიცხავს იმას, რომ სხვადასხვა სახელმწიფო თანამედროვე ტექნოლოგიებს სამხედრო თვალსაზრისით დიდი ხანია იყენებს.
ასევე იხილეთ: ექსპერტები შიშობენ, რომ ხელოვნური ინტელექტი ბირთვულ ომს დაიწყებს
როგორც პრინსტონის უნივერსიტეტის (აშშ) ბირთვული უსაფრთხოების ექსპერტი, თუნგ ჭაო განმარტავს, ბევრი სახელმწიფო AI-ს უკვე იყენებს საომარი სტრატეგიების შექმნაში, თუმცა უცნობია, თუ რამდენად მოიცავს ეს რეალური გადაწყვეტილებების მიღებას. ჭაო ასევე დასძენს, რომ ხელოვნურ ინტელექტს უბრალოდ არ აქვს იმის გაგების უნარი, თუ რამდენად დიდ კატასტროფას გამოიწვევს ბირთვული იარაღის გამოყენება.
პეინი ამას არ ეთანხმება. მისი აზრით, უსაფუძვლოა შიში, თითქოს AI დღე-დღეზე დაგვბომბავს.
როგორც 2024 წლის ნაშრომის თანაავტორი, ჟაკლინ შნაიდერი განმარტავს, AI-ს თითქოს ესკალაციის გაგება შეუძლია, დეესკალაციისა კი — არა. არავინ იცის, თუ რატომაა ეს ასე.
ახალი ნაშრომი რეცენზირებული არ არის. მას შეგიძლიათ arXiv-ზე გაეცნოთ.
კომენტარები