ტექ-მილიარდერები თითქოს აპოკალიფსისთვის ემზადებიან, უნდა გვაწუხებდეს ეს?

0 წაკითხვა 0 კომენტარი 0 გაზიარება

ბუნკერები სილიკონ ველიდან

ამბობენ, რომ მარკ ზაკერბერგმა ჰავაის კუნძულ კაუაიზე მდებარე Koolau Ranch-ზე — მის უზარმაზარ, დაახლოებით 567 ჰექტარიან მამულში, სამუშაოები ჯერ კიდევ 2014 წელს დაიწყო.

გავრცელებული ინფორმაციით, კომპლექსი მოიცავს საკუთარი ენერგიისა და საკვების მარაგების მქონე თავშესაფარსაც. თუმცა, Wired-ის ცნობით, ობიექტზე მომუშავე დურგლებსა და ელექტრიკოსებს ამ თემაზე საუბარი კონფიდენციალურობის ხელშეკრულებებით აუკრძალეს. პროექტი ახლომდებარე გზიდან დაახლოებით 2-მეტრიანი კედლით იყო დაფარული.

ფოტო: The Washington Post via Getty Images/ Getty Images

შარშან, როცა ზაკერბერგს ჰკითხეს, აშენებდა თუ არა აპოკალიფსის ბუნკერს, Facebook-ის დამფუძნებელმა მოკლედ უპასუხა: "არა". მისი განმარტებით, მიწისქვეშა სივრცე, რომელიც დაახლოებით 465 კვადრატულ მეტრს მოიცავს, "უბრალოდ პატარა თავშესაფარია, სარდაფივით".

ამ პასუხმა მაინც ვერ შეაჩერა, როგორც სპეკულაციები, ისე მისი გადაწყვეტილება, კალიფორნიაში, პალო ალტოს Crescent Park-ის უბანში, 11 უძრავი ქონება შეეძინა და იქ დამატებითი, დაახლოებით 650 კვადრატული მეტრი მიწისქვეშა სივრცე მოეწყო.

მიუხედავად იმისა, რომ მშენებლობის ნებართვებში საუბარია სარდაფებზე, New York Times-ის ცნობით, ზოგი მეზობელი ამას ბუნკერს უწოდებს. ან მილიარდერის "ღამურების მღვიმეს".

გავრცელებული ინფორმაციით, ზაკერბერგმა პალო ალტოს ერთ უბანში მდებარე უძრავ ქონებაზე დაახლოებით 110 მილიონი დოლარი დახარჯა

ფოტო: Bloomberg via Getty Images

სპეკულაციები სხვა ტექნოლოგიურ ლიდერებსაც უკავშირდება, ზოგიერთ მათგანს, როგორც ჩანს, მიწის დიდი ნაკვეთები შეუძენია მიწისქვეშა სივრცეებით, რომლებიც ადვილად შეიძლება მრავალმილიონიან ლუქს-ბუნკერებად გადაკეთდეს.

LinkedIn-ის თანადამფუძნებელმა რეიდ ჰოფმანმა არაერთხელ ისაუბრა "აპოკალიფსის დაზღვევაზე". მისი თქმით, სუპერმდიდრების დაახლოებით ნახევარს მსგავსი გეგმა აქვს, ხოლო ერთ-ერთ პოპულარულ მიმართულებად ახალი ზელანდია ითვლება.

ახალ ზელანდიაში სახლის ყიდვა ისეთია, თითქოს თვალის ჩაკვრით ამბობდე: მიხვდი, მეტის თქმა არაა საჭირო

მაშ, მართლა ხომ არ ემზადებიან ისინი ომისთვის, კლიმატის ცვლილების შედეგებისთვის ან სხვა კატასტროფისთვის, რომლის შესახებაც დანარჩენებმა ჯერ არაფერი ვიცით?

სემ ალტმანმა ერთხელ ივარაუდა, რომ გლობალური კატასტროფის შემთხვევაში ახალ ზელანდიაში, პიტერ ტილს შეუერთდებოდა

ფოტო: Getty Images News

ბოლო წლებში ამ შესაძლო ეგზისტენციურ საფრთხეებს ხელოვნური ინტელექტის (AI) სწრაფი განვითარებაც დაემატა. ბევრს აშინებს პროგრესის სისწრაფე. ერთ-ერთი მათგანი, როგორც იუწყებიან, ილია სუცკევერია, OpenAI-ის მთავარი მეცნიერი და თანადამფუძნებელი.

2023 წლის შუა პერიოდში სან-ფრანცისკოში დაფუძნებულმა კომპანიამ გამოუშვა ChatGPT, ჩეთბოტი, რომელსაც დღეს მსოფლიოს მასშტაბით ასობით მილიონი ადამიანი იყენებს. იმავე ზაფხულისთვის, ჟურნალისტ კარენ ჰაოს წიგნის მიხედვით, სუცკევერი სულ უფრო მეტად რწმუნდებოდა, რომ კომპიუტერული მეცნიერები ძალიან მიუახლოვდნენ ხელოვნური ზოგადი ინტელექტის (AGI) შექმნას, იმ ეტაპს, როდესაც მანქანები ადამიანურ ინტელექტს გაუტოლდება.

ჰაოს თქმით, ერთ-ერთ შეხვედრაზე სუცკევერმა კოლეგებს შესთავაზა, კომპანიის წამყვანი მეცნიერებისთვის მიწისქვეშა თავშესაფარი გაეთხარათ მანამ, სანამ ასეთ ძლიერ ტექნოლოგიას სამყაროს წარუდგენდნენ. "AGI-ის გამოშვებამდე ჩვენ აუცილებლად ავაშენებთ ბუნკერს", — უთქვამს მას, როგორც ხშირად ციტირებენ, თუმცა გაურკვეველია, ვის გულისხმობდა "ჩვენში".

"AGI-ის გამოშვებამდე ბუნკერის აშენებას ნამდვილად ვაპირებთ", — გავრცელებული ინფორმაციით, თქვა ილია სუცკევერმა

ფოტო: AFP via Getty Images

ეს ერთ უცნაურ ფაქტს ააშკარავებს: ბევრი წამყვანი კომპიუტერული მეცნიერი და ტექნოლოგიური ლიდერი, რომელიც თავად ქმნის უაღრესად ჭკვიან AI-ს, ამავდროულად საკმაოდ შეშინებულია იმით, რასაც ის ერთ დღეს შეძლებს.

მაშ, როდის, (თუ საერთოდ) გამოჩნდება AGI? და შეიძლება თუ არა, რომ ის იმდენად გარდამტეხი აღმოჩნდეს, რომ საზოგადოებაში შიში გააჩინოს?

ეს "უფრო მალე მოხდება, ვიდრე გვგონია"

ტექ-ლიდერები ამტკიცებენ, რომ AGI გარდაუვალია. OpenAI-ის ხელმძღვანელმა სემ ალტმანმა 2024 წლის დეკემბერში თქვა, რომ ის "უფრო მალე მოვა, ვიდრე ადამიანების უმეტესობას ჰგონია".

DeepMind-ის თანადამფუძნებელმა სერ დემიას ჰასაბისმა ხუთიდან ათ წლამდე პერიოდი ივარაუდა, ხოლო Anthropic-ის დამფუძნებელმა დარიო ამოდეიმ შარშან დაწერა, რომ მისი რჩეული ტერმინი, "ძლიერი AI", შესაძლოა უკვე 2026 წელს გვქონდეს.

სხვები სკეპტიკურად არიან განწყობილი.

"ისინი მუდმივად ცვლიან კრიტერიუმებს", — ამბობს დეიმ ვენდი ჰოლი, საუთჰემპტონის უნივერსიტეტის კომპიუტერული მეცნიერების პროფესორი — "ყველაფერი იმაზეა დამოკიდებული, ვის ესაუბრები". (სატელეფონო ინტერვიუა, მაგრამ თითქოს ისმის, როგორ ატრიალებს თვალებს). "სამეცნიერო საზოგადოება ამბობს, რომ AI ტექნოლოგია საოცარია, მაგრამ ის ახლოსაც არ არის ადამიანის ინტელექტთან".

მას Cognizant-ის ტექნოლოგიური დირექტორი ბაბაკ ჰოჯათიც ეთანხმება, რომ ჯერ არაერთი "ფუნდამენტური გარღვევა" იქნება საჭირო.

გარდა ამისა, ნაკლებად სავარაუდოა, რომ AGI ერთ კონკრეტულ მომენტში "გამოჩნდეს". AI სწრაფად განვითარებადი ტექნოლოგიაა, ეს მუდმივი პროცესია, და მთელ მსოფლიოში მრავალი კომპანია ცდილობს საკუთარი ვერსიის შექმნას.

თუმცა სილიკონ ველიში ზოგიერთს ისიც იზიდავს, რომ AGI ითვლება კიდევ უფრო განვითარებული საფეხურის, ASI-ს, ანუ ხელოვნური სუპერინტელექტის, წინამორბედად, რომელიც ადამიანურ ინტელექტს აჭარბებს.

ჯერ კიდევ 1958 წელს, უნგრეთში დაბადებულ მათემატიკოსს, ჯონ ფონ ნოიმანს სიკვდილის შემდეგ მიეწერა "სინგულარობის" კონცეფცია, მომენტი, როცა კომპიუტერული ინტელექტი ადამიანის გაგებას გასცდება.

სინგულარობის კონცეფციის ერთ-ერთ ყველაზე ადრეულ მოხსენიებას ჯონ ფონ ნოიმანს მიაწერენ, ბევრად ადრე, ვიდრე ამ იდეას სახელიც კი ექნებოდა; ის ფიზიკოსი, მათემატიკოსი, ეკონომისტი და კომპიუტერული მეცნიერი იყო

ფოტო: Getty Images

უფრო ახლახან, 2024 წელს გამოცემულ წიგნში Genesis, რომელიც ერიკ შმიდტმა, კრეიგ მუნდიმ და გარდაცვლილმა ჰენრი კისინჯერმა დაწერეს, განიხილება იდეა სუპერძალოვანი ტექნოლოგიის შესახებ, რომელიც გადაწყვეტილებების მიღებასა და ლიდერობაში იმდენად ეფექტური გახდება, რომ საბოლოოდ სრულ კონტროლს მას გადავაბარებთ.

ეს საკითხი, მათი აზრით, "თუ" კი არა, "როდის" დადგება.

ფული სამსახურის გარეშე?

AGI-ისა და ASI-ის მომხრეები თითქმის რწმენის დონეზე ენთუზიაზმით საუბრობენ მის სარგებელზე. მათი თქმით, ის იპოვის განუკურნებელი დაავადებების წამლებს, გადაჭრის კლიმატის ცვლილების პრობლემას და გამოიგონებს სუფთა ენერგიის ამოუწურავ წყაროს.

ელონ მასკმა ისიც კი განაცხადა, რომ სუპერჭკვიან AI-ს შეუძლია "უნივერსალური მაღალი შემოსავლის" ეპოქა დაამყაროს.

მან ცოტა ხნის წინ მხარი დაუჭირა იდეას, რომ AI იმდენად იაფი და ფართოდ ხელმისაწვდომი გახდება, რომ თითქმის ყველას მოუნდება "საკუთარი პერსონალური R2-D2 და C-3PO" (Star Wars-ის ცნობილი ასისტენტი დროიდები).

"ყველას ექნება საუკეთესო სამედიცინო მომსახურება, საკვები, სახლი, ტრანსპორტი და ყველაფერი დანარჩენი. მდგრადი ბარაქა", — ენთუზიაზმით ამბობდა ის.

ელონ მასკმა მხარი დაუჭირა იდეას, რომ ყველას მოუნდება საკუთარი R2-D2 და C-3PO

ფოტო: AFP via Getty Images

თუმცა არსებობს საშიში მხარეც. შეიძლება თუ არა ტექნოლოგია ტერორისტებმა ჩაიგდონ ხელში და უზარმაზარ იარაღად აქციონ? ან რა მოხდება, თუ ის თავად გადაწყვეტს, რომ კაცობრიობა მსოფლიოს პრობლემების მიზეზია და გაგვანადგურებს?

"თუ ის ჩვენზე ჭკვიანია, მაშინ უნდა შევძლოთ მისი კონტროლი", — გაგვაფრთხილა ტიმ ბერნერს-ლიმ, მსოფლიო ქსელის (WWW) შემქმნელმა, BBC-სთან საუბარში.

ჩვენ უნდა შეგვეძლოს მისი გამორთვა

გარკვეულ დამცავ ზომებს მთავრობებიც იღებენ. აშშ-ში, სადაც ბევრი წამყვანი AI-კომპანიაა დაფუძნებული, პრეზიდენტმა ჯო ბაიდენმა 2023 წელს ხელი მოაწერა აღმასრულებელ ბრძანებას, რომელიც გარკვეულ კომპანიებს უსაფრთხოების ტესტების შედეგების ფედერალური მთავრობისთვის გაზიარებას ავალდებულებდა. თუმცა მოგვიანებით პრეზიდენტმა დონალდ ტრამპმა ამ ბრძანების ნაწილი გააუქმა და მას ინოვაციისთვის "ბარიერი" უწოდა.

ამასობაში, დიდ ბრიტანეთში ორი წლის წინ შეიქმნა ხელოვნური ინტელექტის უსაფრთხოების ინსტიტუტი, მთავრობის მიერ დაფინანსებული კვლევითი ორგანიზაცია, რომელიც მოწინავე AI-სგან მომდინარე რისკების უკეთ გაგებას ისახავს მიზნად.

და აქვე არიან სუპერმდიდრები თავიანთი აპოკალიფსის დაზღვევის გეგმებით.

"ყველას ექნება საუკეთესო სამედიცინო მომსახურება, საკვები, საცხოვრებელი, ტრანსპორტი და ყველაფერი დანარჩენი, მდგრადი ბარაქა", — ენთუზიაზმით თქვა ერთხელ მილიარდერმა მასკმა

ფოტო: Getty Images

"ახალ ზელანდიაში სახლის ყიდვა ისეთია, თითქოს თვალის ჩაკვრით ამბობდე, 'მიხვდი, მეტის თქმა არაა საჭირო'", — ამბობდა ადრე რეიდ ჰოფმანი. ალბათ იგივე შეიძლება ითქვას ბუნკერებზეც.

მაგრამ აქ ერთი აშკარად ადამიანური სისუსტეა. ერთხელ შევხვდი მილიარდერის ყოფილ მცველს, რომლის უფროსსაც საკუთარი "ბუნკერი" ჰქონდა. მან მითხრა, რომ რეალური კატასტროფის შემთხვევაში მისი დაცვის გუნდის პირველი პრიორიტეტი იქნებოდა თავად ბოსის ლიკვიდაცია და ბუნკერში შესვლა. და, სიმართლე რომ ვთქვა, ეს არ ჰგავდა ხუმრობას.

ეს ყველაფერი უაზრო განგაშია?

ნილ ლოურენსი, კემბრიჯის უნივერსიტეტის მანქანური სწავლების პროფესორი, ამ დისკუსიას მთლიანობაში აბსურდად მიიჩნევს. "ხელოვნური ზოგადი ინტელექტის ცნება ისეთივე აბსურდულია, როგორც 'ხელოვნური ზოგადი სატრანსპორტო საშუალების' იდეა", — ამბობს ის.

"სწორი ტრანსპორტი კონტექსტზეა დამოკიდებული. კენიაში გასაფრენად Airbus A350 გამოვიყენე, უნივერსიტეტში ყოველდღე მანქანით მივდივარ, კაფეტერიამდე კი ფეხით… არ არსებობს ერთი მანქანა, რომელიც ამ ყველაფერს გააკეთებს".

მისთვის AGI-ზე საუბარი ყურადღების გადატანაა.

"ტექნოლოგია, რომელიც [უკვე] შევქმენით, პირველად ისტორიაში საშუალებას აძლევს ჩვეულებრივ ადამიანებს, პირდაპირ ესაუბრონ მანქანას და პოტენციურად დაავალონ ის, რაც სურთ. ეს აბსოლუტურად გამორჩეულია… და სრულიად გარდამტეხი. მთავარი სადარდებელი ის არის, რომ დიდი ტექნოლოგიური კომპანიების AGI-ზე შექმნილ ნარატივებში იმდენად ვართ ჩათრეულები, რომ ადამიანის ცხოვრების რეალური გაუმჯობესების გზები გვრჩება შეუმჩნეველი".

მარკ ზაკერბერგმა, რომელიც ფოტოზე მეუღლესთან, პრისცილასთან ერთადაა აღბეჭდილი, განაცხადა, რომ მის ჰავაიზე მდებარე მამულში არსებული მიწისქვეშა სივრცე "უბრალოდ პატარა თავშესაფარს ჰგავს"

დღევანდელი AI ხელსაწყოები მონაცემების უზარმაზარ მასივებზეა გაწვრთნილი და კარგია შაბლონების ამოცნობაში, იქნება ეს სიმსივნის ნიშნები ანალიზის პასუხებში თუ წინადადებაში შემდეგი სავარაუდო სიტყვა. მაგრამ ისინი არ "გრძნობენ", რამდენად დამაჯერებელიც არ უნდა ჩანდეს მათი პასუხები.

"არსებობს გარკვეული ცრუ გზები, რომ დიდი ენობრივი მოდელი (AI ჩეთბოტების საფუძველი) ისე მოიქცეს, თითქოს აქვს მეხსიერება და სწავლობს, მაგრამ ეს მიდგომები არასაკმარისია და ადამიანურ შესაძლებლობებს მნიშვნელოვნად ჩამორჩება", — ამბობს ჰოჯათი.

კალიფორნიაში დაფუძნებული IV.AI-ის აღმასრულებელი დირექტორი ვინს ლინჩიც ფრთხილად უყურებს AGI-ს გარშემო ატეხილ გადაჭარბებულ განცხადებებს.

"ეს შესანიშნავი მარკეტინგია", — ამბობს ის — "თუ შენ ხარ კომპანია, რომელიც ქმნის ყველაზე ჭკვიან რამეს, რაც კი ოდესმე არსებულა, ხალხს მოუნდება შენთვის ფულის მიცემა". მისი თქმით, "ეს არ არის რამე, რაც ორ წელიწადში მოხდება. ამას სჭირდება უზარმაზარი გამოთვლითი რესურსი, ადამიანური კრეატიულობა და დიდი რაოდენობით ცდა და შეცდომა".

ფილმებმა, როგორიცაა მაგალითად 2001: კოსმოსური ოდისეა, დიდი ხნის წინ გაგვაფრთხილეს გონიერ კომპიუტერებთან დაკავშირებული საფრთხეების შესახებ

ფოტო: Getty Images

კითხვაზე, სჯერა თუ არა, რომ AGI ოდესმე რეალურად გაჩნდება, ხანგრძლივი პაუზის შემდეგ ამბობს — "მართლა არ ვიცი".

ინტელექტი ცნობიერების გარეშე

გარკვეულ ასპექტებში AI-მ უკვე გადაუსწრო ადამიანის ტვინს. გენერაციულ AI ხელსაწყოს შეუძლია ერთ წუთში შუა საუკუნეების ისტორიის ექსპერტი იყოს, მეორე წუთს კი რთული მათემატიკური განტოლებები ამოხსნას.

ზოგი ტექნოლოგიური კომპანია ამბობს, რომ ყოველთვის თავადაც არ იცის, რატომ პასუხობენ მათი პროდუქტები კონკრეტული გზით. Meta აცხადებს, რომ არსებობს ნიშნები, თითქოს მისი AI სისტემები თვითგანვითარებას ახერხებენ.

საბოლოოდ კი, რაც არ უნდა ჭკვიანი გახდეს მანქანა, ბიოლოგიური თვალსაზრისით ადამიანის ტვინი მაინც იმარჯვებს. მას დაახლოებით 86 მილიარდი ნეირონი და 600 ტრილიონი სინაფსი აქვს, ბევრად მეტი, ვიდრე ხელოვნურ ანალოგებს. ტვინს არ სჭირდება პაუზა ურთიერთქმედებებს შორის და ის მუდმივად ერგება ახალ ინფორმაციას.

მკვლევრები ტვინს სწავლობენ, რათა ცნობიერება უკეთ გაიაზრონ

ფოტო: BBC

"თუ ადამიანს ეტყვი, რომ ეგზოპლანეტაზე სიცოცხლე აღმოაჩინეს, ის ამას მაშინვე შეითვისებს და ეს მის მსოფლხედვაზე აისახება. ხოლო LLM-ისთვის [დიდი ენობრივი მოდელი] ეს ფაქტი მხოლოდ მაშინ იარსებებს, თუ მუდმივად გაუმეორებ", — ამბობს ჰოჯათი — "LLM-ებს ასევე არ აქვთ მეტაკოგნიცია, ანუ მათ ბოლომდე არ იციან, რა იციან. ადამიანებს კი, როგორც ჩანს, აქვთ თვითრეფლექსიის უნარი, რომელსაც ზოგჯერ ცნობიერებას ვუწოდებთ და რომელიც საშუალებას გვაძლევს, ვიცოდეთ, რომ ვიცით".

ეს ადამიანის ინტელექტის ფუნდამენტური ნაწილია, და ის, რაც ლაბორატორიაში დღემდე ვერ გამეორდა.


კომენტარები

კვირის ტოპ-5

  1. ქვიზი: რამდენად კარგად იცნობ ნიკოლოზ ბარათაშვილს?
  2. გაიცანით ბიჭი, რომელმაც ოჯახის გადასარჩენად 4 საათი აღელვებულ ზღვაში იცურა
  3. ქვიზი: სერიალში მოხდა თუ საქართველოში?
  4. ტაილანდში ტურისტებს ქელეხი რესტორანი ეგონათ, ჭირისუფლები კი მაინც გაუმასპინძლდნენ (ვიდეო)
  5. სპორტსმენები პენისებს "იზრდიან"? — სკანდალი ზამთრის ოლიმპიადის წინ

გირჩევთ

ახლა კითხულობენ

გადახედვა

მეცნიერებმა ლოკოკინას სახეობა გადაშენებისგან იხსნეს

დიდ ბრიტანეთში მდებარე ჩესტერის ზოოპარკში აცხადებენ, რომ გადაშენების ზღვარზე მყოფი ლოკოკინას სახეობის გადარჩენის…