ვიტალიკ ბუტერინი: AI-ის გამოყენების რისკების დაძლევა გაგვიჭირდება

ფოტო - ვიტალიკ ბუტერინი: AI-ის გამოყენების რისკების დაძლევა გაგვიჭირდება
ვაანალიზებთ ონლაინ დისკუსიის შედეგებს, რომელიც მონტენეგროში, ხელოვნური ინტელექტის განვითარებასთან დაკავშირებით, კაცობრიობის მომავლის შესახებ გაიმართა. საზოგადოების ყურადღება ვიტალიკ ბუტერინისა და მანქანური ინტელექტის კვლევის ინსტიტუტის დამფუძნებლის, ნეიტ სოარეშის დიალოგმა მიიპყრო.
ორმა გენიალურმა ტექნო-ფილოსოფოსმა სერიოზულად პირველად განიხილა პოტენციური საფრთხე, რომელსაც კაცობრიობას ხელოვნური ინტელექტი უქმნის. ისინი ამ ტექნოლოგიის ფრთხილად გამოყენების აუცილებლობას დაჟინებით მოითხოვდნენ და გვაფრთხილებდნენ, რომ მანქანების აღჭურვა ღმერთის მსგავსი თვისებებით კაცობრიობისთვის შეიძლება ცუდად დასრულდეს.

როგორ აფასებენ ბუტერინი და სოარეში ხელოვნური ინტელექტის გავლენას კაცობრიობაზე?

ბუტერინი პირდაპირ აცხადებს, რომ ჩვენ ყველა ჯერ კიდევ გაუცნობიერებელი ეგზისტენციალური რისკების წინაშე აღმოვჩნდით. მისი შეფასებით, ალბათობა, რომ ხელოვნური ინტელექტი ცივილიზაციის დაღუპვას გამოიწვევს, 0,5-1%-ს უტოლდება. ეს შეიძლება უმნიშვნელო ჩანდეს - ბირთვული ომის რისკი ახლა გაცილებით მაღალია. მაგრამ, ვიტალიკის აზრით, ჩვენ არ შეგვიძლია საფრთხეების უგულებელყოფა, რომელთა თავიდან აცილებაც ადვილია. ძირითადი საფრთხე კი მდგომარეობს იმაში, რომ დეველოპერები ხელოვნური ინტელექტის განვითარების პროცესის ავტომატიზაციას ახდენენ.

ანუ ახლა ჩვენ შევედით საშიშ ზონაში, სადაც მანქანა მანქანას ასწავლის, რა არის ადამიანის კეთილდღეობის არსი.

ეს არის მოჯადოებული წრე, საიდანაც ნაკლებად სავარაუდოა, რომ ადამიანებმა გამოსავალი იპოვონ, რადგან ისინი აღმოჩნდებიან არაადამიანური გონების მკაცრი კონტროლის ქვეშ, რომელმაც,  შესაძლოა, პრიორიტეტად სამყაროს და არა ცალკე აღებული ადამიანის მომავალი ჩათვალოს. AI-ს ხედვა სიკეთესთან დაკავშირებით შეიძლება ეწინააღმდეგებოდეს ჩვენს ოცნებებს ადამიანის კეთილდღეობაზე. და რა მოხდება, თუ ვერ ვიპოვით არგუმენტებს მანქანის გადასარწმუნებლად?

ხელოვნური ინტელექტის მსოფლიოში ერთ-ერთმა ყველაზე აღიარებულმა მკვლევარმა, სოარეშმა, პირდაპირ განაცხადა, რომ მანქანური ინტელექტის სწრაფი განვითარება შეიარაღების რბოლისა და ომის დროს სრულიად გაუმართლებელი რისკია. ჩვენ ვერ მოგცემთ გარანტიას, რომ ზეინტელექტი ამ სიტუაციაში არ გადაწყვეტს, რომ კაცობრიობისთვის ნამდვილი სიკეთე მისი გაქრობა იქნება. ეს უკავშირდება იმას, რომ მეცნიერები ჯერ კიდევ ვერ იგებენ ალგორითმს, რომლითაც ხელოვნური ინტელექტი თავისი მოქმედებების მიზანშეწონილობას განსაზღვრავს. ადამიანის პრეფერენციების გაგება გამოთვლითი ტექნოლოგიის ლოგიკისაგან ძალიან შორს არის, ამიტომ მნიშვნელოვანია, პირველ რიგში, ჯერ შესაბამისობაში მოვიყვანოთ სიკეთის/ბოროტების კატეგორიების აღქმა მანქანასა და ადამიანში. ახლა კი ამ ამოცანის გადაჭრას თავის თავზე ვერავინ იღებს.
არსებობს უზარმაზარი უფსკრული ჩვენი მოტივების გაგებასა და იმას შორის, რაც გვადარდებს
ამბობს სოარეში
ანუ ის დარწმუნებულია, რომ სანამ ჩვენ თვითონ არ გავერკვევით, რისკენ ვისწრაფვით სინამდვილეში, ჩვენი მომავლის შესახებ გადაწყვეტილების მიღების ხელოვნური ინტელექტისადმი მინდობა ძალიან საშიშია.

ბუტერინმა ასევე ეჭვქვეშ დააყენა მოსაზრება, რომ ადამიანებს შეუძლიათ ასწავლონ მანქანას გაიგოს, რა არის სიკეთე. მიუხედავად იმისა, რომ ხელოვნური ინტელექტის დიდ სისტემებს შეუძლია გააცნობიეროს ადამიანის პრეფერენციების ყველა ნიუანსი, მათ შეიძლება არ ჰქონდეს მათზე მორგების თანდაყოლილი სურვილი.

მან გაგვაფრთხილა, არ ვივარაუდოთ, რომ თვითკმარი კომპიუტერული სისტემების ინტელექტი ავტომატურად იძლევა კაცობრიობის კეთილდღეობაზე გულწრფელი ზრუნვის გარანტიას. ყველაფერი შეიძლება ზუსტად საპირისპირო აღმოჩნდეს.

ღირებულებები, რომლებსაც ადამიანები აფასებენ, ხომ ყველასთვის სავალდებულო არ არის. დიახ, თავად ადამიანის მორალიც კი მხოლოდ ჩვენი წინაპრების პროდუქტია, რომლებიც უპირატესობას ანიჭებდნენ რეპროდუქციულ ფუნქციებსა და გადარჩენას, ვიდრე აბსტრაქტულ წარმოდგენებს უნივერსალური ბედნიერების შესახებ. ამიტომ, სრულყოფილი AI უნდა შეესაბამებოდეს კაცობრიობის კოლექტიურ სწრაფვას სიხარულისკენ, ბედნიერებისა და კეთილდღეობისკენ. და სანამ საბოლოოდ არ გავიგებთ, რა არის ჩვენთვის სიკეთე, ამ საკითხის გადაწყვეტის მანქანაზე დელეგირება საშიშია.

თუმცა, არის ასევე კარგი ამბავიც. თანამოსაუბრეები დარწმუნებულები არიან, რომ ხელოვნური ინტელექტის თანამედროვე სისტემებს, როგორიცაა ChatGPT, შესაძლებლობების ამ დონისთვის ჯერ არ მიუღწევია. ამიტომ, მომდევნო ორი წლის განმავლობაში შეგვიძლია ამოვისუნთქოთ და არ გადავხედოთ "მატრიცასა" და "მანქანების აღზევებას", რათა ვისწავლოთ გიჟური რობოტებისგან თავის დაცვა.