სარისკო AI ინსტრუმენტები, ავსტრალიაში, შესაძლოა, აკრძალული იყოს
ხელოვნური ინტელექტის სწრაფი განვითარების გამო გლობალური შეშფოთების საპასუხოდ, ავსტრალიის მთავრობამ დაიწყო სასწრაფო კონსულტაციები იმის დასადგენად, უნდა აიკრძალოს თუ არა ნებისმიერი სარისკო AI აპლიკაცია. ეს ინიციატივა მოჰყვება აშშ-ში, ევროკავშირსა და ჩინეთში განხორციელებულ მსგავს ქმედებებს, რათა AI-სთან დაკავშირებული რისკები შესწავლილი და შემცირებული იყოს.
1 ივნისს, მრეწველობისა და მეცნიერების მინისტრმა ედ ჰუსიკმა ორი დოკუმენტი გამოაქვეყნა: სადისკუსიო პრეზენტაცია თემაზე „უსაფრთხო და პასუხისმგებელი ხელოვნური ინტელექტი ავსტრალიაში“ და ეროვნული სამეცნიერო- ტექნიკური საბჭოს ანგარიში გენერაციული ხელოვნური ინტელექტის შესახებ. სამთავრობო კონსულტაციები 26 ივლისამდე გაგრძელდება.
კონსულტაციების მიზანია არგუმენტების შეგროვება ხელოვნური ინტელექტის უსაფრთხო და პასუხისმგებლობით გამოყენების მხარდასაჭერად. კონსულტაციების საკვანძო საკითხია, უნდა აიკრძალოს თუ არა რაიმე სარისკო AI-ინსტრუმენტები და როგორ მოხდება მათი იდენტიფიცირება.
პრეზენტაციაში AI მოდელების რისკის მატრიცის მაგალითია მოყვანილი, რომელშიც ხელოვნური ინტელექტი თვითმართვად მანქანებში, "მაღალი რისკის" კატეგორიას მიეკუთვნება, ხოლო AI გენერაციული ინსტრუმენტი (გამოიყენება, მაგალითად, ისეთი ამოცანებისთვის, როგორიცაა პაციენტის სამედიცინო ბარათების შექმნა), "საშუალო რისკის" კატეგორიაშია შეტანილი".
დოკუმენტში დადასტურებულია ხელოვნური ინტელექტის როგორც დადებითი გამოყენება სამედიცინო, საინჟინრო და იურიდიულ დარგებში, ასევე მისი უარყოფითი მხარეები, მაგ. deepfake ინსტრუმენტები, ფეიკ-ამბების შექმნა და შემთხვევები, როდესაც AI ბოტები თვითდაზიანებას ხელს უწყობენ. ასევე განიხილება ისეთი საკითხები, როგორიცაა AI მოდელების მიკერძოებულობა ან როდესაც AI ცრუ ინფორმაციას ავრცელებს.
„საზოგადოების ნდობის დაბალი დონის“ მოტივით, დოკუმენტში აღნიშნულია, რომ ხელოვნური ინტელექტის გავრცელება ავსტრალიაში ამჟამად „შედარებით დაბალ ნიშნულზეა“. დოკუმენტში ასევე საუბარია AI-ის რეგულირებაზე სხვა იურისდიქციებში და ChatGPT-ის დროებით აკრძალვაზე იტალიაში.
ავსტრალიას აქვს გარკვეული ძლიერი მხარეები AI-ის სფეროში, კერძოდ, რობოტოტექნიკასა და კომპიუტერულ ხედვაში. თუმცა, მეცნიერებისა და ტექნოლოგიების ეროვნული საბჭოს ინფორმაციით, მისი ძირითადი ფუნდამენტური პოტენციალი დიდ ენობრივ მოდელებსა და მასთან დაკავშირებულ სფეროებში შედარებით სუსტია. ანგარიშში ასევე აღნიშნულია რისკი, რომელიც დაკავშირებულია გენერაციული AI რესურსების კონცენტრაციასთან რამდენიმე მსხვილ ტექნოლოგიურ კომპანიაში, რომლებიც ძირითადად აშშ-შია დაფუძნებული.
კონსულტაციების მიზანია არგუმენტების შეგროვება ხელოვნური ინტელექტის უსაფრთხო და პასუხისმგებლობით გამოყენების მხარდასაჭერად. კონსულტაციების საკვანძო საკითხია, უნდა აიკრძალოს თუ არა რაიმე სარისკო AI-ინსტრუმენტები და როგორ მოხდება მათი იდენტიფიცირება.
პრეზენტაციაში AI მოდელების რისკის მატრიცის მაგალითია მოყვანილი, რომელშიც ხელოვნური ინტელექტი თვითმართვად მანქანებში, "მაღალი რისკის" კატეგორიას მიეკუთვნება, ხოლო AI გენერაციული ინსტრუმენტი (გამოიყენება, მაგალითად, ისეთი ამოცანებისთვის, როგორიცაა პაციენტის სამედიცინო ბარათების შექმნა), "საშუალო რისკის" კატეგორიაშია შეტანილი".
დოკუმენტში დადასტურებულია ხელოვნური ინტელექტის როგორც დადებითი გამოყენება სამედიცინო, საინჟინრო და იურიდიულ დარგებში, ასევე მისი უარყოფითი მხარეები, მაგ. deepfake ინსტრუმენტები, ფეიკ-ამბების შექმნა და შემთხვევები, როდესაც AI ბოტები თვითდაზიანებას ხელს უწყობენ. ასევე განიხილება ისეთი საკითხები, როგორიცაა AI მოდელების მიკერძოებულობა ან როდესაც AI ცრუ ინფორმაციას ავრცელებს.
„საზოგადოების ნდობის დაბალი დონის“ მოტივით, დოკუმენტში აღნიშნულია, რომ ხელოვნური ინტელექტის გავრცელება ავსტრალიაში ამჟამად „შედარებით დაბალ ნიშნულზეა“. დოკუმენტში ასევე საუბარია AI-ის რეგულირებაზე სხვა იურისდიქციებში და ChatGPT-ის დროებით აკრძალვაზე იტალიაში.
ავსტრალიას აქვს გარკვეული ძლიერი მხარეები AI-ის სფეროში, კერძოდ, რობოტოტექნიკასა და კომპიუტერულ ხედვაში. თუმცა, მეცნიერებისა და ტექნოლოგიების ეროვნული საბჭოს ინფორმაციით, მისი ძირითადი ფუნდამენტური პოტენციალი დიდ ენობრივ მოდელებსა და მასთან დაკავშირებულ სფეროებში შედარებით სუსტია. ანგარიშში ასევე აღნიშნულია რისკი, რომელიც დაკავშირებულია გენერაციული AI რესურსების კონცენტრაციასთან რამდენიმე მსხვილ ტექნოლოგიურ კომპანიაში, რომლებიც ძირითადად აშშ-შია დაფუძნებული.