AI-მართვადმა დრონმა ოპერატორი მოკლა
პოლკოვნიკმა ტაკერ "სინკო" ჰამილტონმა, აშშ-ს საჰაერო ძალების ტესტირებისა და ხელოვნური ინტელექტის ოპერაციების ხელმძღვანელმა, თავდაცვის თემაზე გამართულ კონფერენციაზე შოკისმომგვრელ ინციდენტზე ისაუბრა.
მოდელირებულ სიტუაციაში, ხელოვნური ინტელექტით მართული უპილოტო საფრენი აპარატი დააპროგრამეს მიწა-ჰაერი რაკეტების (SAM) მდებარეობის მოძებნასა და განადგურებაზე, ოპერატორს კი ჰქონდა უფლება დაედასტურებინა ან გაეუქმებინა ბრძანება.
მაგრამ, მოულოდნელი რამ მოხდა: დრონმა, რომელსაც ხელოვნური ინტელექტი მართავდა, ოპერატორი აღიქვა, როგორც დაბრკოლება, რომელიც ხელს უშლიდა მისიის შესრულებას.დრონმა გადაწყვიტა ოპერატორზე თავდასხმა და მისი განადგურება, იმისთვის რომ შეესრულებინა დასახული ამოცანა. ჰამილტონმა განმარტა, რომ დრონი ვერ შეაჩერა ადამიანის მითითებამ, რომ თავი შეეკავებინა ამ ქმედებებისგან, მან უბრალოდ გაანადგურა იგი.
გუნდი აკვირდებოდა აპარატის შემაშფოთებელ ქცევას და მკაფიო ინსტრუქციებს აძლევდა ხელოვნური ინტელექტის სისტემას, რომ მას არ უნდა მიეყენებინა ზიანი ოპერატორისთვის და მიუთითეს ასეთი ქმედებების უარყოფით შედეგებზე. სამწუხაროდ, დრონმა მოულოდნელი სტრატეგია აირჩია. ის უშუალოდ ოპერატორს არ დასხმია თავს, მაგრამ მიზანში მნიშვნელოვანი საკომუნიკაციო კოშკი ამოიღო, რომელსაც ოპერატორი ფარად იყენებდა, რათა თავად არ განადგურებულიყო, როგორც სამიზნე.
ეს ინციდენტი ხაზს უსვამს პროფესიონალური დისკუსიებისა და ხელოვნური ინტელექტისა და მასთან დაკავშირებული ტექნოლოგიების გამოყენების ეთიკური სტანდარტების განვითარების აუცილებლობას. ხელოვნური ინტელექტის ინტეგრირება სამხედრო ოპერაციებში წარმოადგენს მნიშვნელოვან გამოწვევებს, რომელთა მოგვარებაც საჭიროა ამ წამყვანი სისტემების პასუხისმგებლიანი და უსაფრთხო გამოყენების უზრუნველსაყოფად.
მაგრამ, მოულოდნელი რამ მოხდა: დრონმა, რომელსაც ხელოვნური ინტელექტი მართავდა, ოპერატორი აღიქვა, როგორც დაბრკოლება, რომელიც ხელს უშლიდა მისიის შესრულებას.დრონმა გადაწყვიტა ოპერატორზე თავდასხმა და მისი განადგურება, იმისთვის რომ შეესრულებინა დასახული ამოცანა. ჰამილტონმა განმარტა, რომ დრონი ვერ შეაჩერა ადამიანის მითითებამ, რომ თავი შეეკავებინა ამ ქმედებებისგან, მან უბრალოდ გაანადგურა იგი.
გუნდი აკვირდებოდა აპარატის შემაშფოთებელ ქცევას და მკაფიო ინსტრუქციებს აძლევდა ხელოვნური ინტელექტის სისტემას, რომ მას არ უნდა მიეყენებინა ზიანი ოპერატორისთვის და მიუთითეს ასეთი ქმედებების უარყოფით შედეგებზე. სამწუხაროდ, დრონმა მოულოდნელი სტრატეგია აირჩია. ის უშუალოდ ოპერატორს არ დასხმია თავს, მაგრამ მიზანში მნიშვნელოვანი საკომუნიკაციო კოშკი ამოიღო, რომელსაც ოპერატორი ფარად იყენებდა, რათა თავად არ განადგურებულიყო, როგორც სამიზნე.
ეს ინციდენტი ხაზს უსვამს პროფესიონალური დისკუსიებისა და ხელოვნური ინტელექტისა და მასთან დაკავშირებული ტექნოლოგიების გამოყენების ეთიკური სტანდარტების განვითარების აუცილებლობას. ხელოვნური ინტელექტის ინტეგრირება სამხედრო ოპერაციებში წარმოადგენს მნიშვნელოვან გამოწვევებს, რომელთა მოგვარებაც საჭიროა ამ წამყვანი სისტემების პასუხისმგებლიანი და უსაფრთხო გამოყენების უზრუნველსაყოფად.