ШІ-cкам: у мережі X виявили ботнети, що націлені на криптанів

Фото - ШІ-cкам: у мережі X виявили ботнети, що націлені на криптанів
Поява ChatGPT стала однією з технологій, що пропонують рішення в різних напрямах — від вебпошуку та створення текстового контенту до організації ефективного офісу та освіти. Але, здавалося б, безневинний «балакучий» чат-бот з AI став одним з інструментів шахраїв у соцмережах для просування криптоскаму.
Дослідники з Університету Індіани в Блумінгтоні вперше виявили ботнет на базі ChatGPT, що працює в мережі X, ще у травні цього року. Щоб до кінця зрозуміти всі його складники, знадобилося все літо. Ботнет, який отримав назву Fox8, складався з великої кількості фейкових облікових записів (понад 1,1 тис.) і використовував ChatGPT для генерації контенту. Акаунти, керовані ШІ, створювали дописи у соціальних мережах та для правдоподібності спілкувалися один з одним. Метою було ввести в оману довірливих користувачів, змусивши їх вірити, ніби вони читають спілкування криптанів, і переходити за посиланнями на шахрайські криптосайти.

«Єдина причина, через яку ми помітили цей конкретний ботнет, полягала в його недбалій роботі»
, — зазначає Філіппо Менцер (Filippo Menczer), професор Університету Індіани у Блумінгтоні.

Дослідники вручну переглянули акаунти і виділили ті, які мали ознаки, типові для роботів. Зрештою вони виявили Fox8 завдяки специфічному ідентифікатору, що часто застосовує ChatGPT (наприклад, фрази на кшталт «як мовна модель ШІ...»). Цей характерний ідентифікатор зазвичай з’являється у відповідях на запитання, які ШІ вважає делікатними.

Проте тактика, застосована шахраями, демонструє разючу ефективність. Дописи від ШІ дуже успішно і часто привертали увагу криптанів серед користувачів X. Це, на думку дослідників, демонструє, наскільки легко можна використовувати, здавалося б, складну технологію ШІ для шкідливих дій у сфері криптовалют.

Якщо такий порівняно простий ботнет зміг успішно дурити користувачів, це порушує серйозне питання щодо шкідливого потенціалу більш просунутих чат-ботів, які керують іншими, ще не виявленими ботнетами.

Філіппо Менцер наголошує, що по-справжньому майстерні зловмисники вже не припустяться таких елементарних помилок і створять набагато складніші і витонченіші моделі, керовані ШІ.
Міка Массер, дослідник, який вивчав потенціал дезінформації за допомогою штучного інтелекту, вважає, що ботнет Fox8 може бути лише верхівкою айсберга.
Дуже, дуже ймовірно, що на кожну знайдену вами кампанію припадає безліч інших, які вдаються до більш складних дій
, — зазначив він.
Цей інцидент є нагадуванням про те, що відповідальна розробка та використання ШІ є обов’язковими. І вживати заходів для запобігання неправильному застосуванню інструментів на базі штучного інтелекту все ж таки необхідно. У міру розвитку технологій важливо знайти баланс між інноваціями та етичними міркуваннями, гарантуючи, що потенціал ШІ буде використаний на благо суспільства і не завдасть шкоди.

Вільям Ван, професор Каліфорнійського університету Санта-Барбари, акцентує на загостренні проблеми злочинного використання ChatGPT. Він вважає, що наразі переважна більшість спам-контенту на вебсторінках генерується автоматично за допомогою штучного інтелекту. Через швидке вдосконалення ШІ людям стає дедалі важче відрізнити такий контент від справжнього. На думку Вана, ситуація є доволі тривожною.
Нагадаємо, що в GN раніше писали про діпфейки, створені за допомогою ШІ, які ставлять під загрозу не лише приватне життя звичайних громадян, а й національну безпеку країн.