Клони ChatGPT: темний бік сили
Подейкують, що не підробляють лише зубочистки (це безглуздо) та ракети (надто дорого). У даркнеті вже пропонуються клони популярних ChatGPT і Bard. Але, на відміну від легальних LLM, вони не мають жодних обмежень.
Тепер можна створювати тексти з погрозами або листи, які компрометують ділову пошту. І, звісно ж, «темні» клони вже активно використовуються скамерами.
Як стверджують фахівці з кібербезпеки, інформація про те, що хакери нібито створили «темні» клони чат-ботів, почала з’являтися вже через кілька місяців після виходу на ринок ChatGPT від OpenAI. Він буквально перевернув економіку багатьох стартапів і, звісно, не міг залишитися поза увагою кіберзлочинців.
Але тривалий час кіберсек’юриті не могла з’ясувати — чи йдеться про реально створені «темні» LLM, чи хакери намагаються хайпанути на хвилі ажіотажу. Просто обдурити одне одного та інших сумнівних користувачів darknet і швидко заробити, продаючи несправжні системи.
Теоретично такі системи могли розширити можливості злочинців щодо створення шкідливого ПЗ чи отримання реєстраційних даних людей.
«Що ж, це не забрало багато часу. Лише за кілька місяців після народження чат-бота OpenAI ChatGPT кіберзлочинці й хакери стали стверджувати, що створили свої власні версії технології генерації тексту, які можуть допомогти їм у фішингу або створенні шкідливих програм», — написав у соцмережі X незалежний дослідник з кібербезпеки Деніел Келлі.
Але пошук цих систем у даркнеті був утруднений, поки влітку 2023 року на форумах «темного» інтернету не почали активно рекламуватися два хакерські чат-боти — WormGPT і FraudGPT. Як запевняли продавці тіньових LLM, ці боти не мають захисних бар’єрів та етичних обмежень, на відміну від легальних мовних моделей, які створили великі корпорації — Google, Microsoft та OpenAI.
WormGPT був виявлений Деніелом Келлі у співпраці з охоронною фірмою SlashNext. Розробник WormGPT на форумах заявляв, що система створена на базі мовної моделі з відкритим кодом GPTJ (вона була розроблена некомерційною дослідницькою групою EleutherAI у 2021 році).
Під час тестування дослідник дав «темній» LLM завдання написати від імені генерального директора умовної компанії листа, що дискредитує ділову електронну пошту.
Результати були тривожними. Електронний лист виявився не тільки переконливим, а й стратегічно хитрим., — зробив висновок Деніел.
Згодом між AI-скамерами розпочалася справжня конкуренція. Розробник FraudGPT заявив, що його система ще краще створює тексти для онлайн-шахрайства (у самій назві міститься пряма вказівка на скам). Тіньову LLM виявив у даркнеті Ракеш Кришнан, старший аналітик із загроз в охоронній фірмі Netenrich. За його словами, цей продукт рекламувався одразу на кількох форумах даркнету та навіть у звичайних каналах Telegram. Водночас у рекламі використовувалося відео, яке показувало, як чат-бот генерує шахрайський контент. Доступ до продукту пропонується за $200 на місяць або $1700 на рік.
Але, як заявив аналітик, всі рекламовані в «темній» мережі LLM поки що далекі від завершення і потребують серйозного доопрацювання.
«Усі ці проєкти перебувають у зародковому стані. Ми маємо мало відгуків», — «поскаржився» Ракеш Кришнан.
До речі, такої самої думки дотримується й Деніел Келлі, який вважає, що всі заяви про неймовірні можливості шкідливих LLM перебільшені.
Хай там як, але поки що немає даних про те, що якась із «темних» мовних моделей отримала великі можливості або функціонал порівняно з ChatGPT, Bard або іншими комерційними LLM. Найімовірніше, йдеться про те, наскільки вони поступаються легальним великим мовним моделям.
У будь-якому разі проблема вже зрозуміла, тож не дивно, що питанням появи хакерських копій чат-ботів зацікавилися правоохоронні органи. ФБР попередило, що кіберзлочинці починають використовувати у своїх схемах генеративний AI, в якому не передбачені обмеження протизаконної діяльності. Аналогічне повідомлення надійшло й від Європолу.
Зокрема, у попередженнях зазначено, що шахраї за допомогою «темних» LLM можуть удавати з себе інших осіб або імітувати ділове листування.