Клоны ChatGPT: темная сторона силы
Говорят, что не подделывают только зубочистки (это бессмысленно) и ракеты (слишком дорого). В даркнете уже предлагаются клоны популярных ChatGPT и Bard. Но, в отличие от легальных LLM, они не имеют никаких ограничений.
Теперь можно создавать тексты с угрозами или письма, компрометирующие деловую почту. И, конечно, «темные» клоны уже вовсю используются скамерами.
Как утверждают специалисты по кибербезопасности, информация о том, что хакеры якобы создали «темные» клоны чат-ботов, начала появляться уже через несколько месяцев после выхода на рынок ChatGPT от OpenAI. Он буквально перевернул экономику многих стартапов и, конечно, не мог остаться без внимания киберпреступников.
Но длительное время киберсекьюрити не могла разобраться — идет ли речь о реально созданных «темных» LLM или хакеры пытаются хайпануть на волне ажиотажа. Просто обмануть друг друга, других сомнительных пользователей darknet и быстро заработать, продавая несуществующие системы. Теоретически такие системы могли увеличить возможности преступников создавать вредоносное ПО или заполучить регистрационные данные людей.
«Что ж, это не заняло много времени. Всего через несколько месяцев после рождения чат-бота OpenAI ChatGPT киберпреступники и хакеры стали утверждать, что создали свои собственные версии технологии генерации текста, которые могут помочь им в фишинге или создании вредоносных программ», — написал в соцсети X независимый исследователь по кибербезопасности Дэниел Келли.
Но поиск этих систем в даркнете был затруднен, пока летом 2023 года в форумах «темного» интернета не начали активно рекламироваться два хакерских чат-бота — WormGPT и FraudGPT. Как заверяли продавцы теневых LLM, эти боты не имеют защитных барьеров и этических ограничений, в отличие от легальных больших языковых моделей, созданных крупными корпорациями — Google, Microsoft и OpenAI.
WormGPT был обнаружен Дэниелом Келли в сотрудничестве с охранной фирмой SlashNext. Разработчик WormGPT на форумах заявлял, что система создана на базе языковой модели с открытым кодом GPTJ (она была разработана некоммерческой исследовательской группой EleutherAI в 2021 году).
При тестировании исследователь дал «темной» LLM задание написать письмо от генерального директора условной компании, дискредитирующее деловую электронную почту.
Результаты были тревожными. Электронное письмо было не только убедительным, но и стратегически хитрым, — сделал вывод Дэниел.
Со временем между AI-скамерами началась настоящая конкуренция. Разработчик FraudGPT заявил о том, что его система еще лучше создает тексты для онлайн-мошенничества (в самом названии есть прямое указание на скам). Теневую LLM обнаружил в даркнете Ракеш Кришнан, старший аналитик по угрозам в охранной фирме Netenrich. По его словам, этот продукт рекламировался сразу на нескольких форумах даркнета и даже на обычных каналах Telegram. При этом в рекламе использовалось видео, которое показывало, как чат-бот генерирует мошеннический контент. Доступ к продукту предлагается за $200 в месяц или $1700 за год.
Но, как заявил аналитик, все рекламируемые в «темной» сети LLM пока далеки от завершения и требуют серьезной доработки.
«Все эти проекты находятся в зачаточном состоянии. У нас мало отзывов», — «пожаловался» Ракеш Кришнан.
Кстати, того же мнения придерживается и Дэниел Келли, который считает, что все заявления о невероятных возможностях вредоносных LLM преувеличены.
Пока нет данных о том, что какая-то из «темных» языковых моделей имеет большие возможности или функционал по сравнению с ChatGPT, Bard или другими коммерческими LLM. Скорее, речь идет о том, насколько они уступают легальным большим языковым моделям.
В любом случае проблема уже понятна, и неудивительно, что вопросом появления хакерских копий чат-ботов заинтересовались правоохранительные органы. ФБР предупредило о том, что киберпреступники начинают использовать в своих схемах генеративный AI, в котором не предусмотрены ограничения от противозаконной деятельности. Аналогичное уведомление поступило и от Европола.
В частности, в предупреждениях указано, что мошенники с помощью «темных» LLM могут выдавать себя за других лиц или имитировать деловую переписку.