akira bot

OpenAI випадково сприяла масовій спам-атаці, яка тривала щонайменше 4 місяці

Дослідники з компанії SentinelOne повідомили про серйозний інцидент: зловмисники використали чат-боти OpenAI, щоб створити унікальні спам-повідомлення, які обійшли фільтри захисту та були розіслані на понад 80 000 вебсайтів лише за чотири місяці. Найгірше — компанія OpenAI навіть не одразу помітила, що її інструменти використовуються не за призначенням.

Ця ситуація підкреслює важливу проблему: потужні мовні моделі, як-от GPT, можуть однаково ефективно застосовуватись як у добрих, так і в шкідливих цілях.


Що сталося: як працювала спам-кампанія

Систему, яка відповідала за спам-розсилку, назвали AkiraBot. Це цілий фреймворк, що автоматизовано розсилає повідомлення з рекламними цілями, орієнтуючись на малі та середні сайти. Основна мета — просування сумнівних SEO-послуг, таких як “Akira” та “ServiceWrap”.

Ось як це працювало:

  • AkiraBot використовував Python-скрипти для ротації доменів, які рекламувалися у повідомленнях.
  • Для створення текстів використовувався OpenAI API з моделлю gpt-4o-mini. Система призначала їй роль: “Ви — корисний асистент, який створює маркетингові повідомлення.”
  • Штучний інтелект генерував унікальні повідомлення для кожного окремого сайту, підставляючи назву сайту й короткий опис його послуг.

Ці повідомлення виглядали персоналізовано та достовірно, тому традиційні антиспам-фільтри не могли їх виявити, адже вони не мали однакового шаблону.

akira bot ninja

Спам через форми зворотного зв’язку і чати

Згенеровані AI-повідомлення надсилались через:

  • Форми зворотного зв’язку
  • Вікна онлайн-чату, які вбудовані на багатьох сайтах

Дослідники з SentinelLabs пояснили: через індивідуальний підхід до кожного сайту повідомлення виглядали “живими” і створеними вручну. Це суттєво ускладнило виявлення спаму. В результаті — понад 80 000 сайтів отримали унікальні повідомлення. Для порівняння, ще близько 11 000 доменів були неуспішними цілями, але спроби все одно були.


Реакція OpenAI: запізніле втручання

Компанія OpenAI виявила зловживання лише в лютому 2025 року — тоді акаунт зловмисників було заблоковано. Представники OpenAI подякували дослідникам і підтвердили, що такі дії порушують правила використання сервісу.


Які висновки можна зробити

Цей інцидент показує: навіть найкращі технології можуть бути використані у шкідливих цілях. Штучний інтелект не має моралі — він просто виконує інструкції. І якщо хтось надасть йому погану інструкцію — результат буде відповідний.

Для власників сайтів варто:

  • Встановити додаткові антиспам-фільтри на контактні форми
  • Впровадити капчу або перевірку дій користувача
  • Слідкувати за незвичними або надто шаблонними повідомленнями
  • Оновити свої засоби безпеки проти ботів

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *