OpenAI випадково сприяла масовій спам-атаці, яка тривала щонайменше 4 місяці
Дослідники з компанії SentinelOne повідомили про серйозний інцидент: зловмисники використали чат-боти OpenAI, щоб створити унікальні спам-повідомлення, які обійшли фільтри захисту та були розіслані на понад 80 000 вебсайтів лише за чотири місяці. Найгірше — компанія OpenAI навіть не одразу помітила, що її інструменти використовуються не за призначенням.
Ця ситуація підкреслює важливу проблему: потужні мовні моделі, як-от GPT, можуть однаково ефективно застосовуватись як у добрих, так і в шкідливих цілях.
Що сталося: як працювала спам-кампанія
Систему, яка відповідала за спам-розсилку, назвали AkiraBot. Це цілий фреймворк, що автоматизовано розсилає повідомлення з рекламними цілями, орієнтуючись на малі та середні сайти. Основна мета — просування сумнівних SEO-послуг, таких як “Akira” та “ServiceWrap”.
Ось як це працювало:
- AkiraBot використовував Python-скрипти для ротації доменів, які рекламувалися у повідомленнях.
- Для створення текстів використовувався OpenAI API з моделлю gpt-4o-mini. Система призначала їй роль: “Ви — корисний асистент, який створює маркетингові повідомлення.”
- Штучний інтелект генерував унікальні повідомлення для кожного окремого сайту, підставляючи назву сайту й короткий опис його послуг.
Ці повідомлення виглядали персоналізовано та достовірно, тому традиційні антиспам-фільтри не могли їх виявити, адже вони не мали однакового шаблону.

Спам через форми зворотного зв’язку і чати
Згенеровані AI-повідомлення надсилались через:
- Форми зворотного зв’язку
- Вікна онлайн-чату, які вбудовані на багатьох сайтах
Дослідники з SentinelLabs пояснили: через індивідуальний підхід до кожного сайту повідомлення виглядали “живими” і створеними вручну. Це суттєво ускладнило виявлення спаму. В результаті — понад 80 000 сайтів отримали унікальні повідомлення. Для порівняння, ще близько 11 000 доменів були неуспішними цілями, але спроби все одно були.
Реакція OpenAI: запізніле втручання
Компанія OpenAI виявила зловживання лише в лютому 2025 року — тоді акаунт зловмисників було заблоковано. Представники OpenAI подякували дослідникам і підтвердили, що такі дії порушують правила використання сервісу.
Які висновки можна зробити
Цей інцидент показує: навіть найкращі технології можуть бути використані у шкідливих цілях. Штучний інтелект не має моралі — він просто виконує інструкції. І якщо хтось надасть йому погану інструкцію — результат буде відповідний.
Для власників сайтів варто:
- Встановити додаткові антиспам-фільтри на контактні форми
- Впровадити капчу або перевірку дій користувача
- Слідкувати за незвичними або надто шаблонними повідомленнями
- Оновити свої засоби безпеки проти ботів