Штучний інтелект, як і будь-яка технологія, здатен служити як на благо, так і на шкоду. І якщо раніше ми говорили про AI як про помічника, що створює відео з котиками, генерує казки для дітей або оживляє малюнки, то сьогодні він дедалі частіше потрапляє у заголовки через зовсім інші причини. Наразі TikTok став епіцентром нового скандалу — платформу накрила хвиля расистських відео, створених генеративною AI-моделлю Google Veo 3.
Veo 3: технологічне досягнення з людськими вадами
Коли у травні 2025 року Google представив Veo 3, світ техноентузіастів затамував подих: відео-генерація вийшла на новий рівень — деталізація, реалістика, плавність рухів. Ще трохи — і ви вже не зможете відрізнити, що згенеровано нейромережею, а що знято на камеру.
Але виявилося, що разом із чудовими можливостями з’явилися й серйозні проблеми. Хоч Google і заявляє про “жорсткі етичні рамки” та “вбудовані фільтри”, Veo 3 легко обходить ці обмеження. Інакше як пояснити масову появу відео, що відверто демонструють расистські та антисемітські образи?

TikTok — майданчик, де AI-ненависть набирає перегляди
Соцмережі — це насамперед швидкість і масштаб. Один ролик — і ви вже в трендах. Саме цим користуються ті, хто створює та публікує відео, що базуються на небезпечних стереотипах.
Згідно з аналізом MediaMatters, десятки TikTok-акаунтів протягом останніх тижнів поширювали відео, у яких:
- темношкірі зображуються як злочинці;
- використовуються зооморфні образи (люди у вигляді мавп);
- єврейське населення висміюється через тривіальні стереотипи;
- іммігрантів демонізують як загрозу суспільству.
Ці відео рідко перевищують 10 секунд, мають підпис Veo у куті екрана — і, що найстрашніше, масово набирають лайки, коментарі та репости.
TikTok та Google: політики є, а реакція — запізніла
І TikTok, і Google мають чіткі правила. Наприклад, TikTok забороняє мову ворожнечі, навіть якщо вона прихована або натякає на стереотипи. Але на практиці модерація просто не встигає. Люди й алгоритми не можуть обробити тисячі відео на день. Навіть якщо акаунти видаляють — вони з’являються знову під іншими іменами.
Щодо Google, то у них існує документ Prohibited Use Policy, який прямо забороняє використання сервісів для створення шкідливого чи образливого контенту. Але реальність показує — Veo 3 не завжди розуміє контекст. Наприклад, якщо ви замовите “відео про сімейну вечерю з тропічними фруктами”, а у роликах виявиться підмарафечене зображення, що відсилає до расистських мемів — система цього не побачить.

Що далі? Інтеграція з YouTube Shorts загострить ситуацію
Плани Google інтегрувати Veo 3 у YouTube Shorts виглядають не менш тривожно. Якщо зараз проблема зосереджена на TikTok, то незабаром вона може поширитися на платформу, яку щомісяця переглядають понад 2 мільярди користувачів.
З огляду на те, що Shorts активно просувається серед молоді та підлітків, поява там схожих відео може мати ще серйозніші наслідки: формування у молодих людей викривленого світогляду через AI-меми, які зображують цілу расу чи культуру у принизливому світлі.
Проблема не в технології, а в людях
Слід визнати чесно — сам по собі AI не має упереджень. Усі ці “висновки” він робить із нашого цифрового сліду: мемів, текстів, фото, які ми щодня публікуємо. І якщо суспільство отруєне стереотипами, то й AI буде їх транслювати. А якщо ще й модерація виявляється слабкою — отримаємо небезпечну суміш: швидкість генерації + відсутність контролю = соціальний вибух.
Що можемо зробити ми, як користувачі?
- Скаржитися на сумнівний контент. Навіть якщо здається, що це “дрібниця”.
- Не поширювати расистські жарти, меми, навіть “просто заради іронії”.
- Ставити питання технологічним компаніям: “Чому ваш AI таке генерує?”
- Підтримувати критичне мислення — особливо серед молоді.
Висновок
Ми стоїмо на роздоріжжі. З одного боку — неймовірні можливості штучного інтелекту для творчості, науки, освіти. З іншого — темна прірва, в яку можна злетіти, якщо не втримати баланс. Історія з Google Veo 3 і TikTok — це не просто техноновина. Це дзеркало, в якому ми бачимо, ким можемо стати, якщо не будемо пильними.
AI — це лише інструмент. Але саме ми обираємо, в чиїх він руках.