У червні 2025 року компанія Anthropic зробила гучну заяву: вона розробила Claude Gov — нову лінійку штучного інтелекту, спеціально створену для роботи з державною таємницею США. Так, це вже не просто чат-бот для обговорень про погоду чи написання листів. Claude Gov вийшов на арену, де йдеться про національну безпеку, розвідку, стратегічне планування і дуже чутливу аналітику.
І що цікаво — ці моделі вже використовуються урядовими структурами США у закритому режимі, доступ до них мають лише ті, хто працює в захищених середовищах. І якщо ви думали, що штучний інтелект — це щось з майбутнього, то майбутнє вже тут і клацає клавішами у підземному серверному центрі.
Що таке Claude Gov і чим він відрізняється від звичайного Claude?
Claude Gov — це кастомізована версія вже відомого ШІ-асистента Claude, але адаптована спеціально під запити розвідки та оборонних відомств. І ось головні фішки:
- Обробка засекреченої інформації — на відміну від звичайного Claude, цей не відмовляється працювати з секретними даними (менше каже “вибачте, я не можу вам допомогти”).
- Покращене розуміння критичних мов та діалектів, які важливі для глобальних операцій США.
- Налаштування під військові документи, оперативні плани, аналітику розвідданих тощо.
- Безпека на першому місці — моделі проходять ті ж самі тести на безпечність, як і всі інші продукти Anthropic.

Як це все виглядає в реальному світі?
Claude Gov — це не просто внутрішній проєкт. Згідно з офіційною інформацією, моделі вже виконують завдання для структур національної безпеки США. І це відбувається в середовищах із суворим обмеженням доступу, без інтернету, де кожен байт контролюється.
Ці моделі мають іншу етику взаємодії. Вони не “відмовляються” відповідати, коли мова йде про чутливі теми, адже працюють у специфічних умовах і мають інше призначення — не розважати, а допомагати ухвалювати стратегічно важливі рішення.
Інші гравці вже в грі: хто ще розробляє ШІ для шпигунів?
Anthropic — далеко не перша компанія, що занурилася в цю сферу. Конкуренція серйозна:
- Microsoft ще у 2024 році представила закриту версію GPT-4 для розвідки США. Проєкт тривав 18 місяців і зараз охоплює близько 10 000 співробітників спецслужб.
- OpenAI активно розвиває співпрацю з Пентагоном.
- Meta зробила свої Llama-моделі доступними для військових партнерів.
- Google створює окрему версію Gemini для класифікованого середовища.
- Cohere у партнерстві з Palantir також готує свої моделі для держсектору.
Всі ці проєкти вказують на одне: гонка за оборонними контрактами в розпалі. І на кону — мільярди доларів і майбутнє військових технологій.

Але чи можна довіряти ШІ в розвідці?
Тут починається складна частина. AI-моделі, включно з Claude Gov, не є “базами даних”. Вони працюють на ймовірностях і контексті. Це означає, що в певних випадках можливі конфабуляції — тобто правдоподібні, але хибні твердження.
У сфері, де кожне слово може змінити хід війни, це дуже небезпечно. Неправильно сформульований звіт або неточна інтерпретація даних — і весь ланцюг рішень йде хибним шляхом. А в результаті — реальні наслідки для безпеки держав.
Висновок: нова ера розвідки?
Claude Gov — це не просто ще один ШІ. Це символ нової епохи, де машини беруть участь у прийнятті найсекретніших рішень. Деякі називають це “прогресом”, інші — “ковзанням по тонкому льоду”.
Одне зрозуміло: відтепер у грі великих держав з’явився новий учасник — штучний розвідник. А далі — як у фільмах: буде все — і зради, і шпигунство, і, можливо, героїзм бітів і байтів.