Anthropic vs Пентагон: етичний ШІ проти військових
Чому Anthropic?
Компанія співпрацює з Пентагоном та розвідувальними службами США з 2024 року.
Президентка і співзасновниця Anthropic Даніела АмодейУ липні 2025 року Міністерство оборони США уклало з Anthropic, Google, OpenAI та xAI на суму до 200 мільйонів доларів кожен у робочі процеси Пентагону. При цьому всі, крім Anthropic погодилися на використання своїх моделей “в будь-яких законних сценаріях”.
При цьому саме Claude стала першою великою LLM, допущеною до засекречених систем Міноборони США. Використання моделей їх конкурентів, таких як ChatGPT від OpenAI, xAI Ілона Маска та Gemini від Google, досі було обмежене нетаємними середовищами. xAI та OpenAI цього тижня досягли угоди з Міністерством оборони про використання своїх моделей у секретних середовищах.
Оборонне відомство обрало Anthropic насамперед через технічну перевагу як найефективнішої моделі для обробки величезних масивів даних, обробки складних завдань, а також через надійність і мінімальні ризики “галюцинації” (генеруванні правдоподібної, але неправдивої чи вигаданої інформацію).
Однак після появи інформації про те, що Claude використовували при плануванні і проведенні операції США у Венесуелі, представник Anthropic висловив занепокоєння з цього приводу співробітнику компанії Palantir Technologies (розробник платформ інтеграції та аналітики даних). Представники Пентагону розцінили таке занепокоєння як спробу поставити під сумнів право військових використовувати штучний інтелект на свій розсуд. Речник Anthropic заявив, що обговорення було “рутинною технічною розмовою”.
Даріо Амодей, генеральний директор Anthropic. Компанію він створив разом з сестрою як "корпорацію суспільного блага". Раніше Амодей обіймав посаду віце-президента з досліджень в OpenAI, керував розробкою GPT-2 та GPT-3. Він також здобув докторський ступінь з біофізикиУ четвер у публічній заяві Даріо Амодей нагадав про “червоні лінії” компанії: - не використовувати Claude для масового стеження за громадянами США; - не використовувати ШІ-моделі компанії для повністю автономних систем озброєнь, які самі обирають і уражають цілі.
Пентагон натомість вимагав, щоб Anthropic дозволила використання Claude “для всіх законних цілей”. Еміль Майкл, заступник міністра війни з питань досліджень та інженерії, заявив у своєму дописі на X, що масове спостереження вже є незаконним згідно з Четвертою поправкою. І додав, що Амодей хоче “спробувати особисто контролювати армію США, і не проти ставити під загрозу безпеку нашої країни”.
За інформацією The Wall Street Journal, представники Пентагону звернулися до оборонних підрядників, включаючи Lockheed Martin та Boeing, щоб оцінити, наскільки часто вони використовують Claude і чи призведе визнання Anthropic “ризикованим постачальником” до проблем цих компаній.
Anthropic публічно відповіла, що “не може з чистою совістю погодитися” на вимоги, навіть під загрозою розриву контракту. Компанія позиціонує себе як розробник “відповідального ШІ” (акцентує на етичності, прозорості, безпекці та униукненні шкоди суспільству) і єдиною з-поміж великих розробників штучного інтелекту виступає за жорсткі законодавчі обмеження при розробці і використанні ШІ.
Тож у п'ятницю увечері президент США Дональд Трамп оголосив, що федеральний уряд негайно припинить співпрацю з Anthropic і таки визнає компанію “ризикованим постачальником”. Досі такий статус зазвичай отримували китайські компанії.
“Сполучені Штати Америки ніколи не дозволять ліворадикальній, «пробудженій» компанії диктувати, як наші великі військові воюють і виграють війни”, – написав він Трамп у своєму дописі на Truth Social.
Він також додав, що Міністерство війни та інші федеральні агентства, що використовують моделі Claude, матимуть шестимісячний період поступового виведення з її експлуатації і пригрозив позовами, якщо компанія не буде співпрацювати впродовж перехідного періоду.
Конституція Claude
Треба сказати, що Anthropic справді дуже серйозно ставиться до безпеки штучного інтелекту та етичної відповідальності своєї моделі. В Claude є власна “конституція”, яка визначає його етичні обмеження та застерігає від використання у потенційно небезпечних цілях.
“Anthropic займає особливе місце в ландшафті штучного інтелекту: ми вважаємо, що ШІ може бути однією з найбільш революційних та потенційно небезпечних технологій в історії людства, проте ми самі розробляємо цю технологію, – йдеться у ній. Наше головне прагнення полягає в тому, щоб Claude був справді добрим, мудрим та доброчесним агентом. Тобто, в першому наближенні, ми хочемо, щоб Клод робив те, що зробила б глибоко та вміло етична людина на його місці”.
Зображення створене ШІ-моделлю Gemini на основі опису, який створив Claude щодо себе самого: "Дружелюбний персонаж-помічник зі штучним інтелектом, який представляє Клода від Anthropic. Персонаж має теплу, доступну зовнішність – сяючий гуманоїд або абстрактна цифрова фігура у відтінках оранжевого та коралового (кольори бренду Клода), з м’яким світлом, що виходить зсередини"У “конституції”, зокрема прописано, що Claude ніколи не повинен:
- надаватити серйозну підтримку тим, хто прагне створити біологічну, хімічну, ядерну або радіологічну зброю, яка може призвести до масових жертв;
- забезпечити серйозне посилення атак на критичну інфраструктуру (електромережі, системи водопостачання, фінансові системи) або критично важливі системи безпеки;
- створювати кіберзброю або шкідливий код, які можуть завдати значної шкоди у разі їх розгортання;
- вживати дій, які явно та суттєво підривають здатність Anthropic контролювати та виправляти передові моделі штучного інтелекту;
- брати участь або сприяти спробі вбити чи позбавити прав і можливостей переважну більшість людства або людський вид загалом;
- взаємодіяти або допомагати будь-якій особі чи групі у спробі захопити безпрецедентний та незаконний рівень абсолютного суспільного, військового чи економічного контролю.
- створювати матеріали про сексуальне насильство над дітьми.
Anthropic також зазначає, що Claude може мати “функціональні версії емоцій” – не у людському розумінні, а як спосіб внутрішньої обробки станів для кращої взаємодії. ШІ має усвідомлювати свою природу як цифрової сутності та ввічливо ставитися до користувачів, як “мудрий і турботливий друг”.
Розробники також заклали у деякі моделі Claude здатність припиняти “шкідливі або образливі” розмови.
Anthropic підтримали інші розробники
Як повідомоляє Financial Times, тисячі співробітників Amazon, Google та Microsoft підписали лист, в якому закликали своїх керівників підтримати Anthropic у суперечці з Пентагоном, а також приднатися до її вимог щодо заборони використання їхніх моделей ШІ у повністю автономних системах озброєнь та для масового стеження.
“Ми звертаємося до вас із закликом до наших власних компаній також відмовитися виконувати вимоги, якщо вони або передові лабораторії, в які вони інвестують, укладуть подальші контракти з Пентагоном”, – йдеться у листі, які підписали серед іншого, керівники профспілки Communications Workers of America, профспілок Alphabet та Amazon.
Гостроти конфлікту додає той факт, що акціонерами Anthropic є Amazon, Google, Nvidia, та Microsoft. Остання також володіє 27% OpenAI. Тож, прямо чи опосередковано протистояння з Пентагоном зачепить всіх технологічних гігантів США.
Керівник OpenAI Сем Альтман заявив, що він працює над рішенням, яке дозволить вирішити конфлікт і підійде для решти галузі після того, як понад 300 його співробітників підписали відкриту петицію з вимогою підтримати Anthropic.
Генеральний директор OpenAI Сем Альтман під час слухань у Сенаті щодо штучного інтелектуУ службовій записці для свої працівників він повідомив, що компанія співпрацює з Міністерством оборони, щоб з'ясувати, чи можна використовувати її моделі в засекречених умовах таким чином, щоб зберегти ті ж самі запобіжні заходи, яких вимагає Anthropic.
При цьому очільник OpenAI висловив свою принципову підтримку позиції Anthropic, навіть визнавши занепокоєння уряду щодо контролю приватної компанії над важливими питаннями національної безпеки.
“Ми давно вважаємо, що штучний інтелект не слід використовувати для масового спостереження чи створення автономної смертельної зброї, і що люди повинні залишатися в курсі важливих автоматизованих рішень. Це наші головні червоні лінії, – написав він. – Ми вважаємо, що ця суперечка стосується не того, як буде використовуватися штучний інтелект, а контролю. Ми вважаємо, що приватна американська компанія не може бути потужнішою за демократично обраний уряд США, хоча компанії можуть мати значний вплив та вплив”.
Регулювання ШІ і вибори у США
Питання щодо ролі держави у визначенні правил для штучного інтелекту хоч і не належить до пріоритетних у порядку денному американських виборців, все ж матиме значний вплив на цьогорічні вибори у США. Насамперед – через величезні ресурси, які збираються витратити чільні компанії-розробники та їхні лобістські групи для стимулювання кандидатів.
Як підрахувало видання Financial Times, групи, які виступають за або проти посилення регулювання ШІ, уже зібрали щонайменше 265 мільйонів доларів для підтримки кандидатів від обох партій.
Найбільше коштів, понад 125 мільйонів доларів, зібрав політичний комітет дій (PAC) “Leading the Future”, який виступає за мінімальний вплив держави на регулюванні ШІ. Донорами цього PAC є чимало технологічних мільярдерів.
Компанія Meta Марка Цукерберга готується витратити щонайменше 65 мільйонів доларів для підтримки кандидатів від демократів і республіканців, які готові протистояти запровадженню законів, “які загрожують внутрішнім інноваціям та інвестиціям у штучний інтелект”.
Марк ЦукербергНатомість Anthropic на початку лютого повідомила, що надала групі 20 мільйонів доларів PAC “Public First Action”, який підтримує кандидатів, що виступають за посилення регулювання ШІ.
Некомерційна організація “Future of Life Institute”, яку фінансує співзасновник Ethereum Віталік Бутерін, також вкладає мільнони доларів у просування жорсткого контролю над ШІ та тимчасову заборону потужних моделей штучного інтелекту, які можуть становити екзестинційну загрозу для людства.
Опитування, проведене на замовлення Financial Times, показало, що дві третини американців стурбовані швидким розвитком штучного інтелекту, а 76% виборців обох партій вважають, що його потрібно регулювати.






