
За даними Axios, міністерство оборони США наполягає, щоб провідні AI-лабораторії дозволили використання своїх моделей без обмежень, включно з розробкою озброєнь, розвідкою та бойовими операціями. Водночас Anthropic відмовляється знімати два ключові обмеження щодо масового спостереження за громадянами США та застосування повністю автономної летальної зброї. У компанії зазначають, що модель Claude вже використовується державними структурами відповідно до чинної політики, однак встановлені ліміти стосуються принципових питань безпеки та етичного використання штучного інтелекту.
Напруження навколо операції у Венесуелі
Окремим епізодом, який загострив відносини, стала операція із затримання колишнього президента Венесуели Ніколаса Мадуро. За даними ЗМІ, модель Claude застосовувалася через партнерство Anthropic із компанією Palantir Technologies.
За словами чиновника, керівництво Anthropic нібито цікавилося, чи використовувалася їхня модель під час рейду. У Пентагоні це сприйняли як потенційне невдоволення фактом застосування AI у бойовій операції. У компанії заперечили таку інтерпретацію та заявили, що не обговорювали конкретні військові місії з оборонним відомством.

