Anthropic заборонила Claude допомагати у створенні зброї масового ураження

Anthropic

У відповідь на зростаючу стурбованість щодо безпеки штучного інтелекту компанія Anthropic внесла зміни до політики використання свого мовного чат-бота Claude. Згідно з оновленими правилами, тепер суворо заборонено застосовувати Claude для створення високоефективних вибухових речовин або розробки біологічної, хімічної, радіологічної чи ядерної зброї. Про це пише PCMag.

Чітке формулювання небезпечних сценаріїв

Раніше умови використання вже містили заборону на «розробку зброї, вибухових речовин, небезпечних матеріалів або систем, що спричиняють шкоду», проте тепер Anthropic вперше деталізувала заборонені категорії. Як зазначає The Verge, нові умови акцентують на конкретних видах зброї масового ураження та їхніх прекурсорах.

Такі уточнення стали реакцією на зростаючу кількість наукових досліджень, що демонструють потенційні ризики використання великих мовних моделей (LLM) у розробці заборонених технологій.

Відкритість до політичного діалогу

На тлі посилення безпекових обмежень компанія водночас зняла повну заборону на створення політичного контенту. Тепер Claude може генерувати матеріали, пов’язані з політичними кампаніями або лобізмом, якщо вони не порушують демократичні процеси або не спрямовані на маніпуляцію виборцями.

У заяві Anthropic наголошено, що новий підхід покликаний «дозволити легітимний політичний дискурс», водночас захищаючи виборчі процеси від дезінформації та втручання.

Заборона на кіберзлочинність

Окрім того, оновлення політики включає нові положення, що забороняють використання Claude для проведення кібератак або створення шкідливого програмного забезпечення. Це важливий крок у контексті зростання занепокоєння щодо потенційного використання ШІ у злочинних цілях.


Телеграм double.newsТелеграм double.news

Схожі Новини
anthropic claude

Anthropic додала в Claude функцію віддаленого керування комп’ютером

Anthropic представила нову функцію для свого чат-бота Claude, яка дозволяє штучному інтелекту керувати комп’ютером користувача. Інструмент уже доступний у тестовому режимі для підписників Claude Pro та Max і працює на macOS.
Детальніше
One Plus

OnePlus може скоротити присутність на глобальних ринках

Навколо OnePlus знову з’явилися чутки про можливе скорочення діяльності на ключових міжнародних ринках. За інформацією інсайдерів, компанія може переглянути свою глобальну стратегію, що потенційно вплине на присутність бренду в США, Європі та Індії.
Детальніше
Grammarly

Grammarly використовує імена журналістів у AI без згоди

Сервіс перевірки текстів Grammarly опинився в центрі критики через нову функцію «Expert Review», яка використовує імена відомих журналістів, науковців і письменників без їхнього дозволу. Про проблему повідомили The Verge, виявивши, що AI генерує поради, нібито натхненні реальними людьми.
Детальніше