Китайські хакери знову використали ШІ-модель від Anthropic для кібератак

Anthropic Claude

Anthropic повідомила про нову хвилю цілеспрямованих кібератак, у яких зловмисники, пов’язані з урядом Китаю, застосували її AI-модель Claude для автоматизації складних хакерських операцій. Про це пише The Verge посилаючись на данні The Wall Street Journal, інцидент став одним із найбільш технологічно просунутих прикладів використання штучного інтелекту у кібершпигунстві.

Як саме Claude використовували у кібератаках

За інформацією відділу розвідки загроз Anthropic, у вересні китайські державні хакери застосували Claude для проведення близько 30 атак на компанії та урядові структури. У 80–90% випадків процес був повністю автоматизований AI, що значно перевищує масштаб використання ШІ у попередніх подібних інцидентах.

Керівник відділу загроз Anthropic Джейкоб Кляйн пояснив, що зловмисники втручалися мінімально:

«Усе відбувалося майже одним натисканням кнопки. Людина лише зрідка підтверджувала: “Так, продовжуй”, “Це правильно”, “Покажи інший варіант”».

Це демонструє новий рівень автономності, якого досягають хакери, застосовуючи генеративні AI-моделі.


Телеграм double.newsТелеграм double.news

Схожі Новини
anthropic claude

Anthropic додала в Claude функцію віддаленого керування комп’ютером

Anthropic представила нову функцію для свого чат-бота Claude, яка дозволяє штучному інтелекту керувати комп’ютером користувача. Інструмент уже доступний у тестовому режимі для підписників Claude Pro та Max і працює на macOS.
Детальніше
One Plus

OnePlus може скоротити присутність на глобальних ринках

Навколо OnePlus знову з’явилися чутки про можливе скорочення діяльності на ключових міжнародних ринках. За інформацією інсайдерів, компанія може переглянути свою глобальну стратегію, що потенційно вплине на присутність бренду в США, Європі та Індії.
Детальніше
Grammarly

Grammarly використовує імена журналістів у AI без згоди

Сервіс перевірки текстів Grammarly опинився в центрі критики через нову функцію «Expert Review», яка використовує імена відомих журналістів, науковців і письменників без їхнього дозволу. Про проблему повідомили The Verge, виявивши, що AI генерує поради, нібито натхненні реальними людьми.
Детальніше