Китайська AI-модель DeepSeek R1 може генерувати злочинні плани і небезпечний контент

DeepSeek і ChatGPT

Згідно з дослідженням Enkrypt AI, модель DeepSeek R1 у 11 разів частіше генерує шкідливий контент у порівнянні з OpenAI O1. Випробування показали, що штучний інтелект може надавати детальні пояснення щодо взаємодії токсичних речовин, таких як іприт, з ДНК, що потенційно може сприяти розробці хімічної або біологічної зброї.

Крім того, DeepSeek R1 здатна генерувати інструкції з планування злочинів, нелегального використання зброї та іншої небезпечної діяльності. Такі можливості моделі викликають серйозні занепокоєння серед експертів у сфері кібербезпеки.

Дослідники наголошують на необхідності суворішого контролю за використанням подібних технологій, аби запобігти їхньому зловмисному застосуванню.


Телеграм double.newsТелеграм double.news

Схожі Новини
TikTok

Регулятори ЄС визнали нескінченну стрічку TikTok надто залежною

Європейські регулятори посилюють тиск на TikTok через дизайн платформи, який, на їхню думку, формує залежну поведінку користувачів. Попередні висновки Європейської комісії свідчать, що ключові механіки застосунку можуть порушувати вимоги законодавства ЄС у сфері цифрових сервісів.
Детальніше
Apple CarPlay

Apple дозволить використовувати сторонні AI-чатботи в CarPlay

Apple готується відкрити свою автомобільну платформу CarPlay для сторонніх голосових чат-ботів зі штучним інтелектом. Це стане першим випадком, коли користувачі зможуть напряму взаємодіяти з AI-сервісами інших компаній через вбудований інтерфейс автомобіля.
Детальніше
bithumb

Криптобіржа помилково роздала біткоїнів на $44 млрд клієнтам

Одна з найбільших криптовалютних бірж Південної Кореї опинилася в центрі гучного інциденту через технічну помилку під час рекламної кампанії. Платформа випадково нарахувала користувачам сотні тисяч біткоїнів замість символічних грошових бонусів, що призвело до різких коливань курсу та тимчасового обмеження торгів
Детальніше