Китайська AI-модель DeepSeek R1 може генерувати злочинні плани і небезпечний контент

DeepSeek і ChatGPT

Згідно з дослідженням Enkrypt AI, модель DeepSeek R1 у 11 разів частіше генерує шкідливий контент у порівнянні з OpenAI O1. Випробування показали, що штучний інтелект може надавати детальні пояснення щодо взаємодії токсичних речовин, таких як іприт, з ДНК, що потенційно може сприяти розробці хімічної або біологічної зброї.

Крім того, DeepSeek R1 здатна генерувати інструкції з планування злочинів, нелегального використання зброї та іншої небезпечної діяльності. Такі можливості моделі викликають серйозні занепокоєння серед експертів у сфері кібербезпеки.

Дослідники наголошують на необхідності суворішого контролю за використанням подібних технологій, аби запобігти їхньому зловмисному застосуванню.


Телеграм double.newsТелеграм double.news

Схожі Новини
NASA

NASA знайшла зоряний пил, старший за Сонячну систему

Місія OSIRIS-REx від NASA, яка у 2020 році доставила зразки з астероїда Бенну, відкрила новий вимір у дослідженні походження Сонячної системи. Вчені виявили у зразках матерію, яка утворилася ще до появи нашої зоряної системи, — справжній зоряний пил.
Детальніше
Кодінг

Перший AI-шахрай PromptLocker виявився навчальним експериментом

Нещодавнє відкриття AI‑шахрай PromptLocker компанією ESET сколихнуло сферу кібербезпеки — однак виявилося, що тривога була передчасною. Насправді це не зовсім зловмисне ПЗ, а частина дослідницького проєкту “Ransomware 3.0”, створеного командою з Нью-Йоркського університету.
Детальніше
Twitter

X запускає XChat — зашифровані повідомлення тепер доступні всім

Соціальна платформа X розширює доступ до свого нового функціоналу зашифрованих приватних повідомлень XChat. Після кількох місяців тестування в бета-версії, XChat тепер стає доступним не лише для підписників X Premium.
Детальніше