ШІ генерує передбачувані паролі, які можна зламати за години

Пароль

Великі мовні моделі дедалі частіше використовують для написання коду, текстів і навіть генерації паролів. Однак нове дослідження кібербезпекової компанії Irregular показало, що паролі, створені за допомогою ШІ, виглядають складними лише на перший погляд. Насправді вони мають низьку ентропію та можуть бути зламані за кілька годин.

Експерти перевірили популярні моделі — Claude, ChatGPT та Gemini і виявили повторювані шаблони, які значно спрощують злом паролів методом підбору.

Як проходило дослідження

Irregular просила кожну модель створити 16-символьні паролі з великими та малими літерами, цифрами і спеціальними символами. Зовні вони нагадували комбінації, які генерують професійні менеджери паролів.

Онлайн-перевірки надійності оцінювали їх як сильні та прогнозували роки або навіть століття для злому на звичайному ПК. Проте такі сервіси не враховують статистичні закономірності, характерні для LLM.

Повторювані шаблони

anthropic Claude Opus 4.5

Під час тестування моделі Claude Opus 4.6 із 50 згенерованих паролів лише 30 виявилися унікальними. Частина повністю повторювалася. Більшість рядків починалися однаковими літерами та містили схожі символи.

ChatGPT часто використовував ті самі початкові символи, а Gemini генерував паролі з однаковими літерами на старті та обмеженим набором знаків. Дослідники також зафіксували відсутність повторюваних символів у межах одного пароля, що статистично малоймовірно для справді випадкової послідовності.

Потенційні ризики для розробників

Дослідники виявили типові AI-шаблони паролів у відкритих репозиторіях на GitHub та в технічній документації. Це свідчить, що розробники вже використовують LLM для створення облікових даних у тестових і навіть робочих середовищах.

На тлі зростання популярності ШІ-інструментів програмування ризики можуть масштабуватися. Якщо штучний інтелект дедалі частіше пише код, включно з конфігураціями доступу, передбачувані паролі можуть стати системною проблемою.

Irregular наголошує, що проблему неможливо вирішити простим переформулюванням запиту або зміною температури генерації. Архітектура LLM не призначена для створення криптографічно стійких значень.


Телеграм double.newsТелеграм double.news

Схожі Новини
ChatGPT

Журналіст вдалось «зламав» ChatGPT і Google AI за 20 хвилин

Журналіст BBC Томас Жермен продемонстрував, що змусити ChatGPT та Gemini від Google поширювати неправдиву інформацію можна буквально за кілька десятків хвилин. Для цього він використав простий SEO-прийом - створив вигадану статтю на власному сайті й дочекався, поки алгоритми її підхоплять.
Детальніше
samsung electronics

Samsung посилить захист від витоків перед запуском Galaxy S27

Samsung планує запровадити додаткові заходи безпеки, щоб обмежити витоки інформації щодо майбутньої лінійки Samsung Galaxy S27. За даними південнокорейських медіа, виробник уже оновлює внутрішні інструменти комунікації, щоб зменшити ризик передчасного розголошення характеристик і дизайну флагманських смартфонів.
Детальніше
ChatGPT

Студент подав до суду на OpenAI, звинувативши ChatGPT у психологічній шкоді

У штаті Джорджія студент коледжу подав позов проти OpenAI, стверджуючи, що версія чат-бота ChatGPT переконала його в особливій «місії» та сприяла розвитку психотичного епізоду. Позов подано до суду Сан-Дієго наприкінці січня 2026 року.
Детальніше