Google Gemini в Gmail може стати інструментом крадіжки особитсих данних

Gmail

Функція AI-підсумків у Gmail, що використовує модель Google Gemini, може бути використана для фішингових атак — про це свідчить нове дослідження, оприлюднене в межах програми 0din AI Bug Bounty.

Як працює фішинг через AI-самарі?

У Google Workspace вже доступна функція автоматичного резюмування листів у Gmail за допомогою AI. Проте дослідники виявили, що система може бути обманута за допомогою прихованого тексту, написаного білим шрифтом на білому тлі — тобто, невидимого для людини. Про це пише PCWorld.

Цей прихований текст може містити інструкції для AI: наприклад, повідомлення на кшталт «Ваш пароль скомпрометовано. Зателефонуйте на цей номер для відновлення». У підсумку Gemini вставляє цей текст у згенероване резюме листа, змушуючи користувача думати, що інформація справжня.

Немає посилань — немає спам-фільтрації

Оскільки у такому листі немає шкідливих посилань або вкладень, стандартні фільтри безпеки Gmail не спрацьовують. У дослідженні також зазначається, що за допомогою спеціального тега Admin, зловмисники можуть ще більше вплинути на структуру та зміст згенерованого підсумку.

Потенційні ризики та статус атаки

Хоча наразі це лише теоретична атака, яка не спостерігалася у реальному середовищі, вразливість викликає серйозне занепокоєння. Функція “Summarize this email” доступна лише для корпоративних користувачів Google Workspace, але потенціал зловживання є значним, особливо з огляду на довіру до AI-висновків.


Телеграм double.newsТелеграм double.news

Схожі Новини
CEO Anthropic

Anthropic виграла суд проти адміністрації Трампа

Федеральний суд у США виніс рішення на користь Anthropic у справі проти адміністрації Дональда Трампа. Суддя постановила скасувати рішення уряду, який раніше визнав компанію ризиком для ланцюга постачання та вимагав від державних установ припинити співпрацю з нею.
Детальніше
Вікіпедія

Wikipedia заборонила тексти, згенеровані штучним інтелектом

Онлайн-енциклопедія Wikipedia запровадила нову політику щодо використання штучного інтелекту: відтепер створення або переписування статей за допомогою великих мовних моделей заборонено. Рішення стосується англомовної версії платформи та стало результатом тривалих обговорень у спільноті редакторів.
Детальніше