
Співробітники OpenAI ще у 2025 році виявили тривожну активність користувачки ChatGPT, яку згодом звинуватили у масовому вбивстві в Канаді. Однак компанія тоді вирішила не повідомляти правоохоронні органи, оскільки, за її оцінкою, ситуація не відповідала критеріям негайної загрози. Про це повідомляє The Wall Street Journal.
Що відомо про внутрішнє рішення OpenAI
За інформацією журналістів, у червні 2025 року системи моніторингу OpenAI зафіксували повідомлення 18-річної Джессі Ван Рутселаар, які містили описи насильства із застосуванням зброї. Акаунт було заблоковано за порушення правил користування.
Усередині компанії обговорювали можливість звернення до поліції, однак вирішили, що виявлена активність не свідчить про неминучу та достовірну загрозу завдання серйозної фізичної шкоди.
Після трагедії OpenAI повідомила, що самостійно зв’язалася з канадською поліцією та передала інформацію про використання ChatGPT підозрюваною.
Деталі трагедії в Британській Колумбії
Стрілянина сталася 10 лютого 2026 року в місті Тамблер-Рідж у провінції Британська Колумбія. За даними слідства, підозрювана спочатку вбила членів родини, а згодом здійснила напад у місцевій школі. Загинули вісім осіб, ще понад два десятки отримали поранення.
Правоохоронці заявили, що дівчина раніше мала контакти з поліцією з питань психічного здоров’я. Мотив злочину офіційно не встановлено.
Дискусія про відповідальність ШІ-компаній

Ситуація знову загострила дискусію щодо того, коли технологічні компанії мають інформувати правоохоронців про підозрілу активність користувачів. В OpenAI пояснили, що внутрішній поріг для звернення до поліції передбачає наявність безпосередньої та підтвердженої загрози.
Водночас критики стверджують, що навіть непрямі ознаки підготовки насильства потребують більш жорсткої реакції, особливо з огляду на використання інструментів штучного інтелекту.

