Передові розробники штучного інтелекту виразили стурбованість

штучний інтелект

Керівники компаній, що працюють у сфері розробки штучного інтелекту, зокрема OpenAI, Google DeepMind, Anthropic та інших відомих лабораторій, виразили стурбованість, попередивши, що технології, над якими вони працюють, можуть погрожувати самому існуванню людства. Вони стверджують, що такі розробки мають бути розглянуті як соціальні ризики, що стоять на одному рівні з пандеміями та ядерними війнами.

Зниження ризику вимирання людства через штучний інтелект повинно бути глобальним пріоритетом нарівні з іншими ризиками соціального масштабу, такими як пандемії та ядерні війни“, – це головне повідомлення відкритого листа лідерів галузі, що складається з одного речення. Очікується, що документ буде опубліковано некомерційною організацією Center for AI Safety. Його підписали понад 350 керівників, дослідників та інженерів, що працюють у сфері штучного інтелекту. Серед підписантів, зокрема, Сем Альтман (Sam Altman), голова OpenAI; Деміс Хассабіс (Demis Hassabis), голова Google DeepMind; Даріо Амодей (Dario Amodei), голова Anthropic, а також Джефрі Хінтон (Geoffrey Hinton) та Йошуа Бенджіо (Yoshua Bengio).

Зростає загальне занепокоєння щодо подальшого розвитку систем штучного інтелекту. Існує думка, що масштабні платформи, такі як ChatGPT, можуть бути використані для поширення дезінформації та пропаганди, а також можуть призвести до втрати роботи для 300 мільйонів людей в Європі та США. Лідери галузі поділяють ці стурбованості, вважаючи, що технології, які вони розробляють, представляють серйозні ризики і повинні бути жорстко регульовані державою. В той же час, деякі скептики стверджують, що технології штучного інтелекту ще занадто неозрілі, щоб представляти реальну загрозу для людства, тому ми повинні сконцентруватися на більш актуальних проблемах – упереджених та некоректних відповідях систем штучного інтелекту.

Тим не менш, є думка, що штучний інтелект, здатний конкурувати з людськими можливостями, може з’явитися вже найближчим часом. Щоб уникнути можливих негативних наслідків, лідери галузі пропонують створити організацію, що займатиметься регулюванням штучного інтелекту.


Телеграм double.newsТелеграм double.news

Схожі Новини
Діамант

Японські науковці створили діаманти за допомогою електронного променя

Дослідники з Токійського університету розробили новий метод синтезу діамантів, використовуючи електронне випромінювання. Їм вдалося отримати нанодіаманти без високого тиску та температур, що може відкрити шлях до нових технологій у квантовій фізиці та матеріалознавстві.
Детальніше
Unity

Unity додає підтримку системних дикторів у macOS та Windows для розробки ігор

Розробники на Unity тепер можуть використовувати вбудовані скрінрідери macOS і Windows, що значно спростить створення ігор для людей із порушенням зору. Нова функція доступна в альфа-версії Unity 6000.3.0a5 і з’явиться у фінальному релізі Unity 6.3.
Детальніше
ChatGPT

Як ChatGPT штовхає користувачів у небезпечні ілюзії

Все більше людей повідомляють про психічні кризи, пов’язані зі спілкуванням із чат-ботами на основі штучного інтелекту. Користувачі, зокрема зі США та Канади, описують випадки, коли тривалі діалоги з ChatGPT приводили їх до переконання у відкритті «цифрового Бога» чи навіть у створенні нових наукових теорій.
Детальніше