Новини за тегом
Anthropic
27 posts
Anthropic заявила що Claude залишиться без реклами
Anthropic офіційно підтвердила, що її чат-бот Claude не матиме реклами. У компанії вважають, що рекламні оголошення в діалогах із ШІ суперечать самій ідеї асистента як інструмента для глибокого мислення, роботи та довіри.
2 дні тому
CEO Anthropic: штучний інтелект стане випробуванням для людства
Генеральний директор і співзасновник Anthropic Даріо Амодей виступив із жорстким попередженням щодо майбутнього штучного інтелекту, заявивши про реальну та близьку небезпеку для людської цивілізації. У великому есе на 38 сторінок, оприлюдненому напередодні публікації, він закликає уряди, технологічні компанії та суспільство терміново переосмислити підходи до розвитку та контролю ШІ.
27.01.2026
Глава Anthropic розкритикував експорт AI-чипів Nvidia до Китаю
Виступи на Всесвітньому економічному форумі в Давосі зазвичай відзначаються обережними формулюваннями та дипломатичним тоном. Однак цього разу генеральний директор Anthropic Даріо Амодей зламав усталені правила, публічно розкритикувавши рішення уряду США та дії одного з ключових гравців ринку - Nvidia.
21.01.2026
Журналіст The New York Times подав позов проти ШІ-компаній через авторські права
Відомий журналіст The New York Times Джон Каррейру подав судовий позов проти низки технологічних компаній, звинувативши їх у незаконному використанні авторських книжок для навчання штучного інтелекту. Справу розглядає федеральний суд у Каліфорнії.
24.12.2025
Найбільші компанії світу об’єднується з Linux Foundation, щоб стандартизувати розвиток AI-агентів
Провідні технологічні компанії зробили важливий крок до уніфікації інструментів для створення AI-агентів. Anthropic, Block, OpenAI та інші учасники ринку долучилися до новоствореної Agentic AI Foundation (AAIF), що працює під егідою Linux Foundation. Мета ініціативи — забезпечити відкриті стандарти та сумісність технологій, які можуть стати основою для майбутніх агентних систем штучного інтелекту.
10.12.2025
Дослідження: поетичні запити можуть обходити захист ШІ-моделей
Нове дослідження науковців з DEXAI, привернуло увагу до неочікуваної слабкості сучасних великих мовних моделей. За результатами роботи, інструкції, подані у вигляді віршів, здатні обійти базові системи безпеки ШІ значно ефективніше, ніж звичайні текстові запити. Метод, який дослідники назвали «adversarial poetry», демонструє системну вразливість технологій, що лежать в основі популярних чатботів.
25.11.2025
Claude Opus 4.5 — найпотужнішу AI-модель від Anthropic, яка випереджає GPT-5.1 і Gemini 3 Pro
Anthropic представила Claude Opus 4.5 — свою найпотужнішу ШІ-модель на сьогодні. Вона вже демонструє вищі результати за конкурентів у ключових тестах, включно з GPT-5.1 від OpenAI та Gemini 3 Pro від Google. Новинка позиціонується як провідна мегамодель для програмування, роботи з даними та складних агентних завдань.
25.11.2025
Китайські хакери знову використали ШІ-модель від Anthropic для кібератак
Anthropic повідомила про нову хвилю цілеспрямованих кібератак, у яких зловмисники, пов’язані з урядом Китаю, застосували її AI-модель Claude для автоматизації складних хакерських операцій. Про це пише The Verge посилаючись на данні The Wall Street Journal, інцидент став одним із найбільш технологічно просунутих прикладів використання штучного інтелекту у кібершпигунстві.
14.11.2025
Google готує до випуску оновлену Siri на базі Google Gemini
Apple може об’єднатися з Google для створення оновленої версії Siri, яка працюватиме на основі моделі Gemini — штучного інтелекту нового покоління від Google. Якщо інформація підтвердиться, це стане найбільшим проривом у розвитку голосового асистента Apple за всю його історію.
03.11.2025
Anthropic запускає Claude Code у браузері
Anthropic представила Claude Code on the Web — новий спосіб делегувати завдання з розробки безпосередньо через браузер. Інструмент, що наразі доступний у бета-версії як дослідницький прев’ю, дозволяє виконувати кілька кодових задач одночасно у хмарному середовищі, що спрощує роботу з баґами, рутинними виправленнями та паралельною розробкою.
21.10.2025