Що таке Claude Mythos: справжня технологічна революція чи просто рекламний обман?
Богдан Шумський – графоман, філософ та трохи популяризатор науки. Я вивчаю нудні матеріали, аби мої читачі змогли уникнути цього.
Одразу після свого анонсування і виходу прев'ю-версії Claude Mythos наробив стільки шуму, що навіть колишня суперечка з Міністерством війни та Дональдом Трампом відійшла на другий план. У медіа стверджують, що для обговорення можливостей системи Білий дім провів зустріч персонально з Даріо Амодеєм. Сам Трамп, звісно, заперечує, що знав про це.
Окрім того, нещодавно стало відомо, що Mythos бере участь у підтримці Агентства національної безпеки США. З огляду на конфіденційність, служба не розкриває деталі використання нової моделі штучного інтелекту, але джерела Axios у АНБ підтверджують цю інформацію.
Маркетингова команда Anthropic формує навколо Mythos репутацію інноваційного інструменту. Здається, що він здатен на досягнення, які не передбачали навіть найкращі експерти в сфері кібербезпеки, і має можливості, недоступні іншим моделям. Як зазначає компанія: штучний інтелект "вражає своїми можливостями у сфері комп'ютерної безпеки."
Саме з цієї причини доступ до нього обмежено. На сьогодні в рамках ініціативи Project Glasswing чат-бот доступний лише для десяти великих технологічних корпорацій, з якими співпрацює Anthropic, а також для кількох державних установ, включно з вже згаданим АНБ. Це робиться для того, щоб уникнути потрапляння цього інструменту в неналежні руки. Наприклад, існує занепокоєння, що його можуть використовувати злочинці та хакери для зламу чужих програм і комп'ютерних систем.
Компаніями "хорошими хлопцями", яким було передано можливість доторкнутися до надзвичайних талантів ШІ, стали здебільшого друзі Anthropic: Amazon, Apple, Alphabet, Microsoft, NVIDIA, Palo Alto Networks, CrowdStrike, Broadcom, Cisco Systems, JPMorganChase та Linux Foundation. Певно, за думкою компанії, ці організації точно застосують бота для благих цілей.
Незважаючи на все, непрямою ознакою високої якості нового прихованого продукту є заява компанії Mozilla, яка також інтегрувала новий чат-бот. Mythos був використаний для аналізу коду браузера Firefox 150, в результаті чого було виявлено 271 вразливість програми. Натомість Claude Opus 4.6 нібито виявив лише 22 вразливості у Firefox 148, що свідчить про істотні відмінності в технічних можливостях обох систем.
Проте існує один критично важливий аспект, пов'язаний із наявним хайпом. Вся ключова та основна інформація про потужність нового штучного інтелекту надходить виключно від Anthropic — компанії, що його розробила. Це особливо стосується "неймовірних, надзвичайно небезпечних" можливостей, які здатні виявляти вразливості та виправляти несправний код. Хоча компанія Mozilla висловила позитивну оцінку, цього недостатньо для формування повної картини, і ми не маємо можливості перевірити цю інформацію.
Наприклад, у офіційних комунікаціях розробників чат-бота згадується про унікальні здібності, які дозволяють йому виявляти приховані вразливості нульового дня, що залишалися непоміченими. Це є головною перевагою новинки. Mythos під час тестування виявив подібні вразливості "в кожній операційній системі та браузері". Anthropic з гордістю повідомляє, що штучний інтелект зміг виявити баг, що датується 27 роками назад, в OpenBSD; цей недолік пізніше був виправлений за допомогою патчу.
Як і будь-який інший інструмент, Mythos має двояку природу. Хоча його, напевно, задумували як засіб захисту, він так само просто може бути використаний для атак. Виявлена уразливість в досліджуваній системі може стати джерелом експлуатації, якщо користувач має недобрі наміри.
Таке застосування Anthropic демонструє через історію своїх співробітників без кібербезпекової освіти. Їм дали завдання "повайбкодити" з Mythos, наказавши тому сканувати вразливості віддаленого виконання коду (remote code execution). На диво всіх, після ночі непосильної незалежної праці штучний інтелект видав робочий експлойт.
Усе це реалізується повністю автономно, без необхідності в людському нагляді. Крім того, версія Claude Opus 4.6 під час порівняння продемонструвала загальний результат з 0% успішності у схожій задачі.
Дійсно, такі спроможності виглядають корисно, а в деяких випадках загрозливо. Втім, повертаючись із простору маркетингових пресрелізів на землю, варто залучити думки неупереджених спеціалістів.
Як зазначає Bloomberg, посилаючись на Ґан Вана, доцента кафедри інформатики Університету Іллінойсу, а також інших дослідників, стороннім спостерігачам складно оцінити важливість Mythos. Anthropic не надала жодної тестової версії моделі для незалежного аналізу своїх заяв. Таким чином, уся інформація про цей продукт базується лише на непідтверджених заявах явно зацікавлених учасників галузі.
Скептицизм щодо цієї платформи виник не з безпідставної недовіри до "злих корпорацій". Історія вже знала випадки, коли можливості штучного інтелекту переоцінювалися, що призводило до його надмірного вихваляння. Це стосувалося не лише маркетологів продукту. Наприклад, три роки тому журналісти New York Times з емоційним підходом описували GPT-4, вважаючи цю модель "вражаючою та жахливою". Зокрема, у статті, посилаючись на OpenAI, йшлося про те, що чат-бот вражає своєю надзвичайною кмітливістю. Він нібито міг: генерувати "небезпечні хімікати" з повсякденних кухонних інгредієнтів та давати прості рецепти для цього; обманювати користувачів в інтернеті, щоб ті ввели CAPTCHA від його імені; надавати посилання на нелегальні ресурси для продажу зброї тощо. Таким чином, ажіотаж навколо особливої небезпеки нової версії ChatGPT підживлювався OpenAI, але активно підтримувався і медіа.
Навіть наукові публікації відображали певну долю параної щодо потужностей штучного інтелекту. З'являлися заголовки на кшталт: "GPT-4 занадто розумний, щоб бути безпечним". Занепокоєння підкріплювалося тим, що чат-бот здатний обходити безпекові обмеження, якщо спілкування відбувається за допомогою спеціальних шифрів. Окрім цього, у статті зазначалося, що великі мовні моделі мають власний "секретний код" і можуть генерувати шифрування набагато ефективніше, ніж люди.
Пройшли роки, а ChatGPT досі не призвів до гучних безпекових скандалів. Не відбулося революції в області криптографії. Не трапилися того, чого сильно боялися журналісти та науковці. Нинішня оказія відрізняється тим, що тези про неповторність отриманого ШІ-продукту вже промовляють не вчені чи медіа, а творці продукту, прямою мовою.
Не варто забувати, що це відбувається в контексті піару нової, хоча й менш потужної моделі Claude - Opus 4.7. Таке припущення можна зробити, якщо спробувати зрозуміти, чому маркетологи схильні до перебільшень.
Існують й більш вагомі свідчення, що Anthropic приховує правду щодо обсягу своїх можливостей. Дослідник Станіслав Форт, володар докторського ступеня в галузі штучного інтелекту зі Стенфорду, а також колишній науковець в Anthropic, Stability AI та Google DeepMind, заснував платформу з кібербезпеки під назвою AISLE. Його компанія зацікавилася твердженнями про Mythos і вирішила провести порівняння відомих досягнень чат-бота з результатами інших, менш витратних моделей, здатних аналізувати код. Зокрема, було реалізовано той же тест на виявлення вразливостей у FreeBSD.
Результат шокував: всі 8 моделей дешевих ШІ з відкритим кодом і даними без проблем впоралися з місією. Навіть DeepSeek R1, який дехто не сприймає всерйоз, показав результат найбільшої точності серед усіх у деяких фазах тесту. Що стосується створення робочого експлойту на базі отриманої вразливості, то це виявилося так само досяжно.
При цьому важливою обмовкою слід розуміти те, що Claude Mythos робив усе повністю автономно, а для справного функціонування цих 8 моделей довелося проводити деякі налаштування. Наприклад, їм надавали фрагмент коду, а не всю кодову базу якоїсь програми. Тому в чистоті експерименту залишалися певні обмеження.
Проте експерти AISLE натякають, що їхні кібербезпекові системи вміють робити майже те саме, що й новий чат-бот від Anthropic. При об'єднанні систем із якоюсь дешевою ШІ-моделлю може вийти не гірший конкурент Mythos. Це натякає на те, що популяризований продукт виявився не панацеєю і не єдиним у своєму роді. Він є закономірним етапом розвитку ШІ у сфері кібербезпеки. Основний закид AISLE полягає в демонстрації простої думки: дорожче не значить краще. Розробники Anthropic заслуговують на повагу за якісний продукт, який дозволяє користувачу швидко та майже автономно реалізувати потужні кібербезпекові рішення. Однак риторика "фундаментальності" і "небезпечності" подібної технології насправді не витримує жодної критики. До того ж це, як пише Форт, знеохочує деякі організації шукати різні способи IT-захисту замість концентрування на одному розпіареному продукті.
Оскільки ми досі не маємо чіткої інформації про реальні можливості Mythos, наша впевненість у точності його висновків залишається під питанням. Яка частка контенту неправильно ідентифікується як вразливість, і скільки помилок виникає внаслідок його власних дій під час виявлення експлойтів? Експерти з кібербезпеки Девід Лі з Університету Торонто та Брюс Шнаєр з Гарварду у своїй статті піднімають важливі питання, пов’язані з обмеженим розумінням функціонування цього чат-бота.
По-перше, галюцинації та помилки в відповідях можуть виникати в будь-якому ШІ-інструменті для виявлення вразливостей у коді. Це часто призводить до вигадування вразливостей у коді, який вже був виправлений. Якщо Mythos видає некоректні відповіді, його точність значно знижується. Було б доцільно, щоб про це чесно повідомили перед публікацією сенсаційних заяв щодо революційних технологій. Таким чином, з’являється питання: чи надала компанія Anthropic репрезентативну інформацію, на основі якої не варто робити серйозних висновків на даний момент.
По-друге, Mythos, ймовірно, навчався на відкритих даних та ресурсах з платформ, подібних до GitHub. Це означає, що йому може бути складніше виявляти уразливості в застарілих, конфіденційних та складних програмних системах. Наприклад, серед таких систем дослідники виділяють фінансову інфраструктуру, медичне обладнання, банківське програмне забезпечення та інше. Однак, на їхню думку, якщо знайти відповідного фахівця для роботи з цими системами, Mythos може слугувати потужним інструментом для посилення хакерських атак. Це, у свою чергу, створює суттєві ризики для безпеки цих платформ.
Також виникає етична дилема. Чому компанія Anthropic обрала обмежити доступ суспільства до такої потужної технології оборони та нападу, але при цьому надала її своїм комерційним партнерам? Чи справді у їхніх руках ця технологія є набагато безпечнішою, ніж при контролі з боку суспільства або держави?
Хоча здається, що ці побоювання незабаром можуть поширитися не лише на Anthropic. Згаданий раніше Станіслав Форт показав, що ця технологія не є ексклюзивною. Незабаром OpenAI може підтвердити це на практиці. За інформацією джерел Axios, компанія майже завершила розробку нової моделі ШІ для кібербезпеки. Вона також вважається "дуже небезпечною", тому її впровадження відбуватиметься обережно, подібно до Mythos. Спочатку її отримає коло партнерських компаній, а чи з'явиться вона на відкритому ринку — поки що невідомо.
Можливо, Anthropic самі того не очікуючи запустили нову тенденцію у просторі ШІ-кібербезпеки. Називати певні моделі "занадто ризикованими для публіки", аби продати їх ексклюзивно для великих комерційних партнерів і з метою забезпечити собі зростання медійного капіталу.