OpenAI, Anthropic PBC та Google, які є компаніями-конкурентами, вирішили співпрацювати, аби разом боротися проти китайських конкурентів, що отримують результати з американських моделей штучного інтелекту.
Про це повідомляє Bloomberg.
Фірми обмінюються інформацією через Форум моделей Frontier, щоб виявляти спроби змагальної дистиляції, які порушують їхні умови надання послуг.
Дистиляція — це процес, коли потужніша модель ШІ (“вчитель”) використовується для навчання новішої (“учня”). Це дозволяє відтворити можливості оригінальної системи набагато дешевше, ніж створювати її з нуля.
Цей метод широко і легально використовується: наприклад, коли компанії створюють оптимізовані мініверсії власних моделей або ж дозволяють стороннім розробникам створювати неконкурентні проєкти. Проте ситуація загострилася, коли компанії з країн-супротивників (зокрема, Китаю та Росії) почали використовувати дистиляцію без дозволу, фактично піратським шляхом копіюючи запатентовані американські технології.
Ситуацію ускладнює те, що більшість китайських моделей ШІ має відкритий вихідний код (open source). Користувачі можуть вільно їх завантажувати й запускати на власному обладнанні, що робить такі продукти значно дешевшими.
Для американських компаній ШІ це становить серйозну економічну проблему. Вони навмисно тримають свої розробки закритими й продають платний доступ до них клієнтам, оскільки їм потрібно окупити сотні мільярдів доларів, вкладених у дата-центри та інфраструктуру.
Таке безпрецедентне об’єднання американських техногігантів свідчить про надзвичайну серйозність ситуації. Китайські імітації не лише демпінгують ціни та крадуть клієнтів, а й створюють загрозу національній безпеці США. За словами анонімного джерела, ознайомленого з висновками американських посадовців, несанкціонована дистиляція щороку позбавляє Кремнієву долину мільярдів доларів прибутку.
В OpenAI офіційно підтвердили свою участь у цьому альянсі. Компанія також послалася на свій нещодавній меморандум до Конгресу, де прямо звинуватила китайську компанію DeepSeek у спробі “безкоштовно скористатися можливостями, розробленими OpenAI та іншими передовими лабораторіями США”. Google, Anthropic та представники Frontier Model Forum відмовилися коментувати ситуацію.
Що передувало
Проблема дистиляції опинилася в центрі уваги в січні 2025 року, незабаром після випуску моделі R1 від DeepSeek. Майже одразу Microsoft та OpenAI розпочали розслідування, запідозривши китайський стартап у незаконному використанні великих масивів даних з американських систем для навчання своєї новинки.
Уже в лютому OpenAI надіслала попередження американським законодавцям: попри посилений захист продуктів DeepSeek застосовує дедалі хитріші методи для копіювання чужих результатів. У спеціальній записці для Комітету Палати представників з питань Китаю OpenAI зазначила, що нову версію свого чатбота DeepSeek також створює саме за допомогою дистиляції.
Зі схожими проблемами зіткнулася й компанія Anthropic. Ще минулого року вона заблокувала доступ до своєї моделі ШІ Claude підконтрольним Китаю фірмам. А в лютому цього року виявили одразу три китайські лабораторії ШІ — DeepSeek, Moonshot та MiniMax, які незаконно копіювали можливості Claude через дистиляцію.
В Anthropic наголошують, що ця загроза вже давно вийшла за межі окремих компаній чи регіонів і становить реальний ризик для національної безпеки. Головна проблема полягає в тому, що скопійовані моделі зазвичай позбавлені вбудованих запобіжників, які б не дозволяли зловмисникам використовувати ШІ у шкідливих цілях.
Джерело:suspilne.media





