Microsoft і OpenAI розслідують, чи могла група, пов’язана з китайським стартапом DeepSeek, отримати дані OpenAI у несанкціонований спосіб, повідомляє Bloomberg із посиланням на джерела.

За їхніми даними, восени 2024 року експерти з кібербезпеки Microsoft помітили масове вивантаження даних через API OpenAI, яке, ймовірно, здійснювали особи, пов’язані з DeepSeek. Це могло порушувати умови використання OpenAI або свідчити про спробу зняти обмеження щодо обсягу отримуваних даних.

DeepSeek нещодавно представила ШІ-модель R1 з відкритим кодом, заявивши, що вона конкурує або перевершує рішення провідних американських компаній, як-от OpenAI, Google та Meta, і при цьому була розроблена за значно менші кошти. Це спричинило різке падіння акцій найбільших технологічних компаній, включаючи Microsoft, Nvidia, Oracle та Alphabet (Google), що загалом призвело до втрати майже 1 трильйона доларів ринкової вартості.

Девід Сакс, радник Дональда Трампа з питань штучного інтелекту, заявив в ефірі Fox News, що існують «вагомі докази», що DeepSeek використовував техніку “дистиляції”, коли одна модель навчається на вихідних даних іншої.

OpenAI підтвердила, що китайські компанії постійно намагаються отримати доступ до передових американських моделей і підкреслила важливість співпраці з урядом США для захисту своїх технологій від несанкціонованого використання конкурентами та потенційними противниками.

Тим часом Військово-морські сили США офіційно заборонили своїм службовцям використовувати китайську нейромережу DeepSeek через «потенційні проблеми безпеки та етики, пов’язані з її походженням та використанням», повідомляє CNBC.

Автор: Олексій Савицький

Залишити відповідь