Миф об «открытом» ИИ: зачем корпорациям сливать данные о работе моделей

29.08.2023

Источник: PAYSPACE MAGAZINE

Может сложиться впечатление, что несмотря на тщательную защиту данных о функционировании алгоритмов ИИ, технологические гиганты понемногу приоткрывают завесу, предоставляя сторонним разработчикам «открытый» код и новые возможности. Однако, как отмечают эксперты, не все так просто

Открытие доступа к тайнам ИИ?

В последние месяцы усилия, направленные на то, чтобы сделать ИИ более «открытым», похоже, набрали обороты. В мае произошла утечка модели Meta под названием Llama, которая предоставила посторонним доступ к ее базовому коду, а также к «весовым коэффициентам», определяющим ее поведение.

Затем, в июле этого года, Meta решила сделать еще более мощную модель под названием Llama 2, доступную для загрузки, модификации и повторного использования кем-либо. С тех пор модели Meta стали чрезвычайно популярной основой для многих компаний, исследователей и любителей, которые создают инструменты и приложения с возможностями, подобными ChatGPT.

«У нас есть широкий круг сторонников во всем мире, которые верят в наш открытый подход к современному ИИ… В частности, эксперты, которые стремятся проводить исследования с этой моделью, а также люди из технологических, научных и политических кругов. Они видят преимущества Llama и открытой платформы так же, как и мы», — заявили в Meta, анонсируя Llama 2.

Напомним, что недавно Мета выпустила еще одну модель, Llama 2 Code, которая доработана для кодирования.

Не так быстро

Может показаться, что общий подход к открытому исходному коду, который десятилетиями демократизировал доступ к программному обеспечению, предоставлял прозрачность и повышал безопасность, теперь готов оказать аналогичное влияние и на ИИ.

«Не так быстро», — утверждает группа авторов научной работы, которая изучает реальность Llama 2 и других моделей ИИ, которые так или иначе описываются как «открытые». Исследователи из Университета Карнеги-Меллона, Института AI Now и Фонда Signal говорят, что модели, которые называют «открытыми», могут иметь свои подводные камни.

Llama 2 можно бесплатно загружать, модифицировать и развертывать, но на нее не распространяется обычная лицензия с открытым исходным кодом. Лицензия Meta запрещает использовать Llama 2 для обучения других языковых моделей, и она требует специальной лицензии, если разработчик развертывает ее в приложении или сервисе с более чем 700 миллионами ежедневных пользователей.

Такой уровень контроля означает, что Llama 2 может обеспечить значительные технические и стратегические преимущества для Meta. Например, позволив компаниям интегрировать модель в собственные приложения и развивать ее, Meta может воспользоваться этим, собирая полезные настройки, сделанные сторонними разработчиками.

Модели, которые выпускаются под обычными лицензиями с открытым исходным кодом, такие как GPT Neo от некоммерческой организации EleutherAI, — «значительно более открыты», — говорят исследователи. Но таким проектам сложно стать на равных.

Во-первых, данные, необходимые для обучения продвинутых моделей, часто держатся в секрете. Во-вторых, программные фреймворки, необходимые для построения таких моделей, часто контролируются крупными корпорациями. Две самые популярные из них, TensorFlow и Pytorch, поддерживаются компаниями Google и Meta соответственно.

В-третьих, компьютерные мощности, необходимые для обучения большой модели, также не под силу обычному разработчику или компании — обычно для одного тренировочного прогона требуются десятки или сотни миллионов долларов. И, наконец, человеческий труд, необходимый для доработки и совершенствования этих моделей, — это также ресурс, который в основном доступен только крупным компаниям с «глубокими карманами».

Все на благо корпораций

При таком развитии событий одна из важнейших технологий десятилетий может в конечном итоге обогатить и расширить возможности лишь нескольких компаний, среди которых OpenAI, Microsoft, Meta и Google. Если ИИ действительно такая технология, которая меняет мир, то наибольшие преимущества можно было бы почувствовать, если бы она стала более доступной и распространенной.

«Наш анализ показывает, что открытость не только не способствует «демократизации» ИИ. Получается так, что компании, которые используют «открытые» модели искусственного интеллекта, только укрепляют и расширяют централизованную власть (технологических гигантов)», — говорит Мередит Виттакер, президент Signal, исследовательница и одна из авторов отчета.
Возврат к списку новостей
Рекламодателю