Установка OpenAI на масштабирование была не просто техническим выводом. Хао отмечает, что это было результатом последовательной, хотя и неортодоксальной системы убеждений, разделяемой ее руководством. Она сказала, что Илья Суцкевер, главный научный сотрудник OpenAI, был сторонником глубокого обучения. Он верил, что достаточно большая нейронная сеть, если ей будет предоставлено достаточно данных, в конечном итоге разовьет интеллект, подобный человеческому. С другой стороны, Сэм Альтман, генеральный директор OpenAI, подходил к искусственному интеллекту как предприниматель, видя в экспоненциальном масштабировании кратчайший путь к доминированию. Грег Брокман, президент OpenAI, был инженерным умом, сосредоточенным на обеспечении такого масштабирования.
Архитектура, которая позволила реализовать эту доктрину, была
transformer, типом нейронной сети, впервые представленной в 2017 году. Трансформеры превосходны в моделировании последовательностей данных, таких как текст, потому что они могут отслеживать взаимосвязи между словами на больших расстояниях в предложении. Что очень важно, их можно эффективно масштабировать. Добавление большего количества слоев и дополнительных параметров повышает производительность.
Исследовательская группа OpenAI поняла, что если они будут обучать трансформаторов на достаточно большом наборе данных с достаточной вычислительной мощностью, они смогут избежать необходимости в ручных функциях, символическом мышлении или модульном проектировании. Интеллект, по их мнению, возникнет из данных.
Для обучения моделей, подобных GPT-4, OpenAI требовались не только идеи, но и инфраструктура. Языковые модели такого размера требуют кластеров из десятков тысяч графических процессоров. Графические процессоры, изначально предназначенные для рендеринга трехмерных изображений, оказались исключительно полезными для матричного умножения, лежащего в основе нейронных сетей. Но их объединение в единую систему потребовало специальной программной и аппаратной настройки.
Инженеры OpenAI разработали методы разделения моделей на сегменты, которые можно распределять по нескольким чипам и обучать параллельно. Они создали протоколы контрольных точек для сохранения частичных циклов обучения, снижая риск катастрофического сбоя. Они создали пользовательские протоколы связи для синхронизации обновлений между машинами. Это не были блестящие достижения, но они были необходимы.
“Никто раньше не тренировался на 10 000 чипах”, - говорит Хао. “Им пришлось разбираться в этом в режиме реального времени”.
Эти достижения позволили масштабировать модели быстрее и эффективнее, чем конкуренты. Но они также способствовали новому виду секретности. OpenAI перестала публиковать многие детали своих прорывов. Раскрывать слишком много, по мнению компании, означало бы лишиться конкурентного преимущества.
К 2024 году большинство крупных технологических компаний догнали ее. IBM, Google, Meta, Amazon, Anthropic и новые участники, такие как Mistral, создали большие языковые модели, используя схожие архитектуры transformer и методы обучения. Многие использовали обучение с подкреплением с обратной связью с человеком - метод, при котором люди оценивают качество выходных данных модели, позволяя доработать модель, чтобы она лучше соответствовала предпочтениям человека.
Сторонним наблюдателям стало труднее различить различия между этими системами. Разработчики приложений начали разрабатывать интерфейсы, которые могли работать с любой моделью за кулисами, позволяя им переключать поставщиков по мере необходимости. Цены, задержка и время безотказной работы стали важнее незначительных различий в интеллекте.
“Сейчас все пытаются не зависеть от моделей”, - говорит Хао. “У OpenAI больше нет монополии на хорошие модели”.
Поскольку масштаб больше не является отличительным фактором, компании начали инвестировать в другую парадигму: агентство. В искусственном интеллекте агентство относится к способности системы проявлять инициативу, упорствовать в течение долгого времени и действовать для достижения своих целей. Вместо того, чтобы реагировать на подсказки, агент планирует действия, отслеживает результаты и корректирует поведение.
Для этого потребовались новые возможности. Модели должны были сохранять память в течение сеансов, интегрироваться со сторонними инструментами и принимать решения без явных подсказок. Целью было перейти от пассивного чат-бота к активному сотруднику.
OpenAI долгое время вдохновлялся
фильмом “Она”, в котором пользователь влюбляется в помощника с искусственным интеллектом, который легко приспосабливается к его потребностям. Создание такой системы означало развитие не только интеллекта, но и присутствия. Хао отметил, что внутренние команды OpenAI преследовали эту мечту во всех областях продуктов и исследований.
“Вы не сможете создать такого помощника, не наделив модель памятью, постоянством и автономностью”, - говорит она.
Но чтобы сделать агентов по-настоящему эффективными, OpenAI требовалось нечто большее, чем алгоритмы. Ему нужны были новые виды данных и новые способы их сбора. Интернет, некогда обильный источник обучающих данных, перенасытился синтетическим контентом. Многие документы, доступные сейчас в Интернете, были созданы самими предыдущими моделями.
Это создает цикл обратной связи, в котором онлайн-обучение становится все менее ценным. Чтобы разорвать этот цикл, компании переходят к более тщательному сбору данных. Хао сообщила, что OpenAI изучает пользовательские устройства, которые могли бы фиксировать поведение пользователей в режиме реального времени, от взаимодействия с мобильными устройствами до голосовых разговоров и контекста окружающей среды.
“В Интернете слишком много контента, созданного искусственным интеллектом”, - говорит Хао. “Если вам нужны высококачественные данные, вы должны получать их непосредственно от людей”.
Растущий поток контента, созданного с помощью искусственного интеллекта, по словам Хао, поднимает сложные вопросы о согласии, слежке и контроле. Могут ли люди действительно отказаться от сбора своих данных? И что они скажут о моделях, обученных их словам, образам или поведению?
Для Хао ответ заключается не в технооптимизме или обреченности, а в прозрачности. Она не разделяет доминирующие идеологии в области ИИ — тех, кого она называет “бумеров”, которые верят, что искусственный интеллект спасет человечество, или “роковых людей”, которые боятся, что он нас уничтожит.
“Я нахожусь в лагере подотчетности”, - говорит она. “Эти системы отражают институциональную власть. Нам нужно знать, как они создаются и кому это выгодно”.
Компаниям необходимо объяснять, как тестируются их модели, какие данные они используют и как они осмысливают результаты, говорит Хао. Они должны отслеживать ошибки и делиться своими выводами, чтобы другие могли присмотреться поближе.
Без такой открытости, предупреждает Хао, ИИ рискует превратиться в проприетарный черный ящик — мощный, но неподотчетный.
Исследование IBM
Перевод: сервис для маркетплейсов KolerskyMP