Кажется, OpenAI достигли потолка
scaling law.
The Information (от них последнее время приходит много интересной информации) поделились неутешительными новостями о следующей LLM от империи Альтамана.
С одной стороны,
o1, пройдя всего 20% тренировки, уже достиг уровня GPT-4. С другой — источники в OpenAI говорят, что следующая модель хоть и обещает быть лучше предшественника в целом, но «не надежно лучше своего предшественника». Именно поэтому обсуждается смена парадигмы нейминга. Чтобы справиться с вызовами скейлинга, OpenAI создали специальную команду —
foundation team. Похоже, мы можем не дождаться ChatGPT-5.
o1, конечно, выглядит перспективно, но это всего лишь один из примеров смены направления развития.
Как видно из
успеха o1, следующий шаг в развитии LLM-моделей лежит не в увеличении объема данных (их, кстати,
уже не хватает — в датасете уже куча синтетики), а в поиске новых подходов к скейлингу. Один из таких подходов — это
chain of thought, который по сути получает прирост в качестве за счет скейлинга количества компьюта во время инференса.
Еще одно важное направление — это агенты. Антропик уже продемонстрировали
computer use, так что ответ от OpenAI не заставит себя ждать (как минимум еще во время презентации 4o gpt-ишка смотрела на экран юзера). Правда, точных дат нам не называют, и это, возможно, к лучшему — не хотелось бы снова ждать полгода, как это было с
voice mode после первого анонса.
И да,
Orion ожидается
early next year, что на языке OpenAI это может означать период с января до середины июля :)
@ai_newz