View in Telegram
📕 Искусственный интеллект умнеет, обучая другие модели Педагоги в процессе обучения детей углубляют и собственные знания. Это связано с тем, что преподавание заставляет человека четко структурировать информацию и выявлять пробелы. Оказалось, этот принцип работает и с большими языковыми моделями (LLM). Китайские ученые из Университета Цинхуа адаптировали методику обучения через преподавание (Learning by Teaching, LBT) для тренировки нейросетей. В ходе опыта мощная модель GPT-4 передавала знания более простой GPT-3.5. Как это работает ➡️ Сильный тренирует слабого. В процессе обучения «учитель» отвечает на вопросы «ученика» и объясняет ему сложные концепции, которые младшая модель еще не может понять. ➡️ Обобщение знаний. Сильная модель вынуждена формулировать ответы так, чтобы их понимала слабая модель. Такое «обобщение» заставляет «учителя» по-новому взглянуть на свои знания, упрощая и перестраивая их. ➡️ Улучшение сильной модели. Во время тренировки «учитель» анализирует собственные знания. Это помогает сильной модели выявить и устранить свои слабые стороны или даже найти новые способы решения задач. В итоге она совершенствует алгоритмы, повышает точность предсказаний и улучшает общее качество работы. Зачем это нужно LBT открывает новые перспективы для развития искусственного интеллекта. В OpenAI уже используют новую мощную модель Strawberry для обучения нейросети Orion, которая придет на смену GPT-4o. И, судя по инсайдерской информации, тренировка проходит успешно. К тому же, один «учитель» может натаскивать сразу несколько «учеников». А использование такого подхода для улучшения LLM помогает снизить зависимость от данных, созданных человеком. 📱 Посмотреть подробную лекцию о работе ученых из Цинхуа можно здесь. Еще по теме: ➡️ Что происходит у ChatGPT «под капотом» ➡️ Когда закончатся данные для обучения LLM? #news #ChatGPT @hiaimedia
Please open Telegram to view this post
VIEW IN TELEGRAM
Love Center
Love Center
Find friends or serious relationships easily