View in Telegram
Наглядный пример работы GPT с разным размером контекстом. Контекст - это история общения с ботом в нашем случае. Он ограничен для разных моделей разной длиной. Длина - для русского языка 1 токен = 1 символу, для английского - 1 слову. Из этого графика можно сделать такой вывод: чем больше сообщений в истории (контексте), тем хуже GPT может понимать и вытаскивать факты из текста. При огромном контексте в 128 тысяч символов, gpt почти не может понять текст. Для более качественной работы бота, рекомендуем использовать английский язык и периодически очищать историю с помощью команды: /clear
Love Center - Dating, Friends & Matches, NY, LA, Dubai, Global
Love Center - Dating, Friends & Matches, NY, LA, Dubai, Global
Find friends or serious relationships easily