Наглядный пример работы GPT с разным размером контекстом. Контекст - это история общения с ботом в нашем случае. Он ограничен для разных моделей разной длиной. Длина - для русского языка 1 токен = 1 символу, для английского - 1 слову.
Из этого графика можно сделать такой вывод: чем больше сообщений в истории (контексте), тем хуже GPT может понимать и вытаскивать факты из текста.
При огромном контексте в 128 тысяч символов, gpt почти не может понять текст.
Для более качественной работы бота, рекомендуем использовать английский язык и периодически очищать историю с помощью команды: /clear