А если мы используем, к примеру, туже llama-13b, то можно ли использовать другую модель эмбеддинга, отличную от той, которая используется в llama-13b? У каждой LLM своя модель эмбеддинга?
я разобрался с тензорфловом, но так и не смог понять, как мне реализовать продолжение последовательности на несколько чисел. допустим у меня есть токенизированный текст и мне нужно обучить модель его продолжать. у кого есть код?