Интересный ресеч вышел, который проверяет, насколько эффективно, что языковые модели общаются между собой человеческим языком (например, в агентских системах где ответ из LLM попадает снова в LLM)
Ожидаемо оказалось, что роботам использовать наш язык – не эффективно. Вместо текста языковым моделям проще обмениваться набором «
координат» — данных, которые описывают смысл фраз и слов, их называют эмбеддингами. Например, вместо фразы
«Привет, ну как там с деньгами?» одна модель передаёт другой что-то вроде
[0.82, -0.45, 1.22,…]. Это ускоряет процесс почти в три раза (!), причём без потерь в качестве
Подход позволяет моделям быстрее решать задачи и взаимодействовать друг с другом, например, в сложных сценариях вроде совместного написания кода или генерации текста
Тут
технические детали, а
тут статья в NewScientist
Короче, скоро не почитать будет без спец тулзов, что там модели друг другу пишут в процессе общения