Ещё один способ комбинировать машинное обучение с интерпретируемыми моделями: прогнозирование параметров интерпретируемых моделей при помощи нейронных сетей#лонгрид#статьиКомбинирование моделей машинного обучения и моделей
эконометрических тем или иным способом - довольно важная для многих сфер задача.
Эконометрические модели интерпретируемы, и это очень важно, когда речь заходит не о генерации картинок с котиками, а о каких-то чувствительных вещах (
гос политика, работа банков и т.д.). Узнать, что ЦБ внезапно поднял ставку до 50% из-за того, что нейронка сгаллюцинировала и как-то не так спрогнозировала реакцию экономики - довольно грустно. Или узнать, что банк не дал тебе ипотеку из-за цвета кроссовок на фотке в соцсети. А понять,
галлюцинации это
или нет, может быть
задачей довольно
нетривиальной.
С другой стороны,
модели машинного обучения просто
гораздо точнее - по крайней мере, когда хватает объёма данных их обучить.
И вот ещё один интересный, как мне кажется, пример комбинации двух подходов из свежей
статьи: старая-добрая
векторная авторегрессия, у которой
параметры меняются во времени но не каким-то простым (
и обычно случайным) образом, как это обычно делается в TVP-VAR моделях, а
как нелинейная функция от каких-то факторов! В данном случае: от времени. В чём преимущество? В возможности
нормально прогнозировать эти
параметры!
А та самая нелинейная функция оценивается, понятное дело, методами машинного обучения (
тоже старой-доброй моделью, теперь - LSTM). Интересно, что оценивается оно всё совместно,
максимизацией правдоподобия.
Работает, кажется, неплохо!
Вопросы, конечно, есть: прежде всего,
нет сравнения с обычным TVP-VAR, оценённым "традиционным" методом (
запись в виде state space модели -> фильтр Калмана -> максимизация правдоподобия). И это при том, что на этапе
проверки на симулированных данных, эти сами данные симулируются на основе рядов
коэффициентов,
полученных из обычного TVP-VAR! Немного удивляет такая небрежность...
Тем не менее, идея достаточно красивая!