Setters Media написали на прошлой неделе про ИИ-хайлайты 2024 (см.выше ↑) и попросили поделиться мыслями про 2025. дополню чуть подробнее свои наблюдения — речь не про релизы или новости, коих с головой, а про трансформацию пользовательского опыта и доверия.
(1) в России к концу года ИИ перешел из рук ранних последователей к раннему большинству. опираюсь на рост UGC про ИИ (при чем по тем же темам, что были актуальны в англоязычном пространстве в 2023 году), семикратный рост интереса к курсам по ИИ
(данные вордстата) и личное ощущение — ко мне сейчас поступает куда больше запросов на мои программы (при том, что у меня ни сайта, ни рекламы).
(2) скорость распространения интереса высокая, но степень освоения поверхностная. если вы наткнетесь на директивы писать промпты с присваиванием ролей «думай как маркетолог...» — закрывайте страницу. эти трюки устарели. нынешняя модель ChatGPT в них не нуждается. осваивать нужно не просто промптинг, а ментальную модель работы с ИИ.
(3) критическое мышление — маст, иначе когнитивная артрофия. последний год отслеживаю разговоры про риски для когнитивных навыков, и вот в начале 2025 первые звоночки:
исследование, подтверждающее, что от частого использования ИИ, падает уровень критического мышления. для меня это про поиск баланса — нам предстоит адаптировать наши профессии под работу с ИИ, но и нужно сохранить автономию от него. и это, конечно, еще и проблема образования, куда проникает ИИ, но система не такая подвижная и адаптироваться не успевает.
и поэтому
(4) должны появиться протоколы работы с ИИ. я имею в виду не правовое регулирование (которое в случае с Евросоюзом палки в колеса), а про нормы взаимодействия, особенно в тех областях применения, где ИИ может быть воспринят двояко — вроде польза, но и вред тоже. сюда относим как минимум образование и психотерапию. в качестве референса:
международная федерация коучинга (ICF) как раз собирает эти стандарты.