Как решать сложные задачи, требующие точности? Интересный подход, основанный на 23м Принципе Промптинга (из 26, проверенных учеными)
(часть 8,
здесь предыдущие 7)
Привет, друзья!
Анализировал очередной лайфхак промптинга, а получился пост про оригинальный подход к решению сложных объемных задач на примере анализа результатов HR-исследования. Начнём с принципа промптинга:
23. Когда у вас есть сложный кодинговый промпт, который может находиться в разных файлах: «С этого момента и далее, когда вы генерируете код, охватывающий более одного файла, создавайте скрипт на [языке программирования], который можно запустить для автоматического создания указанных файлов или внесения изменений в существующие файлы для вставки сгенерированного кода. [ваш вопрос]»
Лайфхак выглядит очень здраво. Ключевая идея этого принципа:
разбиение сложной задачи на более мелкие, управляемые, контролируемые (!) части и автоматизация процесса их сборки. Но, поскольку я сам код не пишу, позволю себе рассказать о том, как я его применяю при поиске решений бизнес-задач.
Я использую его, когда мне нужно безупречно обработать большой документ. Например,
классифицировать ответы на открытый вопрос после проведенного исследования (или после опроса на стратсессии с большой группой). Метод
разделения большой задачи на несколько небольших с последующей интеграцией результатов:
1️⃣ Значительно упрощает проверку работы нейросети (да-да, при решении уникальных задач мы всё ещё проверяем «руками», хотя бы выборочно).
2️⃣ Повышает качество работы нейросети (пока я делал пример для этого поста, даже Gemini с миллионом токенов ошибалась, если я просил сразу вывести 100 классифицированных ответов). А вот 25 в одном ответе — самое то! Ни одной ошибки!
Поэтому для решения большой задачи по классификации 100+ ответов сотрудников на открытый вопрос разделим ответ нейросети на «порции» по 25 элементов списка в каждом и попросим делать промежуточный итог в конце каждого ответа. А в конце «собрать» их в единую таблицу (что полностью воспроизводит идею 23го лайфхака).
Тогда проверка будет сведена сведена к (1) выборочному контролю качества классификации, (2) выборочному либо тотальному контролю правильности точности подсчета в каждом фрагменте и (3) тотальному контролю верности суммирования промежуточных таблиц. Ха, всего-то;)
Вот мой ПРОМПТ:
С этого момента и далее, когда ты анализируешь документ «результаты опроса сотрудников» в поисках повторяющихся токсичных проявлений руководителей, создавай саммари в конце каждого своего ответа в виде таблицы с колонками: "Номера записей", "Токсичное проявление", "Количество упоминаний в анализируемом фрагменте"
Раздели свой большой ответ на несколько ответов, чтобы мне было удобнее анализировать. В каждом ответе возьми по 25 примеров (всего их будет больше 100).
Например, если в твоем ответе 1 обнаружено 2 упоминания "Публичная критика" и 1 упоминание "Микроменеджмент", таблица должна выглядеть так:
| Номера записей | Токсичное проявление | Количество упоминаний в анализируемом фрагменте |
|---|---|---|---|
| номер записи Х1, номер записи Х2 | Публичная критика | 2 |
| номер записи Y | Микроменеджмент | 1 |
В конце анализа скомпонуй все таблицы в единую сводную таблицу, приведя все номера записей и указав общую сумму упоминаний каждого. Начни с самого часто встречающегося.
ОТВЕТ НЕЙРОСЕТИ (после нескольких «продолжи работу»)
В комментариях.
МОЯ ОЦЕНКА
Принцип (и промпт) прекрасен!
Безусловно, это замедлит вашу работу по сравнению с ситуацией, когда вы отдадите анализ большого документа целиком на откуп нейросети, однако добавит уверенности, что вы ничего не потеряли. А на текущем этапе развития нейросетей при решении уникальной задачи с файлом из нескольких сотен записей эта уверенность может появиться только после проверки.
Вы уж простите:)
Осталось всего 3 из 26!
Порадуйте огонечками — и будет следующий пост. А в комментах — пишите, как решаете объемные задачи, требующие проверки!
в каталог промптов и кейсов (их уже 28+)
на мой главный канал (пост
«Хотите быть богатым — забудьте о страсти к продукту»)