Мы изучили материалы, сопоставили факты и собрали все в одном тексте. Получилось авторское исследование, которое поможет вам увидеть тему шире и разобраться в деталях без лишнего шума.
|
Исседование подготовил Сергей Лысенко Ведущий спикер Webcom Academy |
Знаете, что бесит? Когда очередной «гуру» на YouTube продает обещание «секретных промптов, которые изменят вашу жизнь». А в результате все сводится к банальным «пиши четко» и «добавляй контекст». Спасибо, кэп. Мы и так в курсе.
Ну, а если подойти серьезно, то есть показательные исследования, в которых группа исследователей из Вашингтонского университета и Microsoft Research реально разбиралась, какие техники промптинга работают, а что — пустышки. 1565 научных статей. Не постов в Instagram, не тредов, не твитов. Реальных, рецензируемых публикаций. И результаты… местами неожиданные.
Начнем с базы
Промпт-инжиниринг — это, по сути, умение сообщать языковой модели, что она должна делать. Не программирование. Не магия. Просто навык формулировать задачу так, чтобы GPT (или Claude, или Gemini) выдавала максимально полезный для нас результат.
Проблема в том, что техник расплодилось как грибов после дождя. Chain-of-Thought, Few-Shot, Tree-of-Thought, Self-Consistency, ReAct… Звучит очень умно, красиво, при этом порой не понимаешь ни одного слова, но стесняешься спросить, чтобы не показаться глупым.
Исследователи взяли и систематизировали все это хозяйство. Построили таксономию из 58 техник. Протестировали. Сравнили. И вот результаты.
Что реально дает результат
| 01 | Chain-of-Thought (Цепочка рассуждений) |
| Вы просите модель не просто дать ответ, но и показать ход ее мысли: «Давай подумаем шаг за шагом». Работает? О да! Особенно на тех задачах, где нужна логика, математика, многоступенчатые рассуждения. Прирост точности на арифметических задачах — до 40% по сравнению с обычным промптом. Но, как всегда, есть нюанс. На простых задачах — типа классификации текста или извлечения фактов — цепочка рассуждений не только не помогает, но порой ухудшает результат. Модель начинает «умничать» там, где нужно просто ответить. Классическое «Горе от ума». |
➡︎ Вывод для маркетолога: если вы просите GPT написать пост для Instagram, не надо заставлять ее «рассуждать пошагово». А вот если нужна сложная стратегия продвижения с расчетами — тогда да, просим думать вслух, то есть на экране.
| 02 | Few-Shot (Примеры в промпте) |
|
Даете модели от 3 до 5 примеров того, что хотите получить. «Вот так выглядит хороший заголовок. И вот так. И так. А затем просим: «Теперь сделай по аналогии для моего продукта». Работает стабильно. Стабильно хорошо. Почти всегда лучше, чем Zero-Shot (когда примеров нет). Особенно критично для задач с нестандартным форматом вывода. Если вам нужна таблица в определенном виде или текст в специфическом стиле — примеры однозначно решают. Интересное наблюдение из исследования: качество примеров важнее количества. Три отличных примера бьют десять посредственных. Причем разнообразие примеров тоже играет роль: если все примеры про одно и то же, модель «залипает» на этом паттерне. |
➡︎ Вывод для маркетолога: собирайте библиотеку хороших примеров для своих типовых задач. Лучший пост, лучшее КП, лучший email. Это ваш рабочий капитал.
| 03 | Self-Consistency (Самосогласованность) |
|
Идея элегантная:
Прирост точности на сложных задачах — до 17%. Не космос, но стабильно. Минус: тратите в 5–10 раз больше токенов (читай — денег). И время. Для разовой задачи — ок. Для конвейера из тысячи запросов в день — считайте экономику.
|
➡︎ Вывод для маркетолога: когда нужно принять решение на основе анализа, попросите GPT три раза проанализировать вашу рекламную кампанию и посмотрите, какие выводы повторяются. Повторяющиеся — скорее всего, верные.
Что работает хуже, чем кажется
| 04 | Эмоциональные манипуляции |
|
«Это очень важно для моей карьеры!», «Мне грозит увольнение, если ты ошибешься!» — помните эти советы «экспертов»? Исследование показало: эффект минимальный и нестабильный. На одних моделях чуть помогает, на других — ноль. На третьих — ухудшает результат. |
➡︎ Вывод для маркетолога: модели не боятся увольнения. Сюрприз.
| 05 | Сложноструктурированные промпты |
|
Промпты на 2000 слов с детальными инструкциями на каждый шаг. «Сначала проанализируй, потом структурируй, потом проверь, потом переформулируй, потом проверь еще раз…» Исследование показало: после определенного порога сложности эффективность начинает падать. Модель теряется в инструкциях. Это как стажер, которому дали ТЗ на 40 страниц: он не то что сделает лучше — он вообще впадет в ступор. |
➡︎ Вывод для маркетолога: промпт должен быть настолько подробным, насколько нужно, и настолько коротким, насколько возможно.
| 06 | Tree-of-Thought и прочие «деревья» |
|
Красивая концепция: модель генерирует несколько вариантов решения, оценивает каждый, выбирает лучший, развивает его… Звучит как мечта перфекциониста.
|
➡︎ Вывод для маркетолога: Для типичных маркетинговых задач — оверкилл. Вы не будете строить дерево решений, чтобы написать текст для лендинга. Ну, я надеюсь, что не будете.
Подытожим:
- Эффективность техники зависит от задачи, модели и контекста. Универсальных «лучших промптов» не существует.
- Chain-of-Thought рулит на математике и проваливается на классификации.
- Few-Shot спасает при нестандартном формате и бесполезен, когда модель и так знает, что делать.
- Self-Consistency хороша для аналитики, но расточительна для генерации контента.
Еще несколько интересных моментов из исследования
Промпты деградируют со временем
Промпт, который идеально работал на GPT-5, может выдавать ерунду на GPT-5.4. Модели обновляются, их поведение меняется. Ваша библиотека промптов — не «настроил и забыл». Это живой организм, который нужно регулярно проверять и обновлять.
Порядок информации в промпте имеет значение
Модели лучше «запоминают» то, что стоит в начале и в конце промпта. Середину проглатывают. Это называется «эффект потерянной середины» (lost-in-the-middle).
Практический совет:
самое важное — в начало. Второе по важности — в конец. Все остальное — в середину. Как в журналистике: лид и концовка решают.
Советы тем, кто работает с нейросетями каждый день
Под задачу — свою технику
Не пихайте Chain-of-Thought везде. Не ставьте роль «ты эксперт» на каждый промпт. Думайте, что именно вам нужно от модели в данный момент.
Примеры — ваш главный актив
Собирайте. Систематизируйте. Обновляйте. Три хороших примера в промпте стоят больше, чем страница инструкций.
Простота побеждает
Если можно сказать в 50 словах — не говорите в 500. Модель не оценит вашу многословность. Она в ней потеряется. Проверяйте промпты после обновлений модели. Заведите привычку: раз в месяц прогоняйте ключевые промпты и смотрите, не поехал ли результат.
Итерируйте
Лучший промпт — не тот, который вы написали с первого раза. Это тот, который вы переписали пять раз, каждый раз глядя на результат. Промпт-инжиниринг — это не творчество. Это тестирование гипотез.
И напоследок
Промпт-инжиниринг — не ракетостроение. Но и не «просто поговорить с чат-ботом». Это навык, который требует понимания того, как работают модели, что они умеют, а что — имитируют.
Исследование 1565 статей (земной поклон ребятам за это) подтверждает: разница между человеком, который «просто пользуется ChatGPT», и тем, кто понимает принципы, — это разница между тем, кто жмет на газ, и тем, кто умеет водить.
Газ жать все научились. Пора учиться водить. Ну а в следующем материале разберемся с ролями.
Источники
➡︎ Systematic Survey of Prompting Techniques (1565 статей)➡︎ Chain-of-Thought Prompting Elicits Reasoning in LLMs)
➡︎ Tree of Thoughts: Deliberate Problem Solving with LLMs
➡︎ Self-Consistency Improves Chain of Thought Reasoning


