← Все статьи

[teletype] Один промпт заставил ИИ думать - и он стал в 10 раз умнее

Yevhenii Rozov
Yevhenii Rozov · 2026-05-13

14 февраля, 23:47. Я смотрю на экран и понимаю, что потерял $2400.

Клиент написал коротко: «Женя, бот не работает, мы уходим». Три простых вопроса про возврат товара - и три раза подряд чушь в ответ. Не технический сбой. Просто ИИ не думал.

---

Как я провёл 47 итераций за ночь и не сдвинулся ни на миллиметр

Я переписывал промпт с 23:00 до 3 ночи. Менял формулировки, добавлял контекст, убирал лишнее, снова добавлял. После каждой итерации тестировал на тех же вопросах - и бот продолжал отвечать мимо.

Попытка 12: добавил подробную инструкцию по политике возврата.

Попытка 23: переписал роль ассистента, сделал её «экспертом в поддержке».

Попытка 38: ограничил ответы только фактами из базы знаний.

Ничего. Бот читал инструкцию, игнорировал логику и выдавал то, что казалось ему похожим на правильный ответ. Проблема была не в том, что я плохо объяснял. Проблема была в том, что я давал ИИ ответы вместо того, чтобы давать ему мышление.

Я тогда этого ещё не понимал.

Это боль, которую я вижу у каждого второго клиента, который приходит ко мне с «сломанным» ботом. Они неделями правят тексты промптов, добавляют детали, пишут всё подробнее и подробнее - и получают тот же результат. Потому что дело не в подробности. Дело в структуре мышления, которую ты даёшь модели.

Я собрал промпты по этой теме в PDF. Забери бесплатно: https://t.me/airozov_bot

---

Одна фраза, которая за 20 минут сделала то, что 47 итераций не сделали за ночь

Утром 15 февраля я сел с кофе и злостью. Открыл файл с промптом и почти случайно добавил в начало одну строку.

«Перед ответом разбери задачу по шагам.»

Всё. Больше ничего не менял.

Запустил тест - и бот прошёл все сценарии, которые валил неделю. За двадцать минут. Я просидел несколько секунд, смотрел на экран и не мог понять, что только что произошло.

Произошло вот что: я включил chain of thought - метод, при котором модель не прыгает сразу к ответу, а проходит через промежуточные шаги рассуждения. Это не магия и не хак. Это то, как модель начинает работать иначе на уровне архитектуры.

Вот почему это работает. Когда ты просишь ИИ ответить сразу, он делает один большой предсказательный прыжок - от вопроса к ответу. Когда ты просишь его разобрать задачу по шагам, каждый следующий токен опирается на предыдущее рассуждение. Модель буквально строит контекст для самой себя, прежде чем дать финальный ответ.

Разница в качестве - не 10-20%. Иногда это разница между «работает» и «не работает».

Три формулировки, которые реально включают этот режим.

«Разбери задачу по шагам перед тем, как дать ответ» - базовая, работает в большинстве случаев. Подходит для вопросов с логикой, анализом, принятием решений.

«Сначала перечисли, что тебе нужно знать для ответа, потом ответь» - сильнее для сложных кейсов. Модель сама выявляет пробелы в условии, прежде чем идти дальше.

«Объясни своё рассуждение, как будто пишешь для человека, который будет проверять каждый шаг» - работает там, где важна точность. Юридические тексты, технические расчёты, медицинские протоколы.

Я тестировал все три на Claude Sonnet 3.7 с одним и тем же кейсом - анализ контракта на спорные условия. Без chain of thought: общий ответ, два абзаца, пропущены два ключевых риска. С третьей формулировкой: пять шагов рассуждения, оба риска найдены, плюс один о котором я сам не подумал.

Один и тот же промпт. Одна добавленная фраза.

---

То, что я понял в 8 утра 15 февраля и чего не понимал всю ночь до этого

Я не стал лучше как разработчик за ту ночь. Я не узнал ничего нового про архитектуру моделей. Я просто перестал думать за ИИ и начал давать ему инструмент для собственного мышления.

Это звучит просто. Но большинство людей, которые работают с нейросетями, делают ровно обратное.

Они пишут подробные промпты, которые описывают ответ. Какой тон, какая структура, какая длина, какие слова использовать. По сути они пытаются максимально сузить пространство, в котором модель двигается. И потом удивляются, что модель выдаёт что-то шаблонное и плоское.

Chain of thought делает противоположное. Ты не говоришь модели, каким должен быть ответ. Ты говоришь ей, как думать перед тем, как отвечать. Это разница между «напиши вот такой текст» и «вот как устроена задача, теперь реши её».

Есть ещё один момент, который я проверил на практике и который удивил меня самого. Chain of thought работает не одинаково на всех моделях.

На Claude - очень хорошо. Модель действительно строит рассуждение, и оно влияет на финальный ответ. На ChatGPT-4o - работает, но иногда рассуждение выглядит как имитация шагов, а не реальная логика. На более слабых моделях - почти не работает, потому что им не хватает базовой мощности для связного рассуждения.

Я перешёл на Claude как основной инструмент примерно восемь месяцев назад и разница в качестве выходов на сложных задачах - заметная. Особенно на том, что требует многоступенчатой логики.

Каждый день разбираю один такой инструмент в Telegram: https://t.me/yevheniirozov

---

Что сделать прямо сейчас, если хочешь проверить это сам

Не нужно читать документацию или проходить курс. Нужно пять минут.

Зайди на claude.ai. Возьми любую задачу, с которой у тебя были проблемы - бот давал странные ответы, анализ получался поверхностным, текст выходил шаблонным. Напиши вот этот промпт перед своим обычным запросом.

«Прежде чем отвечать, разбери задачу по шагам. Для каждого шага объясни, почему ты делаешь именно это. Только после этого дай финальный ответ.»

Посмотри на разницу. Если она есть - ты только что понял то, на что у меня ушла ночь и $2400.

Читайте также

• [Как я научил ChatGPT делать мою работу за 10 минут](https://telegra.ph/Kak-ya-nauchil-ChatGPT-delat-moyu-rabotu-za-10-minut-05-12)

• [Зачем платить копирайтеру, если ИИ справится за минуту?](https://telegra.ph/Zachem-platit-kopirajteru-esli-II-spravitsya-za-minutu-05-12)

• [Один промпт заменил мне целый рабочий день копирайтера](https://telegra.ph/Odin-prompt-zamenil-mne-celyj-rabochij-den-kopirajtera-05-12)

Telegram-канал @yevheniirozov — AI, нейросети, prompt engineering

Читайте также

[teletype] Я протестировал 8 бесплатных аналогов ChatGPT на русском языке

Какой бесплатный аналог ChatGPT реально говорит по-русски?

Какой бесплатный аналог ChatGPT реально говорит по-русски?