⚡ @yevheniirozov — AI, нейросети, промпты. Подписывайся!
← Все статьи промпты для генерации картинок Midjourney

Три месяца я писал промпты неправильно. Вот как надо.

· 2026-04-04 · 4 min read

14 марта, около двух ночи. Я отправлял берлинскому клиенту 23-й вариант обложки для подкаста, потратив $11 на генерации. Он всё отклонял.

Я уже ненавидел этот проект.

---

Три месяца я объяснял Midjourney не то

Схема, по которой я работал, казалась логичной. Объект + стиль + настроение. *Microphone, dark studio, moody vibes, cinematic.* Звучит профессионально, правда? Я даже гордился тем, что знаю эти слова.

Результаты были... нормальные. Не плохие. Но клиенты постоянно говорили что-то вроде "не то ощущение" или "хочется чего-то другого". Я переформулировал, добавлял прилагательные, менял порядок слов. Генерировал ещё 10 картинок. Ещё 15.

За три месяца я слил на это больше $300 и, наверное, 60+ часов работы.

Самое обидное - я думал, что проблема в моей "насмотренности". Что нужно смотреть больше референсов, лучше чувствовать эстетику. Записался на курс за $47. Там учили... тем же прилагательным, только с большей уверенностью в голосе.

В ту ночь с берлинским клиентом у меня была открыта случайная вкладка про фотографию - я читал что-то про освещение пока ждал рендер. И почти машинально вписал в промпт: *Rembrandt lighting, shot on 85mm f/1.4, shallow depth of field.*

Первая же картинка. С первого раза.

Клиент написал "yes, this one" через две минуты.

Я собрал промпты по этой теме в PDF. Забери бесплатно: https://t.me/airozov_bot

---

Что реально работает: думай как фотограф, не как художник

Проблема была не в словарном запасе. Проблема была в том, что я описывал *что нарисовать*, а не *как это снято*.

Midjourney обучен на миллионах фотографий и изображений. У каждого из них есть технические параметры - объектив, свет, угол, расстояние до объекта. Когда ты говоришь "moody" - это интерпретация. Когда говоришь "Rembrandt lighting" - это инструкция.

Вот три вещи, которые я теперь вставляю в каждый промпт для коммерческих задач.

Первое - освещение с названием.

Не "dramatic light". А конкретно: *Rembrandt lighting* (тень-треугольник под глазом, тепло, глубина), *golden hour backlight* (солнце сзади, силуэт, романтика), *overcast diffused light* (ровный мягкий свет, никаких теней, хорошо для продуктов), *hard single-source light* (резкие тени, графика, напряжение).

Каждое из этих словосочетаний даёт Midjourney конкретную картину в голове. Не настроение - физику света.

Второе - параметры объектива.

*Shot on 35mm* против *shot on 85mm* - это разные картинки. 35мм даёт среду, контекст, немного искажение по краям. 85мм сжимает пространство, изолирует объект, создаёт портретную мягкость. *f/1.4* - боке, размытый фон, фокус на деталях. *f/8* - всё резкое, документальность, репортаж.

Для той берлинской обложки сработал именно *85mm f/1.4* - микрофон вышел крупным, фон превратился в абстракцию, появилась та самая "студийная атмосфера" которую клиент хотел три часа.

Третье - расстояние и угол.

*Close-up*, *extreme close-up*, *medium shot*, *low angle*, *bird's eye view*. Это не про стиль - это про то где стоит воображаемая камера. Я раньше никогда не думал об этом явно. Теперь это первое что прописываю.

Пример промпта который я сейчас использую для подкаст-обложек:

*Professional podcast cover, vintage microphone, extreme close-up, Rembrandt lighting, shot on 85mm f/1.4, shallow depth of field, warm amber tones, dark studio background, --ar 1:1 --v 6*

С этим промптом я получаю рабочий результат за 2-4 генерации вместо 20+.

---

Самое неожиданное, что я обнаружил

Я думал, что чем больше слов - тем точнее результат. Логично же? Больше деталей = больше контроля.

Нет.

Длинный промпт на 80 слов с десятью прилагательными работает хуже, чем короткий на 25 слов с тремя техническими параметрами. Midjourney начинает "усреднять" конфликтующие инструкции. Ты пишешь "dark and dramatic but also warm and inviting" - и получаешь кашу, которая ни то ни другое.

Я проверял это специально. Взял один и тот же запрос, написал два промпта. Первый - эмоциональный, 70 слов. Второй - технический, 22 слова. Показал трём клиентам не говоря какой откуда. Все трое выбрали картинки из короткого промпта.

Ещё один момент, который меня удивил: *--style raw* в шестой версии Midjourney убирает "фирменную" обработку и даёт более фотореалистичный результат. Я не знал об этом три месяца. Просто не читал документацию потому что думал что "и так разберусь".

Не разобрался. Стоило это мне нескольких сотен долларов и одного клиента на $800 которому я не смог сделать то что он хотел - просто потому что не понимал инструмент достаточно глубоко.

Каждый день разбираю один такой инструмент в Telegram: https://t.me/yevheniirozov

---

Что сделать прямо сейчас

Не "попробуй поиграть с промптами". Конкретно.

Зайди в Midjourney и напиши вот это - подставь свой объект вместо [subject]:

*[subject], close-up shot, Rembrandt lighting, shot on 85mm f/1.4, shallow depth of field, dark background, --ar 1:1 --v 6 --style raw*

Сравни с тем, что ты обычно пишешь. Разница будет видна сразу.

Если ты делаешь это для клиента - сохрани технические параметры которые сработали. Не промпт целиком, а именно связку освещение + объектив. Это твоя база, которую ты переиспользуешь на следующем проекте вместо того чтобы каждый раз начинать с нуля.

Я потратил три месяца чтобы понять одну вещь: Midjourney не читает твои мысли через прилагательные. Он читает технические параметры через которые фотографы описывают реальность.

Читайте также

Как я нашёл нейросеть, которая рисует бесплатно

Какой бесплатный аналог ChatGPT реально работает на русском?

Я протестировал 8 бесплатных аналогов ChatGPT на русском языке

Подписывайся на Telegram

AI-инструменты, промпты, гайды по нейросетям. Бесплатный PDF в закрепе.

@yevheniirozov
Поделиться: