System Design Space
Граф знанийНастройки

Обновлено: 24 марта 2026 г. в 14:56

Prompt Engineering for LLMs (short summary)

medium

Prompt engineering быстро упирается в потолок, если рассматривать его как подбор удачной формулировки, а не как проектирование контекста.

Глава показывает, почему LLM loop, RAG, agents и workflows меняют предмет разговора: качество ответа начинает зависеть от устройства всей цепочки, а не от одного prompt.

На интервью и в архитектурных обсуждениях это позволяет говорить про context engineering, retrieval quality, state management и evaluation вместо бытовых советов про промпты.

Практическая польза главы

Практика проектирования

Переводите знания о prompt engineering методах и контроле качества model outputs в архитектурные решения по data flow, model serving и контрольным точкам качества.

Качество решений

Оценивайте систему через метрики модели и платформы одновременно: precision/recall, latency, drift, стоимость и операционные риски.

Interview articulation

Структурируйте ответ как цепочку data -> model -> serving -> monitoring, показывая где возникают ограничения и как вы ими управляете.

Trade-off framing

Явно фиксируйте компромиссы по prompt engineering методах и контроле качества model outputs: скорость экспериментов, качество, explainability, resource budget и сложность поддержки.

Источник

Книжный куб

Обзор книги от Александра Поломодова

Читать пост

Prompt Engineering for LLMs

Авторы: John Berryman, Albert Ziegler
Издательство: O'Reilly Media, Inc.
Объём: 282 страниц

John Berryman и Albert Ziegler (создатели GitHub Copilot): LLM Loop, RAG, agents, workflows и переход к context engineering.

Оригинал

Ключевая идея: LLM Loop

Авторы вводят фреймворк LLM Loop — цикл работы с моделью:

1

Retrieval

Получение контекста

2

Snippetizing

Нарезка на фрагменты

3

Scoring

Оценка релевантности

4

Assembly

Сборка промпта

5

Post-process

Обработка ответа

Связанная глава

AI Engineering (Chip Huyen)

Более широкий взгляд: RAG, agents, finetuning, production

Читать обзор

Структура книги: 3 части, 11 глав

Часть I: Основы LLM

Устройство и эволюция моделей, их обучение и переход к диалогам.

1

Introduction to Prompt Engineering

Почему LLM выглядят как «магия», эволюция языковых моделей, prompt engineering как инженерная дисциплина.

2

Understanding LLMs

LLM как completion engine: токены, авторегрессия, галлюцинации, temperature, основы трансформера.

3

Moving to Chat

От completion к chat: RLHF, instruct vs chat, alignment tax, эволюция API. Промптинг как «постановка пьесы» (сцены/роли/реплики).

4

Designing LLM Applications

Ключевой фрейм LLM Loop: retrieval → snippetizing → scoring → prompt assembly → post-processing.

Часть II: Ключевые техники

Few-shot примеры, RAG для снижения галлюцинаций, форматирование промптов.

5

Prompt Content

Static (инструкции, few-shot) vs dynamic контент. RAG: lexical vs neural, эмбеддинги, векторные хранилища, иерархическая суммаризация.

6

Assembling the Prompt

Упаковка в лимит контекста, анатомия промпта, форматы документов, elastic snippets. Valley of Meh: середина промпта «проседает», важное — ближе к концу.

7

Taming the Model

Анатомия completion: preamble, start/end markers, stop-sequence, streaming. Logprobs для уверенности. Выбор модели: качество/цена/латентность.

Связанная глава

Hands-On Large Language Models

Визуальное объяснение RAG, агентов и LangChain

Читать обзор

Часть III: Продвинутые темы

Агенты с памятью и инструментами, workflows, оценка качества.

8

Conversational Agency

Tool use: проектирование инструментов, обработка ошибок, опасные действия. Reasoning-паттерны: CoT, ReAct. Сборка агента и UX.

9

LLM Workflows

Когда workflow лучше агента. Задачи как кирпичики, шаблонные промпты. Agent-driven workflow, stateful task agents, роли и делегирование.

10

Evaluating LLM Applications

Offline: example suites, gold standard, LLM-as-judge, SOMA. Online: A/B тесты и метрики.

11

Looking Ahead

Multimodality, UI/UX как часть качества, рост интеллекта и скорости моделей.

Практический инсайт: Valley of Meh

Середина промпта «проседает»

Модели лучше «видят» начало и конец промпта. Информация в середине часто игнорируется или обрабатывается хуже.

Рекомендация авторов:

  • Важные инструкции — в начало (system prompt)
  • Критичный контекст — ближе к концу
  • Менее важное — в середину

Актуальность в 2026: Prompt → Context Engineering

С момента выхода книги LLM-технологии шагнули вперёд. Качество моделей выросло — они лучше понимают пользователя даже без сложных промптов. Лучшие техники уже встроены в инструменты.

Context Engineering

Андрей Карпати (2025): фокус на предоставлении модели полного окружения (данные, история, инструменты) вместо подбора идеальной формулировки.

PromptOps

Версионирование промптов, мониторинг качества запросов, автоматизация подготовки контекста.

Вывод: Фундаментальные принципы книги по-прежнему полезны. RAG теперь повсеместен, chain-of-thought стал стандартом в AI-агентах. Авторы честно предупреждали: API устареют, но базовые идеи останутся.

Связанные главы

Где найти книгу

Чтобы отмечать прохождение, включи трекинг в Настройки