System Design Space

    Глава 176

    Обновлено: 9 февраля 2026 г. в 20:31

    Prompt Engineering for LLMs (short summary)

    Прогресс части0/16

    Источник

    Книжный куб

    Обзор книги от Александра Поломодова

    Читать пост

    Prompt Engineering for LLMs

    Авторы: John Berryman, Albert Ziegler
    Издательство: O'Reilly Media, Inc.
    Объём: 282 страниц

    John Berryman и Albert Ziegler (создатели GitHub Copilot): LLM Loop, RAG, agents, workflows и переход к context engineering.

    Prompt Engineering for LLMs — оригинальная обложкаОригинал

    Ключевая идея: LLM Loop

    Авторы вводят фреймворк LLM Loop — цикл работы с моделью:

    1

    Retrieval

    Получение контекста

    2

    Snippetizing

    Нарезка на фрагменты

    3

    Scoring

    Оценка релевантности

    4

    Assembly

    Сборка промпта

    5

    Post-process

    Обработка ответа

    Связанная глава

    AI Engineering (Chip Huyen)

    Более широкий взгляд: RAG, agents, finetuning, production

    Читать обзор

    Структура книги: 3 части, 11 глав

    Часть I: Основы LLM

    Устройство и эволюция моделей, их обучение и переход к диалогам.

    1

    Introduction to Prompt Engineering

    Почему LLM выглядят как «магия», эволюция языковых моделей, prompt engineering как инженерная дисциплина.

    2

    Understanding LLMs

    LLM как completion engine: токены, авторегрессия, галлюцинации, temperature, основы трансформера.

    3

    Moving to Chat

    От completion к chat: RLHF, instruct vs chat, alignment tax, эволюция API. Промптинг как «постановка пьесы» (сцены/роли/реплики).

    4

    Designing LLM Applications

    Ключевой фрейм LLM Loop: retrieval → snippetizing → scoring → prompt assembly → post-processing.

    Часть II: Ключевые техники

    Few-shot примеры, RAG для снижения галлюцинаций, форматирование промптов.

    5

    Prompt Content

    Static (инструкции, few-shot) vs dynamic контент. RAG: lexical vs neural, эмбеддинги, векторные хранилища, иерархическая суммаризация.

    6

    Assembling the Prompt

    Упаковка в лимит контекста, анатомия промпта, форматы документов, elastic snippets. Valley of Meh: середина промпта «проседает», важное — ближе к концу.

    7

    Taming the Model

    Анатомия completion: preamble, start/end markers, stop-sequence, streaming. Logprobs для уверенности. Выбор модели: качество/цена/латентность.

    Связанная глава

    Hands-On Large Language Models

    Визуальное объяснение RAG, агентов и LangChain

    Читать обзор

    Часть III: Продвинутые темы

    Агенты с памятью и инструментами, workflows, оценка качества.

    8

    Conversational Agency

    Tool use: проектирование инструментов, обработка ошибок, опасные действия. Reasoning-паттерны: CoT, ReAct. Сборка агента и UX.

    9

    LLM Workflows

    Когда workflow лучше агента. Задачи как кирпичики, шаблонные промпты. Agent-driven workflow, stateful task agents, роли и делегирование.

    10

    Evaluating LLM Applications

    Offline: example suites, gold standard, LLM-as-judge, SOMA. Online: A/B тесты и метрики.

    11

    Looking Ahead

    Multimodality, UI/UX как часть качества, рост интеллекта и скорости моделей.

    Практический инсайт: Valley of Meh

    Середина промпта «проседает»

    Модели лучше «видят» начало и конец промпта. Информация в середине часто игнорируется или обрабатывается хуже.

    Рекомендация авторов:

    • Важные инструкции — в начало (system prompt)
    • Критичный контекст — ближе к концу
    • Менее важное — в середину

    Актуальность в 2026: Prompt → Context Engineering

    С момента выхода книги LLM-технологии шагнули вперёд. Качество моделей выросло — они лучше понимают пользователя даже без сложных промптов. Лучшие техники уже встроены в инструменты.

    Context Engineering

    Андрей Карпати (2025): фокус на предоставлении модели полного окружения (данные, история, инструменты) вместо подбора идеальной формулировки.

    PromptOps

    Версионирование промптов, мониторинг качества запросов, автоматизация подготовки контекста.

    Вывод: Фундаментальные принципы книги по-прежнему полезны. RAG теперь повсеместен, chain-of-thought стал стандартом в AI-агентах. Авторы честно предупреждали: API устареют, но базовые идеи останутся.

    Где найти книгу