System Design Space
Граф знанийНастройки

Обновлено: 24 марта 2026 г. в 14:56

Hands-On Large Language Models (short summary)

medium

LLM становятся понятнее не тогда, когда их упрощают, а когда показывают, как внутренние механизмы связаны с внешним поведением системы.

Глава помогает связать tokenization, embeddings, transformers и RAG с практическими решениями о данных, retrieval-слое, serving и качестве ответа.

На интервью это дает редкую комбинацию: можно объяснить базовую механику модели и сразу перейти к тому, как она влияет на архитектуру реального приложения.

Практическая польза главы

Практика проектирования

Переводите знания о LLM-системах, orchestration chain и надежной интеграции моделей в архитектурные решения по data flow, model serving и контрольным точкам качества.

Качество решений

Оценивайте систему через метрики модели и платформы одновременно: precision/recall, latency, drift, стоимость и операционные риски.

Interview articulation

Структурируйте ответ как цепочку data -> model -> serving -> monitoring, показывая где возникают ограничения и как вы ими управляете.

Trade-off framing

Явно фиксируйте компромиссы по LLM-системах, orchestration chain и надежной интеграции моделей: скорость экспериментов, качество, explainability, resource budget и сложность поддержки.

Источник

Telegram: book_cube

Обзор книги от Александра Поломодова

Читать пост

Hands-On Large Language Models

Авторы: Jay Alammar, Maarten Grootendorst
Издательство: O'Reilly Media, Inc.
Объём: 428 страниц

Jay Alammar и Maarten Grootendorst: визуальный путеводитель по LLM с ~300 иллюстрациями — токенизация, эмбеддинги, трансформеры, RAG.

Оригинал

Об авторах

Книгу написали два эксперта в ML/AI, известных своими визуальными объяснениями сложных концепций:

Jay Alammar

Engineering Fellow в Cohere, автор культовых визуальных гайдов по ML и NLP. Его диаграммы используются в документации NumPy, pandas и на курсах deeplearning.ai.

jalammar.github.io

Maarten Grootendorst

Data Scientist, автор open-source библиотек BERTopic и KeyBERT. Специалист в тематическом моделировании и эмбеддингах.

newsletter.maartengrootendorst.com

Философия книги

Авторы придерживаются подхода "интуиция первична": сначала развивается качественное понимание концепций через визуализации, а затем оно подкрепляется формальным описанием и примерами кода.

~300 оригинальных иллюстраций

Механизмы self-attention, токенизаторы, многомерные пространства эмбеддингов — всё разъясняется через наглядные схемы, графики и рисунки.

Весь код доступен на GitHub.

Связанная глава

AI Engineering (Chip Huyen)

Продвинутый взгляд на production-практики: RAG, agents, finetuning

Читать обзор

Структура книги

Книга состоит из трёх частей и 12 глав: от основ LLM к их использованию для решения задач, и заканчивая методами обучения моделей.

IПонимание языковых моделей

Первая часть закладывает фундамент, объясняя устройство языковых моделей.

1

Введение в языковые модели

Эволюция от "bag of words" через word embeddings к архитектуре трансформеров. Чем LLM отличаются от предыдущих подходов.

2

Токенизация и эмбеддинги

Как работает токенизатор LLM. Сравнение типов токенов: слова, подслова, символы, байты. Построение эмбеддингов от word2vec до современных подходов.

3

Внутри трансформера

Forward-pass модели: обработка входных токенов, вычисление матрицы внимания, выбор следующего токена. Интуитивное объяснение Self-Attention. Оптимизации: KV-cache.

IIИспользование предобученных моделей

Практические способы применения готовых LLM и эмбеддингов для решения прикладных задач.

Глава 4

Классификация текста

Применение LLM для задач классификации с минимальным обучением

Глава 5

Кластеризация и тематическое моделирование

BERTopic — библиотека одного из авторов для анализа тем

Глава 6

Инженерия промптов

Chain of Thought, ReAct, Tree of Thought и другие техники

Глава 7

Продвинутая генерация текстов

LangChain, агенты, Memory, Tools — сложные пайплайны

Глава 8

Семантический поиск и RAG

Retrieval-Augmented Generation — расширение знаний модели

Глава 9

Мультимодальные модели

Текст + изображения: CLIP, BLIP-2, Vision-Language

IIIОбучение и тонкая настройка

Создание своих моделей и адаптация существующих LLM под конкретные задачи.

10

Создание моделей эмбеддингов

Обучение собственных текстовых эмбеддингов для специфических доменов

11

Fine-tuning для классификации

Дообучение representation models под задачи классификации

12

Fine-tuning генеративных моделей

Тонкая настройка LLM для генерации текста в конкретном стиле или домене

Для кого эта книга

  • Начинающих и продвинутых специалистов в ML/NLP
  • Разработчиков и аналитиков, внедряющих LLM в проекты
  • Всех, кто хочет уверенно ориентироваться в современных моделях: ChatGPT, Mistral, Claude

Связанные главы

  • AI Engineering - Покрывает production-практики вокруг LLM: RAG, evaluation, reliability и lifecycle модели.
  • Prompt Engineering for LLMs - Расширяет техники prompt design и workflows, которые в Hands-On LLM идут как прикладное продолжение.
  • An Illustrated Guide to AI Agents (short summary) - Переходит от внутреннего устройства LLM к агентным архитектурам: memory, tools, planning и orchestration.
  • Developing Apps with GPT-4 and ChatGPT (short summary) - Даёт практический мост от теории LLM к сборке работающих приложений и интеграции с продуктом.
  • AI Engineering Interviews (short summary) - Помогает закрепить ключевые LLM-концепции через интервью-вопросы, кейсы и архитектурные разборы.

Где найти книгу

Чтобы отмечать прохождение, включи трекинг в Настройки