LLM становятся понятнее не тогда, когда их упрощают, а когда показывают, как внутренние механизмы связаны с внешним поведением системы.
Глава помогает связать tokenization, embeddings, transformers и RAG с практическими решениями о данных, retrieval-слое, serving и качестве ответа.
На интервью это дает редкую комбинацию: можно объяснить базовую механику модели и сразу перейти к тому, как она влияет на архитектуру реального приложения.
Практическая польза главы
Практика проектирования
Переводите знания о LLM-системах, orchestration chain и надежной интеграции моделей в архитектурные решения по data flow, model serving и контрольным точкам качества.
Качество решений
Оценивайте систему через метрики модели и платформы одновременно: precision/recall, latency, drift, стоимость и операционные риски.
Interview articulation
Структурируйте ответ как цепочку data -> model -> serving -> monitoring, показывая где возникают ограничения и как вы ими управляете.
Trade-off framing
Явно фиксируйте компромиссы по LLM-системах, orchestration chain и надежной интеграции моделей: скорость экспериментов, качество, explainability, resource budget и сложность поддержки.
Источник
Telegram: book_cube
Обзор книги от Александра Поломодова
Hands-On Large Language Models
Авторы: Jay Alammar, Maarten Grootendorst
Издательство: O'Reilly Media, Inc.
Объём: 428 страниц
Jay Alammar и Maarten Grootendorst: визуальный путеводитель по LLM с ~300 иллюстрациями — токенизация, эмбеддинги, трансформеры, RAG.
Об авторах
Книгу написали два эксперта в ML/AI, известных своими визуальными объяснениями сложных концепций:
Jay Alammar
Engineering Fellow в Cohere, автор культовых визуальных гайдов по ML и NLP. Его диаграммы используются в документации NumPy, pandas и на курсах deeplearning.ai.
jalammar.github.ioMaarten Grootendorst
Data Scientist, автор open-source библиотек BERTopic и KeyBERT. Специалист в тематическом моделировании и эмбеддингах.
newsletter.maartengrootendorst.comФилософия книги
Авторы придерживаются подхода "интуиция первична": сначала развивается качественное понимание концепций через визуализации, а затем оно подкрепляется формальным описанием и примерами кода.
~300 оригинальных иллюстраций
Механизмы self-attention, токенизаторы, многомерные пространства эмбеддингов — всё разъясняется через наглядные схемы, графики и рисунки.
Весь код доступен на GitHub.
Связанная глава
AI Engineering (Chip Huyen)
Продвинутый взгляд на production-практики: RAG, agents, finetuning
Структура книги
Книга состоит из трёх частей и 12 глав: от основ LLM к их использованию для решения задач, и заканчивая методами обучения моделей.
IПонимание языковых моделей
Первая часть закладывает фундамент, объясняя устройство языковых моделей.
Введение в языковые модели
Эволюция от "bag of words" через word embeddings к архитектуре трансформеров. Чем LLM отличаются от предыдущих подходов.
Токенизация и эмбеддинги
Как работает токенизатор LLM. Сравнение типов токенов: слова, подслова, символы, байты. Построение эмбеддингов от word2vec до современных подходов.
Внутри трансформера
Forward-pass модели: обработка входных токенов, вычисление матрицы внимания, выбор следующего токена. Интуитивное объяснение Self-Attention. Оптимизации: KV-cache.
IIИспользование предобученных моделей
Практические способы применения готовых LLM и эмбеддингов для решения прикладных задач.
Классификация текста
Применение LLM для задач классификации с минимальным обучением
Кластеризация и тематическое моделирование
BERTopic — библиотека одного из авторов для анализа тем
Инженерия промптов
Chain of Thought, ReAct, Tree of Thought и другие техники
Продвинутая генерация текстов
LangChain, агенты, Memory, Tools — сложные пайплайны
Семантический поиск и RAG
Retrieval-Augmented Generation — расширение знаний модели
Мультимодальные модели
Текст + изображения: CLIP, BLIP-2, Vision-Language
IIIОбучение и тонкая настройка
Создание своих моделей и адаптация существующих LLM под конкретные задачи.
Создание моделей эмбеддингов
Обучение собственных текстовых эмбеддингов для специфических доменов
Fine-tuning для классификации
Дообучение representation models под задачи классификации
Fine-tuning генеративных моделей
Тонкая настройка LLM для генерации текста в конкретном стиле или домене
Для кого эта книга
- Начинающих и продвинутых специалистов в ML/NLP
- Разработчиков и аналитиков, внедряющих LLM в проекты
- Всех, кто хочет уверенно ориентироваться в современных моделях: ChatGPT, Mistral, Claude
Связанные главы
- AI Engineering - Покрывает production-практики вокруг LLM: RAG, evaluation, reliability и lifecycle модели.
- Prompt Engineering for LLMs - Расширяет техники prompt design и workflows, которые в Hands-On LLM идут как прикладное продолжение.
- An Illustrated Guide to AI Agents (short summary) - Переходит от внутреннего устройства LLM к агентным архитектурам: memory, tools, planning и orchestration.
- Developing Apps with GPT-4 and ChatGPT (short summary) - Даёт практический мост от теории LLM к сборке работающих приложений и интеграции с продуктом.
- AI Engineering Interviews (short summary) - Помогает закрепить ключевые LLM-концепции через интервью-вопросы, кейсы и архитектурные разборы.
