Часть VI

Эпилог

Мета-заключение: человек как модель, LLM как RAG

🧬 Человек = Модель, LLM = RAG

Твой опыт — это pretraining. LLM — retrieval-слой. Генерация — твоя.
20 лет опыта
pretraining
LLM подсказывает
retrieval
Ты решаешь
generation

С pretraining (эксперт)

LLM подсовывает контекст: «посмотри на счётчик». Твои веса мгновенно активируют нужные знания — мультиплексоры, шины, конечные автоматы. Генерация точная, потому что есть чем интерпретировать retrieval.

Без pretraining (студент)

Модель без обучения на чистом RAG. Контекст приходит, а интерпретировать нечем. LLM говорит «используй банкинг» — а в голове нет ни одного веса, который знает, что это. Результат — галлюцинация на стороне человека.

Без pretraining чистый RAG = галлюцинация на стороне человека
Почему это финальный тезис

Вся презентация — об одном: LLM усиливает то, что уже есть. Знания × LLM = ускорение. Ноль × LLM = красиво оформленный ноль. Не LLM пишет за тебя — она даёт указатель в нужное место. Но чтобы пойти по указателю, нужны ноги. Ноги — это твой опыт.

Итог

Работает, пока работает.

Это универсальный принцип — от HAL 9000 до RLHF, от предсказуемости до доверия.

Не доверяй системе, которую не понимаешь.
Всегда имей план на случай, когда она перестанет работать так, как ты ожидаешь.

Учитесь. Стройте. Проверяйте.
А потом — ускоряйтесь с помощью ИИ.

← V. Практика: как с этим жить Оглавление