Мета-заключение: человек как модель, LLM как RAG
LLM подсовывает контекст: «посмотри на счётчик». Твои веса мгновенно активируют нужные знания — мультиплексоры, шины, конечные автоматы. Генерация точная, потому что есть чем интерпретировать retrieval.
Модель без обучения на чистом RAG. Контекст приходит, а интерпретировать нечем. LLM говорит «используй банкинг» — а в голове нет ни одного веса, который знает, что это. Результат — галлюцинация на стороне человека.
Вся презентация — об одном: LLM усиливает то, что уже есть. Знания × LLM = ускорение. Ноль × LLM = красиво оформленный ноль. Не LLM пишет за тебя — она даёт указатель в нужное место. Но чтобы пойти по указателю, нужны ноги. Ноги — это твой опыт.
Работает, пока работает.
Это универсальный принцип — от HAL 9000 до RLHF, от предсказуемости до доверия.
Не доверяй системе, которую не понимаешь.
Всегда имей план на случай, когда она перестанет работать так, как ты ожидаешь.
Учитесь. Стройте. Проверяйте.
А потом — ускоряйтесь с помощью ИИ.