Почему нельзя доверять ИИ без экспертизы
Что такое галлюцинация LLM, почему возникает, как проявляется в эксперименте. Три попытки Qwen3-8B написать сложение на Z80. Chain-of-thought, самопроверка, обратимость ошибок.
Даннинг-Крюгер + LLM. Иллюзия масштабирования. Правило половины ответа. Граница половины как свойство домена, а не человека. Кейс «слот — это страница».
LLM как детектор LLM. GPT-5.3 и тонкая ошибка. Гранулярность ошибок от каши к иглам. Кейс Алисы AI: средний полюс шкалы и заплатка вместо пересмотра.
«tree /» против «grep». AGI-анекдоты, скрепочный максимизатор, бесконечная рекурсия. ELIZA. LLM как хеш-таблица. Инверсия абстракции. Провенанс и Земмельвейс.
Наблюдай за процессом. Глаз эксперта. Rubber duck debugging. «Подожди следующую модель». Проверяй понимание, а не авторство. Рекомендации и самореферентный меташтрих.
Человек = модель, LLM = RAG. Ключевой тезис всего цикла: LLM усиливает то, что уже есть. Без pretraining чистый retrieval превращается в галлюцинацию на стороне человека.