Интенсив: Основы LLM: как работают языковые модели
На этом интенсиве мы разберёмся, что такое LLM и почему они перевернули мир технологий
Большие языковые модели повсюду. Вы спрашиваете их совета, они пишут ваш код, формулируют письма, решают задачи и даже философствуют о смысле жизни. Но как это вообще возможно? Как они работают?
В программе:
Принцип «предсказания следующего слова»:
- Как из “угадывания слова за словом” появляются осмысленные тексты.
- Базовые замечания о корреляции букв в языке на глубину (Шеннон) и свойства текста
Как LLM “думает”:
- Рекуррентные сети и внимание
- Задача интерпретации: в поисках логики модели
- Уверенность LLM: статистическая вероятность против фактов
Промптинг LLM:
- Как продолжение текста превращается в диалог с вопросами и ответами?
- Что такое цепочка мыслей chain-of-thought?
- Персоны, рассуждения
Что именно LLM делает "не так”?
- Какие задачи можно и нельзя ей решать?
- Подхалимство: почему модель (почти) всегда будет соглашаться
Расписание:
- 14:00 Сбор и знакомство
- 14:30 Лекция
- 16:15 Перерыв на ланч
- 16:45 Практическая часть (Совместные эксперименты)
- 17:45 Кофе-брейк
- 18:00 Практическая часть (Совместные эксперименты)
- 19:30 Q&A
Что нужно знать заранее:
Мы не ждём, что вы разбираетесь в машинном обучении. Если вы знаете, что вообще такое функции, переменные и векторы — этого более чем достаточно.
Для кого этот интенсив:
- Для тех, кто планирует изучать безопасность ИИ, но не имеет технической подготовки.
- Для тех, кто хочет перестать бояться терминов вроде «трансформер», «векторизация» и «контекстное окно».
- Для всех, кто интересуется языковыми моделями, но не готов погружаться в сложные математические детали.
Что взять с собой:
Ноутбук с доступом к любой LLM
Преподаватель: Олег Лариков