Содержание
- Введение 1
- Архитектура трансформеров 2
- - Механизм self-attention 2.1
- - Encoder и Decoder 2.2
- - Модификации архитектуры 2.3
- Обучение и оптимизация моделей трансформеров 3
- - Методы обучения и данные 3.1
- - Оптимизация и регуляризация 3.2
- - Ускорение обучения 3.3
- Применение трансформеров в NLP 4
- - Машинный перевод 4.1
- - Генерация текста 4.2
- - Классификация и анализ тональности 4.3
- Практическое применение и анализ результатов 5
- - Экспериментальная установка 5.1
- - Результаты и анализ 5.2
- - Обсуждение и выводы 5.3
- Заключение 6
- Список литературы 7