Данный реферат посвящен всестороннему анализу развития генеративных языковых моделей, начиная с фундаментальных основ и заканчивая современными достижениями, представленными в моделях GPT-1, GPT-2, GPT-3 и GPT-4. В работе рассматриваются ключевые архитектурные изменения, лежащие в основе этих моделей, такие как трансформеры, а также методы обучения, применяемые для улучшения их производительности. Особое внимание уделяется анализу их сильных и слабых сторон, а также перспективам дальнейшего развития в контексте текущих технологических трендов и этических аспектов.