Autoplay
Autocomplete
Previous Lesson
Complete and Continue
深入LLaMA-2 从理论到实战的学习指南
LLaMA模型概览
课程简介 (3:32)
LLaMA背景和架构 (8:18)
课程相关资料 下载
LLaMA核心算法和原理
RMSNorm归一化算法原理 (8:14)
RMSNorm算法实现 (9:21)
SwiGLU激活函数算法原理 (7:07)
SwiGLU激活函数代码实现 (7:01)
Transformer中位置编码算法原理 (11:46)
位置编码算法numpy实现 (10:25)
位置编码算法pytorch实现 (7:37)
算法相关的数学概念理解 (8:18)
ROPE位置编码算法原理 (11:33)
ROPE核心源码讲解 (13:29)
广播机制原理 (9:30)
应用ROPE到Query和Key (15:44)
Transformer架构详解
attention中的query_key_value基本概念 (9:12)
KV cache缓存机制 (10:53)
transformer中的attention原理 (12:33)
transformer中的mask原理 (7:45)
核心类Attention代码实现 (32:26)
FeedForward算法原理及代码实现 (15:58)
Transformer block 代码实现 (6:09)
整个Transformer架构的最终封装 (10:16)
LLaMA模型应用
核采样算法原理及代码实现 (22:59)
Llama模型类实例化逻辑 (11:08)
文本生成generate核心算法实现 (26:08)
text_generation 代码实现 (6:01)
chat_completion 代码实现 (11:19)
案例实践_基于LLaMA进行推理 (21:36)
案例实践_基于vLLM进行模型推理和部署 (10:54)
案例实践_基于langchain实现RAG chatbot (22:47)
LLaMA模型微调与优化
基于LoRA方式进行模型微调 (7:31)
基于LLaMA_Factory进行模型微调 (20:18)
基于LLaMA_Factory进行模型部署与测试 (9:54)
基于LLaMA_Factory进行模型评估 (7:00)
Teach online with
ROPE核心源码讲解
Lesson content locked
If you're already enrolled,
you'll need to login
.
Enroll in Course to Unlock