Autoplay
Autocomplete
Previous Lesson
Complete and Continue
大模型公开课(持续更新)
MCP 模型上下文协议 多场景应用实战
理论部分:MCP概述|MCP解决的核心问题|MCP技术架构与实现 (14:31)
理论部分:MCP的工作流程 基于 Cline + DeepSeek V3 + Cloudflare 演示 (16:13)
OpenAI Agents 多智能体框架
OpenAI Agents SDK 轻量级多智能体框架 项目概述|核心模块|主要特点|应用场景 (17:20)
原创项目 天气查询助手Agent 基于Ollama获取开源模型服务 (15:51)
常用代理模式一:确定性流程 (12:07)
常用代理模式二:交接与路由模式 (14:17)
常用代理模式三:代理作为工具 (10:47)
AI Agent LLM智能体轻量级开发框架 lagent 项目
lagent 项目简介 (21:18)
lagent 项目实战 案例一:基础对话模型调用 (32:04)
lagent 项目实战 案例二:fewshot 示例增强 (19:14)
lagent 项目实战 案例三:Agent驱动的Python代码执行器 (27:48)
lagent 项目实战 案例四:高德天气API集成 (26:37)
lagent 项目实战 案例五:高德位置搜索和导航 (15:18)
前沿论文与最新技术趋势洞察
Google发表最新推理Scaling研究,从 DRAG 到 IterDRAG,大模型 RAG 性能更上一层楼 (33:21)
北大发布多模态大模型LLaVA-o1(已更名为LLaVA-CoT)推理计算Scaling新思路 (21:45)
英伟达发布MM-Embed:融合文本和图像的跨模态信息检索新模型 (28:38)
月之暗面发布面向大模型的MoBA(混合块注意力)架构 结合MoE和稀疏注意力 算法原理详解 (18:44)
微软首个多模态语言模型Phi-4 模型详解|模型架构|模型训练Pipeline (12:17)
微软多模态语言模型Phi-4 案例实战:8个Demo案例演示 (21:23)
DeepSeek 大模型实战
大模型落地最佳实践:DeepSeek R1 + Ollama + OpenWebUI本地RAG实战 (16:52)
基于Langchain+Faiss+Ollama+Gradio+Docker 从0到1实现RAG私有化部署 简易版实现 (9:54)
深入浅出RAG技术实战:整合DeepSeek R1 、Ollama、FAISS、Gradio 和 Docker 搭建智能问答系统 (17:49)
基于unsloth微调框架与LoRA以及CoT问答数据集 DeepSeek R1大模型微调与推理全流程实战 (20:07)
原创项目 基于PyTorch QLoRA PEFT vLLM 实现R1蒸馏版大模型微调与部署 单卡/多卡两种方法 (17:14)
原创项目 基于PyTorch QLoRA PEFT vLLM 实现R1蒸馏版大模型微调与部署 源码讲解与实现思路 (23:46)
大模型LLM与RAG研究利器 FlashRAG
FlashRAG 项目简介 (8:00)
FlashRAG 核心组件原理精讲 (15:46)
FlashRAG 案例实践 快速入门 Demo (22:11)
FlashRAG 核心模块参数详细解析 (19:30)
FlashRAG 项目实战 基于Transformers和BM25构建密集索引和稀疏索引 (18:14)
FlashRAG 项目实战 论文实验流程复现 (33:34)
FlashRAG 案例实战 核心源码Debug深度剖析 (40:54)
LoRA大模型微调 原理与实战
LoRA 算法原理深入解析-上集 (21:24)
LoRA 算法原理深入解析-下集 (15:35)
LoRA 案例演示 LoRA的核心逻辑 (10:07)
基于 PEFT 进行 Llama3 模型微调实战 (18:30)
基于 GPT-2 进行 LoRA 微调实战-上集 (14:07)
基于 GPT-2 进行 LoRA 微调实战-下集 (10:42)
LoRA 核心算法实现 (14:50)
在 VS Code 中 Debug LoRA 微调细节 (15:13)
QLoRA大模型微调 原理与实践
QLoRA 课程简介 (3:32)
QLoRA 算法原理 深入解析 (23:01)
QLoRA 算法原理 案例实践 (22:49)
OpenAI o1模型系列
探索OpenAI o1模型系列:推理能力的全新进展 (12:43)
OpenAI o1模型性能深度解析:超越人类专家与AI基准的表现 (5:11)
OpenAI o1-mini模型解析:STEM领域的高效推理与模型局限 (8:06)
OpenAI o1模型对比GPT:推理范式的创新 (7:46)
大模型Llama 原理与实战
Meta重磅发布Llama 3.2:推动轻量级AI模型与多模态模型的全面应用 (17:48)
Llama3 模型简介 (11:08)
Llama3 环境配置 基于vLLM推理 (17:08)
torchrun 推理与特殊标记的应用 (9:55)
使用 llama.cpp 进行 Llama3 模型的量化和部署 (16:31)
使用 Docker 部署 Llama3 量化模型API服务 (17:14)
基于 Llama-factory 和自定义数据集进行模型微调 (22:14)
基于 TensorRT-LLM 和 Triton 进行 Llama3 模型部署 (40:14)
Teach online with
lagent 项目实战 案例三:Agent驱动的Python代码执行器
Lesson content locked
If you're already enrolled,
you'll need to login
.
Enroll in Course to Unlock