前言
模型结构
Transformer 架构与模型
Transformer 结构-Wiki
Transformer 可视化解释
土猛的员外-Transformer 架构的整体指南
Encoder 模型
Decoder 模型
Encoder-Decoder 模型
注意力机制
Lilian-Attention?Attention!
缓存优化与效果-KV
训练与评估
分布式训练
分布式训练框架
数据并行
流水线并行
张量并行
MoE 并行
微调
LLM 训练-ybq
关于微调的讨论
预训练
Prompt-Tuning
Adapter-Tuning
LoRA
总结
大模型评估
评测
幻觉
蒸馏和压缩
知识蒸馏
剪枝和量化
Prompt 工程
Prompt 技术
宝玉老师-如何写好提示词?
应用场景
OpenAI-生成提示词的提示词
GPT 翻译 Prompt
推理与优化
LLM 推理过程
LLM 推理框架
vLLM 介绍
LLM 推理参数
OpenAI O1 相关进展
推理加速
多模态处理
图像-文本模型
跨模态注意力机制
内容与计算优化
应用方向
文本生成与摘要
自然语言生成
文本摘要
问答与对话技术
Chatbot 技术
问答系统与检索增强生成
大模型主流应用RAG的介绍——从架构到技术细节
Top 20+ RAG Interview Questions
RAG 技术超全全景图:从基础到高级实践
代码生成与分析
编程助手
自动代码补全
AI Agent
Top 25 Agentic AI Interview Questions and Answers
Published with GitBook
模型结构
1.
模型结构
1. 模型结构
Transformer 架构与模型
Transformer 可视化解释
土猛的员外-Transformer 架构的整体指南
Encoder 模型
Decoder 模型
注意力机制
Lilian-Attention?Attention!
缓存优化与效果-KV
results matching "
"
No results matching "
"