LLMs - 大模型问题全攻略
📝通俗解释:这是一份非常全面的大模型(LLMs)面试准备笔记,涵盖了从基础概念到高级应用的各个方面。大模型就像一个超级知识库,可以通过训练来理解和生成人类语言。
📁 01_LLM_Basics
📁 02_LLM_Advanced
📁 03_LLM_Finetuning
📁 04_LLM_Langchain
📁 05_LLM_RAG_Experience
- 大模型 RAG 经验面
- LLM文档对话 —— PDF解析关键问题
- 大模型(LLMs)RAG 版面分析——表格识别方法篇
- 大模型(LLMs)RAG 版面分析——文本分块篇
- 大模型外挂知识库优化——如何利用大模型辅助召回?
- 大模型外挂知识库优化——负样本挖掘篇
- RAG (Retrieval-Augmented Generation) 评测面
- 大模型(LLMs)RAG —— 关键痛点及对应解决方案
- 大模型(LLMs)RAG 优化策略 —— RAG-Fusion篇
- Graph RAG 面 — 一种基于知识图谱的大模型检索增强实现策略
- 检索增强生成(RAG)优化策略篇
📁 06_LLM_PEFT(PEFT)
- 大模型(LLMs)参数高效微调(PEFT)面试指南
- 适配器微调(Adapter-tuning)篇
- 提示学习(Prompting)篇
- LoRA 系列常见面试题篇
- 如何使用 PEFT库 中 LoRA?
- 大模型 SFT 方式对比篇
📁 07_LLM_Inference
📁 08_LLM_Incremental_Pretraining
📁 09_LLM_Evaluation
📁 10_LLM_RL
📁 11_LLM_Training_Set
📁 12_LLM_VRAM_Issues
📁 13_LLM_Distributed_Training
- 大模型(LLMs)分布式训练面试指南
- 图解分布式训练(一)—— 流水线并行(Pipeline Parallelism)
- 图解分布式训练(二)—— nn.DataParallel篇
- 图解分布式训练(三)—— nn.parallel.DistributedDataParallel
- 图解分布式训练(四)—— torch.multiprocessing 详细解析
- 图解分布式训练(五)—— AMP混合精度训练 详细解析
- 图解分布式训练(六)—— PyTorch 的 DeepSpeed 详细解析
- 图解分布式训练(七)—— Accelerate 分布式训练详解
- 图解分布式训练(八)—— ZeRO 学习
- 大模型分布式训练故障恢复篇
- PyTorch 分布式计算坑/bug梳理篇
📁 14_LLM_Agent
📁 15_LLMs_Position_Encoding
📁 16_LLMs_Tokenizer_Common
- LLMs Tokenizer 常见面试篇
- 怎么让英文大语言模型支持中文?(一)—— 构建中文 tokenization
- 怎么让英文大语言模型支持中文?(二)—— 继续预训练篇
- 怎么让英文大语言模型支持中文?(三)—— 对预训练模型进行指令微调
📁 17_LLM_Deployment_Framework_Comparison
- 大模型(LLM)部署框架对比篇
- 大模型(LLMs)加速篇
- LLMs 推理性能面经
- LLM(大语言模型)部署加速方法——PagedAttention篇
- 大模型推理加速工具 —— vLLM
- LLM(大语言模型)部署加速方法——Faster Transformer篇
- LLM推理技术之StreamingLLM:如何拥有无限长生成能力
- SwiftInfer —— 大模型无限流式输入推理飙升46%,打破多轮对话长度限制
- 纯Python超轻量高性能LLM推理框架 —— LightLLM