- 昨日不在
- 12/26PowerInfer:消费级显卡运行大语言模型
- 12/9LATS: 将语言模型中的推理、行动和规划统一起来
- 11/16S-LoRA:为数千个并发LoRA Adapter提供服务
- 11/13XoT: 强化学习增强思维生成
- 11/7QA类信息文本检索模型和数据集汇总
- 11/4复杂知识库问答综述
- 9/21基于检索增强的文本生成调研
- 9/7如何通过大模型实现外挂知识库优化
- 9/4用GPT-4创建会议纪要生成AI
- 9/4大语言模型应用中的文本分块策略
- 9/3THOR:思维链激励下的隐式情绪推理
- 8/27Graph-of-Thought: 思维图
- 8/23学习稀疏检索的统一框架
- 8/21知识编辑分享
- 8/13探究GPT-4到底有没有推理能力?
- 7/14论文分享:基于提示学习的大型语言模型推理综述
- 7/13混合专家模型
- 7/12OpenAI可用大语言模型分类和信息
- 7/8M3KE评估数据集分享
- 7/8M3KE-大模型中文能力综合评估
- 7/8LLM如何重映现实世界(二):LLM中的知识回路与回路竞争猜想
- 7/6C-EVAL:中文大模型评估榜单
- 7/6基于QLoRA微调大语言模型
- 7/6ChatGLM2架构升级
- 7/6基于Encoder和Decoder的三种架构
- 7/5GPT2论文分享与架构分析
- 7/5BPE分词器
- 6/28PPO:从策略梯度算法到近端策略优化算法
- 6/15GPT论文分享:Improving Language Understanding by Generative Pre-Training
- 6/14LLM如何重映现实世界(一):LLM的信息压缩能力与知识存储方式分享
- 6/14Unlimiformer 介绍
- 6/13Instruct Tuning和Prompt Tuning数据集分享
- 6/13PEFT:最先进的参数高效微调方法
- 6/13Int8量化技术原理讲解
- 6/13Prompt工程指南
- 6/5大幅优化推理速度-ByteTransformer
- 6/5CIMI: 因果启发的可解释框架
- 6/5PEARL: 长文档推理提示框架
- 6/5Plan-and-Solve Prompting: 先计划再求解
- 6/5Skeleton-of-Thought: 思维骨架
- 6/5Chain-of-Thought: 思维链
- 6/5Tree-of-Thought: 思维树
- 5/31是重复还是不重复:在令牌危机下扩展LLM的见解
- 5/30RecurrentGPT: Interactive Generation of (Arbitrarily) Long Text
- 3/30MathPrompter: 数学推理
- 3/28机器学习之强化学习概述
- 3/28机器学习之强化学习中的策略学习
- 3/28机器学习之强化学习中的价值学习
- 3/1ChatGPT相关技术介绍