跳至主要內容
LATS: 将语言模型中的推理、行动和规划统一起来

LATS: 将语言模型中的推理、行动和规划统一起来

LATS是一种利用大型语言模型(LLMs)进行决策的框架,它将LLMs作为代理、价值函数和优化器,以增强决策能力。LATS采用蒙特卡罗树搜索作为模型,利用外部反馈的环境提供更加灵活和适应性的问题解决机制。LATS在HumanEval上使用GPT-4实现了94.4%的编程得分,在WebShop上使用GPT-3.5实现了平均得分75.9。


猞猁-zlj大约 8 分钟大模型推理推理LLMCoTToT强化学习
XoT: 强化学习增强思维生成

XoT: 强化学习增强思维生成

该文介绍了一种名为XOT的提示技术,它增强了像GPT-3和GPT-4这样的大型语言模型(llm)解决复杂问题的潜力。


猞猁-zlj大约 4 分钟大模型推理推理LLMCoT强化学习
如何通过大模型实现外挂知识库优化

如何通过大模型实现外挂知识库优化

大模型时代,通常采用向量召回的方式从文档库里召回和用户问题相关的文档片段,输入到LLM中来增强模型回答质量。本文分享两篇通过大模型的能力增强召回效果的文章,这两篇文章的内容都已经加入了langchain的标准组件,但是都有一些特定的使用场景


猞猁-zlj大约 7 分钟ragLLM检索rag
用GPT-4创建会议纪要生成AI

用GPT-4创建会议纪要生成AI

大型语言模型 GPT-4 发布已经有些时日了,基于其开发的应用也层出不穷,不断涌现。这些应用的强大能力已经为许多用户的大量任务场景提供了助力。这里介绍的是 OpenAI 的一份官方文档,其中详细介绍了使用其语音识别模型 Whisper 和大型语言模型 GPT-4 创建会议纪要生成器的全流程。


lx大约 7 分钟提示技术LLMTools
THOR:思维链激励下的隐式情绪推理

THOR:思维链激励下的隐式情绪推理

本文介绍利用思维链方法来链式推理出隐式情感的方法,在 Zero-shot 设定下提升 50% F1 值。


猞猁-zlj大约 7 分钟大模型推理推理LLMCoTToTGoT
Graph-of-Thought: 思维图

Graph-of-Thought: 思维图

用图的推理能力来设计 prompt,思维图能助力 LLM 解决更复杂的任务。近日,一个研究团队提出了更进一步的想法:思维图(GoT)。让思维从链到树到图,为 LLM 构建推理过程的能力不断得到提升,研究者也通过实验证明了这一点。他们也发布了自己实现的 GoT 框架。


猞猁-zlj大约 9 分钟大模型推理推理LLMCoTToTGoT
知识编辑分享

知识编辑分享

LLMs 受到知识截断和谬误问题的限制情况下,如何高效更新LLMs的参数化知识进而调整特定行为。为解决上述问题,本文介绍EasyEdit知识编辑框架和Memory based、Meta-learning 和 Locate-Then-Edit三种知识编辑方法。


shb大约 4 分钟语言模型LLM微调技术知识编辑
基于QLoRA微调大语言模型

基于QLoRA微调大语言模型

LoRA的核心思想就是通过低秩分解来模拟参数的改变量,从而以极小的参数量来实现大模型的间接训练。AdaLoRA是对LoRA的一种改进,它根据重要性评分动态分配参数预算给权重矩阵。而本文要讲的QLoRA的核心思想就是在不降低任何性能的情况下微调量化为4 bit的模型。


最后的开神-wkyc大约 5 分钟微调技术LLaMALoRALLM
2