跳至主要內容
PowerInfer:消费级显卡运行大语言模型

PowerInfer:消费级显卡运行大语言模型

上海交大 IPADS 实验室推出的开源推理框架 PowerInfer,让大模型推理速度加快了 11 倍。而且不用量化,就用 FP16 精度,也能让 40B 模型在个人电脑上运行;如果加入量化,2080 Ti 也能流畅运行 70B 模型。


最后的开神-wkyc大约 9 分钟语言模型Llama推理
LATS: 将语言模型中的推理、行动和规划统一起来

LATS: 将语言模型中的推理、行动和规划统一起来

LATS是一种利用大型语言模型(LLMs)进行决策的框架,它将LLMs作为代理、价值函数和优化器,以增强决策能力。LATS采用蒙特卡罗树搜索作为模型,利用外部反馈的环境提供更加灵活和适应性的问题解决机制。LATS在HumanEval上使用GPT-4实现了94.4%的编程得分,在WebShop上使用GPT-3.5实现了平均得分75.9。


猞猁-zlj大约 8 分钟大模型推理推理LLMCoTToT强化学习
XoT: 强化学习增强思维生成

XoT: 强化学习增强思维生成

该文介绍了一种名为XOT的提示技术,它增强了像GPT-3和GPT-4这样的大型语言模型(llm)解决复杂问题的潜力。


猞猁-zlj大约 4 分钟大模型推理推理LLMCoT强化学习
THOR:思维链激励下的隐式情绪推理

THOR:思维链激励下的隐式情绪推理

本文介绍利用思维链方法来链式推理出隐式情感的方法,在 Zero-shot 设定下提升 50% F1 值。


猞猁-zlj大约 7 分钟大模型推理推理LLMCoTToTGoT
Graph-of-Thought: 思维图

Graph-of-Thought: 思维图

用图的推理能力来设计 prompt,思维图能助力 LLM 解决更复杂的任务。近日,一个研究团队提出了更进一步的想法:思维图(GoT)。让思维从链到树到图,为 LLM 构建推理过程的能力不断得到提升,研究者也通过实验证明了这一点。他们也发布了自己实现的 GoT 框架。


猞猁-zlj大约 9 分钟大模型推理推理LLMCoTToTGoT
探究GPT-4到底有没有推理能力?

今年三月,OpenAI重磅发布了GPT-4大模型,带来了比GPT-3.5更强的推理、计算、逻辑能力。然而8月7日Konstantine Arkoudas撰写了一篇标题为GPT-4 Can't Reason的预印本论文,在业界引起轩然大波。该论文得出结论:尽管GPT-4偶尔会闪现出分析的才华,但它目前是完全无法推理的。而另一篇来自UCLA和华盛顿大学的研究也发现,GPT-4在大学的数学、物理、化学任务的推理上,表现不佳。


猞猁-zlj大约 13 分钟大模型推理GPT-4推理OpenAI
PEARL: 长文档推理提示框架

PEARL: 长文档推理提示框架

该文介绍了 PEARL 框架,旨在提升大型语言模型对长篇文档的理解能力,在 Zero-shot 情况下,性能比GPT-4高 10.5%PEARL 被认为是利用语言模型进行复杂推理的重要步骤,为新的推理可能性打开了大门。


lx大约 20 分钟提示技术推理LLM
Plan-and-Solve Prompting: 先计划再求解

Plan-and-Solve Prompting: 先计划再求解

该文介绍了 Plan-and-Solve Prompting: 先计划再求解 框架,通过将求解推理问题划分为 PlanSolve 两个阶段,解决 CoT 中存在的计算错误、缺失步骤错误和语义误解错误等问题。


lx大约 4 分钟提示技术推理LLMCoT
Skeleton-of-Thought: 思维骨架

Skeleton-of-Thought: 思维骨架

该文 介绍了清华与微软合作提出的一种全新思维骨架(SoT),大大减少了LLM回答的延迟,并提升了回答的质量。


lx大约 9 分钟提示技术推理LLMSoT
2