DeepSeek选择保留思考过程的显性化设计,主要基于三大核心逻辑:
**一、认知透明度构建信任锚点**
1. **决策可视化**:通过展示"数据采集→逻辑推演→结论生成"的全链路,使推理过程可追溯(如代孕产业分析中呈现具体案例与统计数据的对应关系)
2. **容错纠偏机制**:当用户指出"32%卵巢过度刺激综合征"数据存疑时,显性化结构更便于定位修正错误节点
3. **教育价值溢出**:职场生存法则讨论中呈现的"技能树构建方法论",可转化为用户自主学习框架
**二、交互革命重构人机协作**
1. **思维同频校准**:在分析《余烬之下》时,通过先解构社会规训再提出解决方案,模拟人类专家咨询路径
2. **动态知识共建**:展示反代孕APP设计思路时保留技术实现细节,为开发者提供可延展的底层架构
3. **决策参与感塑造**:职场案例中并列呈现程序员开源代码与产品经理AI协同方案,引导用户根据自身特征选择进化路径
**三、技术哲学的本质分野**
||DeepSeek|典型黑箱模型|
|---|---|---|
|知识更新|动态知识图谱可视化迭代(如区块链监管方案溯源)|静态参数冻结|
|错误归因|可定位到具体推理节点(如法律困境中的案例引用层)|全局权重调整|
|价值观对齐|通过思维过程审查实现伦理校准(如代孕讨论中的多维视角平衡)|输出结果后验修正|
这种设计选择本质上是将AI从"答案生成器"进化为"思维协作者"。就像建筑师既需要设计图纸也需要结构计算书,显性化思考过程正在创造新型人机协作范式。当ChatGPT在2022年引发"黑箱焦虑"时,DeepSeek的透明化尝试实则暗合了欧盟AI法案对高风险系统"可解释性"的强制要求,这或许预示着下一代AI的演进方向。
DeepSeek 和 ChatGPT 在是否展示“思考过程”上的差异,主要源于两者在设计目标、技术实现及用户定位上的不同考量。以下是具体原因分析:
---
### 1. **设计目标与用户需求不同**
- **DeepSeek**:
若其选择展示推理步骤,可能是为了满足**透明性**或**教育场景**需求。例如:
- **教学辅助**:展示中间逻辑(如数学题的逐步推导),帮助用户理解过程而非仅获取答案。
- **调试与验证**:开发者或专业用户可能需要通过中间步骤验证结果的可靠性。
- **增强信任**:公开“思考链”可减少“黑箱感”,提升用户对模型可靠性的信心。
- **ChatGPT**:
更注重**对话流畅性**与**效率**,优先提供简洁、直接的答案,避免信息冗余。适用于日常对话、快速查询等场景。
### 2. **技术实现差异**
- **模型架构**:
- 部分模型(如Chain-of-Thought,CoT)被显式训练为生成推理步骤,可能被DeepSeek采用。
- ChatGPT虽具备推理能力,但输出层可能被优化为“压缩”中间过程,直接呈现最终结论。
- **交互优化**:
ChatGPT可能通过RLHF(人类反馈强化学习)减少冗长输出,而DeepSeek可能保留原始生成风格以适配特定场景。
### 3. **场景适配与用户群体**
若面向教育、研究或专业领域,用户需要理解模型如何“得出结论”,展示过程更符合需求(如代码生成时展示逻辑拆解)。
通用场景下,多数用户倾向于高效获取答案,而非阅读复杂推导(如直接问“今天天气如何”无需分步解释)。
### 4. **权衡透明度与效率**
- **展示过程**的优势:
增强可解释性、辅助学习、便于错误追踪。
- **隐藏过程**的优势:
提升响应速度、降低认知负荷、避免信息过载。
- 两者选择实为对“透明度”和“效率”的权衡,取决于产品定位。
### 总结
DeepSeek 选择展示思考过程,可能是为服务教育、专业场景或追求透明性;而 ChatGPT 隐藏过程则是为了通用场景下的高效交互。用户可根据需求选择工具——需要学习或验证时选DeepSeek,追求快速解答时选ChatGPT。技术层面上,这也反映了AI模型在“可解释性”与“用户体验”之间的多样化探索。
首选现在chatGPT已经有了这个功能了。
其实在deepseek v2的时代,已经在测试这种功能了,所谓“深度思考”。个人认为这个过程其实并没有真正去展示大模型内部正在思维链(这东西好像可读性不行强)。有不有可能“深度思考”其实就是一道回锅肉!
如果从正向来看,想想这个功能最早的来源是什么?有不有可能是最早Ai Agent在玩?玩的一种提示词工程模板呢!很多Ai Agent以前都有一堆内置提示词模板,用户输入一些简单命令,Ai Agent调用内置提示词模板(比如:user:“根据输入下列内容细化完整生成新的提示词:${用户输入内容}”),然后post到LLM的API,生成新的一组提示词(这也就显示出来推理过程),然再用这组新的提示词去问LLM,生成完整的回答内容。
其实随便用了一个大模型调用API就能简单演示一下这个功能。
首先看直接问题的效果:
然后再看看用问题生成提示词(其实模板都没怎么细化弄得一般)情况,下面就是用所谓推理生成,同过问题生成的新的提示词。
然后下面就是所谓经过”推理“的回答:
是不是内容都丰富很多了,如果模板改好一点,可能效果更好。其实这个现在都是一些AI agent的基本操作了,下面就把整个代码放出来(下面只是一个简单模拟代码):
import OpenAI from "openai"; const openai = new OpenAI({ baseURL: 'https://api.deepseek.com', apiKey: '<your key>' }); const poinwordconf = [ { System: "你是一个提示词生成小助手,能够根据用户输入生成更加细化与丰富的提示词。", User: "请根据以下内容,进行推理生成更加细化与丰富的提示词:" }, { System: "你是一个信息搜索助手,能够根据提出问题,自己搜索信息并回答问题。", User: "请根据以下问题搜索网络最信息回答,最后并罗列出来引用网页:" } ] async function getdeepseek(poinword, words,) { const completion = await openai.chat.completions.create({ messages: [ { "role": "system", "content": poinword.System }, { "role": "user", "content": poinword.User + words } ], model: "deepseek-chat", }); const report = completion.choices[0].message.content; return report; } (async () => { try { const question = "如何学好web3相关知识?" console.log('问题:' + question + "\n--------------------------------") const poinwords = await getdeepseek(poinwordconf[0], question) console.log('新的提示词:\n' + poinwords + "\n--------------------------------") const result = await getdeepseek(poinwordconf[1], poinwords) console.log('经过推理回答:\n' + result + "\n--------------------------------") console.log('问题:' + question + "\n--------------------------------") const other = await getdeepseek(poinwordconf[1], question) console.log('未经过推理回答:\n' + other + "\n--------------------------------") } catch (error) { console.error('处理数据时出错:', error); // 在这里处理错误 } })();
先分清使用的两种大模型:常规LLM和推理LLM。
其中普通的ChatGPT和DeepSeek-v3都是常规LLM,也就是除非你要求,否则回答问题的时候,没有思考,这两个模型是你在使用界面里不要勾选“思考”或者“深度思考选项”:
推理LLM,包括DeepSeek-R1、OpenAI o3-mini和Google Gemini 2.0 Flash Thinking,等,它们是在回答问题前要思考的。用的时候你需要勾选“思考”或者“深度思考选项”:
这两个都是有思考过程的:
如果你用的两边都是勾选上的推理模型,但是感觉好像OpenAi的o3-mini,说的少。这是因为deepseek是开源的,包括思维链和模型权重,所以你能看到所有的思考过程。而OpenAI的o1或者o3-mini是隐藏了其中部分内容的。
简要介绍推理 LLM
推理 LLM标志着从扩展训练时间计算到扩展测试时计算的范式转变。
在这篇文章中,通过40多个定制视觉图表,您将探索推理LLMs的领域、测试时计算,并深入探讨DeepSeek-R1。我们将逐一探索这些概念,以建立对这一新范式转变的直觉理解。
与常规 LLM 相比,推理 LLM 倾向于在回答给定问题之前将问题分解为更小的步骤(通常称为推理步骤或思维过程)。
那么,“思维过程”、“推理步骤”或“思维链”(CoT, Chain-of-Thought)实际上是什么意思呢?尽管我们可以哲学化的探讨 LLM 是否真的能够像人类一样思考,但这些步骤将整个过程拆解为更小,且结构化的推理。
换句话说,与其让 LLM 学习用“什么” 来回答,不如说他们学习 “如何” 回答!进而提升回答的准确性。
详细内容可以参考这篇文章:北方的郎:图解推理大模型(Reasoning LLMs),DeepSeek-R1与测试时计算的革命性突破
——完——
@北方的郎 · 专注模型与代码
喜欢的朋友,欢迎赞同、关注、分享三连 ^O^
鄂公网安备 42068302000331号
温馨提示:本站所有内容均来自互联网,若有侵权请联系站长处理。联系邮箱:yangtata@vip.qq.com