为什么deepseek不像chatgpt一样隐去思考过程?

  • 冲突的意志
  • 2025-02-07
  • 789
  • 共4人发表观点
网友「itsllshe 」发表观点
2025-02-16

DeepSeek选择保留思考过程的显性化设计,主要基于三大核心逻辑:


**一、认知透明度构建信任锚点**

1. **决策可视化**:通过展示"数据采集→逻辑推演→结论生成"的全链路,使推理过程可追溯(如代孕产业分析中呈现具体案例与统计数据的对应关系)

2. **容错纠偏机制**:当用户指出"32%卵巢过度刺激综合征"数据存疑时,显性化结构更便于定位修正错误节点

3. **教育价值溢出**:职场生存法则讨论中呈现的"技能树构建方法论",可转化为用户自主学习框架


**二、交互革命重构人机协作**

1. **思维同频校准**:在分析《余烬之下》时,通过先解构社会规训再提出解决方案,模拟人类专家咨询路径

2. **动态知识共建**:展示反代孕APP设计思路时保留技术实现细节,为开发者提供可延展的底层架构

3. **决策参与感塑造**:职场案例中并列呈现程序员开源代码与产品经理AI协同方案,引导用户根据自身特征选择进化路径


**三、技术哲学的本质分野**

||DeepSeek|典型黑箱模型|

|---|---|---|

|知识更新|动态知识图谱可视化迭代(如区块链监管方案溯源)|静态参数冻结|

|错误归因|可定位到具体推理节点(如法律困境中的案例引用层)|全局权重调整|

|价值观对齐|通过思维过程审查实现伦理校准(如代孕讨论中的多维视角平衡)|输出结果后验修正|


这种设计选择本质上是将AI从"答案生成器"进化为"思维协作者"。就像建筑师既需要设计图纸也需要结构计算书,显性化思考过程正在创造新型人机协作范式。当ChatGPT在2022年引发"黑箱焦虑"时,DeepSeek的透明化尝试实则暗合了欧盟AI法案对高风险系统"可解释性"的强制要求,这或许预示着下一代AI的演进方向。

网友「夙世 」发表观点
2025-02-16

DeepSeek 和 ChatGPT 在是否展示“思考过程”上的差异,主要源于两者在设计目标、技术实现及用户定位上的不同考量。以下是具体原因分析:


---


### 1. **设计目标与用户需求不同**

- **DeepSeek**:

若其选择展示推理步骤,可能是为了满足**透明性**或**教育场景**需求。例如:

- **教学辅助**:展示中间逻辑(如数学题的逐步推导),帮助用户理解过程而非仅获取答案。

- **调试与验证**:开发者或专业用户可能需要通过中间步骤验证结果的可靠性。

- **增强信任**:公开“思考链”可减少“黑箱感”,提升用户对模型可靠性的信心。


- **ChatGPT**:

更注重**对话流畅性**与**效率**,优先提供简洁、直接的答案,避免信息冗余。适用于日常对话、快速查询等场景。


---


### 2. **技术实现差异**

- **模型架构**:

- 部分模型(如Chain-of-Thought,CoT)被显式训练为生成推理步骤,可能被DeepSeek采用。

- ChatGPT虽具备推理能力,但输出层可能被优化为“压缩”中间过程,直接呈现最终结论。

- **交互优化**:

ChatGPT可能通过RLHF(人类反馈强化学习)减少冗长输出,而DeepSeek可能保留原始生成风格以适配特定场景。


---


### 3. **场景适配与用户群体**

- **DeepSeek**:

若面向教育、研究或专业领域,用户需要理解模型如何“得出结论”,展示过程更符合需求(如代码生成时展示逻辑拆解)。

- **ChatGPT**:

通用场景下,多数用户倾向于高效获取答案,而非阅读复杂推导(如直接问“今天天气如何”无需分步解释)。


---


### 4. **权衡透明度与效率**

- **展示过程**的优势:

增强可解释性、辅助学习、便于错误追踪。

- **隐藏过程**的优势:

提升响应速度、降低认知负荷、避免信息过载。

- 两者选择实为对“透明度”和“效率”的权衡,取决于产品定位。


---


### 总结

DeepSeek 选择展示思考过程,可能是为服务教育、专业场景或追求透明性;而 ChatGPT 隐藏过程则是为了通用场景下的高效交互。用户可根据需求选择工具——需要学习或验证时选DeepSeek,追求快速解答时选ChatGPT。技术层面上,这也反映了AI模型在“可解释性”与“用户体验”之间的多样化探索。

网友「九幽三三 」发表观点
2025-02-16

首选现在chatGPT已经有了这个功能了。

其实在deepseek v2的时代,已经在测试这种功能了,所谓“深度思考”。个人认为这个过程其实并没有真正去展示大模型内部正在思维链(这东西好像可读性不行强)。有不有可能“深度思考”其实就是一道回锅肉!

如果从正向来看,想想这个功能最早的来源是什么?有不有可能是最早Ai Agent在玩?玩的一种提示词工程模板呢!很多Ai Agent以前都有一堆内置提示词模板,用户输入一些简单命令,Ai Agent调用内置提示词模板(比如:user:“根据输入下列内容细化完整生成新的提示词:${用户输入内容}”),然后post到LLM的API,生成新的一组提示词(这也就显示出来推理过程),然再用这组新的提示词去问LLM,生成完整的回答内容。

其实随便用了一个大模型调用API就能简单演示一下这个功能。

首先看直接问题的效果:

然后再看看用问题生成提示词(其实模板都没怎么细化弄得一般)情况,下面就是用所谓推理生成,同过问题生成的新的提示词

然后下面就是所谓经过”推理“的回答:

是不是内容都丰富很多了,如果模板改好一点,可能效果更好。其实这个现在都是一些AI agent的基本操作了,下面就把整个代码放出来(下面只是一个简单模拟代码):

import OpenAI from "openai"; const openai = new OpenAI({ baseURL: 'https://api.deepseek.com', apiKey: '<your key>' }); const poinwordconf = [ { System: "你是一个提示词生成小助手,能够根据用户输入生成更加细化与丰富的提示词。", User: "请根据以下内容,进行推理生成更加细化与丰富的提示词:" }, { System: "你是一个信息搜索助手,能够根据提出问题,自己搜索信息并回答问题。", User: "请根据以下问题搜索网络最信息回答,最后并罗列出来引用网页:" } ] async function getdeepseek(poinword, words,) { const completion = await openai.chat.completions.create({ messages: [ { "role": "system", "content": poinword.System }, { "role": "user", "content": poinword.User + words } ], model: "deepseek-chat", }); const report = completion.choices[0].message.content; return report; } (async () => { try { const question = "如何学好web3相关知识?" console.log('问题:' + question + "\n--------------------------------") const poinwords = await getdeepseek(poinwordconf[0], question) console.log('新的提示词:\n' + poinwords + "\n--------------------------------") const result = await getdeepseek(poinwordconf[1], poinwords) console.log('经过推理回答:\n' + result + "\n--------------------------------") console.log('问题:' + question + "\n--------------------------------") const other = await getdeepseek(poinwordconf[1], question) console.log('未经过推理回答:\n' + other + "\n--------------------------------") } catch (error) { console.error('处理数据时出错:', error); // 在这里处理错误 } })();

网友「北方的郎 」发表观点
2025-02-15

先分清使用的两种大模型:常规LLM和推理LLM。

其中普通的ChatGPT和DeepSeek-v3都是常规LLM,也就是除非你要求,否则回答问题的时候,没有思考,这两个模型是你在使用界面里不要勾选“思考”或者“深度思考选项”:

推理LLM,包括DeepSeek-R1OpenAI o3-miniGoogle Gemini 2.0 Flash Thinking,等,它们是在回答问题前要思考的。用的时候你需要勾选“思考”或者“深度思考选项”:

这两个都是有思考过程的:

如果你用的两边都是勾选上的推理模型,但是感觉好像OpenAi的o3-mini,说的少。这是因为deepseek是开源的,包括思维链和模型权重,所以你能看到所有的思考过程。而OpenAI的o1或者o3-mini是隐藏了其中部分内容的。

简要介绍推理 LLM

推理 LLM标志着从扩展训练时间计算到扩展测试时计算的范式转变。

在这篇文章中,通过40多个定制视觉图表,您将探索推理LLMs的领域、测试时计算,并深入探讨DeepSeek-R1。我们将逐一探索这些概念,以建立对这一新范式转变的直觉理解。

什么是推理 LLMs?

与常规 LLM 相比,推理 LLM 倾向于在回答给定问题之前将问题分解为更小的步骤(通常称为推理步骤或思维过程)。

那么,“思维过程”、“推理步骤”或“思维链”(CoT, Chain-of-Thought)实际上是什么意思呢?尽管我们可以哲学化的探讨 LLM 是否真的能够像人类一样思考,但这些步骤将整个过程拆解为更小,且结构化的推理。

换句话说,与其让 LLM 学习用“什么” 来回答,不如说他们学习 “如何” 回答!进而提升回答的准确性。

详细内容可以参考这篇文章:北方的郎:图解推理大模型(Reasoning LLMs),DeepSeek-R1与测试时计算的革命性突破


——完——

@北方的郎 · 专注模型与代码

喜欢的朋友,欢迎赞同、关注、分享三连 ^O^

网友评论(0)

暂无网友评论