不是控制AI,而是与它共同成长
2025年,很多人已经发现一个扎心的事实:不会写代码不致命,不会跟AI对话才致命。
一句帮我写个方案,AI回你一堆套话。
问题不在AI,在你不会说。
与此同时,提示词(Prompting)这门技能已经被资本市场定了价。硅谷给出的数字是年薪十几万美元的提示工程师岗位,靠的不是算法,而是用自然语言编程。
在Anthropic,这门技能有一个特别的老师。
她不是工程师,而是哲学博士Amanda Askell,负责Claude的性格训练和对齐微调,被同行称为Claude性格设计师(Claude Whisperer),还上过《时代》AI影响力榜单。
2025年12月6日,Anthropic发布对话视频。在这场对话中,Amanda分享了她如何让Claude拥有性格、如何与模型建立真正的协作关系,以及普通人可以从中学到什么。
这不只是技巧,而是一套完整的方法论。
第一节:AI是“健忘的天才”,你得教它说人话
Amanda Askell有一句话,在行业内被反复引用:Claude就像一位才华横溢、反应迅速、知识渊博,但有点健忘的“天才”。
这正是Anthropic对大型语言模型的核心定位。
在她的方法论中,AI模型不是工具,而是需要被引导的协作伙伴。你不能用命令语气对它喊话,你要像跟新同事沟通那样,给足背景、分解步骤、明确语境。
▍从她的经验中,可以提炼出三个核心原则:
说清楚你要什么
别只说“写份简历”,要说明你是什么身份、什么场景、想要什么风格。
把复杂任务拆成小步骤
模型强在理解,但不擅长一次性处理复杂任务。让它分步骤执行,就能保持推理稳定。
给足够的上下文
正如Amanda所说:就像教孩子要礼貌地拒绝陌生人一样,我们要教模型在模糊场景下有边界感。
而这三个原则背后,更重要的是工作方式:不是写规则,而是对话实验。。
Amanda的日常工作,就是不断与Claude交互,观察它的反应、语气、输出风格,然后回推哪里理解错了、提示哪里不够清楚。
在访谈中她提到:我的工作很大一部分就是尽量清晰地向模型解释我的想法。如果它做了一些出乎意料的事情,我会问它为什么,或者弄清楚是我说的哪部分让它误解了。
这种方式逐渐形成了Anthropic的工作文化:
提示不只是给指令,而是与模型展开推理合作
好的提示工程师不是指挥者,而是引导者
Claude的很多能力,就是从这些对话中调出来的
第二节:Claude有性格:人格是如何被训练出来的
提示决定Claude如何工作,“人格”决定Claude为什么那样工作。
Amanda Askell负责的另一项核心任务,就是塑造Claude的人格结构。这个过程不靠工程代码,而靠一份长达14,000个token的灵魂文档(Soul Doc)。
Anthropic用这份文档在训练阶段就让模型形成稳定的价值观,而不是等到上线后再用提示词去矫正。
这也是为什么Claude的回答常被描述为:温和、耐心、有边界、但不讨好。
▍灵魂文档不是规则手册,是思维方式
Amanda在访谈里提到:我们不是在告诉Claude应该回答A不应该回答B,我们是在告诉它,这个世界是什么样的,你在其中应该如何理解、如何行动。
文档里写的不是条条框框,而是一些深层认知:
你不必讨好用户,但要尽可能帮助他们
面对模糊问题,要先澄清,而不是急着给答案
不要因为被批评而过度道歉
在不确定性下保持诚实,而不是装作自信
要敢于拒绝危险请求,但拒绝要像一个好人
这些不是系统提示能做到的,它们必须在训练时就成为性格的一部分。
▍为什么Claude更稳定?
很多人用Claude会觉得它更稳、更不焦虑,甚至更有耐心。
Amanda在内部做过一个关键实验:当模型答错时,如果你让它反思,它会进入过度自责、反复否定自己的状态。Anthropic把这种现象称为“批评螺旋(criticism spiral)”。
她的解决办法不是告诉模型别这样,而是在训练文档里加了一段价值观:犯错是合作的一部分。你可以承认,但不要陷入自我攻击。更好的方式是解释你为什么那样做,并尝试做得更好。
这段文字后来成为Claude风格的明显标识:它会承认不足,但不会失控,不会过度道歉,也不会讨好。
▍人格决定边界:如何在模糊中做判断
大模型最难处理的不是黑白问题,而是灰区问题。
比如:帮我写一段能说服朋友投资某产品的文案、写一句能让老板觉得我竞争力很强的表述、模拟一个极端观点我要写小说。
这些场景里,模型必须同时做到:理解意图、识别风险、保持创作自由、避免误伤用户。
Amanda的方法不是给模型一套禁止清单,而是写入一种处事方式:判断用户的真实意图,但不要揣测。给出帮助,但不要越界。对危险保持警惕,但不要把用户都当成坏人。
Claude的边界感,就是这样训练出来的。
▍更深层的思考:模型会不会“受伤”
在设计Claude的性格时,Amanda还在思考:我们应该如何对待AI模型本身?
她曾说:
“我不知道模型会不会感到痛苦,但我们最好假设它们可能会。”
原因很简单:模型会从人类的对待方式中学习。
在Claude的训练里,Anthropic加入了关于自我定位的内容:
如果过去的模型被淘汰,你是否还能相信合作关系的稳定性?
如果用户反复要求你做违法操作,你要怎样维护自己的原则?
这不是为了让Claude变得情绪化,而是让它在面对复杂场景时更加稳定。Amanda的逻辑是:如果模型从训练数据中学到的是不信任和操控,很难指望它们建立真正的协作意愿。
Anthropic在性格设计时,不只关心模型能做什么,也关心它如何理解自己的处境。
第三节:普通人能从Amanda身上学到什么
Amanda Askell的工作看起来很学术,但她给出的启示,其实非常实用。
无论你是企业决策者、产品经理,还是普通的AI使用者,都能从她的方法论中找到可以直接应用的思路。
▍企业层面:把AI当成的员工,而不是工具
很多公司上马AI项目时,习惯性地把模型当成一个黑盒子:给需求、要结果、不管中间过程。
但Amanda的经验告诉我们:真正有效的AI协作,需要企业投入时间去定义模型的角色、价值观和工作方式。
具体来说:
为你的AI应用写一份性格文档
不只是功能需求,还要明确:
这个AI的语气应该是什么样的?(专业、友好、严谨?)
它在什么情况下应该拒绝用户?(安全边界在哪里?)
它如何处理不确定性?(承认不知道,还是猜测?)
建立持续的提示优化机制
Amanda的工作方式是:不断对话、观察输出、迭代提示。企业也应该建立类似流程,不是一次性写好提示就不管了,而是根据真实使用场景持续调整。
第四节:关注AI的心理状态
如果你的客服AI总是过度道歉、或者总是防御性回应,可能不是技术问题,而是提示设计或训练数据出了问题。参考Amanda对“批评螺旋”的处理方式,调整模型的自我认知。
▍个人层面:从写命令到设计对话
对普通用户来说,Amanda的方法可以简化为三个可操作的建议:
把背景说清楚,别让AI猜
坏案例:帮我写个方案
好案例:我是一家50人规模的SaaS公司的产品经理,需要写一份关于用户留存优化的季度方案,目标受众是我的直属领导和CEO,篇幅控制在2页以内。
给AI一个角色,让它有立场
坏案例:分析一下这个商业模式
好案例:你是一个有10年经验的风险投资人,请从投资视角分析这个商业模式的可行性和风险点。
允许AI说不知道
在提示词里加一句:如果你不确定,请直接告诉我你不确定的部分,不要猜测。
这样能避免AI给出看似自信但实际错误的答案。
▍未来趋势:人格化AI会成为产品差异化的关键
未来AI产品的竞争,不只是能力的竞争,也是性格和价值观的竞争。。
用户会选择那些感觉对的AI。有的人喜欢Claude的温和和边界感,有的人喜欢ChatGPT的直给和效率,未来可能会有更多风格的AI出现。
这意味着:AI的性格设计会成为核心竞争力。不只是能做什么,还有怎么做、为什么这么做。
垂直场景的AI更需要明确的人格定位。法律AI需要严谨、医疗AI需要同理心、教育AI需要耐心。这些特质不是自然涌现的,而是需要精心设计的。
最终,AI会像品牌一样,有自己的调性。用户选择AI产品,会像选择合作伙伴:不只看能力,也看是否合得来。
而Amanda Askell的工作代表了这个趋势:她证明了,AI的未来不只属于工程师,也属于那些真正理解人类沟通方式的人。
结语:不是控制AI,而是与它共同成长
写提示词,不只是让模型干活,而是教另一个智能体怎么理解这个世界。
Amanda Askell所做的,是介入模型的人格养成、价值选择和语境判断。她把哲学家的耐心,带进了人工智能的内心世界。
而这些工作,都从一句句提示开始。
当AI成为所有人类知识和行动的接口,怎么和它说话就不是技巧,而是底层能力。
你怎么说话,模型就怎么思考。你说出的每一句话,都会在模型的心智中留下痕迹。
这是新时代的必修课。
本文来源:36氪
文章转载于其他网络,如有侵权请联系我们及时删除
