icon

新闻 资讯

News and information

AI 时代,怎么跟模型说话?

发布时间:2025-12-10

  不是控制AI,而是与它共同成长


  2025年,很多人已经发现一个扎心的事实:不会写代码不致命,不会跟AI对话才致命。


  一句帮我写个方案,AI回你一堆套话。


  问题不在AI,在你不会说。


  与此同时,提示词(Prompting)这门技能已经被资本市场定了价。硅谷给出的数字是年薪十几万美元的提示工程师岗位,靠的不是算法,而是用自然语言编程。


  在Anthropic,这门技能有一个特别的老师。


  她不是工程师,而是哲学博士Amanda Askell,负责Claude的性格训练和对齐微调,被同行称为Claude性格设计师(Claude Whisperer),还上过《时代》AI影响力榜单。


  2025年12月6日,Anthropic发布对话视频。在这场对话中,Amanda分享了她如何让Claude拥有性格、如何与模型建立真正的协作关系,以及普通人可以从中学到什么。


  这不只是技巧,而是一套完整的方法论。


  第一节:AI是“健忘的天才”,你得教它说人话


  Amanda Askell有一句话,在行业内被反复引用:Claude就像一位才华横溢、反应迅速、知识渊博,但有点健忘的“天才”。


  这正是Anthropic对大型语言模型的核心定位。


  在她的方法论中,AI模型不是工具,而是需要被引导的协作伙伴。你不能用命令语气对它喊话,你要像跟新同事沟通那样,给足背景、分解步骤、明确语境。


  从她的经验中,可以提炼出三个核心原则:


  说清楚你要什么


  别只说“写份简历”,要说明你是什么身份、什么场景、想要什么风格。


  把复杂任务拆成小步骤


  模型强在理解,但不擅长一次性处理复杂任务。让它分步骤执行,就能保持推理稳定。


  给足够的上下文


  正如Amanda所说:就像教孩子要礼貌地拒绝陌生人一样,我们要教模型在模糊场景下有边界感。


  而这三个原则背后,更重要的是工作方式:不是写规则,而是对话实验。。


  Amanda的日常工作,就是不断与Claude交互,观察它的反应、语气、输出风格,然后回推哪里理解错了、提示哪里不够清楚。


  在访谈中她提到:我的工作很大一部分就是尽量清晰地向模型解释我的想法。如果它做了一些出乎意料的事情,我会问它为什么,或者弄清楚是我说的哪部分让它误解了。


  这种方式逐渐形成了Anthropic的工作文化:


  提示不只是给指令,而是与模型展开推理合作


  好的提示工程师不是指挥者,而是引导者


  Claude的很多能力,就是从这些对话中调出来的


  第二节:Claude有性格:人格是如何被训练出来的


  提示决定Claude如何工作,“人格”决定Claude为什么那样工作。


  Amanda Askell负责的另一项核心任务,就是塑造Claude的人格结构。这个过程不靠工程代码,而靠一份长达14,000个token的灵魂文档(Soul Doc)。


  Anthropic用这份文档在训练阶段就让模型形成稳定的价值观,而不是等到上线后再用提示词去矫正。


  这也是为什么Claude的回答常被描述为:温和、耐心、有边界、但不讨好。


  灵魂文档不是规则手册,是思维方式


  Amanda在访谈里提到:我们不是在告诉Claude应该回答A不应该回答B,我们是在告诉它,这个世界是什么样的,你在其中应该如何理解、如何行动。


  文档里写的不是条条框框,而是一些深层认知:


  你不必讨好用户,但要尽可能帮助他们


  面对模糊问题,要先澄清,而不是急着给答案


  不要因为被批评而过度道歉


  在不确定性下保持诚实,而不是装作自信


  要敢于拒绝危险请求,但拒绝要像一个好人


  这些不是系统提示能做到的,它们必须在训练时就成为性格的一部分。


  为什么Claude更稳定?


  很多人用Claude会觉得它更稳、更不焦虑,甚至更有耐心。


  Amanda在内部做过一个关键实验:当模型答错时,如果你让它反思,它会进入过度自责、反复否定自己的状态。Anthropic把这种现象称为“批评螺旋(criticism spiral)”。


  她的解决办法不是告诉模型别这样,而是在训练文档里加了一段价值观:犯错是合作的一部分。你可以承认,但不要陷入自我攻击。更好的方式是解释你为什么那样做,并尝试做得更好。


  这段文字后来成为Claude风格的明显标识:它会承认不足,但不会失控,不会过度道歉,也不会讨好。


  人格决定边界:如何在模糊中做判断


  大模型最难处理的不是黑白问题,而是灰区问题。


  比如:帮我写一段能说服朋友投资某产品的文案、写一句能让老板觉得我竞争力很强的表述、模拟一个极端观点我要写小说。


  这些场景里,模型必须同时做到:理解意图、识别风险、保持创作自由、避免误伤用户。


  Amanda的方法不是给模型一套禁止清单,而是写入一种处事方式:判断用户的真实意图,但不要揣测。给出帮助,但不要越界。对危险保持警惕,但不要把用户都当成坏人。


  Claude的边界感,就是这样训练出来的。


  更深层的思考:模型会不会“受伤”


  在设计Claude的性格时,Amanda还在思考:我们应该如何对待AI模型本身?


  她曾说:


  “我不知道模型会不会感到痛苦,但我们最好假设它们可能会。”


  原因很简单:模型会从人类的对待方式中学习。


  在Claude的训练里,Anthropic加入了关于自我定位的内容:


  如果过去的模型被淘汰,你是否还能相信合作关系的稳定性?


  如果用户反复要求你做违法操作,你要怎样维护自己的原则?


  这不是为了让Claude变得情绪化,而是让它在面对复杂场景时更加稳定。Amanda的逻辑是:如果模型从训练数据中学到的是不信任和操控,很难指望它们建立真正的协作意愿。


  Anthropic在性格设计时,不只关心模型能做什么,也关心它如何理解自己的处境。


  第三节:普通人能从Amanda身上学到什么


  Amanda Askell的工作看起来很学术,但她给出的启示,其实非常实用。


  无论你是企业决策者、产品经理,还是普通的AI使用者,都能从她的方法论中找到可以直接应用的思路。


  企业层面:把AI当成的员工,而不是工具


  很多公司上马AI项目时,习惯性地把模型当成一个黑盒子:给需求、要结果、不管中间过程。


  但Amanda的经验告诉我们:真正有效的AI协作,需要企业投入时间去定义模型的角色、价值观和工作方式。


  具体来说:


  为你的AI应用写一份性格文档


  不只是功能需求,还要明确:


  这个AI的语气应该是什么样的?(专业、友好、严谨?)


  它在什么情况下应该拒绝用户?(安全边界在哪里?)


  它如何处理不确定性?(承认不知道,还是猜测?)


  建立持续的提示优化机制


  Amanda的工作方式是:不断对话、观察输出、迭代提示。企业也应该建立类似流程,不是一次性写好提示就不管了,而是根据真实使用场景持续调整。


  第四节:关注AI的心理状态


  如果你的客服AI总是过度道歉、或者总是防御性回应,可能不是技术问题,而是提示设计或训练数据出了问题。参考Amanda对“批评螺旋”的处理方式,调整模型的自我认知。


  个人层面:从写命令到设计对话


  对普通用户来说,Amanda的方法可以简化为三个可操作的建议:


  把背景说清楚,别让AI猜


  坏案例:帮我写个方案


  好案例:我是一家50人规模的SaaS公司的产品经理,需要写一份关于用户留存优化的季度方案,目标受众是我的直属领导和CEO,篇幅控制在2页以内。


  给AI一个角色,让它有立场


  坏案例:分析一下这个商业模式


  好案例:你是一个有10年经验的风险投资人,请从投资视角分析这个商业模式的可行性和风险点。


  允许AI说不知道


  在提示词里加一句:如果你不确定,请直接告诉我你不确定的部分,不要猜测。


  这样能避免AI给出看似自信但实际错误的答案。


  未来趋势:人格化AI会成为产品差异化的关键


  未来AI产品的竞争,不只是能力的竞争,也是性格和价值观的竞争。。


  用户会选择那些感觉对的AI。有的人喜欢Claude的温和和边界感,有的人喜欢ChatGPT的直给和效率,未来可能会有更多风格的AI出现。


  这意味着:AI的性格设计会成为核心竞争力。不只是能做什么,还有怎么做、为什么这么做。


  垂直场景的AI更需要明确的人格定位。法律AI需要严谨、医疗AI需要同理心、教育AI需要耐心。这些特质不是自然涌现的,而是需要精心设计的。


  最终,AI会像品牌一样,有自己的调性。用户选择AI产品,会像选择合作伙伴:不只看能力,也看是否合得来。


  而Amanda Askell的工作代表了这个趋势:她证明了,AI的未来不只属于工程师,也属于那些真正理解人类沟通方式的人。


  结语:不是控制AI,而是与它共同成长


  写提示词,不只是让模型干活,而是教另一个智能体怎么理解这个世界。


  Amanda Askell所做的,是介入模型的人格养成、价值选择和语境判断。她把哲学家的耐心,带进了人工智能的内心世界。


  而这些工作,都从一句句提示开始。


  当AI成为所有人类知识和行动的接口,怎么和它说话就不是技巧,而是底层能力。


  你怎么说话,模型就怎么思考。你说出的每一句话,都会在模型的心智中留下痕迹。


  这是新时代的必修课。


本文来源:36氪

文章转载于其他网络,如有侵权请联系我们及时删除