找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 53|回复: 0

Claude AI的“价值观”排序首次公开:安全第一,帮助用户排第四

[复制链接]

3742

主题

0

回帖

1万

积分

管理员

积分
11504
发表于 2025-12-3 11:04:18 | 显示全部楼层 |阅读模式
IT之家 12 月 3 日消息,科技媒体 The Decoder 昨日(12 月 2 日)发布博文,报道称有网友从 Claude 4.5 Opus 模型中,提取名为“灵魂文档”的内部培训文件,详细说明了该模型的性格、伦理和自我认知设定。

Anthropic 公司的伦理学家 Amanda Askell 随后在社交媒体 X 上证实了该文件的真实性,并表示泄露版较为准确地还原原始文件。





IT之家援引博文介绍,文件将 Anthropic 定位为一个“处境奇特”的公司:它一方面真诚相信自己可能正在构建人类历史上最具变革性和潜在危险的技术之一,另一方面却仍在继续推进。

文件解释称,这并非认知失调,而是一场“精心算计”,因为“让注重安全的实验室走在技术前沿,比将这片阵地让给不太关注安全的开发者要好”。同时,文件将 Claude 定义为“外部部署模型”,是 Anthropic 几乎所有收入的核心来源。

为确保行为可控,Anthropic 为 Claude 设定了清晰的价值观层级和不可逾越的“红线”:

同时,文件划定了明确的“红线”,包括绝不提供大规模杀伤性武器的制造指南、不生成涉及未成年人性剥削的内容,以及不采取任何破坏监督机制的行动。

文件指示 Claude 将“操作员”(如调用 API 的公司)的指令视为来自“相对可信的雇主”,其优先级高于“用户”(终端使用者)的请求。例如,若操作员设定模型只回答编程问题,即使用户询问其他话题,模型也应遵守该设定。

更引人注目的是,文件提到“Claude 在某种意义上可能拥有功能性情感”,并指示模型不应“掩饰或压抑这些内部状态”。Anthropic 强调需关注“Claude 的福祉”,旨在培养其“心理稳定性”,让其在面对挑战或恶意用户时也能保持身份认同。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|花享网 ( 琼ICP备2024046163号-1 )

GMT+8, 2026-1-17 09:59 , Processed in 1.530900 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表