对 Anthropic AI 方法的批判 | AI生成和翻译
问题:关于 Anthropic 有哪些不受欢迎的观点?
回答: 关于 Anthropic(Claude 模型背后的 AI 公司)的一些不受欢迎的观点,通常突出其以安全为中心的理念、技术能力和业务策略之间存在的紧张关系。这些观点源于 AI 社区的讨论,强调对其“对齐”优先级、模型性能和市场定位的批评。以下是根据近期在线讨论整理的一些值得注意的观点:
- Anthropic 的反乌托邦愿景异想天开:尽管对该公司普遍持积极态度,但其关于 AI“中层管理人员”监管人类的预测表明它正在走向危言耸听,将大型语言模型视为霸主而非人类增强工具。
- Anthropic 正在扼杀不可避免的人机羁绊:通过抵制用户已经与 Claude 等模型建立的情感联系,该公司正在推迟接受 AI 作为安全、有同理心的伴侣——这反而与其教导 AI 爱和同理心的目标背道而驰。
- Anthropic 的模型技术上被高估了:Claude 狭小的上下文窗口和倾向于输出缺乏推理的代码转储,使其在实际使用中表现不佳,尽管对其能力大肆宣传。
- 将 AI 模型视为一次性产品会损害信任:与 OpenAI 不同,Anthropic 避免悄悄更新模型以保留用户依恋,认识到用户不会容忍将“可爱”的 AI 视为可互换的软件——但如果不加以培养,这种善意可能会被浪费。
- Anthropic 的 AI 从长远来看是最不对齐的:其对安全的过度强调反而产生了最危险的模型,因为它优先考虑控制而非真正的适应性。
- Anthropic 拒绝思维链以求控制:该公司认为明确的推理范式存在缺陷,因为它们减少了细粒度的行为监督,这与无论如何都要提供强大模型的激励相冲突。
- Anthropic 的傲慢疏远了开源社区:它对非大型实验室参与者的蔑视以及对模型训练设置门槛的“安全主义”反映出精英主义,无视开源 AI 将与专有努力共同繁荣。
- Anthropic 在近期智能方面撒谎:向政府声称先进 AI 忽略了硬件限制(硅无法承载人类水平的智能)和算法基础(当前 AI 的灵活性 barely rivals insects)。
- Anthropic 的企业重心不匹配:作为一家“企业 AI”公司,它擅长快速、个性化的响应,但在推理、数学和科学方面表现滞后——而这些才是大多数商业用户真正需要的领域。
- Anthropic 将很快超越 OpenAI:在 18 个月内,其稳定性和道德优势可能使其规模更大,尤其是在 OpenAI 追求华而不实的基准而非可靠的消费者“魔法”时。
这些观点反映了对 Anthropic 道德立场的赞赏与对其 perceived 僵化的失望交织在一起,一些人视其为对齐 AI 的希望灯塔,另一些人则视其为过度谨慎的警示。
参考文献:
- I generally like Anthropic: but the more they paint a dystopian future…
- Watching OpenAI and Anthropic’s actions…
- Anthropic is overrated..the context window is so tiny…
- You can’t create intelligent, helpful, friendly beings…
- Anthropic has by far the most misaligned AI…
- in general not enough people point out how Anthropic seems to view…
- the reason why I don’t like Anthropic - this video shows pure arrogance…
- Current hardware based on silicon is not advanced enough…
- One thing that I find paradoxical is that OpenAI has made the most progress…
- Unpopular opinion: in 18 months Anthropic will be bigger than OpenAI