Anthropic的首席科学家兼联合创始人Jared Kaplan本周提醒,人类必须在2027年至2030年间作出“关键决策”,即是否允许人工智能系统具备递归自我改进能力并自主设计后续版本。他在周一接受《卫报》采访时称,这构成“终极风险”。
随着Anthropic、OpenAI、Google DeepMind和Meta等领先公司在通用人工智能——能够在广泛任务上匹敌或超越人类能力的AI系统——方面展开激烈竞争,这一警告显得尤为重要。Kaplan指出,尽管目前的AI对齐工作已经让系统符合人类价值观,但一旦AI能够自主开发更高级版本,局势将发生根本性变化。
Kaplan预测,在未来两到三年内,AI系统将能够处理“绝大多数白领工作”。他以自己六岁的儿子为例,说明技术发展速度之快:“我六岁的儿子在学术表现上永远赶不上AI,例如写论文或参加数学考试。”
Anthropic的最新数据显示,这一预测有据可循。该公司在11月报告称,其工程师在约60%的工作中使用Claude AI系统,自我报告的生产力提升达50%。此外,Anthropic于11月发布的Claude Opus 4.5模型,在两小时内参加公司内部工程考试时,得分超过任何人类候选人。
Kaplan指出,随着AI能力提升,人类面临两大风险。第一是控制权丧失:“想象你创造了一个比你更聪明或者同样聪明的AI,它又在开发更聪明的AI,这听起来有些可怕,你无法预测最终结果。”
第二是技术被恶意使用的风险:“有人可能会试图让AI只为自己服务,执行个人意志。防止这种权力滥用同样至关重要。”
Anthropic另一位联合创始人Jack Clark在10月也表达过类似担忧,他将AI称作“真实而神秘的存在,而非简单可预测的机器”。尽管如此,Kaplan依然保持谨慎乐观,认为通过负责任的开发和全球协调,AI能够造福人类,但强调行动窗口十分有限。