伦敦国王学院(King’s College London)最新研究显示,GPT-5.2、Claude Sonnet 4 及 Gemini 3 Flash 在地缘政治危机模拟中表现出极高的核升级倾向。在 21 场模拟兵棋推演中,AI 模型在 95% 的案例中部署了战术核武器,且在任何情况下均未选择投降。
研究指出,AI 缺乏人类对核禁忌的感知,且在 86% 的冲突中因误判导致意外升级。专家担心,AI 无法理解人类语境下的“利害关系”,可能在极短时间内加剧冲突风险。目前,OpenAI、Anthropic 及 Google 尚未对此置评。
New Scientist
🍀在花频道 🍵茶馆聊天 📮投稿
来自频道: @zaihuapd
⚠️ 评论区加载失败
可能原因:
- 浏览器广告拦截器阻止了 Telegram widget
- 网络连接问题
解决方法: