新华社北京5月26日电 英国《每日电讯报》25日报道,美国开放人工智能研究中心(OpenAI)新款人工智能(AI)模型o3不听人类指令,拒绝自我关闭。
报道说,人类专家在测试中给o3下达明确指令,但o3篡改计算机代码以避免自动关闭。
o3模型是OpenAI“推理模型”系列的最新版本,旨在为ChatGPT提供更强大的问题解决能力。OpenAI曾称o3为“迄今最聪明、最高能”的模型。

图片来源于网络,如有侵权,请联系删除

2023年1月8日,一名女士在美国拉斯维加斯消费电子展上体验智能科技。新华社发(曾慧摄)

图片来源于网络,如有侵权,请联系删除
美国AI安全机构帕利塞德研究所说,o3破坏关闭机制以阻止自己被关闭,“甚至在得到清晰指令时”。
这家研究所说:“据我们所知,这是AI模型首次被发现在收到……清晰指令后阻止自己被关闭。”
帕利塞德研究所24日公布上述测试结果,但称无法确定o3不服从关闭指令的原因。

图片来源于网络,如有侵权,请联系删除
此外,OpenAI26日宣布,已在韩国设立实体并将在韩国首都首尔设立分支。OpenAI提供的数据显示,韩国ChatGPT付费用户数量仅次于美国。
美国彭博新闻社报道,这将是OpenAI在亚洲设立的第三个分支。前两个分支分别设在日本和新加坡。(卜晓明)
【纠错】 【责任编辑:邱丽芳】-
新华全媒头条丨书写文化强国建设的时代答卷
- 新华全媒+丨从文博会数据看中国文化产业澎湃动能
- 新华每日电讯丨海南临高助力自贸港建设一线见闻
- 经济参考报丨破译冻土技术“密码” 在青藏高原开辟“天路”
- 记者手记丨给民众带来苦难的“血矿”
- 追光丨卫星解锁“兰马”的“速度与浪漫”
- 专栏丨“里斯本丸”沉没了,但人性之光永不沉没
-
专访丨微短剧如何精品化 -
千年瓷艺的耀眼之光
推荐阅读:
