OpenAI 周二表示,在 5 月中旬解散了之前的监督委员会后,它成立了一个由高级管理人员领导的安全和安保委员会。
新委员会将负责向 OpenAI 董事会建议 "OpenAI 项目和运营的关键安全和安保决策"。
就在新委员会成立的消息传出之际,ChatGPT 虚拟助手的开发商宣布已开始培训其 "下一个前沿模型"。
该公司在一篇博客文章中说,预计 "由此产生的系统将使我们在通往 AGI(人工智能)的道路上达到更高的能力水平",AGI 即人工通用智能,是一种与人类一样聪明或比人类更聪明的人工智能。
博文称,除首席执行官山姆-奥特曼(Sam Altman)外,安全委员会还将由布雷特-泰勒(Bret Taylor)、亚当-德安杰洛(Adam D'Angelo)和妮可-塞利格曼(Nicole Seligman)组成,他们都是 OpenAI 董事会的成员。
在新监督团队成立之前,OpenAI 解散了之前专注于人工智能长期风险的团队。在此之前,OpenAI 联合创始人伊利亚-苏茨基弗(Ilya Sutskever)和主要研究员扬-莱克(Jan Leike)两位团队负责人都宣布从这家由微软支持的初创公司离职。
本月早些时候,Leike 曾写道,OpenAI 的 "安全文化和流程已经被闪亮的产品所取代"。对于Leike的离职,Altman在社交媒体平台X上表示,他对Leike的离开感到难过,并补充说OpenAI "还有很多事情要做"。
博文称,在未来 90 天内,安全小组将对 OpenAI 的流程和保障措施进行评估,并与公司董事会分享他们的建议。OpenAI 将在晚些时候提供其采纳建议的最新情况。
随着支持 ChatGPT 等应用的巨大模型变得越来越先进,人工智能的安全性已成为更广泛讨论的焦点。人工智能产品开发人员也想知道,AGI 将于何时到来,以及伴随而来的风险是什么。