OpenAI周一表示,该公司在5月份因安全流程引发争议而成立的安全与安保委员会将成为一个独立的董事会监督委员会。
该小组将由卡内基梅隆大学计算机科学学院机器学习系主任Zico Kolter担任主席。其他成员包括OpenAI董事会成员、Quora联合创始人亚当-德安杰洛,美国国家安全局前局长、董事会成员保罗-中曾根,以及索尼公司前执行副总裁妮可-塞利格曼。
该公司表示,该委员会将监督指导OpenAI模型部署和开发的安全和安保流程。该委员会最近结束了为期90天的审查,评估了OpenAI的流程和保障措施,然后向董事会提出了建议。OpenAI将以公开博文的形式发布该小组的调查结果。
据熟悉内情的消息人士透露,ChatGPT和SearchGPT背后的微软支持的初创公司OpenAI目前正在寻求一轮融资,该轮融资将使公司估值超过1,500亿美元。茁壮资本是本轮融资的牵头机构,计划投资10亿美元,老虎环球也计划加入。据报道,微软、Nvidia和苹果也在洽谈投资事宜。
委员会提出的五项主要建议包括:需要建立独立的安全和安保管理;加强安保措施;OpenAI的工作要透明;与外部组织合作;以及统一公司的安全框架。
上周,OpenAI发布了其新人工智能模型o1的预览版,该模型侧重于推理和解决棘手问题。该公司表示,委员会审查了OpenAI用于评估OpenAIo1是否适合发布的安全和安保标准,以及安全评估结果。
该委员会将与董事会全体成员一起对模型发射进行监督,包括有权推迟发射,直到安全问题得到解决。
自2022年底推出ChatGPT以来,OpenAI一直处于高速增长状态,但与此同时,它也饱受争议,高层员工纷纷离职,一些现任和前任员工担心公司发展过快,无法安全运营。
今年7月,民主党参议员致信OpenAI首席执行官山姆-奥特曼,询问OpenAI如何解决新出现的安全问题。上个月,OpenAI的一群现任和前任员工发表了一封公开信,对缺乏监督和缺乏对举报人的保护表示担忧。
今年5月,OpenAI的一位前董事会成员在谈到Altman于11月临时下台一事时说,他向董事会提供了不准确的信息,说明公司确实在多个场合实施了少量的正式安全流程。
当月,OpenAI决定解散其专注于人工智能长期风险的团队,而这距离该团队宣布成立仅一年时间。该团队的负责人伊利亚-苏茨克沃尔和扬-莱克于今年5月宣布从OpenAI离职。莱克在X上的一篇文章中写道,OpenAI的安全文化和流程已经被闪亮的产品所取代。