OpenAI成立委员会,以评估AI模型安全性
- +1 你赞过了
5月29日消息,据外媒报道,OpenAI成立了一个安全委员会来评估其AI模型的安全性,在该公司负责该问题的高管辞职、公司实际上解散了他的内部团队几周后,该公司做出了治理上的改变。
新委员会将用90天的时间评估OpenAI技术的保障措施,然后提交报告。“在全体董事会进行审查后,OpenAI将以符合安全和保障的方式公开分享已采纳建议的最新情况。”该公司在一篇博客文章中表示。
OpenAI还表示,最近已经开始训练其最新的AI模型。
OpenAI最近在人工智能方面的快速发展引发了人们对其如何管理该技术潜在危险的担忧。2023年秋天,首席执行官萨姆·奥特曼(Sam Altman)与联合创始人兼首席科学家Ilya Sutskever在开发人工智能产品的速度和限制危害的措施上发生冲突,导致这种担忧加剧。
本月,在Sutskever和一位重要副手Jan Leike离开公司后,这些担忧再次出现。科学家们管理着OpenAI的superalignment team团队,该团队专注于超人类人工智能的长期威胁。辞职的Leike后来写道,他的部门正在为OpenAI内部的计算资源“苦苦挣扎”。
在Sutskever离开后,OpenAI解散了他的团队。该公司周二表示,这项特别的工作将在其研究部门和联合创始人John Schulman的领导下继续进行。
这家初创公司有时难以处理员工离职的问题。上周,OpenAI取消了一项政策,即如果前员工公开反对该公司,就取消他们的股权。一位发言人表示,OpenAI意识到前员工的批评,并预计会有更多批评,并补充说公司正在努力解决这些问题。
OpenAI的新安全委员会将由董事长Bret Taylor、Quora首席执行官Adam D’angelo和前索尼娱乐高管Nicole Seligman三名董事会成员组成,以及包括Schulman和Altman在内的六名员工。
最新资讯
热门视频
新品评测