OpenAI规定董事会可阻止CEO发布新模型,加强AI风险管理

近日,OpenAI公布了一系列关于防范AI风险的指导方针,其中明确规定,即使公司领导层认为将发布的AI模型是安全的,其董事会也有权选择推迟发布该模型。这一举措旨在加强AI风险管理,确保AI技术的安全和可持续发展。

今年10月27日,OpenAI宣布组建名为“Preparedness”的安全团队,该团队的主要任务是最大限度地降低AI带来的风险。此次公布的指导方针是Preparedness团队工作的延伸,旨在通过规定董事会可阻止CEO发布新模型,进一步加强AI风险管理。

OpenAI规定董事会可阻止CEO发布新模型,加强AI风险管理

图源网络

据彭博社报道,Preparedness团队负责人Aleksander Madry表示,他的团队将向一个新的内部安全咨询小组发送月度报告。该小组随后将对其进行分析,并向Altman和公司董事会提出建议。Altman和公司高层可以根据这些报告决定是否发布新的AI系统,但董事会有权撤销这一决定。

这一规定体现了OpenAI对AI风险管理的高度重视。在AI技术快速发展的背景下,如何确保AI技术的安全和可持续发展成为了一个重要的问题。OpenAI通过加强内部安全咨询和风险管理,确保在发布新的AI系统之前进行充分的评估和审查,以避免潜在的风险和负面影响。

同时,这一规定也体现了OpenAI对董事会权力的尊重和认可。在公司的治理结构中,董事会作为最高决策机构,有权对公司的重要决策进行监督和干预。在AI技术的发展过程中,董事会需要充分发挥其监督作用,确保公司的决策符合公司的长期利益和社会责任。

OpenAI规定董事会可阻止CEO发布新模型是加强AI风险管理的重要举措。这一规定体现了OpenAI对AI技术的负责任态度,也为我们提供了一个借鉴和参考。在未来的发展中,我们期待更多的科技公司能够采取类似的措施,加强AI风险管理,确保AI技术的安全和可持续发展。

本文来自用户或匿名投稿,不代表大众智能立场;本文所有内容(包括图片、视频等)版权均为原作者所有。涉及的相关问题请查阅本站免责声明,如侵权请及时与本站运营方取得联系(联系我们)我们将按声明中的处理方式进行处理。本文链接:https://dzzn.com/2023/2202.html

(0)
上一篇 2023年12月23日 下午12:25
下一篇 2023年12月24日 上午9:28

相关推荐

发表回复

登录后才能评论