【发现者网】12月19日消息,美国当地时间周一,OpenAI宣布在人工智能(AI)安全领域取得重大突破。尽管公司领导层认为其AI模型足够安全,但公司董事会表示,即便如此,他们也有权推迟发布。这标志着OpenAI加强了尖端技术开发安全保障的决心。
公司周一发布的一套指导方针详细说明了决策流程,并解释了OpenAI计划如何应对其最强大人工智能系统可能带来的极端风险。在发布指导方针之前,OpenAI首席执行官萨姆·奥特曼(Sam Altman)曾被董事会短暂罢免,公司陷入动荡。这使得董事和公司高管之间的权力平衡成为人们关注的焦点。
据发现者网了解,OpenAI最近成立的“准备”(Preparedness)团队将持续评估公司的人工智能系统,特别关注四个不同类别的表现,包括潜在的网络安全问题,以及化学、核和生物武器威胁。该团队致力于减少该技术可能造成的任何危害,监控所谓的“灾难性”风险,定义为“可能导致数千亿美元经济损失或导致许多人受到严重伤害或死亡的风险”。
“准备”团队的负责人亚历山大·马德里(Aleksander Madry)表示,该团队将向新的内部安全咨询小组发送月度报告,并由该小组分析工作,并向奥特曼和董事会提交建议。董事会经过全面改革,根据新的文件,奥特曼及其领导团队可以根据这些报告决定是否发布新的人工智能系统,但董事会有权否决。
OpenAI在10月份宣布成立“准备”团队,使其成为监督人工智能安全的三个独立团队之一。另外两个团队分别是“安全系统”团队,关注当前产品如GPT-4,以及“超级对齐”(Superalignment)团队,专注于未来可能存在的极其强大的人工智能系统。
马德里表示,他的团队将反复评估OpenAI最先进的、尚未发布的人工智能模型,根据不同类型的感知风险将它们评为“低等”、“中等”、“高等”或“关键”。该团队还将努力减少在人工智能中发现的潜在危险,并衡量其有效性。根据新的指导方针,OpenAI将只推出危险评级为“中等”或“低等”的模型。
马德里还呼吁其他公司采用OpenAI的指导方针来评估其人工智能模型的潜在风险。他表示,这些指导方针是OpenAI之前在评估已发布人工智能技术时遵循的许多流程的正规化,并在过去几个月里通过内部反馈不断完善。