近日,OpenAI、谷歌、微软和智谱AI等来自不同国家和地区的16家公司,在“人工智能首尔峰会”(AI Seoul Summit)上共同签署了前沿人工智能安全承诺(Frontier AI Safety Commitments)。这一承诺标志着AI开发领域的一次重大进展,旨在加强AI技术的安全性和透明度。
图源备注:图片由AI生成,图片授权服务商Midjourney
1. 承诺要点
- 确保前沿AI安全的负责任治理结构和透明度
- 基于人工智能安全框架,负责任地说明如何衡量前沿AI模型的风险
- 建立前沿AI安全模型风险缓解机制的明确流程
图灵奖得主Yoshua Bengio认为,这一承诺的签署是建立国际治理制度以促进人工智能安全的重要一步。OpenAI全球事务副总裁Anna Makanju也表示,这一承诺是推动先进AI系统安全实践的重要一步。
2. 背景与动因
近期,OpenAI联合创始人、首席科学家Ilya Sutskever与OpenAI超级对齐团队共同领导人Jan Leike相继离开OpenAI。Leike在X发布帖子,批评OpenAI忽视安全问题。这一事件在业界引发广泛关注,凸显了当前AI安全问题的严峻性。
5月21日,图灵奖得主Yoshua Bengio、Geoffrey Hinton和姚期智等业内专家在《Science》期刊上刊文,呼吁世界各国领导人采取更有力的行动应对AI风险,警告AI的无节制发展可能导致生命和生物圈的大规模损失。
作为中国的大模型公司,智谱AI也签署了前沿人工智能安全承诺。智谱AI在顶会ICLR2024上分享了他们的AI安全具体做法,强调了超级对齐技术在提升大模型安全性方面的重要性。智谱AI透露,其GLM-4V模型内置了安全措施,以防止有害或不道德行为,保护用户隐私和数据安全。
5月22日,欧盟理事会正式批准了《人工智能法案》(AI Act),这是全球首部AI全面监管法规,将于下月生效。这部具有里程碑意义的法案采用“基于风险”的方法,规定对社会造成更高风险的AI技术需要遵守更严格的规则,对违反规定的公司将处以严厉罚款。
比利时数字化大臣Mathieu Michel表示,这一法案是世界上第一部此类法规,旨在解决全球性技术挑战,同时为社会和经济创造机遇。
总结
AI安全问题正在全球范围内引起广泛关注。从企业到政府,各方都在采取措施预防和解决AI安全问题。OpenAI、谷歌、微软和智谱AI等公司的前沿人工智能安全承诺,以及欧盟《人工智能法案》的出台,都是为确保AI技术安全发展的重要举措。随着AI技术的不断进步,确保其安全性和透明度将是各方共同努力的方向。