当前位置: 科技先知道 » 人工智能 » 全球16家科技公司签署前沿人工智能安全承诺,共促AI安全发展

全球16家科技公司签署前沿人工智能安全承诺,共促AI安全发展

近日,OpenAI、谷歌、微软和智谱AI等16家来自不同国家和地区的公司,在“人工智能首尔峰会”(AI Seoul Summit)上共同签署了前沿人工智能安全承诺(Frontier AI Safety Commitments)。这份承诺标志着AI开发领域的一次重大进展,旨在提升AI技术的安全性和透明度。

全球16家科技公司签署前沿人工智能安全承诺,共促AI安全发展

承诺要点

这些公司承诺将确保前沿AI的安全治理结构和透明度,依据人工智能安全框架,负责任地评估前沿AI模型的风险,并建立明确的风险缓解流程。图灵奖得主Yoshua Bengio表示,这一承诺的签署是建立国际治理制度以促进人工智能安全的重要一步。OpenAI全球事务副总裁Anna Makanju也强调,这一承诺是推动先进AI系统安全实践的关键措施。

背景与动因

近期,OpenAI联合创始人、首席科学家Ilya Sutskever和OpenAI超级对齐团队共同领导人Jan Leike相继离职。Leike在社交媒体X上发布帖子,批评OpenAI忽视安全问题,引发业界广泛关注,凸显当前AI安全问题的严峻性。

5月21日,图灵奖得主Yoshua Bengio、Geoffrey Hinton和姚期智等专家在《Science》期刊上发文,呼吁全球领导人采取更有力的行动应对AI风险,警告AI的无节制发展可能导致生命和生物圈的大规模损失。

作为中国的大模型公司,智谱AI也签署了前沿人工智能安全承诺。在ICLR2024大会上,智谱AI分享了他们的AI安全具体做法,强调超级对齐技术在提升大模型安全性方面的重要性,并透露其GLM-4V模型内置了安全措施,以防止有害或不道德行为,保护用户隐私和数据安全。

5月22日,欧盟理事会正式批准了《人工智能法案》(AI Act),这是全球首部AI全面监管法规,将于下月生效。这部法案采用“基于风险”的方法,对高风险AI技术实施严格规则,违反规定的公司将面临严厉罚款。

比利时数字化大臣Mathieu Michel表示,这一法案是世界上首部此类法规,旨在解决全球性技术挑战,同时为社会和经济创造机遇。

AI安全问题在全球范围内引起广泛关注。从企业到政府,各方正积极采取措施预防和解决AI安全问题。OpenAI、谷歌、微软和智谱AI等公司的前沿人工智能安全承诺,以及欧盟《人工智能法案》的出台,都是为确保AI技术安全发展的重要举措。随着AI技术的不断进步,确保其安全性和透明度将是各方共同努力的方向。

未经允许不得转载:科技先知道 » 全球16家科技公司签署前沿人工智能安全承诺,共促AI安全发展

相关文章

My title