在近日于首尔举行的盛大“人工智能(AI)首尔峰会”上,全球科技界的佼佼者,包括微软、谷歌、OpenAI等16家顶尖公司,共同做出了一个引人注目的承诺:他们将致力于安全开发AI模型,并在极端风险无法控制的情况下,选择关闭其尖端系统。这一承诺标志着人工智能行业对于安全性的高度重视,也反映出在AI技术飞速发展的同时,对潜在风险的深刻认识。
据了解,除了上述提到的国际巨头,本次峰会还吸引了包括智谱AI(注:腾讯、阿里、美团和小米曾对其投资)、IBM、亚马逊、Meta和三星在内的多家国内外知名企业。这些公司的参与,无疑增强了此次峰会的权威性和影响力。
在峰会期间,这些公司共同发布了一项安全承诺框架,详细阐述了他们如何衡量AI模型的风险。根据这一框架,如果AI模型在运行过程中出现了严重且“无法接受”的风险,且无法通过技术手段进行减轻,那么这些人工智能公司将不得不按下紧急停止开关,停止开发或部署相关模型和系统。
AI旋风认为,这一承诺的提出,是AI行业对于自身责任的一种认识和担当。随着人工智能技术的不断发展和应用,其在各个领域中的影响力日益增强,但同时也带来了一系列的安全隐患和风险。因此,如何确保AI技术的安全性和可靠性,成为了行业内外共同关注的焦点。
值得一提的是,这并不是人工智能公司第一次做出类似的承诺。去年,亚马逊、谷歌、Meta和微软等公司就曾在美国政府的促成下,签署了自愿保障措施,以确保他们的产品在发布时是安全的。然而,这些承诺往往被视为“高尚但不具约束力”的象征性表态,缺乏具体的执行力和监管机制。
不过,AI旋风注意到,此次首尔峰会所提出的承诺,似乎更加具体和务实。首先,这些公司共同发布了一个安全承诺框架,为衡量AI模型的风险提供了明确的指导;其次,他们明确提出了在极端风险无法控制的情况下关闭尖端系统的措施,这显示出了他们对于风险控制的坚定态度;最后,这些公司还表示将加强与其他行业的合作,共同推动AI技术的安全发展。
被誉为“人工智能教父”的计算机科学家约书亚・本吉奥也对这些承诺表示了欢迎。他认为,虽然这些承诺是自愿的,但它们的存在对于推动整个行业的安全发展具有重要意义。同时,他也指出,自愿承诺必须伴随监管才能真正发挥作用。只有通过加强监管和建立有效的惩罚机制,才能确保这些承诺得到真正的落实和执行。
随着人工智能技术的不断发展和应用,其在各个领域中的影响力将越来越大。因此,如何确保AI技术的安全性和可靠性,将成为未来AI行业发展的重要课题。我们期待这些AI巨头能够继续发挥领导作用,推动整个行业向着更加安全、可靠的方向发展。