4月16日,在第27届联合国科技大会期间,世界数字技术院(WDTA)在以塑造AI的未来为主题的AI边会上发布了包括《生成式人工智能应用安全测试标准》和《大语言模型安全测试方法》两项国际标准在内的一系列成果。这是国际组织首次就大模型安全领域发布国际标准,两项国际标准由OpenAI、蚂蚁集团、科大讯飞、谷歌、微软、英伟达、百度、腾讯等数十家单位的多名专家学者共同编制。
此次发布的两项国际标准是大模型及生成式AI应用方面的安全测试标准。其中,《生成式人工智能应用安全测试标准》由WDTA作为牵头单位。该标准为测试和验证生成式AI应用的安全性提供了一个框架,确保AI应用各个方面都经过严格的安全性和合规性评估,保障其在整个生命周期内免受威胁和漏洞侵害。
《大语言模型安全测试方法》由蚂蚁集团作为牵头单位,该标准提出了大语言模型的安全风险分类、攻击的分类分级方法以及测试方法,并率先给出了4种不同攻击强度的攻击手法分类标准,提供了严格的评估指标和测试程序等,可全面测试大语言模型抵御敌对攻击的能力,使开发人员和组织能够识别和缓解潜在漏洞,并最终提高使用大语言模型构建的人工智能系统的安全性和可靠性。
4月16日,在第27届联合国科技大会期间,世界数字技术院(WDTA)在以塑造AI的未来为主题的AI边会上发布了包括《生成式人工智能应用安全测试标准》和《大语言模型安全测试方法》两项国际标准在内的一系列成果。这是国际组织首次就大模型安全领域发布国际标准,两项国际标准由OpenAI、蚂蚁集团、科大讯飞、谷歌、微软、英伟达、百度、腾讯等数十家单位的多名专家学者共同编制。
此次发布的两项国际标准是大模型及生成式AI应用方面的安全测试标准。其中,《生成式人工智能应用安全测试标准》由WDTA作为牵头单位。该标准为测试和验证生成式AI应用的安全性提供了一个框架,确保AI应用各个方面都经过严格的安全性和合规性评估,保障其在整个生命周期内免受威胁和漏洞侵害。
《大语言模型安全测试方法》由蚂蚁集团作为牵头单位,该标准提出了大语言模型的安全风险分类、攻击的分类分级方法以及测试方法,并率先给出了4种不同攻击强度的攻击手法分类标准,提供了严格的评估指标和测试程序等,可全面测试大语言模型抵御敌对攻击的能力,使开发人员和组织能够识别和缓解潜在漏洞,并最终提高使用大语言模型构建的人工智能系统的安全性和可靠性。