新浪科技讯 7月7日下午消息,2023世界人工智能大会期间,在“聚焦·大模型时代AIGC新浪潮—可信AI”论坛上,蚂蚁集团联合清华大学发布AI安全检测平台“蚁鉴2.0”。蚁鉴2.0可实现用生成式AI能力检测生成式AI模型,可识别数据安全、内容安全、科技伦理三大类的数百种风险,覆盖表格、文本、图像等多种数据和任务类型,是业内首个实现产业级应用的全数据类型AI安全检测平台。
在该论坛上,蚂蚁集团同时宣布,“蚁鉴2.0”全面开放,面向全球开发者免费提供AIGC安全性、AI可解释性、AI鲁棒性三项检测工具,可服务于数字金融、教育、文化、医疗、电商等领域的大规模复杂业务场景。
蚂蚁集团大安全事业群技术部总裁李俊奎表示,“生成式大模型是一种‘深黑盒’技术,‘蚁鉴2.0’通过智能博弈对抗技术,模拟黑产以及自动化生成海量测试集,可实现‘生成式机器人(14.700, -0.53, -3.48%)’对‘AIGC生成式模型’的诱导式检测计算,很像一个24小时不眠不休的‘安全黑客’在找茬大模型,从而找到大模型存在的弱点和安全问题所在。”
据了解,“蚁鉴2.0”集成了蚂蚁近10年可信AI实践、1000余项可信AI专利,支持零编码测评。开发者通过API接口,将AI模型接入蚁鉴,就可以一键识别和挖掘模型漏洞。
此次论坛上,中国信通院、上海人工智能实验室、武汉大学、蚂蚁集团等多家单位共同发起《AIGC可信倡议》,围绕人工智能可能引发的经济、安全、隐私和数据治理等问题,提出构建AIGC可信发展的全球治理合作框架,采用安全可信的数据资源、技术框架、计算方法和软件平台等全面提升AIGC可信工程化能力,最大限度确保生成式AI安全、透明、可释。