生成式AI模型的应用日益广泛。只是,随之而来的数据安全、内容安全和科技伦理等问题也日益凸显。为了应对这些挑战,蚂蚁集团联合清华大学推出了AI安全检测平台“蚁鉴2.0”。
蚁鉴2.0具备强大的检测能力,能够识别数据安全、内容安全、科技伦理三大类的数百种风险。它不仅覆盖表格、文本、图像等多种数据和任务类型,还是业内首个实现产业级应用的全数据类型AI安全检测平台。
为了让更多开发者受益,蚂蚁集团宣布“蚁鉴2.0”全面开放,面向全球开发者免费提供AIGC安全性、AI可解释性、AI鲁棒性三项检测工具。这些工具可服务于数字金融、教育、文化、医疗、电商等领域的大规模复杂业务场景。
“蚁鉴2.0”集成了蚂蚁近10年可信AI实践、1000余项可信AI专利,支持零编码测评。开发者通过API接口,将AI模型接入蚁鉴,就可以一键识别和挖掘模型漏洞。
论坛现场还发布了由中国信通院、清华大学、蚂蚁集团联合编纂的《可信AI技术和应用进展白皮书》。该报告梳理了可信AI发展现状,提炼了面向新阶段大模型和AIGC引发的新需求,形成了以技术为保障的可信AI评估体系和工具。
蚂蚁集团认为,人工智能的深度应用,不仅对数据、算法、算力提出了更高要求,也对安全、隐私、伦理提出更多挑战。在确保数据安全和隐私保护、健全人工智能伦理与安全的前提下,才能让AI技术真正地释放应用价值。
蚁鉴2.0的两大硬核能力,一是实现了用生成式能力检测生成式模型。检测标准覆盖内容安全、数据安全、伦理安全三大类,可对大模型生成式内容完成包含个人隐私、意识形态、违法犯罪、偏见与歧视等数百个维度的风险对抗检测。
另一项硬核能力是,“蚁鉴2.0”融入了可解释性检测工具。综合AI技术和专家先验知识,通过可视化、逻辑推理、因果推断等技术,从完整性、准确性、稳定性等7个维度及20余项评估指标,对AI系统的解释质量量化分析。
此次论坛上,中国信通院、上海人工智能实验室、武汉大学、蚂蚁集团等多家单位共同发起的《AIGC可信倡议》。该倡议得到数十家单位参与,围绕人工智能可能引发的经济、安全、隐私和数据治理等问题,提出构建AIGC可信发展的全球治理合作框架。
在数字金融领域,蚂蚁集团借助“蚁鉴2.0”实现了对客户金融数据的全面安全检测。例如,一家国内知名银行通过引入“蚁鉴2.0”,有效识别出AI模型在风险管理环节的潜在风险,避免因数据泄露引发巨额经济损失。在具体案例中,该银行通过蚁鉴平台的零编码测评功能,仅需将数据接入,即可获得详尽的检测报告,从而精准定位和消除安全风险。
在医疗领域,蚂蚁集团协助某三甲医院利用“蚁鉴2.0”实现个性化诊疗的AI辅助。案例中,该医院通过将患者病例数据接入蚁鉴平台,进行全面安全检测,确保诊断结果的准确性和合理性。在应用“蚁鉴2.0”的过程中,该医院还针对AI模型可解释性进行了深度优化,使诊断过程更加透明化,便于医患双方共同探讨诊疗方案。
因为人工智能技术的不断进步,AIGC领域的可信发展成为行业关注焦点。蚂蚁集团作为中国领先的技术企业,携手行业合作伙伴,致力于构建AIGC可信发展的全球治理合作框架。在蚂蚁集团看来,通过引入“蚁鉴2.0”等AI安全检测工具,可以推动AIGC领域的技术创新与应用拓展,实现AI技术的安全、透明、可释。