超越加密:重新思考数据安全
Posted: Thu Apr 17, 2025 8:08 am
为了充分利用人工智能的潜力,企业将大量客户数据交给外部人工智能供应商。然而,近期的数据隐私事件凸显了一个紧迫的问题:我们传统的安全措施已越来越不充分。现在,企业应该重新思考在人工智能驱动的合作关系中,数据保密的策略,采取更严格、以数据为中心的立场。
在当今复杂的人工智能领域,单靠加密已远远不够。差分隐私和同态加密等先进技术为数据保护带来了亟需的革新。例如,同态加密允许人工智能模型在无需解密的情况下对加密数据进行计算,这在十年前是不可想象的。差分隐私为数据集添加了统计噪声,降低了被重新识别的风险——在隐私泄露频频源于所谓“匿名”数据的时代,差分隐私是一项宝贵的资产。
供应商尽职调查:不仅仅是一份清单
波耐蒙研究所 (Ponemon Institute) 在 2023 年发布的一份报告显示,超过 55% 的数据泄 司法部数据库 露源自第三方供应商。对于人工智能供应商而言,由于其处理的敏感数据量巨大,风险也随之加剧。传统的供应商评估仅注重认证,忽略了隐私设计实践和数据泄露时的响应时间等关键方面。有效的尽职调查应包括严格的审计、政策执行和持续监控,以确保供应商积极维护隐私标准。
隐私增强技术:一个被忽视的解决方案
随着人工智能能力的增长,对隐私增强技术 (PET) 的需求也日益增长。联邦学习和多方计算 (MPC) 是实现数据去中心化的关键技术,能够最大限度地降低数据泄露风险。PET 允许人工智能模型在无需将数据整合到单个服务器上的情况下进行数据训练,从而为人工智能隐私保护提供了一种创新方法。然而,Gartner [ii]的一项调查显示,只有 10% 的组织表示在其数据战略中使用了 PET。这一差距凸显了数据隐私愿景与实际实践之间的脱节。
数据保护影响评估 (DPIA) 的作用
根据《通用数据保护条例》(GDPR),在处理高风险数据时,DPIA 是强制性的,但许多组织仍然将其视为一项监管复选框。对于人工智能 (AI) 而言,DPIA 发挥着至关重要的作用:它们能够预先处理潜在风险,记录风险并制定缓解策略。对于人工智能 (AI) 项目而言,DPIA 应该是不可协商的,不仅要指导数据共享的方式,还要指导数据共享的原因,并重点关注数据最小化和目的限制。
在当今复杂的人工智能领域,单靠加密已远远不够。差分隐私和同态加密等先进技术为数据保护带来了亟需的革新。例如,同态加密允许人工智能模型在无需解密的情况下对加密数据进行计算,这在十年前是不可想象的。差分隐私为数据集添加了统计噪声,降低了被重新识别的风险——在隐私泄露频频源于所谓“匿名”数据的时代,差分隐私是一项宝贵的资产。
供应商尽职调查:不仅仅是一份清单
波耐蒙研究所 (Ponemon Institute) 在 2023 年发布的一份报告显示,超过 55% 的数据泄 司法部数据库 露源自第三方供应商。对于人工智能供应商而言,由于其处理的敏感数据量巨大,风险也随之加剧。传统的供应商评估仅注重认证,忽略了隐私设计实践和数据泄露时的响应时间等关键方面。有效的尽职调查应包括严格的审计、政策执行和持续监控,以确保供应商积极维护隐私标准。
隐私增强技术:一个被忽视的解决方案
随着人工智能能力的增长,对隐私增强技术 (PET) 的需求也日益增长。联邦学习和多方计算 (MPC) 是实现数据去中心化的关键技术,能够最大限度地降低数据泄露风险。PET 允许人工智能模型在无需将数据整合到单个服务器上的情况下进行数据训练,从而为人工智能隐私保护提供了一种创新方法。然而,Gartner [ii]的一项调查显示,只有 10% 的组织表示在其数据战略中使用了 PET。这一差距凸显了数据隐私愿景与实际实践之间的脱节。
数据保护影响评估 (DPIA) 的作用
根据《通用数据保护条例》(GDPR),在处理高风险数据时,DPIA 是强制性的,但许多组织仍然将其视为一项监管复选框。对于人工智能 (AI) 而言,DPIA 发挥着至关重要的作用:它们能够预先处理潜在风险,记录风险并制定缓解策略。对于人工智能 (AI) 项目而言,DPIA 应该是不可协商的,不仅要指导数据共享的方式,还要指导数据共享的原因,并重点关注数据最小化和目的限制。