“在人工智能的浪潮中,我们不能以牺牲隐私为代价换取便利。”6 月 10 日Apple 在全球开发者大会上宣布了一个重大的 AI 举措——“Apple Intelligence”,证实了长期的传闻,即它将与 OpenAI 合作,将 ChatGPT 带入 iPhone。
OpenAI 的联合创始人之一埃隆·马斯克很快在 X 上做出回应,称由 ChatGPT 支持的 Apple AI 工具是“令人毛骨悚然的间谍软件”和“不可接受的安全违规行为”。他警告说:“如果 Apple 在操作系统层面集成 OpenAI,那么我的公司将禁止使用 Apple 设备。”
但在 AI 隐私问题受到关注之际,iPhone 制造商 Apple 表示,Apple Intelligence 提供了一种保护用户数据的新方式。该公司正在研究哪些核心任务可以在设备本地完成,以最大限度地保护隐私。
对于更复杂的请求,Apple 开发了一种称为“Private Cloud Compute (PCC)”的基于云的系统,运行在自己的服务器上。该公司称这是一种保护新兴 AI 时代隐私的创新方式。
Apple 软件工程高级副总裁克雷格·费德里吉称其战略是“AI 隐私的全新标准”。那么,Apple 的说法是否站得住脚?与包括三星 Galaxy 系列在内的设备上提供的“混合 AI”产品相比,Apple 的战略有何不同?
Digital Barriers 首席执行官扎克·多夫曼表示,通过 PCC,Apple 设计了一种全新的端到端 AI 架构,让用户的 iPhone 拥有私有云飞地扩展,从而可以更好地控制数据。Digital Barriers 是一家专注于实时监控视频存储和分析的公司。
在实践中,这意味着 Apple 可以掩盖 AI 提示的来源,并防止任何人(包括 Apple 本身)访问用户的数据。多夫曼说:“从理论上讲,这是云端 AI 实现端到端加密的最接近的方式。”
Inrupt 安全架构负责人布鲁斯·施奈尔表示,Apple 为其 AI 构建了一个“相当令人印象深刻的隐私系统”。他说:“Apple 的目标是让 AI 的使用——甚至是在云端——与手机的安全性一样安全。这是一个复杂的过程,但我认为他们做得相当不错。”
到目前为止,还没有任何其他解决方案能与之相提并论。在搭载 Google Android 和 Google Nano 系列的三星 Galaxy 设备上使用的“混合 AI”中,一些 AI 流程在本地处理,在必要时利用云端来实现更先进的功能。
GRC International Group 人工智能集团负责人卡姆登·伍尔文表示,其想法是尽可能提供隐私保护,同时提供强大的 AI 功能。“这意味着你甚至可以在中端智能手机上体验到一些相当复杂的 AI。”
但是,这种类型的混合 AI 处理仍可能存在风险,因为一些数据被发送到云服务器,而没有 Apple 通过其 PCC 提供的相同级别的问责制。“对于混合 AI 来说,一些数据必须离开设备并在其他地方处理,使其更容易受到拦截或滥用,”Open 技术研究所创始人兼总监里卡多·奥克莱波说。
然而,谷歌及其硬件合作伙伴认为,隐私和安全性是 Android AI 方法的主要关注点。三星电子安全团队负责人、移动业务副总裁 Justin Choi 表示,其混合 AI 为用户提供了“对数据的控制和无可妥协的隐私保护”。
Choi 解释说,云端处理的功能受到严格政策制约的服务器保护。他说:“我们在设备上的 AI 功能通过在设备本地执行任务来提供额外的安全性,并且不会依赖云服务器,既不存储设备数据,也不向云上传数据。”
谷歌表示,其数据中心采用了强大的安全措施,包括物理安全、访问控制和数据加密。该公司表示,当在云端处理 AI 请求时,数据将保留在安全的谷歌数据中心架构内,并且不会将用户信息发送给第三方。
同时,Choi 表示,Galaxy 的 AI 引擎不会使用来自设备上功能的用户数据进行训练。三星会通过其 Galaxy AI 符号清楚地表明哪些 AI 功能在设备上运行,并且智能手机制造商会添加水印以显示内容何时使用了生成式 AI。
该公司还引入了名为“高级智能设置”的新安全和隐私选项,让用户可以选择禁用基于云的 AI 功能。
谷歌表示,该公司“拥有保护用户数据隐私的悠久历史”,并补充说这适用于其在设备上和云端启用的 AI 功能。“对于敏感案例,例如筛选电话,我们使用设备上的模型,数据永远不会离开手机,”谷歌产品信任副总裁苏珊·弗雷告诉 WIRED。
弗雷描述了谷歌产品如何依赖其基于云的模型,以确保“消费者的信息,例如需要总结的敏感信息,永远不会被发送给第三方进行处理。”
她说:“我们一直致力于构建人们可以信任的 AI 功能,因为它们默认安全,设计时考虑了隐私,最重要的是,它们遵循了谷歌首创的负责任的 AI 原则。”
专家表示,Apple 的 AI 战略不仅仅是匹配“混合”的数据处理方法,它改变了对话的性质。多夫曼说:“每个人都期待这种设备内、隐私至上的推动,但 Apple 实际上做的是说,无论您在 AI 中做什么,或在哪里做——重要的是如何做。” 他认为这“很可能会定义智能手机 AI 领域的最佳实践。”
即便如此,Apple 还没有赢得 AI 隐私之战:与 OpenAI 的交易——Apple 不同寻常地向外部供应商开放其 iOS 生态系统——可能会损害其隐私声明。
Apple 反驳了马斯克关于与 OpenAI 的合作会损害 iPhone 安全性的说法,称“为访问 ChatGPT 的用户构建了隐私保护措施”。该公司表示,在查询被共享给 ChatGPT 之前,会要求用户许可,同时会模糊 IP 地址,并且 OpenAI 不会存储请求——但 ChatGPT 的数据使用政策仍然适用。
安全公司 ESET 的全球网络安全顾问杰克·摩尔表示,与另一家公司合作对 Apple 来说是一个“奇怪的举动”,但这一决定“不会轻易做出”。虽然确切的隐私影响尚不清楚,但他承认“双方都可能收集一些个人数据,并且这些数据可能被 OpenAI 分析。”
这意味着对于一些数据,“你只能遵守 OpenAI 的规则,”施奈尔说。“Apple 在向 OpenAI 发送查询时删除识别信息,但是许多查询中包含大量的识别信息。”
苹果和 OpenAI 之间的合作有可能“完全改变 AI 领域的问责制”,人工智能教授兼科技咨询公司 Wisdom Works Group 创始人安迪·帕多说。“这种合作伙伴关系将责任分散到多个实体,从而影响到如何为其互连系统内的成功和潜在失败分配责任。”
随着 AI 技术被集成到科技巨头的操作系统中,还需要考虑安全风险。至少在理论上,Apple Intelligence 是一个令人印象深刻的壮举,但该公司 的 AI 工具也创造了“一个前所未见的巨大攻击面”,多夫曼说。“它采用了一系列不同的安全创新,并将其结合到一个新的产品中以实现一个新的目的,因此,如果它起作用,它将是一个改变游戏规则的举措。但在它上线时,Apple 将需要管理一些问题。”
正因为如此,Apple 和谷歌都在鼓励安全研究人员寻找其 AI 解决方案中的漏洞。谷歌的安全 AI 框架让安全公司 Mandiant 测试了 AI 模型的防御能力。
Apple 的一位发言人提供了该公司关于 PCC 安全性论文和模型论文的链接,详细介绍了其对 AI 开发的“负责任”方法。 Apple 没有对 WIRED 关于其与 OpenAI 的合作引发的隐私问题或潜在安全风险的后续问题做出公开回应。
Apple 正在为 PCC 使用一种称为“可验证透明度”的模式。 Apple 在介绍 PCC 的一篇博客文章中说:“我们希望确保安全和隐私研究人员可以检查 Private Cloud Compute 软件、验证其功能并帮助识别问题——就像他们可以与 Apple 设备一样。” 为了实现这一点,Apple 正在向安全研究人员公开提供 PCC 每个生产版本的软件图像。
Apple Intelligence 将与即将推出的 iOS 18 软件更新一起集成到 ChatGPT 中,完整的功能套件将于今年秋天在 iPhone 16 上推出。你可以选择禁用此功能,但如果你想在任何设备上使用 AI 功能,最好考虑其隐私和安全影响。
具体到 iOS 和 Android AI,这取决于你信任谁。帕多建议评估操作系统在隐私功能、数据处理实践和透明度方面的整体权衡。帕多指出:“Apple 对隐私的强烈关注仍然是优先考虑数据安全性高于一切的用户的一个关键看点。”