苹果公司近日宣布,已正式向全球安全与隐私研究人员开放其“苹果牌AI”的核心组件——Private Cloud Compute(PCC)云端AI模型。此举旨在进一步提升透明度,并强化外界对其AI技术安全与隐私保护的信任。
PCC作为苹果云端AI的基石,被公司誉为业界最先进且安全的计算架构。此前,苹果已允许第三方审计及安全研究人员对PCC进行访问审核。如今,这一权限进一步扩大,所有研究人员均可查阅PCC的安全指南、VRE环境及部分核心源代码。
具体而言,PCC的“安全指南”详尽介绍了模型内部各组件的技术细节,而PCC VRE则提供了一个研究专用的沙盒环境。研究人员可在搭载M1及以上SoC、16GB及以上RAM,并运行macOS Sequoia 15.1开发者预览版的Mac电脑上,利用该工具进行安全分析。
苹果还将“抓虫”漏洞奖励计划扩展至PCC,为发现漏洞的研究人员提供高达5-100万美元(折合人民币约35.6-712.8万元)的奖金。