隐私计算(Privacy Computing)是一种由两个或多个参与方联合计算的技术和系统,参与方在不泄露各自数据的前提下通过协作对他们的数据进行联合机器学习和联合分析。在隐私计算框架下,参与方的数据明文不出本地,在保护数据安全的同时实现多源数据跨域合作,可以破解数据保护与融合应用难题。主要解决了,如何在不获取用户隐私数据的前提下,对数据进行挖掘和计算。
目前主流的隐私计算技术如下:

可信计算

主要是基于可信硬件方面技术,即通过硬件技术来对数据进行隔离保护
安全多方计算

在无可信第三方情况下,通过多方共同参与,安全地完成某种协同计算。即在一个分布式的网络中,每个参与者都各自持有秘密输入,希望共同完成对某个函数的计算,但要求每个参与者除计算结果外均不能得到其他参与实体的任何输入信息。也就是参与者各自完成运算的一部份,最后的计算结果由部分参与者掌握或公开共享。
联邦学习

联邦学习=分布式机器学习+加密
在企业各自数据不出本地的前提下,通过加密机制下的参数交换与优化,建立虚拟的共有模型。这个共有模型的性能和传统方式将各方数据聚合到一起使用机器学习方法训练出来的模型性能基本一致。
联邦学习分为
横向联邦学习以及纵向联邦学习。横向即为同向数据集扩展,纵向为扩展数据的维度。联邦学习在机器学习领域已经比较成熟,如
SecureBoost14、线性回归、逻辑回归、神经网络算法等模型。将会向通用型平台发展, 并向深度学习延申,结合其他隐私计算技术以及区块链技术。
其他隐私计算
差分隐私
k匿名算法
L-多样性多样化
各隐私计算技术对比:
技术可信执行环境多方安全计算联邦学习安全机制基于可信硬件或者可信计算环境基于密码学原理对数据进行加密调整机器学习算法,改为分布式分批学习性能高一般(非对称加密性能较差,所需时间较长)高通用性中高低(需基于特定算法进行扩展)保密性高高中可信方需要不需要不需要技术描述开发容易,但需要购买特定可信硬件对加密算法有较高要求,否则性能较差需要结合密码学与机器学习方法,调整训练方法
结论:
可信执行环境技术具备更好的性能和算法适用性,但是需要采购特定的可信硬件。多方安全计算技术不依赖硬件且具备较高的安全性,但性能较差,目前可参考的开源项目并不多,落地难度较大。联邦学习技术则可以解决复杂的算法建模问题,是目前主流的落地方案。同时数科拥有算法研究相关的人员,并且拥有算法应用场景,可在已有算法基础上,进行扩展,进行联邦学习。

