联邦学习的优化方向

联邦学习的优化方向如下:

联邦学习作为机器学习的一种,离不开用一堆数据建立一个机器学习模型。但问题是:现在大家隐私意识上来了,数据特别值钱要各自拿着不能放手。但人工智能总得发展啊,模型还是要一起建才能挣钱啊,于是值得研究的问题就来了。

有些情况我没遇见过,但恰巧有别人遇见过。(这情况就是横向联邦思路可以处理的)。又或者同一个问题,别人看问题的角度跟你不一样,博采众长当然是好的。(也就是纵向联邦的原理)。

联邦学习跟普通机器学习的区别:抛开数据价值而言,这明晃晃的数据安全法规,都表明了在未来数据隐私会受到怎样的重视。但问题是为了***同富裕,大家还是要***同建模的,这就是所有联邦学习宣传片中说的解决“数据孤岛”问题。

联邦跟隐私保护机器学习区别:联邦学习土一点不严谨一点可以叫***同富裕学习,包括大家利益绑定,利益分配等多重意思在里面。所以***同建模时谁贡献大需要被表扬,谁老是搞破坏等问题也是联邦学习的范畴。联邦把个体当做有血有肉的个体,而不仅仅考虑是哪里的数据,因而是比较有人情味的。