일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- Federated Learning
- convergence
- free rider
- Agnostic FL
- 머신러닝
- 딥러닝
- DP
- Analysis
- Machine learning
- OSR
- Open Set Recognition
- 개인정보
- Differential Privacy
- value shaping
- OoDD
- 기계학습
- OOD
- FL
- 연합학습
- FedProx
- Federated Transfer Learning
- PPML
- deep learning
- Fairness
- q-FFL
- ML
- FedAvg
- data maximization
- q-FedAvg
- ordered dropout
- Today
- Total
목록FL (51)
Federated Learning
논문 제목: Towards Addressing Label Skews in One-Shot Federated Learning 출처: https://openreview.net/forum?id=rzrqh85f4Sc 지난 포스트에서 추가적인 outlier generation methods인 DD와 AOE에 관하여 알아보았습니다. (이전 글 보기) 이번 포스트에서는 해당 paper의 experiments를 살펴보도록 하겠습니다. 앞서 언급하였듯이 모든 실험 결과를 다루기는 어려우므로, 추가적으로 궁금하신 사항이 있을 경우 paper를 참고해주시기 바랍니다. 9. Experiments (1) Settings 사용된 dataset은 위의 표와 같습니다. 별도의 언급이 없는 한 총 10개의 client가 학습 과정에서..
논문 제목: Towards Addressing Label Skews in One-Shot Federated Learning 출처: https://openreview.net/forum?id=rzrqh85f4Sc 지난 포스트에서 저자들이 어떠한 이유로 FL에 OSR을 적용하려고 하였는지 확인하였습니다. (이전 글 보기) 이번 포스트에서는 PROSER를 FL에 implement하는 과정에서 생긴 문제점을 어떻게 해결하고자 하였는지 알아보도록 하겠습니다. 5. Data Destruction (DD) 앞서 살펴보았듯이, PROSER의 Manifold Mixup을 FL setting에서 그대로 사용할 경우 문제가 발생할 소지가 있습니다. 각 device가 가지고 있는 data 수도 많지 않을뿐더러, device별로..
논문 제목: Towards Addressing Label Skews in One-Shot Federated Learning 출처: https://openreview.net/forum?id=rzrqh85f4Sc 이번 포스트에서는 FL에 OSR을 적용하려고 시도한 paper에 관하여 알아볼 계획입니다. 앞서 괜히 PROSER를 정리한 것이 아니기 때문에, 만약 OSR을 처음 접하신다면 이전 포스트를 참고해주시기 바랍니다. (이전 글 보기) 1. One-Shot FL 해당 paper는 one-shot setting을 가정하였는데, FL에서 one-shot은 1회의 communication round만에 학습을 끝내는 것을 의미합니다. 이러한 setting을 고려하는 이유는 크게 두 가지가 있는데, 하나는 "c..
논문 제목: Mechanisms that Incentivize Data Sharing in Federated Learning 출처: https://arxiv.org/abs/2207.04557 지난 포스트까지는 각 client의 cost가 알려져 있는 상황을 가정하고 내용을 전개하였습니다. (이전 글 보기) 이번 포스트에서는 이러한 가정 없이, 즉, cost를 모르는 상황에서 data-maximizing mechanism을 찾는 방법에 관하여 알아보도록 하겠습니다. 7. Value Shaping Mechanism (Cost를 모르는 경우) 지금부터는 정보의 비대칭성이 존재합니다. 다시 말해, 각 client $i$는 본인의 cost $c_i$를 알고 있지만, server에서는 이를 알지 못하는 상황입니다...
논문 제목: Mechanisms that Incentivize Data Sharing in Federated Learning 출처: https://arxiv.org/abs/2207.04557 지난 포스트에서 data-maximizing mechanism의 정의를 알아보고, 저자들이 제안하는 mechanism은 어떠한 방식으로 동작하는지 확인하였습니다. (이전 글 보기) 이번 포스트에서는 해당 mechanism이 data-maximizing하다는 것을 보이도록 하겠습니다. 5. Value Shaping Mechanism (Cost를 아는 경우) - 이어서 $\text{Theorem 4}$ [Cost가 알려져 있을 때의 Data Maximization] 임의의 $\epsilon > 0$에 대해서, mecha..
논문 제목: Mechanisms that Incentivize Data Sharing in Federated Learning 출처: https://arxiv.org/abs/2207.04557 지난 포스트에서 free-riding에 관한 이야기를 다루면서, standard federated learning mechanism은 free-riding을 막기 어렵다는 것을 확인하였습니다. (이전 글 보기) 이번 포스트에서는 free-riding을 방지할 수 있는 방안에 관하여 살펴보도록 하겠습니다. 5. Value Shaping Mechanism (Cost를 아는 경우) $\text{Definition C}$ [Data Maximization] 임의의 mechanism $\mathcal{M}$에 대하여, 해당 ..