일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- Federated Transfer Learning
- q-FFL
- Fairness
- 머신러닝
- Differential Privacy
- OOD
- free rider
- 개인정보
- FedProx
- 연합학습
- Analysis
- ordered dropout
- 기계학습
- data maximization
- Open Set Recognition
- OoDD
- deep learning
- 딥러닝
- Federated Learning
- value shaping
- FL
- convergence
- DP
- OSR
- Agnostic FL
- q-FedAvg
- ML
- FedAvg
- Machine learning
- PPML
- Today
- Total
목록전체 글 (62)
Federated Learning
논문 제목: On the Convergence of FedAvg on Non-IID Data 출처: https://arxiv.org/abs/1907.02189 지난 포스트에 이어서 증명을 진행하겠습니다. (이전 글 보기) 3. Key Lemmas for Theorem 1 - 이어서 Lemma 2 [Bounding the variance] Assumption 3이 성립한다고 가정할 때, E[||gt−¯gt||2]≤∑Nk=1p2kσ2k이다. Proof 정의 상 gt=∑Nk=1pk∇Fk(wkt,ξkt), $\bar{..
논문 제목: On the Convergence of FedAvg on Non-IID Data 출처: https://arxiv.org/abs/1907.02189 지난 포스트에서, 우리는 full device participation case에서 FedAvg의 convergence analysis를 진행하기 위한 사전 준비를 마쳤습니다. (이전 글 보기) 이번 포스트에서는 해당 내용에 관한 증명 과정을 다루도록 하겠습니다. 증명 과정이 다소 길기 때문에, 두세 편으로 나누어서 게재할 예정입니다. 3. Key Lemmas for Theorem 1 우선, 증명에 앞서 추가적인 notation을 언급하도록 하겠습니다. (이는 증명 과정에서만 사용됩니다.) $\bar{v}_t := \sum_{k=1..

논문 제목: On the Convergence of FedAvg on Non-IID Data 출처: https://arxiv.org/abs/1907.02189 지난 포스트에서, 우리는 model aggregation method의 convergence를 엄밀하게 증명한 첫 논문인 FedProx에 관하여 알아보았습니다. (이전 글 보기) heterogeneous한 구성에서 FedProx가 잘 작동한다는 것은 알 수 있었지만, FedAvg의 convergence에 관한 명확한 이야기를 들어볼 수 없었다는 점은 조금 아쉽기도 했습니다. 이번에 살펴볼 논문이 이에 대한 대답을 줄 수 있을 것 같은데, 한 번 확인해보도록 하겠습니다. 해당 논문은 (FedProx와 더불어) convergence analysis의 ..

논문 제목: Federated Optimization in Heterogeneous Networks 출처: https://arxiv.org/abs/1812.06127 이전 포스트에서 FedProx에 관한 증명은 모두 마쳤고, 추가적으로 hyperparameter μ의 중요성에 대해서 확인해보았습니다. (이전 글 보기) 이번 포스트에서는 γtk가 어떻게 정해지는지, 그리고 어떠한 역할을 하는지 확인한 후, 각종 ablation study를 살펴보도록 하겠습니다. 9. γtk가 정해지는 과정과 γtk의 역할 1회의 global update를 위해서 정해진 global clock이 존재한다고 가정해봅시다. (1시간, 30분 등) 이때, 해당 round에 ..

얼마 전 FedProx 논문을 정리하면서, 1≪B≤0.5√K를 입력해야 하는 일이 있었는데, ≪라는 기호는 수학적으로 잘 정의된 것이 아니기 때문에 평소에 볼 일이 없었습니다. 직감적으로는 "much more less than" 정도로 읽힐 것이라는 것을 알고 있었지만, 이 기호를 TEX로 어떻게 입력해야 할지 감이 오지 않았습니다. 아마 다른 분들도 논문을 작업하시거나, 발표자료를 준비하시면서 "아니, 이 기호는 어떻게 입력해야 하지?"라고 생각하신 적이 종종 있으시리라 생각합니다. 이런 경우에 제가 애용하는 사이트 하나를 소개하겠습니다. 사이트: https://detexify.kirelabs.org/classify.html Detexify라는 곳인데, 사용..
논문 제목: Federated Optimization in Heterogeneous Networks 출처: https://arxiv.org/abs/1812.06127 이전 포스트에서, 우리는 non-convex한 Fk에 관한 FedProx의 convergence를 증명하였습니다. (이전 글 보기) 이번 포스트에서는 FedProx의 convergence rate를 구해보고, convex case와 γ가 device 별로, 또 round 별로 달라지는 case에 관해서도 살펴볼 것입니다. 6. non-convex case의 convergence rate Theorem 6 (Convergence rate: FedProx) ϵ>0이 주어졌을 때, $B > B..