일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- Analysis
- OSR
- deep learning
- 연합학습
- FedProx
- ML
- Federated Transfer Learning
- OoDD
- Open Set Recognition
- q-FedAvg
- data maximization
- 머신러닝
- Agnostic FL
- 개인정보
- 딥러닝
- FedAvg
- FL
- OOD
- Machine learning
- Federated Learning
- 기계학습
- ordered dropout
- value shaping
- Differential Privacy
- convergence
- Fairness
- q-FFL
- DP
- free rider
- PPML
- Today
- Total
목록전체 글 (62)
Federated Learning
Main Page: https://pseudope.github.io/ Federated Learning, Model Compression, Stochastic Optimization 등을 전공할 예정이며, 현재 대학원 입학 전에 관련 내용들을 정리하고 있습니다. 그리고 위 분야 외에도 Machine Learning Theory 전반에 관심을 가지고 있습니다. 한국어로 된 연합학습 자료들이 많지 않다고 느껴서, 공부한 내용을 공유하고자 해당 블로그를 개설하였습니다. 관련 연구를 진행하시는 분들, 해당 분야로의 진학을 고려 중이신 분들 모두 환영합니다. 포스트 내용 중 이해가 되지 않는 부분이나 잘못되었다고 생각되는 부분이 있다면, 혹은 블로그에서 다루어지면 좋을 것 같은 주제가 있다면, 댓글 등을 통해서 ..

논문 제목: SplitFed: When Federated Learning Meets Split Learning 출처: https://arxiv.org/abs/2004.12088 이번에 가져온 논문은, 이전까지 제가 잘 다루지 않던 privacy preserving에 관한 내용을 담고 있습니다. accepted된 지 얼마 되지 않은 최신 논문인 만큼, 기존에 등장하였던 다양한 방법론들이 적용된 알고리즘을 제시하고 있습니다. 특히, 그중에서도 Split Learning(SL)이라는 개념은 Federated Learning 이후에 제시된, 비교적 최신의 분산학습 체계입니다. 서로 다른 두 분산학습 방식인 SL과 FL을 엮은 해당 논문이 과연 어떠한 novelty를 가지고 있을지 확인해보도록 하겠습니다. 1. ..

논문 제목: On the Convergence of FedAvg on Non-IID Data 출처: https://arxiv.org/abs/1907.02189 이번 포스트에서는 해당 paper의 또 다른 topic인 decaying learning rate에 관하여 이야기할 계획입니다. (이전 글 보기) 만약 E=1이고 full batch를 사용하는 상황이라면, 이는 곧 full batch GD와 동일하다는 것을 FedAvg 논문에서 이미 확인한 바 있습니다. 그리고 full batch GD에서는 굳이 learning rate를 decay할 필요가 없다는 것은 익히 알려진 사실입니다. 하지만 저자들은 E>1일 때에는 full batch GD를 사용하더라도 반드시 learning rate를 ..

논문 제목: On the Convergence of FedAvg on Non-IID Data 출처: https://arxiv.org/abs/1907.02189 이번 포스트에서는 hyperparameter K와 E에 관한 이야기를 다룬 후, experiments를 살펴 볼 계획입니다. (이전 글 보기) 9. Hyperparameter E 정하기 Theorem 2, 3에서 확인하였듯이, partial device participation에서의 FedAvg는 다음을 만족합니다. $$\mathbb{E} [F (W_T)] - F^* \leq \frac {\kappa} {\gamma + T - 1} \left( \frac {2(B+C)} {\mu} + \frac {\mu \gamma} {..
논문 제목: On the Convergence of FedAvg on Non-IID Data 출처: https://arxiv.org/abs/1907.02189 지난 포스트에 이어서 partial device participation case의 convergence를 증명하도록 하겠습니다. (이전 글 보기) C term만 다르기 때문에, Scheme I과 II 구분 없이 동시에 증명합니다. 7. Partial Device Participation Case Theorem 2 Assumtion 1 ~ 4가 성립하고, Scheme I을 사용한다고 가정하자. (즉, Assumption 5가 성립한다고 가정하자.) ..

논문 제목: On the Convergence of FedAvg on Non-IID Data 출처: https://arxiv.org/abs/1907.02189 지난 두 개의 포스트를 통해, 우리는 full decive participation case에서 FedAvg의 convergence를 확인하였습니다. (이전 글 보기) 이번 포스트부터는 partial device participation case를 살펴볼 것입니다. 마찬가지로 증명 과정이 다소 길기 때문에 두세 편에 나누어서 작성될 예정입니다. 5. Assumtions - (2) 이전 포스트에서 살펴보았듯이, Sampling 과정에서 replacement가 허용되는지(FedProx 논문에서 제시한 Sampling 기법) 혹은 그렇지 않은지(해당 논..