일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- Federated Learning
- q-FFL
- 딥러닝
- FedProx
- OoDD
- 개인정보
- Agnostic FL
- ordered dropout
- OOD
- PPML
- convergence
- value shaping
- Machine learning
- ML
- q-FedAvg
- FedAvg
- 연합학습
- 머신러닝
- FL
- Analysis
- free rider
- data maximization
- 기계학습
- Differential Privacy
- deep learning
- Open Set Recognition
- Federated Transfer Learning
- OSR
- DP
- Fairness
- Today
- Total
목록기계학습 (56)
Federated Learning

논문 제목: Deep Learning with Differential Privacy 출처: https://arxiv.org/abs/1607.00133 지난 포스트에서 DP가 무엇인지, 그리고 어떻게 DP를 구현하는지 살펴보았습니다. (이전 글 보기) 이번 포스트에서는 DP를 SGD에 어떻게 적용하였는지에 관하여 확인해보겠습니다. 3. SGD에 DP 적용하기 DPSGD 알고리즘의 pseudo-code는 다음과 같습니다. 설명해야 할 부분이 많은데, 하나씩 확인해보도록 하겠습니다. (1) Gradient Clipping (C) 원래 gradient clipping은 gradient explosion을 방지하기 위해서 upper bound를 설정하는 용도로 사용되는 기법이지만, 여기에서는 다른 용도(DP를..
논문 제목: Deep Learning with Differential Privacy 출처: https://arxiv.org/abs/1607.00133 사실 Differential Privacy(DP)는 ML 분야가 아니라 DB 쪽에서 사용되던 기법입니다. 이번에 다룰 논문의 주된 내용은 이 DP를 Deep Learning에 적용하여 privacy preserving을 꾀하는 것인데, 어떻게 DP를 Deep Learning에 이식할 수 있었는지, DP로 인하여 model의 성능이 크게 저하되지는 않았는지, 그리고 DP가 computation cost에는 어느 정도 영향을 미치는지 확인해보도록 하겠습니다. 우선, DP가 무엇인지에 관하여 간략하게 언급하도록 하겠습니다. 1. Differtial Privacy..

논문 제목: FjORD: Fair and Accurate Federated Learning under heterogeneous targets with Ordered Dropout 출처: https://arxiv.org/abs/2102.13451 이전 포스트까지 해서 FjORD의 모든 내용을 살펴보았습니다. (이전 글 보기) 이번 포스트에서는 experiments를 살펴보겠습니다. 자세한 세팅은 FjORD - (2)에서 설명하였으므로 생략합니다. 7. Experiments (1) Hyperparameters Dp의 경우, p∼U5와 p∼U10을 사용하였습니다. 다음으로, Drop Scale(ds)는 0.5와 ..

논문 제목: FjORD: Fair and Accurate Federated Learning under heterogeneous targets with Ordered Dropout 출처: https://arxiv.org/abs/2102.13451 이전 포스트에서 설명한 OD에 기반하여, 이번 포스트에서는 FjORD에 관한 이야기를 해보겠습니다. (이전 글 보기) 5. FjORD FjORD 알고리즘은 OD를 FL에 적용한 것입니다. t기 학습에 참여할 Client들의 집합 St가 결정되면, Server는 각 Client i 가 가질 수 있는 최대의 p값, 즉, pmax를 따르는 submodel \textbf{F}_{p_{\max}^i}를 Client에게 전..

논문 제목: FjORD: Fair and Accurate Federated Learning under heterogeneous targets with Ordered Dropout 출처: https://arxiv.org/abs/2102.13451 이전 포스트에서 OD에 관하여 간단하게 알아보았습니다. (이전 글 보기) 이번 포스트에서 조금 더 자세하게 이야기해보겠습니다. 4. Ordered Dropout의 정당성 직관적으로 OD가 어떠한 의미를 가지는지는 지난 포스트에서 확인하였습니다. 이와 더불어 \text{Theorem 1}은 OD가 수학적으로도 타당한 방법론이라는 것을 보장해줍니다. OD가 SVD와 동일한 역할을 수행한다는 것인데, 쉽게 말해서 pruned p-subnetwork $\textb..

논문 제목: FjORD: Fair and Accurate Federated Learning under heterogeneous targets with Ordered Dropout 출처: https://arxiv.org/abs/2102.13451 이번 paper는 system heterogeniety에 관한 내용을 다루고 있습니다. 만약 특정 device의 computing power가 부족해서 학습이 매우 느리게 진행되거나 혹은 아예 model이 메모리에 올라가지 못 한다면, 이러한 device는 곧바로 straggler가 될 것입니다. 해당 논문은 device 별로 model의 size를 조절하여 이 문제를 해결하고자 하였는데, 과연 어떠한 idea를 활용하였는지 지금부터 살펴보겠습니다. 1. 연구 배..