본문 바로가기

Data Science

Regularization - L1 norm & L2 norm

Regularization - L1 norm & L2 norm

 

Loss Function에 가중치들의 Norm을 더해서, Overfitting을 방지하고 Generalization 성능을 높이는 방법

 

학습이 진행됨에 따라 Loss 값이 점점 작아지면서

Outlier 등에 의해 가중치의 값이 과하게 커질 수 있는데,

 

Loss Function 업데이트 과정에서 가중치들의 Norm을 더해서

특정 노드와 노드 간의 가중치 값이 너무 커지는 것을 방지하는 효과

 

Pytorch에서는 "weight decay"로 구현돼있음 (L2-Norm)

 

 

 

<L2-Norm>

 

L2-Norm 수식

 

 

<L1-Norm>

 

L1-Norm 수식

 

 

w 값에 상수항을 빼줌

▶ 애초에 작은 가중치는 0으로 수렴하게 된다.

▶ 몇 개의 중요한 가중치만 남게 된다.

▶ Sparse modeling에 적합

 

미분 불가능

 

 

 

 

<References>

https://m.blog.naver.com/laonple/220527647084

 

[Part Ⅲ. Neural Networks 최적화] 2. Regularization - 라온피플 머신러닝 아카데미 -

     Part I. Machine Learning  Part V. Best CNN Architecture  P...

blog.naver.com

https://dp-story.tistory.com/4

 

2. Sparse modeling 소개

1. Sparse modeling이란? Linear equation \({\bf y = Ax}\)가 있다고 생각해보자, \(\bf y\)는 \(\bf m \times 1\)행렬이고, \(\bf A\)는 \(\bf m \times n\) 행렬, \(\bf x\)는 \(\bf n \times 1\)행렬이고, \(\bf m \ll n\) 이다. \(\bf y\)는

dp-story.tistory.com

 

'Data Science' 카테고리의 다른 글

Entropy & Surprise  (0) 2023.04.26
Adaboost  (0) 2023.04.25
Batch Normalization (배치 정규화)  (0) 2023.04.24
L1 & L2 Norm / Batch Normalization / Adaboost  (0) 2023.04.23
Maximum Likelihood Estimation  (0) 2022.12.19