Non-Linear SVM
2022. 3. 6. 18:47ㆍ공부한 내용/머신러닝 이론
1. Non-Linear Mapping
*선형 결정경계를 찾을 수 없는 경우, 데이터를 더 높은 차원에서의 데이터로 바꾸면 선형 결정경계를 찾을 수 있는 가능성 커짐
*새롭게 만든 차원 위에서 기존의 linear SVM과 동일한 방식으로 결정경계를 구함
-차원을 추가하는 것이 결정경계를 쉽게 찾는 데 도움이 되지만, 지나치게 높은 차원은 학습해야 할 파라미터 수를 늘려 학습을 어렵게 만듦
-> Kernel Trick 이라는 방법이 새로 도입됨
2. Kernel trick
: 고차원 공간에서의 학습을 보다 더 쉽게 만드는 방법
*고차원으로 변경한 데이터를 무작정 내적하는 것이 아니라, 내적식을 보다 간단하게 만들어 계산을 쉽게 만듦
(단, 내적식을 정리했을 때 간단하게 표현될 수 있는 경우)
-> 이런 식을 가진 함수를 Kernel이라고 말함
-> 이러한 Kernel 함수를 이용해 계산한다면 실제 고차원 공간에서 학습할 때의 시간보다 더 절약된 시간으로 같은 학습 가능
∴커널 함수: 원래 차원에서의 데이터 내적 결과값을 이용해 변경된 고차원 공간에서의 데이터 내적 결과값을 만들어낼 수 있는 함수
(ex) RBF Kernel
'공부한 내용 > 머신러닝 이론' 카테고리의 다른 글
Linear Support Vector Machine (0) | 2022.03.06 |
---|---|
The Concept of Decision Trees (0) | 2022.03.06 |
딥러닝 독학에 도움되는 사이트 (0) | 2022.01.15 |
Linear SVM (0) | 2022.01.14 |
Multilayer Perceptron (MLP) (0) | 2022.01.11 |