[LG Aimers] [지도학습-4] Classification
분류와 회귀의 차이
이진 분류
- 모델 설정:
- 데이터셋 {(xi,yi)}i=1n,yi∈{0,1}
- 함수 f(x)를 설정하고 손실 함수 L 최소화
- 0-1 손실 함수
L(y,y^)={0,1,if y=y^,if y=y^. - 문제점: 미분 불가능 → 다른 손실 함수 대안 필요
Perceptron 알고리즘
- 단점:
- 선형 분리가 불가능한 경우 무한 루프에 빠질 수 있음
서포트 벡터 머신(SVM)
- 핵심 아이디어:
- 마진(margin): 결정 경계와 가장 가까운 데이터 포인트 사이의 거리
- 최대 마진을 찾는 최적화 문제
- aTx+b=0으로부터 포인트 x0까지의 거리
d=∥a∥∣aTx0+b∣
- 최적화 문제:
mina21∥a∥2subject to yi(a⋅x(i)+b)≥1
- 소프트 마진 SVW:
- 오류 허용(ξi): 슬랙 변수 추가
mina21∥a∥2+C∑iξisubject to yi(a⋅xi+b)≥1−ξi
Hinge Loss
- 그러므로, 목적 함수는 다음과 같이 됨
21∥a∥2+C∑iL(yi,f(xi))
- C 값을 어떻게 설정하느냐에 따라서 결정 경계가 아래와 같이 달라지게 됨
커널 기법
- 방법: 데이터의 특징 공간(feature space)을 확장