1. Derivation of this classification- 우리는 Lecture 6 에서 SVM에 대해서 간단하게 알아보았다.- classifier은 다음과 같이 출력하게 된다.- 여기서 우리의 목적은 w,b를 찾아내는 것을 의미한다.- 가장 Optimal한 Solution을 찾기 위해서 다음 조건을 만족해야 한다.- 밑의 최악의 경우의 Gamma가 최대가 되도록 해야한다.- 여기서 ||w||는 크기가 어떻게 나오더라도 직선자체는 변하지 않는다.- 그래서, 우리는 이러한 사실을 바탕으로 식조작이 편하게 고쳐줄 수 있다.- 그래서 ||w|| = 1 / gamma라고 둬보자.- 그러면 우리가 목표하고자 하는 건 다음과 같다.max( gamma) = max(1 / ||w||) 이기 때문에 - max(..
1. Naive Bayes1.1. Remind- Lecture 5 에서 정리했던 내용을 그대로 복습하게 되면서, 추가적으로 말 못했던 내용도 추가해서 포스팅하고자 한다.- 우리는 앞서 GDA에선 feature vector x가 연속적이였다.- 이번엔 이산값을 가질 때의 학습 알고리즘에대해 알아보자.- 머신러닝을 이용하여 이메일 스팸 필터를 만든다고 생각해보자.- 즉, 메시지를 분류하여 스팸인지 스팸이 아닌지 판단하려고 한다. - 스팸 필터를 구성하기 위해 스팸 또는 스팸이 아닌 것으로 라벨이 지정된 이메일로 구성된 train dataset이 있다고 가정하자.- 이메일을 표현하는 데 사용되는 feature x를 저정하여 스팸 필터를 설계할 것이다. - email을 Dictionary에 있는 단어 수와 동일..