1. Independent Component Analysis(ICA)- ICA에 대해서 알아볼 건데, PCA와 비슷하게, 이는 데이터를 표현할 basis를 찾는 과정이지만, 하지만 object가 다르다.- motivation으로 "cocktail party effect"를 생각해보자.-n명의 사람들이 동시에 파티에서 이야기하고 있으며, 방에 있는 마이크로 각 사람들의 목소리가 섞인 신호만 기록한다고 하자.- 방엔 서로 다른 거리에 있는 n개의 마이크가 있는데, - 각 마이크는 사람들과의 거리 차이로 인해 각기 다른 사람들의 음성을 혼합한 신호를 받는다.- 이러한 음성 데이터를 n명의 사람들의 음성을 분리할 수 있을까? - 우선 이 문제를 해결하기 위해 s ㅌ R^n을 만족하는 n개의 independent..
1. Introduction- Deep Learning에 대한 introduction을 담고 있다.- 개인적으로 해당 챕터는 https://ceulkun04.tistory.com/123 [논문 리뷰] [Deep Learning] Deep Learning - Yann LeCun, Yoshua Bengio, Geoffrey Hinton0. Referencehttps://www.cs.toronto.edu/~hinton/absps/NatureDeepReview.pdf1. Introduction- 현재 머신러닝은 현대 사회의 많은 측면에서 핵심적인 역할을 하고 있다.- 이러한 머신러닝 관련한 프로그램들은 점점 더 자ceulkun04.tistory.com- 로 대신 포스팅하도록 하겠다. (굉장히 많은 내용이 겹쳐있..
1. Decision Tree- 시간과 위치가 주어지면 스키를 탈 수 있는지 없는지 알려주는 classifier가 있다고 가정해보자.- 즉, O or X라고 말하는 Binary Classifier이다.- 다음과 같이, 위도와 달에 따른 스키를 탈 수 있는지 없는지 나타내는 dataset이 주어져 있다고 해보자.- 여기서 positive인 부분만 얻어내고 싶다면 어떻게 해야할까?- 만일 linear classifier로 classification한다고 생각하면 어려움이 있을것이다.- 또는 SVM을 사용해야겠다라는 생각이 들수도 있을 것이다.- 하지만 이는 Decision tree를 사용하면 더욱 수월하게 수행가능하다. - Decision tree는 Greedy, topdown,recursive partit..
1. Naive Bayes1.1. Remind- Lecture 5 에서 정리했던 내용을 그대로 복습하게 되면서, 추가적으로 말 못했던 내용도 추가해서 포스팅하고자 한다.- 우리는 앞서 GDA에선 feature vector x가 연속적이였다.- 이번엔 이산값을 가질 때의 학습 알고리즘에대해 알아보자.- 머신러닝을 이용하여 이메일 스팸 필터를 만든다고 생각해보자.- 즉, 메시지를 분류하여 스팸인지 스팸이 아닌지 판단하려고 한다. - 스팸 필터를 구성하기 위해 스팸 또는 스팸이 아닌 것으로 라벨이 지정된 이메일로 구성된 train dataset이 있다고 가정하자.- 이메일을 표현하는 데 사용되는 feature x를 저정하여 스팸 필터를 설계할 것이다. - email을 Dictionary에 있는 단어 수와 동일..