cs229

1. Introduction- Deep Learning에 대한 introduction을 담고 있다.- 개인적으로 해당 챕터는 https://ceulkun04.tistory.com/123 [논문 리뷰] [Deep Learning] Deep Learning - Yann LeCun, Yoshua Bengio, Geoffrey Hinton0. Referencehttps://www.cs.toronto.edu/~hinton/absps/NatureDeepReview.pdf1. Introduction- 현재 머신러닝은 현대 사회의 많은 측면에서 핵심적인 역할을 하고 있다.- 이러한 머신러닝 관련한 프로그램들은 점점 더 자ceulkun04.tistory.com- 로 대신 포스팅하도록 하겠다. (굉장히 많은 내용이 겹쳐있..
1. Decision Tree- 시간과 위치가 주어지면 스키를 탈 수 있는지 없는지 알려주는 classifier가 있다고 가정해보자.- 즉, O or X라고 말하는 Binary Classifier이다.- 다음과 같이, 위도와 달에 따른 스키를 탈 수 있는지 없는지 나타내는 dataset이 주어져 있다고 해보자.- 여기서 positive인 부분만 얻어내고 싶다면 어떻게 해야할까?- 만일 linear classifier로 classification한다고 생각하면 어려움이 있을것이다.- 또는 SVM을 사용해야겠다라는 생각이 들수도 있을 것이다.- 하지만 이는 Decision tree를 사용하면 더욱 수월하게 수행가능하다. - Decision tree는 Greedy, topdown,recursive partit..
1. Assumptions- 이번 Lecture에선 미리 두가지 가정을 하고 간다.- 첫 번째: (x,y) ~ D를 만족하는 data distribution D가 존재한다. - 두 번째: 모든 Samples들은 Independent하다. 2. Bias & Variance우리는 Lecture 8에서 다음과 같이 Underfitting과 Overfitting에 대해서 알아보았다. - 이걸 bias와 Variance입장에서 한번 봐보자. (다음 4개의 plot을 보면 쉽게 이해 가능하다.)- bias가 커질수록 Under-fitting되고, Variance가 커질수록 Over-fitting된다.- 여기서 기존의 데이터셋의 크기가 커지면 커질수록 Variance는 작아진다고 한다.- 그래서 모델을 학습할 때 데..
1. Bias / Variance- 다음과 같이 같은 데이터셋이 3개가 있다고 생각해보자.- Regression Problem을 푼다고 생각했을 때 다음과 같이 3개로 나타낸다고 생각해보자.- 첫번째 : 일차함수 , 두번째 : 이차함수, 세번째 : 오차함수- 우리는 이중에 가장 적합하다고 생각하는 건 아마 두번째 그림이 가장 잘 설명한다고 생각할 것이다.- 첫번째 일차함수 같은 경우 데이터를 덜 설명하게 된다. 이를 Under fitting이라고 한다.(High bias를 가진다.)- 세번째 오차함수 같은 경우 데이터를 과하게 설명하게 된다. 이를 Over Fitting이라고 한다.(HIgh Variance를 가진다.) 2. Regularization- Overfitting을 방지하기 위해 나오게 된 기..