1. How to represent Word's Meaning- NLP를 시작하기 앞서서, 각 단어들의 의미를 어떻게 담을지가 중요하다.- 이를 위한 방법 몇가지에 대해서 알아보자.1.1. WordNet- WordNet은 동의어나, 비슷한 단어들을 같은 그룹으로 모아둔것이다.- 하지만, 이러한 단어들은 관리하기가 너무 힘들다. (신조어나 이런 이유)- 뿐만아니라, 만일 좋은 사람, 착한 사람 등등, "좋은"과 "착한"이 만일 같은 그룹이라고 한다해도,- 좋은 사람과, 착한 사람은 뉘앙스가 다르다. - 즉, 단어 간의 관계를 얻어내기 어렵다는 단점이 존재한다. 1.2. One-hot vector- 단어들을 사전에 있는 모든 단어들의 길이만큼 0으로 채워진 리스트 안에,- 어떤 단어가 해당하는 번째만 1로 ..
0. Referencehttps://arxiv.org/abs/1611.05725 PolyNet: A Pursuit of Structural Diversity in Very Deep NetworksA number of studies have shown that increasing the depth or width of convolutional networks is a rewarding approach to improve the performance of image recognition. In our study, however, we observed difficulties along both directions. On one hand, the purarxiv.org1. Introduction- 우선 해당 논..
0. Referencehttps://arxiv.org/abs/1611.05431 Aggregated Residual Transformations for Deep Neural NetworksWe present a simple, highly modularized network architecture for image classification. Our network is constructed by repeating a building block that aggregates a set of transformations with the same topology. Our simple design results in a homogeneous, mularxiv.org1. WRN- 해당 논문은, Wild Residua..
0. Referencehttps://arxiv.org/abs/1610.02357 Xception: Deep Learning with Depthwise Separable ConvolutionsWe present an interpretation of Inception modules in convolutional neural networks as being an intermediate step in-between regular convolution and the depthwise separable convolution operation (a depthwise convolution followed by a pointwise convolution).arxiv.org1. Inception Hypothesis- 우선..