[논문 리뷰] [CV] Densely Connected Convolutional Networks

2025. 3. 27. 00:27· Paper Review(논문 리뷰)/Computer Vision
목차
  1. 0. Reference
  2. 1. Introduction
  3. 2. Advantage
  4. 3. Conclusion

0. Reference

https://arxiv.org/abs/1608.06993

https://www.youtube.com/watch?v=fe2Vn0mwALI&list=PLlMkM4tgfjnJhhd4wn5aj8fVTYJwIpWkS&index=29

 

Densely Connected Convolutional Networks

Recent work has shown that convolutional networks can be substantially deeper, more accurate, and efficient to train if they contain shorter connections between layers close to the input and those close to the output. In this paper, we embrace this observa

arxiv.org

1. Introduction

- 우선 우리가 알고있는 CNN의 기본 구조는 다음과 같다.

 

- 여기서, Skip Connection을 도입한 꼴은 다음과 같다.

 

 

- 여기서 DenseNet은 그 다음 layer에만 연결하는게 아니라 모든 layer에 연결하겠다라는 아이디어를 도입한다.

- 여기서, 위 방식과 다른점은 합쳐질때, Sum이 아니라 concatenation이 작동된다는 것이다.

 

- 이렇게 연결하면 상식적으로, 너무 Model의 complexity가 올라간다고 생각이 들것이다.

- 그래서, 각 layer의 Channel을 줄여준다.(여기서 k는 growth rate라고 정의된다.-->hyper-parameter.)

 

- 과연, 이를 어떻게 학습할 수 있을까? forward 입장에서 먼저 봐보면 다음과 같다.

 

- BN --> ReLU --> ConV로 진행이 되는데, 이는 마치 Wild Residual Network논문에서 주장한것과 똑같다.

 

- 전체 구조는 아래그림과 같다.

 

2. Advantage

- DenseNet은 Backpropagation에 유리한 구조를 보이고 있다.

- gradient vanish가 발생하기 좀 어렵다. 그 이유는 Error signal을 모든 layer에 전달하기 때문이다.

 

- 기존의 CNN은 Feature Extracter - Classifier로 구성되어 있는데,

- 생각해보면, Feature Extracter의 마지막 layer의 feature map만 가지고 Classify를 하게 된다.

- 즉, 앞에 정보들은 Classifer에 전달되지 못하고, 사라진다라고 생각이 가능하다.

 

 

- DenseNet같은경우 Concatenate하기 때문에, 모든 layer의 feature map을 고려할 수 있게 된다.

 

 

3. Conclusion

 

 

'Paper Review(논문 리뷰) > Computer Vision' 카테고리의 다른 글

[논문 리뷰] [CV] Aggregated Residual Transformations for Deep Neural Networks  (0) 2025.03.27
[논문 리뷰] [CV] Xception- Deep Learning with Depthwise Separable Convolutions  (0) 2025.03.27
[논문 리뷰] [CV] SQUEEZENET: ALEXNET-LEVEL ACCURACY WITH50X FEWER PARAMETERS AND <0.5MB MODEL SIZE  (0) 2025.03.26
[논문 리뷰] [CV] Deep Networks with Stochastic Depth  (0) 2025.03.26
[논문 리뷰] [CV] Wide Residual Networks  (1) 2025.03.26
  1. 0. Reference
  2. 1. Introduction
  3. 2. Advantage
  4. 3. Conclusion
'Paper Review(논문 리뷰)/Computer Vision' 카테고리의 다른 글
  • [논문 리뷰] [CV] Aggregated Residual Transformations for Deep Neural Networks
  • [논문 리뷰] [CV] Xception- Deep Learning with Depthwise Separable Convolutions
  • [논문 리뷰] [CV] SQUEEZENET: ALEXNET-LEVEL ACCURACY WITH50X FEWER PARAMETERS AND <0.5MB MODEL SIZE
  • [논문 리뷰] [CV] Deep Networks with Stochastic Depth
23학번이수현
23학번이수현
23학번이수현
밑바닥부터 시작하는 AI보안전문가
23학번이수현
전체
오늘
어제
  • 분류 전체보기 (243)
    • Statistic Study (47)
      • Mathematical Statistics(수리통.. (47)
    • Mathematics Study (15)
      • Linear Algebra (선형대수학) (15)
    • CS Study (74)
      • CLRS (자료구조 | 알고리즘) (49)
      • Database(DB) (11)
      • C++ (11)
      • 컴퓨터 구조 (2)
      • MongoDB (1)
    • DS Study (56)
      • CS 229(Machine Learning) (19)
      • CS 224n(NLP) (5)
      • Web Scraping (7)
      • R4DS(R언어) (20)
      • 밑바닥부터 시작하는 딥러닝 1 (5)
    • Hacking Study (0)
      • Web Hacking (0)
    • 코딩테스트 (5)
      • 백준-Python (5)
    • Paper Review(논문 리뷰) (43)
      • Deep Learning (16)
      • TCGA 관련 논문 (4)
      • Computer Vision (18)
      • NLP (5)

블로그 메뉴

  • 홈
  • 태그
  • 방명록

공지사항

인기 글

태그

  • 데이터분석
  • Data Structure
  • db
  • NLP
  • LSTM
  • Algorithms
  • C++
  • web scraping
  • 딥러닝
  • deep learning
  • 시간복잡도
  • 알고리즘
  • 논문 리뷰
  • 정렬
  • introduction to algoritmhs
  • AI
  • 자료구조
  • cs229
  • cs 224n
  • R언어
  • graph
  • Machine Learning
  • Introduction to Algorithms
  • 파이썬
  • 백준
  • 선형대수학
  • R4DS
  • 수리통계학
  • Linear Algebra
  • clrs

최근 댓글

최근 글

hELLO · Designed By 정상우.v4.2.2
23학번이수현
[논문 리뷰] [CV] Densely Connected Convolutional Networks
상단으로

티스토리툴바

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.