논문 리뷰/Classification3 [논문 리뷰] MobileNetV1 & MobileNetV2 https://arxiv.org/pdf/1801.04381.pdf MobileNetV2: Inverted Residuals and Linear Bottlenecks https://arxiv.org/pdf/1704.04861.pdf MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications 위 논문을 참고하여 작성하였다. MobileNetV1 MobileNetV1은 light weight deep neural network, depthwise separable convolution을 통해 모델 경량화에 집중하였다. 모델 경량화에 집중한 이유로는 저용량 메모리 환경인 핸드폰과 같은 곳에 딥러닝을 적용하기 위해서이다. 메.. 2022. 4. 2. [논문 리뷰] ResNet Deep Residual Learning for Image Recognition https://arxiv.org/pdf/1512.03385.pdf 논문을 참고하여 작성하였다. Introduction 저번 VGGNet에서 CNN의 layer가 깊어질수록 성능이 좋아지는 것을 확인할 수 있었지만, VGGNet-19에서 오차율이 떨어지지 않는 것을 확인할 수 있었다. Layer가 더 깊어지면 Vanishing/Exploding gradient 현상이 발생하는데, 정확도가 어느 순간 정체되고 layer가 깊어질수록 성능이 더 나빠지는 현상인 Degradation problem이라는 문제점이 발생하게 된다. Vanishing/Exploding gradient의 경우 layer 중간에 BatchNorm 을 적용해주.. 2022. 3. 31. [논문 리뷰] VGGNet Very Deep Convolutional Networks for Large-Scale Image Recognition https://arxiv.org/pdf/1409.1556.pdf 논문을 바탕으로 요약/정리 Abstract VGGNet은 CNN 모델로 네트워크의 깊이가 모델 성능에 중요한 역할을 한다는 것을 보여줬다. VGGNet의 필터 크기는 3, stride는 1, zero padding 1의 convolution layer로 이루어져 있으며, max-pooling layer로는 필터 크기 2, 패딩 없음을 사용한다. 비록 GoogLeNet 보다 이미지 분류 성능은 낮지만, 다른 연구에서는 좋은 성능을 보이며 이미지 특징을 추출하는 데 이용되는 등 기본 네트워크 모델로 활용되고 있다. 그러나 많은.. 2022. 3. 30. 이전 1 다음