본문 바로가기

Convolutional Neural Network4

[DL - 논문 리뷰] Few-Shot Image Classification: Just Use a Library of Pre-trained Feature Extractors and a Simple Classifier 이번 포스팅에서는 Arkabandu Chowdhury가 ICCV 2021에서 발표한 "Few-Shot Image Classification: Just Use a Library of Pre-trained Feature Extractors and a Simple Classifier"을 읽고 정리해 보도록 하겠습니다. 1. Introduction Few-shot classification의 few-shot learner는 먼저 학습 데이터셋에 대해 학습을 시키고, 적은 양(few)의 데이터만으로 few distribution의 데이터에 대해 잘 일반화하는 것이 학습 목적입니다. 이때, 어떤 few distribution을 사용해야 할 지 모르므로, 본 논문에서는 최대한 다양한 feature를 가진 데이터셋에서.. 2022. 1. 21.
[DL - 논문 리뷰] Very Deep Convolutional Networks for Large-Scale Image Recognition(VGG) 이번 포스팅에서는 VGG로 알려져 있는 Karen Simonyan & Andrew Zisserman이 2014년에 발표한 "Very Deep Convolutional Networks for Large-Scale Image Recognition"을 읽고 정리해 보도록 하겠습니다. VGG는 ILSVRC-2014에서 top-5 error rate 7.3%로 2위를 차지했습니다. 1. Introduction CNN은 대규모의 데이터셋(ImageNet), 고성능의 컴퓨팅 자원(GPU), 분산 클러스터링 등 덕분에 large-scale 이미지와 비디오 인식 분야에서 큰 성공을 거두고 있습니다. AlexNet을 이후로 kernel size와 stride를 줄이는 방식(ZFNet, OverFeat)으로 성능이 개선되고.. 2021. 12. 5.
[DL - 논문 리뷰] ImageNet Classification with Deep Convolutional Neural Networks(AlexNet) 이번 포스팅에서는 AlexNet이라고 알려져 있는 Alex Krizhevsky가 2012년에 소개한 "ImageNet Classification with Deep Convolutional Neural Networks"를 읽고 정리해 보도록 하겠습니다. AlexNet은 ILSVRC-2010에서는 top-1 error rate 37.5%, top-5 error rate 17.0%, ILSVRC-2012에서는 top-1 error rate(validation set) 36.7%, top-5 error rate 15.3%의 성과를 거뒀습니다. 1. Introduction 이전까지의 데이터셋의 크기는 수만 장 정도로 상대적으로 매우 적었습니다. 그렇기 때문에 MNIST 데이터셋처럼 label을 유지하며 augme.. 2021. 11. 28.
[DL - 논문 리뷰] Gradient-Based Learning Applied to Document Recognition(LeNet-5) 이번 포스팅에서는 LeNet-5라고 알려져 있는 Yann LeCun이 1998년에 발표한 "Gradient-Based Learning Applied to Document Recognition"을 읽고 정리해 보도록 하겠습니다. I. Introduction 본 논문에서 시사하고자 하는 바는 사람이 일일이 설계한 특징(?)들에 의존하기보단, 자동화된 학습(automatic learning)에 의존하는 것이 패턴인식에 더 효과적이라는 것입니다. Introduction에서는 두 가지 케이스를 제시했습니다. 첫 번째는 character recognition이고, 두 번째는 document understanding입니다. character recognition의 경우 독립된 하나의 글자를 인식하는 문제입니다. 이러.. 2021. 10. 9.