본문 바로가기

ImageNet6

[DL - 논문 리뷰] GAN Memory with No Forgetting 이번 포스팅에서는 Yulai Cong이 NeurIPS 2020에서 발표한 "GAN Memory with No Forgetting"을 읽고 정리해보도록 하겠습니다. 1. Introduction Lifelong learning 또는 continual learning은 모델에게 새로운 지식을 학습시키는 것 입니다. 그 과정에서 기존에 학습했던 지식은 까먹어서는 안됩니다. 보통의 경우 새로운 task를 학습시키면 기존 task는 잊어버리기 쉬운데, 이런 현상을 catastrophic forgetting이라 하고, lifelong learning은 이 catastrophic forgetting을 해결하는 데 초점을 두고 있습니다. Catastrophic forgetting을 해결하기 위해 classificatio.. 2022. 2. 27.
[DL] GAN을 평가하는 방법 - IS, FID, LPIPS 이번 포스팅에서는 GAN을 평가하는 데 주로 사용되는 metric인 IS, FID 그리고 LPIPS에 대해 알아보도록 하겠습니다. GAN은 두가지 관점에서 평가됩니다. Quality: 실제 이미지와 유사한 이미지가 생성되는가 Diversity: 여러 noise vector에 걸쳐 다양한 이미지가 생성되는가 앞으로 소개해 드릴 metric들은 위 두가지 관점에서 GAN을 평가하기 위해 사용됩니다. Inception Score (IS) IS는 ImageNet pretrained model인 inception-v3를 이용하여 GAN을 측정합니다. IS를 계산하기 위해 두가지 확률이 필요한데 하나는 조건부 확률 \(P(y|x)\)로 생성된 이미지 x에 대해서 어떤 클래스에 속할지 예측하는 것입니다. 고품질의 이.. 2022. 2. 20.
[DL - 논문 리뷰] Few-Shot Image Classification: Just Use a Library of Pre-trained Feature Extractors and a Simple Classifier 이번 포스팅에서는 Arkabandu Chowdhury가 ICCV 2021에서 발표한 "Few-Shot Image Classification: Just Use a Library of Pre-trained Feature Extractors and a Simple Classifier"을 읽고 정리해 보도록 하겠습니다. 1. Introduction Few-shot classification의 few-shot learner는 먼저 학습 데이터셋에 대해 학습을 시키고, 적은 양(few)의 데이터만으로 few distribution의 데이터에 대해 잘 일반화하는 것이 학습 목적입니다. 이때, 어떤 few distribution을 사용해야 할 지 모르므로, 본 논문에서는 최대한 다양한 feature를 가진 데이터셋에서.. 2022. 1. 21.
[DL - 논문 리뷰] Going Deeper with Convolutions(GoogLeNet) 이번 포스팅에서는 GoogLeNet이라고 알려져 있는 Christian Szegedy가 CVPR 2015에서 발표한 "Going Deeper with Convolutions" 를 읽고 리뷰해 보도록 하겠습니다. GoogLeNet은 본 논문에서 소개될 Inception 모듈의 한 형태(incarnation)이며, ILSVRC 2014에서 top-5 error 6.67%로 우승을 차지했습니다. 1. Introduction 최근 3년간(2012~2015) CNN 분야는 급속도로 발전해 왔습니다. 이러한 발전은 대개 하드웨어의 발전뿐만 아니라 주로 네트워크 구조에 대한 기발한 아이디어가 원인입니다. 본 논문에서 소개될 GoogLeNet은 AlexNet에 비해 12배 작은 파라미터를 가지면서 더 정확한 성능을 냈.. 2022. 1. 2.
[DL - 논문 리뷰] Very Deep Convolutional Networks for Large-Scale Image Recognition(VGG) 이번 포스팅에서는 VGG로 알려져 있는 Karen Simonyan & Andrew Zisserman이 2014년에 발표한 "Very Deep Convolutional Networks for Large-Scale Image Recognition"을 읽고 정리해 보도록 하겠습니다. VGG는 ILSVRC-2014에서 top-5 error rate 7.3%로 2위를 차지했습니다. 1. Introduction CNN은 대규모의 데이터셋(ImageNet), 고성능의 컴퓨팅 자원(GPU), 분산 클러스터링 등 덕분에 large-scale 이미지와 비디오 인식 분야에서 큰 성공을 거두고 있습니다. AlexNet을 이후로 kernel size와 stride를 줄이는 방식(ZFNet, OverFeat)으로 성능이 개선되고.. 2021. 12. 5.
[DL - 논문 리뷰] ImageNet Classification with Deep Convolutional Neural Networks(AlexNet) 이번 포스팅에서는 AlexNet이라고 알려져 있는 Alex Krizhevsky가 2012년에 소개한 "ImageNet Classification with Deep Convolutional Neural Networks"를 읽고 정리해 보도록 하겠습니다. AlexNet은 ILSVRC-2010에서는 top-1 error rate 37.5%, top-5 error rate 17.0%, ILSVRC-2012에서는 top-1 error rate(validation set) 36.7%, top-5 error rate 15.3%의 성과를 거뒀습니다. 1. Introduction 이전까지의 데이터셋의 크기는 수만 장 정도로 상대적으로 매우 적었습니다. 그렇기 때문에 MNIST 데이터셋처럼 label을 유지하며 augme.. 2021. 11. 28.