본문 바로가기

전체 글39

[DL - 논문 리뷰] Subspace Regularizers for Few-shot Class Incremental Learning 이번 포스팅에서는 ICLR 2022에서 공개 된, Afra Feyza Akurek의 "Subspace Regularizers for Few-shot Class Incremental Learning"을 읽고 정리해 보도록 하겠습니다. 1. Introduction Classification 문제에서 보통은 고정된 데이터셋과 고정된 class label을 가정합니다. 이런 가정은 현실 문제와는 다소 동떨어질 수 있습니다. Classifier는 상황에 따라 새로운 지식을 학습해야할 경우가 존재하고 이전 학습에 사용된 데이터는 사용 불가능 할 수도 있습니다. 이러한 few-shot class-incremental learning (FSCIL) 환경에서는 위의 상황처럼 이전 데이터는 사용 불가능하면서, 새로운 지식.. 2022. 3. 14.
[DL - 논문 리뷰] GAN Memory with No Forgetting 이번 포스팅에서는 Yulai Cong이 NeurIPS 2020에서 발표한 "GAN Memory with No Forgetting"을 읽고 정리해보도록 하겠습니다. 1. Introduction Lifelong learning 또는 continual learning은 모델에게 새로운 지식을 학습시키는 것 입니다. 그 과정에서 기존에 학습했던 지식은 까먹어서는 안됩니다. 보통의 경우 새로운 task를 학습시키면 기존 task는 잊어버리기 쉬운데, 이런 현상을 catastrophic forgetting이라 하고, lifelong learning은 이 catastrophic forgetting을 해결하는 데 초점을 두고 있습니다. Catastrophic forgetting을 해결하기 위해 classificatio.. 2022. 2. 27.
[DL] GAN을 평가하는 방법 - IS, FID, LPIPS 이번 포스팅에서는 GAN을 평가하는 데 주로 사용되는 metric인 IS, FID 그리고 LPIPS에 대해 알아보도록 하겠습니다. GAN은 두가지 관점에서 평가됩니다. Quality: 실제 이미지와 유사한 이미지가 생성되는가 Diversity: 여러 noise vector에 걸쳐 다양한 이미지가 생성되는가 앞으로 소개해 드릴 metric들은 위 두가지 관점에서 GAN을 평가하기 위해 사용됩니다. Inception Score (IS) IS는 ImageNet pretrained model인 inception-v3를 이용하여 GAN을 측정합니다. IS를 계산하기 위해 두가지 확률이 필요한데 하나는 조건부 확률 \(P(y|x)\)로 생성된 이미지 x에 대해서 어떤 클래스에 속할지 예측하는 것입니다. 고품질의 이.. 2022. 2. 20.
[DL - 논문 리뷰] LoFGAN: Fusing Local Representations for Few-Shot Image Generation 이번 포스팅에서는 Zheng Gu가 ICCV 2021에서 발표한 "LoFGAN: Fusing Local Representations for Few-shot Image Generation"을 읽고 정리해 보도록 하겠습니다. 1. Introduction Few-shot image generation 문제에서의 목표는 적은 수의 novel category의 이미지가 주어졌을 때 해당 category에 대한 다양한 이미지를 생성해 내는 것입니다. 이때, 일반적으로 GAN들은 충분한 labeled category와 이미지가 있는 보조 데이터셋을 사용하여 학습시킵니다. 그다음 학습에 사용되지 않은 unseen category의 이미지 몇 장을 주어주고 다양한 이미지를 생성하도록 합니다. Few-shot image .. 2022. 2. 3.
[DL - 논문 리뷰] Towards Faster and Stabilized GAN Training for High-fidelity Few-shot Image Synthesis 이번 포스팅에서는 Bingchen Liu가 ICLR 2021 에서 발표한 "Towards Faster and Stabilized GAN Training for High-fidelity Few-shot Image Synthesis"를 읽고 정리해 보도록 하겠습니다. 1. Introduction 대부분의 SotA GAN은 연산량이 많고, 많은 학습 데이터를 필요로 하기 때문에 데이터의 수가 적고 컴퓨팅 자원이 한정되어있는 경우에서는 적용시키기 어렵습니다. 희귀병에 대한 의료 이미지나, 특정 연예인의 사진, 특정한 화가의 그림 등의 경우와 같이 데이터의 수가 한정되어 있는 경우에는 주로 pre-trained model을 transfer learning하여 해결하려고 시도합니다. 그러나 pre-training .. 2022. 1. 26.
[DL - 논문 리뷰] Meta-Learning with Task-Adaptive Loss Function for Few-Shot Learning 이번 포스팅에서는 Sungyong Baik이 ICCV 2021에서 발표한 "Meta-Learning with Task-Adaptive Loss Function for Few-Shot Learning"을 읽고 정리해 보도록 하겠습니다. 1. Introduction 최근에 meta-learning 방법은 few-shot learning의 한 방법으로 대두되고 있습니다. Meta-learning 중 optimization-based meta-learning은 종종 bi-optimization으로 표현됩니다. Bi-optimization은 일반화 성능을 향상시키기 위한 outer-loop optimization과 적은 데이터를 갖고 있는 태스크에서의 학습을 위한 inner-loop optimization으로 이.. 2022. 1. 24.