본문 바로가기

Deep Learning20

[DL - 논문 리뷰] A Style-Based Generator Architecture for Generative Adversarial Networks (StyleGAN) 이번 포스팅에서는 Karras et al.이 CVPR 2019에서 발표한 "A Style-Based Architecture for Generative Adversarial Networks" 를 읽고 정리해보도록 하겠습니다. 해당 논문은 StyleGAN으로 잘 알려져 있으며 이후 발표된 StyleGAN2, 3 모두 SOTA를 달성하고 있고 현재 GAN을 대표하고 있습니다. StyleGAN은 PGGAN을 베이스로 연구되었습니다. 1. Introduction GAN을 이용하여 생성하는 이미지의 품질과 해상도는 급격하게 증가하고 있습니다. 그러나, 이러한 GAN들은 실제로 어떻게 작동되는지 알 수 없는 blackbox와 같고, latent space에 대한 속성들은 잘 설명되지 않습니다. Style transf.. 2022. 8. 3.
[DL - 논문 리뷰] Progressive Growing of GANs for Improved Quality, Stability, and Variation (PGGAN) 이번 포스팅에서는 Tero Karras et al.이 ICLR 2018에서 발표한 "Progressive Growing of GANs for Improved Quality, Stability, and Variation"을 읽고 리뷰해보도록 하겠습니다. PGGAN은 현재 GAN 분야에서 sota를 달성하고 있는 StyleGAN 시리즈의 기반이 되었습니다. 1. Introduction GAN을 이용하여 고해상도의 이미지를 생성하는 것은 아주 어려운 태스크입니다. 고해상도의 이미지를 생성하도록 generator를 학습시키는 경우 학습 이미지의 distribution과 학습 결과 생성된 이미지의 distribution의 차이가 커집니다. 또한 고해상도의 이미지는 같은 자원에서 저해상도의 이미지보다 적은 배치사이.. 2022. 7. 29.
[DL - 논문 리뷰] Few Shot Generative Model Adaption via Relaxed Spatial Structural Alignment 이번 포스팅에서는 CVPR 2022에서 발표된 Jiayu Xiao et al.의 "Few Shot Generative Model Adaption via Relaxed Spatial Structural Alignment"를 읽고 정리해 보도록 하겠습니다. 1. Introduction 본 논문에서는 few-shot image generation을 다루고 있습니다. Few-shot image generation을 다룬 최근의 논문인 Ojha et al. 의 논문(IDC)에서 크게 두 가지의 문제점을 지적합니다. 첫번째는 identity degradation으로 source domain에서에 비해 target domain으로 전이되었을 때 identity가 떨어진다는 점입니다. 두번째는 unnatural dis.. 2022. 7. 23.
[DL] PyTorch에서의 Reproductibility 보장하기 PyTorch를 비롯한 많은 딥러닝 프레임워크는 weight initialization 부터 시작하여 수많은 요소가 랜덤하게 적용된다. 연구나 모델링 대회(Kaggle, Dacon 등)을 진행할 때 중요한 것중 하나는 코드의 재현성(reproductibility)을 확보하는 것이다. 연구나 대회를 진행함에 있어 성능 변화가 실제로 코드 수정에 의한 것인지, 아니면 랜덤한 요소 때문에 운좋게 혹은 운나쁘게 성능이 변화한 것인지 구분하기가 어렵다. 그렇기 때문에 주로 시드를 고정하는 방식으로 재현성을 확보하는 방법이 일반적이다. PyTorch에서의 reproductibility import torch seed = 0 torch.manual_seed(seed) torch.cuda.manual_seed(seed.. 2022. 7. 22.
[DL - 논문 리뷰] Subspace Regularizers for Few-shot Class Incremental Learning 이번 포스팅에서는 ICLR 2022에서 공개 된, Afra Feyza Akurek의 "Subspace Regularizers for Few-shot Class Incremental Learning"을 읽고 정리해 보도록 하겠습니다. 1. Introduction Classification 문제에서 보통은 고정된 데이터셋과 고정된 class label을 가정합니다. 이런 가정은 현실 문제와는 다소 동떨어질 수 있습니다. Classifier는 상황에 따라 새로운 지식을 학습해야할 경우가 존재하고 이전 학습에 사용된 데이터는 사용 불가능 할 수도 있습니다. 이러한 few-shot class-incremental learning (FSCIL) 환경에서는 위의 상황처럼 이전 데이터는 사용 불가능하면서, 새로운 지식.. 2022. 3. 14.
[DL - 논문 리뷰] GAN Memory with No Forgetting 이번 포스팅에서는 Yulai Cong이 NeurIPS 2020에서 발표한 "GAN Memory with No Forgetting"을 읽고 정리해보도록 하겠습니다. 1. Introduction Lifelong learning 또는 continual learning은 모델에게 새로운 지식을 학습시키는 것 입니다. 그 과정에서 기존에 학습했던 지식은 까먹어서는 안됩니다. 보통의 경우 새로운 task를 학습시키면 기존 task는 잊어버리기 쉬운데, 이런 현상을 catastrophic forgetting이라 하고, lifelong learning은 이 catastrophic forgetting을 해결하는 데 초점을 두고 있습니다. Catastrophic forgetting을 해결하기 위해 classificatio.. 2022. 2. 27.