네, 뭔가 많죠? 저도 개인적으로 시간이 날 때 마다 조금씩 읽고 있습니다… NLP만 하다가 우연히 Diffusion을 2022년도에 접하고 개인적으로 공부하기 시작했슴다… 기본적으로 Vision과 NLP에 대한 기초를 다지고 시작하시는 것을 추천 드립니다.
아래 3 논문으로 Diffusion을 시작하시면 됩니다.
이 순서대로 보면, LDM까지 정확하게 다다르실 수 있을 것이라고 생각합니다.
나아가서 Diffusion 모델의 Sampling이라는 단점도 보완하는 아이디어들이 나오고 있습니다.
[2015] Deep Unsupervised Learning using Nonequilibrium Thermodynamics
[2019] Generative Modeling by Estimating Gradients of the Data Distribution(score-based generative modeling)
[2020] Denoising diffusion probabilistic models(DDPM)
[2021] Denoising diffusion implicit models(DDIM)
[2021] Diffusion Models Beat GANs on Image Synthesis(Conditioning추가)
[2021] Learning Transferable Visual Models From Natural Language Supervision(CLIP)
[2019] Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer(T5)
[2021] GLIDE: Towards Photorealistic Image Generation and Editing with Text-Guided Diffusion Models
[2021] Score-Based Generative Modeling through Stochastic Differential Equations(Score-based+DDPM 수식 증명)
[2021] Variational Diffusion Models(SNR)
[2022] Classifier-Free Diffusion Guidance
[2022] High-Resolution Image Synthesis with Latent Diffusion Models(Latent space 추가-LDM)
[2022] Elucidating the Design Space of Diffusion-Based Generative Models(Diffusion 실험 정리)
[2022] Tackling the Generative Learning Trilemma with Denoising Diffusion GANs(GAN+Diffusion)
[2023] Consistency Models(Sampling 속도 보완)
https://github.com/kwonminki/One-sentence_Diffusion_summary