분류 전체보기 (59) 썸네일형 리스트형 신호 처리 공부 [1] Introduction 비전공자인 저는 전반적으로 혁펜하임님의 영상을 기반으로 공부합니다. https://www.youtube.com/channel/UCcbPAIfCa4q0x7x8yFXmBag 혁펜하임 신호 처리 관련 강의 영상들 오픈채팅방 링크: https://open.kakao.com/o/gupzbfDb 참여코드: 1100 www.youtube.com Euler Formula 우선 오일러 공식이 어떻게 생겼는지, 어떤 방식으로 대략 유도할 수 있는지에 대해 살펴보고 어떤 의의를 갖는지 봅시다. $$ e^{j\theta} = cos\theta + jsin\theta $$ 이 식은 테일러 급수의 특수한 케이스인 매클로린 시리즈로 표현이 가능합니다. 혹시 모르시는 분을 위해 위키피디아 링크를 올려놓겠습니다. https://ko... Flow++ : Improving Flow-Based Generative Models with Variational Dequantization and Architecture Design - 개인적으로 배울게 많은 논문이었습니다. Abstract Flow based : efficiency에도 불구하고 autoregressive보다는 dnesity modeling 성능이 더 안좋습니다. 논문에선 이에 대한 개선 해야할 점으로 세가지를 뽑았는데, 1. Uniform noise를 통한 dequantization 2. Inexpressive affine flows 3. Convolutional conditioning network 위 세가지 사항에 대해 개선하는 방향으로 논문이 진행됩니다. Change of Variables pdf의 변수 변환 대해 다시한번 봐봅시다. 우선 한가지 fact에 기반해서 유도하게 됩니다. Fact : Differential Area는 변수치환을 하더라도 불변한다. .. Glow : Generative Flow with Invertible 1 x 1 Convolutions Abstract Flow based model은 tractability라는 특성을 가지고 있어서 굉장히 매력적이고 연구할 가치가 있습니다. 여기에서 tractability는 exact log-likelihood, exact latent variable inference에 대한 tractability를 의미합니다. 그리고 Flow based model이 메리트를 갖으면서 작동하기 위해서는 이전 NICE 논문 포스팅과 Real NVP 논문 포스팅에서 계속 언급해왔듯이 Invertible 해야하고 변수가 바뀌면서 나타나는 volume의 변화를 쉽게 구할 수 있어야 합니다. 이로 인해 Flow based model이 갖을 수 있는 메리트는 근사가 아닌 invertible transformation을 통해 exa.. Density Estimation Using Real NVP 저번 포스팅했던 NICE에 이어 Real NVP에 대한 설명을 하고자 합니다. Real NVP란 real-valued non-volume preserving transformation을 사용했단 뜻인데, NICE에서는 transformation을 적용할 때 단순 더하기로 진행했기 때문에 volume을 보존하는 성질을 지녔습니다. 이런 이슈때문에 x->z 로 가는 방향 기준 마지막에 scaling layer를 구성했습니다. 이 논문에서는 단순 더하기가 아닌 volume을 보존하지 않는 transformation을 차용했습니다. 아이디어 자체는 어렵지 않아서 구현도 그저 어렵지 않겠지라 생각했는데, 구현이 어렵더군요. 여기저기 구현된 것을 찾아보니 클래스에 대한 재귀호출로 쉽게 풀어냈긴 했더라구요. 저는 반.. NICE : Non-linear Independent Components Estimation Abstract 논문에서는 complex high-dimensional densities를 모델링 하는 NICE를 소개합니다. 주어진 데이터들에 대해서, 적당한 latent space로 보내는 non-linear deterministic tarnsformation을 학습합니다. 이러한 transformation을 jacobian의 행렬식 그리고 jacobian의 역이 유일하게 하면서 complex non-linear transformation을 갖도록 구성합니다. training criterion은 exact log-likelihood이므로 굉장히 tractable 한 것이 장점입니다. Introduction Good representation이란 뭘까요? 바로 data에 대한 distribution이 .. PixelCNN의 실행 흐름 Instruction PixelRNN은 VAE, GAN과 같이 latent를 받아서 image x를 생성하는 것들과는 다른 방법을 통해 이미지를 생성한다. 이 PixelRNN 전반적인 conditional에 대한 내용 등은 논문 및 포스트들에 잘 설명되어있다. 이 블로그에선 PixelRNN 중 하나인 PixelCNN의 구현에 대해서 정리해보고자한다. Implementation 우선 구현체에 대해 요약해서 말해보자면 Input으로 [-1, 1] 구간의 값을 갖는 Image를 받아서 output으로 input으로 들어온 image의 bit 형식에 맞게 (8비트 -> 256) 개수의 클래스를 갖도록 한다. 이는 각 픽셀, 채널 당의 값을 클래스로서 갖도록 하기 위함이다. 위 내용을 간단히 shape으로 표기하.. Generating Diverse High-Fidelity Images with VQ-VAE2 이전 포스팅 했던 VQ-VAE를 보완했던 논문인 VQ-VAE-2 에 대한 논문입니다. Abstract VQ-VAE는 compresse된 latent space에서 autoregressive 방법을 이용하여 sampling 됩니다. 논문에 따르면 이 방법이 large images의 큰 pixel space에서 샘플링 할 경우 훨씬 빠르다고 합니다. 이 논문에서 제시하는 바는 multi scale hierarchical 형태의 VQ-VAE 입니다. 계층적 구조의 VQ-VAE는 latent codes에 대해 굉장히 강력한 priors를 갖게 됩니다. 이는 quality를 굉장히 좋게 뽑아내는 GAN과 비견될 정도의 좋은 이미지를 생성하도록 해줍니다. 게다가 GAN의 단점인 mode collapse, lack .. Neural Discrete Representation Learning : VQ-VAE Abstract VQ-VAE와 기존 VAE와는 다른 점이 두가지 존재합니다. Encoder Network의 output이 discrete하다. 그리고 prior는 정적이기 보단, discrete representation을 학습한다. Vector Quantization을 사용한다. 이를 사용해보니 Posterior Collapse가 완화되었다. Introduction 이 논문에서의 논점은 maximum likelihood에 대해 optimize하면서 latent space에서 data의 중요한 features를 보존하는 것입니다. 이 말을 보면 무슨 말인지 이해가 안갈 수 있습니다. 그렇다면 포스트를 한번 쭉 읽어보고 다시 이 문장을 봐보면 이해가 갈 것입니다. 여기에서 중요한 점은 discrete하고 .. 이전 1 2 3 4 5 6 ··· 8 다음