딥러닝, 머신러닝/생성 모델
-
대표적인 생성 모델인 GAN에 대해 알아보겠습니다. 기본적인 모델은 random noise를 입력으로 사용한다고 가정합니다. GAN은 generator가 만든 이미지가 discriminator가 가진 참값 이미지에 포함이 되는지를 판단하는 역할을 하는 구조입니다. ——————— Objective function (목적함수) binary cross entropy loss (scalar 값, 0~1 사이, positive class가 될 확률) 일반적인 로그 함수는 위 그림을 세로로 뒤집은 형태로, x 축 커질수록 y축 커지는 지수 함수의 모양이 나온다. negative log likelihood 이를 loss minimize에 적용하기 위해 -log(negative log likelihood) 하면, po..
GAN 모델 기초대표적인 생성 모델인 GAN에 대해 알아보겠습니다. 기본적인 모델은 random noise를 입력으로 사용한다고 가정합니다. GAN은 generator가 만든 이미지가 discriminator가 가진 참값 이미지에 포함이 되는지를 판단하는 역할을 하는 구조입니다. ——————— Objective function (목적함수) binary cross entropy loss (scalar 값, 0~1 사이, positive class가 될 확률) 일반적인 로그 함수는 위 그림을 세로로 뒤집은 형태로, x 축 커질수록 y축 커지는 지수 함수의 모양이 나온다. negative log likelihood 이를 loss minimize에 적용하기 위해 -log(negative log likelihood) 하면, po..
2022.05.30 -
확률 밀도 함수 추정 64x64x3 과 같은 input 이미지가 있을 때, 1차원의 vector로 만들어서 그에 따른 값을 추정하는 확률 분포 x, y가 어떤 값일 때 나올 수 있는 확률값 (아래 이미지의 바닥면이 x, y이고 확률값이 수직면이라 보면 된다) VAE의 이해 1. Autoencoder 정보 압축 및 복원을 위한 모델 2. VAE Autoencoder의 확률론 기반 변형 encoder의 output vector가 확률 변수로 모델링되어, 샘플링과정을 통해 추출된 벡터(평균, 분산/표준편차의 추정치)가 디코더의 입력으로 사용됨 loss 출력 이미지와 입력 이미지 차이 KL (KL Diversions term) : dimension별로의 평균/표준편차가 표준정규분포(평균 0, 분산 1)에 가깝도..
생성 모델의 기초확률 밀도 함수 추정 64x64x3 과 같은 input 이미지가 있을 때, 1차원의 vector로 만들어서 그에 따른 값을 추정하는 확률 분포 x, y가 어떤 값일 때 나올 수 있는 확률값 (아래 이미지의 바닥면이 x, y이고 확률값이 수직면이라 보면 된다) VAE의 이해 1. Autoencoder 정보 압축 및 복원을 위한 모델 2. VAE Autoencoder의 확률론 기반 변형 encoder의 output vector가 확률 변수로 모델링되어, 샘플링과정을 통해 추출된 벡터(평균, 분산/표준편차의 추정치)가 디코더의 입력으로 사용됨 loss 출력 이미지와 입력 이미지 차이 KL (KL Diversions term) : dimension별로의 평균/표준편차가 표준정규분포(평균 0, 분산 1)에 가깝도..
2022.05.29