딥러닝, 머신러닝
-
2018년에 나온 Depth Estimation 분야 논문으로 Encoder-Decoder 구조로 이루어진 모델입니다. Contributions transfer learning(전이 학습) 기반으로 깊이 추정 정확도/품질 향상 학습 더 빨리 진행되도록 loss 함수 개선 깊이 추정 일반화 성능 평가를 위한 합성된 실내 장면 데이터를 테스트셋으로 제안 관련 연구 multi-view : multi-view에서는 CNN을 이용한 stereo 재구성 방법이 최근 제안되었다. 이 논문에서는 단일 이미지 깊이 추정의 성능 향상에 초점을 맞춰서 진행하고 있다. transfer learning : 이미지 분류를 위해 설계된 모델을 인코더에 전이 학습으로 사용함 Encoder-Decoder : 이미지 segmentati..
High Quality Monocular Depth Estimation via Transfer Learning(DenseDepth) 논문리뷰2018년에 나온 Depth Estimation 분야 논문으로 Encoder-Decoder 구조로 이루어진 모델입니다. Contributions transfer learning(전이 학습) 기반으로 깊이 추정 정확도/품질 향상 학습 더 빨리 진행되도록 loss 함수 개선 깊이 추정 일반화 성능 평가를 위한 합성된 실내 장면 데이터를 테스트셋으로 제안 관련 연구 multi-view : multi-view에서는 CNN을 이용한 stereo 재구성 방법이 최근 제안되었다. 이 논문에서는 단일 이미지 깊이 추정의 성능 향상에 초점을 맞춰서 진행하고 있다. transfer learning : 이미지 분류를 위해 설계된 모델을 인코더에 전이 학습으로 사용함 Encoder-Decoder : 이미지 segmentati..
2022.04.14 -
Overfitting은 학습 데이터의 잡음 양에 비해 모델이 너무 복잡할 때 발생할 수 있다. 지나치게 학습데이터에 맞게 최적화된 형태이다. Overfitting의 해결 방법 - 파라미터 수가 더 적은 모델을 선택한다. - 학습 데이터에 있는 불필요한 특성을 제거하거나, 특성 수를 줄인다. - 모델에 제약(regularization)을 추가해서 단순화시킨다. (ex. 특정 모델 파라미터의 값이 0이 되도록 해서 곡선 -> 직선으로 만드는 방법 / 또는 파라미터 값의 범위에 제한을 둬서 좀 더 단순화할 수도 있다. / 학습 알고리즘의 하이퍼파라미터 조정을 통해 제한을 줄 수 있음 ) - 학습 데이터를 더 많이 수집한다. - 학습데이터의 noise를 줄인다. (이상치 제거, 오류 데이터 수정) Underfi..
Overfitting(과대적합), Underfitting(과소적합) 해결 방법Overfitting은 학습 데이터의 잡음 양에 비해 모델이 너무 복잡할 때 발생할 수 있다. 지나치게 학습데이터에 맞게 최적화된 형태이다. Overfitting의 해결 방법 - 파라미터 수가 더 적은 모델을 선택한다. - 학습 데이터에 있는 불필요한 특성을 제거하거나, 특성 수를 줄인다. - 모델에 제약(regularization)을 추가해서 단순화시킨다. (ex. 특정 모델 파라미터의 값이 0이 되도록 해서 곡선 -> 직선으로 만드는 방법 / 또는 파라미터 값의 범위에 제한을 둬서 좀 더 단순화할 수도 있다. / 학습 알고리즘의 하이퍼파라미터 조정을 통해 제한을 줄 수 있음 ) - 학습 데이터를 더 많이 수집한다. - 학습데이터의 noise를 줄인다. (이상치 제거, 오류 데이터 수정) Underfi..
2022.04.07 -
모델의 구조가 정말로 중요할까? 그동안의 SOTA 논문들을 보면, Skip-Connection, Transformer, Graph Convolution 또는 시공간 통합형 구조와 같은 네트워크 구조의 변형을 통해 성능 향상을 시킨 경우가 많다. 또는 여러 모델의 결과를 합쳐서 사용하는 앙상블 방법도 대회에서 성능 향상을 위해 많이 사용되고 있다. 그렇지만 앙상블은 여러 모델이 합쳐진 만큼 컴퓨팅 비용이 더 많이 들어가고, 같은 자원이라면 추론 속도는 더 늦어질 수밖에 없다. 이들의 개념 모두 좋은 걸 알겠지만 이게 딥러닝에서 절대적으로 중요한 것인가에 대한 의문점을 해결해준 논문이 아닌가 싶다. 이 논문은 경량화에 관해 다루고 있는데, 기존의 복잡한 모델이 가진 지식을 좀 더 단순화된 모델에 전달하는 것..
Distilling the Knowledge in a Neural Network모델의 구조가 정말로 중요할까? 그동안의 SOTA 논문들을 보면, Skip-Connection, Transformer, Graph Convolution 또는 시공간 통합형 구조와 같은 네트워크 구조의 변형을 통해 성능 향상을 시킨 경우가 많다. 또는 여러 모델의 결과를 합쳐서 사용하는 앙상블 방법도 대회에서 성능 향상을 위해 많이 사용되고 있다. 그렇지만 앙상블은 여러 모델이 합쳐진 만큼 컴퓨팅 비용이 더 많이 들어가고, 같은 자원이라면 추론 속도는 더 늦어질 수밖에 없다. 이들의 개념 모두 좋은 걸 알겠지만 이게 딥러닝에서 절대적으로 중요한 것인가에 대한 의문점을 해결해준 논문이 아닌가 싶다. 이 논문은 경량화에 관해 다루고 있는데, 기존의 복잡한 모델이 가진 지식을 좀 더 단순화된 모델에 전달하는 것..
2022.04.01 -
한줄요약 : 일반적으로 사용되는 커널 사이즈인 3x3을 31x31까지 늘려서 CNN 성능을 ViT와 거의 유사할 정도로 향상시켰다. Abstract 저자는 ViT의 최근 발전에 영감을 받아 작은 사이즈의 커널을 여러 개 쌓아 사용하는 것보다, 몇 개의 큰 컨볼루션 커널을 사용하는 게 더 강력한 패러다임이 될 수 있음을 증명했다. 일반적 커널 사이즈 3x3과 달리 31x31의 커널 사이즈를 사용한 RepLKNet을 제안함 성능 : ImageNet 87.8% top-1 정확도, ADE20K 56%의 mIoU 작은 커널사이즈를 가진 CNN보다 큰 커널 사이즈를 가진 CNN이 훨씬 더 넓고 효과적인 receptive field와 더 높은 shape bias를 가진다. Introduction 현재 비전에서 ViT..
Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs 논문리뷰한줄요약 : 일반적으로 사용되는 커널 사이즈인 3x3을 31x31까지 늘려서 CNN 성능을 ViT와 거의 유사할 정도로 향상시켰다. Abstract 저자는 ViT의 최근 발전에 영감을 받아 작은 사이즈의 커널을 여러 개 쌓아 사용하는 것보다, 몇 개의 큰 컨볼루션 커널을 사용하는 게 더 강력한 패러다임이 될 수 있음을 증명했다. 일반적 커널 사이즈 3x3과 달리 31x31의 커널 사이즈를 사용한 RepLKNet을 제안함 성능 : ImageNet 87.8% top-1 정확도, ADE20K 56%의 mIoU 작은 커널사이즈를 가진 CNN보다 큰 커널 사이즈를 가진 CNN이 훨씬 더 넓고 효과적인 receptive field와 더 높은 shape bias를 가진다. Introduction 현재 비전에서 ViT..
2022.03.21 -
2021년 12월, 최근 발표된 Vision Transformer 관련 논문으로 대량의 데이터가 필요한 기존의 ViT 문제를 해결한 논문입니다. 소규모 데이터셋에서도 scratch에서(처음부터) 학습할 수 있는 SPT(Shifted Patch Tokenization) 및 LSA(Locality Self-Attention) 모듈을 제안하여, ViT에 모두 적용하여 실험한 결과 대표적인 소형 데이터셋인 TinyImageNet(클래스별 500개 데이터, 총 200개 클래스)에서 평균 2.96%의 성능 향상, Swin Transformer는 4.08% 성능 향상 1. Introduction 기존 ViT의 문제점 1) 열악한 토큰화 : non-overlapping patches를 사용함으로 인해 visual to..
Vision Transformer for Small-Size Datasets 논문리뷰2021년 12월, 최근 발표된 Vision Transformer 관련 논문으로 대량의 데이터가 필요한 기존의 ViT 문제를 해결한 논문입니다. 소규모 데이터셋에서도 scratch에서(처음부터) 학습할 수 있는 SPT(Shifted Patch Tokenization) 및 LSA(Locality Self-Attention) 모듈을 제안하여, ViT에 모두 적용하여 실험한 결과 대표적인 소형 데이터셋인 TinyImageNet(클래스별 500개 데이터, 총 200개 클래스)에서 평균 2.96%의 성능 향상, Swin Transformer는 4.08% 성능 향상 1. Introduction 기존 ViT의 문제점 1) 열악한 토큰화 : non-overlapping patches를 사용함으로 인해 visual to..
2022.01.06 -
그림 1의 a 이미지처럼 조도가 낮은 상태에서 촬영된 이미지를 enhance 시키는 task를 다루고 있는 논문입니다. 코드는 2021년 12월 기준으로 아직 업데이트되어있지 않은 상태입니다. 1. Introduction 저조도 이미지 향상을 다루는 CNN 기법들에는 pair(쌍) 데이터가 필요하지만, 실제 환경에서 이런 형식의 데이터를 준비하기는 매우 어렵다. 그래서 pair가 없는 Unsupervised Learning 방식들도 생겨났지만, Overfitting이 심한 결과를 보이고 있다. 해당 논문에서는 히스토그램 균등화 사전(HEP)를 기반으로 하는 Unsupervised 이미지 향상 알고리즘을 제안함 2. Related Work Conventional Methods (기존의 저조도 영상 개선 방..
Unsupervised Low-Light Image Enhancement via Histogram Equalization Prior그림 1의 a 이미지처럼 조도가 낮은 상태에서 촬영된 이미지를 enhance 시키는 task를 다루고 있는 논문입니다. 코드는 2021년 12월 기준으로 아직 업데이트되어있지 않은 상태입니다. 1. Introduction 저조도 이미지 향상을 다루는 CNN 기법들에는 pair(쌍) 데이터가 필요하지만, 실제 환경에서 이런 형식의 데이터를 준비하기는 매우 어렵다. 그래서 pair가 없는 Unsupervised Learning 방식들도 생겨났지만, Overfitting이 심한 결과를 보이고 있다. 해당 논문에서는 히스토그램 균등화 사전(HEP)를 기반으로 하는 Unsupervised 이미지 향상 알고리즘을 제안함 2. Related Work Conventional Methods (기존의 저조도 영상 개선 방..
2021.12.17