View All

    CNN Networks using Attention

    https://www.youtube.com/watch?v=Dvi5_YC8Yts&t=1717s 도움이 되는 다른 포스트 https://nuguziii.github.io/survey/S-003/ Self-Attention and Gating Mechanisms in Computer Vision Self-Attention and Gating Mechanisms 에 대한 개념 및 관련 논문들을 정리한 글입니다. nuguziii.github.io

    Image Style Transfer

    잘 정리된 자료들이 너무 많아서 링크로 대체 Image Style Transfer using Convolutional Neural Networks (CVPR 2016) [pdf] [youtube] Instance Normalization:The Missing Ingredient for Fast Stylization [pdf] Arbitrary Style Transfer in Real-time with Adaptive Instance Normalization (ICCV 2017) [pdf] [youtube] Arbitrary Style Transfer with Style-Attentional Networks (CVPR 2019) [pdf] Blog Posting - Image Translation과 Con..

    Batch Norm, Layer Norm, Instance Norm, Group Norm

    다양한 Normalization 기법들이 있어서 정리하고자 포스팅한다. Network layer의 output을 normalize 하는 경우 트레이닝 타임이 크게 감소하고, 학습이 잘 된다. 잘 되는 이유에는 초기에는 Internal Covariate Shift를 제거한다는 쪽으로 설명이 되다가, 사실이 아님이 수학적으로 증명되었고 Loss function의 smoothness를 증가시키는 것이 주된 이유로 설명되고 있다. Batch Norm이 표준으로 사용되고 있으나, Multi-GPU training 등의 적용과 모델 사이즈가 커짐으로 인해 GPU당 할당되는 Mini-batch의 수가 줄어드는 경우, mini-batch와 original data 사이의 괴리가 커져 모델이 효율적으로 학습되기 어려운 ..

    Representation Learning, Feature Learning in Computer Vision

    Representation Learning TL;DR; (짧은 요약) Representation Learning 은 좋은 Feature를 학습하기 위해 도입되는 여러 테크닉들을 총칭하며, 물론 labeled data를 활용하여 학습시킬수도 있지만, 대용량의 unlabeled data를 이용하여 self-supervised 방식으로 학습된다 ResNet으로 학습된 가중치의 일부를 고정하고 사용하는것과 같은 방식도 결국 학습된 Repersentation을 이용하는것 Feature를 학습하는것이 목표이지만 우리가 feature 자체에 supervision을 줄 수 없으므로, 다양한 Task에 대해 학습시키면서 그 와중에 feature가 잘 학습되길 기대하는 것이며 그런 학습 목적들을 Pretext task라고..

    Meta Learning의 정의와 그 분류

    https://rhcsky.tistory.com/5 Meta Learning 학습하는 과정을 학습하다. Meta learning은 현재 AI에서 가장 유망하고 트렌디한 연구분야로 AGI(Artificial General Intelligence)로 나아갈 수 있는 매우 중요한 디딤돌이라고 볼 수 있다. AGI란 ‘일반 인공 rhcsky.tistory.com

    Geometric Transformations

    잘 정리된 포스트 https://darkpgmr.tistory.com/79 https://gaussian37.github.io/vision-concept-geometric_transformation/ [영상 Geometry #3] 2D 변환 (Transformations) (3D 비전 geometry 3번째 파트 2D 변환입니다) 3. 2D 변환 (2D Transformations) 변환에 대해서는 2D 변환과 3D 변환을 구분해서 설명하겠습니다. 2D 변환은 detection 또는 tracking 문제에 있어서 아래 그림과.. darkpgmr.tistory.com 이미지 Geometric Transformation 알아보기 gaussian37's blog gaussian37.github.io 참고하면 ..

    리서치 아이디어를 얻는 법

    출처 : https://twitter.com/jbhuang0604/status/1423499757591400448 Jia-Bin Huang on Twitter “How to come up with research ideas? Excited about starting doing research but have no clue?🤷‍♂️🤷🏻‍♀️ Here are some simple methods that I found useful in identifying initial directions. Check out the thread below 👇” twitter.com Find a different dimension Just learn a cool idea from others? Think about how yo..

    Retinex Theory, single scale retinex, multi scale retinex

    출처 : https://kipl.tistory.com/65 Retinex 알고리즘 Retinex 알고리즘은 영상의 contrast를 향상하거나, sharpness를 증진시킬 때 많이 사용한다. 또 픽셀 값의 dynamic range가 큰 경우에 이것을 압축시켜 영상 데이터 전송에 따른 병목 현상의 해소에 이용 kipl.tistory.com