Deep Learning

    Image Style Transfer

    잘 정리된 자료들이 너무 많아서 링크로 대체 Image Style Transfer using Convolutional Neural Networks (CVPR 2016) [pdf] [youtube] Instance Normalization:The Missing Ingredient for Fast Stylization [pdf] Arbitrary Style Transfer in Real-time with Adaptive Instance Normalization (ICCV 2017) [pdf] [youtube] Arbitrary Style Transfer with Style-Attentional Networks (CVPR 2019) [pdf] Blog Posting - Image Translation과 Con..

    Batch Norm, Layer Norm, Instance Norm, Group Norm

    다양한 Normalization 기법들이 있어서 정리하고자 포스팅한다. Network layer의 output을 normalize 하는 경우 트레이닝 타임이 크게 감소하고, 학습이 잘 된다. 잘 되는 이유에는 초기에는 Internal Covariate Shift를 제거한다는 쪽으로 설명이 되다가, 사실이 아님이 수학적으로 증명되었고 Loss function의 smoothness를 증가시키는 것이 주된 이유로 설명되고 있다. Batch Norm이 표준으로 사용되고 있으나, Multi-GPU training 등의 적용과 모델 사이즈가 커짐으로 인해 GPU당 할당되는 Mini-batch의 수가 줄어드는 경우, mini-batch와 original data 사이의 괴리가 커져 모델이 효율적으로 학습되기 어려운 ..

    Representation Learning, Feature Learning in Computer Vision

    Representation Learning TL;DR; (짧은 요약) Representation Learning 은 좋은 Feature를 학습하기 위해 도입되는 여러 테크닉들을 총칭하며, 물론 labeled data를 활용하여 학습시킬수도 있지만, 대용량의 unlabeled data를 이용하여 self-supervised 방식으로 학습된다 ResNet으로 학습된 가중치의 일부를 고정하고 사용하는것과 같은 방식도 결국 학습된 Repersentation을 이용하는것 Feature를 학습하는것이 목표이지만 우리가 feature 자체에 supervision을 줄 수 없으므로, 다양한 Task에 대해 학습시키면서 그 와중에 feature가 잘 학습되길 기대하는 것이며 그런 학습 목적들을 Pretext task라고..

    Meta Learning의 정의와 그 분류

    https://rhcsky.tistory.com/5 Meta Learning 학습하는 과정을 학습하다. Meta learning은 현재 AI에서 가장 유망하고 트렌디한 연구분야로 AGI(Artificial General Intelligence)로 나아갈 수 있는 매우 중요한 디딤돌이라고 볼 수 있다. AGI란 ‘일반 인공 rhcsky.tistory.com

    리서치 아이디어를 얻는 법

    출처 : https://twitter.com/jbhuang0604/status/1423499757591400448 Jia-Bin Huang on Twitter “How to come up with research ideas? Excited about starting doing research but have no clue?🤷‍♂️🤷🏻‍♀️ Here are some simple methods that I found useful in identifying initial directions. Check out the thread below 👇” twitter.com Find a different dimension Just learn a cool idea from others? Think about how yo..

    Siamese Network 와 Contrastive Loss, Triplet Loss

    - 출처 - https://towardsdatascience.com/a-friendly-introduction-to-siamese-networks-85ab17522942 A friendly Introduction to Siamese Networks You don’t always need a lot of data to train your model, learn how to create a model with a tiny number of images per class towardsdatascience.com https://tyami.github.io/deep%20learning/Siamese-neural-networks/ Siamese Neural Networks (샴 네트워크) 개념 이해하기 Siames..

    nn.ModuleList vs nn.Sequential

    파이토치 코드를 보다보면 자주 등장하는 두 가지 클래스다. 비슷하게 쓰이는것 같으면서도 그 차이점을 구별해라 하면 말하기 어려운데, 구글링을 해 보니 친절한 답변이 있어서 가져왔다. (링크) 더보기 In nn.Sequential, the nn.Module's stored inside are connected in a cascaded way. For instance, in the example that I gave, I define a neural network that receives as input an image with 3 channels and outputs 10 neurons. That network is composed by the following blocks, in the following..

    Temporal Segment Network (TSN)

    간단요약 : 전체 비디오를 N등분, 그 N등분 내에서 랜덤한 스니펫(클립) 샘플링 -> 그 스니펫들을 Spatial&Temporal 네트워크 두개에 통과시킨 후 모든 스니펫 결과들을 합쳐서 결과를 내는 모델 1. Introduction 이 논문에서 제시하는 기존의 ConvNet이 즉시 비디오레벨의 action recognition에 적용될 수 없는 이유는 두가지이다. 액션 비디오에서는 long-range temporal structure이 중요하다. (동작 전체의 긴 맥락을 이해하려면 매우많은 프레임을 다 보고 이해해야 함) 하지만 기존의 컨볼루션 필터와 그를 활용한 네트워크들은appearances 와 short-term motions 에만 집중하기 때문에 이런 부분에서 기대에 미치지 못하는 성능을낼 수..