Math for Deep Learning

    Markov Chain

    https://www.youtube.com/watch?v=qvSjIoMWBLY&ab_channel=iAIPOSTECH

    Geometric Transformations

    잘 정리된 포스트 https://darkpgmr.tistory.com/79 https://gaussian37.github.io/vision-concept-geometric_transformation/ [영상 Geometry #3] 2D 변환 (Transformations) (3D 비전 geometry 3번째 파트 2D 변환입니다) 3. 2D 변환 (2D Transformations) 변환에 대해서는 2D 변환과 3D 변환을 구분해서 설명하겠습니다. 2D 변환은 detection 또는 tracking 문제에 있어서 아래 그림과.. darkpgmr.tistory.com 이미지 Geometric Transformation 알아보기 gaussian37's blog gaussian37.github.io 참고하면 ..

    Quadratic Spline Interpolation

    잘 설명해주는 영상 part1 part2 영상에서 너무 잘 설명해줘서 간단하게만 요약해본다. Quadratic Spline Interpolation의 정의와 성질 여러 데이터 포인트들이 있을 때, 그들을 직선으로 연결하면(linear spline) 너무 단순한 interpolation 방법이 되어버리므로, 해당 점들을 부드럽게, 곡선으로 연결하자는 것이 포인트. 부드럽게 란, 하나의 점을 기준으로 양 옆의 spline의 기울기가 같아야 한다 (스무스하게 연결되면서 넘어감) 곡선으로 란, 두개의 점을 잇는 spline이 2차함수 꼴로 정의될 것. (그래서 quadratic spline라고 부름) 그렇다면 두 점을 잇는 곡선 함수의 꼴은 ax^2 + bx + c = y가 될텐데, 데이터포인트들이 N+1개 있..

    MLE와 MAP

    딥러닝을 처음 배울 때에는 내가 지금 배우는 딥러닝과 선형대수/확률통계의 기본적 개념 사이의 연결성이 전혀 형성되지 않은 채로 배웠다. 그러다 점점 그 기저에 수학적인 바탕이 깔려 있다는 것을 알게 되고, MAP, MLE라는 단어도 자주 접하며 궁금증을 갖게 된다. MAP와 MLE에 대해 간단하게 정리해 본다. 1. 기본 용어 정리 x : 모델 (어떠한 사건이 발생할 수 있는 환경) z : 사건 (결정된 모델에서 발생하는 특정 이벤트) 예를 들어 특정한 길이의 머리카락을 발견했다고 하자. 그 머리카락은 남자 혹은 여자에게서 나왔을 것이다. 머리카락을 발견한 사건이 z이며, 남자 또는 여자가 모델 x이다. P(z|x) : 가능도, likelihood 모델 x가 결정되었을 때, 그 모델 x에서 사건 z가 발..

    2강 - 독립사건과 확률

    2강 - 독립사건과 확률 2.1 - 2.2 - 2.3 - 2.4 - 2.5 -

    10강 - 벡터의 직교성과 직선투영

    10강 - 벡터의 직교성과 직선투영 10.1 - 직교성 직교 관계를 만족하는 벡터/부공간들에 대해 알아보자. 수직인 벡터들은 선형 독립 관계이다.수직인 벡터들은 선형 결합 등의 연산이 쉽다. (기저로 사용한다)수직인 벡터는 내적했을 때 결과가 0이 된다. 10.2 - 벡터의 길이벡터의 길이는 아래와 같이 정의된다. 10.3 - 벡터의 내적 결과에 따른 해석 이루는 각이 90도 이루는 각이 90도보다 큼 이루는 각이 90도보다 작음 10.4 - 정규직교벡터정규직교벡터는 길이가 1이고, 서로 직교관계를 만족하는 벡터를 말한다. 정규직교벡터를 기저로 사용할 시, 특정 벡터를 선형 결합으로 나타내기 매우 쉬워진다.벡터 C가 존재한다고 하고, 정규직교벡터 v1,v2,v3가 존재하며, C를 v들의 선형결합으로 나타..

    9강 - 선형변환과 행렬

    9강 - 선형변환과 행렬 9.1 - Ax = b 의 해석Ax = b 에서, A의 열벡터를 x벡터의 계수를 이용하여 선형결합하고, 그 결과 b를 만들어낸다.x벡터를 A라는 시스템에 input으로 주고, b라는 output이 되어 나온다.n차원 벡터 x를 A라는 행렬을 이용하여 m차원 벡터 b를 만들어낸다.이 때, A를 선형성을 띠는 변환(선형 변환)으로 해석 가능하다.A(a*x1+b*x2) = aAx1 + bAx2 로, 선형성을 만족한다. 9.2 - 선형변환 A의 예 확대/축소 90도 회전 y=x에 대해 반전 위의 행렬 모두 선형성을 만족시킨다.미분, 적분 모두 선형변환에 해당되므로 행렬로 표현 가능하다. 9.3 - 선형변환 A를 구하는 방법행렬 A가 직접적으로 주어지지 않았더라도, A에 의한 벡터의 변환..

    8강 - 벡터공간의 차원과 4가지 부벡터공간

    8강 - 벡터공간의 차원과 4가지 부벡터공간 8.1 - 선형 독립과 기저, 랭크 어떠한 벡터공간을 span할 수 있는 벡터 집합은 유일하지 않다. 어떠한 벡터공간을 span할 수 있는 서로 선형 독립인 벡터 집합은 유일하지 않다.어떠한 벡터공간을 span할 수 있는 서로 선형 독립인 벡터 집합의 원소의 개수는 유일하다.그 원소의 개수를 차원이라고 하며, 그 벡터들을 기저라고 한다.서로 선형 독립인 벡터들을 이용하여 벡터공간 내의 한 점을 표현하는 방식은 유일하다.가장 이상적인 기저벡터는, 서로 수직인 관계를 만족하면 된다.어떠한 행렬 A의 Rank는 선형 독립인 열벡터의 개수이다 (= 열공간의 차원)어떠한 행렬 A의 Rank는 선형 독립인 행벡터의 개수이다 (= 행공간의 차원)어떠한 행렬 A의 Rank는..