Mathematics/Linear Algebra

[인공지능을 위한 선형대수] 3. Least Square - Orthogonal Projection Ⅰ

hyeonzzz 2024. 3. 27. 16:52

Orthogonal Projection Ⅰ

orthogonal projection : 빛을 수직으로 쏘았을 때 그려지는 그림자의 모양

 

orthogonal

n = 5 (차원), p = 3 (벡터) 라고 하면 그 중 2개의 벡터를 뽑았을 때 내적이 0이라는 것은 수직이라는 의미이다. 

 

orthonormal

orthogonal의 조건은 유지한 채 길이만 1인 벡터이다. 

 

orthogonal한 3개의 벡터는 선형 독립인가? 그렇다

-> 전에 벡터에 의해 만들어진 span에 포함되지 않기 때문이다

 

basis가 되는 벡터들끼리 수직이어야 한다 

 

* linearly independent한 벡터를 수직으로 만들기 - Gram-Schmidt process

 

한 벡터를 다른 벡터에 사영시키고 그 성분은 뺀 뒤 남은 성분을 basis 벡터로 사용한다

이런식으로 분해하는 과정을 QR factorization 이라고 한다.

 

정사영된 y^ 구하기

1) 길이 구하기

2) 방향 구하기

3) y^ 구하기

길이 x 방향

 

 

이므로 없어지고

이 된다. (y 내적 u는 상수값 - y를 정사영시킨 길이)

 

* 예제로 풀어보기

 

basis가 여러개일 때

벡터에 의해 만들어지는 라인에 각각 사영시켜서 나온 벡터를 나중에 합친다

 

이미 평면에 포함되어 있는 점에서의 orthogonal projection은 자기 자신이 된다.

또한 y1^과 y2^에 의해 만들어지는 평행사변형은 항상 직사각형이 되어야 한다

 

y에서 바로 y1^에 사영시킨다. 

삼수선의 정리에 의해 0 y1^ y는 90도 이다.