Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 스택
- 선택정렬
- 선형대수
- 알고리즘
- 캐치카페신촌점 #캐치카페 #카페대관 #대학생 #진학사 #취준생
- RESNET
- Machine Learning
- BFS
- 퀵정렬
- 재귀함수
- DFS
- 큐
- GRU
- 이진 탐색
- 그리디
- 머신러닝
- pytorch
- 인공지능
- 딥러닝
- AI
- rnn
- 최단 경로
- 정렬
- 다이나믹 프로그래밍
- 삽입정렬
- 계수정렬
- LSTM
Archives
- Today
- Total
hyeonzzz's Tech Blog
[인공지능을 위한 선형대수] 3. Least Square - Orthogonal Projection Ⅰ 본문
Mathematics/Linear Algebra
[인공지능을 위한 선형대수] 3. Least Square - Orthogonal Projection Ⅰ
hyeonzzz 2024. 3. 27. 16:52Orthogonal Projection Ⅰ
orthogonal projection : 빛을 수직으로 쏘았을 때 그려지는 그림자의 모양
orthogonal
n = 5 (차원), p = 3 (벡터) 라고 하면 그 중 2개의 벡터를 뽑았을 때 내적이 0이라는 것은 수직이라는 의미이다.
orthonormal
orthogonal의 조건은 유지한 채 길이만 1인 벡터이다.
orthogonal한 3개의 벡터는 선형 독립인가? 그렇다
-> 전에 벡터에 의해 만들어진 span에 포함되지 않기 때문이다
basis가 되는 벡터들끼리 수직이어야 한다
* linearly independent한 벡터를 수직으로 만들기 - Gram-Schmidt process
한 벡터를 다른 벡터에 사영시키고 그 성분은 뺀 뒤 남은 성분을 basis 벡터로 사용한다
이런식으로 분해하는 과정을 QR factorization 이라고 한다.
정사영된 y^ 구하기
1) 길이 구하기
2) 방향 구하기
3) y^ 구하기
길이 x 방향
이므로 없어지고
이 된다. (y 내적 u는 상수값 - y를 정사영시킨 길이)
* 예제로 풀어보기
basis가 여러개일 때
벡터에 의해 만들어지는 라인에 각각 사영시켜서 나온 벡터를 나중에 합친다
이미 평면에 포함되어 있는 점에서의 orthogonal projection은 자기 자신이 된다.
또한 y1^과 y2^에 의해 만들어지는 평행사변형은 항상 직사각형이 되어야 한다
y에서 바로 y1^에 사영시킨다.
삼수선의 정리에 의해 0 y1^ y는 90도 이다.
'Mathematics > Linear Algebra' 카테고리의 다른 글
[인공지능을 위한 선형대수] 3. Least Square - 그람-슈미트 직교화와 QR 분해 (2) | 2024.03.27 |
---|---|
[인공지능을 위한 선형대수] 3. Least Square - Orthogonal Projection Ⅱ (0) | 2024.03.27 |
[인공지능을 위한 선형대수] 3. Least Square - 정규방정식 (0) | 2024.03.27 |
[인공지능을 위한 선형대수] 3. Least Square - Least Squares와 그 기하학적 의미 (0) | 2024.03.26 |
[인공지능을 위한 선형대수] 3. Least Square - Least Squares Problem 소개 (0) | 2024.03.26 |