Loading [MathJax]/jax/output/CommonHTML/fonts/TeX/fontdata.js

선형대수 35

[선형대수] 4.2 Eigenvalues and Eigenvectors (~ 4.6 Example)

공부하는 단계에서 정리한 내용입니다.잘못된 내용이 있다면 말씀해주시면 감사하겠습니다.https://mml-book.github.io/book/mml-book.pdf 4.2 Eigenvalues and Eigenvectors이제 행렬과 그 linear mapping을 eigen이라는 개념을 통해서 새롭게 표현해볼 것이다.  Def 4.6n×n 행렬 A에 대해서 λ를 eigenvalue라고 하고, AAx=λx를 만족할 때 xA의 eigenvector라고 한다. 그리고 이 식을 eigenvalue equation 이라고 부른다.   Remark관습적으로 eigenvalue를 내림차순으로 정렬한 뒤 순서대로 first, second, .. ..

선형대수 2025.03.10

[선형대수] 4.1 Determinant and Trace (Determinant's properties ~)

공부하는 단계에서 정리한 내용입니다.잘못된 내용이 있다면 말씀해주시면 감사하겠습니다.https://mml-book.github.io/book/mml-book.pdf 4.1 Determinant and Trace이어서 n×n 행렬 A의 성질에 대해서 알아볼 것이다.n×n 행렬 A의 성질은 아래와 같다. • det(AB)=det(A)det(B)• det(A)=det(A)• det(A)0이면 det(A1)=1det(A)• Similar matrices(B=P1AP, 기저변환 행렬)끼리는 determinant가 같다.  즉, determinant는 basis를 무엇으로 잡는가에 따라서 변..

선형대수 2025.03.09

[선형대수] 4.1 Determinant and Trace (~Ex 4.3 Laplace Expansion)

공부하는 단계에서 정리한 내용입니다.잘못된 내용이 있다면 말씀해주시면 감사하겠습니다.https://mml-book.github.io/book/mml-book.pdf 4.1 Determinant and Trace앞에서 배웠듯이 행렬 ARn×n의 determinant은 AR로 대응시키는 함수이다.쓸 때는 det(A) 혹은 |A|와 같이 쓴다.   Ex 4.1 (Testing for Matrix Invertibility)행렬 ARn×nn의 크기에 따라서 살펴보자.(i) A1×1 행렬 a일 때:   A의 역행렬은 $A^..

선형대수 2025.03.08

[선형대수] 4. Matrix Decompositions

공부하는 단계에서 정리한 내용입니다.잘못된 내용이 있다면 말씀해주시면 감사하겠습니다.https://mml-book.github.io/book/mml-book.pdf 4. Matrix DecompositionsChapter 2와 3에서 벡터를 여러 가지 방법으로 다루어봤다. 이번 챕터에서는 행렬을 요약하는 법(summarization), 행렬을 분해하는 법(decomposition), 그리고 분해된 행렬을 사용해서 행렬을 근사하는 법(approximation)에 대해서 배울 것이다. Section 4.1의 determinants와 sections 4.2의 eigenvalues를 통해 몇 개 안되는 숫자를 가지고 행렬 전체의 성질을 설명하는 방법에 대해서 배울 것이다. 그 다음 섹션들에서 matrix dec..

선형대수 2025.03.07

[선형대수] Exercise 3.6 ~ 3.10

공부하는 단계에서 정리한 내용입니다.잘못된 내용이 있다면 말씀해주시면 감사하겠습니다.https://mml-book.github.io/book/mml-book.pdf [3.6]   [3.7]  [3.8]   [3.9] 코시슈바르츠 부등식(|x,y|xy)을 사용해서 증명하는 문제였다.a는 xx1,x2,...,xn을, yy=1,1,...,1을 넣고 풀면 되었고,b는 xx1,x2,...,xn을, y에 $y = \frac{1}{\sqrt{x_{1}}}, \frac{1}{\sqrt{x_{2}}}, ..., \fra..

선형대수 2025.03.02

[선형대수] Exercise 3.1 ~ 3.5

공부하는 단계에서 정리한 내용입니다.잘못된 내용이 있다면 말씀해주시면 감사하겠습니다.https://mml-book.github.io/book/mml-book.pdf  [3.1] x,y이 내적임을 증명하는 문제였다. Def 3.2와 Def 3.3을 바탕으로 풀었다.Positive definite, symmetric, bilinear 를 만족하는지 각각 체크해주었다.   [3.2] 3.1과 비슷하지만 x,y이 내적인지 알아보는 문제였다.똑같이 Positive definite, symmetric, bilinear 를 만족하는지 각각 체크해주었다.  Symmetric하지 않으므로 inner product가 아니다.  [3.3]..

선형대수 2025.03.01

[선형대수] 3.9 Rotations ~ 3.9.4 Properties of Rotations

공부하는 단계에서 정리한 내용입니다.잘못된 내용이 있다면 말씀해주시면 감사하겠습니다.https://mml-book.github.io/book/mml-book.pdf 3.9 RotationsSecion 3.4에서 orthogonal transformation matrix를 가지는 linear mapping들의 2가지 특징인 length, angle preservation에 대해서 공부했다.이번에는 rotation을 설명하는 특별한 orthogonal transformation matrix에 대해서 공부할 것이다. Rotation은 평면을 θ만큼 회전시키는 linear mapping(유클리드 공간의 automorphism)이다.θ>0이면 반시계방향으로 회전시킨다.아래 그림은 $R..

선형대수 2025.02.22

[선형대수] 3.8.3 Gram-Schmidt Orthogonalization | 3.8.4 Projection onto Affine Subspaces

공부하는 단계에서 정리한 내용입니다.잘못된 내용이 있다면 말씀해주시면 감사하겠습니다.https://mml-book.github.io/book/mml-book.pdf 3.8.3 Gram-Schmidt OrthogonalizationGram-Schmidt Orthogonalization은 벡터공간 V의 n차원 벡터공간 위에 있는 basis (b1,...,bn)를 orthogonal/orthonormal basis u1,...,un로 바꾼다. 이 과정에서 projection이 핵심 역할을 한다.이러한 basis는 항상 존재하고, span[b1,...,bn] = span[u1,...,un]이다. 그래서 어떻게 하느냐!1. 첫 번째 벡터는..

선형대수 2025.02.21

[선형대수] 3.8.2 Projection onto General Subspaces

공부하는 단계에서 정리한 내용입니다.잘못된 내용이 있다면 말씀해주시면 감사하겠습니다.https://mml-book.github.io/book/mml-book.pdf 3.8.2 Projection onto General Subspaces이번에는 벡터 xRm(m1)로의 orthogonal projection xπU(x)를 구해볼 것이다. 아래 그림과 같은 상황이다.  3.8.1에서 했던 것처럼 3단계에 걸쳐서 구하면 된다. 1.  λ 구하기  πU(x)=mi=1λibi=Bλ이고, $B = \begin{bmatrix} b_{1}, ..., b_{m} \..

선형대수 2025.02.19

[선형대수] 3.8 Orthogonal Projections | 3.8.1 Projection onto One-Dimensional Subspaces (Lines)

공부하는 단계에서 정리한 내용입니다.잘못된 내용이 있다면 말씀해주시면 감사하겠습니다.https://mml-book.github.io/book/mml-book.pdf 3.8 Orthogonal ProjectionsProjection은 선형변환에서 매우 중요한 개념이다. (e.g. PCA, deep auto-encoder)머신러닝에서 종종 고차원의 데이터를 다루게 되는데, 고차원 데이터는 분석・시각화하기가 힘들기 때문에 차원을 축소시키는 방법을 사용한다.고차원 데이터는 몇몇 차원에 정보가 집중되어있기에 가능한 방법이다.이때, 정보손실을 최소화하기 위해서 가장 중요한 차원을 찾아야 한다. 이를 Orthogonal projection 이라고 한다.그림으로 나타내면 아래와 같다.이 방법은 Chapter10의 li..

선형대수 2025.02.17