Loading...
2022. 1. 6. 00:26

두 벡터 사이의 거리와 각도

1. 두 벡터 사이의 거리 벡터의 뺄셈을 이용 두 벡터 $x$ , $y$의 거리는 두 벡터의 뺄셈 $x-y$의 norm과 같다 2. 두 벡터 사이의 각도 L2 norm 에서만 정의됨 2-1) n차원에서 정의한 the law of cosines 위 그림에서 아래 등식이 성립하는데 코사인 법칙이라고 부른다. 참고로 우리나라만 제1,2코사인법칙을 나눈다 세계적으로는 위와 같은 등식을 코사인법칙이라 한다 2-2) 두 벡터의 내적(dot product) 대응하는 성분의 곱의 합 cosine을 이용하여 구할 수도 있다. 그림2에서 c의 값은 두 벡터 a와 b의 뺄셈 a-b의 norm으로 구할 수 있고 코사인법칙과 \[a\cdot b = \left\| a \right\|\left\| b \right\|cos\thet..

2022. 1. 3. 20:21

벡터 사이의 거리 norm

벡터의 norm은 벡터 사이 거리로 정의된다. 그런데 벡터 사이 거리를 어떻게 정의할까? 일반적으로 유클리드 거리를 생각하지만 사실 거리를 정의하는 방법은 다양하다 임의의 n차원에서 거리를 정의한다는 것이 중요하다. 첫번째는 L1 norm, 두번째는 L2 norm이라고 부른다 1. L1 norm의 기하학적인 의미 L1 norm이란 원점에서 x까지의 거리를 위 그림에서 빨간 선분의 총 길이로 정의하는 것이다. 2. L2 norm의 기하학적 의미 L2 norm은 x까지의 거리를 위와 같이 직선거리로 정의하는 것이다. 3. norm에 따른 원 원은 원점에서 거리가 r인 점의 집합이라는 사실로부터 3-1) L1 norm을 사용한 원 robust 방법, lasso 회귀 등에서 사용 3-2) L2 norm을 사용한..

2021. 12. 25. 23:52

벡터(vector)의 정의와 기본 연산

1. 정의 공간 상에서 하나의 점 일반적으로 n차원 공간상의 하나의 점 x는 $$x=(x_{1}, x_{2}, ... , x_{n})$$ 2. 기하학적 의미 벡터는 원점으로부터 상대적인 위치 보통 그림으로 방향과 함께 화살표로 표시한다 3. 스칼라곱 벡터에 숫자를 곱한 스칼라곱은 벡터의 길이만 변화시킨다. 스칼라 a가 음수이면 방향을 바꾼다 $$ax = \begin{pmatrix}ax_{1} \\ax_{2} \\\vdots \\ax_{n}\end{pmatrix}$$ 4. 덧셈과 뺄셈 두 벡터의 크기가 같으면 대응하는 원소끼리 덧셈, 뺄셈이 가능하다. $$x\pm y = \begin{pmatrix}x_{1}\pm y_{1} \\x_{2}\pm y_{2} \\\vdots \\x_{n}\pm y_{n}\end..

선형대수학 기본 용어 -상급자편 4-

1. vector space 추상적으로는 벡터들의 집합이지만 일반적으로는 임의의 $v _{1} ,v _{2} \in V$와 scalar c에 대하여 $v _{1}+v _{2} \in V$를 만족시키고 $cv _{1} \in V$를 만족시키면 $V$를 vector space라고 부릅니다. vector space $V$의 부분집합이 vector space이면 $V$의 linear subspace 혹은 간단히 subspace라고 부릅니다. 2. span 어떤 vector space S에 속하는 $v _{1} ,v _{2} ,...,v _{n} \in S$에 대하여 $v _{1} ,v _{2} ,...,v _{n} \in S$의 임의의 부분집합으로 만들 수 있는 모든 linear combination의 집합을 ..

선형대수학 기본 용어 -상급자편 1-

1. linearly independent n개의 0이 아닌 vector $v _{1},v _{2} ,...,v _{n}$의 linear combination은 scalar $a _{1} ,a _{2} ,...,a _{n}$에 대하여 $$\sum _{i=1} ^{n} a _{i} v _{i} =a _{1} v _{1} +a _{2} v _{2} + \cdots +a _{n} v _{n}$$을 말한다. 이때 0이 아닌 vector $v _{1},v _{2} ,...,v _{n}$가 linearly dependent라는 것은 linear combination $a _{1} v _{1} +a _{2} v _{2} + \cdots +a _{n} v _{n}=0$을 만족시키는 적어도 하나가 0이 아닌 scalar..

선형대수학 기본 용어 -중급자편 4-

1. normal matrix conjugate transpose $A ^{H}$에 대하여 $AA ^{H} =A ^{H} A$를 만족시키는 행렬 $A$를 normal matrix라고 부른다. 모든 원소가 실수인 행렬이라면 $AA ^{T} =A ^{T} A$인 행렬 $A$를 normal matrix라고 부른다. 2. orthogonal matrix 벡터 $x=$의 norm이라는 것은 $$\left \| x \right \| = \sqrt{x\cdot x} = \sqrt{\sum_{i=1}^{n}x_{i}^{2}}$$ the construction of the norm of a vector is motivated by a desire to extend the intuitive notion of the len..