Recent Posts
Recent Comments
05-01 16:52
관리 메뉴

수학쟁이의 공부 이야기

프리드버그 선형대수학 2.1단원 : 선형변환, 영공간, 치역의 정의 본문

선형대수학/프리드버그

프리드버그 선형대수학 2.1단원 : 선형변환, 영공간, 치역의 정의

hoonhoon04 2023. 1. 19. 12:35

2.1 Linear transformations, null spaces, and ranges

field $F$ 위에서 정의된 vector space $V,W$ 에 대해 함수 $T : V \rightarrow W$ 가 모든 $x,y \in V \,,\,$ $c \in F$ 에 대하여

 

$(a) \, T(x+y) = T(x) + T(y)$

$(b) \, T(cx) = cT(x)$

 

다음의 조건을 만족한다면 $T$ 를 linear transformation from $V$ to $W$ 라 정의한다.

 

field $F$ 가 유리수 집합인 경우 위의 $(a)$ 조건이 $(b)$ 조건을 포함하게 되지만 일반적인 경우 $(a)$ 와 $(b)$ 는 독립적이다. 예시를 살펴보면 다음과 같다.

$1.$ $(a)$ 조건이 $(b)$ 조건을 포함하게 되는 경우

함수 vector space $V, W$ 에 대해 $T : V \rightarrow W$ 가 모든 $x,y \in V$ 에 대해 $T(x+y) = T(x)+T(y)$ 를 만족하면 함수 $T$ 를 additive 라고 부른다. $V,W$ 가 유리수 집합을 field 로 갖는 vector space 일 때 $V$ 에서 $W$ 로 가는 additive function 은 linear transformation이다.

 

풀이)

$c \in F$ 에 대해 $c$ 가 유리수이므로 $c = \frac{q}{p}$ 인 자연수 $p,q$ 가 존재한다. $T(cx) = T(\frac{qx}{p})$ 가 성립하는데 additive 이므로 $T(\frac{qx}{p}) = T(\frac{(q-1)x}{p}+\frac{x}{p}) = T(\frac{(q-1)x}{p})+T(\frac{x}{p})$ 이런 식으로 표현이 가능하다. 이 작업을 반복하게 되면 $T(\frac{qx}{p}) = qT(\frac{x}{p})$ 가 성립함을 알 수 있다.

마찬가지로 $T(\frac{2x}{p}) = T(\frac{x}{p})+T(\frac{x}{p})$ 이런 작업을 반복하게 되면 $T(x) = T(\frac{px}{p}) = pT(\frac{x}{p})$ 가 만족함을 알 수 있다. 따라서 $T(\frac{qx}{p}) = \frac{q}{p}T(x)$ 가 성립하게 되어 위의 $(a)$ 조건만을 이용해서 $(b)$ 조건을 이끌어 낼 수 있음을 보였다. 또한, 당연히 $T$ 도 linear transformation 이 된다. $\blacksquare$

 

$2.$ $(a)$ 조건과 $(b)$ 조건이 독립적인 경우

$C$ 를 복소수 집합이라고 정의할 때 함수 $T:C \rightarrow C$ 가 $T(z) = \bar{z}$ 로 정의된다고 하자. $T$ 가 additive 하지만 linear 하지 않게 된다.

 

풀이)

$z,w \in C$ 에 대하여 $z = a+bi, w= m+ni$ 라고 하자. $T(z+w) = \bar{z+w} = (a+m)-(b+n)i$ 이고 $T(z) = \bar{z} = a-bi \,,\, T(w) = m-ni$ 이므로 $T(z+w) = T(z)+T(w)$ 가 성립한다. $T$ 가 linear 하지 않음을 보이기 위해 $T(iz)$ 를 생각해 보자. $T(iz) = T(i(a+bi)) = T(-b+ai) = \bar{-b+ai} = b-ai$ 인 것에 반해 $iT(z) = i\bar{a+bi} = i(a-bi) = b+ai$ 가 성립하므로 임의의 $a,b$ 에 대해 $T(iz) = iT(z)$ 가 성립하지 않는다. 따라서 $T$ 는 linear 하지 않다. $\blacksquare$

 

$T:V \rightarrow W$ 함수가 linear 일 때 다음 $4$ 가지 성질을 만족한다.

 

$1.$ $T(0) = 0$

$2.$ $T$ 가 linear $\Leftrightarrow$ 임의의 $x,y \in V$ 와 $c \in F$ 에 대해 $T(cx+y) = cT(x)+T(y)$

$3.$ 임의의 $x,y \in V$ 에 대해 $T(x-y) = T(x) - T(y)$

$4.$ $T$ 가 linear $\Leftrightarrow$ 임의의 $x_1,x_2,\cdots,x_n \in V$ 와 $a_1,a_2,\cdots,a_n \in F$ 에 대해

$$T(\sum_{i=1}^{n} a_ix_i) = \sum_{i=1}^{n}a_iT(x_i)$$

 

주로 어떤 transformation 이 linear 한지 보일 때 $2$ 번을 많이 사용한다. geometrical transformations 들 중 linear 한 변환이 많은데 아래의 그림처럼 rotation, reflection, projection 등이 있다.

 

$1.$ rotation transformation

rotation 은 반시계 방향을 기준으로 할 때 $T_{\theta}(0,0) = (0,0)$ 이고 nonzero vector $(a_1,a_2)$ 에 대해 $T_{\theta}(a_1,a_2)$ 는 다음과 같이 구할 수 있다.

$x$ 축과 vector $(a_1,a_2)$ 가 이루는 각을 $\alpha$ 라 하고 $r=\sqrt{a_1^2+a_2^2}$ 라 하면 $a_1 = rcos\alpha \,,\, a_2 = rsin\alpha$ 로 적을 수 있다. $T_{\theta}(a_1,a_2) = (rcos(\alpha+\theta), rsin(\alpha+\theta)) = (rcos\alpha cos\theta - rsin\alpha sin\theta , rcos\alpha sin\theta + rsin\alpha cos\theta) = (a_1cos\theta - a_2sin\theta, a_1sin\theta + a_2cos\theta)$

rotation 변환은 $a_1,a_2$ 의 linear combination 으로 이루어지므로 $T_{\theta}$ 가 linear 를 보이는 것은 어렵지 않다.

 

$2.$ reflection transformation

$x$ 축에 대한 reflection 은 $T(a_1,a_2) = (a_1,-a_2)$ 처럼 표현할 수 있다.

 

$3.$ projection transformation

$x$ 축에 대한 projection 은 $T(a_1,a_2) = (a_1,0)$ 처럼 표현할 수 있다.

 

Linear transformation 의 또 다른 예시

$1.$ 함수 $T : P_n(R) \rightarrow P_{n-1}(R)$ 를 $T(f(x)) = f'(x)$ 로 정의할 때 $T$ 는 linear 이다.

 

풀이)

임의의 $g(x),h(x) \in P_n(R)$ 와 $a \in R$ 에 대해 

 

$$T(ag(x)+h(x)) = (ag(x)+h(x))' = ag'(x)+h'(x) = aT(g(x))+T(h(x))$$

 

이 성립하므로 $T$ 는 linear 이다. $\blacksquare$

 

$2.$ $V = C(R)$ 을 연속인 real-valued function 들을 모아놓은 vector space 라고 정의할 때 $a,b \in R$ 이고 $a < b$ 인 $a,b$ 에 대하여 함수 $T : V \rightarrow R$ 를 

 

$$T(f) = \int_{a}^{b} f(t) dt$$

 

다음과 같이 정의하면 적분의 정의에 의해 $T$ 는 linear transformation 임을 알 수 있다. $\blacksquare$

 

자주 등장하는 linear transformation $2$ 개를 따로 정리해 보면 하나는 identity transformation $I_V : V \rightarrow V \; \forall x \in V \,,\, I_V(x) = x $ 이고 다른 하나는 zero transformation $T_0 : V \rightarrow W \; \forall x \in V \,,\, T_0(x) = 0$ 이다.

 

vector space $V,W$ 에 대해 함수 $T : V \rightarrow W$ 가 linear 라고 하자. $x \in V$ 인 $x$ 들 중 $T(x) = 0$ 을 만족하는 모든 $x$ 들의 집합을 $T$ 의 null space $N(T) = \{x \in V : T(x) = 0 \}$ 라고 정의한다. $x \in V$ 에 대해 $T$ 에 의한 치역을 $T$ 의 range $R(T) = \{T(x) : x \in V \}$ 라고 정의한다.

 

Theorem 2.1

$V,W$ 가 vector space 이고 함수 $T : V \rightarrow W$ 가 linear 일 때 $N(T), R(T)$ 는 각각 $V, W$ 의 subspace 이다.

 

증명)

명확한 표기를 위해 $0$ 을 $V$ 에서는 $0_V,\,W$ 에서는 $0_W$ 로 표기하겠다. $T(0_V) = 0_W$ 이므로 $0_V \in N(T)$ 이다. $x,y \in N(T)\,,\,c \in F$ 에 대해 $T(x+y) = T(x) + T(y) = 0_W+0_W = 0_W$ 이고 $T(cx) = cT(x) = c0_W = 0_W$ 이어서 $x+y, cx \in N(T)$ 이므로 $N(T)$ 는 $V$ 의 subspace 이다.

마찬가지로 $T(0_V) = 0_W$ 이기 때문에 $0_W \in R(T)$ 이다. $x,y \in R(T)\,,\, c \in F$ 에 대해 $v,w \in V$ 가 존재하여 $T(v) = x \,,\, T(w) = y$ 를 만족한다. $T(v+w) = T(v) + T(w) = x+y$ 이고 $T(cv) = cT(v) = cx$ 이므로 $x+y, cx \in R(T)$ 여서 $R(T)$ 는 $W$ 의 subspace 이다. $\blacksquare$

 

Theorem 2.2

$V,W$ 가 vector space 이고 $T : V \rightarrow W$ 가 linear 일 때 $V$ 의 basis $\beta = \{v_1, v_2, \cdots, v_n\}$ 에 대하여 

 

$$R(T) = span(T(\beta)) = span(\{T(v_1), T(v_2), \cdots, T(v_n)\})$$

 

증명)

$T(v_i) \in R(T)$ 이고 $R(T)$ 는 subspace 이므로 프리드버그 선형대수학 1.4단원 : 선형결합과 일차연립방정식 의 Theorem 1.5 에 의해 $span(\{T(v_1),T(v_2),\cdots,T(v_n)\}) = span(T(\beta))$ 는 $R(T)$ 에 포함된다. 

$w \in R(T)$ 에 대해 $v \in V$ 가 존재하여 $T(v) = w$ 를 만족한다. $\beta$ 는 $V$ 의 basis 이므로 $a_1, a_2, \cdots, a_n \in F$ 가 존재하여 $v = \sum_{i=1}^{n} a_iv_i$ 를 만족한다.

$T$ 는 linear 이므로 $w = T(v) = \sum_{i=1}^{n} a_iT(v_i) \in span(T(\beta))$ 여서 $R(T) \subset span(T(\beta))$ 가 성립한다. 따라서 $R(T) = span(T(\beta))$ 이다. $\blacksquare$

 

위의 Theorem 2.2 에서 $V$ 가 infinite basis 를 가지는 경우 $n$ 개가 무한개로 늘어난 것을 제외하면 동일하게 증명할 수 있다.

 

$V,W$ 가 vector space 이고 함수 $T : V \rightarrow W$ 가 linear 이며 $N(T), R(T)$ 가 finite-dimensional 일 때 $N(T)$ 의 dimension 을 nullity of $T$ 이라 하고 $R(T)$ 의 dimension 을 rank of $T$ 라 정의한다.

 

Theorem 2.3 (Dimension Theorem)

$V,W$ 가 vector space 이고 함수 $T : V \rightarrow W$ 가 linear 이며 $V$ 가 finite-dimensional 일 때 

 

$$nullity(V) + rank(T) = dim(V)$$

 

이 성립한다.

 

증명)

 $dim(V) = n \,,\, dim(N(T)) = k$ 라고 하자. $dim(N(T)) = k$ 이므로 $\{v_1,v_2,\cdots,v_k\}$ 를 $N(T)$ 의 basis 라고 놓자. 프리드버그 선형대수학 1.6단원 : 기저와 차원의 정의 의 Theorem 1.11 에 의해 $\{v_1, v_2, \cdots, v_k\}$ 를 $V$ 의 basis $\beta = \{v_1, v_2, \cdots,v_n\}$ 로 확장시킬 수 있다.

정리를 증명하기 위해 $S = \{T(v_{k+1}), T(v_{k+2}), \cdots, T(v_n)\}$ 이 $R(T)$ 의 basis 가 됨을 보이면 충분하다. 위의 Theorem 2.2 와 $T(v_i) = 0 \; (1 \leq i \leq k)$ 인 점을 활용하면

 

$$R(T) = span(\{T(v_1), T(v_2), \cdots, T(v_n)\}) = span(\{T(v_{k+1}), T(v_{k+2}), \cdots, T(v_n)\}) = span(S)$$

 

이 성립하므로 $S$ 가 linearly independent 함을 보이면 충분하다. 다음을 만족하는 scalar $b_{k+1}, \cdots, b_n$ 이 존재한다고 가정하자.

 

$$\sum_{i=k+1}^{n} b_iT(v_i) = 0$$

 

$T$ 가 linear 이므로 $T(\sum_{i=k+1}^{n} b_iv_i) = 0$ 이 성립하여 $\sum_{i=k+1}^{n} b_iv_i \in N(T)$ 가 성립한다. 따라서 scalar $c_1, c_2, \cdots, c_k$ 가 존재하여

 

$$\sum_{i=k+1}^{n} b_iv_i = \sum_{i=1}^{k} c_iv_i \;,\; \sum_{i=1}^{k} (-c_i)v_i + \sum_{i=k+1}^{n} b_iv_i = 0$$

 

가 성립하는데 $\beta$ 는 basis 이므로 모든 $i$ 에 대해 $b_i = 0$ 을 만족한다. 그러므로 $S$ 는 linearly independent 하여 $rank(T) = n-k$ 를 만족한다. $\blacksquare$

 

Theorem 2.4

$V,W$ 가 vector space 이고 함수 $T : V \rightarrow W$ 가 linear 일 때 $T$ 가 one-to-one 일 필요충분조건이 $N(T) = \{0\}$ 이다.

 

증명)

$T$ 가 one-to-one 이고 $x \in N(T)$ 라고 가정하자. $T(x) = 0 = T(0)$ 이고 $T$ 가 one-to-one 이므로 $x=0$ 이 성립하여 $N(T) = \{0\}$ 이 된다.

반대로 $N(T) = \{0\}$ 이라고 가정하자. 만약 $T(x) = T(y)$ 가 성립한다면 $0 = T(x) - T(y) = T(x-y)$ 이므로 $x-y \in N(T) = \{0\}$ 이 되어 $x=y$ 이다. 이 경우 $T$ 는 one-to-one 이 된다. $\blacksquare$

 

Theorem 2.5

$V,W$ 는 dimension 이 (finite 으로) 동일한 vector space 이고 함수 $T:V \rightarrow W$ 가 linear 일 때 다음 세 조건이 서로 동치이다.

 

$(a)$ $T$ 가 one-to-one 이다.

$(b)$ $T$ 가 onto 이다.

$(c)$ $rank(T) = dim(V)$

 

증명)

위의 Theorem 2.4 에 의해 $T$ 가 one-to-one 일 필요충분조건은 $N(T) = \{0\}$ 이다. $N(T) = \{0\}$ 일 필요충분조건은 $nullity(T) = 0$ 이고 $nullity(T) = 0$ 일 필요충분조건은 위의 Theorem 2.3 에 의해 $rank(T) = dim(V)$ 이다. 따라서 $(a)$ 와 $(c)$ 가 필요충분조건임은 보였다. 

$rank(T) = dim(V)$ 일 필요충분조건은 $rank(T) = dim(W)$ 이고 $rank(T) = dim(W)$ 일 필요충분조건은 $dim(R(T)) = dim(W)$ 이므로 프리드버그 선형대수학 1.6단원 : 기저와 차원의 정의 의 Theorem 1.11 에 의해 $R(T) = W$ 가 성립한다. $R(T) = W$ 가 $T$ 가 onto 라는 명제와 동치이므로 따라서 $(a), (b), (c)$ 는 서로서로 동치이다. $\blacksquare$

 

$V$ 가 finite-dimensional 이 아니고 함수 $T : V \rightarrow V$ 는 linear 인 경우 $T$ 가 one-to-one 인 명제와 $T$ 가 onto 인 명제가 동치가 아니게 된다. 예시는 다음과 같다.

$1.$ 함수 $T : P(R) \rightarrow P(R)$ 이 $T(f(x)) = \int_{0}^{x}f(t)dt$ 로 정의될 때 $T$ 가 linear 이고 one-to-one 이지만 onto 는 아니다.

 

풀이)

$T((cf+g)(x)) = T(cf(x) + g(x)) = \int_{0}^{x} cf(t)+g(t) dt = c \int_{0}^{x}f(t)dt + \int_{0}^{x} g(t)dt = cT(f(x)) + T(g(x))$ 이므로 $T$ 는 linear 이다. 만약 두 polynomial $f(x), g(x)$ 에 대해 $T(f(x)) = T(g(x))$ 라고 가정하자. $T(\sum_{i=0}^{n} a_ix^i) = \sum_{i=0}^{n}\frac{a_ix^{i+1}}{i+1}$ 이므로 $T(f(x)) = T(g(x))$ 가 성립하려면 $f$ 와 $g$ 의 모든 계수가 같아야 하므로 $f=g$ 일 수밖에 없다. $T$ 가 onto 가 아닌 이유는 $T(\sum_{i=0}^{n} a_ix^i) = \sum_{i=0}^{n}\frac{a_ix^{i+1}}{i+1}$ 이므로 $T(f(x))$ 의 차수가 1 이상이기 때문에 $T(f(x)) = 1$ 인 다항식 $f(x)$ 가 존재하지 않는다. $\blacksquare$

 

$2.$ 함수 $T : P(R) \rightarrow P(R)$ 이 $T(f(x)) = f'(x)$ 로 정의될 때 $T$ 가 linear 이고 onto 이지만 one-to-one 은 아니다.

 

풀이)

$T((cf+g)(x)) = T(cf(x) + g(x)) = cf'(x)+g'(x) = cT(f(x)) + T(g(x))$ 이므로 $T$ 는 linear 이다. 임의의 다항식 $f(x) = \sum_{i=0}^{n} a_ix^i$ 에 대해 $T(\sum_{i=0}^{n}\frac{a_ix^{i+1}}{i+1}) = \sum_{i=0}^{n} a_ix^i$ 이 성립하므로 $T$ 는 onto 이다. $T(1) = T(2) = 0$ 이므로 $T$ 는 one-to-one 은 아니다. $\blacksquare$

 

one-to-one 과 onto 에 관련한 또 다른 성질을 알아보자.

$V,W$ 가 vector space 이고 $T:V \rightarrow W$ 가 linear 이며 one-to-one 이고 $S$ 가 $V$ 의 부분집합일 때 $S$ 가 linearly independent 일 필요충분조건은 $T(S)$ 가 linearly independent 이다.

 

풀이)

먼저 $S = \{v_1,v_2,\cdots,v_n\}$ 가 linearly independent 하다고 가정하자. scalar $a_1,a_2,\cdots,a_n$ 이 존재하여 

 

$$\sum_{i=1}^{n}a_iT(v_i) = 0$$

 

을 만족한다고 하자. $T$ 가 linear 이므로 $\sum_{i=1}^{n}a_iT(v_i) = T(\sum_{i=1}^{n}a_iv_i)$ 가 만족되어 $T(\sum_{i=1}^{n}a_iv_i) = T(0) = 0$ 이 성립한다. $T$ 가 one-to-one 이므로 $\sum_{i=1}^{n}a_iv_i = 0$ 이 성립하여 모든 $i$ 들에 대해 $a_i=0$ 이다. 따라서 $T(S)$ 가 linearly independent 하다.

반대로 $T(S)$ 가 linearly independent 하다고 가정하자. scalar $b_1,b_2,\cdots,b_n$ 에 대해 $\sum_{i=1}^{n}b_iv_i=0$ 이라고 가정하자. $T$ 가 linear 이므로 $0 = T(\sum_{i=1}^{n}b_iv_i) = \sum_{i=1}^{n} b_iT(v_i)$ 가 성립하고 $T(S)$ 가 linearly independent 하여서 모든 $i$ 들에 대해 $b_i = 0$ 이다. 따라서 $S$ 가 linearly independent 하다. $\blacksquare$

 

Theorem 2.6

$V,W$ 가 vector space 이고 $\{v_1,v_2,\cdots,v_n\}$ 이 $V$ 의 basis 라 하자. 그럴 때 $w_1,w_2,\cdots,w_n \in W$ 에 대하여 $T(v_i) = w_i \,(1\leq i \leq n)$ 를 만족하는 linear transformation 이 정확하게 하나 존재한다.

 

증명)

$x \in V$ 에 대하여 scalar $a_1,a_2,\cdots,a_n$ 이 유일하게 존재하여

 

$$x = \sum_{i=1}^{n}a_iv_i$$

 

가 성립한다. 그럴 때 다음과 같이 함수 $T : V \rightarrow W$ 를 정의하자. 

 

$$T(x) = \sum_{i=1}^{n}a_iw_i$$

 

정리를 증명하기 위해 크게 $3$ 가지를 증명해야 하는데 

첫 번째로 $T$ 가 linear 임을 보여야 한다. $u,v \in V$ 에 대해 $u = \sum_{i=1}^{n} b_iv_i, v = \sum_{i=1}^{n} c_iv_i$ 라고 하자. 그러면 $T(du+v) = \sum_{i=1}^{n} (db_i+c_i)w_i = dT(u) + T(v)$ 가 성립하여 $T$ 는 linear 하다.

 

두 번째로 $T(v_i) = w_i$ 임을 보여야 한다. 앞에서 정의한 바에 의해 당연함을 알 수 있다.

 

세 번째로 $T$ 가 유일함을 보여야 한다. 만약 함수 $U : V \rightarrow W$ 가 $U(v_i) = w_i \,(1\leq i \leq n)$ 를 만족한다면 $V$ 에 속한 임의의 $x = \sum_{i=1}^{n} a_iv_i$ 에 대해 

 

$$U(x) = \sum_{i=1}^{n}a_iU(v_i) = \sum_{i=1}^{n}a_iw_i = T(x)$$

 

가 되어 $U=T$ 가 성립한다. $\blacksquare$

 

Corollary

$V,W$ 가 vector space 이고 $V$ 가 finite basis $\{v_1,v_2,\cdots,v_n\}$ 이 존재한다고 하자. 함수 $U,T : V \rightarrow W$ 가 linear 이고 $U(v_i) = T(v_i) \,(1 \leq i \leq n)$ 이 성립하면 $U=T$ 이다.

 

증명)

임의의 $V$ 에 속한 $x$ 에 대해 $v_i$ 들의 linear combination 으로 표현되고 $T,U$ 모두 linear 하므로 $U(x), T(x)$ 들은 각각 $U(v_i), T(v_i)$ 들의 linear combination 으로 표현된다. $U(v_i) = T(v_i)$ 이므로 따라서 $U=T$ 일 수밖에 없다. $\blacksquare$

 

vector space $V$ 에 대해 $W_1,W_2$ 가 subspace 이고 $V = W_1\oplus W_2$ 를 만족하며 $x \in V$ 가 $x_1 \in W_1 \,,\, x_2 \in W_2$ 에 대해 $x = x_1+x_2$ 로 표현될 때 $T:V \rightarrow V$ 가 $T(x) = x_1$ 을 만족하는 함수 $T : V \rightarrow V$ 를 projection on $W_1$ along $W_2$ 라 정의한다.

 

$V$ 가 vector space 이고 $T :V \rightarrow V$ 가 linear 일 때 $V$ 의 subspace $W$ 에 대하여 모든 $x \in W$ 에 대해 $T(x) \in W$ 를 만족한다면 $W$ 는 $T$-invariant 한다고 한다. (즉, $T(W) \subseteq W$) 

$W$ 가 $T$-invariant 할 때 함수 $T_W : W \rightarrow W$ 를 모든 $x \in W$ 에 대하여 $T_W(x) = T(x)$ 로 정의할 때 함수 $T_W$ 를 restriction of $T$ on $W$ 라 정의한다.

Comments