Search
Duplicate

김영길/ 선형대수학/ matrix representation of linear transformations

Ex 2

V=P2(R),β={1,x,x2}V = P_{2}(R), \beta = \{ 1, x, x^{2} \}
f(x)=4+6x7x2f(x) = 4 + 6x - 7x^{2} 이면
[f(x)]β=[467][f(x)]_{\beta} = \left[ \begin{array}{rrr} 4 \\ 6 \\ -7 \end{array} \right]
순서기저가 정해지면 vector는 좌표로 쓸 수 있다.

순서 기저를 갖는 유한차원 벡터공간 V,WV, W에 대하여

VV의 순서기저를 β={v1,v2,...,vn}\beta = \{ v_{1}, v_{2}, ... , v_{n} \}, WW의 순서기저를 γ={w1,w2,...,wn}\gamma = \{ w_{1}, w_{2}, ... , w_{n} \}라 하고, T:VWT : V \to W이면
j,1aijF:T(vj)=i=1maijwi\forall j, \exists_{1} a_{ij} \in F : T(v_{j}) = \sum_{i=1}^{m} a_{ij} w_{i}

Def. A=[aij]A = [a_{ij}]

행렬 AA는 순서기저 β,γ\beta, \gamma를 이용한 선형변환 TT의 행렬표현이라 한다.
A=[T]βγA = [T]_{\beta}^{\gamma}
V=WV = W이고 β=γ\beta = \gamma이면 A=[T]βA = [T]_{\beta}
(Ex 3, Ex 4는 문제풀이이므로 교재를 정리한 것으로 대체)
행렬은 결국 선형변환과 같다.

Def. 체 FF의 원소를 갖는 벡터공간 V,WV, W에 대하여

T,U:VW,aFT, U : V \to W, a \in F일 때
T+U:VWT + U : V \to W
xT(x)+U(x)x \mapsto T(x) + U(x)
aT:VWaT : V \to W
xaT(x)x \mapsto aT(x)
Thm 2.7) 선형변환 T,U:VWT, U : V \to W에 대해
aF,aT+U\forall a \in F, aT + U도 선형이다
T+U,aUT + U, aU의 정의를 이용하면 VV에서 WW로 가는 모든 선형변환을 모아 놓은 집합도 벡터공간이 된다.
증명)
(aT+U)(x+y)=(aT+U)(x)+(aT+U)(y)(aT + U)(x + y) = (aT + U)(x) + (aT + U)(y) (homogeneity)
(aT+U)(bx)(aT + U)(bx) (additivity)
=aT(bx)+U(bx)=abT(x)+bU(x)=b(aT(x)+U(x))=b(aT+U)(x)= aT(bx) + U(bx) \\ = abT(x) + bU(x) \\ = b(aT(x) + U(x)) \\ = b(aT + U)(x)

T0T_{0}: zero transformation

L(V,W)L(V, W)VV에서 WW 로 가는 모든 선형변환의 집합일 때,
L(V,W)L(V, W)는 벡터공간이다.
T0T_{0}는 덧셈에 대한 항등원이 된다. (zero vector)
V=WV = W이면 L(V)L(V)이라고 쓴다.

Thm 2.8

유한차원 벡터공간 V,WV, W와 그 순서기저를 각각 β,γ\beta, \gamma라 할 때
선형변환 T,U:VWT, U : V \to W에 대하여
[T+U]βγ=[T]βγ+[U]βγ[T + U]_{\beta}^{\gamma} = [T]_{\beta}^{\gamma} + [U]_{\beta}^{\gamma}
[aT]βγ=a[T]βγ,aF[aT]_{\beta}^{\gamma} = a[T]_{\beta}^{\gamma}, \forall a \in F
(Ex 5는 문제풀이이므로 교재 내용으로 대체)

2.3 선형변환의 함수 합성과 행렬곱

UT=UTUT = U \circ T
합성함수는 오른쪽부터 계산한다.
Thm 2.9) 체 FF의 원소를 갖는 벡터공간 V,W,ZV, W, Z에 대하여
T:VW,U:WZT: V \to W, U : W \to Z
UT:VZ\Rightarrow UT : V \to Z
증명)
UT(x+y)=UT(x)+UT(y)UT(x + y) = UT(x) + UT(y)
UT(x+y)=U(T(x+y))=U(T(x)+T(y))=U(T(x))+U(T(y))=UT(x)+UT(y)UT(x + y) = U(T(x +y)) \\ = U(T(x) + T(y)) \\ = U(T(x)) + U(T(y)) \\ = UT(x) + UT(y)
UT(ax)=aUT(x)=U(aT(x))=aU(T(x))=aUT(x)UT(ax) = aUT(x) \\ = U(aT(x)) \\= aU(T(x)) \\= aUT(x)

Thm 2.10) 벡터공간 VV에 대하여

T,U1,U2L(V)T, U_{1}, U_{2} \in L(V)
1.
T(U1+U2)=TU1+TU2T(U_{1} + U_{2}) = TU_{1} + TU_{2}
(U1+U2)T=U1T+U2T(U_{1} + U_{2})T = U_{1}T + U_{2}T
2.
T(U1U2)=T(U1)U2T(U_{1}U_{2}) = T(U_{1})U_{2}
3.
TI=IT=TTI = IT = T
4.
a(U1U2)=(aU1)U2=U1(aU2)a(U_{1}U_{2}) = (aU_{1})U_{2} = U_{1}(aU_{2})
증명 1)
T(U1+U2)(x)=T(U1(x)+U2(x))=TU1(x)+TU2(x)=(TU1+TU2)(x)T(U_{1} + U_{2})(x) = T(U_{1}(x) + U_{2}(x)) \\ = TU_{1}(x) + TU_{2}(x) \\ = (TU_{1} + TU_{2})(x)
(나머지 증명은 생략 됨)