今週、とある学生が、手習い塾に表現行列の変換規則がわからなくなったということで
質問に来ていました。
それ以前に、彼は、同じ質問を手習い塾でして理解して帰ったのですが、
再びわからなくなったということのようでした。
装着写像と取り外し写像
まず、ベクトル空間の基底とはどのような役割をしているかから始めます。
ベクトル空間 V の元は、基底 v_1,\cdots, v_n を用いて、
x_1v_1+\cdots+x_nv_n と一意的に書くことができます。
これを、数ベクトル空間の形を借りて、
(v_1,\cdots, v_n)\begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix} のように表します。
これは、横ベクトルと縦ベクトルを行列のようにして掛けることで、
ある V の元 x_1v_1+\cdots+x_nv_n を表していると思うことにします。
通常、数ベクトル空間 {\mathbb R}^n は縦ベクトルで書くことが多いですから
基底の方は自然と横並びになります。
こうすると、自然と、ベクトル空間の元 x_1v_1+\cdots+x_nv_n に対して
数ベクトルの元 \begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix} を一つ定めることになります。
一次結合の一意性から、そのような数ベクトルはただ一つに定まり、
その逆写像も定まります。
その逆写像 \varphi:{\mathbb R}^n\to V を、
\begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix}\mapsto (v_1,\cdots, v_n)\begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix}
と定めましょう。
この写像を装着写像といい、逆写像を、取り外し写像ということにします。
装着とは、基底 (v_1,\cdots, v_n) を左に装着することで、ベクトル空間の元を
実現させているイメージです。取り外しとはその反対です。
基底の変換行列
(v_1,\cdots, v_n)、(w_1,\cdots, w_n) をV の2つの基底とします。
すると、
w_i は v_1,\cdots, v_n の一次結合で書くことができます。
その一次結合の係数を数ベクトル p_i にしておくと、w_i=(v_1,\cdots, v_n)\cdot p_i
と表すことができます。
それらをまとめて、P=(p_1\cdots p_n) なる行列を作っておけば、
(w_1,\cdots, w_n)=(v_1,\cdots, v_n)P となります。
(v_1,\cdots, v_n)、(w_1,\cdots, w_n) は V の基底であることから、P は
正則行列となります。
この行列 P のことを基底の変換行列といいます。
v_1,\cdots, v_n による装着写像を \varphi_1:{\mathbb R}^n\to V
とし、
w_1,\cdots, w_n による装着写像を \varphi_2:{\mathbb R}^n\to V
とします。
装着写像 \varphi_2 により (w_1,\cdots, w_n) を装着し、
今度は、取り外し写像 \varphi^{-1}_1 により (v_1,\cdots, v_n)
を取り外してみましょう。そうすると、
\begin{pmatrix}x_1\\\vdots \\x_n\end{pmatrix}\mapsto (w_1,\cdots, w_n)\begin{pmatrix}x_1\\\vdots \\x_n\end{pmatrix}=(v_1,\cdots, v_n)P\begin{pmatrix}x_1\\\vdots \\x_n\end{pmatrix}\mapsto P\begin{pmatrix}x_1\\\vdots \\x_n\end{pmatrix}
となります。
つまり、\varphi_1^{-1}\circ \varphi_2 は P を左から掛け算する写像となることが
わかります。
表現行列
線形代数で表現行列というのを習うと思います。
ある線形写像(変換) f:V\to V があったときに、
V の基底をv_1, \cdots, v_n としたときに、
(f(v_1),\cdots, f(v_n))=(v_1,\cdots, v_n)A
としたときの、n\times n 行列 A を表現行列というのでした。
ここで、(v_1,\cdots v_n)A などの書き方ですが、上と同じで、
A=\begin{pmatrix}a_{11}&\cdots &a_{1n}\\\cdots &\cdots &\cdots \\a_{n1}&\cdots &a_{nn}\end{pmatrix} とするとき、
(v_1,\cdots v_n)A =(a_{11}v_1+\cdots +a_{n1}v_n,\cdots ,a_{1n}v_1+\cdots +a_{nn}v_n)
を意味します。
x_1v_1+\cdots +x_nv_n=(v_1,\cdots, v_n)\begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix} を f で写すと、
f(x_1v_1+\cdots+x_nv_n)=x_1f(v_1)+\cdots+x_nf(v_n)=(f(v_1),\cdots f(v_n))\begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix}=(v_1,\cdots, v_n)A\begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix}
となります。
つまり、線形写像 f により、
(v_1,\cdots, v_n)\begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix}\mapsto (v_1,\cdots, v_n)A\begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix}
のように写され、基底を取り外すことで、
数ベクトルの世界では、線形写像 f は
\begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix}\mapsto A\begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix}
を意味することになります。
表現行列の変換則
ここで、基底を取り替えたら表現行列がどのように異なるか?
ということを考えましょう。
ここで、v_1,\cdots, v_n による f の表現行列を A とし、
w_1,\cdots, w_n による f の表現行列を B とします。
つまり、
(f(v_1),\cdots, f(v_n))=(v_1,\cdots, v_n)A
(f(w_1),\cdots, f(w_n))=(w_1,\cdots, w_n)B
となります。
装着写像とf を合成したものは、
\begin{pmatrix}x_1\\\vdots\\ x_n\end{pmatrix}\mapsto (v_1,\cdots v_n)\begin{pmatrix}x_1\\\vdots \\x_n\end{pmatrix}\to (v_1,\cdots, v_n)A\begin{pmatrix}x_1\\\vdots\\ x_n\end{pmatrix}
であり、
表現行列 A を左からかけて、装着したものは、
\begin{pmatrix}x_1\\\vdots \\x_n\end{pmatrix}\mapsto A\begin{pmatrix}x_1\\\vdots \\x_n\end{pmatrix}\mapsto (v_1,\cdots, v_n)A\begin{pmatrix}x_1\\\vdots\\ x_n\end{pmatrix}
となり、同じ写像です。
同じように、
\begin{pmatrix}x_1\\\vdots\\ x_n\end{pmatrix}\mapsto (w_1,\cdots w_n)\begin{pmatrix}x_1\\\vdots \\x_n\end{pmatrix}\to (w_1,\cdots, w_n)B\begin{pmatrix}x_1\\\vdots\\ x_n\end{pmatrix}
と
\begin{pmatrix}x_1\\\vdots \\x_n\end{pmatrix}\mapsto B\begin{pmatrix}x_1\\\vdots \\x_n\end{pmatrix}\mapsto (w_1,\cdots, w_n)B\begin{pmatrix}x_1\\\vdots\\ x_n\end{pmatrix}
は同じ写像です。
これを図にすると下のようになります。
上で言っていることは、この図の矢印に沿って写像を合成することで
ある空間からある空間へ行く時、どのようなルートを通っても同じ写像になります。
例えば、この図式の上の四角形についてもう一度やっておけば、
B を左から掛け算する写像
\begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix}\mapsto B\begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix}
は、(w_1,\cdots, w_n) を装着し、f を施し、再び (w_1,\cdots, w_n) を取り外す操作に
対応しますが、実際やってみると、
\begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix}\mapsto (w_1,\cdots, w_n)\begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix}\mapsto (f(w_1),\cdots, f(w_n))\begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix}= (w_1,\cdots w_n)B\begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix}\mapsto B\begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix}
となります。
このように、道によらずに写像が一意に定まっている図式のことを可換図式と言います。
左と右の三角形が可換であることは明らかです。
また、\varphi^{-1}_1\circ\varphi_2 は P を左から掛ける写像だったことも
ここで思い出しておきましょう。
今、左上の {\mathbb R}^n から出発して右上の {\mathbb R}^n にたどり着く道を
考えます。一番近道をすると、
\begin{pmatrix}x_1\\\vdots \\x_n\end{pmatrix}\mapsto B\begin{pmatrix}x_1\\\vdots \\x_n\end{pmatrix}
ですが、一番外回りを通ってくると、
\begin{pmatrix}x_1\\\vdots \\x_n\end{pmatrix}\mapsto P\begin{pmatrix}x_1\\\vdots \\x_n\end{pmatrix}\mapsto AP\begin{pmatrix}x_1\\\vdots \\x_n\end{pmatrix}\mapsto P^{-1}AP\begin{pmatrix}x_1\\\vdots \\x_n\end{pmatrix}
となり、これらは同じ写像を意味しますから、
B=P^{-1}AP
が成り立つことになります。
この等式を表現行列の変換規則といいます。
また、ベクトル空間上で考えるとするなら、(w_1,\cdots, w_n) を装着して
(w_1,\cdots,w_n)P^{-1}AP=(v_1,\cdots, v_n)AP= (f(v_1),\cdots , f(v_n))P = (f(w_1),\cdots, f(w_n))=(w_1,\cdots, w_n)B
とするとよいでしょう。