[場所:manaba上(水曜日12:00〜)]
前回は行列とその四則演算について行いましたが、
今回は、行列の除法と一次変換について行いました。
行列とは、縦に$m$個、横に$n$個、長方形の形に数を並べて、
さらにカッコで括ったものを考えます。
例えば、
さらにカッコで括ったものを考えます。
例えば、
$$\begin{pmatrix}1&-1&3&3\\4&2&-10&2\\3&1&0&-2\end{pmatrix}$$
などです。
行列の加法と減法はその成分ごとに行い、積 $AB$ は、
$A\in M(m,n,{\mathbb R})$ と $B\in M(n,k,{\mathbb R})$ のとき定義されて、
$A\in M(m,n,{\mathbb R})$ と $B\in M(n,k,{\mathbb R})$ のとき定義されて、
$$AB=(a_{ij})(b_{ij})=(\sum_{p=1}^na_{ip}b_{pj})\in M(m,k,{\mathbb R})$$
のようにして行います。
このように、積は、$A$ の列数と $B$ の行数が一致している場合のみ定義されます。
このように、積は、$A$ の列数と $B$ の行数が一致している場合のみ定義されます。
ここでは、その数($A$ の列数、$B$ の行数)は $n$ です。
行列を定数倍するということを前回では書かなかったので、ここで
書いておきます。
$\alpha$ を実数とし、$A$ を $(m,n)$ 行列とします。ここでは、
行列 $A$ を $(a_{ij})$ とします。このとき、$A$ に実数 $\alpha$ をかける
という操作を $\alpha\cdot A$ と書き、$(\alpha\cdot a_{ij})$ と定義します。
これが意味することは、$A$ の $mn$ 個の成分を一斉に$\alpha$ 倍するということです。
$A$ を $mn$ 個の成分を持つベクトルと考えれば、ベクトルを $\alpha$ する
という操作と同じです。
例えば、
$2\cdot\begin{pmatrix}2&-1\\-1&2\end{pmatrix}=\begin{pmatrix}4&-2\\-2&4\end{pmatrix}$
となります。もちろん、この逆操作で、共通する因子があれば、その数を括り出して
$\begin{pmatrix}4&-2\\-2&4\end{pmatrix}=2\cdot\begin{pmatrix}2&-1\\-1&2\end{pmatrix}$
とすることと同値です。くれぐれも、
$\begin{pmatrix}4&-2\\-2&4\end{pmatrix}=2\cdot\begin{pmatrix}2&-2\\-1&4\end{pmatrix}$
などと、一部の列や行だけ取り出すことは出来ませんので気をつけてください。
この定数倍のことをスカラー倍という言葉で書かれることもあります。
行列の単位元
これまで、行列の四則演算のうち、加減乗まで習ったわけですが、
今回は除法について説明したいと思います。
まず、行列の乗法の単位元 $1$ の役目をもつ行列を考えます。
$$E=\begin{pmatrix}1&0&\cdots &\cdots&0\\0&1&0&\cdots &0\\\vdots&\ddots&\ddots&\ddots&\vdots\\0&\cdots&0&1&0\\0&\cdots &\cdots&0&1\end{pmatrix}$$
としましょう。この行列は、対角成分、つまり、全ての $(i,i)$ 成分が $1$ で、
それ以外の全ての成分で 0 となる行列です。
それ以外の全ての成分で 0 となる行列です。
このような行列を任意の行列 $A$ にかけてみると、$AE=EA=A$ となることがわかります。
行列の単位元は、全ての成分が 1 の行列だと思った人あるかかもしれませんが、
そうではありません。
そうではありません。
$2\times 2$行列でやってみます。
$$\begin{pmatrix}a&b\\c&d\end{pmatrix}\begin{pmatrix}1&1\\1&1\end{pmatrix}=\begin{pmatrix}a+b&a+b\\c+d&c+d\end{pmatrix}$$
となり、確かにこの場合、単位元の役割を果たしていませんね。一方、
$$\begin{pmatrix}a&b\\c&d\end{pmatrix}\begin{pmatrix}1&0\\0&1\end{pmatrix}=\begin{pmatrix}a&b\\c&d\end{pmatrix}$$
となります。$EA=A$ も同様です。
この行列を乗法の単位元と言います。
次に行列における実数の逆数に対応する概念を定義します。
$n\times n$ 行列 $A$ の逆行列とは、
$AB=E$ かつ $BA=E$
を満たす $n\times n$ 行列 $B$ が
存在することとして定義します。
ここで、$AB=E$ となる $B$ を右逆行列、$CA=E$ となる
行列を左逆行列と呼ぶことにします。
$A$ に逆行列が存在することは、右逆行列と左逆行列がともに存在し、
それらが一致するという条件と同値なわけなんですが、
実は、もし、$A$ に対して右逆行列と左逆行列が存在するなら、
右逆行列と左逆行列は一致します。
(証明) $AB=E$ かつ、$CA=E$ となるとします。
このとき、$B=(CA)B=C(AB)=C$ となりますので、両者は一致します。(証明終了)
ここで本質的に用いているのは、積の結合法則です。
また、実は、 $A$ に右逆行列が存在するならば、左逆行列が存在することは
正しいです。
同じように、左逆行列が存在するならば、右逆行列が存在します。
ここではこれらのことのみを言及しますが、証明はしません。
この行列のことを勉強するうちにわかってくると思います。
まとめますと、
正方行列 $A$ に逆行列が存在するとは、
$AB=BA=E$ となる正方行列 $B$ が存在することを意味します。
このような $B$ は $A$ から一意的に定まり、それを、$A^{-1}$ と書きます。
なぜ一意的に定まるかというと、
$AB=BA=E$ となる $B$ として、$B_1,B_2$ が取れたとすると、
$B_1=B_1AB_2=EB_2=B_2$ となるからです。
一方、正方行列 $A$ が逆行列が存在しない場合もあります。例えば、
$$\begin{pmatrix}0&0\\1&0\end{pmatrix}\begin{pmatrix}1&0\\0&0\end{pmatrix}=\begin{pmatrix}0&0\\1&0\end{pmatrix}$$
となり、$\begin{pmatrix}0&0\\1&0\end{pmatrix}$ に逆行列 $B$ が存在するとすると、
$B\begin{pmatrix}0&0\\1&0\end{pmatrix}=E$ となり、
$$B\begin{pmatrix}0&0\\1&0\end{pmatrix}\begin{pmatrix}1&0\\0&0\end{pmatrix}=E\begin{pmatrix}1&0\\0&0\end{pmatrix}=\begin{pmatrix}1&0\\0&0\end{pmatrix}$$
$$B\begin{pmatrix}0&0\\1&0\end{pmatrix}\begin{pmatrix}1&0\\0&0\end{pmatrix}=B\begin{pmatrix}0&0\\1&0\end{pmatrix}=\begin{pmatrix}1&0\\0&1\end{pmatrix}$$
となり、矛盾します。
また、等式
$\begin{pmatrix}1&0\\0&0\end{pmatrix}\begin{pmatrix}0&0\\1&0\end{pmatrix}=O$
が成り立つこともあり、両方 $O$ ではない行列 $A,B$ をかけて、$O$ になることがある
ということになります。
このようなことは、実数や複素数の時にはなかったことに注意しましょう。
この等式からも、$\begin{pmatrix}1&0\\0&0\end{pmatrix}$ や $\begin{pmatrix}0&0\\1&0\end{pmatrix}$ には逆行列が存在しないことを証明できます。
$A=\begin{pmatrix}1&0\\0&0\end{pmatrix}$ と $B=\begin{pmatrix}0&0\\1&0\end{pmatrix}$
とすると、$AB=O$ が成り立ちますが、
$A$ に逆元が存在するとすると、$CA=E$ となる左逆元が存在し、
$$CAB=O$$
が成り立ちます。一方、
$$CAB=EB=B$$
にもなります。しかし、明らかに $B\neq O$ ですから、
$A$ に逆行列が存在しないことになります。
$B$ に逆行列が存在しないことも証明できます。
ここでは $2\times 2$ 行列の逆行列を求めてみます。
$A=\begin{pmatrix}a&b\\c&d\end{pmatrix}$
とし、$X=\begin{pmatrix}x&\ast\\y&\ast\end{pmatrix}$ とします。
$\ast$ は、何かの実数が入ると思ってください。
もし、$AX=E$ を満たすとすると、
$$\begin{pmatrix}a&b\\c&d\end{pmatrix}\begin{pmatrix}x&\ast\\y&\ast\end{pmatrix}=\begin{pmatrix}ax+by&\ast\\cx+dy&\ast\end{pmatrix}$$
よって、$ax+by=1$ かつ、$cx+dy=0$ を満たします。
この連立一次方程式を加減法によって解きます。
$adx+bdy=d$
$bcx+bdy=0$
ですから、
$(ad-bc)x=d$ となります。
よって、$ad-bc\neq 0$ であれば、$x=\frac{d}{ad-bc}$ と
同様に、$x$ を消すことによって、$y=\frac{-c}{ad-bc}$
同様に、$X=\begin{pmatrix}\ast&x\\\ast&y\end{pmatrix}$ として、
$AX=E$ を満たすとします。
同様に
$$\begin{pmatrix}a&b\\c&d\end{pmatrix}\begin{pmatrix}\ast&x\\\ast&y\end{pmatrix}=\begin{pmatrix}\ast&ax+by\\\ast&cx+dy\end{pmatrix}$$
を満たすので、$ax+by=0$ かつ $cx+dy=1$ となります。
これを加減法によって解きます。
$adx+bdy=0$
$bcx+bdy=b$
となりますから、$(ad-bc)x=-b$ となります。
よって、$x=\frac{-b}{ad-bc}$ が成り立ち、
$y$ を消すことによって、$y=\frac{a}{ad-bc}$ が成り立ちます。
これにより、共通して、$ad-bc\neq 0$ であるなら、
$$X=\frac{1}{ad-bc}\begin{pmatrix}d&-b\\-c&a\end{pmatrix}$$
が得られます。
よって、$A=\begin{pmatrix}a&b\\c&d\end{pmatrix}$ の逆行列
を作るには、まず、$ad-bc$ が $0$ でなければ、
$A$ には逆行列が存在して、
$\tilde{A}=\begin{pmatrix}d&-b\\-c&a\end{pmatrix}$
を作り、$\frac{1}{ad-bc}\tilde{A}$ を計算することで、$A$ の逆行列を計算することが
できます。ここで、$\frac{1}{ad-bc}\tilde{A}$ は、$\tilde{A}$ に
$\frac{1}{ad-bc}$ のスカラー倍をすることです。
本当にこの$\frac{1}{ad-bc}\tilde{A}$ が $A$ の逆行列となるかはご自分で確かめてください。
また、$(2,2)$ 行列 $A$ の $ad-bc$ のことを $\det(A)$ とかいて、
行列式と言います。英語では、determinant(ディターミナント)とも言います。
略して、デットなど言ったりもします。
(逆行列が存在するかどうかの判別をするので判別式とでも
言いたいところですが、判別式というと、もうすでに多項式の重解を持つかどうか
の式として先取されていますので、通常行列式と言います。)
直訳すれば、決定式とも言えますが、日本語ではそれもやはり使われません。
また、$a+d$ も、$(2,2)$ 行列を調べる上で重要なので、この数を
$(2,2)$ 行列 $A$ のトレース、跡などと言い、tr$(A)$ などと書きます。
これまでのところでわかったことは、
$$det(A)\neq 0\Rightarrow A\text{ は逆行列が存在する}$$
でした。実は、この逆が成り立ちます。
これは簡単に示すことができます。
ここで、次を示しておく必要があります。
問3.1.6
$A,B\in M(2,{\mathbb R})$ であるとすると、
$$\det(AB)=\det(A)\det(B)$$
が成り立つ。
これは、$A=\begin{pmatrix}a&b\\c&d\end{pmatrix}$ や $B=\begin{pmatrix}x&z\\y&w\end{pmatrix}$
を入れて計算することで直接示すことができます。
ここでは省略しておきます。
今、$A$ が逆行列を持つとすると、
$AA^{-1}=E$ となります。
そこで、この等式の両辺に行列式 $\det$ を取ってみると、
$$\det(AA^{-1})=\det(A)\det(A^{-1})=\det(E)=1$$
となりますので、特に、$\det(A)\neq 0$ であることがわかります。
この等式から、$\det(A^{-1})=\frac{1}{\det(A))}$ であることもわかりますね。
2つの集合 $X,Y$ のペアの空間、
$$X\times Y=\{(x,y)|x\in X,y\in Y\}$$
を直積集合と定義します。
${\mathbb R}\times {\mathbb R}$ を ${\mathbb R}^2$ と書く
ことにすれば、これは $\{(x,y)|x,y\in {\mathbb R}\}$ のことですので
平面の集合を表します。
${\mathbb R}\times {\mathbb R}\times {\mathbb R}={\mathbb R}^3$ は、
$\{(x,y,z)|x,y,z\in {\mathbb R}\}$ のことですので、
空間の集合を表します。
次に、$n=4$ の場合はあまり想像ができませんが、
${\mathbb R}^4$ は、$\{(x,y,z,w)|x,y,z,w\in {\mathbb R}\}$ のことであり、4次元空間のことを指します。
これ以上はさらに想像を超えるので、想像することを諦めて、実数が $n$ 個並んだもの
を全て集めた集合として一般に、${\mathbb R}^n={\mathbb R}\times {\mathbb R}\times \cdots\times {\mathbb R}$
として定義することで、
${\mathbb R}^n$ を、$n$ この実数のペアを集めたものを考えます。
つまり、$\{(x_1,x_2,\cdots, x_n)|x_i\in {\mathbb R}\}$ となる集合です。
今、$(x_1,x_2,\cdots, x_n)$ のことを、${\mathbb R}^n$ の元として、縦に
$$\begin{pmatrix}x_1\\x_2\\\vdots\\x_n\end{pmatrix}$$
のように並べて書くことにします。
これは、横に書いていたものと本質的に同じものです。
つまり今は、
$${\mathbb R}^n=\left\{\begin{pmatrix}x_1\\x_2\\\vdots\\x_n\end{pmatrix}|x_i\in {\mathbb R}\right\}$$
となるわけです。
この空間 ${\mathbb R}^n$ を平面ベクトルや空間ベクトルの一般化として考えたいです。
つまり、${\mathbb R}^n$ の元をベクトルと考えたいのです。
そのために、
$${\bf x}=\begin{pmatrix}x_1\\x_2\\\vdots\\x_n\end{pmatrix},{\bf y}=\begin{pmatrix}y_1\\y_2\\\vdots\\y_n\end{pmatrix}\in {\mathbb R}^n$$
に対して、その和を
$${\bf x}+{\bf y}=\begin{pmatrix}x_1+y_1\\x_2+y_2\\\vdots\\x_n+y_n\end{pmatrix}$$
のように定義します。
また、定数倍(スカラー倍)を
$$\alpha\cdot \begin{pmatrix}x_1\\x_2\\\vdots\\x_n\end{pmatrix}=\begin{pmatrix}\alpha x_1\\\alpha x_2\\\vdots\\\alpha x_n\end{pmatrix}$$
として定義します。
この和とスカラー倍は、$(n,1)$ 行列としての和とスカラー倍と考えることもできます。
このように、和とスカラー倍が定義された直積集合 ${\mathbb R}^n$ を
$n$ 次元ユークリッド空間といいます。
$n$ 次元数ベクトル空間ともいいます。
このように縦に並んだ形の ${\mathbb R}^n$ の元のことを(縦)ベクトルと言います。
次を定義しましょう。
定義3.1.1
$n$ 次元ユークリッド空間 ${\mathbb R}^n,{\mathbb R}^m$ に
対して、写像 $f:{\mathbb R}^n\to {\mathbb R}^m$ が
以下を満たすとき、$f$ を線形写像と言います。
${\bf x},{\bf y}$ を ${\mathbb R}^n$ の任意のベクトルとし、
$\alpha$ を任意の実数とします。
(1) $f({\bf x})+{\bf y})=f({\bf x})+f({\bf y})$
(2) $f(\alpha \cdot {\bf x})=\alpha\cdot f({\bf x})$
ここで、行列を用いた、線形写像を考えます。
$A\in M(m,n,{\mathbb R})$ とします。
このとき、
${\bf x}\in {\mathbb R}^n$ とすると、
$f_A:{\mathbb R}^n\to {\mathbb R}^m$ を ${\bf x}\mapsto A\cdot {\bf x}$
として定義します。
ここで、$A\cdot {\bf x}$ は、$(m,n)$ 行列と $(n,1)$ 行列の行列の積として
考えてください。
このとき、$A\cdot {\bf x}$ は、$M(m,1,{\mathbb R})$ つまり、${\mathbb R}^m$ となります。
このとき、実は $f_A$ は線形写像となります。
というのも、行列の分配法則を用いて、
$f_A({\bf x}+{\bf y})=A({\bf x}+{\bf y})=A{\bf x}+A{\bf y}=f({\bf x})+f({\bf y})$
また、
$f_A(\alpha\cdot {\bf x})=A(\alpha{\bf x})=\alpha\cdot A{\bf x}=\alpha f({\bf x})$
となります。
このとき、次が成り立ちます。
命題3.1.1
$f:{\mathbb R}^n\to {\mathbb R}^m$ が線形写像であるとすると、
ある $(m,n)$ 行列 $A$ が存在して、$f=f_A$ が成り立つ。
このことの証明は教科書にありますが、
簡単に説明しますと
ベクトル ${\bf e}_i\in {\mathbb R}^n$ をその $i$ 番目が $1$ で、それ以外は $0$ となる
ベクトルとします。このとき、
$$f({\bf e}_i)=\begin{pmatrix}a_{1i}\\\vdots\\a_{ni}\end{pmatrix}$$
とします。そうすると、
$${\bf x}=\begin{pmatrix}x_{1}\\\vdots\\x_{n}\end{pmatrix}=x_1{\bf e}_1+\cdots+x_n{\bf e}_n$$
となり、$f$ の線形性から、
$$f({\bf x})=f(x_1{\bf e}_1+\cdots+x_n{\bf e}_n)=x_1f({\bf e}_1)+\cdots+x_nf({\bf e}_n)$$
$$=\begin{pmatrix}a_{11}&\cdots &a_{1n}\\\cdots&\cdots&\cdots\\a_{n1}&\cdots&a_{nn}\end{pmatrix}\begin{pmatrix}x_1\\\vdots\\x_n\end{pmatrix}$$
$$=A{\bf x}=f_A({\bf x})$$
となります。ここで、$A$ は $A=(a_{ij})$ となる $(m,n)$ 行列となります。(証明終了)
よって、$f$ が線形写像であることと、それがある行列を用いて
${\bf x}\mapsto A{\bf x}$ のように書かれることは同値であるということになります。
つまり、それらは全く同じものを考えているということを意味します。
線形写像 $f:{\mathbb R}^n\to {\mathbb R}^m$ と $g:{\mathbb R}^m\to {\mathbb R}^k$
があるときに、合成写像 $g\circ f:{\mathbb R}^n\to {\mathbb R}^k$ が得られます。
$f=f_A$ であり、$g=f_B$ となる行列 $A\in M(m,n,{\mathbb R})$ かつ $B\in M(k,m,{\mathbb R})$
となります。$f$ と $g$ の合成も線形写像になります。(証明してみてください。)
なので、命題3.1.1を用いることで、$f_B\circ f_A$ はある行列 $C\in M(k,n,{\mathbb R})$
が存在して、$f_B\circ f_A=f_{C}$ となります。
${\bf x}\in {\mathbb R}^n$ に対して、
$$f_{B}\circ f_A({\bf x})=f_B(A{\bf x})=B(A{\bf x})=(BA){\bf x}$$
となるので、$f_B\circ f_A=f_{BA}$ となります。
つまり、行列の積は自然に線形写像の合成を意味するのです。
$n=m$ のとき、線形写像 $g:{\mathbb R}^n\to {\mathbb R}^n$ を線形変換もしくは一次変換
といいます。
この時、命題3.1.1を使い、正方行列 $A$ が存在して、
$f({\bf x})=A{\bf x}$ が成り立ちます。
線形変換 $f_A$ と $f_B$ の合成は、$f_B\circ f_A=f_{BA}$ が成り立ちます。
単位行列 $E$ に対して、$f_E=\text{id}_{{\mathbb R}^n}$ が成り立つことに
注意しておきます。
$A$ が逆行列 $A^{-1}$ が存在するとき、
$$f_A\circ f_{A^{-1}}=f_{AA^{-1}}=f_E=\text{id}_{{\mathbb R}^n}$$
$$f_{A^{-1}}\circ f_A=f_{A^{-1}A}=f_E=\text{id}_{{\mathbb R}^n}$$
よって、$f_{A^{-1}}$ は $f_A$ の逆写像となります。
逆写像に関しては、第2回を見てください。
つまり、
次は同値となります。
(i) $f_A$ は逆写像を持つ
(ii) $A$ が逆行列を持つ
(iii) $f_A$ が全単射である。
ちなみに、(i) と(iii)の同値性は、第2回で証明をしました。
0 件のコメント:
コメントを投稿