|| 計算はこうやって、って感じのルール集
この記事では、主に量子力学で使うものを解説。
厳密な話とかはあんまりしません。
スポンサーリンク
目次
ヒルベルト空間「数学がちゃんとできる保証」
内積空間「行列をスカラー値にする」
行列「物理量とかをこれで表す」
行列表示「関数やら演算子は行列で表せる」
ヒルベルト空間
|| 正しく計算するためのルールの集まり
これは『計算が問題無くできる保証』のことで、
「矛盾が出ないルールをまとめたもの」を指します。
詳しい内容は「代数学」の知識が必要で、
ちょっと専門的過ぎて分かり難いかも?
まあ感覚的には単なる「ルール」ですね。
それがかなり抽象化されて、大量にある感じ。
詳しい内容については、ここでは話しません。
ほぼ全て省略します。
省略する理由についてですけど、
一番でかい理由は、
特に知らなくても大丈夫だから、ですね。
それに、なんでそのルールが必要なのかってのが、
ルールだけを見てもよく分からないんですよ。
なので、詳しく知りたければ代数学を勉強してください。
用語としては『距離』とか、
『線形』『対称』『正』とか、
「距離空間」「内積空間」とか。
まあこういうのがあるんですけど、
ぶっちゃけよくわからんと思います。
なのでとりあえず、
ヒルベルト空間は↓を保証する、と覚えてください。
『距離が表現できる』
『ちゃんと数学ができる』
厳密には『複素内積空間』の条件を満たしていて、
『完備距離空間』の条件を満たしている「空間」を、
「ヒルベルト空間」と言います。
↑意味わからないですよね。
まあでも代数学の知識がないとわかるわけないんで、
わけわかんなくても気にしなくていいです。
内積空間
|| 内積って操作ができる保証
これは「ベクトルが使える保証」のことで、
当然「内積」っていう操作が使えることも保証してます。
これもなんとなく分かればOK。
これよりも「内積」って操作の方が重要で、
これは『計算上、必要になるもの』なので、
覚えてもらわないと困ります。
具体的には『ベクトルから』
「図形の長さを求める」のに必要でして、
量子力学では『直交性の保証』で使われます。
というわけで「内積」の紹介をします。
まあこれ、要は『ベクトルの掛け算』なので、
三平方の定理で見るのが一番わかりやすいですかね。
\begin{array}{rlc} \displaystyle ||\vec{b}-\vec{a}||^2&=(\vec{b}-\vec{a})(\vec{b}-\vec{a}) \\ \\ &=\vec{a}・\vec{a}+\vec{b}・\vec{b}-2\vec{a}・\vec{b} \end{array}
\vec{a}・\vec{b} みたいなのが内積
例えば「ベクトル \vec{a}=(a_1,a_2) 」をこうすると、
『座標の2乗の和 a^{2}_{1}+a^{2}_{2} 』はこうですから、
\begin{array}{rlc} \displaystyle \vec{a}・\vec{a}=||\vec{a}||^2&=a^{2}_{1}+a^{2}_{2} \\ \\ \vec{b}・\vec{b}=||\vec{b}||^2&=b^{2}_{1}+b^{2}_{2} \end{array}
こんな感じになりますよね。
まあ、内積ってのはこんなのなんですよ。
ただ、なんか「 \vec{a}・\vec{b} 」の部分って謎ですよね。
てなわけでこれなんですけど、↑のように
「長さ」みたいな感じに自然に定義すると、
||\vec{a}||\,||\vec{b}||\cosθ
ベクトルの傾きを合わせて掛け合わせる、
こういう定義が、最も都合が良いとされてます。
\begin{array}{rlc} \displaystyle ||\vec{a}||\,||\vec{b}||\cos \frac{π}{2} &=0 \\ \\ \displaystyle ||\vec{a}||\,||\vec{b}||\cos 0&=||\vec{a}||\,||\vec{b}|| \end{array}
ベクトルの向きを考えると、こうしたいので。
で、これ見てわかると思いますけど、
これは『計算に必要なもの』なんですよ。
意味としては、
「線形性」ってのがこれの核なんですけど、
これだけじゃ意味がつかみにくいと思います。
一応言っておくと、線形性ってのは、
例えば「 (a+b)(x+y) 」とかの、
「 ax+ay+bx+by みたいな形」の話です。
\begin{array}{rlc} \displaystyle k(x_1+x_2+\cdots+x_n)&=kx_1+kx_2+\cdots+kx_n \\ \\ \displaystyle k(x_1,x_2,\cdots,x_n)&=kx_1,kx_2,\cdots,kx_n \end{array}
こういう『横並び・線みたいな形』を、
数学では「線形」って呼んでるんですよ。
んでまあこれ、
\displaystyle \begin{pmatrix} a&b \ \end{pmatrix}\begin{pmatrix} x \\ y \\ \end{pmatrix}=ax+by
ベクトルの掛け算(内積)が
こんな感じに定義されてるので、
そこそこ見るんです。
「確率」と「期待値」とか、
『ベクトルを使う』ことで、
見やすく表現できるので。
例えば『長さ』とかを考える場合でも、
「 \sqrt{x^2+y^2} 」みたいな式が出てきます。
んでこれ、ベクトルで表現すると、
(x,y)(x,y)=x^2+y^2
そこそこ見やすいですよね。
なにより「ベクトル」は、
そのまま『原点からの座標』を表してるので、
「原点を通る直線(一次関数)」の感覚で扱えます。
まあ要は直感的な上に使いやすいわけですよ。
科学での具体的な使われ方としては、
「秒」と「長さ」の2つの軸を考えて、
ベクトルで『速度』を表現したりしますね。
ノルムと内積の記号
量子力学でよく出てくる記号の話をしておきます。
内積に関するものだと重要なやつが2つあって、
\langle・,・\rangle
||・||
これの意味は知らないとまずいので、紹介。
まず「内積」の記号の意味が↓
\begin{array}{rlc} \displaystyle \langle(x_1,x_2),(y_1,y_2)\rangle&=x_1y_1+x_2y_2 \\ \\ \displaystyle \langle(a_1,...,a_n),(b_1,...,b_n)\rangle&\displaystyle =\sum^{n}_{i=1}a_ib_i \\ \\ &=a_1b_1+a_2b_2+…+a_nb_n \end{array}
詳しくは後になりますが、
「ブラケット表記」って書き方だと↓
\begin{array}{rlc} \displaystyle \langle(x_1,x_2)|・|(y_1,y_2)\rangle&=\langle(x_1,x_2)|(y_1,y_2)\rangle \\ \\ &\displaystyle =\begin{pmatrix}x_1&x_2\end{pmatrix}\begin{pmatrix}y_1\\y_2\end{pmatrix} \\ \\ & =x_1y_1+x_2y_2 \end{array}
んで「ノルム(主に長さ)」ってやつの意味が↓
\displaystyle ||X||=\sqrt{\langle X,X\rangle}
\begin{array}{lrl} \displaystyle X=(x_1,x_2) \\ \\ &||X||&\displaystyle =\sqrt{|x_{1}|^{2}+|x_{2}|^{2}} \\ \\ \displaystyle X=(x_1,x_2,x_3)\\ \\ &||X||&\displaystyle =\sqrt{|x_{1}|^{2}+|x_{2}|^{2}+|x_{3}|^{2}} \end{array}
ベクトルの記号については、
この辺りを知っていれば基本はOK。
要は『座標や長さを求めたい』だけなので。
内積と積分
「内積」にも『一般性を与えるための表現の仕方』
というのがあって、ここではそれを紹介します。
まあどういうことかというと、
実はこの「内積」は「積分」で表せるんですよ。
\displaystyle \langle f(x),g(x) \rangle=\int_{-\infty}^{\infty} f(x)g(x) dx
具体的にはこんな感じに。
でもまあこれ、直観的にはよく分からんですよね。
でもまあ、自然に考えると実は↑は普通の話でして、
というのも↑は、単に↓を細かく表してるだけなんですよ。
x の間隔 dx=1 とすると、
\displaystyle \langle f(x),g(x) \rangle=\begin{pmatrix} f(\infty) \\ \vdots \\ f(2) \\ f(1) \\ f(0) \\ f(-1) \\ \vdots \\ f(-\infty) \end{pmatrix}^{\mathrm{tr}} \begin{pmatrix} g(\infty) \\ \vdots \\ g(2) \\ g(1) \\ g(0) \\ g(-1) \\ \vdots \\ g(-\infty) \end{pmatrix}dx
=f(\infty)g(\infty)+\cdots+f(0)g(0)+\cdots+f(-\infty)g(-\infty)
この場合の x の中身は「自然数」です。
んで図形のイメージとしては、
等間隔 dx=1 に長方形が並んでる感じですね。
で、 x の間隔 dx を 0 に近づけていけば、
x の中身を「実数全体」にできて、
自然に↓が導かれます。
\displaystyle \langle f(x),g(x) \rangle=\int_{-\infty}^{\infty} f(x)g(x) dx
内積は「自然数」の感覚が強いんですが、
こうすると「実数」の感覚で内積を扱えるようになります。
これはまあ、そのための考え方ですね。
これはわりと使われる表現なので、
ちゃんと理解して覚えておきましょう。
はい、とまあ、内積空間の基本はこんな感じです。
詳しくは「ベクトル空間」を勉強したら分かります。
興味があったら調べてみてください。
行列
|| ベクトルを1列もしくは1行に並べたもの
基本的には「連立方程式の別の表し方」だと思ってOK。
厳密には「ベクトルが一般化されたもの」ですけど。
使われ方は、だいたい『演算子』ですね。
より具体的には『複雑な演算子』として使われてます。
なんのこっちゃ分からんと思いますが、大丈夫。
使ったことない人には触れる機会すらないので、
知らなくて当然です。
まあともかく、こいつは科学を語る上では
どうしても避けて通れないものになります。
例えば「テンソル」っていう、
行列をさらに一般化した概念があるんですが、
これ、使われてるんですよ。
まあ、「行列」も「テンソル」も、
それ自体はそんなに重要ではないんですけど、
使うので、記号の意味は知っておかないといけません。
確認しておくと、
そもそも『表現したいもの』っていうのは、
「物理量」「座標・ベクトル」「時間」とかなんですよ。
つまり、この『表現したい』ってのが主目的。
そう、重要なのは『表現したいもの』で、
「行列・テンソル」はその『実現手段』ですから、
行列・テンソルをメインで見る必要はありません。
結局、何が言いたいかというと、
一般化されたものを重要視しないでね、って話。
まあどういうことかというと、
一般化されたものっていうのは、
「 n 次元」「 n 行/列」ってなるんですけど、
『時空間を説明する』のに、
次元はそんなに必要ない、じゃないですか。
必要な次元はだいたい「 4 次元」までで、
そもそも表現する場合は「座標」とかなので、
ほとんどが「 2,3 次元」で十分。
つまるところ、
過剰に一般化された部分は見る必要が無くて、
重要なのは「使える」部分だけ。
まあそもそも、数学的な「一般化」に必要なのは、
次元数としては『だいたい 3 つ』くらいあれば十分で、
つまりは「 3 次元」まででだいたいどうにかなります。
具体的には↓の書き方を覚えておけば、
行列に関してはだいたいおっけーです。
\displaystyle \begin{cases} ax+by=m \\ cx+dy=n \end{cases}
\begin{array}{rlc} \displaystyle \begin{pmatrix}a&b\\c&d\end{pmatrix}\begin{pmatrix}x\\y\end{pmatrix}&=\begin{pmatrix}ax+by\\cx+dy\end{pmatrix} \\ \\ \begin{pmatrix}ax+by\\cx+dy\end{pmatrix}&=\begin{pmatrix}m\\n\end{pmatrix} \end{array}
↑は「連立方程式」ですね。
見たままに、行列っていうのは、
基本的に「係数」を表してると思ってください。
x=α,\,y=β
\displaystyle \begin{pmatrix}1&0\\0&1\end{pmatrix}\begin{pmatrix}x\\y\end{pmatrix}=\begin{pmatrix}α\\β\end{pmatrix}
x=α,\,y=β,\,z=γ
\displaystyle \begin{pmatrix}1&0&0\\0&1&0\\0&0&1\end{pmatrix}\begin{pmatrix}x\\y\\z\end{pmatrix}=\begin{pmatrix}α\\β\\γ\end{pmatrix}
んで「解だけ」だと、
行列で表すとこうなります。
\vec{a_1}=(a_{11},a_{12})
\vec{a_2}=(a_{21},a_{22})
\begin{pmatrix} \vec{a_1} \\ \vec{a_2} \end{pmatrix}=\begin{pmatrix}a_{11}&a_{12}\\a_{21}&a_{22}\end{pmatrix}
んで、ベクトルの集まりとしてはこんなです。
こっちの方が行列の本質に近くはありますが、
あんまり直観的じゃありませんね。
はい、とまあ、この3つが行列の基礎です。
他の規則とか性質はここから求められてます。
一般化もここから。
単位行列と逆行列( ×1,×1/x )
「単位行列」っていうのがあるので紹介します。
超重要なので、これは絶対に覚えましょう。
\begin{array}{llc} E&=E_n \\ \\ =I&=I_{n} \\ \\ =\mathrm{Id}&=\mathrm{Id}_n \\ \\ &=\hat{1} \end{array}
\begin{array}{rlc} \displaystyle \mathrm{Id}_2&=\begin{pmatrix}1&0\\0&1\end{pmatrix} \\ \\ \mathrm{Id}_3&=\begin{pmatrix}1&0&0\\0&1&0\\0&0&1\end{pmatrix} \end{array}
\begin{array}{rlc} \displaystyle AI&=IA \\ \\ &=A \end{array}
これは、いわば「 n×n 行列」の、
掛け算で言う ×1 の 1 みたいなものです。
これが重要な理由は、
『 \hat{1} だから』って感じでしょうか。
これがないと始まらない、みたいな。
そんで、これがあるように、
例えば 2 に対する「 1/2 」みたいなものもあって、
そういうのを「逆行列」って言います。
\begin{array}{rlc} \displaystyle AA^{-1}&=A^{-1}A \\ \\ &=I \end{array}
A=\begin{pmatrix}a&b\\c&d\end{pmatrix}
\begin{array}{rlc} \displaystyle A^{-1}&\displaystyle =\frac{1}{ad-bc}\begin{pmatrix}d&-b\\-c&a\end{pmatrix} \\ \\ &\displaystyle =\frac{1}{\mathrm{det}A}\begin{pmatrix}d&-b\\-c&a\end{pmatrix} \end{array}
んで、これは必ず存在するってわけじゃなくて、
ad-bc=0 の場合には存在しません。
行列式(絶対値的な)
↑で出てきた「 \mathrm{det}A 」っていうのが、
「行列式」って言われてるものになります。
これは、いわば『行列の絶対値みたいなもの』で、
A_{2×2}=\begin{pmatrix}\textcolor{pink}{a_{11}}&\textcolor{skyblue}{a_{12}}\\\textcolor{skyblue}{a_{21}}&\textcolor{pink}{a_{22}}\end{pmatrix}
\begin{array}{rlc} \displaystyle |A_{2×2}|&=\mathrm{det}A_{2×2} \\ \\ &=\textcolor{pink}{a_{11}a_{22}}-\textcolor{skyblue}{a_{21}a_{12}} \end{array}
これは見た目単純なんですけど、
A_{3×3}=\begin{pmatrix}\textcolor{pink}{a_{11}}&a_{12}&a_{13}\\a_{21}&\textcolor{skyblue}{a_{22}}&\textcolor{skyblue}{a_{23}}\\a_{31}&\textcolor{skyblue}{a_{32}}&\textcolor{skyblue}{a_{33}}\end{pmatrix} の行列だと
\begin{array}{rlc} \displaystyle |A_{3×3}|&=\mathrm{det}A_{3×3} \\ \\ \\&=\begin{array}{rlc} a_{11}\left|\begin{array}{ccc}a_{22}&a_{23}\\a_{32}&a_{33}\end{array}\right| \\ \\+a_{12}\left|\begin{array}{ccc}a_{21}&a_{23}\\a_{31}&a_{33}\end{array}\right| \\ \\ +a_{13}\left|\begin{array}{ccc}a_{21}&a_{22}\\a_{31}&a_{32}\end{array}\right| \end{array} \\ \\ &=\begin{array}{rcc}a_{11}a_{22}a_{33}-a_{11}a_{23}a_{32}\\+a_{12}a_{21}a_{33}-a_{12}a_{23}a_{31}\\ +a_{13}a_{21}a_{32}-a_{13}a_{22}a_{31} \end{array} \end{array}
とてつもなく面倒になってます。
手計算だとすごい手間ですよね、これ。
ただこれ、割と重要なんですよ。
だから無視できません。
というのも、
「逆行列があるかどうか」の判定で使えるんです。
どういうことかというと、
「 \mathrm{det}A=0 」だと分かったなら、
A の逆行列は存在しない、と言えます。
そして逆を言えば、
こいつの値が 0 じゃないなら、
逆行列が存在する、って確定させられるんですよ。
2×2のやつは確実に分かりますし、
詳しい証明はだいぶ長くなるので省略します。
知りたい人は「余因子行列」で調べてみてください。
話は変わりますが、
この行列式には図形的な意味があって、
例えば2×2のものだと、
「行列」が『2つの点 (a_{11},a_{12}),(a_{21},a_{22}) 』を表してて、
A=\begin{pmatrix}a_{11}&a_{12}\\a_{21}&a_{22}\end{pmatrix}
|\mathrm{det}A|=|a_{11}a_{22}-a_{21}a_{12}|
これが4つの点で表せる、
「平行四辺形の面積」を表してます。
\begin{array}{llll} &&(a_{11}+a_{21},a_{12}+a_{22}) \\ \\ &(a_{11},a_{12})&(a_{21},a_{22}) \\ \\ (0,0) \end{array}
操作としては、
正方形の外側をカットする感じ。
んで、残ったやつがこれです。
ちなみにこれを半分にすれば、
原点とベクトルの「三角形の面積」ですね。
まあなんでこうなるかはさておいて、
とりあえず、こういうものだと思っておいてください。
回転行列(ベクトルをくるくる)
行列の中でも特に重要なのがあって、
その1つに「回転行列」っていうのがあります。
\begin{array}{rlc} \displaystyle z&=a+bi \\ \\ z&=r(\cosθ+i\sinθ) \\ \\ &=r\,e^{iθ} \end{array}
\left\{ \begin{array}{rlc} \displaystyle a&=r \cos θ \\ \\ b&=r \sin θ \\ \\ r&=\sqrt{a^2+b^2} \end{array} \right.
具体的には、この『複素数の感覚』を使って、
\displaystyle r\begin{pmatrix} \cosθ & \,?\, \\ \sinθ & \,?\, \end{pmatrix}\begin{pmatrix} 1 \\ 0 \end{pmatrix}=r\begin{pmatrix} \cosθ \\ \sinθ \end{pmatrix}
三角関数の加法定理(数IIの範囲)から、
逆算することで導かれます。
\begin{array}{rlc} \displaystyle \begin{pmatrix} \cosθ\cos0-\sinθ\sin0 \\ \sinθ\cos0 + \cosθ\sin0 \end{pmatrix}&=\begin{pmatrix} \cos(θ+0) \\ \sin(θ+0) \end{pmatrix} \\ \\ \\ \displaystyle \begin{pmatrix} \cosθ & -\sinθ \\ \sinθ & \cosθ \end{pmatrix}\begin{pmatrix} \cos0 \\ \sin0 \end{pmatrix}&=\begin{pmatrix} \cosθ \\ \sinθ \end{pmatrix} \\ \\ \\ \displaystyle \begin{pmatrix} \cosθ & -\sinθ \\ \sinθ & \cosθ \end{pmatrix}\begin{pmatrix} \cos α \\ \sin α \end{pmatrix}&=\displaystyle \begin{pmatrix} \cosθ\cos α-\sinθ\sin α \\ \sinθ\cos α + \cosθ\sin α \end{pmatrix} \\ \\ &=\begin{pmatrix} \cos (θ+α) \\ \sin (θ+α) \end{pmatrix}\end{array}
はい、まあこんな感じにして、
「ベクトルの傾きを θ 回転させる」ことを実現する、
『 2×2 の回転行列』っていうのが得られるわけです。
\displaystyle \mathrm{Rot}(θ)=\begin{pmatrix} \cosθ & -\sinθ \\ \sinθ & \cosθ \end{pmatrix}
そしてこれに「実数 r 」をかけると、
「ベクトルの r 倍の長さの伸縮」も実現できるんですね。
\begin{array}{rlc} r_1\begin{pmatrix} \cosθ & -\sinθ \\ \sinθ & \cosθ \end{pmatrix}r_2\begin{pmatrix} \cos α \\ \sin α \end{pmatrix}&=r_1r_2\begin{pmatrix} \cos (θ+α) \\ \sin (θ+α) \end{pmatrix} \end{array}
で、これを見てわかると思いますが、
「あらゆるベクトル」に対して、
『全ての角度 θ の回転』と
『 r 倍の伸縮』が実現できてます。
そう、つまり「回転行列」と「 r 」を使うと、
「あらゆるベクトル」を、
『すべてのベクトルに変換できる』んです。
余談ですが、固有ベクトルに対してのものなら、
r は『固有値』と呼ばれたりしますね。
この話は、今はスルーで良いです。
ともかく「回転行列」については、
「回転」と「伸縮」が実現できることから、
行列が「どのようなベクトルの集まり」であっても、
『全てのベクトルに変換できる』から重要なんですね。
とまあこんな感じに、
「回転行列の存在」から、
『いろんな変換(演算子)』を導けることが分かりました。
量子力学では、
「個数演算子の固有ベクトル(?)」ってのを使って、
『観測可能量』っていうのを表したりします。
まあともかく、この『回転行列 \mathrm{Rot}(θ) 』が
超便利だってことを覚えておきましょう。
転置行列(ベクトルの表示を縦→横,横→縦に)
これもわりと大事なので紹介しておきます。
いやまあ、これが大事ってよりは、
「これを使う理由」の方が大事なんですが。
まあともかく、これは『恒等演算子 \hat{1} 』っていう、
「特に何も変えない」操作を考える時に必要なので、
スルーできない、って感じに思っておいてください。
↑で言う「何も変えない」っていうのは、
掛け算で言う ×1
足し算で言う +0 とかのことですね。
それと、これは他にも
『ベクトルの横表示・縦表示の入れ替え』でも必要なんです。
複素数の『共役』っていう操作の、
「入れ替え」の感覚を表現するのに、
こいつは最も適してるので。
ちなみに「複素共役」っていうのは、
「 a+bi と a-bi の関係」のことです。
\begin{array}{rll} \displaystyle z&=a+bi \\ \\ \\ \overline{z}&=z^* \\ \\ &=a-bi \end{array}
記号はこういうのが使われてます。
z・\overline{z}=a^2+b^2
で、なんでこれが大事かについては、
これがしたいから、なんですよ。
見てわかるとは思いますが、
「ほぼ同じ z と \overline{z} だけ」を使って、
『虚数を実数に変換することが出来る』わけで。
まあつまり、『ほとんど形を変えない』で、
「分かりやすい形に変換できる」んですよ、これ使うと。
まあ、だからこれは大事なんですね。
で、肝心の「転置行列」なんですけど、
\displaystyle A=\begin{pmatrix} \textcolor{skyblue}{a}&b&c \end{pmatrix}
\begin{array}{rlll} {}^\mathrm{t}A&=A^\mathrm{t}&=A^\mathrm{T} \\ \\ &=A^{\mathrm{tr}}&=\begin{pmatrix} \textcolor{skyblue}{a}\\b\\c \end{pmatrix} \end{array}
\begin{pmatrix} \textcolor{skyblue}{a_{11}}&a_{12}&a_{13}\\a_{21}&\textcolor{skyblue}{a_{22}}&a_{23}\\a_{31}&a_{32}&\textcolor{skyblue}{a_{33}} \end{pmatrix}^{\mathrm{tr}}=\begin{pmatrix} \textcolor{skyblue}{a_{11}}&a_{21}&a_{31}\\a_{12}&\textcolor{skyblue}{a_{22}}&a_{32}\\a_{13}&a_{23}&\textcolor{skyblue}{a_{33}} \end{pmatrix}
(X^{\mathrm{tr}})^{\mathrm{tr}}=X
まあこんな感じです。
見たまま、「行と列を入れ替える」操作になります。
で、量子力学ではどうなのかって話なんですが、
「エルミート演算子」もしくは「随伴作用素」
これを説明するとき、この転置行列が必要になるんですよ。
行列の積の転置行列
これ、ちょっと特殊なので押さえておきます。
計算の手続きで使うので覚えておきましょう。
結論としては↓ですね。
\displaystyle (AB)^{\mathrm{tr}}=B^{\mathrm{tr}}A^{\mathrm{tr}}
これは↓の2つを見れば納得できるかと。
\displaystyle X=\begin{pmatrix} x_1&x_2&x_3&\cdots&x_n \end{pmatrix}
\displaystyle Y=\begin{pmatrix} y_1&y_2&y_3&\cdots&y_n \end{pmatrix}
\displaystyle XY^{\mathrm{tr}}=x_1y_1+x_2y_2+x_3y_3+\cdots+x_ny_n
\displaystyle YX^{\mathrm{tr}}=y_1x_1+y_2x_2+y_3x_3+\cdots+y_nx_n
1つはベクトルのこれ。
んでもう1つは 2×2 の具体例です。
\displaystyle A=\begin{pmatrix} a_{11}&a_{12} \\ a_{21}&a_{22} \end{pmatrix}
\displaystyle B=\begin{pmatrix} b_{11}&b_{12} \\ b_{21}&b_{22} \end{pmatrix}
\displaystyle \begin{array}{rlc} (AB)^{\mathrm{tr}}&=\begin{pmatrix} a_{11}b_{11}+a_{12}b_{21} & a_{11}b_{12}+a_{12}b_{22} \\ a_{21}b_{11}+a_{22}b_{21} & a_{21}b_{12}+a_{22}b_{22} \end{pmatrix}^{\mathrm{tr}} \\ \\ &=\begin{pmatrix} a_{11}b_{11}+a_{12}b_{21} & a_{21}b_{11}+a_{22}b_{21} \\ a_{11}b_{12}+a_{12}b_{22} & a_{21}b_{12}+a_{22}b_{22} \end{pmatrix} \end{array}
\displaystyle \begin{array}{rlc} B^{\mathrm{tr}}A^{\mathrm{tr}}&=\begin{pmatrix} b_{11}&b_{21} \\ b_{12}&b_{22} \end{pmatrix}\begin{pmatrix} a_{11}&a_{21} \\ a_{12}&a_{22} \end{pmatrix} \\ \\ &=\begin{pmatrix} b_{11}a_{11}+b_{21}a_{12}&b_{11}a_{21}+b_{21}a_{22} \\ b_{12}a_{11}+b_{22}a_{12}&b_{12}a_{21}+b_{22}a_{22} \end{pmatrix} \\ \\ &=(AB)^{\mathrm{tr}} \end{array}
「→↓」「↓→(転置)」が一致する
って言ってるだけですね。
証明はこれを一般化する感じです。
興味あれば自分でやってみてください。
まあ、これ分かれば十分なんですが。
行列表示
これは「演算子」を『行列で表示する』やり方の話。
行列力学って言われてる分野の一分野とも言えます。
量子力学では必須の部分で、
核の1つと言っても良いでしょう。
てなわけで、
「行列表示」についてざっとぱっと解説すると、
\displaystyle \begin{array}{rlc} \displaystyle f(x)&=1+x+x^2 \\ \\ f(1)&=1+1+1^2 \end{array}
まず『行列表示ではない』見慣れた表し方ですが、
こんな形のやつは見たことがあるはずです。
これについては、特に疑問は無いでしょう。
じゃ、問題の「行列表示は?」って話ですが、
これは↓みたいな感じになるんですよ。
\begin{array}{rlc} \displaystyle f(x)&=ax^2+bx+c \\ \\ \displaystyle f(x)&=\begin{pmatrix} a&b&c \end{pmatrix}\begin{pmatrix} x^2\\x^1\\x^0 \end{pmatrix} \\ \\ \\ f&=\begin{pmatrix} a&0&0\\0&b&0\\0&0&c \end{pmatrix} \end{array}
分かりやすいですね。
まあこれだけじゃあれなので、
「微分」の場合も見ておきましょうか。
\begin{array}{rlc} \displaystyle \displaystyle \frac{d}{dx}f(x)&=2ax+b \\ \\ \displaystyle \frac{d}{dx}f&=\displaystyle \begin{pmatrix} 0&2a&b \end{pmatrix} \end{array}
\begin{array}{rlc} \displaystyle \displaystyle 1&=\begin{pmatrix} 0&0&1 \end{pmatrix}\begin{pmatrix} x^2\\x^1\\x^0 \end{pmatrix} \\ \\ \displaystyle x&=\begin{pmatrix} 0&1&0 \end{pmatrix}\begin{pmatrix} x^2\\x^1\\x^0 \end{pmatrix} \\ \\ \displaystyle x^2&=\begin{pmatrix} 1&0&0 \end{pmatrix}\begin{pmatrix} x^2\\x^1\\x^0 \end{pmatrix} \end{array}
これをまとめて並べてみれば、
↓みたいになるのがわかると思います。
\textcolor{skyblue}{x^2}+\textcolor{pink}{x}+1=\begin{pmatrix} \textcolor{skyblue}{1}&\textcolor{skyblue}{0}&\textcolor{skyblue}{0} \\ \textcolor{pink}{0}&\textcolor{pink}{1}&\textcolor{pink}{0} \\ 0&0&1 \end{pmatrix}\begin{pmatrix} x^2\\x^1\\x^0 \end{pmatrix}
んで、こうなると分かれば、
「微分」が↓みたいになるのもわかると思います。
\begin{array}{rlc} \displaystyle \frac{d}{dx}\begin{pmatrix} 1&0&0 \\ 0&1&0 \\ 0&0&1 \end{pmatrix}\begin{pmatrix} x^2\\x^1\\x^0 \end{pmatrix} &=(x^2)^{\prime}+(x)^{\prime}+(1)^{\prime} \\ \\ &=\begin{pmatrix} 0&2&0 \\ 0&0&1 \\ 0&0&0 \end{pmatrix}\begin{pmatrix} x^2\\x^1\\x^0 \end{pmatrix} \\ \\ \\ \displaystyle \frac{d}{dx}&=\begin{pmatrix} 0&2&0 \\ 0&0&1 \\ 0&0&0 \end{pmatrix} \end{array}
はい、とまあ「行列表示」ってのはこんなのです。
そんなに難しくないですよね。
ちなみにこの場合での、
「 x^2,x^1,x^0 」みたいなやつを、
行列の用語で「基底」と言います。
んで見ての通り、行列は、
この「基底」を定めないと分かりません。
そう、「基底」を定めてから分かるんですよ。
てことは、「基底」の定め方で、
書き方が変化しそうじゃありませんか?
試しに「基底」を「 x^0,x^1,x^2 」として、
↑と順番を入れ替えてみましょうか。
\begin{array}{rlc} \displaystyle \frac{d}{dx}(1+x+x^2)&=\begin{pmatrix} 0&0&0 \\ 1&0&0 \\ 0&2&0 \end{pmatrix}\begin{pmatrix} x^0\\x^1\\x^2 \end{pmatrix} \\ \\ \displaystyle \frac{d}{dx}&=\begin{pmatrix} 0&0&0 \\ 1&0&0 \\ 0&2&0 \end{pmatrix} \end{array}
演算子を表す行列の中身が変わりましたね。
はい、つまり「基底」によって、
行列表示されたものの中身は変わるんです。
一応、基底の話を少ししておきます。
この基底ですけど、↑の説明だけだと、
なんだか好きに定めてもいい感じがしませんか?
いやまあ、実際は、
好きにとっていいわけではなくて、
条件ってのはちゃんとあるんですけど、
じゃあどういうのがいいの? って話ですよね。
感覚的な説明としては、
『伸び縮みさせると全部表せる』やつ
って感じなんですけど、まあ、はい。
詳しくは省きますが、
↓の条件を満たすものですね。
\begin{array}{rlc} \displaystyle a_1x_1+a_2x_2+a_3x_3&=0 \\ \\ ⇒\,\,\,\,\,a_1=a_2=a_3&=0 \end{array}
\begin{array}{rrl} \displaystyle \sum_{i=1}^{n}a_ix_i&=a_1x_1+a_2x_2+\cdots+a_nx_n&=0 \\ \\ &⇒\,\,\,\,\,a_1=a_2=\cdots=a_n&=0 \end{array}
まあ見てわかると思いますが、
↑は「 x_i を a_i 倍」すれば、
いろんな関数↓が作れる、みたいなことを言ってます。
\begin{array}{rlc} \displaystyle f(x_i)&=a_0x_0+a_1x_1+…+a_nx_n \\ \\ \\ \displaystyle f(x_i)&=a_0x^0+a_1x^1…+a_nx^n \\ \\ \displaystyle f(x_i)&=a_0e^{i0x}+a_1e^{i1x}…+a_ne^{inx} \end{array}
なので、これが基底を定める条件だっていうのは、
なんとなーくわかるかと。
まあですから、
こういう『 a_i 倍される x_i の集まり』を、
意味のあるものとして、「基底」って呼んでるんですね。
で、そもそもなんでこれが必要なのかって話ですけど、
これ、量子力学の「基礎方程式」で使われてるんです。
ですから、知らないことには始まりません。
\displaystyle \hat{H}=\begin{pmatrix} \displaystyle-\frac{ℏ^2}{2m}\frac{d^2 }{d q^2} & U(q) \end{pmatrix}
具体的には、こういう「物理量 \hat{H} 」を『行列表示』して、
『演算子として表す』ことで、
量子の状態なんかを記述してます。
行列を「取り得る値の集まり」として考えると、
『位置・運動量』なんかを「行列表示」して、
「行列の感覚で導けるようにできる」ので。
『物理量(関数)』を『演算子として考える』ってのは、
学校で習った数学の感覚じゃよく分からんと思いますが、
要は↑みたいな話なので、難しく考えないでください。