|| 観測可能量がこれ、って言われる
とりあえず『実数を返すやつ』って覚えときゃOK。
これはまあそんなやつですね。
スポンサーリンク
目次
エルミート演算子「観測可能量はこれで表す」
固有値方程式「基礎方程式はこれ」
三角行列「固有値を求めやすい形の行列」
ユニタリ行列「かなり 1 っぽい行列」
ディラック記法「縦と横のベクトルを区別して書く」
エルミート演算子の性質「固有値が実数になる」
随伴作用素/エルミート演算子
|| 固有値が実数になる都合の良い行列
これは『実数にしたい』っていう要求を満たすものでして、
厳密には『観測値(固有値)を実数にするためのもの』です。
まあどういうことかというと、
「観測可能量は実数」なわけですよ。
いやだって、エネルギーとか重さとか、
実数じゃなく、例えば複素数とかだかったら、
数の意味がよくわかんないじゃないですか。
まあだから『意味を読み取りやすい』ように、
計算結果は「実数であってほしい」わけですよ。
んで、この自然な要求を保証するにあたって、
当たり前なんですけど、
そういう『操作』が必要になったわけです。
はい、とまあそんな感じで、
「エルミート演算子」はそういうものなんですね。
↑の要求をを実現できる、
都合の良い性質を持つように定義されてます。
\begin{pmatrix} a&bi \end{pmatrix}\begin{pmatrix} a\\-bi \end{pmatrix}=a^2+b^2
\begin{array}{rll} z&=a+bi \\ \\ \\ \displaystyle z&=\overline{z} &⇒b=0 \\ \\ z&=\overline{z}&=a \end{array}
もっとも単純で分かりやすい形で表すと、
実現したいのはこんな感じですね。
後はこれをベクトル→行列の範囲に広げる感じ。
まあこれ、要はただの「計算上の手続き」です。
『複素数が使われてる計算』から、
『実数だけを取り出したい』ってのを実現するのに、
「必要になる行列」の話でしかないんですよ。
ちょっとだけ具体的な話をしておくと、
波動関数は「複素関数」で、
それを含む計算結果を実数にしたい、みたいな。
今の時点じゃわかんないとは思いますが、
「波の状態/振幅(複素数)」→「確率(実数)」
って感じの操作をするときに使います。
まとめると、『複素数を計算で使う』けど、
『計算結果は実数であってほしい』時、
エルミート演算子ってのが出てきます。
つまり『観測可能量は実数』という制約のもと、
都合の良い性質を持つ計算手続きを作った結果、
「エルミート演算子が生まれた」って感じ。
ですから、基本はこじつけ。
これ自体に意味を見出す必要はあまりありません。
まあともかく、
エルミート演算子ってのはそういう類のものです。
これ自体は特に重要ではありません。
単に「共役複素数が持つ性質」を、
『行列』のパターンで使えるように「一般化」しただけ。
つまりは「 (a+bi)(\overline{a+bi})=a^2+b^2 」を、
行列でできるようにした結果の産物だ、
みたいに思っておけばOKです。
エルミート随伴・共役
これは『共役複素数』の感覚を一般化したやつです。
具体的には↓みたいなことをしたいので、
\begin{array}{llc} \displaystyle \begin{pmatrix} z_{11}&z_{12} \\ z_{21}&z_{22} \end{pmatrix}\begin{pmatrix} \overline{z_{11}}&\overline{z_{12}} \\ \overline{z_{21}}&\overline{z_{22}} \end{pmatrix}^{\mathrm{tr}} \\ \\ =\begin{pmatrix} \textcolor{pink}{z_{11}\overline{z_{11}}+z_{12}\overline{z_{12}}}&z_{11}\overline{z_{21}}+z_{12}\overline{z_{22}} \\ z_{21}\overline{z_{11}}+z_{22}\overline{z_{12}}&\textcolor{pink}{z_{21}\overline{z_{21}}+z_{22}\overline{z_{22}}} \end{pmatrix} \end{array}
この→にあるやつが欲しい、という感じ。
これを使えば、対角にある要素だけですが、
その部分だけは間違いなく実数に変換できてますし。
でこれ、まんま複素共役の感じがしませんか?
X=\begin{pmatrix} z_{11}&z_{12} \\ z_{21}&z_{22} \end{pmatrix}
\begin{array}{rll} \displaystyle X^*&=X^{\dagger} \\ \\ \overline{X}^{\mathrm{tr}}&=\overline{X^{\mathrm{tr}}}&=\begin{pmatrix} \overline{z_{11}}&\overline{z_{12}} \\ \overline{z_{21}}&\overline{z_{22}} \end{pmatrix}^{\mathrm{tr}} \\ \\ &&=\begin{pmatrix} \textcolor{skyblue}{\overline{z_{11}}}&\overline{z_{21}} \\ \overline{z_{12}}&\textcolor{skyblue}{\overline{z_{22}}} \end{pmatrix} \end{array}
はい、まあそんな感じで、
この「 X^*\,\,\,X^{\dagger}\,\,\,\overline{X}^{\mathrm{tr}} 」が
『エルミート随伴』って言われてるものになります。
ちなみに具体的な使い方なんですけど、
↓みたいな行列を導くときに使いますね。
\begin{array}{rrl} \displaystyle &A&=\begin{pmatrix} 1&1-i \\ 1+i&1 \end{pmatrix} \\ \\ A^{\dagger}&=\overline{A}^{\mathrm{tr}}&=\begin{pmatrix} 1&1-i \\ 1+i&1 \end{pmatrix} \end{array}
んでほかにも、
↓みたいなことをやるときも使います。
\begin{array}{rlc} \displaystyle \langle\psi|&=\begin{pmatrix} z_{1}&z_2&\cdots&z_{n}&\cdots \end{pmatrix} \\ \\ \langle\psi|\langle\psi|^{\dagger}&=\begin{pmatrix} z_{1}&\cdots&z_{n}&\cdots \end{pmatrix} \begin{pmatrix} \overline{z_{1}} \\ \overline{z_{2}} \\ \vdots \\ \overline{z_{n}} \\ \vdots \end{pmatrix} \\ \\ &=z_1\overline{z_1}+z_2\overline{z_2}+...+z_n\overline{z_n}+... \end{array}
\psi=\overline{\psi}\,\,\,⇒
\begin{array}{rlc} \displaystyle \langle\psi|^{\dagger}&=|\psi\rangle \\ \\ |\psi\rangle^{\dagger}&=\langle\psi| \end{array}
こういう『複素数を中身に持ってる』
↑のブラケットベクトルの関係とか、
\begin{array}{rlc} \displaystyle UU^*&=U^*U \\ \\ &=\hat{1} \end{array}
↑の性質を満たす U っていう行列の存在とか、
こういうのを考えるとき、
エルミート共役を使うと楽に書けるんですね。
ちなみにこの「 U 」は『ユニタリ行列』と呼ばれてます。
詳細は後で。
まとめると、
『複素数を使いたい』し、
『行列も使いたい』んだけど、
『実数みたいな感覚で使いたい』し、
『計算結果は実数が良い』。
んで、そういう我儘・都合を考えた時、
↑のエルミート共役が使える、ってわけですね。
エルミート演算子
んで肝心の「エルミート演算子」ですが、
これは、エルミート共役という操作を行っても
『同じになる行列』のことで、
「エルミート共役」とはまた違った概念です。
具体的には↓の条件を満たしてる行列 A が、
「エルミート演算子」と言われてるものになります。
\begin{array}{rlc} \displaystyle \langle AX,Y\rangle&=\langle X,AY\rangle \\ \\ A&=A^{\dagger} \end{array}
専門的な言い回しとしては、
これを満たす「 A 」を、内積についての
「エルミート演算子」って言ったりもしますね。
極端な例ですが、
具体的には↓みたいなやつもエルミート行列です。
\begin{array}{rlc} \displaystyle I&=\begin{pmatrix} 1&0 \\ 0&1 \end{pmatrix} \\ \\ I^{\dagger}&=\begin{pmatrix} \overline{1}&\overline{0} \\ \overline{0}&\overline{1} \end{pmatrix}^{\mathrm{tr}}\\ \\&=\begin{pmatrix} 1&0 \\ 0&1 \end{pmatrix} \\ \\ \\ I&=I^{\dagger} \end{array}
\begin{array}{lrl} \displaystyle IX=X\,\,\,\,\,&\langle IX,Y\rangle &=\langle X,Y\rangle \\ \\ IY=Y\,\,\,\,\,&\langle X,IY\rangle &=\langle X,Y\rangle \\ \\ &\langle IX,Y\rangle &=\langle X,IY\rangle \end{array}
この他に、↓とかも A=A^{\dagger} を満たします。
A=\begin{pmatrix} 1&i \\ -i&1 \end{pmatrix}
はい、まあエルミート演算子の概要はこんな感じ。
詳しくは「固有値方程式」の後に話します。
話は変わりますが、
ここで慣例の話をしておきます。
記号についての話なんですけど、
行列を演算子として表す時、「 \hat{A} 」みたいに、
「 \hat{ } 」この記号を上に書く場合が多いです。
といっても「行列」であることに変わりはないので、
『演算子だ』ってことを強調してるだけ、
という風に考えてください。
ちなみに I は「単位行列」なんですけど、
これは「恒等作用素」なんて呼ばれたりもします。
そのときは \hat{1},\hat{I},\hat{E} って書かれたりしますね。
はい、まあ演算子についてはこんな感じです。
性質を確かめてないので実感しにくいでしょうけど、
なんか「 ×1,×r っぽい」な、ってのが分かればOK。
固有値方程式
|| 行列の固有値?と固有ベクトル?を求める方程式
これは『固有値』と『固有ベクトル』を求めるものです。
量子力学の基礎方程式が、実はこれ。
「量子力学」の用語で言い換えるなら、
『観測値』が「固有値」に、
『状態』が「固有ベクトル」に対応してます。
なんのこっちゃよく分からんと思いますが、
いったんさておいて、
固有値方程式は↓みたいな式のことを言います。
\begin{array}{rlr} \displaystyle A\vec{x}&=λ\vec{x}&(x≠\vec{0}) \\ \\ A|\vec{x}\rangle&=λ|\vec{x}\rangle&(x≠\vec{0}) \\ \\ (A-λI)\vec{x}&=\vec{0}&(x≠\vec{0}) \end{array}
A が「行列」で、
\vec{x} が「固有ベクトル(基底みたいなもの)」で、
λ が「固有値(スカラー値)」です。
まあつまりこれ、内容としては
『行列が』無回転で λ 倍の伸縮をさせている、
ということを意味しています。
とりあえず2×2で見てみると、
\begin{array}{rlc} \displaystyle \begin{pmatrix} a_{11}&a_{12} \\ a_{21}&a_{22} \end{pmatrix}\begin{pmatrix} x_1 \\ x_2 \end{pmatrix}&=λ\begin{pmatrix} x_1 \\ x_2 \end{pmatrix} \\ \\ \\ \displaystyle \begin{pmatrix} a_{11}&a_{12} \\ a_{21}&a_{22} \end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \end{pmatrix}&=λ\begin{pmatrix} 1&0 \\ 0&1 \end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \end{pmatrix} \\ \\ \displaystyle \left( \begin{pmatrix} a_{11}&a_{12} \\ a_{21}&a_{22} \end{pmatrix} - λ\begin{pmatrix} 1&0 \\ 0&1 \end{pmatrix} \right) \begin{pmatrix} x_1 \\ x_2 \end{pmatrix}&=\begin{pmatrix} 0 \\ 0 \end{pmatrix} \end{array}
固有値方程式はこんな感じ。
馴染みのない人からすると、
ほんとこれ、何を求めるのかわけ分かんないと思います。
結論としては、「行列 A だけ」がわかってて、
そこから「 λ と \vec{x} 」が求められる、って感じです。
というわけでこの求め方なんですけど、
まず「行列 A が確定した状態」からスタートします。
\begin{array}{rll} \displaystyle A&→(A-λI)\vec{x}=\vec{0} \\ \\ &→\det(A-λI)=0&→λ \\ \\ &→(A-λI)\vec{x}=\vec{0}&→\vec{x} \end{array}
そうすると、最初に「固有値 λ 」が求められます。
んで「固有ベクトル \vec{x} 」はその次ですね。
より具体的な流れとしては、
まず当然の話として、
「 \vec{x} 」に「 0 ベクトル」が来ちゃいます。
\begin{array}{rll} \displaystyle (A-λI)\vec{x}&=\vec{0} \\ \\ \vec{x}&=\vec{0}&=\begin{pmatrix}0\\0\end{pmatrix} \end{array}
\begin{pmatrix}a_{11}-λ&a_{12}\\a_{21}&a_{22}-λ\end{pmatrix}\begin{pmatrix}0\\0\end{pmatrix}=\begin{pmatrix}0\\0\end{pmatrix}
しかしこれ、特に意味のある結果を導きませんよね。
だからなに? で話は終わっちゃいます。
まあですから、
「意味のあるものを求める」ためには、
「固有ベクトル」は『 \vec{0} ではない』としないといけません。
\begin{array}{rlc} A^{-1}A\vec{x}=\vec{0}&→\vec{x}=\vec{0} \\ \\ \det(A)≠0&→\vec{x}=\vec{0} \end{array}
てことは、↑がまずいってことがわかります。
逆行列が存在すると↑の操作ができちゃうので。
そう、この操作を認めてしまうと、
方程式の値を見ればわかるように、
『固有ベクトルは必ず \vec{0} になってしまう』んです。
ということは、
仮に「 \vec{x}≠\vec{0} だ」ってことにすると、
固有値方程式は「解けない」ってことになっちゃいます。
ただ、逆を言えば、
↑の操作ができないとするのなら、
『 \vec{x} は \vec{0} ベクトルじゃないかもしれない』わけで。
つまり「逆行列が存在しない」場合、
『固有ベクトルは存在する可能性がある』し、
『固有ベクトルは \vec{0} にならない』とできそうです。
てことで、以上のことから、
\vec{0} 以外の固有ベクトルを求める場合、
\mathrm{det}(A-λI)=0
これが最低限の条件として導けるんですね。
んで固有値は、これを根拠にして導いていきます。
2×2だと『固有値 λ 』の計算は↓みたいな感じ。
\begin{array}{rlc} \displaystyle \mathrm{det}(A-λI)&=0 \\ \\ \left| \begin{array}{ccc}a_{11}-λ&a_{12}\\a_{21}&a_{22}-λ\end{array} \right|&=0 \\ \\ (a_{11}-λ)(a_{22}-λ)-a_{12}a_{21}&=0 \end{array}
んでこの後は、二次方程式の解の計算ですね。
\begin{array}{rlc} \displaystyle λ^2-(a_{11}+a_{22})λ+a_{11}a_{22}-a_{12}a_{21}&=0 \\ \\ \displaystyle \left(λ-\frac{1}{2}(a_{11}+a_{22})\right)^2-\left(\frac{1}{2}(a_{11}+a_{22})\right)^2&=-\mathrm{det}A \end{array}
\begin{array}{rlc} \displaystyle \left(λ-\frac{1}{2}(a_{11}+a_{22})\right)^2&\displaystyle=-\mathrm{det}A+\left(\frac{1}{2}(a_{11}+a_{22})\right)^2 \\ \\ λ&=λ_1,λ_2 \\ \\ \end{array}
これで「固有値 λ 」が計算できます。
てなわけで次、
『固有ベクトル \vec{x} 』を導いていきます。
\begin{array}{rlc} \displaystyle \begin{pmatrix} a_{11}&a_{12} \\ a_{21}&a_{22} \end{pmatrix}\begin{pmatrix} x_1 \\ x_2 \end{pmatrix}&=λ\begin{pmatrix} x_1 \\ x_2 \end{pmatrix} \\ \\ \begin{pmatrix} a_{11}x_1+a_{12}x_2 \\ a_{21}x_1+a_{22}x_2 \end{pmatrix}&=\begin{pmatrix} λx_1 \\ λx_2 \end{pmatrix} \end{array}
\begin{cases} a_{11}x_1+a_{12}x_2&=λx_1 \\ a_{21}x_1+a_{22}x_2&=λx_2 \end{cases}
\begin{cases} a_{11}α+a_{12}β&=λα \\ a_{21}α+a_{22}β&=λβ \end{cases}
\begin{array}{rlc} \displaystyle a_{11}α+a_{12}β&=λα \\ \\ a_{12}β&=(λ-a_{11})α \end{array}
\displaystyle \begin{cases} α&=c \\ \displaystyle β&\displaystyle =\frac{λ-a_{11}}{a_{12}}c \end{cases}
まあそのまま連立方程式ですね。
特に説明の必要はないでしょう。
ただ、中学校時代じゃ見慣れないこともしていますね。
x_1,x_2 のどちらかを好きな定数 c で固定しちゃってます。
これ、していいの? って思う人もいると思いますが、
していいです。値が確定しない(なんでもいい)ので。
\displaystyle \begin{cases} α&=c \\ \\ \displaystyle β&\displaystyle =\frac{λ-a_{11}}{a_{12}}c \end{cases}
はい、とにかくこのようにすると、
「固有ベクトル」を導くことができます。
以上、「固有値方程式」の、
『固有値』『固有ベクトル』導出までの流れはこんな感じです。
対角和/トレース
これは「行列からスカラー値を得る」計算です。
そこそこ重要なので覚えてください。
\begin{array}{rlc} \displaystyle A&=\begin{pmatrix} \textcolor{pink}{1}&2&3 \\ 4&\textcolor{pink}{5}&6 \\ 7&8&\textcolor{pink}{9} \end{pmatrix} \\ \\ \displaystyle \mathrm{Tr}(A)&=1+5+9 \end{array}
\begin{array}{rlc} \displaystyle A&=\begin{pmatrix} \textcolor{pink}{a_{11}}&a_{12}&a_{13}&\cdots \\ a_{21}&\textcolor{pink}{a_{22}}&a_{23}&\cdots \\ a_{31}&a_{32}&\textcolor{pink}{a_{33}}&\cdots \\ \vdots&\vdots&\vdots& \end{pmatrix} \\ \\ \displaystyle \mathrm{Tr}(A)&=a_{11}+a_{22}+a_{33}+... \\ \\ &\displaystyle =\sum_{i=1}^{n}a_{ii} \end{array}
なんで重要かについては、
↓を見るとなんとなくわかると思います。
\begin{array}{rlc} \displaystyle Ax&=λx \\ \\ \displaystyle λ&=λ_1,λ_2,λ_3,... \\ \\ \\ \displaystyle \mathrm{Tr}(A)&=λ_1+λ_2+λ_3+... \end{array}
まあこんな感じに、
『固有値の和』と「対角和」は、
等しくなるんですよ。
んでこれ、量子力学では、
「確率の和」とかで使われてます。
ちなみに「行列式」と『固有値』にも
↓みたいな関係があります。
\displaystyle \mathrm{det}(A)=λ_1λ_2λ_3…
こっちもそこそこ重要。
てなわけなので、
このあたりに関する「行列」の話について、
ちょっと深堀しておきましょうか。
三角行列
これは『整理された行列』とでも言うべきでしょうか。
「三角」ってのは、見た目を指してると思っておけばOK。
\begin{array}{rlc} Λ_{2×2}^{↑}&=\displaystyle \begin{pmatrix} a_{11}&a_{12} \\ 0&a_{22} \end{pmatrix} \\ \\ Λ_{3×3}^{↑}&=\displaystyle \begin{pmatrix} a_{11}&a_{12}&a_{13} \\ 0&a_{22}&a_{23} \\ 0&0&a_{33} \end{pmatrix}\\ \\ Λ_{3×3}^{↓}&=\displaystyle \begin{pmatrix} a_{11}&0&0 \\ a_{21}&a_{22}&0 \\ a_{31}&a_{32}&a_{33} \end{pmatrix} \end{array}
具体的にはこういうのが「三角行列」って呼ばれてて、
\displaystyle Λ^{↑}=\begin{pmatrix} a_{11}&a_{12}&a_{13}&a_{14}&\cdots \\ 0&a_{22}&a_{23}&a_{24}&\cdots \\ 0&0&a_{33}&a_{34}&\cdots \\ 0&0&0&a_{44}&\cdots \\ \vdots &\vdots &\vdots &\vdots \end{pmatrix}
\displaystyle Λ^{↓}=\begin{pmatrix} a_{11}&0&0&0&\cdots \\ a_{21}&a_{22}&0&0&\cdots \\ a_{31}&a_{32}&a_{33}&0&\cdots \\ a_{41}&a_{42}&a_{43}&a_{44}&\cdots \\ \vdots &\vdots &\vdots &\vdots \end{pmatrix}
「上三角行列」と「下三角行列」があります。
んでこれ、実はけっこう特殊な性質を持ってるんですよ。
まあ、メタ的にそうだろなって思うでしょうけど。
三角行列と固有値
まあともかく性質についてですが、
実はこいつの「固有値」を計算すると、
その値は『対角成分 a_{ii} 』になるんです。
\begin{array}{rlc} \displaystyle \displaystyle Λx&=λx \\ \\ \displaystyle λx-Λx&=O \\ \\ \\ \displaystyle (λI-Λ)x&=O \\ \\ \displaystyle |λI-Λ|&=0 \end{array}
\displaystyle λI-Λ=\begin{pmatrix} λ-a_{11}&a_{12}&a_{13}&a_{14}&\cdots \\ 0&λ-a_{22}&a_{23}&a_{24}&\cdots \\ 0&0&λ-a_{33}&a_{34}&\cdots \\ 0&0&0&λ-a_{44}&\cdots \\ \vdots &\vdots &\vdots &\vdots \end{pmatrix}
\begin{array}{rlc}\displaystyle A&=\begin{pmatrix} a_{11}&a_{12}&a_{13} \\ 0&a_{22}&a_{23} \\ 0&0&a_{33} \end{pmatrix} \\ \\ \\ \displaystyle \mathrm{det}(A)&=\begin{array}{rlc} a_{11}\left| \begin{array}{cc} a_{22}&a_{23} \\ 0&a_{33} \end{array} \right|\\ \\ +a_{12}\left| \begin{array}{cc} 0&a_{23} \\ 0&a_{33} \end{array} \right|\\ \\+a_{13}\left| \begin{array}{cc} 0&a_{22} \\ 0&0 \end{array} \right| \end{array} \\ \\ \\ &\displaystyle =a_{11}a_{22}a_{33}+0+0 \end{array}
この計算には、
「左端が全部0の行列」の性質を使ってます。
\displaystyle \left| \begin{array}{ccc} 0&*&*&\cdots \\ 0&*&*&\cdots \\ 0&*&*&\dots \\ \vdots & \vdots &\vdots \end{array} \right|=0
行列式 \mathrm{det} の計算手順を考えれば、
これはすぐに納得できるかと。
\begin{array}{rrc}\displaystyle \left| \begin{array}{cccc} 0&*&*&* \\ 0&*&*&* \\ 0&*&*&* \\ 0&*&*&* \end{array} \right|&=0\left| \begin{array}{ccc} *&*&* \\ *&*&* \\ *&*&* \end{array} \right| \\ \\ &\displaystyle +*\left| \begin{array}{ccc}0&*&* \\ 0&*&* \\ 0&*&*\end{array} \right| \\ \\ &+*\left| \begin{array}{ccc}0&*&* \\ 0&*&* \\ 0&*&* \end{array} \right| \\ \\ &+*\left| \begin{array}{ccc}0&*&* \\ 0&*&* \\ 0&*&* \end{array} \right| &=0 \end{array}
ちなみに * の中身はなんでも良いです。
\displaystyle |λI-Λ|=\left| \begin{array}{ccccc} λ-a_{11}&a_{12}&a_{13}&a_{14}&\cdots \\ 0&λ-a_{22}&a_{23}&a_{24}&\cdots \\ 0&0&λ-a_{33}&a_{34}&\cdots \\ 0&0&0&λ-a_{44}&\cdots \\ \vdots &\vdots &\vdots &\vdots \end{array} \right|
\begin{array}{rrc} |λI-Λ|&=\displaystyle (λ-a_{11})\left| \begin{array}{ccc} λ-a_{22}&a_{23}&\cdots \\ 0&λ-a_{33}&\cdots \\ \vdots &\vdots \end{array} \right| \\ \\ &+a_{12}\left| \begin{array}{ccc} 0&a_{23}&\cdots \\ 0&λ-a_{33}&\cdots \\ \vdots &\vdots \end{array} \right| \\ \\ & \vdots \end{array}
\begin{array}{rlc} \displaystyle (λI-Λ)x&=O \\ \\ |λI-Λ|&=\displaystyle (λ-a_{11})(λ-a_{22})(λ-a_{33})\cdots \\ \\ &=0 \end{array}
\displaystyle λ=a_{11},a_{22},a_{33},\cdots
んで、固有値はこうなります。
\displaystyle \mathrm{Tr}(Λ)=a_{11}+a_{22}+a_{33}+\cdots
これで分かって欲しいですが、
分からない場合は
5×5行列を手計算でやってみてください。
三角化可能
「正方行列( n×n の行列)」は、
全て、三角行列にすることができる。
これはそういう事実についての話です。
\displaystyle P^{-1}AP=Λ
具体的には、これを満たす
『三角化する行列 P が存在する』って話で、
「行列は整理できる」って話の根拠がこれ。
んで、この『三角行列の固有値』なんですが、
これが『行列 A の固有値』になるんですよ。
証明は後で。
まあとりあえず、
まずは「三角化可能」の証明をしておきます。
重要なんで、ちょっと丁寧に証明しましょうか。
帰納法を使います。
全体の流れをざっと説明すると、
「固有ベクトル」→「三角化する行列」という感じです。
\begin{array}{rll} \displaystyle PP^{-1}&=I &=\begin{pmatrix} 1&0 \\ 0&1 \end{pmatrix} \end{array}
\begin{array}{rlc} \displaystyle P&=\begin{pmatrix} p_1\\p_2 \end{pmatrix} \\ \\ \displaystyle P^{-1}&=\begin{pmatrix} r_1&r_2 \end{pmatrix}\\ \\ \\ \displaystyle P^{-1}P&=\begin{pmatrix} r_1\\r_2 \end{pmatrix}\begin{pmatrix} p_1&p_2 \end{pmatrix} \\ \\ &=\begin{pmatrix} r_1p_1&r_1p_2 \\ r_2p_1&r_2p_2 \end{pmatrix} \end{array}
\displaystyle r_ip_j=δ_{ij}=\left\{ \begin{array}{cl} 0&i≠j \\ 1&i=j \end{array} \right.
加えて、逆行列のこの性質も使います。
結論の式を見れば使い方は想像がつくかと。
はい、てなわけで固有値方程式を考えて、
これが『解けている』とします。
まあつまり、行列式を使って計算した後、
「固有値」も「固有ベクトル」も分かってる、とします。
\begin{array}{rlc} \displaystyle Ap_1&=λ_1p_1 \\ \\ \displaystyle A&=\begin{pmatrix} a_{11}&a_{12}\\a_{21}&a_{22} \end{pmatrix} \end{array}
ここで「三角化する行列を作る行列 P_1 」を、
『縦の固有ベクトル p_1 でできてる』とします。
\begin{array}{rlc} \displaystyle P_1&=\begin{pmatrix} \begin{pmatrix} p_{11}\\p_{12} \end{pmatrix} & \begin{pmatrix} 0\\1 \end{pmatrix} \end{pmatrix} \\ \\ \\ \displaystyle P_2&=\begin{pmatrix} \begin{pmatrix} 1\\0 \end{pmatrix} & \begin{pmatrix} p_{21}\\p_{22} \end{pmatrix} \end{pmatrix} \end{array}
\begin{array}{rlc} \displaystyle Ap_1&=λ_1p_1 \end{array}
計算して整理しておきましょうか。
\begin{array}{rlc} \displaystyle AP&=A\begin{pmatrix} p_1&p_2 \end{pmatrix} \\ \\ &\displaystyle =\begin{pmatrix} Ap_1&Ap_2 \end{pmatrix} \\ \\ &\displaystyle =\begin{pmatrix} a_{11}p_{11}+a_{12}p_{12} & a_{11}p_{21}+a_{12}p_{22} \\ a_{21}p_{11}+a_{22}p_{12} & a_{21}p_{21}+a_{22}p_{22} \end{pmatrix} \end{array}
\begin{array}{rlc} \displaystyle AP_1&=A\begin{pmatrix} p_1&|1\rangle \end{pmatrix} \\ \\ &\displaystyle =\begin{pmatrix} Ap_1&A|1\rangle \end{pmatrix} \\ \\ &\displaystyle =\begin{pmatrix} a_{11}p_{11}+a_{12}p_{12} & a_{11}0+a_{12}1 \\ a_{21}p_{11}+a_{22}p_{12} & a_{21}0+a_{22}1 \end{pmatrix} \\ \\ &\displaystyle =\begin{pmatrix} a_{11}p_{11}+a_{12}p_{12} & a_{12} \\ a_{21}p_{11}+a_{22}p_{12} & a_{22} \end{pmatrix}\end{array}
これを見てわかると思いますが、
このように『単位行列の列ベクトル』を使うと、
「1列だけ」変更できることがわかると思います。
\begin{array}{rlc} \displaystyle P_1P_2&=\begin{pmatrix} \begin{pmatrix} p_{11}\\p_{12} \end{pmatrix} & \begin{pmatrix} 0\\1 \end{pmatrix} \end{pmatrix}\begin{pmatrix} \begin{pmatrix} 1\\0 \end{pmatrix} & \begin{pmatrix} p_{21}\\p_{22} \end{pmatrix} \end{pmatrix} \\ \\ &=\begin{pmatrix} p_{11}&0\\p_{12}&1 \end{pmatrix}\begin{pmatrix} 1&p_{21}\\0&p_{22} \end{pmatrix} \\ \\ &=\begin{pmatrix} p_{11}&p_{11}p_{21}\\p_{12}&p_{12}p_{21}+p_{22} \end{pmatrix} \end{array}
ただ、結論として導かれる「三角化できる行列」は、
固有ベクトルをそのまま使うとごちゃついてしまいます。
\begin{array}{rlc} \displaystyle P_2&=\begin{pmatrix} \begin{pmatrix} 1\\0 \end{pmatrix} & \begin{pmatrix} p_{21}\\p_{22} \end{pmatrix} \end{pmatrix} \\ \\ &=\begin{pmatrix} 1 & \textcolor{pink}{0}\\0 & p_{22} \end{pmatrix} \end{array}
\begin{array}{rlc} \displaystyle P_1P_2&=\begin{pmatrix} p_{11}&p_{11}p_{21}\\p_{12}&p_{12}p_{21}+p_{22} \end{pmatrix} \\ \\ &=\begin{pmatrix} p_{11}&0\\p_{12}&p_{22} \end{pmatrix} \end{array}
なので、余計な場所に影響を与えないように、
「影響を与えた個所」である『1行目と1列目』に、
影響を与えないようにします。
\begin{array}{rlc} \displaystyle P^{-1}AP&=\begin{pmatrix} r_1\\r_2 \end{pmatrix} A \begin{pmatrix} p_1&p_2 \end{pmatrix} \\ \\ &\displaystyle =\begin{pmatrix} r_1\\r_2 \end{pmatrix}\begin{pmatrix} Ap_1&Ap_2 \end{pmatrix} \\ \\ \\ &\displaystyle =\begin{pmatrix} r_1Ap_1&r_1Ap_2 \\ r_2Ap_1&r_2Ap_2 \end{pmatrix} \end{array}
あとは「 δ_{ij} 」を使うためにこうやって、
加えて、固有値方程式 Ax=λx を使えば、
行列 A をスカラー λ にできるので、
交換法則を使えるようにすることも。
\begin{array}{rlc} \displaystyle Ap_1&=λ_1p_1 \\ \\ \displaystyle \begin{pmatrix} r_1Ap_1&r_1Ap_2 \\ r_2Ap_1&r_2Ap_2 \end{pmatrix}&=\begin{pmatrix} r_1λ_1p_1&r_1Ap_2 \\ r_2λ_1p_1&r_2Ap_2 \end{pmatrix} \\ \\ &\displaystyle =\begin{pmatrix} λ_1r_1p_1&r_1Ap_2 \\ λ_1r_2p_1&r_2Ap_2 \end{pmatrix} \end{array}
\begin{array}{rlc} \displaystyle r_2p_1&=0 \\ \\ \displaystyle r_1p_1&=1 \\ \\ \displaystyle \begin{pmatrix} λ_1r_1p_1&r_1Ap_2 \\ λ_1r_2p_1&r_2Ap_2 \end{pmatrix}&=\begin{pmatrix} λ_1&r_1Ap_2 \\ 0&r_2Ap_2 \end{pmatrix} \end{array}
そうするとまあこのように、
「1列を、対角成分以外 0 にできる」し、
「1列目の対角成分を固有値にできる」のがわかるかと。
んで、2×2 より大きい行列の場合は、
この操作を繰り返す感じですね。
\begin{array}{rll} \displaystyle A_{k×k}P_{1} & →λ_1,p_1 \\ \\ & → (P_{1}^{-1}AP_{1})_{k×k} \\ \\ (P_{1}^{-1}AP_{1})_{k-1×k-1}P_{2}^{\prime} & →λ_2,p^{\prime}_{2} \\ \\ & → (P_{2}^{-1}P_{1}^{-1}AP_{1}P_{2})_{k×k} \\ \\ &\vdots \\ \\ P_{1}P_{2}\cdots P_{k-1}&=P \end{array}
はい、とまあこんな感じの流れで、
固有値方程式から得られた「固有ベクトル」から、
『三角化する行列』を導けます。
ちょっと飛びますが、
k×k の感じが↓なのは分かりますよね?
\begin{array}{rlc} \displaystyle P^{-1}_{1}AP_{1}&=\begin{pmatrix} r_1\\r_2\\ \vdots \\ r_k \end{pmatrix}A\begin{pmatrix} p_1&p_2&\cdots&p_k \end{pmatrix} \\ \\ &\displaystyle =\begin{pmatrix} r_1Ap_1& r_1Ap_2 & r_1Ap_3 & \cdots & r_1Ap_k \\ r_2Ap_1&r_2Ap_2&r_2Ap_3&\cdots&r_2Ap_k \\ \vdots&\vdots&\vdots& &\vdots \\ r_kAp_1&r_kAp_2&r_kAp_3&\cdots&r_kAp_k \end{pmatrix} \end{array}
\displaystyle Ap_1=λ_1p_1
\begin{array}{rlc} \displaystyle P^{-1}_{1}AP_{1}&=\displaystyle \begin{pmatrix} r_1λ_1p_1& r_1Ap_2 & r_1Ap_3 & \cdots & r_1Ap_k \\ r_2λ_1p_1&r_2Ap_2&r_2Ap_3&\cdots&r_2Ap_k \\ \vdots&\vdots&\vdots& &\vdots \\ r_kλ_1p_1&r_kAp_2&r_kAp_3&\cdots&r_kAp_k \end{pmatrix} \end{array}
\displaystyle r_ip_j=δ_{ij}=\left\{ \begin{array}{cl} 0&i≠j \\ 1&i=j \end{array} \right.
\begin{array}{rlc} \displaystyle P^{-1}_{1}AP_{1}&=\displaystyle \begin{pmatrix} λ_1r_1p_1& r_1Ap_2 & r_1Ap_3 & \cdots & r_1Ap_k \\ 0&r_2Ap_2&r_2Ap_3&\cdots&r_2Ap_k \\ \vdots&\vdots&\vdots& &\vdots \\ 0&r_kAp_2&r_kAp_3&\cdots&r_kAp_k \end{pmatrix} \end{array}
はい、とまあこうなりますから、
この次に 1 行目と 1 列目を除いた行列を考えて、
\begin{array}{rlc} \displaystyle P_{2}&=\begin{pmatrix} 1&0&0&\cdots \\ 0&p^{\prime}_{22}&p^{\prime}_{23}&\cdots \\ 0&p^{\prime}_{32}&p^{\prime}_{33}&\cdots \\ \vdots \end{pmatrix} \\ \\ P_{2}^{\prime}&=\begin{pmatrix} p^{\prime}_{22}&p^{\prime}_{23}&\cdots \\ p^{\prime}_{32}&p^{\prime}_{33}&\cdots \\ \vdots&\vdots \end{pmatrix} \\ \\ &=\begin{pmatrix} p^{\prime}_{2}&p^{\prime}_{3}&p^{\prime}_{4}&\cdots \end{pmatrix} \\ \\ \\ \displaystyle (P^{-1}_{1}AP_{1})_{k-1}&=\begin{pmatrix} r_1Ap_2 & r_1Ap_3 & \cdots & r_1Ap_k \\ r_2Ap_2&r_2Ap_3&\cdots&r_2Ap_k \\ \vdots&\vdots& &\vdots \\ r_kAp_2&r_kAp_3&\cdots&r_kAp_k \end{pmatrix} \end{array}
こういう行列を使って、
↑と同じようなことをすると、
\begin{array}{rll} \displaystyle (P^{-1}_{1}AP_{1})_{k-1}p^{\prime}_{2}&=λ_2p_{2}^{\prime} \end{array}
\begin{array}{llc} \displaystyle P_{1}^{-1}AP_{1}\\ \\=\begin{pmatrix} λ_1& r_1Ap_2 & r_1Ap_3 & \cdots & r_1Ap_k \\ 0&r_2Ap_2&r_2Ap_3&\cdots&r_2Ap_k \\ \vdots&\vdots&\vdots& &\vdots \\ 0&r_kAp_2&r_kAp_3&\cdots&r_kAp_k \end{pmatrix} \\ \\ \\ \displaystyle P^{-1}_{2}P^{-1}_{1}\textcolor{pink}{A}P_{1}P_{2}\\ \\=\begin{pmatrix} λ_1& * & * & \cdots & * \\ 0&r^{\prime}_{2}r_2Ap_2p^{\prime}_{2}&*&\cdots&* \\ \vdots&\vdots&\vdots& &\vdots \\ 0&r^{\prime}_{k}r_kAp_2p^{\prime}_{2}&r^{\prime}_{k}r_kAp_3p^{\prime}_{3}&\cdots& r^{\prime}_{k}r_kAp_kp^{\prime}_{k} \end{pmatrix}\\ \\=\begin{pmatrix} λ_1& * & * & \cdots & * \\ 0&r^{\prime}_{2}λ_2p^{\prime}_{2}&*&\cdots&* \\ \vdots&\vdots&\vdots& &\vdots \\ 0&r^{\prime}_{k}λ_2p^{\prime}_{2}&r^{\prime}_{k}r_kAp_3p^{\prime}_{3}&\cdots& r^{\prime}_{k}r_kAp_kp^{\prime}_{k} \end{pmatrix} \end{array}
\begin{array}{rlc} \displaystyle r^{\prime}_{2}p^{\prime}_{2}&=1 \\ \\ r^{\prime}_{k}p^{\prime}_{2}&=0&k≠2 \end{array}
\begin{array}{llc} \displaystyle P^{-1}_{2}P^{-1}_{1}\textcolor{pink}{A}P_{1}P_{2} \\ \\ =\begin{pmatrix} λ_1& * & * & \cdots & * \\ 0&λ_2&*&\cdots&* \\ \vdots&\vdots&\vdots& &\vdots \\ 0&0&r^{\prime}_{k}r_kAp_3p^{\prime}_{3}&\cdots& r^{\prime}_{k}r_kAp_kp^{\prime}_{k} \end{pmatrix} \end{array}
とまあこのようにして、
後はこの作業を k 回くらいやり続ければ、
\begin{array}{rlc} \displaystyle (P^{-1}_{2}P^{-1}_{1}AP_{1}P_{2})_{k-2}p^{\prime\prime}_{3}&=λ_3p^{\prime\prime}_{3} \\ \\ \end{array}
\begin{array}{llc} \displaystyle P^{-1}_{3}P^{-1}_{2}P^{-1}_{1}\textcolor{pink}{A}P_{1}P_{2}P_{3} \\ \\ =\begin{pmatrix} λ_1& * & * & \cdots & * \\ 0&λ_2&*&\cdots&* \\ 0&0&λ_3&\cdots&* \\ \vdots&\vdots&\vdots& &\vdots \\ 0&0&0&\cdots& r^{\prime\prime}_{k}r^{\prime}_{k}r_kAp_kp^{\prime}_{k}p^{\prime\prime}_{k} \end{pmatrix} \end{array}
\displaystyle \vdots
「三角化する行列 P 」の存在が導けて、
\begin{array}{rlc} \displaystyle P^{-1}_{1} \cdots P^{-1}_{k-1}P^{-1}_{k}\textcolor{pink}{A}P_{k}P_{k-1}P_{k-2}\cdots P_{1}&=Λ \\ \\ \displaystyle P_{k}P_{k-1}P_{k-2}\cdots P_{1} &=P\end{array}
こんな感じに、三角行列に変換できます。
手順を整理すると、
「固有値の計算」
→「固有ベクトルを選ぶ」
→「1列を変換する行列を固有ベクトルから作る」
→「列を変換したい行列に作用させる」
→「行列の1列を変換する」
で後はこの繰り返しって感じですね。
ちなみに「あらゆる行列 A 」の、
「固有値が n 個すべて異なる」場合に限り、
三角化だけでなく対角化もできます。
おさらいしておくと、
こいつが有用な理由は↓です。
\displaystyle P^{-1}AP=\begin{pmatrix} a_{11}&*&*&* \\ 0&a_{22}&*&* \\ 0&0&a_{33}&* \\ 0&0&0&a_{44} \end{pmatrix}
この行列の固有値が、
『行列 A の固有値』になる。
\begin{array}{llc} \displaystyle |λI-P^{-1}AP| \\ \\ =(λ-a_{11})(λ-a_{22})(λ-a_{33})(λ-a_{44}) \end{array}
同じになる証明は↓に書いておきます。
\begin{array}{rlc} \displaystyle |Λ-λI|&=|P^{-1}AP-λI| \\ \\ &\displaystyle =|P^{-1}AP-P^{-1}PλI| \\ \\ &\displaystyle =|P^{-1}(AP-PλI)| \\ \\ \\ &\displaystyle =|P^{-1}(AP-λIP)| \\ \\ &\displaystyle =|P^{-1}(A-λI)P| \end{array}
\displaystyle \det AB=\det A \det B
\begin{array}{rlc} \displaystyle |P^{-1}(A-λI)P|&=|P^{-1}|\,|A-λI|\,|P| \\ \\ &\displaystyle =|P^{-1}|\,|P|\,|A-λI| \\ \\ \\ &\displaystyle =|P^{-1}P|\,|A-λI| \\ \\ &\displaystyle =|I|\,|A-λI| \\ \\ &=|A-λI| \end{array}
\begin{array}{rlc} \displaystyle |Λ-λI|&=|A-λI| \\ \\ &=0 \end{array}
ただの式変形ですね。
分かりやすいと思います。
んでまあ、「三角行列」はこの性質を満たすわけですよ。
つまり『すでに三角化されている』のなら、
固有値が簡単に求まる、と言えるじゃないですか。
加えて、あらゆる正方行列は三角化可能です。
つまり「三角化してから」計算できます。
そう、行列を「初めから」
そのように整理してしまえば、
固有値の計算に全く手間がかからないんですよ。
まあですから、
『整理されている状態』の形として、
これは重要なんですね。
ユニタリ行列
めちゃくちゃ『 1 っぽい行列』がこれ。
厳密には『 1 を分解したもの』なんですけど。
使い道としては、
「あんまり変化させない」みたいな、
そういう感じのを表現するときに使われます。
具体的には「時間発展」っていう、
いわば『時間による変化』を扱う時とかに使いますね。
これの詳細は記事の後半で話します。
ともかく、こいつが持ってる性質は↓です。
\begin{array}{rlc} \displaystyle ||Uq||&=||q|| \\ \\ \\ \displaystyle Ux=λx&→|λ|=1 \\ \\ \\\displaystyle \det(U)&=|U|\\ \\&=1 \end{array}
んで、こいつの「列/行」は、
『両方とも、正規直行の基底』になります。
イメージしにくいかもしれないんで、
具体的なやつを求めてみましょうか。
\begin{array}{rlc} \displaystyle z&=r(\cosθ+i\sinθ) \\ \\ \displaystyle \overline{z}&=r(\cosθ-i\sinθ) \end{array}
\begin{array}{rll} \displaystyle UU^{\dagger}&=U^{\dagger}U \\ \\ &=I&=\begin{pmatrix} 1&0\\0&1 \end{pmatrix} \end{array}
\begin{array}{rlc} \displaystyle U&=\begin{pmatrix} z_{11}&\textcolor{pink}{z_{12}} \\ \textcolor{skyblue}{z_{21}}&z_{22} \end{pmatrix} \\ \\ \displaystyle U^{\dagger}&=\begin{pmatrix} \overline{z_{11}}&\overline{\textcolor{skyblue}{z_{21}}} \\ \overline{\textcolor{pink}{z_{12}}}&\overline{z_{22}} \end{pmatrix} \end{array}
\begin{array}{rlc} \displaystyle UU^{\dagger}&=\begin{pmatrix} \textcolor{pink}{z_{11}\overline{z_{11}}+z_{12}\overline{z_{12}}} & z_{11}\overline{z_{21}}+z_{12}\overline{z_{22}} \\ {z_{21}\overline{z_{11}}+z_{22}\overline{z_{12}}} & \textcolor{pink}{{z_{21}\overline{z_{21}}+z_{22}\overline{z_{22}}}} \end{pmatrix} \\ \\ &=\begin{pmatrix} 1&0\\0&1 \end{pmatrix} \end{array}
まあこんな感じになってて、
かなりいろいろ考えられるので、
適当に「 r=1 」にして考えてみます。
\displaystyle \begin{array}{rl} z\overline{z} & =r(\cosθ+i\sinθ)r(\cosθ-i\sinθ)\\ \\ & =r^2(\cos^2θ-i^2\sin^2θ) \\ \\ \\ & =\cos^2θ-i^2\sin^2θ \\ \\ & =\cos^2θ+\sin^2θ \\ \\ &=1 \end{array}
\displaystyle \begin{pmatrix} \textcolor{pink}{z_{11}\overline{z_{11}}+z_{12}\overline{z_{12}}} & z_{11}\overline{z_{21}}+z_{12}\overline{z_{22}} \\ {z_{21}\overline{z_{11}}+z_{22}\overline{z_{12}}} & \textcolor{pink}{{z_{21}\overline{z_{21}}+z_{22}\overline{z_{22}}}} \end{pmatrix}=\begin{pmatrix} 1+1 & * \\ * & 1+1 \end{pmatrix}
1にならないので、
「1になるようにする(規格化)」と、
\begin{array}{rlc} \displaystyle z_{11}\overline{z_{11}}+z_{12}\overline{z_{12}}&=1 \\ \\ \displaystyle z_{21}\overline{z_{21}}+z_{22}\overline{z_{22}}&=1 \\ \\ \\ \displaystyle ±\frac{1}{\sqrt{2}}z±\frac{1}{\sqrt{2}}\overline{z}&\displaystyle =\frac{1}{2} \end{array}
\displaystyle \left\{ \begin{array}{ccc} \displaystyle z_{11}=±\frac{1}{\sqrt{2}}z&\displaystyle z_{12}=±\frac{1}{\sqrt{2}}z \\ \\ \displaystyle z_{21}=±\frac{1}{\sqrt{2}}z&\displaystyle z_{22}=±\frac{1}{\sqrt{2}}z \end{array} \right.
こうなります。
「正規直交」の「正規」の由来はここですね。
\begin{array}{rlc} \displaystyle 2r^2&=1 \\ \\ \displaystyle r^2&\displaystyle =\frac{1}{2} \end{array}
ちなみに r は↑の計算手順から、
必ずこの値になることが分かります。
んで次は 0 のところですけど、
\displaystyle \begin{array}{rlc} z_α\overline{z_β} & =(\cos α+i\sin α)(\cos β-i\sin β) \\ \\ \\ & =\cos α\cos β - i^2 \sin α \sinβ \\ \\ & \,\,\,\,\,+\,i\,(\sin α \cos β -\cos α \sin β)\\ \\ \\ & =\cos(α-β)+i\sin(α-β) \end{array}
\displaystyle \begin{array}{rlc} z_{11}\overline{z_{21}}+z_{12}\overline{z_{22}} & =\cos(θ_{11}-θ_{21})+i\sin(θ_{11}-θ_{21}) \\ \\ & \,\,\,\,\,+\,\cos(θ_{12}-θ_{22})+i\sin(θ_{12}-θ_{22}) \end{array}
\displaystyle z_{11}\overline{z_{21}}+z_{12}\overline{z_{22}}=0
\displaystyle \left\{ \begin{array}{ccc} \cos(θ_{11}-θ_{21})+\cos(θ_{12}-θ_{22})&=0 \\ \\ \sin(θ_{11}-θ_{21})+\sin(θ_{12}-θ_{22})&=0 \end{array} \right.
はい、こんなのが導けました。
ここは「直行」の由来になってる部分になります。
というわけで、
ここにも適当に値をぶち込んでみます。
\displaystyle \left\{ \begin{array}{rlc} \cos(θ_{11}-θ_{21})&=0 \\ \\ \cos(θ_{12}-θ_{22})&=0 \end{array} \right.
ここは何でも良いんですけど、
計算がしやすいので 0 を採用しましょうか。
\displaystyle \left\{ \begin{array}{rlc} \displaystyle θ_{11}-θ_{21}&\displaystyle =\frac{π}{2}+nπ \\ \\ \displaystyle θ_{12}-θ_{22}&\displaystyle =\frac{π}{2}+mπ \end{array} \right.
ここで n=0 を採用すると、
\sin θ の値を見てみた時、
調整が必要なことが分かります。
\displaystyle \left\{ \begin{array}{rlc} \sin(θ_{11}-θ_{21})&=1 \\ \\ \sin(θ_{12}-θ_{22})&=-1 \end{array} \right.
\displaystyle \left\{ \begin{array}{rlc} \displaystyle θ_{11}-θ_{21}&\displaystyle =\frac{π}{2} \\ \\ \displaystyle θ_{12}-θ_{22}&\displaystyle =\frac{π}{2}+π \end{array} \right.
はい、とまあここまで導けました。
\begin{array}{rlc} \displaystyle U_{\mathrm{example}}&=\begin{pmatrix} \displaystyle \frac{1}{\sqrt{2}}(\cos θ_{11}+i\sin θ_{11}) & \displaystyle \frac{1}{\sqrt{2}}(\cos θ_{12}+i\sin θ_{12}) \\ \displaystyle \frac{1}{\sqrt{2}}(\cos θ_{21}+i\sin θ_{21}) & \displaystyle \frac{1}{\sqrt{2}}(\cos θ_{22}+i\sin θ_{22}) \end{pmatrix} \\ \\ &=\displaystyle \frac{1}{\sqrt{2}}\begin{pmatrix} \displaystyle \cos θ_{11}+i\sin θ_{11} & \displaystyle \cos θ_{12}+i\sin θ_{12} \\ \\ \displaystyle \cos θ_{21}+i\sin θ_{21} & \displaystyle \cos θ_{22}+i\sin θ_{22} \end{pmatrix} \end{array}
ただ、これ以上は特に定まらないので、
また適当に、計算しやすい値を採用してみます。
\displaystyle \left\{ \begin{array}{lrl} θ_{11}=0 &\displaystyle 0-θ_{12}&\displaystyle =\frac{π}{2} \\ \\ θ_{21}=0 &\displaystyle 0-θ_{22}&\displaystyle =\frac{π}{2}+π \end{array} \right.
\left\{\begin{array}{rlc} \sin θ_{12}&\displaystyle =\sin \left( -\frac{π}{2} \right)\\ \\&\displaystyle=\sin \left( 2π-\frac{π}{2} \right)\\ \\ &=-1 \\ \\ \\ \sin θ_{22}&\displaystyle =\sin \left( -\frac{3}{2}π \right) \\ \\ &\displaystyle =\sin \left( 2π-\frac{3}{2}π \right) \\ \\ &=1 \end{array}\right.
\begin{array}{llc} \displaystyle \frac{1}{\sqrt{2}}\begin{pmatrix} \displaystyle \cos θ_{11}+i\sin θ_{11} & \displaystyle \cos θ_{12}+i\sin θ_{12} \\ \\ \displaystyle \cos θ_{21}+i\sin θ_{21} & \displaystyle \cos θ_{22}+i\sin θ_{22} \end{pmatrix} \\ \\ =\displaystyle \frac{1}{\sqrt{2}}\begin{pmatrix} \displaystyle \cos 0+i\sin 0 & \displaystyle \cos \left( -\frac{π}{2} \right)+i\sin \left( -\frac{π}{2} \right) \\ \\ \displaystyle \cos 0+i\sin 0 & \displaystyle \cos \left( -\frac{3}{2}π \right)+i\sin \left( -\frac{3}{2}π \right) \end{pmatrix} \\ \\ \\ \displaystyle =\frac{1}{\sqrt{2}}\begin{pmatrix} 1+0 & 0-i \\ 1+0 & 0+i \end{pmatrix} \\ \\ \displaystyle =\frac{1}{\sqrt{2}}\begin{pmatrix} 1 & -i \\ 1 & i \end{pmatrix} \end{array}
するとまあこのような、
「ユニタリ行列」の具体例の1つが求まります。
これはシュレーディンガー方程式が終わった後、
「時間発展」の説明で使うので覚えておきましょう。
\mathrm{bra‐ket} 表記法/ディラック記法
|| 縦と横でベクトルの書き方をわけよう
これはいわば「ベクトルの表現方法の1つ」で、
ただの『書かれ方の1つ』です。いわばルール。
結論としては、
「1行」のベクトルのことを『ブラ-ベクトル』と呼び、
「1列」のベクトルのことを『ケット-ベクトル』と言います。
一応はっきりさせておくと、
「行」は『横に並んでる』ってことで、
「列」は『縦に並んでる』ってことです。
つまり定義としては、
まず「ブラ-ベクトル」については、
\langle\psi|=(a_1\,\,a_2\,\,a_3\,\,...\,\,a_n\,\,...)
んで「ケット-ベクトル」については、
\displaystyle |\phi\rangle=\begin{pmatrix} b_1 \\ b_2 \\ b_3 \\ \vdots \\ b_n \\ \vdots \end{pmatrix}
こんな感じになるんですね。
具体的には↓みたいな感じになります。
\begin{array}{rlc} \displaystyle \psi&=\begin{pmatrix} 1&2 \end{pmatrix} \\ \\ \\ \langle \psi|&=\begin{pmatrix} 1&2 \end{pmatrix} \\ \\ |\psi\rangle&=\begin{pmatrix} 1\\2 \end{pmatrix} \end{array}
そして〈〉の向きについては、
ベクトルの『内積』っていう操作が由来になってます。
↓の形を覚えておけば
こんがらがることはないでしょう。
\begin{array}{rlc} \displaystyle \langle\psi|\phi\rangle&=(a_1\,\,a_2\,\,…\,\,a_n\,\,…)\begin{pmatrix} b_1 \\ b_2 \\ b_3 \\ \vdots \\ b_n \\ \vdots \end{pmatrix} \\ \\ &=a_1b_1+a_2b_2+\cdots+a_nb_n+\cdots \end{array}
\begin{array}{rlc} \displaystyle |\phi\rangle \langle\psi|&=\begin{pmatrix} b_1 \\ b_2 \\ b_3 \\ \vdots \\ b_n \\ \vdots \end{pmatrix}(a_1\,\,a_2\,\,…\,\,a_n\,\,…) \\ \\ &=\begin{pmatrix} b_1a_1&b_1a_2&b_1a_3&\cdots \\ b_2a_1&b_2a_2&b_2a_3&\cdots \\ b_3a_1&b_3a_2&b_3a_3&\cdots \\ \vdots&\vdots&\vdots \\ b_na_1&b_na_2&b_na_3&\cdots \\ \vdots&\vdots&\vdots \end{pmatrix} \end{array}
↓でちょっとだけ詳しく解説してますが、
わざわざこうする理由については、
『こういう風に表記した方が都合が良いから』ってのが、
↑みたいにする一番でかい理由ですね。
これは単なる「表現のやり方」でしかないので、
そこまで難しく考えなくていいです。
ただただ覚えてください。
エルミート演算子と実数
これ、『定義からの証明』はよく見ますが、
『なぜその定義になったのか』はあまり見ません。
なので、その話をメインにしていきます。
より厳密な言い回しをするなら、
「行列→実数の固有値」って話の説明で、
「定義→証明可能 だけ」じゃ不十分だ、って感じですかね。
まあつまり一言で言うなら、
『発想→定義』の話をする感じです。
大まかな流れとしては、
『固有値方程式』で「固有値」を求めて、
その「固有値が実数になる」って話なわけですが、
『固有値が実数になる条件(定義)』ってのは、
「後で分かること」じゃないですか。
んで『定義からの証明』ってのは、
『後で分かったものが正しいかどうかの検証』なわけで、
「定義の出所」は不明なまま、はっきりしません。
そう、順番を考えると、
肝心の「発想の元になったもの」が欠けてるんです。
まあそんなわけなので、
これからそこをはっきりさせていく感じですね。
結論としては、
エルミート演算子の性質というのは、
『固有値を実数にしたい』から求められています。
定義は、その条件を一般化した結果でしかありません。
つまり「定義から」↓で証明を行いますが、
これは『検算・結果論』になります。
これが『定義になる前』の段階は、
「こうじゃね?(仮説)」です。
それを検算してみると大丈夫だったから、
定義として認められたわけですね。
ただまあこれだけだとよく分かんないと思うので、
順番に、エルミート演算子の定義を求めてみましょうか。
そのために、まず『観測可能量』が、
「演算子(行列)」に変換できる、って事実を考えます。
これはシュレーディンガー方程式の話ですね。
今は、とりあえずそういうものだと思っておいてください。
んで次、『固有値方程式』ですが、
当然の話として、これは「固有値」を算出できます。
んでその「固有値の意味」は
この場合だと『物理量(位置とか)』ですから、
『実数であって欲しい』じゃないですか。
まとめると、
求めることになる「固有値」は、
『物理量を意味する』場合があるので、
『行列表示された観測可能量』には、
一定の性質を満たしていて欲しい、って感じ。
んでまあそれが、
「固有値が実数であって欲しい」っていう要望で、
結果論になりますが、
↓の条件を満たしていて欲しいんですよ。
\begin{array}{rlc} A^{\dagger}&=\overline{A}^{\mathrm{tr}} \\ \\ A&=A^{\dagger} \end{array}
これは『複素共役をとっても同じ値になる』っていう、
「複素数が実数であるための条件」とだいたい同じ、
みたいに考えると楽かも?
まあともかく、順を追って
この条件に行き着くまでの流れを整理してみましょうか。
実数の条件
というわけでまず、
『ある複素数が実数であることの確認がしたい』ので、
『複素共役』を、とりあえずとってみます。
\begin{array}{rlr} \displaystyle z&=a+bi \\ \\ z^*&=a-bi \\ \\ \\ z&=z^* \\ \\ &=a &(b=0) \end{array}
この発想に行き着くのは、
そこそこ自然なことですよね?
でまあそうなると、
『複素共役の性質』も欲しくなりませんか?
具体的には『掛けると絶対値が求まる』っていう、
「内積」の感覚が欲しい気がするような。
んでまあそれを考えると、
最も都合の良い操作として、
「転置」が候補に挙がってくる、みたいな。
\begin{array}{rlc} \displaystyle z&=a+bi \\ \\ zz^*&=a^2+b^2 \\ \\ \\ Z&=\begin{pmatrix} z_1&z_2 \end{pmatrix} \\ \\ Z(Z^*)^{\mathrm{tr}}&=\begin{pmatrix} z_1&z_2 \end{pmatrix}\begin{pmatrix} z_{1}^{*} \\ z_{2}^{*} \end{pmatrix} \\ \\ &=z_1z_{1}^{*}+z_2z_{2}^{*} \end{array}
ここまで、単に『複素共役を使いたい』だけなので、
特に疑問の余地はないかと。
でまあこの流れから、
『行列版の複素共役』として、
『エルミート共役』って操作が生まれた感じですね。
A^{\dagger}=(A^*)^{\mathrm{tr}}
ここまで、特に不自然な部分は無いと思います。
固有値が実数
話は変わるんですが、
そもそも、知りたいのは「固有値」ですよね?
↑の話は「実数の条件」の話。
関わりはあっても、固有値の話とはまた別です。
まあそういうわけなので、
一旦、おさらいしておきましょうか。
まず『固有値方程式』の形を。
\begin{array}{rlc} \displaystyle A \vec{x} &= λ \vec{x} \\ \\ A \psi &= λ \psi \\ \\ A |\psi\rangle &= λ |\psi\rangle \end{array}
んで、この「固有値 λ 」ですけど、
これが『実数であって欲しい』ので、
\begin{array}{rlc} \displaystyle A\psi&=λI\psi \\ \\ (A-λI)\psi&=\vec{0} \end{array}
この関係を想定すると、
この「演算子 A (行列)」には、
なにかしらの性質を満たしていてほしい、ですよね?
はい、まあそんな感じなので、
その条件が何なのか考えてみます。
するとまあ、とりあえず『 λ は実数』
という条件は、確実に使えると分かりますよね。
求めたい条件ですし。当然。
\begin{array}{rlc} \displaystyle λI&=\begin{pmatrix} λ&0 \\ 0&λ \end{pmatrix} \\ \\ \\(λI)^{\dagger}&=\begin{pmatrix} \overline{λ}&0 \\ 0&\overline{λ} \end{pmatrix} \\ \\ &=\overline{λ}\begin{pmatrix} 1&0 \\ 0&1 \end{pmatrix} \end{array}
\begin{array}{rlc} \displaystyle λ^{\dagger}&=\overline{λ} \\ \\ (λA)^{\dagger}&=\overline{λ}A^{\dagger} \end{array}
とりあえず記号の確認をしておくと、こう。
\begin{array}{rlr} \displaystyle z&=a+bi \\ \\ z^*&=a-bi \\ \\ \\ z&=z^* \\ \\ &=a \\ \\ \\ λ&=λ^{\dagger} \end{array}
んで『固有値が実数』だっていうのがこうで、
最低限、この条件は確定させることができます。
というわけで、ここから順番を入れ替えて、
『条件の推定』を行っていきます。
具体的には「求めたい条件」が、
『 λ=λ^{\dagger} を満たす条件』なら、
「 A の固有値は実数になる」って言いたい感じ。
まあ要は『それっぽい条件』を考えて、
それが「 λ=λ^{\dagger} を満たすかどうか」確認して、
『合っているなら』それを求めたい条件だとします。
まあつまり、その『条件』っていうのが何なのかは、
↑の段階ではまだわかりません。
はい、てなわけなので、
ここから試行錯誤がスタート。
「良さそうな条件」を考えて、
その『 A の条件』が「 λ=λ^{\dagger} 」を満たすかどうか、
確かめていきます。
\begin{array}{rlc} \displaystyle あるAの条件 & →λ=λ^{\dagger} \\ \\ \\ ×&→その条件はダメ \\ \\ 〇&→その条件が求めたいやつ \end{array}
でまあ過去の人たちが良さそうなのを試してみて、
結果、いけるやつを見つけた、という感じですね。
順番は「行けそう→行けた」になります。
A=A^{\dagger}
この他にもいろいろあるんですが、
「 A=A^{\dagger} 」がおそらく最も自然な発想で、
以下が「性質であり定義でもある」ものです。
\begin{array}{rlc} \displaystyle \langle AX,Y \rangle&=\langle X,AY \rangle \\ \\ \\ \langle AX,Y \rangle&=\langle X,A^{\dagger}Y \rangle \\ \\ \langle A\psi,\phi \rangle&=\langle \psi,A^{\dagger}\phi \rangle \\ \\ &=\langle \psi,A\phi \rangle \end{array}
これらは全て『エルミート作用素の定義』で、
どの定義からスタートしても、
お互いを導くことが出来ます。
はい、というわけなんで、
一応、確かめてみましょうか。
「エルミート演算子の定義 A=A^{\dagger} 」から、
「 λ=λ^{\dagger}\,\,(=\overline{λ}) 」を導けるかどうか。
\begin{array}{rlc} \displaystyle A&=A^{\dagger} \\ \\ A\psi&=λ\psi \end{array}
てなわけで、使って良い条件を整理しておきます。
それと、証明を行う前に、
固有値方程式の具体的な中身を見てみます。
\begin{array}{rlc} \displaystyle A\psi&=λ\psi \\ \\ \displaystyle \begin{pmatrix} λ_1&0&0 \\ 0&λ_2&0 \\ 0&0&λ_3 \end{pmatrix}\psi&=λ\psi \\ \\ \\ \displaystyle \begin{pmatrix} λ_1&0&0 \\ 0&λ_2&0 \\ 0&0&λ_3 \end{pmatrix}\begin{pmatrix} 1\\0\\0 \end{pmatrix}&=λ_1\begin{pmatrix} 1\\0\\0 \end{pmatrix} \\ \\ \displaystyle \begin{pmatrix} λ_1&0&0 \\ 0&λ_2&0 \\ 0&0&λ_3 \end{pmatrix}\begin{pmatrix} 0\\1\\0 \end{pmatrix}&=λ_2\begin{pmatrix} 0\\1\\0 \end{pmatrix} \end{array}
分かりやすい具体例で書くと、って感じですが、
まあこんな感じになってると思ってください。
そうすると、ちょっとイメージしやすいかも?
ともかく話は戻って、
次は証明で使うものを確認しておきます。
\begin{array}{rlc} \displaystyle (A\psi)^{\dagger}&=(λ\psi)^{\dagger} \\ \\ (A|\psi\rangle)^{\dagger}&=(λ|\psi\rangle)^{\dagger} \\ \\ \\ |\psi\rangle^{\dagger}&=\langle \overline{\psi} | \\ \\ \langle \overline{\psi} |^{\dagger}&=|\psi\rangle \\ \\ \\ \langle \psi |A^{\dagger}&=\langle \psi |λ^{\dagger} \\ \\ &=λ^{\dagger}\langle \psi | \end{array}
これもよく分かんないかもしれないんで、
具体的なやつを↓に書いときます。
\begin{array}{rlc} \displaystyle \begin{pmatrix} 1\\0\\0 \end{pmatrix}^{\dagger}&=\begin{pmatrix} \overline{1}&\overline{0}&\overline{0} \end{pmatrix}\\ \\&=\begin{pmatrix} 1&0&0 \end{pmatrix} \\ \\ \begin{pmatrix} 1&0&0 \end{pmatrix}^{\dagger}&=\begin{pmatrix} \overline{1}\\\overline{0}\\\overline{0} \end{pmatrix}\\ \\&=\begin{pmatrix} 1\\0\\0 \end{pmatrix} \\ \\ \\ \displaystyle \begin{pmatrix} 0&1&0 \end{pmatrix}\begin{pmatrix} λ_1&0&0 \\ 0&λ_2&0 \\ 0&0&λ_3 \end{pmatrix}&=λ_2\begin{pmatrix} 0&1&0 \end{pmatrix} \end{array}
んで、この感覚が分かると、
↓に書いてあることが分かると思います。
\begin{array}{rlc} \displaystyle A|\psi_i\rangle&=λ_i|\psi_i\rangle \\ \\ \\ (A|\psi_j\rangle)^{\dagger}&=(λ_j|\psi_j\rangle)^{\dagger} \\ \\ \langle \psi_j |A^{\dagger}&=λ_j^{\dagger}\langle \psi_j | \end{array}
でまあこうなるんで、
次、この形を合わせてみます。
\begin{array}{rlc} \displaystyle A|\psi_i\rangle&=λ_i|\psi_i\rangle \\ \\ \langle \psi_j |A|\psi_i\rangle&=\langle \psi_j |λ_i|\psi_i\rangle \\ \\ \langle \psi_j |A|\psi_i\rangle&=λ_i\langle \psi_j |\psi_i\rangle \\ \\ \\ \langle \psi_j |A^{\dagger}&=λ_j^{\dagger}\langle \psi_j | \\ \\ \langle \psi_j |A^{\dagger}|\psi_i\rangle&=λ_j^{\dagger}\langle \psi_j |\psi_i\rangle \end{array}
そうすると、こういう風に書けます。
ただの式変形なので簡単ですね。
\begin{array}{rlc} \langle \psi_j |A|\psi_i\rangle&=λ_i\langle \psi_j |\psi_i\rangle \\ \\ \langle \psi_j |A^{\dagger}|\psi_i\rangle&=λ_j^{\dagger}\langle \psi_j |\psi_i\rangle \end{array}
で、欲しかったのがこれになります。
そして、準備はここまで。
A=A^{\dagger}
ここから、この条件を考えてみます。
まああれです。要はここから証明開始。
\begin{array}{rlc} \displaystyle \langle \psi_j |A|\psi_i\rangle&=\langle \psi_j |A^{\dagger}|\psi_i\rangle \\ \\ λ_i\langle \psi_j |\psi_i\rangle&=λ_j^{\dagger}\langle \psi_j |\psi_i\rangle \end{array}
使うのはこの関係式ですね。
\begin{array}{rlc} \displaystyle (λ_i-λ_j^{\dagger})\langle \psi_j |\psi_i\rangle&=0 \end{array}
んでこれを変形するとこう。
そして求めたいのは i=j の場合ですから、
その場合を考えると、
\langle \psi_i |\psi_i\rangle≠0
固有ベクトルの制約 |\psi_i\rangle≠0 から、
\begin{array}{rlc} \displaystyle (λ_i-λ_i^{\dagger})\langle \psi_i |\psi_i\rangle&=0 \\ \\ \displaystyle (λ_i-λ_i^{\dagger})&=0 \\ \\ \\ λ_i&={λ_i}^{\dagger} \end{array}
関係式を満たす条件として、
このように「 λ_i={λ_i}^{\dagger} 」が導かれるんですね。
「それっぽい条件 A=A^{\dagger} 」から、
「実数である条件 λ_i=λ_i^{\dagger} 」がちゃんと導かれました。
はい、とまあこれにて証明終了。
『演算子 A の条件 A=A^{\dagger} 』は
『固有値 λ は実数』を導く
と言えることがわかりました。
んでまあ「結果論」として、
A=A^{\dagger} は『固有値 λ が実数になる行列 A の条件』だったので、
「エルミート演算子の定義」として扱われるようになったんですね。