一日一膳(当社比)

数理系の記事など。

ブラウン運動の最尤推定

 \require{AMScd,amsmath,amssymb,amsfonts,amscd}

 \require{color}

keywords :時系列解析 , 最尤法 , Kullback-Leibuler情報量 , ブラウン運動

今回のテーマは、前回に引き続き時系列解析の話題です。

前回の記事ではワイトノイズ、ブラウン運動、AR(1)過程について 

その平均、自己共分散がどのように変化するかについて書きました。 

sonnamonyaro.hatenablog.com

 

今回の記事では、これらのモデルを実際に応用する局面で最も基本的な問題

 

問題:与えられた時系列データを最も適切に再現するように時系列モデルを決定せよ 

 

について、最尤法という手法により上の問題を扱いたいとおもいます

 

目次

 

最尤法

最尤法は統計学で広く使われる考え方で、パラメーターを持った確率変数

に従うサンプルから、適当なパラメーターを決定する方法 と言えます。

例えば、ここに表が出る確率がp\ (0<p<1)のコインがあったとして、

pを求めろと上司に言われたとします。そうしたら、あなたはおそ

らく(上司に逆らわずに)10回、100回、・・・とコインをひたすら投げ、

表の出た割合をの値として報告するでしょう。

実はそれが、最尤法なのです。

それでは、最尤法の説明にはいります

尤度関数

\theta \in \mathbb{R}をパラメータに持つ確率変数

X_\thetaを考えます。またはX_\theta連続な確率密度f(x,\theta)

を持つと仮定します。先の例でいうと、pがパラメータ\theta

コインを1回投げた時、表が出たら1裏が出たら0とするカウントがX_\theta 

になります。

{\bf definition}

尤度関数(Likelihood function)とは、上のように用意されたパラメーター

(\theta)付き確率変数と、観測されたN個のデータ\mathsf{D}=(x_1,x_2,\cdots,x_N)に対して定まる、\thetaの関数でつぎで定義される

{\bf (LF)}\ \mathcal{L}(\theta|\mathsf{ D})=\mathsf{D}\text{が観測される確率}

もし、個のデータが一回ずつ採取され、それらが独立と仮定する場合には

(先ほどのコインの例)積の法則により

{\bf (LF')}\ \mathcal{L}(\theta|\mathsf{ D})=\prod_{i=1}^{N}f(x_i,\theta)

 この式が、よく皆さんが目にする式ではないかと思います。なお、section2で

は(LF')の式ではなく(LF)の式を使うので注意してください

最尤法は次のような考え方です

 尤度関数を最大化するパラメーター\theta^\astは"適切"な選び方である

ここで導入された、尤度関数を最大化するパラメーターを最尤推定量 

({\bf Maximum \ Likelihood \ Estimator/\  M.L.E.})といいます。覚えておきましょう。

また、確率密度が微分可能ならば、最尤推定量での尤度関数の微分は消えることから

次の尤度方程式が成り立つことがわかります

 \frac{d\ \text{ln}\ \mathcal{L}(\theta^\ast|\mathsf{ D})}{d\ \theta}=0
 

 

 

ここで、適切の意味は次のような事実をさします

{\bf Fact}

最尤推定量は、サンプルを死ぬほど採りまくった場合に、正しい値を教えてくれる

ことが保証されている(強一致性,漸近正規性,...)

これらの事実は統計学のまともな本に譲るとして、うえの事実を納得するための

考え方を紹介するにとどめます 。

Kullback-Leibuler情報量

Kullback-Leibuler 情報量は、2つの確率分布が等しいか否かをはかる量です。

今回の記事では、Kullback-Leibuler情報量と最尤法のかかわりをみてみます。

{\bf definition}
\mathsf{A},\mathsf{B}を確率分布、それらの確率密度f(x),g(x)\ (x \in \mathbb{R})
は連続とする。このときKullback-Leibuler 情報量は次の式で定義される
I(\mathsf{A}||\mathsf{B})=\int_{\mathbb{R}}dx\ f(x){\rm ln} \Bigl(\frac{f(x)}{g(x)}\Bigr)

 

次のことが知られています。

重要性質
\mathsf{A},\mathsf{B}が確率分布であるならば、
I(\mathsf{A}||\mathsf{B})\geq 0\ ,\text{等号成立は}\ \mathsf{A}=\mathsf{B}\ \text{のときに限る}

 

うえの性質より、2つの確率分布が等しいかどうかをみるには、それらのKullback-Leibuler情報量が0かどうかに注目すればよいのです。

 

さてこのことを次のパラメーター推定問題

{\bf Problem}

確率分布{\sf A}(確率密度f(x))と、パラメーター付き確率分布
{\sf A}(\theta)(確率分布f(x,\theta))が与えられたとき、
\mathsf{A}_\thetaの分布が\mathsf{A}に最も分布が近くなる\thetaをあたえよ

に応用してみます。
0\leq I(\mathsf{A}||\mathsf{A}_\theta)
=\int_{\mathbb{R}}dx\ f(x){\rm ln}\ f(x)-\int_{\mathbb{R}}dx\ f(x){\rm ln}\ f(x,\theta)
なので分布\mathsf{A}_\theta\mathsf{A}に近づけるためには、上の式の第二項
\int_{\mathbb{R}}dx\ f(x){\rm ln}\ f(x,\theta)
を最大にすればよいことがわかります。

 

すこしずつ最尤法がにちかずいてきました。もうすこし頑張りましょう。
結局上の積分直接計算するには、f(x)を知らなければなりません。しかし、\mathsf{A}から採ったサンプル\mathsf{D}=\{x_1,x_2,\cdots,x_N\}]があれば、

そこからモンテカルロ法を利用して間接的積分を計算できます:
\int_{\mathbb{R}}dx\ f(x){\rm ln}\ f(x,\theta)\sim \frac{1}{N}\sum_{i=1}^N{\rm ln}\ f(x_i,\theta)

これって対数尤度ですね。

つまり、最尤法の原理「尤度関数を最大化せよ」というのは、真の分布と
モデル分布のKullback-Leibuler情報量が小さいことが期待されるという点で、適当なパラメーターの選び方であると言えるわけです。

ブラウン運動最尤推定

実際に最尤法のコツをつかむために一次元ブラウン運動最尤推定について
解説します。

今回考えるブラウン運動は、2つのパラメーター\alpha,\sigma^2
を持つ時系列モデルX_t\ (t=0,1,2,\cdots)で次の式で与えられるものです

 ({\bf BM1})X_0=0

 ({\bf BM2})X_{t}=\alpha +X_{t-1}+w_t
 ({\bf BM3})w_t \underset{\text{i.i.d.}}{\sim} N(0,\sigma^2)
 
さて、このデータに従う時系列データが得られたとします。

簡単のため、時系列データは時刻1から$T \geq 1$まで連続的に取ったものとし、

それを\mathsf{D}=\{x_0=0, x_1,\cdots,x_T\}
とします。 

尤度関数の計算

今回は、パラメーターは\alpha,\sigma^2なので尤度関数は2変数に
なります。それを、 \mathcal{L}( \alpha,\sigma^2|\mathsf{D})
とおきます。

\mathcal{L}( \alpha,\sigma^2|\mathsf{D})
=\mathbb{P}[ X_1=x_1\  \text{and}\  X_2=x_2 \ \text{and}\  \cdots \ \text{and}\  X_T=x_T]
=\mathbb{P}[ X_1=x_1 \ \text{and}\  X_2-X_1=x_2-x_1 \ \text{and}\  \cdots \ \text{and} \ X_T-X_{T-1}=x_T-x_{T-1}]
ここで式({\bf BM2})よりX_i-X_{i-1}=w_i+\alphaで、これらが({\bf BM3})

より独立であったことから、尤度関数が
\mathcal{L}( \alpha,\sigma^2|\mathsf{D})
\mathbb{P}[ w_1+ \alpha =x_1\  \text{and}\  w_2 +\alpha=x_2-x_1 \ \text{and}\  \cdots \ \text{and}\  w_T +\alpha=x_T-x_{T-1}]
=\prod_{i=1}^T \Bigl(\frac{1}{\sqrt{2 \pi \sigma^2}}\text{exp}\bigl( \frac{(x_i-x_{i-1}-\alpha)^2}{2\sigma^2}\bigr) \Bigr)
ともとまりましたね。目がちかちかするので、対数を取りましょう
\text{ln}\ \mathcal{L}( \alpha,\sigma^2|\mathsf{D})
=-\frac{T}{2}\text{ln}(2\pi \sigma^2)-\frac{1}{2\sigma^2}\sum_{i=1}^T(\alpha-(x_i-x_{i-1}))^2

尤度方程式
ここまでこれば、あとは尤度方程式を解けばオッケーです
0=\frac{\partial \ \text{ln}\ \mathcal{L} }{\partial \alpha}=-\frac{1}{ \sigma^2}\sum_{i=1}^T(\alpha-(x_i-x_{i-1}))
0=\frac{\partial \ \text{ln}\ \mathcal{L} }{\partial \sigma^2}=-\frac{T}{2\sigma^2}+\frac{1}{2(\sigma^2)^2}\sum_{i=1}^T(\alpha-(x_i-x_{i-1}))^2

これを連立して解けば次のように最尤推定量がもとまります
\alpha^\ast=\frac{x_T}{T}
\sigma^{\ast 2}=\frac{1}{T}\sum_{i=1}^T(x_i-x_{i-1})^2- \frac{x_T^2}{T^2}

とめでたく求まりました。

式の形を見れば気づくかもしれませんが、この最尤推定は暗算でやる方法

があるので、考えてみるとよいでしょう。

 

時系列解析入門

 \require{AMScd,amsmath,amssymb,amsfonts,amscd}

 \require{color}

key words:時系列解析 ,  ブラウン運動( Brownian Motion) ,AR過程

今回のテーマは時系列解析です。

時系列解析の目的は、確率的に変化する情報(確率変数)を時刻ごとに

追って分析することです。数学、物理学、経済学などの各分野で実用の

機会も多い題材です。今回はその中でも最も単純な例である、

について、基本的なことをまとめます。予備知識は仮定しませんので

ご心配なく。

目次

時系列解析

統計学のおさらい

このセクションでは、時系列解析で広く使われている統計学のツールを導入します。

まずは時系列解析の対象である、時刻ごとに変化し、しかも確率的である情報 というものをはっきりさせる必要があります。そこで次の定義を採用します。

definition 

 t= 0,\pm1,\pm2,\cdots を時刻として, 各 t に対して、割り当てられた 

実数値確率変数  X_t (t=0,\pm1,\pm2,\cdots) があるとき、これを時系列データ 

という。

 

X_0 が例えば現在の情報であるなら、 X_{ \textcolor{red}{1}}は1秒の情報、 X_{ \textcolor{red}{-1}}

は1秒の情報と理解すればよいです。時系列解析によって、現在の情報、及び過去

の情報から、未来の情報を予測(=確率的に知る)できるわけです。

さて、確率変数Xが与えられたとき、その平均、分散を考えることができます。

それらをそれぞれ

 \begin{equation} {\mathbb E}[X] ,  {\mathbb V} [X] \end{equation}

と書くことにします。これらは1つの確率変数に対して定まる量ですが、時系列解析

では無限個の確率変数が登場しているため、2つの確率変数 (例えば、現在X_0と1秒後X_1に対して定まる量も重要になります。特に、共分散は、時系列解析で特に重要です。共分散は、{\mathbb R^2}上の確率変数  (X,Y) に対して次で

定義されます

  \text{Cov}[X,Y ]

={\mathbb E}[(X-{\mathbb E}[X])(Y-{\mathbb E}[Y])].

また共分散をー1から1の間に入るよう正規化した相関係数は次で与えられます

 \rho(X,Y)=\frac{ \text{Cov} [X,Y]}{ \sqrt{{\mathbb V} [X] {\mathbb V} [Y] }}.

 この数字が1に近いとき、[ ex:X,Y]は協調関係にあり(つまり、X,Yの大小が同時に起きる)、また-1に近いときトレード・オフの関係(つまり、X,Yの大小が相反的に起こる)になります。

今回は主に時系列データ[tex; X_t]および時刻t,t'に対して(X_t,X_{t'})の共分散をしばしば考えます。これを自己共分散autocovarianceといいます。

 

このセクションの最後に正規分布の再生性をおさらいします

Theorem

確率変数の組(X_1,X_2)があり、各X_i (i=1,2)が平均 \mu_i、分散 \sigma^2_i正規分布N(\mu_1,\sigma_1^2)に従っているとする。このとき、確率変数X_1\pm X_2正規分布N(mu_1 \pm \mu_2,\sigma^2_1+\sigma^2_2)

 に従う。

 

定常性

 

さてここでは、時系列データに対して定常性(stationarity)という概念を定めます。

定常というのは、より詳しくは時刻に関して一定であるという意味だと考えてください。それでは定義。

definition

時系列データX_t (t=0,\pm 1,\pm 2,\cdots)定常であるとは次の3条件

  • (SA){\mathbb E}[X_t]tに依らない
  • (SV){\mathbb V}[X_t]tに依らない
  • (SAC) \text{Cov}[X_t,X_{t'}]は差の絶対値|t-t'|のみに依存する

が満たされるときをいう。☐

以降この記事の中では、条件(SA)/(SV)/(SAC)をそれぞれ定常平均を持つ /定常分散を持つ/定常自己相関を持つ、と呼びますが一般的な呼称でないこと注意しておきます。
definition

時系列データX_t (t=0,\pm 1,\pm 2,\cdots)定常増分(stationary increments)をもつとは、時刻t>t'に対してX_t-X_{t'}X_{t-t'}と同分布であるときをいう。

では次セクションでこれらの性質を例と照らし合わせながら見ていきます。

 

時系列解析の実例

さていよいよ時系列解析で実際に使われる例について話します。今回紹介するのは、ホワイトノイズ、ブラウン運動、AR(1)過程の3つですが、これらそれぞれ、高校で登場した2項漸化式

  • x_{n+1}=c (c: \text{定数}) 定数
  • x_{n+1}-x_n=c (c: \text{定数}) 線形
  • x_{n+1}-\alpha x_n=c (\alpha,c: \text{定数}) 指数型

の時系列解析における類似物と考えられます。 

 

ホワイトノイズ 

definition2.1.

 ホワイトノイズ白色雑音)は、次で与えられる時系列データX_t (t=0,\pm1,\pm2,\cdots)のことである

  • (WN1)X_t =w_t ,w_t:正規分布 N(0,\sigma^2_{ \text{noise}}) に従う確率変数。
  • (WN2)確率変数の組(X_t,X_{t'}) (t, \neq t')は独立。

ここで、\sigma^2_ \text{noise}は>0は定数である。□

{\mathbb E}[X_t]=0 ,{\mathbb E}[X_t]=\sigma^2_{ \text{noise}} となるので、

ホワイトノイズは、定常平均と定常分散を持つことになります・・・①。 

また、時刻t,s (t>s)についてX_t-X_s の分布は(WN1,2)と正規分布

再生性より常に平均0分散2\sigma^2_{ \text{noise}}正規分布であるため、定常増分を持たないことがわかります。

次に、ホワイトノイズの自己共分散\phi(t,t’)はというと、次のようになります

 \phi(t,t')=\begin{cases} \sigma^2_{ \text{noise}} ( \text{if } t=t') \\0 ( \text{if } t \neq t')\end{cases}

 これは、t=t'のときはWN1から、t \neq t'のときはWN2からわかります・・・②。

①②よりホワイトノイズは定常過程であることがわかります

ブラウン運動

definition2.2.

ブラウン運動とは次で定まる時系列データX_t (t=0,1,2,cdots)のことである。

 

  • (BM1) X_0=0
  • (BM2) w_t:=X_{t}-X_{t-1} (t=1,2,\cdots) は常に正規分布 N(0,\sigma^2_ \text{noise})に従う
  • (BM3) すべてのj=1,2,\cdots及び、非負整数t_1 <t_2 <\cdots <t_jについて\begin{equation}X_{t_1},X_{t_2}-X_{t_1} , \cdots,X_{t_j}-X_{t_{j-1}}\end{equation}は独立

ここで、{\sigma^2}_{ \text{noise}} >0は定数である。□

条件(BM3)は、独立増分性と呼ばれている条件です。

さて、まず時刻tにおける分布について調べましょう。

proposition2.3.

{X_t}_{t=0,1,2,\cdots}がdefinition2.1.で与えられるブラウン運動であるとき、

X_tは平均0,分散t\sigma_{ \text{noise}}^2正規分布に従う。

このことを見るには、次のようにします

X_t=X_0+(X_1-X_0)+(X_2-X_1)+\cdots+(X_t-X_{t-1})

と書いたときX_j-X_{j-1}=w_j (j=1,2,\cdots,t)正規分布N(0,\sigma^2_ \text{noise})に従い(BM2)ます。さらにこれらは独立(BM3)なので、正規分布の再生性よりX_tは平均t \times 0,t \times \sigma^2_{ \text{noise}}正規分布であることが言えます。

proposition2.3.より、ブラウン運動は平均定常性は持つが、分散定常性は持たないことがわかりました。うえと同様に、時刻t,s (t>s) のとき,

X_t-X_s=(X_{s+1}-X_s)+\cdots+(X_t-X_{t-1})

に着目してX_t-X_sは平均0,分散(t-s)\sigma^2_{ \text{noise}}正規分布であることがわかります。これは、X_{t-s}と同分布であるためブラウン運動定常増分を持つことになります。

さて次にブラウン運動の自己共分散\phi(t,t') t>t'を求めるには次のようにします。
(BM3)よりX_{t'}X_t-X_{t'}は独立なので
 \text{Cov}(X_t-X_{t'},X_{t'})は0になることから、
\phi(t,t')

= \text{Cov}(X_{t},X_{t'})

= \text{Cov}(X_{t}-X_{t'},X_{t'})+ ext{Cov}(X_{t'},X_{t'})

={\mathbb V}[ X_{t'}]

=t' \sigma_{ \text{noise}}^2.

けっか\phi(t,t')= \text{min}{t,t'}\sigma_{ \text{noise}}^2
となりますが、これは|t-t'|の関数ではないため、ブラウン運動は自己共分散に
関して定常性を持ちません。

AR(1)過程

definition 

時系列データX_t (t=0,\pm1 ,\pm2,\cdots)がparameter \alpha,\beta,\sigma_{ \text{noise}}^2をもつAR(1)過程(AR(1) process)に従うとは、次の2条件

  • (AR1)\begin{equation}w_t:=X_t-\alpha X_{t-1}\end{equation}は、平均0分散\sigma_{ \text{noise}}^2正規分布に従う
  • (AR2)t \neq sならば,w_t,w_sは独立。

が成り立つ時をいう。

さてここで例えば、parameterを\alpha=1,\beta=0と選ぶと、AR方程式はブラウン運動を定める式(BM2)に一致してしまいます。するとそのparameterで定まるAR(1)過程も、ブラウン運動が分散定常性を持たないのと同様に、分散定常性を失ってしまいます。じつは\textcolor{red}{\alpha=\pm1}を境にAR(1)過程は定常性に関して異なる性質を持つのを述べたのが、つぎの命題になります

proposition 

AR(1)過程が分散定常性を持つならば、|\alpha|<1

 

(証明)
{\mathbb{V}}[X_t]=\sigma^2>0 と仮定する。(AR1)を繰り返し用いて、[h=1,2,\cdots]のとき

X_t=\alpha^h X_{t-h}+\beta \sum_{j=0}^{h-1}\alpha^j+\sum_{j=0}^{h-1}\alpha^j w_{t-h}・・・①

となる。この等式の右辺の分散を計算すると、\alpha^{2h}{\mathbb{V}}[X_{t-h}]+\sigma_{ \text{noise}}^2\sum_{h=0}^{j-1}\alpha^{2h}これが,つねに{\mathbb{V}}[X_t]=\sigma^2となるには、[|\alpha|]<1が必要である。

 

さて以降、|\alpha|<1を条件に課すことにします。

proposition

parameter\alpha,\beta,\sigma_{ \text{\noise}}^2 (|\alpha|<1)で与えられる定常AR(1)過程が、平均[\mu],分散\sigma^2 をもつならば、関係式

\mu=\frac{\beta}{1-\alpha}

\sigma^2=\frac{\sigma_{ \text{noise}}^2}{1-\alpha^2}

が成り立つ。

これを導くには、式①の両辺の平均、分散をとり

\mu=\alpha^h \mu+\beta(1+\alpha+\cdots+\alpha^{h-1})\sigma^2=\alpha^{2h}\sigma^2 +\sigma_{ \bext{noise}}(1+\alpha^2+\cdots+\alpha^{2(h-1)})

を導いてh \to \infty極限を取れば得られます。


さいごに、定常AR(1)過程の自己共分散を調べてこのセクションの締めとします。それを求めるには、まず次の事実を確かめなければなりません
事実:定常AR(1)過程X_t 時刻t,t' (t<t')について

 \text{Cov}(X_t,w_{t'})=0

 

上の事実は、まず式①,(AR2)を使って

 \text{Cov}(X_t,w_{t'})=\alpha^{2h} \text{Cov}(X_{t-h},w_{t'})

となります。

この量は、コーシー・主ワルツ不等式より絶対値でもって

\alpha^{2h} \sqrt{{\mathbb V}[X_{t-h}]{\mathbb V}[w_{t'}]}=\sqrt{\frac{\alpha^{2h}\sigma^4_{\text{noise}}}{1-\alpha^2} }で抑えられているので、h \to \inftyの極限をとれば導ける。

proposotion

parameter\alpha,\beta,\sigma_{ \text{noise}}^2 (|\alpha|<1)で与えられる定常AR(1)過程X_t、および時刻 t,t' (t>t')にたいし自己共分散は次のようになる

 \text{Cov}(X_t,X_{t'})=\frac{\alpha^{2(t-t')}}{1-\alpha^2}\sigma^2_{ \text{noise}}

とくに、AR(1)の自己共分散は定常、かつ時刻差に関して指数減衰する。

(証明)

式でh=t-t'として、 \text{Cov}(X_t,X_{t'})=\alpha^{2h} \text{Cov}(X_{t'},X_{t'})=\frac{\alpha^{2(t-t')}}{1-\alpha^2}\sigma^2_{ \text{noise}}よりわかる。

 

今回導入したAR(1)過程は、さらにAR(p)過程 p:2以上の自然数へと一般化されます。

それらについて調べるには、フーリエ変換が必要なのですが、今回見たように

AR(1)についてはフーリエ変換を用いずとも、初等的に性質を導くことができます。

もちろん、フーリエ変換を使ってAR(1)を調べることもでき、それから自己共分散の

指数減衰則を導くことは、統計力学で有名な ウィーナー・ヒンチンの関係式の再証明であるといえます。

 

以上わかったことを表にまとめると次のようになります。

  ホワイトノイズ ブラウン運動 定常AR(1)過程
定常平均
定常分散
定常増分
定常自己共分散
 \text{Cov}(X_t,X_s)の振る舞い t=sを除き0;  \text{min}{t,s}に関し、線形に増大 |t-s|に関し指数的減衰

トーラスのde Rham cohomology(part1)

 \require{AMScd}
こんにちは。今日からトーラスのde Rhamコホモロジーの話をしようと思います。内容としては,(1)de Rham コホモロジーを導入し次に、(2)Fourie級数を復習、最後に(3)2次元トーラスのde Rham コホモロジーを計算という流れとなります。part1では(1),(2)を扱っていきます.

1.de Rham cohomology群
{\displaystyle X}を可微分多様体とします.
{\displaystyle k}を非負整数とし,{\displaystyle X}上の滑らかな{\displaystyle {\mathbb C}}{\displaystyle k}-formのなす線形空間{\displaystyle {\mathcal A}^k_X}で表します.外微分

{\displaystyle d^k: {\mathcal A}^k_X \rightarrow  {\mathcal A}^{k+1}_X}

{\displaystyle d^{k+1} \circ d^k=0}を満たしているので{\displaystyle 
\{  {\mathcal A}^k_X , d^k\}}は複体になります.
これのk次コホモロジー{\displaystyle \frac{{\rm Ker} \ d^k}{{\rm Im} \ d^{k-1}}}
{\displaystyle X}{\displaystyle {\sf de-Rham \ cohomology}}群といい
{\displaystyle H^k_{\rm dR}(X)}で表します.de Rham cohomology群を素直に計算するには,微分方程式を解けば良いことになります.

例えば,{\displaystyle X={\mathbb R}}の0次de Rhamコホモロジーならば、次のように計算できます.{\phi \in \displaystyle {\rm Ker }\ d^0}微分方程式{\displaystyle \frac{d\phi}{dx}=0}と同値で、その解空間は積分定数だけの自由度分あるから{\displaystyle {\mathbb C}}と同型.{\displaystyle {\rm Im} \ d^{-1}=0}と併せれば{\displaystyle H^0_{\rm dR}({\mathbb R})\cong {\mathbb C}}となります.さらに1次のde Rham cohomology群について,{\displaystyle {\rm Ker}\  d^1={\mathcal A}^1_X}であることがわかります.微分積分学の基本定理から,{\displaystyle {\rm Im} \ d^0={\mathcal A}_X^1}がわかりますから,{\displaystyle H^1_{\rm dR}({\mathbb R})\cong 0}が言えるのです.

次に{\displaystyle X={\mathbb T}^1}(円周)の場合を考えてみましょう.{\displaystyle {\mathbb T}^1={\mathbb R}/{\mathbb Z}}で,特に1次元トーラスとなっています.そのde Rhamコホモロジーを求めるのですから,トーラス上の微分方程式を解くことになります.それがFourie級数を導入するモチベーションとなります.

2.Fourie級数
トーラス上の関数を表示するツールとしてしばしば使われるのがFourie級数です.
{\displaystyle {\mathbb T}^1}上の滑らかな{\displaystyle {\mathbb C}}値関数{\displaystyle \phi(t)}に対する{\displaystyle {\sf Fourie} }級数を次で定める:

\begin{equation} \sum_{m \in {\mathbb Z}} \hat{\phi}(m)e^{2\pi \sqrt{-1}mt}\end{equation}

ここで{\displaystyle \hat{\phi}(m)}{\displaystyle {\sf Fourie}}係数というもので

{\displaystyle \hat{\phi}(m):=\int_{{\mathbb T}^1} dt \  \phi(t)e^{-2\pi \sqrt{-1}mt}}で与えられるものです.

定理:
{\displaystyle {\mathbb T}^1}上の滑らかな{\displaystyle {\mathbb C}}値関数{\displaystyle \phi(t)},および{\displaystyle r=0,1,2,\cdots }に対して

(1)\begin{equation} \phi^{(r)}(t)=\sum_{m \in {\mathbb Z}} (2\pi \sqrt{-1}m)^r\hat{\phi}(m)e^{2\pi \sqrt{-1}mt}\end{equation}
が成り立つ.

(2)対応{\displaystyle {\mathcal F}:\phi \mapsto \{ \hat{\phi} (m)\}_{m \in {\mathbb Z}}},は
{\displaystyle {\mathbb T}^1}上の滑らかな{\displaystyle {\mathbb C}}値関数全体のなす{\displaystyle {\mathbb C}}線形空間
{\displaystyle {\mathcal V}:=\{ \{ a_m \}_{m \in {\mathbb Z}} | a_m \in {\mathbb C}\ ,  a_m={\mathcal O}(|m|^{-h} )(^\forall h >0).\} }
との間の同型を導く.

上の主張は言い換えると次のようになります:
{\mathcal A}_{{\mathbb T}^1} 上の微分作用素\frac{d^r}{dt^r}はFourie変換を通してみると
{\mathcal V}上の対角行列

D:=\begin{bmatrix}
\ddots&&&&&&\\
&(2 \pi \sqrt{-1} (-2) )^r&&&&&\\
&&(2 \pi \sqrt{-1} (-1) )^r&&&&\\
&&&0&&&\\
&&&&(2 \pi \sqrt{-1} )^r&&\\
&&&&&(2 \pi \sqrt{-1} (2) )^r&\\
&&&&&&
\ddots
\end{bmatrix}
に対応する.

業界用語(?)で「Fourie変換で,微分が掛け算に変わる」ってやつです.それでは次回,上の主張を使って1次元トーラスのde Rham cohomology群を計算してみましょう.


同型{\displaystyle \nu:{\mathcal A}^0_{{\mathbb T}^1} \cong {\mathcal A}^1_{{\mathbb T}^1} , \phi \mapsto \phi dt}に注意しましょう.Fourie変換によって次の可換図式が得られます.

\begin{CD}
{\mathcal A}_{{\mathbb T}^1} ^0                 @>{d^0}>> {\mathcal A}_{{\mathbb T}^1} ^1@>{d^1}>>0\\
@V{\mathcal F}VV @VV{{\mathcal F}\circ \nu^{-1}}V 
@VV0V\\
{\mathcal V}@>D>> {\mathcal V}@>0>> 0

\end{CD}

\underline{H^0_{\rm dR}({\mathbb T}^1})
上の可換図式において,垂直方向は同型ですから,
{\displaystyle H^0_{\rm dR}({\mathbb T}^1) \cong {\rm Ker}\ D \cong {\mathbb C}}となります.

\underline{H^1_{\rm dR}({\mathbb T}^1})
これも可換図式から
{\displaystyle H^1_{\rm dR}({\mathbb T}^1) \cong {\rm Coker}\ D \cong {\mathbb C}}となります.

1次元トーラスのde Rham cohomologyが以上のようにFourie級数を使ってできました.次回は2次元トーラスの場合を実行します(続く).

線形代数のトレースの話をする。

みなさんこんにちは。きょうは、いつにもましてゆるふわな話です。線形代数で出てくる、トレースを基底を取らずに定義してみるのが目標です。
まずは、よくみる定義から。
(定義一)
{\displaystyle k}を体とし、{\displaystyle V}{\displaystyle k}上の{\displaystyle n}次元ベクトル空間とする。このとき線形写像{\displaystyle \phi:V\rightarrow V}のトレース{\displaystyle {\rm Tr}\phi}とは、
{\displaystyle \phi}の、ある基底に関する行列表示{\displaystyle \Phi }の対角成分の和{\displaystyle {\rm Tr}\Phi}のこととする。

長いですね。なお、行列のトレースは既知としました。行列のトレースについて,次の性質は重要です。
{\displaystyle A,B}{\displaystyle n}次正方行列ならば、
{\displaystyle {\rm Tr }(AB)={\rm Tr}(BA).}
これをつかえば、先ほどの線形写像のトレースが
well -definedなことが次のようにわかります。
基底の取り方を変えた場合,{\displaystyle \phi}の行列表示は,{\displaystyle \Phi \mapsto P^{-1}\Phi P}\ (^\exists P \in GL_n(k))と変わるが,そのとき
{\displaystyle {\rm Tr}(P^{-1}\Phi P)=
 {\rm Tr}(PP^{-1}\Phi )={\rm Tr}\Phi}で、基底の取り方によらない。

っていうのが,オードソックスなやり方なのですが,基底取りたくない時は次のようにしましょう。
(定義二)
つぎの同型に注意する:
{\begin{eqnarray}{\rm Hom}_k({\rm Hom}_k(V,V),k)&\simeq&{\rm Hom}(V^\ast \otimes _k V,k) \\ &\simeq&{\rm Hom}_k(V^\ast,{\rm Hom}_k(V,k))
\end{eqnarray}}最初の変形は、{\displaystyle V}の有限次元性を使っていて、2度目の変形はテンソル積と{\displaystyle {\rm Hom}}の随伴です。尚,{\displaystyle V^\ast}{\displaystyle V}の双対の略記です。いまこしらえた同型による,
{\displaystyle {\rm id} \in {\rm Hom}_k(V^\ast,{\rm Hom}_k(V,k))}の像でもってトレース
{\displaystyle {\rm Tr} \in {\rm Hom}_k({\rm Hom}_k(V,V),k)}とする。

定義二では、トレースそのものを基底を取らずに定義しています。これがいつものトレースと一致することを見るには,{\displaystyle {\rm Hom}}の変形を基底をとってやれば良いのです。

基底を取りたくない時は,ぜひ定義二を使ってみてください。

線形代数の演習

こんにちは。きょうは、線形代数の演習補助に行って来ました。こんな質問が生徒から出ました。
{\displaystyle X,Y}{\displaystyle n}次正方行列のとき、
{\displaystyle XY={\bf I}_n}ならば、
{\displaystyle X=Y^{-1}}
かどうか?
答えはもちろんYes.簡単な事実なので、いろいろやり方はあると思いますが、たとえば次のようにできます。ある{\displaystyle a_1,\cdots,a_r \in {\mathbb C}}が存在し{\displaystyle X^r+a_{1}X^{r-1}+\cdots +a_r{\bf I}_n={\bf O}}となる。
{\displaystyle Y^{r-1}}を右からかけて,{\displaystyle XY={\bf I}_n}を使えば
{\displaystyle X+a_{1}{\bf I}_n+\cdots +a_rY^{r-1}={\bf O}},とくに、{\displaystyle X,Y}は交換するから,証明終り。

Peter-Weylの定理とデルタ関数part2

part1の続き。part1では、Peter-Weylの定理を紹介しました。今回は、その証明をデルタ関数を使って行おうと思います。そのためにデルタ関数を導入しましょう。畳み込みから始めます。
{\displaystyle V:=\{ \phi:G \rightarrow {\mathbb C} \}}として、
{\displaystyle \psi ,\phi \in V}の畳み込み
{\displaystyle \psi \ast \phi \in V}
{\displaystyle \psi \ast \phi (g):=
\frac{1}{\# G}\sum_{g_1g_2=g}\psi (g_1)\phi(g_2)}
で定めます。
{\displaystyle V}は、この'積'{\displaystyle \ast}について{\displaystyle {\mathbb C}}-代数になるんです。単位元は何かと言いますと、それが
デルタ関数。定義は、
{\displaystyle \delta (g):=
\begin{cases}\# G & (g=1)\\ 0 & otherwise \end{cases}}
です。
で、畳み込みを何で持ち出したのかということですが、畳み込みで表現の重複度がわかります。

(命題)
{\displaystyle \rho _i :G\rightarrow GL(V_i)  (i=1,2)}を、{\displaystyle G}の表現、特に{\displaystyle \rho_2}は既約表現とします。さらにそいつらの指標を{\displaystyle \chi _i  ( i=1,2)}とします。そのとき、{\displaystyle \rho_1}における{\displaystyle \rho_2}の重複度は
{\displaystyle (\chi_1 \ast \chi_2)(1)}に一致する。

では、これを使ってPeter-Weylの定理を証明してみましょう。使うのは上の命題の他に、次の事実だけです:

事実:左正則表現の指標はデルタ関数である。

この事実は、当たり前といえば当たり前ですよね。では、大詰め。
(Peter-Weylの定理の証明)

{\displaystyle \rho}を既約表現とする。その指標を{\displaystyle \chi}とすると
左正則表現の{\displaystyle \rho}の重複度は、命題及び事実より{\displaystyle (\delta \ast \chi )(1)=\chi(1)={\rm deg} \rho}に等しい。(証明終)

Peter-Weylの定理と、デルタ関数part1

今期開講されている群論の授業でのこと。群論の授業に来ていた物理科の学生からの、面白い指摘があったから書いてみようと思います。テーマは、有限群の表現に関するもの。どういう指摘かというと、デルタ関数使うと、Peter-Weylの定理が出せるという指摘。準備に取り掛かります。 { \displaystyle
G
} が有限群のとき、 左正則表現を次で定義する: {\displaystyle V:=\{ \phi:G\rightarrow {\mathbb C}\}}上の表現で、 {\displaystyle \phi \in V ,g \in G }に対して、 {\displaystyle g.\phi (-):=\phi (g^{-1}(-))} で、{ \displaystyle
G} の表現が定まる。さて、主役であるPeter-Weylの定理は次の定理だ。

(Peter-Weyl) 左正則表現は、各既約表現{\displaystyle \rho}を、重複度{\displaystyle {\rm deg }\rho}だけ含む。

有名な系として、表現の次元を勘定すると得られるのが次の等式:

(Burnside) { \displaystyle G } が有限群のとき、

{ \displaystyle  \sharp G = \sum_{\rho} ({\rm deg } \rho) ^2 } なお、ここで和気号はすべての既約表現を渡ります。

さて、このPeter-Weylの定理が、デルタ関数の考え方で導けるというのが授業に来ていた物理屋さんの指摘なのですが、詳細は次回。