統計で使う行列の微分
統計で使いそうな行列の性質と公式を記載しておきます. 詳しくは統計のための行列代数(上,下)をご参照. 全体を通して実数の範囲で考えます.
ベクトルによる微分
ベクトル による微分は,微分の対象となる関数 を の各要素 で微分したものを並べたベクトル
と定義します. ここで,関数 はスカラー値であることに注意します. この定義に従って,以下の典型的なベクトルによる微分の公式を導出します.
内積に対する微分
となることから,
となります. 微分結果の係数ベクトル に転置がかかっていることに注意します.
二次形式に対する微分
の係数行列
と の二次形式 の による微分を求めます. 行列 による微分ではなくベクトル による微分であることに注意します. 内積の微分と同様に各 の微分は
となるので,これを列ベクトルとして並べると
となります.よって,二次形式の微分は
となることがわかります.
加えて,行列 が対称な行列 ならば なので,
となります.
行列による微分
ベクトルによる微分と同様に, 行列
による微分も,微分の対象となる関数 を の各要素 で微分したものを並べた行列
と定義します. ここでも,関数 はスカラー値であることに注意します. この定義に従って,以下の典型的な行列による微分の公式を導出します.
行列の Trace
まず,行列積のトレースを,行列の要素の和で表しておきます. を 行列, を 行列, を 行列とします. 行列 の 要素を と表すと,行列 のトレース は
で定義されます.
行列積 を和で表すと
と表されます.したがって,
となります.
同様に行列積 は
と表されるので,
となります.
Trace の微分
行列積 のトレース を で微分すると, の係数を抜き出せばよいから,
となるので,
となります. 同様に, のトレースの微分から
となるので,
がわかります.
また,行列積 のトレース を で微分すると
と計算できるので,
がわかります.
二次形式の微分
ベクトルによる微分と表記を変え, の係数行列
となります. したがって,これらの要素を行列に表すと
となるので,
となることがわかります.
カーネル法の基礎
この投稿では,私が後で見返したときに簡単にカーネル法を思い出せるように,その基礎を数学的な詳細に余りこだわらずにmemoします.
カーネル法の考え方
まず線形予測問題を考えます.すなわち, 入力する変数を表すベクトル と基底関数によるベクトル
を使った,パラメータベクトル の線形モデル
で出力となる変数 を予測します.
データ が得られた時に, を で近似する事を考えます. 最小二乗法で推定することにすると,二乗誤差
を最小にする を求めることになります. 変数のデータを表す 行列を と,出力のデータを表すベクトルを と表すと, を最小にする は
と求めることができます.
ここで,視点を変えて, の別の表現方法を考えます. そのために,最小二乗法の目的関数 における を次のように分類します. まず, で張られる の部分空間を と表します.すなわち, が に含まれていれば,それは 個のスカラー値の係数 を使って,
と表されることを意味します.そして の直交補空間を と表すと, の要素 を使って, は
と表され, は の直交補空間に含まれることから,任意の について, をみたします.
これらを使って,最小二乗法の目的関数 を書き換えると,次のようになります.
二項目は から得られる項ですが,最小化に寄与しない項となるので,最適化の候補となるパラメータは の線形和となるパラメータ だけを考えれば十分であるということがわかりました. さらに関数 を
とおくと, が の線形和で表されることと合わせて,最小二乗法の目的関数を
と書き換えることができます. この係数 を並べたベクトル と表したとき, を最小にする は, 要素に を持つ 行列を をとおくと,
と表すことができ,この結果から,回帰関数の推定量をと表現することができます.
こうすると,いままで線形予測問題で使っていた基底関数 を考える代わりに,関数 を考えれば十分であることがわかりました.また, を決めて,データから行列 を求めたとき, を求めるのに必要な計算量は の次元 ではなく,データのサンプルサイズ に依存する事がわかります. これから逆に,「先に関数 を決めたときに,いままでと同じ様に予測問題を考えることができるだろうか」という疑問が湧いてきます.この疑問に答えるのが「Representer 定理」と呼ばれるもので,その道具立てとして「再生核Hilbert空間」というものが必要になってきます.
再生核Hilbert空間とRepresenter 定理
以降ではデータ点を , などのように表します. 上記で定めた は正定値カーネルと呼ばれます. 元々, と定めていたことに対応させて,正定値カーネルが次の2つの条件をみたすものと定めます.
- (対称性):
- (正値性):任意の に対して,
この性質から,上で定めたような 行列 は半正定値な対称行列となります.このような行列はGram行列と呼ばれます.
この正定値カーネルはいくつか性質を持ちますが,特に重要なものは以下のつです
先程の議論で回帰関数の推定量が
で得られていたことを踏まえて,この正定値カーネルの線形和で表される関数がどれだけ表現力があるか考えます. まずはその集合 を以下の様に定めます:
ここで, は任意の自然数で, は任意の入力データ変数で観測された変数でなくても構いません. 異なる の要素 の距離を考えるために,それらの内積を定めます.そのため,正定値カーネル同士の内積を
と定めると, の要素
の内積を
と計算することができます.したがって
となることから, を片方の関数値から計算することができ,線形和の表し方に依存しないことがわかります. また上式で とおくことで,
と計算することができ,この性質はカーネルの再生性と呼ばれます. 実は,再生性を持つ正定値カーネルをもつ関数の空間を考えることは,正定値カーネルの線形性から を考えることと同等になります. このことから,次に定める再生核Hilbert空間の性質を調べることを目的にすればよいことがわかりました.
このように定めた再生核Hilbert空間の再生核は正定値カーネルとなり,また再生核は一意になります. このことから,再生核Hilbert空間を定めることから議論を始めることは,正定値カーネルから始めることと同等になることがわかります.再生核Hilbert空間の性質はいくつかあるのですが,次のRepresenter定理が統計モデルの推定に関連するものです.
参考文献
- 導入部と全体的な流れは,統計的学習理論 | 書籍情報 | 株式会社 講談社サイエンティフィクの4章を参考にしました.カーネル法への入門としては非常にわかりやすく書かれていると思います.
- 詳細部分については,シリーズ〈多変量データの統計科学〉 カーネル法入門 |朝倉書店の2章と3章を参考にしました.日本語で読めるカーネル法の書籍としてはかなり詳しいと思います.