アルゴリズム(部分最小二乗法)
PLS-Algorithm
部分最小二乗法は多くの修正された説明変数と既知の目的変数を使用して不明な目的変数を予測するモデルを作成するために使用します。このような場合、複数の線形フィットは、通常、オーバーフィットを起こすので適切ではありません。部分最小二乗法はしばしば、混合物のスペクトルからどのような内容物が含まれているのか推測する際に使用されます。
部分最小二乗法は因子を説明変数の線形結合によって抽出し、抽出された因子空間に対して説明変数と目的変数を投影します。
欠損値がある観測データは分析から除外、つまりリストワイズ形式で除外されます。
仮に、観測データ数、説明変数、目的変数を順にn、m、r とします。説明変数はサイズが である行列Xで表わされ、目的変数は同じようにサイズが である行列Yで表わします。行列XとYのそれぞれの列から平均値を引き、 と のようにします。
行列内の各列、 は標準偏差によって割られます。
部分最小二乗法
Originは2種類の手法、Woldの反復法と特異値分解(SVD)で抽出した因子を計算します。
Woldの反復法
初期ベクトルとしてuを使用します。r=1で初期化したu=Yの場合、他の時はuはランダムな値のベクトルになります。
となり、wを で正規化します。
となり、tを で正規化します。
となり、qを で正規化します。
/math-ccf5221c571441660f8e3c74bca4b9ed.png)
wが収束すると更新され、
となり、tを で正規化します。
/math-730e6da5ac16fd9ceefe41c082da1252.png)
/math-8af0e35756f39c13f5e14818e651daf8.png)
/math-ccf5221c571441660f8e3c74bca4b9ed.png)
- ここで、w、t、u、p、q はそれぞれ x 重み、x スコア、yスコア、x ローディング、yローディングを表します。
/math-93d56c341b0ca427c9f7726ae13b7422.png)
/math-51e61b0988638a3c901508377b8abf9a.png)
そしてk因子は作成できます。k因子についてのx 重み、x スコア、yスコア、x ローディング、yローディングはそれぞれ行列W、T、U、P、Qで表わせます。
Originでは各因子のx スコア、yスコア、x ローディング、yローディングの符号は、各因子のx重みの合計を行う事で正規化され、正の数にします。
SVD
wは の正規化した第一左辺特異ベクトルで、
となり、tを で正規化します。
/math-730e6da5ac16fd9ceefe41c082da1252.png)
/math-8af0e35756f39c13f5e14818e651daf8.png)
/math-ccf5221c571441660f8e3c74bca4b9ed.png)
そして、k因子を抽出します。
交差確認
OriginはLeave-one-out手法で最適な因子数を検出します。この手法は1つの観測を省き、他の観測値だけでモデルを作成してその省いた観測値に対して反応を推測します。
PRESSは予測した残差の二乗和です。これは次式のように計算されます。
/math-2bb99673c7dae505a5074d37a34238cc.png)
- ここで、
はLeave-one-out 手法で予測されたY値です。
Note:もし変数がスケール化されている場合、PRESSはそのスケール化した結果になります。
因子の最大数がkの場合、PRESSは 0, 1, ... k因子分まで計算します。0因子の場合、
/math-b7d18e5222c06e7b0e22724d6663c1a0.png)
- ここで、
はj番目のY値に関する平均値です。
PRESSのルート平均はPRESSの平方根を取った平均値です。定義は、次のようになります。
/math-c89e91c6b17eb49a2f586459c42e1a28.png)
Originは最小PRESSのルート平均を使用して交差確認内で最適な因子数を探します。
反応予測
モデルが作成できると、フィットしたモデルの係数によって反応の予測が可能になります。係数は、重みとローディングの行列から計算されます。
/math-02f4f161619c2ac7b8f60b1a8ec75377.png)
そして、予測された反応は次のように計算されます。
/math-863ee5c8217b01dc657f2a57041bf0c4.png)
ここで、変数は中心化されています。変数がスケール化もされている場合、反応もスケール化されて返されます。
量
i番目のX変数に因子寄与します。
/math-9454ddb3b66073775022dfe4c601d7e6.png)
X変数の因子寄与は次の通りです。
/math-e227ae838508b8c3dbe33344011b25cf.png)
i番目のY変数に因子寄与します。
/math-e484a3503851dbdad1acb9ab9d2669e5.png)
Y変数の因子寄与は次の通りです。
/math-8fa4ab98f0ecff18c88fde7a722e512b.png)
VIP(投影に影響を与える変数)は、各説明変数が目的変数では平均分散を有している理由を説明します。
Xの残差は、
/math-39aea3e39f856d1056159322814df5be.png)
Yの残差は、
/math-9a5df1c150cac2d9932562fb94f2bb68.png)
変数がスケール化されている場合、残差もスケール化されて返されます。
i番目の観測に対するXモデルまでの距離
/math-d6dc7ff1a8b24c9af5825689cecd65bf.png)
i番目の観測に対するYモデルまでの距離
/math-b570af1cb5d8f2d9d602291ffffcda89.png)
1番目の観測に関するT二乗値
/math-485318be3ff60bd28173132ec5f68bac.png)
ここで、 はj番目の因子に対するXスコアの分散を表します。
/math-f0892d0e56f3583c093037f56a0a205b.png)
/math-5875c784787a0d8a31f68b77e53eccf9.png)
ここで、 はj番目の因子に対するXスコアまたはYスコアの分散を表します。
|