玄関雑学の部屋雑学コーナー統計学入門

5.3 計数値の相関分析と回帰分析

データが計数値の場合、2つの項目間の関連性を要約するには主にノンパラ手法を用います。 それらの手法は原理的には計量値の相関分析や回帰分析と同様ですが、データとして順位や度数を用いるところが違っています。

(1) 順序尺度の相関分析

まずデータが順序尺度の時から説明しましょう。 表5.1.1のデータについて体長と尾長のそれぞれに順位を付けて順序尺度にすると次のようになります。 これは後ろ向き研究から得られたデータなのでどちらの順位にも誤差がある点に注意してください。

表5.3.1 マウスの体長順位と尾長順位
No.体長体長順位(rx)尾長尾長順位(ry)
110.0078.047
28.0056.954
313.00107.586
49.0068.819
511.0088.338
614.00119.9610
76.0037.245
84.0014.261
912.00910.8411
107.0044.822
115.0025.683
平均値9.0067.506

この表について実測値の代りに順位rxとryを用いて普通の相関係数を計算してみましょう。


寄与率:

このようにして求めたrsスピアマンの順位相関係数(Spearman's rank correlation coefficient)といいます。 実測値の代わりに順位を用いただけですから、この相関係数と寄与率の意味は通常の相関係数と同じですし、値も第1節の結果とほとんど変わりません。 なおこのデータには同位の値はありませんが、もし同位の値があれば今までと同じように平均順位を用いて計算します。 (→3.2 1標本の計数値 (注2))

また普通の相関係数と同様に順位相関係数の検定と推定を行なうことができます。 検定は普通の相関係数と同じようにt分布を利用する方法と正規分布を利用する方法があります。 統計学の解説書などではt分布を利用する方法がよく紹介されていますが、ウィルコクソンの2標本検定との関連を考えると正規分布を利用する方法の方が合理的です。 (注1)

帰無仮説 H0:ρs(母順位相関係数) = 0
有意性検定の対立仮設 H1:ρs ≠ 0
統計的仮設検定の対立仮設 H1:ρs ≠ δρsρs:順位相関係数の検出差=実質科学的に有意義な順位相関係数の値)
○t分布近似検定
順位相関係数の標準誤差:   検定統計量:
|to| > t(n - 2,α)の時、有意水準100α%で有意
表5.3.1の場合:|to| = 4.269(p = 0.0021) > t(9,0.05) = 2.262 … 有意水準5%で有意
○正規分布近似検定
検定統計量:
|zo| > t(∞,α)の時、有意水準100α%で有意
表5.3.1の場合:|zo| = 2.587(p = 0.0097) > t(∞,0.05) = 1.96 … 有意水準5%で有意
○推定:フィッシャーのz変換を利用する → 5.1節の(注1)参照
順位相関係数の95%信頼区間  下限:ρsL = 0.429 上限:ρsU = 0.951
統計学的結論:体長と尾長の順位相関係数は0ではない。 それは0.818であり、幅をもたせれば0.429〜0.951の間である。

データが重症度のような順序分類尺度の時にも、同位の値が多くはなるでしょうが、全く同様に順位相関係数を計算することができます。 しかしそんな時には重症度を次のように計量化し、計量尺度扱いしてしまってもかまいません。

症状なし:0  軽症:1  中等症:2  重症:3

この方が結果の解釈が容易になる上に、こうしないと相関関係をうまく反映できない時もあります。 実際問題として順位相関係数というワケのわからないシロモノを使うよりも、多少不正確でもワケのわかりやすい手法を使う方が賢明です。 (→3.4 2標本の計数値 (1)順序尺度)

また統計学の解説書などによく次のようなことが書かれていて、これをそのまま盲信している人がいると思います。

「たとえ計量尺度のデータでも、正規分布しない時とかデータ数が少ない時とか直線性が低い時は普通の相関係数ではなく順位相関係数を計算しなければならない!」

しかしこれは統計手法と要約値の科学的な意義を無視した乱暴な主張ですから、こんな主張を鵜呑みにしてはいけません。 順位相関係数は2つのデータの順位の間の関連性を表すラフな指標であり、実測値の間の関連性を表す指標ではありません。 例えば図5.3.1のように2つのデータの間の関係が直線的な場合と、値が大きくなるにつれて頭打ちの傾向がある場合について考えてみましょう。 これら2つの場合について普通の相関係数と順位相関係数を計算すると、直線的な関係の場合はどちらも1ですが、頭打ちの関係の場合はそれぞれ0.95と1になります。 これは次のようなことを意味しています。

「2つのデータの計量的な大小関係は直線的な場合は完全に一致しているが、頭打ちの場合は完全には一致していない。 しかし2つのデータの順序の大小関係はどちらの場合も完全に一致している」

図5.3.1 2種類の相関関係

このような時、「2つのデータの計量的な関係ではなく順序関係が重要であり、2つのデータの関係が直線的な場合も頭打ちの場合も科学的な意味は同じである」と考えられるのなら順位相関係数を指標にすべきです。 しかし「2つのデータの計量的な関係が重要であり、2つのデータの関係が直線的な場合と頭打ちの場合では科学的な意味は異なる」と考えられるのなら普通の相関係数を指標にすべきです。

そして計量的な関係が重要な時は「2つのデータの大小関係はだいたい一致しているが、値が大きくなるにつれて一方のデータは頭打ちの傾向がある」という関係を特定の関数で表現できるかどうか検討することになります。 例えば対数関係で表現できるかどうかは、一方のデータを対数変換してから相関係数を計算し、実測値を用いた時の相関係数と比べて値が大きくなるか小さくなるかを調べる、といった方法で検討することができます。

このように普通の相関係数を用いるか順位相関係数を用いるかは、データの正規性やデータ数といった数学的な要因ではなく、あくまでも科学的な要因で決めるべきです。

また順序尺度のデータはデータとデータの間隔が等しくなく、四則演算を行うことができません。 そのため原理的に回帰分析を適用することはできません。 なぜなら回帰分析は2種類のデータの間の計量的な関係を関数で近似するための手法だからです。 ただし順序尺度のデータをそのまま計量尺度扱いしてしまってもかまわない時がけっこうあるので、そのような時は普通の回帰分析を適用することができます。 (→2.3 パラメトリック手法とノンパラメトリック手法)

(2) 名義尺度の相関分析

次にデータが名義尺度の時について説明しましょう。 表5.1.1の体長と尾長を8cm未満と8cm以上の2種類に分類してクロス集計表にまとめると次のようになります。

表5.3.2 マウスの体長分類と尾長分類
体長分類\尾長分類8cm未満8cm以上
8cm未満404
8cm以上257
6511

これは順位が2つだけの順序尺度のデータと考えることができるので、スピアマンの順位相関係数を求めることができます。 この時の順位相関係数を特に四分点相関係数(four-fold point correration coefficient)と呼び、次のような式で求められます。 これは心理学分野ではφ(ファイ)係数とも呼ばれています。 (→1.9 科学的研究のデザイン3.4 2標本の計数値 (2)名義尺度)

表5.3.2のデータが完全な名義尺度の時はカテゴリー間に大小関係がないので、厳密にいえば順位相関係数は求められません。 しかし2つの分類の間に何らかの関連性があり、一方の分類が他方の分類に影響を与えることは考えられます。 上の表でいえば体長と尾長の間に正の関連性があれば両者が同じ分類になるマウスが多くなり、左上と右下のカラムの例数が増えるはずです。

もう少し一般化すれば縦(または横)のカテゴリーごとに眺めた時、横(または縦)の分類パターン——表5.3.2では「4−0」と「2−5」——が同じなら縦の分類と横の分類はお互いに関連性がないと考えられます。 しかし縦のカテゴリーごとに横の分類パターンが異なれば縦の分類と横の分類の間に何らかの関連性があると考えられます。 このような関連性を要約する値として第3章第2節(2)第4章第2節(2)で説明したχ2値があります。 しかしχ2値は例数と自由度によって最大値が異なるので値を比較するには不便です。 そこで総例数をNとし、縦と横の分類数のうち小さい方の値をsとして次のような値を用います。

χ2値は理論度数と実現度数の食い違いの平方和を表すので、この値は1度数あたりの食い違い平方を表します。 実は、この食い違い平方はχ2検定における寄与率R2に他なりません。 そしてこの値の平方根をクラメール(Cramer)の連関係数(coefficient of contingency)といい、Vまたはθで表します。 この値は1度数あたりの食い違い量を表し、最小値が0で、最大値が1になります。 このことからχ2検定は連関係数の検定に相当することがわかると思います。 (→1.9 科学的研究のデザイン3.4 2標本の計数値 (2)名義尺度4.2 多標本の計数値 (2)名義尺度)

データが2×2分割表の時、自由度は1になります。 そのためクラメールの連関係数は、次のようにχ2値を総例数Nで割って平方根にするだけになります。 そしてこの場合だけ連関係数と四分点相関係数の絶対値が一致します。 しかし両者は目的も計算原理も異なる指標なので2×2分割表以外では一致しません。 また順序尺度のデータと違って名義尺度のデータを計量尺度のデータとして扱うことはできません。

表5.3.2のデータについて、有意水準5%として実際に計算すると次のようになります。 (注2)

○四分点相関係数(φ係数):φ = 0.690 = θ  寄与率:r2 = φ2 = 0.476
検定=順位相関係数の正規近似検定:zo = 2.182(p = 0.0291) > t(∞,0.05) = 1.960 … 有意水準5%で有意
四分点相関係数の95%信頼区間 下限:φL = 0.154 上限:φU = 0.912
統計学的結論:体長と尾長の分類間の四分点相関係数は0ではない。 それは0.690であり、幅をもたせれば0.154〜0.912の間である。
○クラメールの連関係数:V = 0.690  寄与率:R2 = V2 = 0.476 = φ2
検定=χ2検定:χo2 = 5.238(p = 0.0221) > χ2(1,0.05) = 3.841 … 有意水準5%で有意
連関係数の95%信頼区間 下限:VL = 0.117 上限:VU = 1
統計学的結論:体長と尾長の分類間の連関係数は0ではない。 それは0.690であり、幅をもたせれば0.117〜1の間である。

以上のように四分点相関係数とクラメールの連関係数は同じ値ですが、両者の検定結果と推定結果は微妙に違います。 これは四分点相関係数は順序尺度の関連性を表す指標であり、検定は順位相関係数の検定──この場合はマンテル・ヘンツェルの検定に相当──を用いるのに対して、連関係数は名義尺度の関連性を表す指標であり、検定はχ2検定を用い、両者は微妙に異なる検定だからです。 しかしこの場合はどちらも検定結果は有意です。 そして寄与率が50%近くあるので、「体長と尾長の分類間には関連がありそうだ」と解釈できます。

2×2分割表において2種類の分類間の関連性を表す指標としては、他にも第3章第4節で説明したオッズ比(見込み比、odds ratio)があります。 この値は関連性が全くない時は1になり、関連性がある時は1未満または1よりも大きくなります。 ただし四分点相関係数や連関係数のように上下限が決まっているわけではないので、関連性の程度を表す指標としてはあまり便利ではありません

またこの値は比に基づいているのでデータの中に0のものがあると計算できなかったり、関連性を的確に表さなかったりする欠点があります。 (→1.9 科学的研究のデザイン3.4 2標本の計数値 (2)名義尺度)

表5.3.2のデータについて、有意水準5%として実際に計算すると次のようになります。 (注3)

OR:計算不能
※ウールフの修正を施した場合:OR = 19.8
検定:χo2 = 3.179(p = 0.0746) < χ2(1,0.05) = 3.841 … 有意水準5%で有意ではない
ORの95%信頼区間 下限:ORL = 0.744 上限:ORU = 527
統計学的結論:体長と尾長の分類間のオッズ比計算不能である。 そこで近似的に求めると19.8であり、幅をもたせれば0.744〜527の間である。
 したがって1ではない可能性が高いが、信頼性が低いので結論は保留する。

(3) 名義尺度と計量尺度または順序尺度の相関分析

一方のデータが名義尺度で他方が計量尺度の時も相関係数に相当する要約値を求めることができます。 表5.1.1のデータについて、体長だけを8cm未満と8cm以上に分類してみましょう。

表5.3.3 マウスの体長分類と尾長
No.体長体長分類(0:8cm未満,1:8cm以上)尾長
110.0018.04
28.0016.95
313.0017.58
49.0018.81
511.0018.33
614.0019.96
76.0007.24
84.0004.26
912.00110.84
107.0004.82
115.0005.68
平均値9.000.647.50

このデータについて名義尺度のデータを0と1のダミー変数にし、計量尺度のデータはそのままで形式的に両者の相関係数を計算します。 ただし相関係数の符号はダミー変数の決め方によって変わるので相関係数の絶対値を取り、それを相関比(correlation ratio)と呼んでη(イータ)で表します。 この値は名義尺度のデータの分類法と計量尺度のデータの間の関連性を要約する値であり、分類ごとに計算した平均値が異なっているほど大きな値になります。

表5.3.3から見当が付くと思いますが、これは第4章第1節で説明した一元配置分散分析における要因Aの寄与率の平方根に他なりません。 したがってこの時の相関係数の検定は一元配置分散分析そのものになります。 なおη2つまり寄与率のことを相関比と呼ぶこともあります。 しかし相関係数を平方した値が寄与率になるということから、やはりηを相関比と呼ぶ方が合理的だと思います。 そのためここではηのことを相関比と呼ぶことにします。 (→4.1 多標本の計量値5.1 相関係数と回帰直線 (注4))

表5.3.3のデータについて、有意水準5%として実際に計算すると次のようになります。

r = η = 0.781  r2 = η2 = 0.610(61.0%)
検定=一元配置分散分析(2標本t検定):to = 3.750(p = 0.0046) > t(9,0.05)=2.262 … 有意水準5%で有意
相関比の95%信頼区間 下限:ηL = 0.490 上限:ηU = 0.934
統計学的結論:体長分類と尾長の相関比は0ではない。 それは0.781であり、幅をもたせれば0.490〜0.934の間である。

一方のデータが名義尺度で他方のデータが順序尺度の時は、ダミー変数と順位を用いて形式的に相関係数を計算します。 この場合も相関係数の絶対値を取り、それを順位相関比(rank correlation ratio)と呼んでηrで表すことにしましょう。 この値は名義尺度のデータの分類法と順序尺度のデータの順位の間の関連性を要約する値であり、分類ごとに計算した順位平均値が異なっているほど大きな値になります。

表5.3.3の尾長を順序尺度扱いすると、このデータにクリスカル・ウォーリスの検定またはウィルコクソンの2標本検定を適用できることがわかると思います。 そして順位相関比は第4章第2節で説明したクリスカル・ウォーリスの検定における要因Aの寄与率の平方根に相当します。 したがってこの時の相関係数の検定はクリスカル・ウォーリスの検定になります。 (→4.2 多標本の計数値 (1)順序尺度 1)データに対応がない場合)

表5.3.3の体長を順序尺度扱いし、有意水準5%として実際に計算すると次のようになります。

r = ηr = 0.777  r2 = 0.604(60.4%)
検定=クリスカル・ウォーリスの検定(ウィルコクソンの2標本検定):zo = 2.457(p = 0.0140) > t(∞,0.05) = 1.960 … 有意水準5%で有意
相関比の95%信頼区間 下限:ηrL = 0.165 上限:ηrU = 1
統計学的結論:体長分類と尾長の順位相関比は0ではない。 それは0.777であり、幅をもたせれば0.165〜1の間である。

(4) 名義尺度と計量尺度または順序尺度の回帰分析

一方のデータが名義尺度で他方が計量尺度の時も回帰直線を求めることができます。 第1節の表5.1.5の生後日数だけを8日未満と8日以上に分類すると次のようになります。 これは前向き研究から得られたデータなので、表5.3.1や表5.3.2や表5.3.3と違って生後日数分類には誤差がなく、尾長にだけ誤差がある点に注意してください。 このデータに回帰分析を適用すると、説明変数である生後日数がダミー変数であり、目的変数である尾長が計量尺度の時の回帰直線を求めることになります。

表5.3.4 マウスの生後日数分類と尾長
No.生後日数生後日数分類(0:8日未満,1:8日以上)尾長
1404.26
2505.68
3607.24
4704.82
5816.95
6918.81
71018.04
81118.33
912110.84
101317.58
111419.96
平均値90.647.50
図5.3.2 生後日数分類と尾長の回帰直線

表5.3.4のデータについて、有意水準5%として実際に計算すると次のようになります。

回帰直線:y(尾長) = 5.5 + 3.144x(生後日数のダミー変数)   r2 = 0.610(61.0%)
回帰係数の検定:to = 3.750(p = 0.0046) > t(9,0.05) = 2.262 … 有意水準5%で有意
回帰係数の95%信頼区間 下限:βL = 1.247 上限:βU = 5.041
統計学的結論:体長分類と尾長の回帰直線の回帰係数は0ではない。 それは3.144であり、幅をもたせれば1.247〜5.041の間である。

この時、回帰直線の切片5.5は生後日数が8日未満の群における尾長の平均値になり、回帰係数3.144は生後日数が8日以上の群における尾長の平均値と8日未満の群における尾長の平均値の差になります。 したがってこの時の回帰分析は2群の平均値の差の検定つまり2標本t検定に相当します。 これは、見方を変えれば群という要因によって目的の項目のデータが変動するかどうかを調べていると解釈することができます。 つまり群を説明変数にし、計量尺度の項目を目的変数にした回帰分析を行っていることに相当するわけです。

またこの時の回帰直線が2群の平均値を通ることから回帰直線は説明変数がある特定の値の時の目的変数の平均値に相当する、つまり平均値を2次元に拡張したものであることがわかると思います。 (→5.1 相関係数と回帰直線 (注4))

目的変数が計量尺度ではなく順序尺度の時は回帰係数が平均値の差の代わりに順位平均値の差になり、回帰分析がウィルコクソンの2標本検定またはクリスカル・ウォーリスの検定に相当します。 この場合は群を説明変数にし、データの順位を目的変数にした回帰分析を行っていることに相当します。 (→4.2 多標本の計数値 (1)順序尺度 1)データに対応がない場合)

以上とは反対に説明変数である生後日数は計量尺度または順序尺度のままにして、目的変数である尾長を8cm未満と8cm以上に分類した時も回帰直線を求めることができます。 ただし目的変数として0/1のダミー変数をそのまま用いるのではなく出現率を用います。 表5.3.4の尾長を2分類にすると次のようになります。

表5.3.5 マウスの生後日数と尾長分類
No.生後日数尾長8cm未満8cm以上8cm以上の出現率
144.261010
155.681010
367.241010
474.821010
586.951010
698.810111
7108.040111
8118.330111
91210.840111
10137.581010
11149.960111
平均値97.500.5450.455-0.455

この表のままでも計算できますが、尾長8cm以上の出現率が0か1になってしまい、出現率が直線的に増加している様子がわかりづらいと思います。 そこで体長を5cm間隔でまとめると次のようになります。

表5.3.6 マウスの生後日数分類と尾長分類
生後日数分類尾長8cm未満尾長8cm以上8cm以上の出現率
4-5(4.5)2020
6-10(8)3250.4
11-14(12.5)1340.75
全体65110.455

この場合、説明変数である生後日数分類の値をどのようにするかが問題です。 一番もっともらしいのは分類の中央の値にすることであり、表5.3.6の生後日数分類の括弧の中の値がそれです。 もっと単純なものとしては単に1、2、3という値にする方法もあります。 説明変数は本来は計量尺度ですが、確率変数ではなく、研究者が任意の値を指定する変数です。 そのため目的変との関係が直線的になるように計量化できるのなら順序尺度または順序分類尺度のデータでもかまいません。

目的変数は尾長8cm以上の出現率であり、生後日数4.5の時が0、8の時が0.4、12.5の時が0.75になります。 しかしこれら3つの出現率は、それを計算したデータ数が異なるので信頼度が異なります。 そこでこれらの出現率を均等に扱わず、信頼度が高い出現率ほど重要視して回帰直線を計算します。 そのような計算方法を重み付け最小2乗法といい、回帰直線を求める時に利用した最小2乗法の一種です。 表5.3.6のデータについて、有意水準5%として実際に計算すると次のようになります。 (注4)

回帰直線:p(尾長8cm以上の出現率) = -0.355 + 0.090x(生後日数分類の値)   寄与率:r2 = 0.984(98.4%)
直線性(回帰係数)の検定:χβ2 = 3.084(p = 0.0791) < χ2(1,0.05) = 3.841 … 有意水準5%で有意ではない
異質性(ズレ)の検定:χLOF2 = 0.051(p = 0.8208) < χ2(1,0.05) = 3.841 … 有意水準5%で有意ではない
回帰係数の95%信頼区間 下限:βL = -0.010 上限:βU = 0.190
統計学的結論:生後日数分類と尾長8cm以上の出現率の回帰直線の回帰係数は0.090であり、幅をもたせれば-0.010〜0.190の間である。
 したがって0ではない可能性が高いが、信頼性が低いので決論は保留する。
 また実際の出現率と回帰直線の間にズレがあるとはいえない。
図5.3.3 生後日数と尾長8cm以上出現率の回帰直線

直線性つまり回帰係数の検定統計量にt値ではなくχ2値を用いるのは、目的変数が普通の計量値ではなく出現率だからです。 この手法をコクラン・アーミテージ(Cochran-Armitage)の傾向分析といい、回帰係数の検定部分だけを特にコクラン・アーミテージ(Cochran-Armitage)の傾向検定と呼びます。 この手法では回帰係数の検定だけでなく、回帰直線からのズレの検定も行うことができます。 その検定が異質性(ズレ)の検定です。 この検定結果が有意の時は実際の出現率と回帰直線の間にズレがある、つまり出現率の変動に直線的ではない部分があるということになります。

ちなみに表5.3.5のデータにコクラン・アーミテージの傾向分析を適用すると次のようになります。 この場合はポイント数が増えたので回帰係数の検定結果が有意になった反面、出現率が0%か100%のためズレが少し大きくなっています。

回帰直線 p(尾長8cm以上の出現率) = -0.445 + 0.1x(生後日数)   寄与率:r2 = 0.403(40.3%)
直線性(回帰係数)の検定:χβ2 = 4.437(p = 0.0352) > χ2(1,0.05) = 3.841 … 有意水準5%で有意
異質性(ズレ)の検定:χLOF2 = 6.563(p = 0.6825) < χ2(9,0.05) = 16.919 … 有意水準5%で有意ではない
回帰係数の95%信頼区間 下限:βL = 0.007 上限:βU = 0.193
統計学的結論:生後日数と尾長8cm以上の出現率の回帰直線の回帰係数は0ではない。 それは0.1であり、幅をもたせれば0.007〜0.193の間である。
 また実際の出現率と回帰直線の間にズレがあるとはいえない。

コクラン・アーミテージの傾向分析は、表5.3.6のように説明変数が順序尺度または順序分類尺度で目的変数が名義尺度の時によく用いられます。 そのため「この手法は説明変数が順序尺度のデータでないと適用できない」と誤解している人がけっこういるようです。 しかしこの手法の説明変数は本来は計量尺度です。 でも順序尺度のデータを適当に計量化して説明変数にしてもかまわないので、そのような場合によく用いられるだけです。 したがって本来は表5.3.5のような計量尺度のデータをわざわざ表5.3.6のような順序尺度のデータにする必要はありません。

以上のことから、データが計量尺度の場合に限らず、どんな場合でも関連性を要約する原理は同じということがわかると思います。 なお生後日数と尾長8cm以上の出現率の間に薬剤の用量−反応関係(dose-response relationship)に相当する関係があると考えられる時は、コクラン・アーミテージの傾向分析よりもプロビット分析を用いる方が合理的です。 プロビット分析については第13章で説明します。 (→13.4 プロビット分析)


(注1) スピアマンの順位相関係数の計算式を少し展開してみましょう。 例数をnとし、ペアになった順位の差をd = rx - ryとします。

di = rxi - ryi (i = 1,…,n)
  

同位の値がg個あると2乗和はだけ小さくなります。 そのため次のような同意の補正を行います。

xについての同位の補正:   gx:xの同位の個数
yについての同位の補正:   gy:yの同位の個数




ここで、n(n+1)(n-1) = n3 - n = Aと置くと

表5.3.1のデータについて実際に計算してみましょう。

A = 10×11×12 = 1320  Kx = Ky = 0   D = 6×(1 + 22 + 22 + 1 + 32 + 22 + 42 + 1) = 240
  rs2 = 0.8182 = 0.669(66.9%)
  |to| = 4.269(p = 0.0021) > t(9,0.05) = 2.262
  |zo| = 2.587(p = 0.0097) > t(∞,0.05) = 1.96
フィッシャーのz変換:
rsの95%信頼区間  下限:  上限:

ウィルコクソンの2標本検定における順位データは次のように表すことができます。

A群:ry11,…,ry1i,…,ry1n (i = 1,…,n)
B群:ry21,…,ry2j,…,ry2m (j = 1,…,m)

このデータに対してA群に属す時は「0」、B群に属す時は「1」という値をとるダミー変数rxを対応させます。

A群:ry=ry11,…,ry1i,…,ry1n (i = 1,…,n)
 rx=rx1=0,…,0,…,0 
B群:ry=ry21,…,ry2j,…,ry2m (j = 1,…,m)
 rx=rx2=1,…,1,…,1 

このデータについてスピアマンの順位相関係数を計算すると次のようになります。

A群の平均順位:   B群の平均順位:
T1 = Σryi  T2 = Σryj   
Kx = (m3 - m) + (n3 - n)   
A = (m + n - 1)(m + n)(m + n + 1)

Srxry = (m + n - 1)(m + n)(m + n + 1) - (m + n)(m + n + 1)(4m + n - 1) + 6(m + n)T2 = 6(m + n)T2 - 3m(m + n)(m + n + 1)
Srxrx = (m + n - 1)(m + n)(m + n + 1) - (m3 - m) - (n3 - n) = 3mn(m + n)

※K:ウィルコクソンの2標本検定における同位の補正


以上のように、この場合のスピアマンの順位相関係数は連続修正を施さないウィルコクソンの2標本検定、つまり群が2つの時のクリスカル・ウォーリスの検定と深い関係があります。 そしてスピアマンの順位相関係数を平方した寄与率とクリスカル・ウォーリスの検定における要因Aの寄与率が一致します。 計量値でも相関係数と分散分析一元配置との間にこれと同じような関係があったことを考えると、順位相関係数の検定としては次のような式を用いるのが合理的です。 (→3.4 2標本の計数値4.2 多標本の計数値 (1)順序尺度)

検定統計量:
|zo| > t(∞,α)の時有意水準100α%で有意

ちなみにデータが2変量正規分布する時、普通の相関係数つまりピアソン(Pearson)の相関係数rとスピアマンの順位相関係数rsの間には次のような関係があります。 (→9.4 多変量の場合)

少し複雑な考え方として、次のように順位に適当なスコアを対応させ、そのスコアを用いて順位相関係数を計算する手法があります。


Crxi:rxiに対応させるスコア   Cryi:ryiに対応させるスコア (i = 1,…,n)
van der Waerdenの場合:   
  :標準正規分布
z = Φ-1(p):Φ(z)の逆関数で、Φ(z)の関数値がpになる時の正規偏位z

そのスコアとして標準正規分布における%点の値、つまり(n + 1)を分母とした時の順位rの累積出現率に対応する正規偏位を用いるものがファン・デル・ヴェルデン(van der Waerden)の順位相関係数です。 これはデータの順位を利用して、データを強引に正規分布として取り扱う手法です。 そのためデータが正規分布していれば、データをそのまま用いて計算した普通の相関係数と一致します。

これと同じ考え方で順位に正規偏位を対応させ、2群の正規偏位平均値の差を検定するファン・デル・ヴェルデン検定という手法もあります。 この手法はデータが正規分布していれば2群の平均値の差の検定つまり2標本t検定の正規検定版に相当するので、ウィルコクソンの2標本検定よりも好ましいとされています。 (→3.4 2標本の計数値 (注3))

しかし順位を利用したノンパラメトリック手法は、データが正規分布していない時はパラメトリック手法よりも検出力が高くなるという特徴を持っています。 そのためデータが正規分布していない時にこそ使い道があります。 データが正規分布している時は素直にパラメトリック手法を用いた方が効率的かつ合理的です。 そのためファン・デル・ヴェルデンの順位相関係数もファン・デル・ヴェルデン検定も、計算が面倒な割に使い道はあまりありません。

(注2) 2×2分割表のデータを0と1のダミー変数にし、相関係数を計算してみましょう。

表5.3.7 2×2分割表
分類B1(0)B2(1)
A1(0)n11n12N1.
A2(1)n21n22N2.
N.1N.2N
xi = 0(A1) または 1(A2)   yi = 0(B1) または 1(B2)





r = φ = V  r2 = φ2 = V2
χo2:2×2分割表における連続修正を施さないχ2
χmo2:2×2分割表における連続修正を施さないマンテル・ヘンツェルの検定のχ2

以上のように、この時の相関係数は四分点相関係数(φ係数)とクラメールの連関係数になります。 ただし(注1)で説明したように、一方の順位が2つの時のスピアマンの順位相関係数の検定は連続修正をしないウィルコクソンの2標本検定に一致します。 そして第3章第4節の(注4)で説明したように、2×2分割表に連続修正をしないウィルコクソンの2標本検定をあてはめると連続修正をしないマンテル・ヘンツェルの検定に一致します。

したがってクラメールの連関係数の検定には連続修正をしないχ2検定を用い、四分点相関係数の検定には連続修正をしないウィルコクソンの2標本検定つまり連続修正をしないマンテル・ヘンツェルの検定を用いるのが合理的です。 また四分点相関係数の推定には、順位相関係数と同様にフィッシャーのz変換を利用する手法を用いるのが合理的でしょう。

χ2検定のことを独立性の検定または関連性の検定と呼ぶことがあります。 それはこの検定が多群の出現率の差の検定であると同時に、クラメールの連関係数の検定でもあるからです。 しかし厳密にいうと関連性の検定は母集団からN個の標本を取り出し、それを分類Aと分類Bという2種類の方法で分類した時の分類間の関連性の有無を検定する手法、つまり横断的研究から得られたデータの分類間の関連性の有無を検定する手法です。

それに対して出現率の差の検定はA1群の母集団からN1.例の標本を取り出した時のB2分類の出現率がn12/N1.であり、A2群の母集団からN2.例の標本を取り出した時のB2分類の出現率がn22/N2.である時の出現率の差を検定する手法、つまり前向き研究から得られたデータの出現率の差を検定する手法です。 これらはよく似た概念ですが、試験デザインが異なるので母集団の設定と標本の取り出し方が微妙に違います。

群が2つで分類が2つの時に出現率の差を検定する手法がフィッシャーの正確検定であり、連続修正を施したχ2検定はその正規近似手法に相当します。 そして連続修正を施さないχ2検定は出現率の差の検定よりも連関係数の検定という性格が強くなります。 そのため出現率の差の検定にはフィッシャーの正確検定または連続修正を施したχ2検定を用い、関連性の検定には連続修正を施さないχ2検定を用いるのが合理的です。 ただしフィッシャーの正確検定は有意性検定しかできないので、統計的仮説検定を行いたい時は連続修正を施したχ2検定を用います。

名義尺度と計量尺度の相関分析と回帰分析では回帰係数の検定が平均値の差の検定に相当し、相関係数の検定が相関比の検定に相当し、両者は同じものになります。 それに対して名義尺度同士の相関分析と回帰分析では回帰係数の検定が出現率の差の検定に相当し、相関係数の検定が連関係数の検定に相当し、両者は微妙に異なります。 しかし両者の違いは微妙なので、細かいことにこだわらずに出現率の差の検定と関連性の検定を同一視し、どちらの手法を用いてもかまわないという考え方もあります。 (→3.4 2標本の計数値 (注4))

表5.3.2のデータについて実際に計算してみましょう。 一般的なa×b分割表についての計算式と連関係数の推定方法については4.2節の(注1)をご覧ください。

クラメールの連関係数:V = 0.690   寄与率:
検定:
χo2の95%信頼区間  下限:χ2L = χ2(1,5.238,0.025) = 0.151  上限:χ2U = χ2(1,5.238,0.975) = 18.051
連関係数の95%信頼区間 下限:  上限: → 1
四分点相関係数:   寄与率:φ2 = 0.476 = V2
検定:
フィッシャーのz変換:
四分点相関係数の95%信頼区間 下限:  上限:

(注3) 3.4 2標本の計数値 (注5)で説明した計算式を用いて、表5.3.2のデータについてオッズ比を計算してみましょう。 この場合、データ中に0のものがあるのでウールフの修正を施します。 ウールフの修正を施すと値が不正確になりますが、この修正をしないと計算できないので致し方ありません。

  ln(OR) = ln(19.8) ≒ 2.986


ln(OR)の95%信頼区間 下限:  上限:
ORの95%信頼区間 下限:ORL = exp(-0.314) ≒ 0.744  上限:ORU = exp(6.268) ≒ 527

オッズ比はその名の通り比に基づいた値なので、例数が少ない時は関連性を的確に表さない場合があります。 例えば次のような2つの2×2分割表についてφ係数とオッズ比を計算すると両者の特徴がよくわかります。 この場合、A1分類におけるB2分類の出現率とA2分類におけるB2分類の出現率は、表5.3.8では10%と20%であるのに対して表5.3.9では1%と2%です。 この出現率から見ると表5.3.8の方が関連性が高いと考えられ、φ係数の方が関連性を的確に表していることがわかります。

表5.3.8 2×2分割表-1
A分類\B分類B1B2
A19010100
A28020100
17030200
  
表5.3.9 2×2分割表-2
A分類\B分類B1B2
A1991100
A2982100
1973200
  

(注4) 表5.3.6を一般化すると次のような表になります。

表5.3.10 説明変数と出現率
説明変数例数非出現例数出現例数出現率
x1n1s1r1p1
:::::
xinisiripi
:::::
xknkskrkpk
全体NSRp

この表の説明変数と出現率に回帰直線を当てはめて、出現率の推定値と推定誤差と直線回帰式を次のように表します。

:piの推定値   εi:piの推定誤差   直線回帰式:

これらの式に基づいて回帰分析を行う場合、出現率の値を平等に扱わず、信頼度が高い値つまり誤差が少ない値ほど重要視して最小2乗法を適用するのが好ましいと考えられます。 一般に出現例数riは二項分布をし、その二項分布は平均値ri、分散nipi(1 - pi)の正規分布で近似できます。 そして出現率piは平均値pi、分散の正規分布で近似できます。 この場合の出現率piはni例のデータから計算された平均値に相当する統計量であり、その分散の平方根は標準誤差になります。 したがって出現率をその標準誤差の逆数で重み付けして最小2乗法を適用すれば、誤差が少ない出現率ほど重要視することになります。

piの分散:   piの重み:

回帰分析の帰無仮説は説明変数の影響がない、つまり回帰係数bが0ということです。 この時、piは全て同じ値になり、その分散も同じ値になります。 その時の出現率を全体の出現率pで推定すると次のようになります。

          

この時、出現率にその標準誤差の逆数をかけて最小2乗法を適用すると、平方誤差の合計は次のようになります。


  εi 〜 N(0,12)

このように目的変数を重み付けし、重み付け平方誤差を最小にするという規準を用いた最小2乗法を重み付け最小2乗法といいます。 平方誤差の重みは上記のように目的変数の分散の逆数を用いるのが普通です。 そして本来の重み付け最小2乗法ではpiの重みとしてwiを用います。 しかしこの手法は直線性の検定を主目的にしているので、b = 0という帰無仮説に基づいてwを重みとして用いる点が少し特殊なので注意が必要です。 (→7.1 重回帰モデル (注1))

この時の最小2乗解と回帰分析の各種パラメーターは次のようになり、これは目的変数が名義尺度の時の回帰分析に相当します。 これをコクラン・アーミテージの傾向分析といい、この中の直線性の検定のことを特にコクラン・アーミテージの傾向検定と呼びます。 そしてこの手法は出現率に増加または減少傾向があるかどうかを検討するために用いられることが多いので、傾向検定という略称で呼ばれることもあります。



… 2×kのχ2検定統計量


SLOF = Syy - Sβ = χLOF2  φy = k - 1   φβ = 1   φLOF = φy - φβ = k - 2
     
寄与率:
表5.3.11 分散分析表
要因平方和自由度χ2
直線性(回帰)Sβφβχβ2
異質性(ズレ)SLOFφLOFχLOF2
全体Syyφyχyy2
直線性(回帰)の検定:χβ2 > χ2β,α)の時、有意水準100α%で有意
異質性(ズレ)の検定:χLOF2 > χ2LOF,α)の時、有意水準100α%で有意
全体の検定(2×kのχ2検定):χyy2 = χo2 > χ2y,α)の時、有意水準100α%で有意

平方和がそのままχ2値になるのは、出現率に重みとして例数を掛けているので出現率とその推定値の誤差が実現度数と理論度数の食い違いに相当し、それを平方して合計した平方和がχ2値に相当するからです。 そして全体の平方和Syyつまりχyy2は一般的な2×kのχ2検定における検定統計量χo2に相当します。 (→3.4 2標本の計数値 (注6))

一般的な2×kのχ2検定ではχo2を全例数Nで割った値が寄与率になり、その平方根がクラメールの連関係数になります。 コクラン・アーミテージの傾向分析では、この寄与率はN例の0/1のダミーデータの変動のうち出現率の変動によって説明できる割合を表します。 そしてN例の0/1のダミーデータの変動のうち、回帰直線によって説明できる割合は次のようになります。

ダミーデータの変動に対する出現率の寄与率(χ2検定の寄与率):   クラメールの連関係数:V = ryy
ダミーデータの変動に対する回帰直線の寄与率:

この寄与率に対して、表5.3.11の上に記載した寄与率は出現率の変動のうち回帰直線によって説明できる割合を表す寄与率になります。 図5.3.3のようなグラフを描いた場合、回帰直線の寄与率としては出現率の変動に対する寄与率の方が感覚的に納得できると思います。 そこで普通は回帰直線の寄与率として出現率の変動に対する寄与率を用い、本文中でもその寄与率だけを記載してあります。 なお表5.3.6のようにひとつの説明変数の値について1つのデータだけが存在する時、2種類の寄与率は同じ値になります。

表5.3.6のデータについて実際に計算してみましょう。

     
Sxx = 4.033×{(2×4.52 + 5×82 + 4×12.52) - 11×92} ≒ 381.15
Syy = 4.033×{(2×02 + 5×0.42 + 4×0.752) - 11×0.45452} ≒ 3.135
Sxy = 4.033×{(0×4.5 + 2×8+3×12.5) - 11×0.4545×9} ≒ 34.283
  SLOF = 3.135 - 3.084 = 0.051
  a = 0.4545 - 0.899×9 = 0.355
  
χβ2 = Sβ = 3.084(p = 0.0791) < χ2(1,0.05) = 3.841
χLOF2 = SLOF = 0.051(p = 0.8280) < χ2(1,0.05) = 3.841
回帰係数の95%信頼区間:下限:  上限:
※ダミーデータの変動に対する回帰直線の寄与率:

ちなみに説明変数xiを順序尺度のデータ扱いして順位和検定で用いる順位にすると、次のようにコクラン・アーミテージの傾向検定は時期数が1つだけの拡張マンテル検定つまり群数が2つの時のクリスカル・ウォーリスの検定とほぼ一致します。 このコクラン・アーミテージの傾向検定と拡張マンテル検定の微妙な違いは、前者が回帰分析系の手法であるのに対して後者が相関分析系の手法であることに起因します。 (→4.4 繰り返しのある多標本・多時期の計数値 (注1))


χeMm2:時期数が1つの時の拡張マンテル検定の検定統計量 (4.4 繰り返しのある多標本・多時期の計数値 (注1)の式と記号が異なっているので注意)

このことから拡張マンテル検定において、順位の代わりに説明変数xiの値そのものを用いればコクラン・アーミテージの傾向検定と同じような傾向検定を行えることがわかると思います。 そのため表5.3.10のような出現率の表がb個あり、その全ての表に共通する直線性つまり全ての表の回帰直線が平行と仮定した時の直線性の検定に拡張マンテル検定を流用することがあります。

しかし拡張マンテル検定は2群の順位平均値に関する共分散分析に相当する手法なので、そのような使い方は合理的ではありません。 そのような場合は、多群の用量−反応関係に関する共分散分析に相当するプロビット法による平行線検定法を用いるべきです。 プロビット法による平行線検定法については第13章をご覧ください。 (→13.5 名義尺度の平行線検定法)

またkが2でx1 = 0、x2 = 1とすると、次のようにコクラン・アーミテージの傾向検定は2群の出現率の差の正規近似検定つまり2×2のχ2検定(ただしどちらも連続修正無)に一致します。 これはkが2の時は回帰直線からのズレがなくなり、全体の変動と回帰の変動が一致し、回帰の検定が全体の検定つまり一般的な2×2のχ2検定に相当するためです。 (→3.4 2標本の計数値 (注3))



χ2:2×2のχ2検定の検定統計量 (3.4 2標本の計数値 (注3)の式と記号が異なっているので注意)

このことから、2×2のχ2検定は説明変数も目的変数も名義尺度の時の回帰係数の検定に相当することがわかります。 一方、kが2の時の拡張マンテル検定はマンテル・ヘンツェルの検定に一致します。 そして(注2)で説明したように、マンテル・ヘンツェルの検定は順序が2つだけの時の相関係数つまり四分点相関係数の検定に相当します。

説明変数が名義尺度で目的変数が計量値の場合、相関係数の検定と回帰係数の検定は一致しました。 しかし目的変数も名義尺度の場合は相関係数の検定と回帰係数の検定は微妙に異なります。 ただし両者の違いは微妙なので、細かいことにこだわらず、相関係数の検定にも回帰係数の検定にもどちらの検定手法を適用してもかまわないという考え方もあります。

ただし相関分析がどちらの変数も確率変数であるのに対して、回帰分析は目的変数だけが確率変数である点が異なります。 つまり本質的に相関分析は横断的研究で得られたデータを分析する手法であり、評価指標は相関係数です。 それに対して回帰分析は前向き研究で得られたデータを分析する手法であり、評価指標は回帰係数(回帰式)です。 そのためたとえ同じ検定手法を適用するにしても相関分析を適用すべきデータと回帰分析を適用すべきデータをはっきりと区別し、相関分析と回帰分析を明確に使い分ける必要があります。

ただし、どちらの場合も寄与率を計算することができます。 相関分析の寄与率は2つの変数が共有している情報量の割合を表し、回帰分析の寄与率は目的変数の全変動のうち説明変数によって説明がつく割合を表します。 このように寄与率は色々な場面で利用することができる便利な指標です。