前口上 | 目次 | 第1章 | 第2章 | 第3章 | 第4章 | 第5章 | 第6章 | 第7章 | 第8章 | 第9章 | 第10章 |
第11章 | 第12章 | 第13章 | 第14章 | 第15章 | 第16章 | 第17章 | 第18章 | 第19章 | 第20章 | 付録 |
1-1 | 1-2 | 2-1 | 2-2 | 3 | 4 |
この章では多標本のデータ処理に用いる統計手法について解説します。 それらの手法は第3章で説明した1・2標本のデータ処理に用いる統計手法を拡張したものであり、より汎用性があります。
データが計量値で標本の数が多数の時に、平均値について色々な推測をするには分散分析(ANOVA:ANalysis Of VAriance、アノーバ)と呼ばれる手法を用います。 多標本の比較をする場合、t検定つまり平均値の検定を何回も使用して2標本ずつ比較することがあります。 しかしそれは適切ではなく、本当はこの分散分析を用いなければなりません。 t検定は分散分析において標本の数が2つの時の別名であり、多標本に用いるべき手法ではありません。 それについては後でまた詳しく説明します。
分散分析には目的に応じて色々な手法があります。 その中でデータに対応がない時に用いる一元配置(one-way layout)と、対応がある時に用いる二元配置(two-way layout)が代表的です。 話の都合上、これまでの章と順番を変えてデータに対応がない場合から説明しましょう。
医学分野では対応のない多標本のデータがしばしば登場します。 例えばプラセボ(偽薬)であるA剤を対照薬にして、B剤とC剤という2種類の血圧降下剤の効果を比較することを考えてみましょう。 この場合の問題はとりあえず次のようになります。
通常、降圧効果を評価するには収縮期血圧と拡張期血圧を評価項目にし、これらの項目の薬剤投与後の変化量平均値を評価指標にします。 しかし話を単純にするためにここでは収縮期血圧だけを評価項目にし、薬剤投与後の実測値の平均値を評価指標にすることが医学的に妥当だとします。 そして母集団における薬剤A、B、C投与後の収縮期血圧平均値をそれぞれμA、μB、μCとし、μAを基準値μ0にします。 すると検定の帰無仮説を次のように表すことができます。
一方、対立仮説は少々複雑です。 この場合も2標本と同様に医学的な同等範囲δを決め、それに基づいて次のように2薬剤ごとに対立仮説を設定することができます。
しかしこれでは複雑になるので、まずは統計的仮説検定ではなく有意性検定を行うことにしましょう。 その場合は具体的な対立仮説ではなく、帰無仮説を否定した3種類の薬剤の降圧効果は全て同じというわけではないという単純な対立仮説を設定します。 それは次のように表すことができます。
これらの仮説を検定するために高血圧患者15人を無作為に3群に分け、それぞれの群にA、B、C剤を投与し、投与後の収縮期血圧を測定した結果が表4.1.1のようになったとします。
群内No. | A剤投与群 | B剤投与群 | C剤投与群 | 全体 |
---|---|---|---|---|
1 | 116 | 106 | 108 | |
2 | 128 | 102 | 100 | |
3 | 129 | 108 | 108 | |
4 | 137 | 118 | 114 | |
5 | 140 | 116 | 110 | |
計 | 650 | 550 | 540 | 1740 |
平均値 | 130 | 110 | 108 | 116 |
平均値の標準誤差 | 4.2 | 3.0 | 2.3 | 3.2 |
平均値の95%信頼区間 | 118〜142 | 102〜118 | 102〜114 | 109〜123 |
15個のデータは様々にばらついていますが、よく見るとこれらのデータをばらつかせる原因として性質の異なった2種類の要因があることに気が付きます。 まず薬剤投与群別平均値が130、110、108とばらついているのは、投与された薬剤の降圧作用が違っているためだと思われます。 これは薬剤の違いを反映する系統的な意味のある変動です。 それに対して例えばA剤投与群における5人のデータが116、128、129、137、140とばらついているのは、その5人の個人差によるものだと思われます。 これは個人差の原因がはっきりしない限り内容を解釈できない非系統的な意味のない変動です。
このように個々のデータを変動させる要因を分析し、意味のある要因による変動分すなわち偏りまたは情報と、意味のない要因による変動分すなわち誤差に分解してデータを分析しようという手法が分散分析です。 分散分析という名前は、統計学では変動の要約値は分散であり、この手法が分散を中心とした分析法であることに由来します。
分散分析において、意味のある要因が1つだけの時を一元配置分散分析(one-way layout analysis of variance)といいます。 そしてその要因のことを要因Aといい、意味のない変動つまり誤差のことを残差(Residual)といいます。 表4.1.1では薬剤が要因Aに、各薬剤投与群内の個人差が残差に相当します。 またA剤投与群、B剤投与群、C剤投与群のことを要因Aの水準といい、群が3つあることを要因Aの水準数は3であるといいます。
ここでデータyを各要因による変動に分解して考えてみましょう。 もしデータが要因Aによっても個人差によっても変動しないのなら、全てのデータは同一の値になるはずです。 しかし普通は要因Aによっても個人差によっても変動します。 そこで要因Aiに属するj番目の被験者のデータyijについて、要因Aによっても個人差によっても変動しない時の一定の値をμ、Aiによるデータの変動分をαi、個人差による変動分をεijとすると、yijまたは全変動(yij - μ)を次のように分解することができます。
μを総平均値——全群を合わせた平均値——mTで推測し、αiを各群の平均値miと総平均値の差(mi - mT)で推測し、εijをデータyijと各群の平均値の差(yij - mi)で推測すると次のようになります。
これを一元配置分散分析の基本式または一元配置分散分析モデルといいます。 例えば表4.1.1のA剤投与群における5番目のデータy15=140を基本式に対応して分解すると次のようになります。 そしてこの式からy15の総変動24はA剤の効果による14の変動と、個人差による10の変動に分解できることがわかります。
これらの変動は偏差の一種ですから、全てのデータについてこれらの変動を求め、その平方を合計した平方和と、その変動の原因となる変数の数すなわち自由度と、平方和を自由度で割った分散を求めることによってデータの変動を要約することができます。 表4.1.1のデータについてそれらを計算し、分散分析表(ANOVA table)と呼ばれる表にまとめると次のようになります。 (注1)
要因 | 平方和SS | 自由度φ | 平均平方和Ms(分散V) | 分散比F |
---|---|---|---|---|
要因A:薬剤差 | 1480 | 2 | 740 | 13.918 |
残差:個人差 | 638 | 12 | 53.167 | |
全体 | 2118 | 14 |
全体の平方和と自由度は総平均値に対する普通の平方和と自由度です。 このデータでは要因Aは薬剤差になり、その平方和は各群のデータが全てその群の平均値に等しく、個人差によるデータの変動がない時の平方和に相当します。 そして薬剤差の自由度は総平均値を変化させずに自由に変えられる群平均の個数になり、群数から1を引いた値つまり2になります。
基本式からわかるように薬剤差の変動と個人差の変動を合わせたものが全体の変動になるので、薬剤差の平方和と個人差の平方和を合計したものが全体の平方和になり、薬剤差の自由度と個人差の自由度を合計したものが全体の自由度になります。 そこで個人差の平方和と自由度は全体の平方和と自由度から薬剤差の平方和と自由度を引いて求めるのが普通です。 個人差つまり誤差のことを残差と呼ぶのはこの計算方法に由来します。
このように平方和と自由度は比例し、それぞれ相加性(additivity)――足し合わせることができる性質――があります。 そのため統計学では変動の指標として平方和を用います。 平均平方和(Ms:Mean of square)は平方和を自由度で割った値であり、分散に相当します。 そして分散比は薬剤差の平均平方和つまり分散を個人差の分散で割った値です。
もし各群の平均値が全て等しければ要因Aによるデータの変動は0になり、分散も0になります。 そして各群の平均値がばらついているほど要因Aによるデータの変動は大きくなり、分散も大きくなります。 そのため分散比は各群の平均値が全て等しければ0になり、平均値がばらついているほど大きな値になります。 この分散比の性質を利用して「各群の平均値が全て等しい」という帰無仮説を検定することができます。
分散分析では、このように分散比つまりF値を利用して平均値のバラツキ具合を検定します。 この検定はF値を検定統計量にするのでF検定の一種になり、分散分析で利用されるので特に分散分析F検定と呼ばれることがあります。 この手法では実験結果から求めた要因AのF値を有意確率p値に変換して有意水準の値と比べて検定するか、p値がちょうど有意水準の値になる時の基準のF値と比べて検定します。 (→1.6 統計的仮説検定の考え方 (5) F分布とF検定)
基準のF値は自由度と有意水準によって変化し、自由度または有意水準の値が大きくなるほど小さな値になります。 分子の自由度をφ1、分母の自由度をφ2とすると、有意水準αの時の基準のF値をF(φ1,φ2,α)と書き、第1自由度φ1、第2自由度φ2のF分布における100α%点といいます。 そして実験結果から求めた要因AのF値をFAと書くと、要因Aの検定を次のようにして行うことができます。
F分布の100α%点は統計の教科書などに載っていて、例えば次のような値です。
またF値とt値またはχ2値との間には次のような関係があります。
有意水準5%として、表4.1.2の分散比について検定すると次のようになります。
データを情報と考えると、平方和は各要因の情報量であり、自由度はその担い手の数、そして分散は情報密度と考えることができます。 分散比は要因Aの分散と残差分散の比であり、要因Aによる分散が残差による分散の何倍あるか、言い換えれば要因Aの情報密度が誤差の情報密度の何倍濃いかを表す値になります。 そして有意水準5%の時の基準のF値はだいたい3〜4なので要因Aの分散比が3〜4以上なら「有意」、つまり要因Aの情報密度が誤差の情報密度の3〜4倍以上濃ければ、その情報を「意味が有るもの」と考えることになります。
表4.1.2の場合は薬剤差の情報密度が個人差の情報密度の約14倍もあるので、薬剤差の情報は意味が有ると解釈することができます。 そして次のような統計学的結論を採用することができます。
ただしこれは有意性検定なので実質科学的に意義があるほどばらついているかどうかまでは結論できません。 しかしバラツキ具合つまり分散を実質科学的に解釈するのは難しいので、全体の変動に対する要因Aによる変動の割合を求め、それをバラツキ具合の目安にするのが合理的です。 (注1)
この値は全変動のうち要因Aによって説明のつく変動の割合を表し、寄与率(関与率)または決定係数(coefficient of determination)と呼ばれます。 寄与率は最小値が0(0%)で最大値が1(100%)なので、実質科学的な解釈が比較的容易です。 例えば寄与率が0.5以上なら全変動の半分以上が要因Aによる変動ですから、要因Aによる変動は大いに意味が有ると考えられます。 表4.1.2の場合は寄与率が約70%もあるので薬剤差による変動は大いに意味が有る、つまり3群の平均値はばらついていると解釈して良いと思います。
ただしきちんとした医学的結論を導くためには、次のような点について検討する必要があります。
1番目の疑問点以外はすでに第3章で説明したものです。 これらの疑問点に対して全て肯定的に答えられるとしたら、次のような医学的結論を採用することができます。
寄与率の平方根をη(イータ)と書き、相関比(correlation ratio)と呼びます。 これは相関係数の一種であり、名義尺度のデータと計量尺度のデータの間の相関関係の指標として用いられます。 ただし名義尺度には大小関係がないので「正の相関」や「負の相関」という概念はありません。 そのため相関比は0〜1の間の値になり、相関関係に限定しない一般的な関連性の指標という性質が強い値です。
なおη2つまり寄与率のことを相関比と呼ぶ時もあります。 しかし相関係数を平方した値が寄与率になるということから、やはりηを相関比と呼ぶ方が合理的だと思います。 そのためここではηのことを相関比と呼ぶことにします。 相関比については第5書で詳しく説明します。 (→5.3 計数値の相関 (4) 名義尺度と計量尺度または順序尺度の回帰、第7章 重回帰分析)
表4.1.1がある時点における使用薬剤の種類と収縮期血圧を観測するという横断的研究から得られたデータをまとめたものとすると、次のようなことが問題になります。
この場合、相関比を関連性の評価指標にすることが医学的に妥当だとすると、帰無仮説と対立仮説を次のように表して統計的仮説検定を行うことができます。
δηは医学的に意義のある相関比の値です。 例えば相関比が0.1以上あれば医学的に有意義な関連性があるとするとδη=0.1にします。 分散分析の原理と相関比の計算方法からわかるように、分散分析は要因Aによるバラツキ具合の検定であると同時に相関比の検定でもあります。 そのため上記の帰無仮説と対立仮説を分散分析によって検定することができます。 表4.1.1についての結果は次のようになります。 (注1)
本来、一元配置分散分析は前向き研究から得られたデータを分析するための統計手法です。 しかし医学分野では、このように横断的研究から得られたデータにこの手法を適用することがあります。 その場合、評価指標が平均値のバラツキ具合ではなく相関比になるので注意が必要です。 この場合の統計学的結論と医学的結論は次のようになります。
ただしこの場合は横断的研究から得られたデータを用いているので投与薬剤の種類と収縮期血圧の関連性を特定することはできません。 つまり投与した薬剤の効果によって収縮期血圧が変動したのか、それとも収縮期血圧の値を見て主治医が投与薬剤の種類を決定したのかわかりません。 そのため「投与薬剤の種類と収縮期血圧の間には関連性がある」ということしかいえないのです。 これは横断的研究の特徴であり限界でもあります。
通常、分散分析は有意性検定であり、しかも検定結果が有意になっても「各群の平均値がばらついている」という定性的かつ漠然とした結論しか出せません。 例えば各群の背景因子が均一かどうかを検定したい時はこれでも良いでしょう。 しかし表4.1.1のように3種類の薬剤の効果を比較したい時は、次のように質問したくなるのが人情というものでしょう。
「それじゃあ具体的にどの薬剤とどの薬剤の効果に違いがあり、どの薬剤が一番効果があるんだ?」
このような時は分散分析ではなく多重比較(multiple comparison)という手法を用います。 この章の冒頭で少しふれたように、このような時に2標本t検定つまり2標本の平均値の検定を用いて2群ずつ比較することがありますが、これは大いに問題があります。 例えば表4.1.1のA剤(プラセボ)投与群、B剤投与群、C剤投与群の平均値を比較することを考えてみましょう。 仮に2標本t検定を用いて次のような3種類の検定を行ったとします。
この場合、3種類の検定のどれか1つ以上が有意水準5%で有意になれば、次のような3種類の結論の中の1つ以上を組み合わせた結論を採用することになります。
つまり3種類の検定結果の中にどれか1つでも有意なものがあれば、それを”いいとこ取り”して総合的な結論を採用するわけです。 このような”いいとこ取り”した総合的な結論のことをファミリーとしての結論と呼ぶことがあります。
有意水準5%で有意とは「統計学的結論が間違っている確率は5%以下である」、つまり本当は2群の母平均値は等しいのに間違って等しくないという統計学的結論を採用する危険性が5%程度あるという意味です。 したがって検定を3回行って有意水準5%で有意になった検定結果を”いいとこ取り”すれば、本当は3群の母平均値が全て等しいにもかかわらず、間違って上記のファミリーとしての結論を採用する危険性が15%になってしまいます。
このことから検定を20回以上行えば、本当は各群の母平均値が全て等しいにもかかわらず間違って上記のようなファミリーとしての結論を採用する危険性がほぼ100%になってしまう、つまりどんな時でもファミリーとしての結論は「各群の母平均値は全て同じというわけではない」となってしまうことがわかると思います。 まさに「下手な鉄砲も数撃ちゃ当たる!」というわけで、これは大いに問題です。
この問題は複数の検定結果を”いいとこ取り”してファミリーとしての結論を採用するところに原因があります。 そこでファミリーとしての結論を採用する確率を増やさないためには、1回1回の検定にハンディキャップを付ける必要があります。 例えば表4.1.1の場合、ファミリーとしての結論を採用する確率を5%以下にするためには1回1回の検定に関する有意水準を5/3%にし、その厳しい基準で有意な結論だけを採用する必要があるわけです。
そのためには1回1回の検定の有意確率p値を有意水準0.05/3と比べれば良いのですが、有意水準の値をいちいち変えるのは煩雑ですし、誤解される可能性もあります。 そこで普通は1回1回の検定結果のp値を3倍して0.05と比べるか、あるいはp値を3倍したことに相当するようにt値の計算式を修正して検定します。 そのような処理をした検定手法が多重比較です。 この手法を用いればファミリーとしての結論の有意確率を5%以下にすることができ、正々堂々と胸を張ってファミリーとしての結論を採用することができます。 (注2)
多重比較の理屈をわかりやすく説明するたとえ話として、次のようなワインとソムリエの話が有名です。
あるレストランのワイン貯蔵庫は管理があまり良くなく、全体の5%のものが悪くなっていた。 そのためこのレストランのソムリエが1本のワインをお客に出した時、それが悪くなっている危険性が5%あり、20回に1回はお客に謝る羽目になる。
ところがお客がワインを3本注文した時は、3本のワインのうち1本でも悪くなっていればソムリエは謝らなければならない。 そのため謝る危険率は3倍の15%になり、6〜7回に1回は謝る羽目になる。
1人のお客にワインを3本出した時に謝る危険性を5%にするためには、ワイン貯蔵庫の管理状態を向上させ、悪いワインの割合を5/3%に抑える必要がある。
このたとえ話のポイントは、3本のワインのうちどれか1本でも悪くなっていれば、それを”悪いとこ取り”してソムリエがお客に謝るところです。 お客が注文した3本のワインが全部悪くなっている時だけソムリエが謝るということなら、次のように約8000回に1回謝るだけです。 これならワイン貯蔵庫の管理状態は逆にもっと悪くてもかまわないわけです。
これと同様にファミリーとしての結論として「μA≠μB≠μC」だけを採用し、それ以外の結論は採用しないのなら、1回1回の検定にハンディキャップを付けた多重比較を行う必要はありません。 また1回1回の検定はそれぞれ独立で、それらを”いいとこ取り”したファミリーとしての結論を採用しないのなら、やはり多重比較は必要ありません。 ワインとソムリエの例え話でいえば、3人の別々のお客がそれぞれワインを1本ずつ注文し、それに対してソムリエがそれぞれのお客に別々にワインを1本ずつ出したのなら、ソムリエが1人のお客に対して謝る確率は5%のままなのでワイン貯蔵庫の管理状態を向上させる必要はないわけです。
つまり多重比較が必要なのは1回1回の検定結果を”いいとこ取り”してファミリーとしての結論を採用する時だけであり、”いいとこ取り”が多重比較のキーワードです。 1回1回の検定結果を「AND(かつ)」で結合したファミリーとしての結論を採用する時とか、そもそも1回1回の検定結果を”いいとこ取り”せず、それぞれ独立に結論を採用する時は多重比較は必要ありません。
例えばある新薬Cの効果を検討する時、まず薬効のないプラセボAと比較して薬効があることを確認しておき、その上で、すでに効果があることがわかっている標準薬Bと比較して標準薬よりも薬効が強いことを確認するというステップ法という手順を用いることがあります。 この場合、最終的に「A(プラセボ)<B(標準薬)<C(新薬)」というAND結合したひとつの結論しか採用しないので、1回1回の検定に多重比較は必要ありません。 (注3)
またある疾患のリスクファクターを検討する時、多数のリスクファクター候補項目についてそれぞれ検定を行うことがあります。 この場合、多数のリスクファクターはそれぞれ独立に検定するだけであり、それらの検定結果を”いいとこ取り”してファミリーとしての結論を採用することはないので多重比較は必要ありません。 ところがリスクファクター候補が多数の遺伝子の時は、個々の遺伝子の検定に多重比較を用いる必要があると誤解している人がけっこういます。
このような場合はワインとソムリエのたとえ話よりも、次のような名医と藪医者のたとえ話の方が理解しやすいと思います。
あるところに正診率95%つまり誤診率5%の医者がいた。 この医者が1日に1人の患者を診断すると、平均して20日に1回しか誤診をしないので周囲から「名医!w('o')w」と評価される。
ところが噂を聞きつけて患者が押しかけ、この医者が1日に20人の患者を診断すると、平均して1日に1回は誤診をすることになり周囲から「藪医者!凸(-"-)」と評価されてしまう。
つまり患者が多くて繁盛するほど、藪医者と評価されてしまうことになる!
このたとえ話の矛盾の原因は、20人の患者の診断結果を”悪いとこ取り”して、1日の診断に対する誤診率で医者の腕前を評価している点にあります。 医者の腕前を正しく評価するには1回の診断に対する誤診率を指標にすべきであり、1日の診断に対する誤診率を指標にすべきではないのです。 このたとえ話と同様に、ある疾患のリスクファクター候補として多数の遺伝子を検討する時、個々の遺伝子の「腕前」を独立に評価したいのなら多重比較を行うべきではありません。
反対に2種類の薬剤の効果を比較する試験で、多数の評価項目についてそれぞれ普通の検定を行ったり、男女別に層別してそれぞれ普通の検定を行ったりすることがよくあります。 この時、それぞれの評価項目とか層別の結果は独立に検討するだけで、それらを”いいとこ取り”して2種類の薬剤を総合的に比較しないのなら多重比較は必要ありません。
しかし実際には多数の評価項目の検定結果を”いいとこ取り”したり、層別の検定結果を”いいとこ取り”したりして、ひとつでも有意な結果があれば「こっちの薬剤の方が優れている!」という結論を採用することが多いと思います。 そのような場合は個々の評価項目の検定または層別の検定に多重比較を用いる必要があります。
そうすると例えば20個の評価項目があれば、個々の評価項目の有意水準は0.05/20=0.0025(0.25%)という非常に小さな値になってしまうので、製薬企業の新薬開発担当者は、
「ひゃあぁ〜、0.25%で有意にならないとウチの薬が勝てないなんて、多重比較ってやたらと厳しいーっ!(*o*)」
しかし多重比較を行う場合は個々の評価項目の結果が目的ではなく、あくまでも「少なくとも1つ以上の評価項目でウチの薬剤が勝っている」というファミリーとしての結論を得ることが目的です。 そしてこのファミリーとしての結論は、20個の評価項目のうちのどれかひとつでも有意になれば得られます。 つまりファミリーとしての結論が得られる確率は、評価項目が1個の時よりも20個の時の方が20倍ほど高くなるわけです。
したがって多重比較を用いると評価項目が1個の時でも20個の時でもファミリーとしての結論が得られる確率は同じであり、その結論が間違っている確率つまり危険率も同じです。 そうなるように危険率を調整した手法が多重比較ですから、これは当然のことです。
ただし多重比較は3つ以上の群についてデータが測定されている時に、個々の群の平均値の間にどのような関係があるかを調べるために開発された手法です。 そのため原則として比較する群に対応が無くて独立であるということを前提にしています。 しかし多数のリスクファクターや多数の評価項目は対応のあるデータであり独立ではなく、お互いに関連性があるのが普通です。 そのため多重比較を適用するのは本当は不適切です。
例えば複数の評価項目が完全に関連していて、お互いの相関係数が1だとします。 そうすると1つの項目が有意になれば他の全ての項目も有意になり、1つの項目が有意にならなければ他の全ての項目も有意にはなりません。 この場合は「少なくとも1つ以上の評価項目でウチの薬剤が勝っている」というファミリーとしての結論が得られる確率は評価項目が1個の時と全く同じであり、評価項目数に比例して高くはなりません。 そのためこのような場合に多重比較を適用するとファミリーとしての結論を得る確率が不当に低くなってしまいます。
実際のデータでは複数の評価項目が完全に関連していることはないでしょうが、ある程度関連していても不思議ではありません。 そのような場合は多重比較を適用するのではなく多変量解析を適用する方が合理的です。 多変量解析は、お互いの関連性を考慮して多数のデータを総合的に解析するために開発された手法です。 この手法については第6章以後をご覧ください。 (→第6章 多変量解析の概念)
また検定とか有意水準とかいうもの自体がほとんど無意味なシロモノですから、統計学者の中には、
「多重比較が必要とか不必要とか、あんまり細かいことをガタガタいってもしょうがない。 検定そのものを廃止すればいいんだ!」
また多重比較は正しく適用するのが難しく、非常に間違いやすい手法です、 そのためできるだけ試験の目的をひとつに絞り、多重比較を必要としない単純明快な試験デザインにするのが賢明です。
それはさて置き、多重比較は次のように大別されます。 (注4)
多重比較は2標本t検定と同様に医学的な同等範囲を決め、それに基いて対立仮説を設定して統計的仮説検定を行うことができます。 例えば表4.1.1のデータについて医学的な同等範囲を±10mmHgとすると、対立仮説は次のようになります。
先行研究や予備試験の結果から群ごとの標準偏差——分散分析では残差分散の平方根に相当——推測値がわかっていれば、有意水準と信頼係数と検出力を設定し、上記の対立仮説と、分散分析と同じ帰無仮説に基づいて試験の必要例数を求めることができます。 例えば群ごとの標準偏差推測値が10mmHgで、有意水準を5%、信頼係数を95%、検出力を80%として必要例数を求めると1群22例、3群合計で66例になります。 表4.1.1のデータは1群5例しかないのでこの必要例数を満足していません。 しかしこれは説明のためのデータと割り切って、テューキー型多重比較とそれに伴う区間推定を行うと次のようになります。 (注5)
95%同時信頼区間(simultaneous confidence interval)は多重比較に対応する信頼区間であり、3つの信頼区間にそれぞれのδが同時に入っている確率が95%である区間を表します。 普通の95%信頼区間は、その中にδが95%の確率で入っている区間です。 そのためこの場合に普通の95%信頼区間を求めると、3つの信頼区間にそれぞれのδが同時に入っている確率は次のように約86%になってしまいます。 そこで3つの信頼区間にそれぞれのδが同時に入る確率を95%にするためには、個々の信頼区間の信頼係数を約98%にする必要があります。 これが95%同時信頼区間です。
これらの結果から、次のようなファミリーとしての統計学的結論を採用することができます。
C剤投与群とB剤投与群の比較について結論を保留しているのは、同等範囲が±10であるのに対して同時信頼区間の下限がこの範囲から少しはみ出しているからです。 ただしこの程度のはみ出しは実際上は問題にならないと思います。
この結果から医学的結論を導くためには次のような点について検討する必要があります。
これらの疑問点に対して全て肯定的に答えられるとしたら、次のような医学的結論を採用することができます。
またF値についての説明からわかるように一元配置分散分析と多重比較において群の数(水準数)が2つの時は2標本t検定に相当し、F値の平方根がt値に一致します。 (注6) (→3.3 2標本の計量値)
分散分析の結果は有意なのに、多重比較ではどの群間比較も有意にならないことがたまにあります。 分散分析は多群の平均値のバラツキ具合つまり平均値の差の合計が0かどうかを検定し、それによって平均値がばらついているかどうか結論します。 それに対して多重比較は2群ごとの平均値の差が0かどうかを個別に検定し、それを総合してファミリーとしての結論を採用します。 そのため個々の平均値の差は小さいながら、それを合計すればある程度大きくなるような時は分散分析では有意になるものの、多重比較ではどの群間比較も有意にならないということが起きるわけです。
これは顔全体から受ける印象は何となく変だが、目だけ、鼻だけ見るとそう変でもないといった場合に相当します。 いわば分散分析が顔全体の印象を大雑把に検討する手法であるのに対して、多重比較は目、鼻などの部品をそれぞれ個別に検討し、それを総合して顔全体の印象をより詳細に検討する手法といえます。
このように分散分析と多重比較は目的が異なる手法なので目的に応じて使い分ける必要がありますし、両者の結果が食い違っても決して不思議ではありません。 そして同じデータに基いて大雑把な推測をした時と、より詳細な推測をした時を比べれば、当然のことながら、より詳細な推測をした時の信頼性は落ちざるを得なくなるわけです。 そのため全く同じ条件で必要例数を求めると多重比較の方が多くなります。
分散分析を行ったところ検定結果が有意だったので、引き続き多重比較を行うことがよくあります。 しかし必要例数は分散分析よりも多重比較の方が多いので、多重比較を行う可能性がある時は試験計画段階から多重比較を行うことを考慮して必要例数を求めておく必要があります。 そしてせっかくそれだけの例数を集めたのなら、分散分析の結果の如何によらず多重比較を行った方が便利です。 そうなると分散分析を行う意義は薄くなるので、最初から多重比較だけ行うことにした方がスッキリます。 つまり分散分析を行うのは大雑把な結果だけが必要で詳細な結果は必要ない時だけということになります。
狡猾な予言者や占師は、できるだけ漠然とした、どうにでもとれるような内容の予言や占いをしておき、何か事が起こってしまってから無理矢理こじつけて、
「どうじゃ、ワシの予言どおりじゃろう!」
群内No. | A1 | … | Ai | … | Aa | 全体 |
---|---|---|---|---|---|---|
1 | y11 | … | yi1 | … | ya1 | |
: | : | : | : | : | : | |
j | y1j | … | yij | … | yaj | |
: | : | : | : | : | : | |
r | y1r | … | yir | … | yar | |
計 | T1. | … | Ti. | … | Ta. | TT |
平均 | m1. | … | mi. | … | ma. | mT |
データyijを一元配置分散分析の基本式に従って分解し、平方和と自由度と分散を求めると次のようになります。
各水準の例数ri(i = 1,…,a)が不揃いの時は次のように計算式を変更します。
これらの値を分散分析表にまとめると次のようになります。
要因 | 平方和SS | 自由度φ | 平均平方和Ms(分散V) | 分散比F |
---|---|---|---|---|
A | SA | φA | VA | FA = VA/VR |
残差 | SR | φR | VR | |
全体 | ST | φT |
以上のように平方和と自由度は基本式に対応して行儀良く分解されます。 これが相加性であり、統計学上重要な性質です。 区間推定には残差分散を用い、例えばAi群の母平均値μiの区間推定は次のように行います。
また寄与率とF値の間には次のような関係があります。 この関係を利用するとF値と寄与率を相互に変換することができるので、検定結果を解釈する時に便利です。 (→5.1 相関係数と回帰直線 (注4))
各水準の母平均値が全て同じではない時つまり要因Aの分散が0ではない時、FAは非心度λの非心F分布に従います。 λは全体の母平均値と各水準の母平均値の差を平方して合計した値であり、φA×FAによって推定することができます。 そして非心F分布の(α/2)点の値F(φA,φR,λ,α/2)と(1-α/2)点の値F(φA,φR,λ,1-α/2)を利用してFAの区間推定を行うことができます。 さらにこれらの値を利用して寄与率と相関比の区間推定も行うことができます。 (→付録1 各種の確率分布)
表4.1.1のデータについて実際に計算してみましょう。
ちなみに母集団の残差分散をσR2、要因Aの母平均の分散をσA2とすると、これらの母分散と分散分析から求めた不偏分散の間には次のような関係があります。
VAの期待値にσR2が含まれるのは、VAは標本平均値miを使って計算するのでmiの誤差であるSERが入り込むからです。 そのためσA2を推定する時はSER2つまりσR2/rを引く必要があります。 このことと上記の結果から、各水準の例数をsにした時のσA2を推定する時は次のような式を用います。
品質管理などでは多くの場合、各水準の例数があらかじめ決められています。 ところが色々な事情でそれとは異なる例数で試験を行ってしまうことがあります。 そのような時はこの式を利用して決められた例数で試験をした時の結果を推定することができます。
有意水準を5%とすると、帰無仮説H0が正しい時に3つの検定結果が全て有意にならない確率は3つの検定がそれぞれ独立とすると次のようになります。
最後の「どれか1つ以上が他と違っているというファミリーとしての結論を採用する確率」は、具体的には3つの検定結果が次のような7種類の結果のうちのどれかになる確率です。
以上のように、全ての母平均値が同じであるにもかかわらず、どれか1つ以上が他と違っているというファミリーとしての結論を採用する確率は約15%になります。 そのためファミリーとしての結論の実質的な有意水準つまり第1種のFWE(type I Familywise Error rate)は約15%になってしまいます。 そこでファミリーとしての結論の有意水準を5%にするためには、個々の検定の有意水準つまり第1種のPCE(Per-Comparion Error rate)を約5/3%にしておく必要があります。
なお上記の7種類の検定結果は、有意ではない時を「結論保留」にした有意性検定の結果です。 これを統計的仮説検定にし、有意ではない時を例えば「μA≒μB(μAとμBは実質科学的に許容範囲内でほぼ等しい)」という結論にするためには、第2種のFWE(type II Familywise Error rate)を求めて第2種のPCE(Per-Comparion Error rate)を調整する必要があります。
しかし多重比較の対立仮説は3種類の仮説を「または/かつ」で組み合わせた複雑なものになります。 そのため第2種のFWEを計算するのは非常に煩雑なので、普通は第2種のPCEの調整は行いません。 その代わり同時信頼区間を用いてμAとμBとμCの関係を検討する方が実際的です。 つまり多重比較が必要な場合も検定よりも推定を重視する方が合理的なのです。 (→1.6 統計的仮説検定の考え方)
個々の検定の有意水準をαi(i = 1,…,m)とし、それらの検定結果をいいとこ取りして導いたファミリーとしての結論を採用する有意水準をαとすると、一般に次のような関係が成り立ちます。
特にαiが全て同じ値の時は次のようになります。
このボンフェローニの不等式を利用して個々の検定の有意水準をα/mとするか、あるいは個々の検定の有意確率pをm倍して有意水準αと比べる多重比較手法をボンフェローニ型の多重比較といいます。 この方法で検定するとファミリーとしての結論を採用する有意水準がα以下になります。
例えばα = 0.05、m = 3の時は次のようになります。
有意確率をm×pで求めると、時にはこの値が1以上になることがあります。 これは有意確率をα/mと比べる代わりにαと比べるために生じた見かけ上のものなので、気にすることなく有意確率を1にしてしまってかまいません。 そもそも有意確率は実験結果が棄却域に入っているかどうかを調べるための単なる目安にすぎず、それ自体に具体的な意味はあまりありません。 (→1.5 有意性検定の考え方)
また注意しなければならない点は、このように有意水準を調整した多重比較を行う必要があるのは個々の検定結果を”いいとこ取り”してファミリーとしての結論を採用する時だけだということです。 例えば個々の検定結果をいいとこ取りせず、ファミリーとしての結論の中の「μA≠μB≠μC(平均値が全て異なる)」というひとつの結論しか採用しないということが最初から決まっているとします。 この場合、帰無仮説H0が正しいとすると、間違ってこの結論を採用する確率は次のように0.0125%になります。
この時、ファミリーとしての結論を採用する有意水準を5%にするためには、次のように個々の検定の有意水準は約37%で良いことになります。
このように個々の検定結果をいいとこ取りせず、「AND」で結合したひとつの結論だけを採用する時は多重比較は必要なく、むしろ個々の検定の有意水準を多重比較とは逆の方向に調整した検定を行う必要があります。
個々の検定の有意水準を約37%にすると、一見、非常に有意になりやすいように思えます。 しかしこの場合は3つの検定結果が全て有意にならなければファミリーとしての結論を採用することができません。 それに対して3つの検定結果をいいとこ取りする時は3つの検定のうちのどれかひとつでも有意になればファミリーとしての結論を採用することができます。 したがってファミリーとしての結論を採用する確率はどちらも同じです。 そうなるように個々の検定の有意水準を調整したのが多重比較ですから、これは当然のことです。
また多群の平均値を比較する時に限らず、複数の検定結果をいいとこ取りしてファミリーとしての結論を採用するような検定手法を多重検定(multiple test)と呼ぶことがあります。 例えば複数の項目について2群間で検定し、それらの結果をいいとこ取りしてファミリーとしての結論を採用するような時は多重比較ではなく多重検定と呼ぶ方がふさわしいでしょう。
ただし多重検定は複数の検定結果が独立という前提で行いますが、複数の項目はたいてい独立ではなく関連性があります。 そのため複数の項目を総合する時は多重検定ではなく多変量解析を適用すべきです。
試験の分析感度(sensitivity)を確認するための比較。 B > Aの時だけ次のステップに進む。
新薬の有効性(efficacy)を確認するための比較。 C > Aの時だけ次のステップに進む。
新薬の優越性(superiority)を確認するための比較。 C > BであればC > B > Aという結論が採用できる。
製薬企業がこの試験を行う時、時間と費用を節約するために3つの薬剤を用いた3群比較試験を1回だけ実施して、検定だけこのステップ法に従うことが往々にしてあります。 試験の分析感度が低い時、あるいは新薬の有効性が低いまたは新薬の副作用が多い時、各ステップごとに1回ずつ試験を行う方法では無駄な試験や危険な試験を中止することができます。 ところが検定だけステップ法に従った3群比較試験では無駄な試験や危険な試験を行ってしまうことになり、倫理的にも費用的にも問題があります。
また多重比較を行う3群比較試験では、個々の比較の有意水準が小さくなるので1群あたりの必要例数が少し多くなります。 それに対して検定だけステップ法に従った3群比較試験では、多重比較を行わないので1群あたりの必要例数が少なくなり時間と費用の節約になると思うかもしれません。
しかし多重比較を行う時は個々の検定結果がひとつでも有意になればファミリーとしての結論を採用することができます。 そのためファミリーとしての結論を採用するための検出力は個々の検定の検出力よりも大きくなります。 つまり個々の検定の有意水準が小さくなるのに対応して個々の検定の検出力も小さくなるので、(注5)で説明するように1群あたりの必要例数は多重比較を用いない時とあまり変わりません。
一方、ステップ法のファミリーとしての結論はAND結合なので、個々の検定結果が全て有意にならなければファミリーとしての結論を採用することができません。 そのため(注2)の最後で説明したように、個々の検定の有意水準はファミリーとしての有意水準よりも大きくなります。 その代わりそれに対応して個々の検定の検出力を大きくする必要があるので、多重比較と同様に1群あたりの必要例数はステップ法を用いない時とあまり変わりません。
この方法は試験の計画段階で指定した特定の2群の比較だけ行い、2種類以上の検定結果を総合したファミリーとしての結論は作らない特殊な方法です。 そのため厳密な意味では多重比較とはいえません。 しかし統計学の解説書に載っていたり統計ソフトに組み込まれていたりするので、一応、紹介しておきます。
分散分析の結果が有意という条件付きで2種類以上の2群比較にフィッシャー型多重比較を用い、それの結果をいいとこ取りしてファミリーとしての結論を採用する手法をPLSD(Protected Least Significant Difference)法と呼ぶことがあります。 しかしこの手法は3群以上になると多重性の調整が不十分になるので使用すべきではありません。
特定の群を対照として、他の全ての群を対照群と比較する時に用います。 群の数をaとすると、この手法では(a-1)回の検定を行います。 そしてそれらの検定は同じ対照群と比較するので独立ではなく、お互いに関連性があります。 そのためファミリーとしての有意水準は個々の検定が独立の時よりも小さくなり、その結果として個々の検定の有意水準はボンフェローニ型よりも少し大きくなります。 つまり個々の検定結果が有意になりやすくなるわけです。
この手法はファミリーとしての結論の制約が厳しく、条件付きの結論しか採用できないのでそれは当然です。
統計学の解説書などに載っているd(a-1;φR,α)の値は各群の例数が等しいことを前提にして計算した値です。 各群の例数が異なると検定間の関連性が変化し、ファミリーとしての有意水準が変わってしまいます。 そのため、それらの値は各群の例数が等しい時しか利用できません。 しかし現在は各群の例数が異なる時でも利用できる少々手の込んだ手法が開発され、どんな場合でもダネット型の多重比較を適用できるようになりました。 (→付録1 各種の確率分布 (10) 多変量t分布)
多群でリーグ戦を行う時、つまりあらゆる2群の比較をする時に用います。 群の数をaとすると、この手法では{a×(a-1)/2}回の比較を行います。 そしてそれらの中には同じ群と比較するものがあるのでダネット型と同様に個々の検定は独立ではなく、お互いに関連性があります。 そのためダネット型と同様に個々の検定の有意水準はボンフェローニ型よりも少し大きくなって有意になりやすくなります。
統計学の解説書などに載っているq(a;φR,α)の値は、ダネットの数表と同様に各群の例数が等しいことを前提にして計算した値です。 そのためそれらの値は各群の例数が等しい時しか利用できません。 しかし現在は各群の例数が異なる時でも利用できるテューキー・クレーマー(Tukey-Kramer)法が開発されたので、どんな場合でもテューキー型の多重比較を適用できるようになりました。 (→付録1 各種の確率分布 (8) ステューデント化範囲の分布)
ボンフェローニの不等式を利用して、個々の検定の有意確率に検定回数をかけたものを多重比較の有意確率にするだけという極めて単純で基本的な手法です。 個々の検定の代わりにフィッシャー型の多重比較の計算式を用い、それで得られた有意確率に検定回数をかけてもかまいません。
個々の検定は独立であり、それらの結果をいいとこ取りしてファミリーとしての結論を採用するという非常に緩い条件の手法なので、個々の検定の有意水準が小さくなって有意になりにくい反面、応用範囲が広いという特徴があります。 そのためダネット型やテューキー型の代用として用いられたり、多重検定に用いられたりします。
応用範囲が広いので、どのような多重比較手法を用いれば良いかわからない時とか、多重比較手法がまだ開発されていない特殊な検定について多重比較を行いたい時は、とりあえずこの手法を用いておけば良いでしょう。
汎用性が最も高く、したがって最も有意になりにくい手法です。 この手法もダネット型やテューキー型の代用として用いることができます。 でもその場合はボンフェローニ型の方が効率が良いので、この手法よりもボンフェローニ型を用いた方が良いでしょう。
シェッフェ型はいくつかの群を合わせた平均値と、他のいくつかの群を合わせた平均値を比較することもできます。 それがこの手法の大きな特徴であり、これを一般対比といいます。 一般対比は次のような式を用いて検定します。
図4.1.2と図4.1.3は3群で自由度が20の時と無限大の時について、検定統計量をt値に統一して両側有意確率をプロットしたものです。 これらのグラフを見ると、有意確率が0.1以下の時はテューキー型はボンフェローニー型(3×p)で、ダネット型はボンフェローニー型(2×p)でうまく近似できることがわかります。 またt値が同じならシェッフェ型はどの手法よりも有意確率が大きくなるので、2群比較ではなく一般対比に用いた方が良いことがわかります。
表4.1.1のデータについて有意水準5%、信頼係数95%として、テューキー型多重比較を用いて実際に計算してみましょう。
同じデータにボンフェローニ型多重比較を用いると次のようになります。
普通の試験では各群の例数をできるだけ揃えた方が効率が良くなります。 例えばrp例のp群とrq例のq群を比較する場合、2群の合計例数が一定の時は次のように2群の例数が等しい時に標準誤差が最小になります。 そして標準誤差が小さいほど検定も推定も効率が良くなるので、2群の例数が等しい時に効率が最大になります。
これに対して対照群(r1例)と他の(a-1)個の群(r例)を比較する時は、次のように対照群だけ例数を多くした方が効率が良くなります。
対照群はあまり面白みがないせいか、えてして他の群より少数例であったり、時には全く置かなかったりしがちです。 しかし対照群は試験がうまくコントロールされていたかどうかを確認する重要な存在であり、試験の原点に相当する群なので他の群以上に確実なデータでなければなりません。 必ずしっかりと設定するようにしましょう。
多重比較では個々の検定結果がひとつでも有意になればファミリーとしての結論を採用することができます。 そのためファミリーとしての結論を採用するための検出力は個々の検定の検出力よりも大きくなります。 例えば個々の検定の検出力(1-βi)を80%つまりβエラーを0.2として3回の検定を行うとすると、対立仮説H1が正しい時に3回の検定が全て有意ではないという結果になる確率は次のようになります。
したがってこの場合、ファミリーとしての結論の検出力(1-β)を80%にするためには、次のように個々の検定の検出力は約40%で良いことになります。
ただし上記の対立仮説は実際には有り得ず、次のような対立仮説の方が現実的です。 そのため実際にはファミリーとしての結論の検出力は常に0.992にはならないものの、個々の検定の検出力は80%よりもかなり小さくても良いことは確かです。
このように多重比較を用いる時は、個々の検定の有意水準が小さくなるのに対応して個々の検定の検出力が小さくても良くなります。 そこで2標本t検定における必要例数の計算式を応用して、次のような計算式で必要例数を求めることができます。
ここで注意しなければならないことは、母平均値が他と異なる群の数が多いほど検定結果が有意になる回数が増えるということです。 例えばテューキー型比較の場合、全ての群の母平均値がお互いに異なる時、検定結果が有意になる回数は検定回数と同じa(a-1)/2回になります。 しかし1群の母平均値だけが他と異なる時は(a-1)回になります。
そして検定結果が有意になる回数が多いほどファミリーとしての検出力(1-β)が大きくなる——βが小さくなる——ので、個々の検定におけるβiは大きくてもかまいません。 つまり検定結果が有意になる回数が多いほどβiの値は大きくなります。 しかし実際の試験では、どの群の母平均値が他と異なるのか事前にわからないことが多いと思います。 そのような時は上記の母平均値が異なる群数qは不明と考えて「少なくとも1回は検定結果が有意になる」と仮定し、βi=βにして必要例数を求めるのが無難です。
ファミリーとしての有意水準を5%、検出力を80%、群数を3、検出差を10、母標準偏差を10とし、テューキー型比較で少なくとも1回は検定結果が有意になる時の必要例数を求めると次のようになります。
ステップ法のファミリーとしての結論はAND結合なので、個々の検定結果が全て有意にならなければファミリーとしての結論を採用することができません。 そのためファミリーとしての検出力は個々の検出力を掛け合わせたものになり、次のような関係が成り立ちます。
この不等式は多重比較における有意水準αをβで置き換えたものに相当します。 そしてこの式から、ファミリーとしての検出力を(1-β)にするためには個々の検出力を(1-β/m)にしなければならないことがわかると思います。 例えば3群比較でファミリーとしての検出力を80%にしたい時は、次のように個々の検出力を約93%にする必要があります。
しかしこの場合、ファミリーとしての有意水準αを5%にするためには、次のように個々の有意水準αiは約37%で良いことになります。
この原理に従って必要例数を計算したものが、上例の「※3群とも母平均値が異なると仮定したステップ法の場合」の結果です。 この場合の1群あたりの必要例数は、3群とも母平均値が異なると仮定した時の多重比較の必要例数と変わらないことがわかると思います。 また2群比較の場合の必要例数と比べると、少なくとも1回は検定結果が有意になると仮定した時の多重比較の必要例数は少し多くなりますが、3群とも母平均値が異なると仮定した時の必要例数は少し少なくなることがわかると思います。
つまり個々の検定結果をいいとこ取りする時はαエラーについて多重性の調整を、βエラーについてはその反対の調整をする必要があり、個々の検定結果をAND結合する時はβエラーについて多重性の調整を、αエラーについてはその反対の調整をする必要があるわけです。 そのため普通の検定を用いても多重比較を用いてもステップ法を用いても、結局のところ1群あたりの必要例数はあまり変わらないことになります。
要するにひとつの試験でひとつの同じような統計学的結論を採用する時、元になるデータが同じで有意水準と検出力が同じならどんな検定法を用いようと同じくらいの努力——1群あたりの例数——が必要ということです。 よく考えてみれば、これは当然のことでしょう。 (→1.6 統計的仮説検定の考え方、1.7 科学的研究の種類とデザイン (注1))
ただし2標本t検定が一方の群の平均値が他方よりも大きいか、または小さいかだけを検定する手法であるのに対して、一元配置分散分析は平均値が異なっているかどうかを検定する手法です。 そのため2標本t検定を両側検定として用いた時だけ一元配置分散分析と一致します。 (→1.6 統計的仮説検定の考え方 (4) 片側検定と両側検定)
また2標本t検定では普通は平均値とt値しか計算しませんが、分散分析では平方和や寄与率なども計算し、よりきめの細かい分析が可能です。 そのため対応のない2標本の平均値を両側検定で比較したい時は分散分析を用いた方が便利です。 第3章第3節の表3.3.3のデータに一元配置分散分析を適用すると、次のように確かに2標本t検定の結果と一致します。 (→3.3 2標本の計量値 (2) データに対応がない場合)
要因 | 平方和SS | 自由度φ | 平均平方和Ms(分散V) | 分散比F |
---|---|---|---|---|
群 | 500 | 1 | 500 | 6.757 |
残差 | 1332 | 18 | 74 | |
全体 | 1832 | 19 |
2標本t検定と同様に、分散分析も各群の分散が等しいことを前提にしています。 そのため等分散性の検定としてバートレット(Bartlett)の手法というものがあります。 各群の分散をVi、自由度をφi=ri - 1とすると、この手法は次のようなものです。
またバートレットの手法よりも単純で、しかし精度の悪いルビーン検定(Levene's test)という手法もあります。 これは次のようにデータyijの偏差の絶対値を用いた分散分析に相当します。
通常、これらの手法は有意性検定を行います。 そして検定結果が有意の時は「不等分散」と解釈し、有意ではない時は本来は結論保留ですが、普通は「消極的ながら等分散」と解釈します。 しかし有意性検定は例数が多くなればたいてい有意になるので、結局のところ例数が少ないと等分散で、例数が多いと不等分散ということになってしまいます。
等分散性を厳密に検討するには科学的に有意義な等分散性の評価指標を決め、それについて等分散と評価できる許容範囲を設定して統計的仮説検定を行う必要があります。 これらの手法ではMまたはχ2あるいはWがその評価指標になり得る値ですが、許容範囲を決めるのは現実には難しいと思います。 そのため致し方なく有意性検定を行っているのです。
しかし等分散性を検討するのは厳密さを追求するためですから、このいい加減さは非合理です。 しかも等分散性の検定を行うのは一元配置分散分析だけであり、二元配置以上の分散分析では通常は行いません。 さらに2標本t検定の例でわかるように不等分散性を補正したとしてもごくわずかです。 そのため現実的には全て等分散として扱ってしまってかまいません。 (→3.3 2標本の計量値 (注2))