カイ二乗検定(適合度・独立性)
観測度数と期待度数のズレで、分布の形や変数間の関連を検定する
できるようになること
- 適合度検定と独立性検定の目的の違いを説明できる
- 検定統計量 の意味を説明できる
- クロス表から期待度数を計算し、独立性の検定を実行できる
サイコロは公正か?
サイコロを60回振ったら、各目の出た回数は次のようになりました。
| 目 | 1 | 2 | 3 | 4 | 5 | 6 |
|---|---|---|---|---|---|---|
| 観測度数 | 8 | 12 | 7 | 15 | 9 | 9 |
| 期待度数 | 10 | 10 | 10 | 10 | 10 | 10 |
公正なサイコロなら各目は の確率で出るので、60回中 回ずつ出るのが「期待される度数」です。
実際の結果にはバラつきがあります。これは単なる偶然の範囲でしょうか? それともこのサイコロは偏っているのでしょうか?
この「観測された度数」と「仮説のもとで期待される度数」のズレを統計的に評価するのがカイ二乗検定(chi-squared test)です。
適合度検定
考え方
適合度検定(goodness-of-fit test)は、観測データの度数分布が、ある理論的な分布に適合しているかを検定します。
- 帰無仮説 :データは想定した分布に従っている
- 対立仮説 :データは想定した分布に従っていない
サイコロの例では、:「各目の出る確率は で等しい」です。
検定統計量
観測度数と期待度数のズレを1つの数値にまとめるのが、カイ二乗統計量です。
- :カテゴリ の観測度数(observed frequency)
- :カテゴリ の期待度数(expected frequency)
- :カテゴリの数
各カテゴリで を計算しているので、ズレが大きいほど の値が大きくなります。 で割っているのは、期待度数が大きいカテゴリではある程度のズレが自然に起こるため、相対的な大きさで評価するためです。
のもとで、サンプルサイズ が十分に大きく、各カテゴリの期待度数が概ね5以上であれば、この統計量は近似的に自由度 のカイ二乗分布に従います。
なぜ自由度は か
個のカテゴリがある場合、期待度数の合計は標本サイズ に等しいという制約があります。つまり です。この制約によって独立に動ける度数は 個なので、自由度は です。
例題:サイコロの公正さ
冒頭のサイコロの例を計算してみましょう。
自由度は です。
有意水準 のとき、 の上側5%点は 11.07 です。
なので、棄却域に入りません。「このサイコロは偏っている」とは言えません。
すべてのカテゴリで期待度数 であることが推奨されます。期待度数が小さいカテゴリがある場合は、隣接するカテゴリを統合するなどの工夫が必要です。
独立性の検定
考え方
次に、2つのカテゴリ変数の間に関連があるかどうかを検定する独立性の検定(test of independence)を見ます。
ある工場で、3つの生産ライン(A, B, C)ごとに製品の品質(良品・不良品)を記録したとします。
| 良品 | 不良品 | 合計 | |
|---|---|---|---|
| ラインA | 180 | 20 | 200 |
| ラインB | 150 | 50 | 200 |
| ラインC | 120 | 30 | 150 |
| 合計 | 450 | 100 | 550 |
- 帰無仮説 :生産ラインと品質は独立(ラインによって不良品率に差がない)
- 対立仮説 :生産ラインと品質は独立でない(ラインによって不良品率が異なる)
期待度数の計算
(独立)のもとでは、各セルの期待度数は次のように計算します。
これは確率の独立性の定義 に基づいています。2つの変数が独立であれば、各セルに属する確率は(行の合計 / 総合計)×(列の合計 / 総合計)で求まり、これに総合計を掛けることで期待度数が得られます。
たとえばラインAの不良品の期待度数は、
すべてのセルの期待度数を計算すると、
| 良品(期待) | 不良品(期待) | |
|---|---|---|
| ラインA | 163.64 | 36.36 |
| ラインB | 163.64 | 36.36 |
| ラインC | 122.73 | 27.27 |
検定統計量と自由度
適合度検定と同じカイ二乗統計量を使います。
独立性の検定の自由度は、
- :行の数
- :列の数
この例では です。
例題の計算
自由度2のカイ二乗分布の上側5%点は 5.99 です。
で棄却域に入るため、帰無仮説を棄却します。生産ラインと品質には関連があると判断できます。
独立性の検定は「関連があるかどうか」を判定しますが、「どのラインが問題か」までは教えてくれません。各セルの への寄与( の値)を見ることで、どのセルが大きくズレているかを確認できます。この例では、ラインBの不良品の寄与(7.36)が最大であり、期待より不良品が多いことが示されます。
適合度検定と独立性検定の対比
| 適合度検定 | 独立性検定 | |
|---|---|---|
| 目的 | 1つの変数の度数分布が理論分布に合うか | 2つの変数に関連があるか |
| データ | 1次元の度数表 | 2次元のクロス表 |
| 帰無仮説 | 理論分布に従っている | 2変数は独立 |
| 期待度数 | ||
| 自由度 | ||
| 検定統計量 | 同じ: | |
どちらも「観測と期待のズレ」をカイ二乗統計量で測る点は共通ですが、期待度数の求め方と自由度の決まり方が異なります。
カイ二乗検定の前提条件
適合度検定・独立性検定のいずれにも、以下の前提条件があります。
| 前提条件 | 意味 | 満たさない場合の例 |
|---|---|---|
| 1. 観測が相互に独立 | 各データが他のデータに影響しない | 同じ人を2回調査し、両方を別の観測として数える |
| 2. 各観測が1つのカテゴリにのみ属する | カテゴリが排反で漏れなく定義されている | 「良品」と「やや不良」を重複して分類する |
| 3. すべてのセルで期待度数 | カイ二乗近似が十分に正確であること | 稀な事象のカテゴリで期待度数が2や3になる |
条件3が満たされない場合の対処法:
- カテゴリの統合:期待度数が小さいカテゴリを隣接カテゴリと統合して にする
- フィッシャーの正確確率検定:特に 表ではカイ二乗近似を使わず正確な確率を計算できる
- サンプルサイズを増やす:可能であれば、より多くのデータを収集して期待度数を大きくする
よくある誤解
「 が大きい=効果が大きい」
の値はサンプルサイズに依存します。サンプルが大きければ、実質的に小さな差でも が大きくなり有意になります。効果の大きさを評価するには、クラメールの などの効果量指標を併用します。
「独立性の検定=因果関係の検定」
独立性の検定は2つの変数に統計的な関連があることを示すだけで、「AがBの原因である」とは言えません。交絡要因の可能性は常にあります。
まとめ
カイ二乗検定は、「観測度数と期待度数のズレ」をカイ二乗統計量 で測り、そのズレが偶然で説明できる範囲かを判定します。適合度検定は1つの変数の観測分布が理論分布に合うかを調べ(自由度 )、独立性の検定は2つのカテゴリ変数に関連があるかをクロス表で調べます(自由度 )。
どちらも期待度数がすべて5以上あることが前提です。検定統計量の構造は共通ですが、期待度数の計算方法と自由度が異なる点を区別して使いましょう。