【基礎 数学(数学A)】Module 3:確率(1) 確率の基本性質
本モジュールの目的と構成
これまでのモジュールで、我々は「順列」と「組合せ」という強力な道具を手に入れ、複雑な事象を体系的に数え上げる「場合の数」の技術を習得しました。それは、起こりうる全ての可能性を正確にリストアップする、いわば世界の設計図を描く作業でした。本モジュールでは、その設計図の上に、新たな次元、すなわち「確からしさ」という概念を導入し、確率 (Probability) の世界へと足を踏み入れます。確率は、未来の不確実性や、偶然性に支配される現象を、数学という客観的な言語で定量的に記述し、分析するための学問です。
現代社会は、天気予報から金融市場の動向、医療診断の精度に至るまで、確率的な思考なしには成り立ちません。このモジュールで学ぶ確率の基本性質は、そうした高度な応用分野の根幹をなすだけでなく、我々が日常生活でより合理的な意思決定を行うための、論理的推測能力を飛躍させるための知的基盤となります。
本モジュールでは、確率論という壮大な建築物の土台を、一つ一つの概念を丁寧に積み上げながら構築していきます。
- 試行と事象、根元事象、標本空間: 確率を語るための基本的な「単語」を学びます。サイコロを振るといった行為(試行)と、その結果(事象)を、集合論の言葉を用いて厳密に定義し、確率論の議論の舞台となる標本空間を設定します。
- 同様に確からしい事象と確率の定義: 「同様に確からしい」という、古典確率論の最も重要な仮定を理解し、それに基づいて確率が
(該当する場合の数) / (起こりうる全ての場合の数)
という比率で定義されることを学びます。 - 和事象の確率(加法定理): 「AまたはBが起こる」確率を計算するための基本法則である加法定理を導きます。事象の重なりをいかに処理するかが鍵となります。
- 排反な事象: 同時には起こり得ない事象の関係性を定義し、加法定理がシンプルになる特別なケースを学びます。これは、場合の数における「和の法則」の確率版です。
- 余事象の確率: 「少なくとも1つは〜」といった複雑な事象の確率を、逆の視点(「1つも〜ない」)からアプローチすることで、鮮やかに解き明かす戦略的思考法を習得します。
- 確率の計算における順列・組合せの利用: 確率の定義式の分子・分母、すなわち「場合の数」を計算するために、モジュール1と2で培った順列・組合せの技術を全面的に活用します。
- 独立な事象と積事象の確率(乗法定理): 一つの事象の発生が他の事象に影響を与えない「独立」という概念を学び、「AかつBが起こる」確率を計算するための乗法定理を導入します。これは「積の法則」の確率版です。
- 試行の独立: 事象の独立の考え方を、複数回の試行へと拡張します。コインを繰り返し投げるような状況を数学的にモデル化します。
- 反復試行の確率: 同じ条件で繰り返される独立な試行において、特定の事象が特定の回数起こる確率を計算する、非常に強力で応用範囲の広い公式を導出します。
- 期待値の計算: ある試行を多数回行ったときに、得られる結果の「平均値」を予測する期待値の概念を学びます。これにより、確率的な現象の価値を評価することが可能になります。
このモジュールを通じて、皆様は不確実な世界を数学の言葉で語り、その確からしさを論理的に導き出す能力を身につけることでしょう。それは、単なる数学の一分野の習得に留まらず、物事の本質を見通し、未来を予測するための新たな「知性の眼」を手に入れることに他なりません。
1. 試行と事象、根元事象、標本空間
確率論の世界に足を踏み入れるにあたり、我々がまず習得しなければならないのは、その世界を記述するための基本的な「言語」です。日常的に何気なく使っている「偶然」や「結果」といった言葉を、数学的に厳密で、誤解の余地のない概念として再定義する必要があります。このセクションでは、確率を論じる上での土台となる4つの重要用語、試行、事象、標本空間、根元事象について、その正確な意味と相互関係を学びます。これらは、確率という建築物全体の礎石となるものです。
1.1. 試行 (Trial) とは
試行 (Trial) とは、確率的な現象を観察するための実験や行為のことを指します。試行は、以下の3つの性質を持つものとして定義されます。
- 同じ条件の下で、繰り返し行うことができる。(例:同じサイコロを、同じようにテーブル上で投げる)
- 起こりうる結果が、あらかじめすべて分かっている。(例:サイコロを投げれば、出る目は1, 2, 3, 4, 5, 6のいずれかである)
- どの結果が起こるかは、偶然によって支配され、事前に予測することはできない。(例:サイコロを投げる前に、次に出る目が4であると断定することはできない)
試行の具体例
- 1個のサイコロを1回投げる。
- 1枚のコインを3回投げる。
- 袋の中から玉を1個取り出す。
- トランプの山からカードを1枚引く。
重要なのは、試行が「コントロールされた偶然」の生成プロセスであるという点です。我々は条件を一定に保ち、起こりうる結果の範囲も知っている。しかし、その中のどの結果が実現するかは、我々の手を離れた「偶然」に委ねられています。確率論は、この偶然性を数学的に分析するための学問なのです。
1.2. 標本空間 (Sample Space) と根元事象 (Elementary Event)
試行を一度行ったときに起こりうるすべての結果を、漏れなく重複なく集めた集合のことを標本空間 (Sample Space) と呼びます。標本空間は、その試行における「世界のすべて」を定義する、最も基本的な集合です。記号では \(U\) や \(S\) (Universal set, Sample space) で表されることが多いです。
そして、標本空間の各要素、すなわち、それ以上細かく分解することのできない個々の結果のことを根元事象 (Elementary Event) と呼びます。
関係性のまとめ
- 標本空間 (U): 起こりうるすべての結果の集合。
- 根元事象: 標本空間の要素。
具体例1:サイコロを1回投げる試行
- 標本空間 U: \(U = {1, 2, 3, 4, 5, 6}\)この集合が、この試行で起こりうる結果のすべてです。
- 根元事象: \({1}, {2}, {3}, {4}, {5}, {6}\) の6つです。例えば「1の目が出る」という結果は、これ以上分解できません。
具体例2:コインを2回投げる試行
コインの表をH (Heads)、裏をT (Tails) で表します。
- 標本空間 U: 1回目と2回目の結果を順序付けて考える必要があります。\(U = { (H, H), (H, T), (T, H), (T, T) }\)(H, T) は1回目が表、2回目が裏を意味します。
- 根元事象: \({ (H, H) }, { (H, T) }, { (T, H) }, { (T, T) }\) の4つです。例えば「1回目が表で、2回目が裏」という結果は、一つの根元事象です。
標本空間を正しく設定することは、確率の問題を解く上での絶対的な第一歩です。ここで漏れや重複があると、その後のすべての計算が誤ったものになってしまいます。特に、試行が複数回行われる場合や、複数の対象を同時に扱う場合には、順序を考慮するのか、しないのかなど、何を根元事象として捉えるかを慎重に定義する必要があります。
1.3. 事象 (Event) とは
事象 (Event) とは、試行によって起こりうる結果の集まりであり、数学的には標本空間の部分集合として定義されます。
根元事象が「個々の具体的な結果」であったのに対し、事象はより一般的な「結果のグループ」や「結果が持つ性質」を表します。
関係性のまとめ
- 標本空間 (U): 全体集合
- 事象 (A): 部分集合
- 根元事象: 要素
具体例:サイコロを1回投げる試行
- 標本空間 U: \(U = {1, 2, 3, 4, 5, 6}\)
- 事象A: 「偶数の目が出る」この事象は、根元事象 \({2}, {4}, {6}\) から構成されます。したがって、事象Aは集合として \(A = {2, 4, 6}\) と表されます。これは標本空間Uの部分集合です。
- 事象B: 「3以下の目が出る」この事象は、\(B = {1, 2, 3}\) という部分集合で表されます。
- 事象C: 「6の目が出る」この事象は、\(C = {6}\) という部分集合で表されます。このように、根元事象自身も、要素が1つの特別な事象と見なすことができます。
特別な事象
- 全事象 (Certain Event): 試行を行うと必ず起こる事象のこと。これは標本空間 \(U\) そのものに対応します。(例:サイコロを投げるとき、「1以上6以下の目が出る」という事象)
- 空事象 (Impossible Event): 試行を行っても決して起こらない事象のこと。これは空集合 \(\emptyset\) に対応します。(例:サイコロを投げるとき、「7の目が出る」という事象)
1.4. 事象の集合的表現(和事象・積事象)
事象は集合であるため、集合演算(和集合、積集合、補集合など)を用いて、事象同士の関係や新しい事象を定義することができます。
和事象 (Union of Events)
- 事象Aと事象Bの和事象 \(A \cup B\) は、「AまたはBの少なくとも一方が起こる」という事象です。
- 集合で言えば、AとBの和集合に対応します。
- 例: 事象A「偶数の目が出る」(\({2, 4, 6}\)) と 事象B「3以下の目が出る」(\({1, 2, 3}\)) の和事象は、\(A \cup B = {1, 2, 3, 4, 6}\)これは「偶数または3以下の目が出る」という事象です。
積事象 (Intersection of Events)
- 事象Aと事象Bの積事象 \(A \cap B\) は、「AとBがともに起こる」という事象です。
- 集合で言えば、AとBの積集合(共通部分)に対応します。
- 例: 事象A「偶数の目が出る」と事象B「3以下の目が出る」の積事象は、\(A \cap B = {2}\)これは「偶数であり、かつ3以下の目が出る」という事象です。
これらの概念は、後のセクションで学ぶ「加法定理」や「乗法定理」の土台となります。
このセクションで学んだ4つの用語は、確率論という言語の文法を形成するものです。
- 試行 が文章の「文脈」を定め、
- 標本空間 が使用可能な「単語のすべて」を定義し、
- 根元事象 が個々の「単語」となり、
- 事象 が意味を持つ「文節や文章」を構成する。とイメージすると良いでしょう。この言語体系を正確に理解し、使いこなすことが、確率の世界を論理的に探求するための第一歩となります。
2. 同様に確からしい事象と確率の定義
確率論の基本的な用語を定義した今、いよいよ「確率」そのものが何であるかを定義する段階に入ります。歴史的に、確率はサイコロやコイン、カードゲームといった賭け事の中から生まれました。これらの道具に共通する理想的な性質、すなわち「どの目も、表も裏も、どのカードも、同じように出やすい」という考え方が、確率の数学的定義の出発点となりました。この理想的な状況を**「同様に確からしい」と呼び、これを前提とした確率の定義は数学的確率またはラプラスの確率**として知られています。
2.1. 「同様に確からしい」とは
「同様に確からしい」とは、ある試行において、その標本空間を構成するすべての根元事象が、同じ確からしさで起こると期待される状況を指します。
重要な注意点:
これは、世界の物理的な性質から導かれる仮定あるいは理想的なモデル化であって、数学的に証明されるものではありません。
- 歪みのないサイコロを投げれば、1から6の目が出る確からしさは、経験的にどれも同じだろう、と我々は仮定します。
- 偏りのないコインを投げれば、表と裏が出る確からしさは同じだろう、と仮定します。
この「同様に確からしい」という仮定が、確率を計算するための不動の基盤となります。もしこの仮定が崩れれば(例えば、イカサマのサイコロを使う場合)、これから学ぶ単純な確率の定義は適用できなくなり、より高度な確率のモデル(各根元事象に異なる「重み」を付けるなど)が必要になります。大学受験で扱われる問題のほとんどは、この「同様に確からしい」という前提が明示的または暗黙的に与えられています。
根元事象の重要性
「同様に確からしい」かどうかを判断する際には、標本空間を構成する根元事象が何であるかを正しく設定することが極めて重要です。
ミニケーススタディ:2枚のコイン
「2枚のコインを同時に投げるとき、表の枚数は0枚、1枚、2枚のいずれかである。よって、表が2枚出る確率は1/3である。」
この推論は誤りです。なぜでしょうか。
それは、「表の枚数」という事象を根元事象として捉えてしまっているからです。
- 事象「表が0枚」 = {裏, 裏}
- 事象「表が1枚」 = {表, 裏}, {裏, 表}
- 事象「表が2枚」 = {表, 表}
正しい根元事象は、2枚のコインを区別した場合の \({(H, H), (H, T), (T, H), (T, T)}\) の4つです。これら4つの根元事象が「同様に確からしい」と考えるのが自然です。
このとき、「表が1枚」という事象は2つの根元事象から構成されており、「表が0枚」や「表が2枚」という事象(それぞれ1つの根元事象から構成)よりも2倍起こりやすいことになります。
したがって、「表が0枚、1枚、2枚」という3つの結果は、同様に確からしいとは言えません。
このように、確率を考える際には、まずその試行の根元事象が何であり、それらが同様に確からしいと言えるかを常に意識する必要があります。
2.2. 確率の数学的定義
標本空間 \(U\) を構成するすべての根元事象が同様に確からしいという仮定の下で、ある事象 \(A\) の確率 \(P(A)\) は、以下のように定義されます。(\(P\) は Probability の頭文字です。)
【確率の定義】
\[
P(A) = \frac{\text{事象}A\text{の起こる場合の数}}{\text{起こりうるすべての事象の場合の数}} = \frac{n(A)}{n(U)}
\]
ここで、
- \(n(U)\) は、標本空間 \(U\) の要素の数(根元事象の総数)です。
- \(n(A)\) は、事象 \(A\) (\(U\) の部分集合)の要素の数です。
この定義の本質は、確率を「比率」として捉える点にあります。世界の全体像 (\(n(U)\)) の中で、我々が注目している現象 (\(n(A)\)) がどれだけの割合を占めているか、ということです。
この定義から、確率を計算する作業は、
- 標本空間 \(U\) を正しく設定し、その総数 \(n(U)\) を数え上げる。
- 注目する事象 \(A\) を定義し、その要素の数 \(n(A)\) を数え上げる。という、2つの**「場合の数」の問題**に帰着します。これこそが、モジュール1と2で順列・組合せを学んだ理由なのです。
具体例1:サイコロの確率
1個の公正なサイコロを1回投げる試行。
- 標本空間 \(U = {1, 2, 3, 4, 5, 6}\) なので、\(n(U) = 6\)。
- 事象A:「3の倍数の目が出る」\(A = {3, 6}\) なので、\(n(A) = 2\)。
- 事象Aの確率は、\(P(A) = \frac{n(A)}{n(U)} = \frac{2}{6} = \frac{1}{3}\)
具体例2:2枚のコインの確率(再訪)
2枚の公正なコインを同時に投げる試行。
- 標本空間 \(U = {(H, H), (H, T), (T, H), (T, T)}\) なので、\(n(U) = 4\)。
- 事象A:「表が2枚出る」\(A = {(H, H)}\) なので、\(n(A) = 1\)。
- 事象Aの確率は、\(P(A) = \frac{n(A)}{n(U)} = \frac{1}{4}\) (1/3ではなかった!)
- 事象B:「表が1枚だけ出る」\(B = {(H, T), (T, H)}\) なので、\(n(B) = 2\)。
- 事象Bの確率は、\(P(B) = \frac{n(B)}{n(U)} = \frac{2}{4} = \frac{1}{2}\)
2.3. 確率の基本性質
確率の定義から、以下の3つの基本的な性質が導かれます。これらは、確率が満たすべき普遍的なルールであり、確率の公理として知られる、より一般的な理論の基礎となります。
1. 任意の事象Aについて、\(0 \le P(A) \le 1\)
- 事象 \(A\) は標本空間 \(U\) の部分集合なので、その要素の数 \(n(A)\) は、0以上 \(n(U)\) 以下でなければなりません。 (\(0 \le n(A) \le n(U)\))
- この不等式の各辺を \(n(U)\)(正の数)で割ると、\(0 \le \frac{n(A)}{n(U)} \le 1\) となり、\(0 \le P(A) \le 1\) が得られます。
- 確率は、0 (0%) から 1 (100%) までの値をとる、という直感的な性質が数式で示されています。
2. 全事象の確率:\(P(U) = 1\)
- 全事象 \(U\) は、必ず起こる事象です。
- 定義式に当てはめると、\(A=U\) なので \(n(A) = n(U)\)。
- \(P(U) = \frac{n(U)}{n(U)} = 1\)。
3. 空事象の確率:\(P(\emptyset) = 0\)
- 空事象 \(\emptyset\) は、決して起こらない事象です。
- 定義式に当てはめると、\(A=\emptyset\) なので \(n(A) = 0\)。
- \(P(\emptyset) = \frac{0}{n(U)} = 0\)。
これらの性質は、確率計算の妥当性を検証する上でも重要です。もし計算結果が1を超えたり、負の数になったりした場合は、計算過程のどこかに間違いがあることを示唆しています。
このセクションで確立した確率の定義は、シンプルながらも、確率論全体の出発点です。「同様に確からしい」という理想的な世界を仮定し、その中で事象の起こりやすさを「場合の数の比率」として客観的に測定する。この強力なアプローチが、偶然という捉えどころのない現象を、論理と計算の俎上に乗せることを可能にしたのです。
3. 和事象の確率(加法定理)
確率の基本的な定義を確立した今、次のステップは、複数の事象が絡み合う、より複雑な状況を分析することです。その第一歩として、「事象Aまたは事象Bが起こる」という、和事象 (Union of Events) の確率を考えます。この確率を計算するための基本法則が加法定理 (Addition Rule of probability) です。この定理は、場合の数の世界における「和の法則」と密接に関連していますが、事象間に「重なり」がある場合に、それをどのように処理するかという点で、より洗練された注意が必要となります。
3.1. 和事象 \(A \cup B\) の確率
復習ですが、事象Aと事象Bの和事象 \(A \cup B\) とは、「AまたはBの少なくとも一方が起こる」という事象でした。
この確率 \(P(A \cup B)\) を求めることを考えます。
確率の定義によれば、\(P(A \cup B) = \frac{n(A \cup B)}{n(U)}\) です。
したがって、問題は和集合の要素の数 \(n(A \cup B)\) をいかにして計算するかに帰着します。
数学Iの「集合と論理」で学んだ、和集合の要素の数の公式を思い出してみましょう。
\[
n(A \cup B) = n(A) + n(B) – n(A \cap B)
\]
この公式の直感的な意味は、「Aの要素数とBの要素数を単純に足すと、共通部分 (\(A \cap B\)) を2回数えてしまうので、その重複分を1回引いて補正する」というものでした。
この等式の両辺を、標本空間の総数 \(n(U)\) で割ってみましょう。
\[
\frac{n(A \cup B)}{n(U)} = \frac{n(A)}{n(U)} + \frac{n(B)}{n(U)} – \frac{n(A \cap B)}{n(U)}
\]
それぞれの項は、確率の定義そのものです。
\[
P(A \cup B) = P(A) + P(B) – P(A \cap B)
\]
これが、確率の加法定理です。
【確率の加法定理】
任意の2つの事象 A, B について、
\[
P(A \cup B) = P(A) + P(B) – P(A \cap B)
\]
が成り立つ。
この定理は、和事象の確率を、各事象の確率と、それらの積事象の確率から計算できることを示しています。ベン図を用いると、この関係を視覚的に理解することができます。
“
[図:2つの円AとBが重なっているベン図。A∪Bの面積は、Aの面積とBの面積を足してから、重なっている部分A∩Bの面積を引いたものに等しいことを示す。]
3.2. 加法定理の応用
加法定理は、事象間に重なりがある場合に特に重要となります。
例題1:トランプの確率
1組52枚のトランプから1枚を無作為に引く試行。
- 事象A:「引いたカードがスペードである」
- 事象B:「引いたカードがキング(K)である」
このとき、「引いたカードがスペードまたはキングである」という和事象 \(A \cup B\) の確率を求めよ。
思考プロセス
- 各事象の確率を計算する
- スペードは13枚あるので、\(P(A) = \frac{13}{52} = \frac{1}{4}\)。
- キングは4枚あるので、\(P(B) = \frac{4}{52} = \frac{1}{13}\)。
- 積事象(重なり)の確率を計算する
- 積事象 \(A \cap B\) は、「引いたカードがスペードであり、かつキングである」という事象です。
- これに該当するのは「スペードのキング」の1枚のみです。
- したがって、\(P(A \cap B) = \frac{1}{52}\)。
- 加法定理を適用する\[P(A \cup B) = P(A) + P(B) – P(A \cap B)\]\[= \frac{13}{52} + \frac{4}{52} – \frac{1}{52} = \frac{16}{52} = \frac{4}{13}\]答えは \(\frac{4}{13}\) となります。
もし、単純に \(P(A)+P(B)\) を計算してしまうと、スペードのキングを「スペードの一枚」として1回、「キングの一枚」として1回、合計2回カウントしてしまうことになります。加法定理の \(-P(A \cap B)\) の項は、この二重カウントを補正するための重要な役割を果たしているのです。
3.3. 3つ以上の事象への拡張(参考)
加法定理は、3つ以上の事象に対しても拡張することができます。3つの事象 A, B, C の場合、その和事象 \(A \cup B \cup C\) の確率は以下のようになります。
\[
P(A \cup B \cup C) = P(A) + P(B) + P(C) – P(A \cap B) – P(B \cap C) – P(C \cap A) + P(A \cap B \cap C)
\]
この公式は、数学で包含と排除の原理として知られる、より一般的な法則の一例です。
その意味は、
- まず、各事象の確率をすべて足す。(\(\verb|+P(A)+P(B)+P(C)|\))
- しかし、これだと2つの事象の共通部分を二重に足しているので、それらをすべて引く。(\(\verb|-P(A∩B)-P(B∩C)-P(C∩A)|\))
- ところが、2の操作で、3つの事象すべての共通部分を3回足して3回引いたことになり、完全に消えてしまったので、最後にそれを1回足し戻す。(\(\verb|+P(A∩B∩C)|\))という、重複の補正を繰り返す構造になっています。
大学受験レベルでこの3事象の加法定理を直接使う場面は稀ですが、その背景にある「足して、引きすぎていたら戻し、引きすぎていたらまた足す」という包含と排除の考え方は、より複雑な場合の数の問題や確率の問題を解く上で役立つことがあります。
加法定理は、複数の事象が絡む確率計算の基本中の基本です。特に、事象間に「重なり」、すなわち共通部分が存在するかどうかを常に意識し、存在する場合はその確率を引くことを忘れないようにすることが、正確な計算への鍵となります。次のセクションでは、この「重なり」が全くない、特別な場合について詳しく見ていきます。
4. 排反な事象
確率の加法定理 \(P(A \cup B) = P(A) + P(B) – P(A \cap B)\) は、あらゆる事象の組み合わせに対して成り立つ、非常に一般的な法則です。しかし、現実の問題では、事象Aと事象Bが「同時に起こることは絶対にない」という、特別な関係にある場合が頻繁に現れます。このような関係を排反 (Mutually Exclusive) と呼びます。事象が排反である場合、加法定理は非常にシンプルな形になり、場合の数の世界における「和の法則」と直接的に対応する、強力な計算ツールとなります。
4.1. 排反な事象の定義
【定義】
2つの事象 A, B が排反であるとは、AとBが同時に起こることがない、すなわち、AとBの積事象が空事象 \(\emptyset\) であることをいう。
\[
A \cap B = \emptyset
\]
排反という言葉は、「互いに排斥しあっている」とイメージすると分かりやすいでしょう。事象Aが起これば、その瞬間、事象Bが起こる可能性は完全に排除されます。逆もまた然りです。ベン図で描くと、2つの円AとBが全く重なりを持たずに、離れている状態に対応します。
“
[図:2つの円AとBが、全く重ならずに離れて描かれているベン図。「排反」とキャプション。]
排反な事象の具体例
- 試行: 1個のサイコロを1回投げる。
- 事象A:「1の目が出る」(\({1}\))
- 事象B:「2の目が出る」(\({2}\))
- AとBは同時には起こらないので、排反である。(\(A \cap B = \emptyset\))
- 試行: 1個のサイコロを1回投げる。
- 事象A:「奇数の目が出る」(\({1, 3, 5}\))
- 事象B:「偶数の目が出る」(\({2, 4, 6}\))
- AとBは同時には起こらないので、排反である。(\(A \cap B = \emptyset\))
- 試行: トランプから1枚引く。
- 事象A:「ハートのカードを引く」
- 事象B:「スペードのカードを引く」
- AとBは同時には起こらないので、排反である。
排反でない事象の例
- 試行: 1個のサイコロを1回投げる。
- 事象A:「3以下の目が出る」(\({1, 2, 3}\))
- 事象B:「奇数の目が出る」(\({1, 3, 5}\))
- 積事象は \(A \cap B = {1, 3}\) であり、空事象ではない。したがって、AとBは排反ではない。
4.2. 排反事象と加法定理
事象AとBが排反であるとき、\(A \cap B = \emptyset\) です。
したがって、その積事象の確率は \(P(A \cap B) = P(\emptyset) = 0\) となります。
この結果を、一般的な加法定理
\[
P(A \cup B) = P(A) + P(B) – P(A \cap B)
\]
に代入すると、最後の項が0になり、式は著しく単純化されます。
【排反事象に対する加法定理】
2つの事象 A, B が互いに排反であるとき、
\[
P(A \cup B) = P(A) + P(B)
\]
が成り立つ。
この式は、「AまたはBが起こる確率」は、単純に「Aの確率」と「Bの確率」を足し合わせるだけで計算できることを意味します。これは、場合の数の世界で学んだ、互いに重複しないケースの場合の数を足し合わせる「和の法則」と、全く同じ構造をしています。確率の計算において「場合分け」を行うとき、我々が暗黙のうちに利用しているのが、この排反事象に対する加法定理なのです。
例題1:サイコロの確率
1個のサイコロを1回投げるとき、「2の目または5の目が出る」確率を求めよ。
- 事象A:「2の目が出る」 → \(P(A) = 1/6\)
- 事象B:「5の目が出る」 → \(P(B) = 1/6\)
- 事象AとBは、同時には起こり得ないので排反である。
- したがって、求める確率は、\(P(A \cup B) = P(A) + P(B) = \frac{1}{6} + \frac{1}{6} = \frac{2}{6} = \frac{1}{3}\)
例題2:袋から玉を取り出す確率
赤玉5個、白玉3個、青玉2個が入っている袋から、よくかき混ぜて1個の玉を取り出す。
「取り出した玉が赤玉または白玉である」確率を求めよ。
- 事象A:「赤玉を取り出す」 → \(P(A) = \frac{5}{10}\)
- 事象B:「白玉を取り出す」 → \(P(B) = \frac{3}{10}\)
- 玉を1個しか取り出さないので、それが同時に赤であり白であることはあり得ない。したがって、AとBは排反である。
- 求める確率は、\(P(A \cup B) = P(A) + P(B) = \frac{5}{10} + \frac{3}{10} = \frac{8}{10} = \frac{4}{5}\)
4.3. 3つ以上の排反事象
この単純な加法定理は、3つ以上の事象に対しても拡張できます。
事象 \(A_1, A_2, \dots, A_k\) が、どの2つをとっても互いに排反であるとき(つまり、\(i \neq j\) ならば \(A_i \cap A_j = \emptyset\))、
\[
P(A_1 \cup A_2 \cup \cdots \cup A_k) = P(A_1) + P(A_2) + \cdots + P(A_k)
\]
が成り立ちます。
これは、複雑な事象を、いくつかの単純で互いに排反なケースに場合分けし、それぞれのケースの確率を計算した後に、それらをすべて足し合わせる、という問題解決の基本戦略を数学的に正当化するものです。
例題3:さいころの目の和
大小2つのサイコロを同時に投げるとき、目の和が4または5になる確率を求めよ。
- 標本空間の総数 \(n(U) = 6 \times 6 = 36\) 通り。
- 場合分け1: 事象A「目の和が4になる」組は (1,3), (2,2), (3,1) の3通り。\(P(A) = \frac{3}{36}\)
- 場合分け2: 事象B「目の和が5になる」組は (1,4), (2,3), (3,2), (4,1) の4通り。\(P(B) = \frac{4}{36}\)
- 目の和が同時に4であり5であることはあり得ないので、事象AとBは排反である。
- したがって、求める確率は、\(P(A \cup B) = P(A) + P(B) = \frac{3}{36} + \frac{4}{36} = \frac{7}{36}\)
まとめ
「排反」は、確率計算のプロセスを大幅に単純化してくれる、非常に重要な概念です。和事象の確率を考える際には、まず第一に「それぞれの事象は排反か?」と自問自答する癖をつけることが重要です。
- YES(排反である) → 単純に確率を足し合わせる。
- NO(排反でない) → 重なり部分の確率 \(P(A \cap B)\) を引くことを忘れない。
この判断が、確率の加法定理を正しく使いこなすための分水嶺となります。
5. 余事象の確率
確率の問題、特に「少なくとも〜」という言葉が含まれる問題に直面したとき、正面から挑むと非常に多くの場合分けが必要になり、計算が煩雑になることがあります。このような状況で絶大な威力を発揮するのが、余事象 (Complementary Event) の考え方です。これは、求めたい事象そのものではなく、その事象が「起こらない」という逆の側面からアプローチし、全体の確率から差し引くことで、間接的に答えを導き出す、エレガントで強力な戦略です。
5.1. 余事象の定義とその確率
【定義】
ある事象Aに対して、「Aが起こらない」という事象を、Aの余事象といい、記号 \(\bar{A}\) で表す。
余事象 \(\bar{A}\) は、集合論における補集合に完全に対応します。標本空間 \(U\) の中で、事象A(部分集合A)に含まれない要素のすべてが、余事象 \(\bar{A}\) を構成します。
余事象の性質
事象Aとその余事象 \(\bar{A}\) の間には、以下の2つの極めて重要な関係があります。
- \(A \cap \bar{A} = \emptyset\)事象Aが起こり、かつAが起こらない、ということはあり得ません。したがって、Aと \(\bar{A}\) は常に互いに排反です。
- \(A \cup \bar{A} = U\)試行を行えば、事象Aが起こるか、あるいはAが起こらないかのどちらか一方です。両者を合わせると、起こりうるすべての可能性、すなわち全事象 \(U\) を網羅します。
この2つの性質から、余事象の確率に関する基本公式を導くことができます。
Aと \(\bar{A}\) は排反なので、排反事象に対する加法定理から、
\[
P(A \cup \bar{A}) = P(A) + P(\bar{A})
\]
一方、\(A \cup \bar{A} = U\) なので、その確率は \(P(A \cup \bar{A}) = P(U) = 1\) です。
したがって、
\[
P(A) + P(\bar{A}) = 1
\]
この式を移項することで、余事象の確率を計算するための最も重要な公式が得られます。
【余事象の確率の公式】
\[
P(A) = 1 – P(\bar{A})
\]
あるいは
\[
P(\bar{A}) = 1 – P(A)
\]
この公式は、「ある事象が起こる確率」は、「1(全体の確率)から、その事象が起こらない確率を引いたもの」に等しいことを示しています。
5.2. 余事象を利用する戦略的思考
余事象の公式の真価は、直接求めるのが難しい確率 \(P(A)\) を、より簡単に求められる確率 \(P(\bar{A})\) を経由して計算できる点にあります。
特に、以下のようなキーワードが問題文に含まれている場合、余事象の利用を積極的に検討すべきです。
- 「少なくとも1つは〜」
- 「〜でない」
- 「〜とは異なる」
戦略:「少なくとも1つは〜」
「少なくとも1つのAが起こる」という事象の余事象は、「Aが1つも起こらない」あるいは「すべてAでない」となります。後者の方が、場合の数を数えやすいケースが非常に多いのです。
例題1:コインの表
3枚の公正なコインを同時に投げるとき、「少なくとも1枚は表が出る」確率を求めよ。
直接解法(場合分けが多くて面倒)
- (表, 表, 表)
- (表, 表, 裏)
- (表, 裏, 表)
- (裏, 表, 表)
- (表, 裏, 裏)
- (裏, 表, 裏)
- (裏, 裏, 表)「少なくとも1枚は表」のケースは、
- (表1枚、裏2枚) の場合: \(_3\mathrm{C}_1 = 3\) 通り
- (表2枚、裏1枚) の場合: \(_3\mathrm{C}_2 = 3\) 通り
- (表3枚) の場合: \(_3\mathrm{C}_3 = 1\) 通り合計 \(3+3+1=7\) 通り。標本空間の総数は \(2^3=8\) 通りなので、確率は \(\frac{7}{8}\)。
余事象による解法(スマート)
- 事象Aを設定: A = 「少なくとも1枚は表が出る」
- 余事象 \(\bar{A}\) を考える: \(\bar{A}\) = 「1枚も表が出ない」 = 「すべて裏が出る」
- 余事象の確率 \(P(\bar{A})\) を計算する:すべて裏が出るのは、(裏, 裏, 裏) の1通りだけです。\(P(\bar{A}) = \frac{1}{8}\)
- 公式を適用する:\(P(A) = 1 – P(\bar{A}) = 1 – \frac{1}{8} = \frac{7}{8}\)
答えは \(\frac{7}{8}\) となり、直接解法の結果と一致します。計算量が劇的に削減され、ミスも起こりにくいことが分かります。
例題2:不良品
10個の製品の中に、3個の不良品が含まれている。この中から同時に2個の製品を取り出すとき、「少なくとも1個は不良品である」確率を求めよ。
余事象による解法
- 事象A: 「少なくとも1個は不良品」
- 余事象 \(\bar{A}\): 「1個も不良品でない」 = 「2個とも良品である」
- 余事象の確率 \(P(\bar{A})\) を計算する:
- 良品は \(10-3=7\) 個あります。
- 全体の取り出し方(標本空間):10個から2個を選ぶ組合せ \(_{10}\mathrm{C}_2 = \frac{10 \cdot 9}{2} = 45\) 通り。
- 2個とも良品である取り出し方:7個の良品から2個を選ぶ組合せ \(_7\mathrm{C}_2 = \frac{7 \cdot 6}{2} = 21\) 通り。
- \(P(\bar{A}) = \frac{_7\mathrm{C}2}{{10}\mathrm{C}_2} = \frac{21}{45} = \frac{7}{15}\)
- 公式を適用する:\(P(A) = 1 – P(\bar{A}) = 1 – \frac{7}{15} = \frac{8}{15}\)
答えは \(\frac{8}{15}\) となります。この問題を直接解こうとすると、「不良品1個、良品1個の場合」と「不良品2個の場合」を別々に計算して足し合わせる必要があり、手間がかかります。
余事象を使うかどうかの判断
問題を見たときに、「求めたい事象の場合の数」と「その余事象の場合の数」のどちらを計算する方が楽かを、瞬時に天秤にかけることが重要です。「少なくとも〜」は強力なヒントですが、それ以外にも、例えば「積が偶数になる」確率を求めたい場合、余事象である「積が奇数になる」(=すべて奇数)を考える方が圧倒的に簡単である、といった応用も考えられます。
余事象の考え方は、単なる計算テクニックではありません。それは、問題解決において、直接的なアプローチが困難な場合に、視点を反転させて裏口からエレガントに解決策を見出すという、柔軟な思考法そのものなのです。
6. 確率の計算における順列・組合せの利用
確率の数学的定義 \(P(A) = \frac{n(A)}{n(U)}\) は、確率の問題を本質的に二つの「場合の数」の問題、すなわち \(n(U)\)(起こりうるすべての事象の場合の数)と \(n(A)\)(注目する事象の起こる場合の数)を数え上げる問題へと還元します。そして、これらの場合の数を計算するための最も体系的で強力なツールが、モジュール1と2で学んだ順列 (Permutation) と組合せ (Combination) です。このセクションでは、確率の問題の文脈で、これら二つのツールをいかにして適切に選択し、一貫して適用するかを学びます。
6.1. 確率計算における根本原則:分母と分子の一貫性
確率を順列・組合せを用いて計算する際に、最も重要な原則は「分母 (\(n(U)\)) と分子 (\(n(A)\)) で、場合の数の数え方のモデルを一貫させる」ということです。
具体的には、
- もし分母の標本空間を「順序を区別する」モデル(順列)で数えたならば、分子の事象も「順序を区別する」モデル(順列)で数えなければなりません。
- もし分母の標本空間を「順序を区別しない」モデル(組合せ)で数えたならば、分子の事象も「順序を区別しない」モデル(組合せ)で数えなければなりません。
この一貫性が崩れると、正しい確率を求めることはできません。どちらのモデルを使うかは問題の性質によりますが、多くの場合、どちらのモデルでも解くことが可能です。ただし、一般的には組合せで考える方が、場合の数が少なくなり、計算がシンプルになる傾向があります。
何を「根元事象」と見なすか
この一貫性の問題は、根源的には「何を同様に確からしい根元事象と見なすか」という問題に繋がっています。
- 順列モデル: (A, B) と (B, A) を異なる根元事象と見なす。
- 組合せモデル: {A, B} という一つの組を考えるが、その組が選ばれる確からしさを計算するために、背景では区別された根元事象を仮定している。
実用上は、「順序を区別するか、しないか」という判断基準でモデルを選択するのが最も分かりやすいでしょう。
6.2. 組合せを利用するモデル(推奨されることが多い)
状況: 取り出す順番を問題にしない、最終的な構成メンバーだけが重要な場合。
(例:「袋から同時に玉を3個取り出す」「くじを5本同時に引く」「委員を3人選ぶ」)
「同時に」というキーワードは、組合せモデルを示唆する強力なヒントです。
例題1:赤玉と白玉
赤玉5個、白玉4個が入った袋の中から、同時に3個の玉を取り出す。このとき、3個とも赤玉である確率を求めよ。
思考プロセス(組合せモデル)
- 標本空間 \(n(U)\) の計算:
- 合計9個の玉から、順序を問わずに3個を選ぶ組合せ。
- \(n(U) = _9\mathrm{C}_3 = \frac{9 \cdot 8 \cdot 7}{3 \cdot 2 \cdot 1} = 84\) 通り。
- 事象A \(n(A)\) の計算:
- 事象A:「3個とも赤玉である」
- 5個の赤玉から、順序を問わずに3個を選ぶ組合せ。
- \(n(A) = _5\mathrm{C}_3 = _5\mathrm{C}_2 = \frac{5 \cdot 4}{2 \cdot 1} = 10\) 通り。
- 確率 \(P(A)\) の計算:\[P(A) = \frac{n(A)}{n(U)} = \frac{_5\mathrm{C}_3}{_9\mathrm{C}_3} = \frac{10}{84} = \frac{5}{42}\]
6.3. 順列を利用するモデル(一貫性を保てば可能)
状況: 取り出す順番や配置の順序が意味を持つ場合。
(例:「3人が一列に並ぶ」「3桁の整数を作る」「リレーの走者を決める」)
この場合は、順列モデルで考えるのが自然です。
しかし、例題1のような「同時に」取り出す問題も、あえて「1個ずつ順番に取り出す」と解釈し直し、順列モデルで解くことも可能です。
例題1の別解(順列モデル)
「同時に3個」を「1個ずつ、元に戻さずに3個取り出す」と解釈します。
- 標本空間 \(n(U)\) の計算:
- 合計9個の玉から、順序を考慮して3個を選び出す順列。
- \(n(U) = _9\mathrm{P}_3 = 9 \times 8 \times 7 = 504\) 通り。
- 事象A \(n(A)\) の計算:
- 事象A:「取り出した3個がすべて赤玉である」
- 5個の赤玉から、順序を考慮して3個を選び出す順列。
- \(n(A) = _5\mathrm{P}_3 = 5 \times 4 \times 3 = 60\) 通り。
- 確率 \(P(A)\) の計算:\[P(A) = \frac{n(A)}{n(U)} = \frac{_5\mathrm{P}_3}{_9\mathrm{P}_3} = \frac{60}{504}\]約分すると、\(\frac{60 \div 12}{504 \div 12} = \frac{5}{42}\)。
結果は、組合せモデルと完全に一致します。
なぜなら、\(P(A) = \frac{_5\mathrm{P}_3}{_9\mathrm{P}_3} = \frac{5!/2!}{9!/6!} = \frac{_5\mathrm{C}_3 \cdot 3!}{_9\mathrm{C}_3 \cdot 3!} = \frac{_5\mathrm{C}_3}{_9\mathrm{C}_3}\) であり、分母と分子の \(3!\) (順序の分)がキャンセルされるため、数式上は同じ計算に行き着くからです。
どちらのモデルを選ぶべきか?
- 問題文が「同時に」や「選ぶ」といった組合せを示唆する場合は、組合せモデルを使うのが最も素直で計算も楽です。
- 問題文が「並べる」「順番に」といった順列を示唆する場合は、順列モデルを使うのが自然です。
- どちらでも解ける問題(上記の玉の問題など)では、組合せモデルを推奨します。
6.4. 複合問題への応用
例題2:特定の並び方
男子4人、女子3人の合計7人が一列に並ぶ。このとき、女子3人が隣り合う確率を求めよ。
思考プロセス(順列モデル)
この問題は「並び方」を問うているので、順列モデルが適しています。
- 標本空間 \(n(U)\) の計算:
- 7人が一列に並ぶ総数。
- \(n(U) = 7! = 5040\) 通り。
- 事象A \(n(A)\) の計算:
- 事象A:「女子3人が隣り合う」
- これはモジュール1で学んだ「隣り合う」順列の問題です。
- 女子3人を一つのブロックと見なすと、男子4人とそのブロックの計5つのものの並べ方は \(5!\) 通り。
- ブロック内部での女子3人の並べ方は \(3!\) 通り。
- 積の法則より、\(n(A) = 5! \times 3! = 120 \times 6 = 720\) 通り。
- 確率 \(P(A)\) の計算:\[P(A) = \frac{n(A)}{n(U)} = \frac{5! \times 3!}{7!} = \frac{720}{5040} = \frac{1}{7}\]
この問題のように、確率の計算は、しばしば「確率の皮をかぶった場合の数の問題」となります。確率の定義式に当てはめる前の、\(n(U)\) と \(n(A)\) を正確に計算するプロセスこそが、問題の核心部分であり、そこでは順列と組合せのあらゆる知識が総動員されるのです。
一貫性の原則を守り、問題の構造に応じて適切な計数モデルを選択する。この能力が、確率の問題を安定して解ききるための鍵となります。
7. 独立な事象と積事象の確率(乗法定理)
加法定理が「AまたはB」という和事象を扱ったのに対し、確率論のもう一つの柱となるのが、「AかつB」という積事象 (Intersection of Events) を扱う法則です。特に、一方の事象の発生が、もう一方の事象の発生確率に全く影響を与えない、という特殊な関係にある場合、その確率計算は非常にシンプルになります。このような関係を独立 (Independent) と呼び、この場合に適用されるのが乗法定理 (Multiplication Rule of probability) です。この「独立」という概念は、確率論において極めて重要であり、後の反復試行の確率など、多くの応用理論の基礎となります。
7.1. 独立な事象の概念
【直感的な定義】
2つの事象 A, B が独立であるとは、事象Aが起こるかどうかが、事象Bが起こる確率に影響を与えず、その逆もまた然りである、という関係を指します。
互いの間に、何の原因結果の関係も、情報的な繋がりもないような事象をイメージしてください。
独立な事象の具体例
- 試行: 1個のサイコロと1枚のコインを同時に投げる。
- 事象A:「サイコロで1の目が出る」
- 事象B:「コインで表が出る」
- サイコロの目が1であろうとなかろうと、コインで表が出る確率は1/2で変わりません。逆も同様です。したがって、AとBは独立です。
- 試行: Aさんがくじを引き、そのくじを元に戻してからBさんがくじを引く。
- 事象A:「Aさんが当たりを引く」
- 事象B:「Bさんが当たりを引く」
- Aさんが引いたくじを元に戻すため、Bさんがくじを引くときの条件は、Aさんが引く前と全く同じです。Aさんの結果はBさんの確率に影響を与えません。したがって、AとBは独立です。
独立でない事象(従属な事象)の例
- 試行: 1組のトランプから1枚カードを引き、元に戻さずにもう1枚引く。
- 事象A:「1枚目がハートである」
- 事象B:「2枚目がハートである」
- もし1枚目にハートを引いてしまうと(事象Aが起こると)、山に残るハートの枚数も、全体の枚数も減ってしまいます。そのため、2枚目にハートが出る確率は、1枚目の結果に大きく依存します。したがって、AとBは独立ではありません。このような事象を従属 (Dependent) であると言います。
「排反」と「独立」の混同に注意!
初学者が最も陥りやすい間違いの一つが、「排反」と「独立」の概念を混同することです。この二つは全く異なる概念です。
- 排反: 積事象が空事象 (\(A \cap B = \emptyset\))。同時には起こらない関係。一つの事象が起これば、もう一方は絶対に起こらない。互いに強く影響し合っている(従属)関係の極端な例と言えます。
- 独立: 一方の発生が、他方の確率に影響を与えない関係。両者が同時に起こることは、一般的に可能です。
例えば、サイコロを投げて「1の目が出る」事象と「2の目が出る」事象は排反ですが、独立ではありません(1が出ると分かれば、2が出る確率は1/6から0に変わるため)。
サイコロを投げて「偶数の目が出る」事象とコインを投げて「表が出る」事象は独立ですが、排反ではありません(両方同時に起こりうるため)。
7.2. 積事象の確率と乗法定理
積事象 \(A \cap B\) は、「AかつBがともに起こる」事象でした。
この確率 \(P(A \cap B)\) に関して、事象AとBが独立である場合に、非常に美しい法則が成り立ちます。
【独立事象に対する乗法定理】
2つの事象 A, B が互いに独立であるとき、
\[
P(A \cap B) = P(A) \times P(B)
\]
が成り立つ。
この定理は、「AとBが両方起こる確率」は、単純に「Aの確率」と「Bの確率」を掛け合わせるだけで計算できることを意味します。これは、場合の数の世界における「積の法則」の確率版と見なすことができます。
乗法定理からの独立の数学的定義
実は、この乗法定理の式こそが、「独立」の厳密な数学的定義となります。
【独立の数学的定義】
2つの事象 A, B について、\(P(A \cap B) = P(A)P(B)\) が成り立つとき、AとBは互いに独立であるという。
直感的な定義(影響を与えない)と、この数学的な定義は、基本的には同じことを指していますが、厳密な議論ではこちらの数式定義が用いられます。
7.3. 乗法定理の応用
例題1:サイコロとコイン
1個の公正なサイコロと1枚の公正なコインを同時に投げるとき、「サイコロの目が偶数で、かつコインが表である」確率を求めよ。
- 事象A:「サイコロの目が偶数である」\(A={2, 4, 6}\) なので、\(P(A) = 3/6 = 1/2\)。
- 事象B:「コインが表である」\(P(B) = 1/2\)。
- サイコロの結果とコインの結果は互いに影響しないので、事象AとBは独立である。
- したがって、乗法定理より、求める確率は\(P(A \cap B) = P(A) \times P(B) = \frac{1}{2} \times \frac{1}{2} = \frac{1}{4}\)
直接計算による検証
- 標本空間 \(U\) は、(1,H), (1,T), (2,H), …, (6,T) の12個の根元事象からなる。\(n(U)=12\)。
- 事象 \(A \cap B\) は、「(偶数, 表)」なので、(2,H), (4,H), (6,H) の3通り。\(n(A \cap B)=3\)。
- 確率 = \(\frac{3}{12} = \frac{1}{4}\)。
- 結果は一致し、乗法定理の正しさが確認できます。
例題2:くじを元に戻す
当たりが2本、はずれが8本の計10本入っているくじがある。Aさんが1本引き、それを元に戻してからBさんが1本引く。このとき、AさんもBさんも当たりを引く確率を求めよ。
- 事象A:「Aさんが当たりを引く」\(P(A) = \frac{2}{10} = \frac{1}{5}\)。
- 事象B:「Bさんが当たりを引く」くじを元に戻すため、Bさんが引くときも条件は同じ。\(P(B) = \frac{2}{10} = \frac{1}{5}\)。
- くじを元に戻すので、Aさんの結果はBさんの確率に影響を与えない。AとBは独立である。
- 乗法定理より、\(P(A \cap B) = P(A) \times P(B) = \frac{1}{5} \times \frac{1}{5} = \frac{1}{25}\)
7.4. 3つ以上の独立事象
乗法定理は、3つ以上の互いに独立な事象にも拡張できます。
事象 \(A_1, A_2, \dots, A_k\) が互いに独立(どの事象の組も独立)であるとき、
\[
P(A_1 \cap A_2 \cap \cdots \cap A_k) = P(A_1) \times P(A_2) \times \cdots \times P(A_k)
\]
が成り立ちます。
「独立」の概念とそれに基づく乗法定理は、複数の確率的プロセスが連動する複雑な現象を、個々の単純なプロセスの確率の積として分解して分析することを可能にします。この強力な分解能が、確率論の応用範囲を飛躍的に広げているのです。次のセクションでは、この考え方を「試行」そのものへと拡張していきます。
8. 試行の独立
前セクションでは、同じ一つの試行から生じる二つの「事象」が独立である、という概念を学びました。これは、ある結果(例えば「偶数の目」)が出たという情報が、別の結果(例えば「3以下の目」)の確率に影響を与えるかどうか、というミクロな視点での関係性でした。しかし、確率の問題では、しばしば「サイコロを5回投げる」「コインを10回投げる」のように、試行そのものを複数回繰り返す状況が登場します。このとき、各回の試行が互いに影響を及ぼしあわない関係にあることを試行の独立 (Independence of Trials) と呼びます。この概念は、事象の独立をよりマクロな視点で捉え直したものであり、反復試行の確率を理解するための不可欠な前提となります。
8.1. 独立な試行とは
【定義】
複数の試行(試行\(T_1\), 試行\(T_2\), …)があるとき、それらが独立であるとは、ある試行の結果が、他のどの試行の結果の確率にも一切影響を与えないことをいう。
言い換えれば、各試行が、完全に隔離された別の世界で行われているかのように、互いに干渉しない状況を指します。
独立な試行の具体例
- サイコロの反復: 1個のサイコロを3回投げる。1回目の試行、2回目の試行、3回目の試行は、互いに独立です。1回目に6の目が出たからといって、2回目に6が出やすくなったり、出にくくなったりすることはありません。
- 異なる対象への操作: A君がサイコロを投げ、Bさんがコインを投げる。A君の試行とBさんの試行は独立です。
- 復元抽出: 袋の中から玉を1個取り出し、その色を記録して袋に戻す。この操作を繰り返す場合、各回の玉を取り出す試行は独立です。毎回、袋の中の状態がリセットされるため、前の結果が次の確率に影響しません。
独立でない試行(従属な試行)の例
- 非復元抽出: 袋の中から玉を1個取り出し、それを袋に戻さないで、次の玉を取り出す。この場合、1回目の試行の結果(どの色の玉が取り除かれたか)によって、2回目の試行で各色の玉が取り出される確率は変動します。したがって、これらの試行は独立ではありません(従属です)。
大学受験の多くの問題では、特に断りがない限り、反復される試行は独立であると仮定して問題ありません。「サイコロをn回投げる」とあれば、それは「n回の独立な試行を行う」と読み替えて差し支えないでしょう。
8.2. 独立な試行と確率の計算
複数の独立な試行を連続して行うとき、それぞれの試行で特定の事象が起こる確率は、乗法定理を用いて計算できます。これは、事象の独立の考え方を、試行の連なりへと素直に拡張したものです。
思考プロセス
試行\(T_1\)と試行\(T_2\)が独立であるとします。
- 試行\(T_1\)で事象Aが起こる確率を \(P(A)\)
- 試行\(T_2\)で事象Bが起こる確率を \(P(B)\)とします。
このとき、「試行\(T_1\)で事象Aが起こり、かつ、試行\(T_2\)で事象Bが起こる」という複合的な事象の確率は、
\[
P(A \text{ and } B) = P(A) \times P(B)
\]
と、それぞれの確率の積で表すことができます。
例題1:サイコロの連続
1個のサイコロを2回続けて投げる。1回目に1の目が出て、2回目に偶数の目が出る確率を求めよ。
- 試行1: 1回目の投擲。ここで事象A「1の目が出る」が起こる。\(P(A) = 1/6\)。
- 試行2: 2回目の投擲。ここで事象B「偶数の目が出る」が起こる。\(P(B) = 3/6 = 1/2\)。
- 2回の投擲は独立な試行です。
- したがって、求める確率は乗法定理により、\(P(A \text{ and } B) = P(A) \times P(B) = \frac{1}{6} \times \frac{1}{2} = \frac{1}{12}\)
直接計算による検証
- 標本空間 \(U\) は、(1,1), (1,2), …, (6,6) の \(6 \times 6 = 36\) 通り。
- 注目する事象は、「1回目が1で、2回目が偶数」なので、(1,2), (1,4), (1,6) の3通り。
- 確率 = \(\frac{3}{36} = \frac{1}{12}\)。
- 結果は一致します。
例題2:A, B, C の成功確率
A, B, C の3人が、それぞれ確率 \(\frac{1}{2}, \frac{1}{3}, \frac{1}{4}\) で的に当てる。3人が同時に矢を射るとき、3人とも的に当てる確率を求めよ。
- A, B, C それぞれの試行は、互いに独立であると考えるのが自然です。
- 事象A:「Aが当てる」, \(P(A)=1/2\)
- 事象B:「Bが当てる」, \(P(B)=1/3\)
- 事象C:「Cが当てる」, \(P(C)=1/4\)
- 3つの試行は独立なので、3事象の乗法定理を適用できます。
- 求める確率は、\(P(A \cap B \cap C) = P(A) \times P(B) \times P(C) = \frac{1}{2} \times \frac{1}{3} \times \frac{1}{4} = \frac{1}{24}\)
8.3. 独立な試行と余事象の組み合わせ
独立な試行の確率と、余事象の確率の考え方を組み合わせると、非常に強力な問題解決ツールとなります。特に「少なくとも1回は〜」というタイプの問題で有効です。
例題3:少なくとも1回は当たる
例題2の状況で、「少なくとも1人は的に当てる」確率を求めよ。
思考プロセス(余事象を利用)
- 事象A: 「少なくとも1人は当てる」
- 余事象 \(\bar{A}\): 「1人も当てない」 = 「Aもはずれ、かつBもはずれ、かつCもはずれる」
- 余事象の確率 \(P(\bar{A})\) を計算する:
- Aがはずれる確率 \(P(\bar{A}_A) = 1 – P(A) = 1 – 1/2 = 1/2\)。
- Bがはずれる確率 \(P(\bar{A}_B) = 1 – P(B) = 1 – 1/3 = 2/3\)。
- Cがはずれる確率 \(P(\bar{A}_C) = 1 – P(C) = 1 – 1/4 = 3/4\)。
- 3人の試行は独立なので、「全員がはずれる」確率は、これらの確率の積で計算できます。\(P(\bar{A}) = P(\bar{A}_A) \times P(\bar{A}_B) \times P(\bar{A}_C) = \frac{1}{2} \times \frac{2}{3} \times \frac{3}{4} = \frac{6}{24} = \frac{1}{4}\)
- 公式を適用する:\(P(A) = 1 – P(\bar{A}) = 1 – \frac{1}{4} = \frac{3}{4}\)
答えは \(\frac{3}{4}\) となります。これを直接計算しようとすると、「1人だけ当たる」「2人だけ当たる」「3人とも当たる」という3つの排反なケースに場合分けし、それぞれを計算して足し合わせる必要があり、非常に複雑になります。
「試行の独立」は、確率的な世界で起こる出来事を、時間軸に沿ったり、あるいは異なる主体ごとだったりに、きれいに「分解」して考えることを可能にするための基本原則です。そして、分解された個々の確率を再び「結合」させるための接着剤が、乗法定理なのです。この「分解と結合」の思考法が、次セクションで学ぶ反復試行の確率の核心となります。
9. 反復試行の確率
確率論の中でも、極めて応用範囲が広く、実践的な価値が高いのが反復試行の確率の理論です。これは、**「同じ条件で、独立に、何回か繰り返される試行」において、特定の事象が「ちょうど何回起こるか」**を計算するための、洗練された公式です。例えば、「サイコロを10回投げて、1の目がちょうど3回出る確率」や、「ある打者が5打席に立ったとき、ちょうど2回ヒットを打つ確率」といった、具体的なシナリオの確率を算出できます。この理論は、これまでに学んだ「独立な試行」「乗法定理」「組合せ」の三つの概念が、一つの美しい公式へと結晶したものです。
9.1. 反復試行の定義
ある試行が反復試行 (Repeated Trials / Bernoulli Trials) であると見なされるためには、以下の3つの条件を満たす必要があります。
- 独立性: 各回の試行は互いに独立である。前の試行の結果が、後の試行の確率に影響を与えない。
- 二値性: 各回の試行の結果は、我々の関心のある事象Aが**「起こる(成功)」か「起こらない(失敗)」**かの2通りに分類できる。
- 定常性: 事象Aが起こる確率 \(p\) は、どの回の試行においても一定である。それに伴い、事象Aが起こらない確率も \(1-p\) で一定である。
この3つの条件を満たすとき、その一連の試行は反復試行となります。
9.2. 反復試行の確率の公式の導出
「\(n\) 回の独立な試行を行い、1回あたりの成功確率が \(p\) であるとき、ちょうど \(k\) 回成功する確率」を求めてみましょう。この確率を \(P(k)\) と書くことにします。
思考プロセス
- ステップ1:特定のパターンの確率を計算するまず、\(n\) 回の試行のうち、最初の \(k\) 回が連続で成功し、残りの \((n-k)\) 回が連続で失敗するという、特定の具体的なパターンを考えてみましょう。[ S, S, …, S ] (\(k\) 回) [ F, F, …, F ] (\((n-k)\) 回)(Sは成功(Success)、Fは失敗(Failure))
- 1回目の試行で成功する確率:\(p\)
- 2回目の試行で成功する確率:\(p\)
- …
- \(k\) 回目の試行で成功する確率:\(p\)
- \((k+1)\) 回目の試行で失敗する確率:\(1-p\)
- …
- \(n\) 回目の試行で失敗する確率:\(1-p\)
- ステップ2:パターンの総数を数え上げる次に考えるべきは、「\(n\) 回の試行のうち、成功が \(k\) 回、失敗が \((n-k)\) 回起こるパターンは、全部で何通りあるか?」ということです。ステップ1で考えたのは、SS…SFF…F という、ほんの一つのパターンに過ぎません。SFS… のように、成功と失敗が入り混じるパターンも多数存在します。このパターンの総数を数える問題は、「\(n\) 個の試行のポジション(1回目, 2回目, …, n回目)の中から、成功を配置する \(k\) 個のポジションを選ぶ組合せ」の問題と完全に等価です。その総数は、組合せの公式から \({n}\mathrm{C}{k}\) 通りとなります。
- ステップ3:確率とパターン数を掛け合わせるステップ2で数え上げた \({n}\mathrm{C}{k}\) 通りのパターンのそれぞれは、成功が \(k\) 回、失敗が \((n-k)\) 回という構成は同じなので、その発生確率は、ステップ1で計算したように、すべて等しく \(p^k (1-p)^{n-k}\) となります。そして、これらの各パターンは互いに排反です(例えば、
SSFF
という結果とSFSF
という結果は同時に起こり得ません)。したがって、求める確率 \(P(k)\) は、これら \({n}\mathrm{C}{k}\) 個の排反な事象の確率の和となります(排反事象に対する加法定理)。\[P(k) = \underbrace{p^k(1-p)^{n-k} + p^k(1-p)^{n-k} + \cdots + p^k(1-p)^{n-k}}_{_n\mathrm{C}_k \text{個}}\]\[= {_n\mathrm{C}_k} \cdot p^k (1-p)^{n-k}\]
【反復試行の確率の公式】
1回の試行で事象Aが起こる確率が \(p\) であるとき、この試行を \(n\) 回繰り返す。このとき、事象Aがちょうど \(k\) 回起こる確率は、
\[
P(k) = {_n\mathrm{C}_k} p^k (1-p)^{n-k} \quad (\text{ただし } k=0, 1, 2, \dots, n)
\]
この公式は、3つの要素から構成されていることを理解するのが重要です。
- \(_{n}\mathrm{C}_k\): 成功する「タイミング」の選び方(組合せ)
- \(p^k\): \(k\) 回の成功が起こる確率(乗法定理)
- (1-p)^{n-k}: \((n-k)\) 回の失敗が起こる確率(乗法定理)
9.3. 公式の応用
例題1:サイコロの特定の目
1個のサイコロを5回投げるとき、1の目がちょうど2回出る確率を求めよ。
思考プロセス
- 反復試行の条件を確認:
- 各回の投擲は独立 → OK
- 結果は「1の目が出る(成功)」か「それ以外(失敗)」の2通りに分類できる → OK
- 成功確率 \(p\) は常に一定 → OKこれは反復試行の問題である。
- パラメータを特定:
- 試行回数: \(n=5\)
- 成功回数: \(k=2\)
- 1回あたりの成功確率: \(p = 1/6\)
- 1回あたりの失敗確率: \(1-p = 5/6\)
- 公式に代入:\[P(2) = {_5\mathrm{C}_2} \left(\frac{1}{6}\right)^2 \left(\frac{5}{6}\right)^{5-2}\]\[= {_5\mathrm{C}_2} \left(\frac{1}{6}\right)^2 \left(\frac{5}{6}\right)^3\]\[= 10 \cdot \frac{1}{36} \cdot \frac{125}{216} = \frac{1250}{7776} = \frac{625}{3888}\]
例題2:「少なくとも」との組み合わせ
ある製品の不良品率は3%である。この製品を10個無作為に抽出するとき、少なくとも1個が不良品である確率を求めよ。(小数点以下4桁を四捨五入)
思考プロセス
「少なくとも1個」なので、余事象(1個も不良品でない=すべて良品)を考える。
- 事象A: 「少なくとも1個が不良品」
- 余事象 \(\bar{A}\): 「10個すべてが良品」=「不良品がちょうど0回出る」
- 余事象の確率 \(P(\bar{A})\) を反復試行で計算:
- 試行回数: \(n=10\)
- 注目する事象(成功):不良品であること
- 成功回数: \(k=0\)
- 成功確率: \(p = 0.03\)
- 失敗確率(良品である確率): \(1-p = 0.97\)
- 全体の確率から引く:\[P(A) = 1 – P(\bar{A}) \approx 1 – 0.7374 = 0.2626\]答えは、約 0.263 となる。
反復試行の確率は、確率論の中でも特に強力な応用ツールです。その公式の導出過程(特定のパターンの確率 × パターンの総数)をしっかりと理解しておくことで、単なる暗記に頼らない、柔軟な応用力を身につけることができます。
10. 期待値の計算
これまでの確率論では、「ある事象が起こるか、起こらないか」や「その確率はどのくらいか」といった、事象の発生そのものに焦点を当ててきました。しかし、確率が関わる多くの現実的な状況、特にゲームや投資、保険といった分野では、単に起こる確率だけでなく、「その結果として、平均してどれくらいの『価値』が得られるのか」を知ることが極めて重要になります。この「結果の価値の平均」を数学的に表現したものが期待値 (Expected Value) です。期待値は、確率的な試行の結果を、一つの数値で要約し、その試行の魅力を客観的に評価するための強力な指標となります。
10.1. 期待値の定義
【直感的な定義】
期待値とは、ある試行を非常に多数回繰り返したときに得られる結果の、1回あたりの平均値のことです。
例えば、サイコロを6000回投げたとします。各目は約1000回ずつ出ると期待されます。もし、出た目の数だけ得点が得られるとすれば、総得点は
\(1 \times 1000 + 2 \times 1000 + \cdots + 6 \times 1000 = (1+2+3+4+5+6) \times 1000 = 21000\)
となると期待されます。
1回あたりの平均得点は、\(21000 / 6000 = 3.5\) 点です。この3.5点が、サイコロの目の期待値です。
この直感的な考え方を、数学的に厳密に定式化しましょう。
ある試行の結果として、ある量(確率変数 \(X\) と呼ばれます)が、\(x_1, x_2, \dots, x_n\) という値のいずれかをとるとします。そして、それぞれの値をとる確率が \(p_1, p_2, \dots, p_n\) であるとします。(ただし、\(p_1+p_2+\cdots+p_n=1\))
このとき、確率変数 \(X\) の期待値 \(E(X)\) は、「各々の値」とその「値をとる確率」を掛け合わせたものの総和として定義されます。
【期待値の公式】
\[
E(X) = x_1 p_1 + x_2 p_2 + \cdots + x_n p_n = \sum_{i=1}^{n} x_i p_i
\]
この式は、各結果の価値 \(x_i\) を、その発生確率 \(p_i\) で重み付けして平均をとっている、と解釈できます。これが加重平均の考え方です。
サイコロの目の例(再訪)
- 確率変数 \(X\): サイコロの目
- 値と確率:
- \(x_1=1, p_1=1/6\)
- \(x_2=2, p_2=1/6\)
- …
- \(x_6=6, p_6=1/6\)
- 期待値の計算:\[E(X) = 1 \cdot \frac{1}{6} + 2 \cdot \frac{1}{6} + 3 \cdot \frac{1}{6} + 4 \cdot \frac{1}{6} + 5 \cdot \frac{1}{6} + 6 \cdot \frac{1}{6}\]\[= \frac{1+2+3+4+5+6}{6} = \frac{21}{6} = 3.5\]となり、直感的な計算と一致します。重要な注意点として、期待値の値(3.5)は、必ずしも試行で実際に取りうる値(1〜6の整数)であるとは限りません。
10.2. 期待値の計算の実践
例題1:くじ引きの期待値
100本の中に、1等1000円が1本、2等100円が5本、3等10円が20本入っているくじがある。このくじを1本引くとき、得られる賞金の期待値を求めよ。
思考プロセス
- 確率変数と確率分布を整理する:
- 確率変数 \(X\): 得られる賞金
- 値と確率のリスト(確率分布表)を作成する:| 賞金 (\(x_i\)) | 本数 | 確率 (\(p_i\)) || :— | :— | :— || 1000円 | 1本 | \(1/100\) || 100円 | 5本 | \(5/100\) || 10円 | 20本 | \(20/100\) || 0円(はずれ)| 74本 | \(74/100\) || 合計 | 100本 | 1 |
- 期待値の公式を適用する:\[E(X) = (1000 \times \frac{1}{100}) + (100 \times \frac{5}{100}) + (10 \times \frac{20}{100}) + (0 \times \frac{74}{100})\]\[= \frac{1000}{100} + \frac{500}{100} + \frac{200}{100} + 0\]\[= 10 + 5 + 2 = 17\]答えは 17円 となります。これは、「もしこのくじを非常に多くの人が引いたなら、主催者は1人あたり平均17円の賞金を支払うことになる」と解釈できます。もし、くじの値段が17円より高ければ、主催者は儲かり、17円より安ければ損をすることになります。
10.3. 期待値の加法性(参考)
期待値には、非常に便利で強力な性質があります。それは期待値の加法性です。
2つの確率変数 \(X, Y\) があるとき、それらの和の期待値は、それぞれの期待値の和に等しくなります。
\[
E(X+Y) = E(X) + E(Y)
\]
驚くべきことに、この性質は \(X\) と \(Y\) が独立であろうと、従属であろうと、常に成り立ちます。
例題2:2つのサイコロの目の和の期待値
大小2つのサイコロを投げるとき、出る目の和の期待値を求めよ。
- \(X\): 大きいサイコロの目。\(E(X) = 3.5\)
- \(Y\): 小さいサイコロの目。\(E(Y) = 3.5\)
- 求めるのは、\(X+Y\) の期待値 \(E(X+Y)\) です。
- 期待値の加法性より、\(E(X+Y) = E(X) + E(Y) = 3.5 + 3.5 = 7\)答えは 7 となります。
これを直接計算しようとすると、目の和が2になる確率、3になる確率、…、12になる確率をすべて計算し、期待値の定義式に当てはめる必要があり、非常に手間がかかります。加法性を知っていると、一瞬で答えが導き出せます。
反復試行の期待値
期待値の加法性を応用すると、反復試行の期待値に関する非常にシンプルな公式を導けます。
1回の試行で確率 \(p\) で成功するとき、\(n\) 回の反復試行における成功回数の期待値は、
\[
E = np
\]
となります。
これは、1回あたりの成功回数の期待値が \(1 \cdot p + 0 \cdot (1-p) = p\) であり、\(n\) 回の独立な試行の和であることから、加法性により \(E = p+p+\cdots+p = np\) となるためです。
期待値は、確率的な世界のリターンを一つの数値に集約する強力な概念です。それは、ゲームの公平性を判断したり、保険料を算定したり、投資戦略を評価したりと、我々の社会の様々な意思決定の場面で、合理的な判断を下すための数学的な羅針盤として機能しているのです。
Module 3:確率(1) 確率の基本性質の総括:不確実性を定量化する言語
本モジュールを通じて、我々は「場合の数」という確定的な世界の探求から、偶然性と不確実性に満ちた「確率」の世界へと、知的な冒険の舞台を移しました。その第一歩は、曖昧な日常言語を、「試行」「事象」「標本空間」といった、集合論に基づく厳密な数学言語へと翻訳することから始まりました。この言語体系の確立が、捉えどころのない「偶然」という現象を、論理的な分析の俎上に乗せることを可能にしたのです。
確率の核心的な定義は、「同様に確からしい」という理想化された前提の下で、確率を「場合の数の比率」として捉えることでした。この定義 P(A) = n(A) / n(U)
は、確率計算を、我々が既に習熟した順列・組合せの技術へと直結させる、強力な架け橋となりました。
そして、我々は確率の世界を支配する二つの基本法則を学びました。一つは「和事象」を扱う加法定理であり、事象間に重なりがない「排反」の場合には単純な和で計算できること、そして「少なくとも〜」という難問を鮮やかに解決する「余事象」という戦略的思考法へと繋がっていきました。もう一つは「積事象」を扱う乗法定理であり、事象や試行が互いに影響を与えない「独立」という極めて重要な概念を導入し、複数の確率的プロセスを結合させるための基本原理を確立しました。
これらの基本法則と概念は、「反復試行の確率」という応用理論において、nCk * p^k * (1-p)^(n-k)
という一つの美しい公式へと統合されました。そこには、成功の「タイミングを選ぶ」組合せ、成功を「掛け合わせる」乗法定理、そして異なるパターンを「足し合わせる」排反事象の考え方が、見事に凝縮されています。最後に学んだ「期待値」は、確率的な試行がもたらす価値の平均を定量化する指標であり、不確実な未来に対する合理的な意思決定の礎となるものです。
このモジュールで我々が手に入れたのは、単なる公式の寄せ集めではありません。それは、不確実性を数学の言葉で正確に記述し、その振る舞いを基本法則に基づいて論理的に予測するための、「不確実性を定量化する言語」そのものです。この言語を自在に操る能力は、次なる「条件付き確率」という、より深く、より複雑な確率の世界を探求するための、揺るぎない土台となることでしょう。