У теорії ймовірностей дві випадкові події називаються незалежними, якщо настання однієї з них не змінює імовірність настання іншої. Аналогічно, дві випадкові величини називають незалежними якщо значення однієї з них не впливає на розподіл значень іншої[1].
Вважатимемо, що дано фіксований ймовірнісний простір
.
Означення 1. Дві події
називають незалежними, якщо
.
Зауваження 1. В тому випадку, якщо ймовірність однієї події, скажімо
, ненульова, тобто
, визначення незалежності еквівалентне:
,
тобто умовна ймовірність події
за умови
дорівнює безумовній імовірності події
.
Означення 2. Нехай є сімейство (скінченне або нескінченне) випадкових подій
, де
— довільна індексна множина. Тоді ці події є попарно незалежними, якщо будь-які дві події з цього сімейства незалежні, тобто
.
Означення 3. Нехай є сімейство (скінчене або нескінчене) випадкових подій
. Тоді ці події сукупно незалежні, якщо для будь-якого кінцевого набору цих подій
вірно:
.
Приклад 1. Монета кидається двічі. Ймовірність появи герба в першому випробуванні не залежить від появи чи відсутності герба в другому випробуванні. В свою чергу, ймовірність того, що герб випаде в другому випробуванні не залежить від результатів першого випробування. Отже, події А — «поява герба в першому випробуванні» і В — «поява герба в другому випробуванні» — незалежні.
Приклад 2. В урні 5 білих і 4 чорних кульки. Із неї навмання беруть кульку. Ймовірність появи білої кульки (подія А) дорівнює
. Взяту кульку повертають в урну і продовжують випробування. Ймовірність появи білої кульки при другому випробуванні (подія В), також дорівнює
. В свою чергу, ймовірність витягти білу кульку при першому випробуванні, не залежить від другого випробування. Отже, події А і В — незалежні.
Приклад 3. Хай кинуто три урівноважені монети. Визначимо події таким чином:
: монети 1 і 2 впали однією і тією ж стороною;
: монети 2 і 3 впали однією і тією ж стороною;
: монети 1 і 3 впали однією і тією ж стороною;
залежні, бо знаючи, наприклад, що події
сталися, ми знаємо точно, що
також сталося.
Те що три і більше події попарно незалежні, не означає, що вони незалежні в сукупності. Дивіться приклад Бернштейна.
Незалежні σ-алгебри
Означення 4. Нехай
дві сигма-алгебри на одному і тому ж ймовірнісному просторі. Вони називаються незалежними, якщо будь-які їх представники незалежні між собою, тобто:
.
Якщо замість двох є ціле сімейство (можливо нескінчене) сигма-алгебр, то для нього визначається попарна і спільна незалежність очевидним чином.
Спадкова незалежність
Теорема про спадковість незалежності випадкових величин. Якщо
та
- незалежні випадкові величини, а
- незалежні, невипадкові функції, які визначені на області можливих значень
та
відповідно, то
та
- незалежні випадкові величини.
- Нехай
- розподіл випадкового вектора
,
- розподіл
і
- розподіл
. Тоді
незалежними тоді і лише тоді, коли
,
де
позначає (прямий) добуток мір;
- Нехай
- кумулятивні функції розподілу
відповідно. Тоді
незалежні тоді і лише тоді, коли
;
- Нехай випадкові величини
дискретні. Тоді вони незалежні тоді і лише тоді, коли
.
- Нехай випадкові величини
спільно абсолютно безперервні тобто їх спільний розподіл має щільність
. Тоді вони незалежні тоді і лише тоді, коли
,
де
- щільність випадкових величин
і
відповідно.
Див. також
Джерела
Примітки
- ↑ Сеньо П. С. Теорія ймовірностей та математична статистика: Підручник. — 2-ге вид., перероб. і доп. — К.: Знання, 2007. — С. 291.
- ↑ Patrick Billingsley — Probability and Measure. Second edition. (New York: John Wiley and Sons, 1986). MR 80h:60001.