Найдем энтропию сложного опыта %%α \wedge β%% в том случае, если опыты не являются независимыми, т.е. если на исход β оказывает влияние результат опыта α. Например, если в ящике всего два разноцветных шара и α состоит в извлечении первого, а %%β%% - второго из них, то а полностью снимает неопределенность сложного опыта %%α \wedge β%%, т.е. оказывается
%%Н(α \wedge β) = H(α)%%, a не сумме энтропии, как следует из (2.5).
Связь между %%α%% и %%β%% состоит в том, что какие-то из исходов %%A(α)%% могут оказывать влияние на исходы из %%В(β)%%, т.е. некоторые пары событий %%A_i \wedge B_j%% не являются независимыми. Но тогда в (2.6) %%p(A_i \wedge B_j)%% не следует заменять произведением вероятностей:
$$p(A_i \wedge B_j)=p(A_i)\cdot p_{A_i}(B_j)$$
где - %%p_{A_i}(B_j)%% вероятность наступления исхода %%В%%, при условии, что в первом опыте имел место исход %%А_i%%.
Тогда %%log_2 p(A_i \wedge B_j) = log_2 p(A_i)+log_2 p_{A_i}(B_j)%%
При подстановке в (2.6) получаем:
$$ H(α \wedge β) = -\sum^{n}_{i=1}\sum^{m}_{j=1}{p(A_i)p_{A_i}(B_j)\cdot (log_2 p(A_i)+log_2 p_{A_i}(B_j))}=$$ $$=-\sum^{n}_{i=1}\sum^{m}_{j=1}{p(A_i)p_{A_i}(B_j)\cdot log_2 p(A_i)} -\sum^{n}_{i=1}\sum^{m}_{j=1}{p(A_i)p_{A_i}(B_j)\cdot log_2 p_{A_i}(B_j)} $$
В первом слагаемом индекс %%j%% имеется только у %%B%%; изменив порядок суммирования, получим члены вида:
$$\sum^{m}_{j=1}{p_{A_i}(B_j)}$$ Однако,
$$\sum^{m}_{j=1}{p_{A_i}(B_j)} = p_{A_i}(B_j) (\sum^{m}_{j=1}{B_j})$$
образует достоверное событие (какой-либо из исходов опыта β все равно реализуется). Следовательно, первое слагаемое оказывается равным:
$$-\sum^{n}_{i=1}{p_{A_i}(B_j)log_2 p_{A_i}(B_j)}= Н_{A_i}(α)$$
Во втором слагаемом члены вида
$$\sum^{m}_{j=1}{p_{A_i}(B_j)log_2 p_{A_i}(B_j)}= Н_{A_i}(β)~~~(2.8)$$
имеют смысл энтропии опыта %%β%% при условии, что в опыте %%α%% реализовался исход %%А_i%% - будем называть ее условной энтропией. Если ввести данное понятие и использовать его обозначение, то второе слагаемое будет иметь вид:
$$\sum^{n}_{i=1}{p_{A_i} \cdot Н_{A_i}(β)} = Н_α (β)~~~~~~~(2.9)$$
где %%H_α(β)%% есть средняя условная энтропия опыта %%β%% при условии выполнении опыта %%α%%. Окончательно получаем для энтропии сложного опыта:
$$ Н(α \wedge β) = Н(α)+Н_α (β)~~~~~~~(2.10)$$
Полученное выражение представляет собой общее правило нахождения энтропии сложного опыта. Совершенно очевидно, что выражение (2.5) является частным случаем (2.10) при условии независимости опытов α и β.
Относительно условной энтропии можно высказать следующие утверждения:
Приведенные утверждения можно объединить одним неравенством:
$$0 \leqslant Н_α (β) \leqslant Н (β)~~~~(2.11)$$
т.е. условная энтропия не превосходит безусловную.
3. Из соотношений (2.10) и (2.11) следует, что
$$Н(α \wedge β) \leqslant Н(α) +H( β)$$
причем равенство реализуется только в том случае, если опыты %%α%% и %%β%% независимы.
Пример. Имеется три тела с одинаковыми внешними размерами, но с разными массами %%х_1, х_2 и х_3%%. Необходимо определить энтропию, связанную с нахождением наиболее тяжелого из них, если сравнивать веса тел можно только попарно.
Последовательность действий достаточно очевидна: сравниваем вес двух любых тел, определяем из них более тяжелое, затем с ним сравниваем вес третьего тела и выбираем наибольший из них. Поскольку внешне тела неразличимы, выбор номеров тел при взвешивании будет случаен, однако общий результат от этого выбора не зависит. Пусть опыт ее состоит в сравнении веса двух тел, например, 1-го и 2-го. Этот опыт, очевидно, может иметь два исхода: %%А_1 – х_1 > х_2%%; его вероятность %%р(А_1) = 1/2%%; исход %%А_2 - x_1 < х_2%%; также его вероятность %%р(А_2) = 1/2%%.
$$Н(α)=-\frac{1}{2} log_2 \frac{1}{2}--\frac{1}{2} log_2 \frac{1}{2}=1 \;бит$$
Опыт %%β%% - сравнение весов тела, выбранного в опыте %%α%%, и 3-го - имеет четыре исхода: %%B_1, - х_1 > х_3, B_2 – х_1 < х_3, B_3 - х_2 > х_3, В_4 - х_2 < х_3;%% вероятности исходов зависят от реализовавшегося исхода %%α%% - для удобства представим их в виде таблицы:
- | %%B_1%% | %%B_2%% | %%B_3%% | %%B_4%% |
%%A_1%% | %%\frac{1}{2}%% | %%\frac{1}{2}%% | 0 | 0 |
%%A_1%% | 0 | 0 | %%\frac{1}{2}%% | %%\frac{1}{2}%% |
Вновь, воспользовавшись формулами (2.8) и (2.9) находим:
$$Н_{A_1}(β)=-\frac{1}{2} log_2 \frac{1}{2}--\frac{1}{2} log_2 \frac{1}{2}=1 \;бит$$ $$Н_{A_2}(β)=-\frac{1}{2} log_2 \frac{1}{2}--\frac{1}{2} log_2 \frac{1}{2}=1 \;бит$$ $$Н_α(β)=p(A_1)\cdot Н_{A_1}(β) + p(A_2)\cdot Н_{A_2}(β)=\frac{1}{2}\cdot 1+ \frac{1}{2} \cdot 1=1\; бит$$
Следовательно, энтропия сложного опыта, т.е. всей процедуры испытаний:
$$Н(α \wedge β) = Н(α) +H_α( β)=2\;бит$$
Свойства энтропии | Энтропия и информация |