1) Как следует из (2.4), Н = 0 только в двух случаях:
2) Очевидным следствием (2.1) будет утверждение, что для двух независимых опытов α и β
$$ H(α \wedge β) H(α)+H(β)~~~~(2.5)$$
Энтропия сложного опыта, состоящего из нескольких независимых, равна сумме энтропии отдельных опытов.
В справедливости (2.5) можно убедиться непосредственно.
Пусть опыт %%α%% имеет %%n%% исходов %%A_1, A_2, … A_n%%, которые реализуются с вероятностями %%p(A_1), p(A_2), ... p(A_n)%%, а событие %%β%% - %%m%% исходов %%B_1, B_2, ... B_m%% с вероятностями %%р(В_1), р(В_2), ... р(В_m)%%. Сложный опыт %%α \wedge β%% имеет %%n\cdot m%% исходов типа %%A_iB_j (i = 1... n, j = 1... m)%%. Следовательно:
$$H(α \wedge β)=-\sum^{n}_{i=1}\sum^{m}_{j=1}{p(A_i\wedge B_j)\cdot log_2 p(A_i\wedge B_j)}~~~(2.6)$$
Поскольку %%α%% и %%β%% - независимы, то независимыми окажутся события в любой паре %%A_i\wedge B_j%%. Тогда
$$p(A_i\wedge B_j)=p(A_i)\cdot p(B_j)%% и %%log_2 p(A_i\wedge B_j) = \\ log_2 p(A_i)+log_2 p(B_j)$$
$$H(α \wedge β)=-\sum^{n}_{i=1}\sum^{m}_{j=1}{p(A_i)p(B_j)}\cdot(log_2 p(A_i)+log_2 p(B_j))=\\ =-\sum^{n}_{i=1}\sum^{m}_{j=1}{p(A_i)p(B_j)log_2 p(A_i)}-\sum^{n}_{i=1}\sum^{m}_{j=1}{p(A_i)p(B_j)log_2 p(B_j)}= $$
$$=- \sum^{n}_{i=1}{p(A_i)\cdot log_2 p(A_i)}\sum^{m}_{j=1}{p(B_j)}-\sum^{m}_{j=1}{p(B_j)\cdot log_2 p(B_j)}\sum^{n}_{1=1}{p(A_i)}$$
В слагаемых произведено изменение порядка суммирования в соответствии со значениями индексов. Далее имеем по условию нормировки:
$$\sum^{n}_{i=1}{p(A_i)} = 1%% и %%sum^{m}_{j=1}{p(B_j)}=1$$
а из (2.4)
$$-\sum^{n}_{i=1}{p(A_i)\cdot log_2 p(A_i)}=H(α)%% и %%-\sum^{m}_{j=1}{p(B_j)\cdot log_2 p(B_j)}= H(β)$$
окончательно имеем:
$$H(α \wedge β)=H(α)+H(β)$$
что и требовалось доказать.
Теперь рассмотрим ситуацию, когда имеются два опыта с одинаковым числом исходов n, но в одном случае они равновероятны, а в другом - нет. Каково соотношение энтропии опытов? Примем без доказательства следующее утверждение:
$$-\sum^{n}_{i=1} {p(A_i)\cdot log_2 p(A_i)}\leqslant log_2n~~~(2.7)$$
При прочих равных условиях наибольшую энтропию имеет опыт с равновероятными исходами
Другими словами, энтропия максимальна в опытах, где все исходы равновероятны. Здесь усматривается аналогия (имеющая глубинную первооснову!) с понятием энтропии, используемой в физике. Впервые понятие энтропии было введено в 1865 г. немецким физиком Рудольфом Клаузиусом как функции состояния термодинамической системы, определяющей направленность самопроизвольных процессов в системе. Клаузиус сформулировал II начало термодинамики. В частности, он показал, что энтропия достигает максимума в состоянии равновесия системы.
Позднее (в 1872 г.) Людвиг Больцман, развивая статистическую теорию, связал энтропию системы с вероятностью ее состояния, дал статистическое (вероятностное) толкование II-му началу термодинамики и, в частности, показал, что вероятность максимальна у полностью разупорядоченной (равновесной) системы, причем, энтропия и термодинамическая вероятность оказались связанными логарифмической зависимостью. Другими словами, в физике энтропия оказывается мерой беспорядка в системе. При этом беспорядок понимается как отсутствие знания о характеристиках объекта (например, координат и скорости молекулы); с ростом энтропии уменьшается порядок в системе, т.е. наши знания о ней. Сходство понятий и соотношений между ними в теории информации и статистической термодинамике, как оказалось позднее, совершенно не случайно.
Кстати, результат, полученный в рассмотренном выше примере 2.1, иллюстрирует справедливость формулы (2.7).
Понятие энтропии | Условная энтропия |