Далее: §24. Условные энтропии Вверх: Глава IV. Энтропия и Назад: Глава IV. Энтропия и

§23. Энтропия как мера неопределенности

В курсе теории вероятностей до сих пор мы находили, в том случае, когда это возможно, вероятности случайных событий. Здесь же мы обратим внимание на неопределенность связанных с этими событиями опытов. Интуитивно ясно, что степень неопределенности (неожиданности) при подбрасывании монеты или игрального кубика различна. Для практики важно уметь численно оценивать степень неопределенности самых разнообразных опытов, чтобы иметь возможность сравнивать их с этой стороны.

Исторически первые шаги к введению понятия энтропии были сделаны в 1928 г. американским инженером-связистом Хартли, предложившим характеризовать степень неопределенности опыта с $k$ различными исходами числом log $k$. Однако он считал несущественным возможность неравновероятных исходов. Ошибочность точки зрения Хартли была показана Клодом Шенноном, предложившим принять в качестве меры неопределенности опыта $\alpha $ с возможными исходами $A_{1}$, $A_{2}$, ...$A_{k}$ величину


\begin{displaymath}
H(\alpha ) = \sum\limits_{i = 1}^k {P(Ai)\log [P(Ai)]^{ - 1}} = -
\sum\limits_{i = 1}^k {P(Ai)\log [P(Ai)]} .
\end{displaymath}

Он же предложил назвать это число "энтропией".

В применениях энтропии обычно используются логарифмы по основанию два. Это означает, что за единицу измерения энтропии принимается неопределенность, содержащаяся в опыте, имеющем два равновероятных исхода. Такая единица измерения неопределенности называется двойной единицей, или $битом$.

Энтропию дискретного опыта предлагается находить как вес всего графа неопределенности

\includegraphics{D:/html/work/link1/metod/met12/chapt316.eps}

Рис. 69

Реальная ценность понятия энтропии определяется в первую очередь тем, что выражаемая им "степень неопределенности" опытов оказывается во многих случаях именно той характеристикой, которая играет роль в разнообразных процессах, встречающихся в природе и технике и так или иначе связанных с передачей и хранением каких-либо сообщений.

Будущему педагогу понятие энтропии полезно знать, например, для возможного применения в экспериментальной психологии, одной из основных задач которой является изучение психологической реакции организма на какое-либо воздействие. Установлено, что среднее время реакции определяется энтропией опыта $\alpha $, состоящего в подаче сигнала.

Пример 111. Какую степень неопределенности содержит опыт извлечения карточки с простой цифрой, вынутой из разрезной цифровой азбуки?

Решение. Из десяти цифр четыре (2, 3, 5, 7) являются простыми, поэтому вероятность $p_{1}$ извлечь карточку с простой цифрой равна 0,4, а вероятность противоположного события $p_{2}= 1 - 0,4 = 0,6$. Воспользуемся формулой Шеннона

$H(\alpha ) = {\displaystyle 4\over\displaystyle 10}\log {\displaystyle 10\over\...
... \log 6 = \log 2 + \log 5 - 2 - \log 2 - \log 3 = (log5
- log3 - 2)\mbox{(бит)}$.

Пример 112. Какую степень неопределенности содержит угадывание месяца рождения случайно встреченного человека?

Решение. Поскольку можно считать равновероятным рождение неизвестного человека в любой из 12 месяцев, то воспользуемся формулой Хартли

$H(\alpha ) = \log 12 = \log 4 + \log 3 = (2 + \log 3)$(бит).

Пример 113. В одной группе 6 студентов из 24 получили в сессию неудовлетворительную оценку, а в другой - 9 из 27. В каком случае сложнее предсказать успеваемость студента?

Решение. Используем формулу Шеннона


\begin{displaymath}
\begin{array}{l}
H_1 = {\displaystyle 6\over\displaystyle 2...
...r\displaystyle 4} \cdot 1,6 = 0,8 \mbox{(бит)} \\
\end{array}\end{displaymath}


\begin{displaymath}
H_2 = {\displaystyle 9\over\displaystyle 27}\log {\displayst...
...e 2\over\displaystyle 3}
\approx 1,6 - 0,66 = 0,94\mbox{(бит)}
\end{displaymath}

$H_{2}$> $H_{1}$, поэтому сложнее предсказать успеваемость студента во второй группе.

Пример 114. Какую степень неопределенности содержит опыт угадывания цвета двух шаров, извлеченных из урны, в которой находятся два белых и три черных шара?

Решение. Построим граф неопределенности данного опыта.

\includegraphics{D:/html/work/link1/metod/met12/chapt317.eps}

Рис. 70

$Н(\alpha ) \quad \nu $аходим как вес всего полученного графа.


\begin{displaymath}
H(\alpha ) = {\displaystyle 1\over\displaystyle 10}\log 10 +...
...displaystyle 10}\log 3 = (1 + \log 5 - 0,9\log
3)\mbox{(бит).}
\end{displaymath}

Пример 115. Доказать, что у опытов $\alpha $ с двумя исходами наибольшую энтропию имеет тот $\alpha _{0}$, у которого исходы равновероятны.

Решение. Построим график функции $f(x) = - x\log x$ (основание у логарифма больше 1) и рассмотрим среднюю линию ${MN}$ трапеции $ABСD$, где $A(p,0);{\rm }B(p,f(p)); \quad C(q,f(q));
D(q,0).$

\includegraphics{D:/html/work/link1/metod/met12/chapt318.eps}

Рис. 71

$\left\vert {MN} \right\vert = {\displaystyle 1\over\displaystyle 2}( - p\log p ...
...{\displaystyle 1\over\displaystyle 2}\log {\displaystyle 1\over\displaystyle 2}$, поскольку функция $f(x)$ на промежутке выпукла вверх.

Тогда $H(\alpha ) = p\log p^{ - 1} + q\log q^{ - 1} = - p\log p - q\log q
\le \log 2 = H(\alpha _0 ).$

Вопросы для самоконтроля

1. Каковы основные требования к функции меры неопределенности?

2. Формула Хартли и ее недостатки.

3. Формула Шеннона.

4. В чем различие формул Хартли и Шеннона?

5. Какие свойства энтропии вы знаете?

6. В каком случае неопределенность опыта наибольшая?

7. Основные единицы измерения энтропии и их связь.

8. Бит и другие его названия.

Задачи

I 221. Какую степень неопределенности содержит угадывание дня рождения случайно встреченного человека?

222. В каком случае менее предсказуем исход: в том, когда подбрасываем монету, или в том, когда угадываем пол первого случайно встреченного человека?

223. Что более непредсказуемо:

а) исход подбрасывания двух игральных костей или

б) угадывание карты из колоды в 36 карт (32 карты)?

224. В одной группе 6 студентов из 20 получили в сессию неудовлетвори-тельные оценки, а в другой - 8 из 24. В каком случае сложнее предсказать успевающего студента?

225. Одна урна содержит один белый и два черных шара, а другая - два белых и три черных. В каком случае угадывание цвета извлеченного из урны шара более предсказуемо?

226. Что более предсказуемо: угадывание масти случайно выбранной кар-ты из колоды в 32 карты или из колоды в 52 карты?

II 227. Какую степень неопределенности содержит опыт извлечения двух карт из колоды в 36 карт относительно козырных карт?

228. Найдите степень неопределенности извлечения двух шаров из урны, содержащей один белый, два черных и три красных шара.

III 229. В первой урне 2 белых и 4 черных шара, а во второй - 3 белых и 3 черных. Из каждой урны вынимают по два шара. Исход какого из этих двух опытов более непредсказуем?

230. В одной подгруппе 3 из 10 студентов получили неудовлетвори-тельную оценку по немецкому языку, а в другой - 4 из 12 по английскому. В каком случае сложнее предсказать успеваемость по иностранному языку двух случайно выбранных студентов одной подгруппы?


Далее: §24. Условные энтропии Вверх: Глава IV. Энтропия и Назад: Глава IV. Энтропия и

ЯГПУ, Центр информационных технологий обучения
2006-03-04