Основы теории информации и кодирования: Учебное пособие [Евгений Феофанович Березкин] (pdf) читать постранично, страница - 20
Книга в формате pdf! Изображения и текст могут не отображаться!
[Настройки текста] [Cбросить фильтры]
жестве сообщений {ик},к = \,М с энтропией H(U) и алфавитом, со
стоящим из D символов, существует такой способ кодирования сообще
ний множества посредством последовательностей символов, принадле
жащих заданному алфавиту, что среднее число символов на сообщение
м
_
п = ^пкр(ик) будет удовлетворять неравенствам
log2 D
log2 D
ДОКАЗАТЕЛЬСТВО. Докажем неравенство H(U) — п log2 D < 0 .
Пусть р(Н1),..., />(«л/) - вероятности сообщений источника, а и1;..., пм длины
кодовых
|
М
Представим
слов.
//(£/)— и log2 Z)
в
виде
м
^T?(wjlog2----------- 1оёг D • Поместим -пк под знак логаi=l
Р(Рк) к=1
м
D~nt
рифма, объединим слагаемые и получим V
log 2---------- Далее
*=1
р(ук)
воспользуемся
известным
свойством
натурального
логарифма
In а < а -1:
—
1 Ji,
.
м
rj-n*
м
U1Z i=l
А=1
Последнее неравенство следует из неравенства Крафта, что и доказы
< п ■ Заметим, что равенство имеет место тогда и только
вает
10g2£>
169
тогда, когда piu^.) — D ”к . Это условие совпадает с ранее получен
ным условием оптимального кодирования по Шеннону — Фано.
"
H(U)
,
Докажем неравенство П
полученное неравенство умножаем на /*(«*)
м
м
-logzPQU
^пкр(ик)
и суммируем по к
1],
W) .
------------ 1-1, что и
log2Z)
завершает доказательство теоремы.
Рис. 7.4. Графическая интерпретация неравенств D
170
< p(uk)L;
р(а2 /a,) = p{a2 = aj /= ак}
L2;
р(а2 / аДг) = /?{ос3 =ad / cq = ак, a2 =ay} -»Z3;
p(at /aIa2...a,._1) = p{at = ат/щ - ak,oc2 =ay,...,a,._1 =as}
Совместная вероятность появления на выходе источника первых v
событий есть p(aja2...av) = р(ах)р(а2 Iа^.-.р^ Iap-.a^), а совме
стное распределение (v - 1)-го и v-ro событий равно
/КА) = X-S^ 77(4) = - XH«i)10g2 А**]);
otje-dj
а, ос2 ->77(Л2/4) = -£ ^Xaia2)log2Xa2/ai);
“1е А “2е Л
«^4 а2еЛ2
ci] а2 ... а,. -> ff(Al/A1...Aj_1) =
а2е42
а/бД
= - S S • •Х^а1а2-“1)10ё2/’(а,/а1а2...а,._1).
oqeXj а2сЛ2
а,-еД.
Обозначим через H(At / Л4') условную энтропию z'-ro события при
условии, что v предшествующих событий уже произошло (рис. 8.4):
,)log2p(aI./ai_v...a,._i) =
77(4/Лу) =
= H(Ai/Ai_1...Ai_v).
Рис. 8.4. Иллюстрация условной энтропии Я(Д /?Г)
ОПРЕДЕЛЕНИЕ 8.1. Источник информации называют стационар
ным, если условная вероятность появления события 0С(. при условии
задания v предшествующих событий не зависит от номера i для всех
целых V, т.е.
Хос, /a.-r -az-v) = p(aj / осу_]...ocy_v); i, j > v.
180
Таким образом, для стационарных источников все вероятности инва
риантны относительно любых сдвигов вдоль последовательности собы
тий a1OC2...OC|....OCv или, говоря другими словами, статистические харак
теристики процесса появления событий на выходе источника не зависят
от выбора начала отсчета времени или наблюдения (рис. 8.5).
Для
стационарных
источников
справедливо
равенство
Я(4 / Av) = Я(Д. / Av) для всех i, j>V.
v
•
v
ОС,
0Су
♦ ... »»,..** •—
j
i
p{ai=ak/at_1=am,...,ai_y=as} =
~ p{^j ~ ак !^j-i
— flmr"?0Cy_v — as}
Рис. 8.5. Иллюстрация свойства стационарности
ТЕОРЕМА 8.2. Для стационарного источника условные энтропии
событий Н(А^/ Av) при условии, что заданы все предшествующие
события, образуют монотонную невозрастающую последовательность.
ДОКАЗАТЕЛЬСТВО. При рассмотрении свойств энтропии доказа
но, что
Я(Д /Av)< Н(А, / Д"’1) < Я(4 / Д'"2) 0 последовательность событий, порождаемых дис
кретным стационарным источником, можно закодировать в последова
тельность символов, выбираемых из заданного алфавита, таким образом,
чтобы среднее по ансамблю число символов на событие удовлетворяло
- Я(Л/Л~)
неравенству п
Последние комментарии
43 минут 33 секунд назад
13 часов 15 минут назад
20 часов 24 минут назад
21 часов 31 минут назад
22 часов 37 минут назад
22 часов 59 минут назад