Теория информации
а 1 м ш 3) Строим кодовое дерево и двигаясь по кодовому дереву сверху вниз записываем для каждой буквы соответствующую ей кодовую комбинацию. 4) Вычислим энтропию (меру неопределенности): ( бит/симв ) 5) Вычисляем среднюю длину полученного кода. Так как: 6) = количество кода * вероятность , то есть: . 7) Недопустимо, чтобы было меньше Н . Чем и чем ближе по значению к Н тем лучше. 7) Вычислим избыточность (%): ( )100%. 8) Вычислим эффективность полученного кода: . ‘м’ 1 1 1 1 1 1 1 0 1 0 ‘а’ ‘ш’
Made with FlippingBook
RkJQdWJsaXNoZXIy MTY0OTYy