Теория информации
Частота 3 1 1 1 7. Прочитать символ b . Этот символ имеется в списке, поэтому его можно закодировать как 10. Частота символа b увеличивается на 1. Список: Символ a b c ESC Частота 3 2 1 1 Таким образом, после выполнения сжатия получается следующая последовательность кодов: 0 a 1 b 1 11 c 1 10. Кроме метода Хаффмана к энтропийным методам относится также метод Шеннона – Фано. Однако в настоящее время он используется гораздо реже по сравнению с методом Хаффмана. 2.1.2.4. Метод арифметического сжатия В настоящее время методы энтропийного сжатия вытесняются арифметическим методом. Арифметический метод основан на отображении последовательности символов в вещественное число из полуинтервала [0, 1). В алгоритме Хаффмана этот метод эффективен, когда частоты появления символов пропорциональны 1/2 n , где n – натуральное положительное число. Это утверждение становится очевидным, если вспомнить, что коды Хаффмана для каждого символа всегда состоят из целого числа бит. Рассмотрим ситуацию, когда частота появление символа равна 0,2, тогда оптимальный код для кодирования этого символа должен иметь длину:
Made with FlippingBook
RkJQdWJsaXNoZXIy MTY0OTYy