Конспект лекций по информатике и информационным технологиям
19 Если конечная неопределенность //^(<2) обратится в нуль, то первоначальное не полное знание заменится полным знанием и количество информации /^(<2) =//(<2). Иными словами, энтропия системы Н{(х) может рассматриваться как мера недостающей информации. Энтропия системы //(а), имеющая N возможных состояний, согласно формуле Шеннона, равна: N Н{а)р-Y,Pi\o?,Pi. /=1 где Pi - вероятность того, что система находится в i-м состоянии. Часто данные кодируются числовыми кодами в той или иной системе счисления, особенно это актуально при представлении информации в компьютере. Естественно, что одно и тоже количество разрядов в разных системах счисления может передать разное число состояний отображаемого объекта, что можно представить в виде соотношения N = m\ где N- число всевозможных отображаемых состояний; т- основание системы счисления (разнообразие символов алфавита); п- число разрядов (символов) в сообщении. Пример 2.4. По каналу связи передается и-разрядное сообщение, использующее т различных символов. Так как количество всевозможных кодовых комбинаций будет N =тп", то при равной вероятности появления любой из них количество информации, приобретенной абонентом в результате получения сообщения, будет / =log N =п log т — формула Хартли. Если в качестве основания логарифма принять т, то 1=п. В данном случае количество информации (при условии полного априорного не знания абонентом содержания сообщения) будет равно объему данных 1 = V^, получен ных по каналу связи. Для не равновероятных состояний системы всегда I <V^ =п. Наиболее часто используются двоичные и десятичные логарифмы. Единицами из мерения в этих случаях будут соответственно бит и дит. Коэффициент (степень) информативности (лаконичность) сообщения определя ется отношением количества информации к объему данных, т.е. Y= — , причем 0<7<1. С увеличением F уменьшаются работы по преобразованию информации (данных) в системе. Поэтому стремятся к повышению информативности, для чего разрабатываются специальные методы оптимального кодирования информации. Семантическая мера информации. Для измерения смыслового содержания ин формации, т.е. ее количества на семантическом уровне, наибольшее признание получила тезаурусная мера, которая связывает семантические свойства информации со способно стью пользователя принимать поступившее сообщение. Для этого используется понятие тезаурус пользователя. Тезаурус- это совокупность сведений, которыми располагает пользователь или система. В зависимости от соотношений между смысловым содержанием информации S и тезаурусом пользователя Sp изменяется количество семантической информации 1с вос принимаемой пользователем и включаемой им в дальнейшем в свой тезаурус. Максимальное количество семантической информации 1с потребитель приобретает при согласовании ее смыслового содержания S со своим тезаурусом Sp, когда поступаю щая информация понятна пользователю и несет ему ранее не известные (отсутствующие
Made with FlippingBook
RkJQdWJsaXNoZXIy MTY0OTYy