Как можно измерить количество информации

0
0

Верно ли утверждение о том, что отсутствие новостей само по себе является хорошим известием? Каменная скрижаль, вес которой равен трем тоннам, может дать археологам тот же объем информации, что и качественная фотография в хорошем археологическом издании, не так ли? А когда киевская радиостудия сообщает последние новости, то и киевлянин, и житель Ильичевска узнают обо всем, независимо от того, что энергия радиоволн в Киеве намного больше, чем за сотни километров от него. Получается, что ни мощность, ни размер, ни количество не могут играть роль меры информации. Тогда как же можно оценить то или иное количество данных?

количество информации

Новизна

Из школьного курса информатики нам известно, что количество информации, которое обрабатывают вычислительные машины, измеряется в битах, байтах и кратных им единицах. Однако это не объясняет, как можно применить подобные знания в быту. К примеру, как вы оцените информацию, полученную в результате прочтения данной статьи? Справедливо ли будет утверждать, что чем больше букв, тем больше ее получится? А если, прочитав эту статью через неделю, вы получите то же самое количество информации, что и раньше? Ответ очевиден. Все это наталкивает на мысль, что с точки зрения новизны ее попросту невозможно измерить. Никакой бит здесь не поможет.

объем информации

Объем

А вот в технике количество информации можно измерить как число знаков или сигналов, которые хранят, передают и обрабатывают технические устройства. Этот подход основывается на подсчете символов в каждом конкретном сообщении. Например, слово «мир» в английском алфавите записывается пятью буквами – peace, в русском – тремя, а в КОИ8 на его передачу используется 24 бита: 111011011110100111110010. Вот тут как раз и находят свое применение мегабайты, килобайты и террабайты.

меры информации

Вероятность

Существует еще один подход, согласно которому информация рассматривается как снятие неопределенности. С этой точки зрения, чем больше мы получаем данных, тем меньше наше незнание и больше осведомленность. Количество информации здесь также определяется в битах, а за единицу измерения принимают тот или иной вероятностный исход из одной пары равновозможных событий («нет» или «да», «0» или «1»). Например, подброшена монета для жребия. Может выпасть либо орел, либо решка. Сообщение о том, что выпала решка, уменьшает неопределенность вдвое, а его размер соответствует одному биту. В случае, когда количество равновозможных событий больше 2, для оценки сообщения используют равенство Р. Хартли, которое обычно записывают так:

2I = N либо I = log2 N , где

N – число всех возможных событий,

I – объем информации в байтах.

Иногда данная формула записывается в модифицированном виде: I = log2 (1/p) = - log2 p. Символ «p» в этом случае обозначает вероятность наступления каждого из равновероятных исходов. Предположим, к примеру, что вверх подброшено два обычных игральных кубика. Требуется определить, сколько бит несет сообщение о том, что на одном из них выпала пятерка, а на другом – двойка. Нетрудно посчитать, что вероятность каждого из этих событий равна одной шестой. Следовательно, I = 2 * log26 =2 * 2,585 = 5,17 бит. Как видите, измерение информации во многом зависит от сферы ее использования и выбранного подхода. Сложно представить, какое значение она имеет в нынешнее время. Наверное, после времени это наиболее важный ресурс, которым может обладать современный человек.