Процесс научного познания окружающего мира приводит к накоплению информации в форме знаний (фактов, научных теорий и т. п.), и с точки зрения процесса познания информацию можно рассматривать как знания. Информацию, которую получает человек, можно считать мерой уменьшения неопределенности знаний. Если некоторое сообщение приводит к уменьшению неопределенности наших знаний! можно говорить о том, что это сообщение содержит информацию.
Подход к информации как к мере уменьшения неопределенности знаний позволяет измерять информацию количественно.
В нашей жизни часто встречаются ситуации, когда может про изойти некоторое количество равновероятных событий. Например, при бросании монеты она с равной вероятностью может оказаться в одном из двух положений: «орел» или «решка». Перед броском существует неопределенность наших знаний (возможны два события). После броска наступает полная определенность, т. к. мы видим, что монета находится в определенном положении. Это сообщение приводит к уменьшению неопределенности наших знаний в два раза, т. к. до броска мы имели два вероятных события, а после броска — только одно, т. е. в два раза меньше.
|
|
Содержательный подход к измерению информации При определении количества информации на основе уменьшения неопределенности знаний информация рассматривается с точки зрения содержания, ее понятности и новизны для человека. С этой точки зрения при выпадении «орла» или «решки» в примере с бросанием монеты содержится одинаковое количество информации, так как оба эти события равновероятны.
Существует формула, которая связывает между собой количество возможных равновероятных событий N и количество информации /: N = 2.
В том случае, если события не являются равновероятными, количество информации в сообщении о некотором событии будет зависеть от вероятности этого события: чем меньше вероятность, тем больше информации.
Алфавитный подход к определению количества информации При хранении и передаче информации с помощью технических устройств информацию рассматривают как последовательность знаков — цифр, букв, кодов и т. д.
Набор символов знаковой системы (алфавит) можно рассматривать как различные возможные состояния (события). Тогда, если считать, что появление символов в сообщении равновероятно, можно воспользоваться известной формулой для определения количества возможных событий, по которой можно рассчитать, какое количество информации N несет каждый символ: N = 2, где i — количество символов знаковой системы (иначе его называют мощностью алфавита).
Таким образом, количество информации, которое содержит сообщение, закодированное с помощью знаковой системы, равно количеству информации, которое несет один знак, умноженному на количество знаков.
|
|
Такой подход к измерению количества информации называется алфавитным подходом. Важно, что при алфавитном подходе к измерению информации количество информации не зависит от ее содержания, а зависит от объема теста и от мощности алфавита. Единицы измерения количества информации Для определения количества информации введены специальные единицы измерения.
За единицу принимается такое количество информации, которое содержит сообщение, уменьшающее неопределенность знаний в два раза. Такая единица называется бит (bit — от английского словосочетания Binary digiT).
Следующая по величине единица — байт, 1 байт — это количество информации об одном символе (букве, цифре, знаке). 1 байт — 23 бит = 8 бит. Далее следуют:
1 кбайт (килобайт) = 1024 байта . 1 Мбайт (мегабайт) = 1024 кбайта . 1 Гбайт (гигабайт) = 1024 Мбайта.