Измерение информации.
N=2i
i=log2N
I=K*i
N - полное количество символов
i - количество информации, которое несет каждый символ
K - размер текста
I - размер информации, содержащейся в тексте
Если N - общее число возможных исходов какого-либо
процесса и из них интересуещее нас событие может произойти K раз,
то вероятность этого события равна p=K/N.
Количественная зависимость между вероятностью события и количеством
информации в сообщении о нем выражается формулой i=log2(1/p)
Пример 1:
Для записи письма был использован алфавит мощностью в 16 символов.
Письмо состояло из 25 строк. В каждой строке вместе с пробелами было 64 символа.
Сколько байт информации содержало письмо?
Решение:
N=16
i=log216=4 бит
K=25*64=1600
I=K*i=1600 * 4 бит = 6400 бит = 800 байт
Ответ: 800 байт
Привмер 2:
В колоде содержится 32 карты. Из колоды случайным образом вытянули карту.
Сколько информации несет сообщение о том, что вытянутая карта - туз?
Решение:
N=32
K=4 (всего 4 туза в колоде)
p=K/N=4/32=1/8
i=log2(1/p)=log28=3 бита
Ответ: 3 бита
Единицы измерение информации.
бит - базовая единица измерения количества информации.
байт = 8 бит
Приставка | Сокращение (для байтов) |
Значение |
---|---|---|
киби | Кбайт | 210 = 1024 |
меби | Мбайт | 220 = 1 048 576 |
гиби | Гбайт | 230 = 1 073 741 824 |
теби | Тбайт | 240 = 1 099 511 627 776 |
пеби | Пбайт | 250 = 1 125 899 906 842 624 |
эксби | Эбайт | 260 = 1 152 921 504 606 846 976 |
зеби | Збайт | 270 = 1 180 591 620 717 411 303 424 |
йоби | Йбайт | 280 = 1 208 925 819 614 629 174 706 176 |