Четверг, 21.11.2024, 19:13
Приветствую Вас Гость | RSS
Меню сайта

Информация

Поиск

Статистика
Форма входа
Измерение информации.

N=2i
i=log2N
I=K*i

N - полное количество символов
i - количество информации, которое несет каждый символ
K - размер текста
I - размер информации, содержащейся в тексте

Если N - общее число возможных исходов какого-либо
процесса и из них интересуещее нас событие может произойти K раз,
то вероятность этого события равна p=K/N.
Количественная зависимость между вероятностью события и количеством
информации в сообщении о нем выражается формулой i=log2(1/p)

Пример 1:
Для записи письма был использован алфавит мощностью в 16 символов.
Письмо состояло из 25 строк. В каждой строке вместе с пробелами было 64 символа.
Сколько байт информации содержало письмо?
Решение:
N=16
i=log216=4 бит
K=25*64=1600
I=K*i=1600 * 4 бит = 6400 бит = 800 байт
Ответ: 800 байт

Привмер 2:
В колоде содержится 32 карты. Из колоды случайным образом вытянули карту.
Сколько информации несет сообщение о том, что вытянутая карта - туз?
Решение:
N=32
K=4 (всего 4 туза в колоде)
p=K/N=4/32=1/8
i=log2(1/p)=log28=3 бита
Ответ: 3 бита


Единицы измерение информации.

бит - базовая единица измерения количества информации.
байт = 8 бит
Приставки для двоичных чисел
Приставка Сокращение
(для байтов)
Значение
киби Кбайт 210 = 1024
меби Мбайт 220 = 1 048 576
гиби Гбайт 230 = 1 073 741 824
теби Тбайт 240 = 1 099 511 627 776
пеби Пбайт 250 = 1 125 899 906 842 624
эксби Эбайт 260 = 1 152 921 504 606 846 976
зеби Збайт 270 = 1 180 591 620 717 411 303 424
йоби Йбайт 280 = 1 208 925 819 614 629 174 706 176