|
Измерение информации. N=2i i=log2N I=K*i N - полное количество символов i - количество информации, которое несет каждый символ K - размер текста I - размер информации, содержащейся в тексте Если N - общее число возможных исходов какого-либо процесса и из них интересуещее нас событие может произойти K раз, то вероятность этого события равна p=K/N. Количественная зависимость между вероятностью события и количеством информации в сообщении о нем выражается формулой i=log2(1/p) Пример 1: Для записи письма был использован алфавит мощностью в 16 символов. Письмо состояло из 25 строк. В каждой строке вместе с пробелами было 64 символа. Сколько байт информации содержало письмо? Решение: N=16 i=log216=4 бит K=25*64=1600 I=K*i=1600 * 4 бит = 6400 бит = 800 байт Ответ: 800 байт Привмер 2: В колоде содержится 32 карты. Из колоды случайным образом вытянули карту. Сколько информации несет сообщение о том, что вытянутая карта - туз? Решение: N=32 K=4 (всего 4 туза в колоде) p=K/N=4/32=1/8 i=log2(1/p)=log28=3 бита Ответ: 3 бита Единицы измерение информации. бит - базовая единица измерения количества информации. байт = 8 бит
|