Слайд 2
![Два подхода к измерению информации Можно измерять количество информации в](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/599655/slide-1.jpg)
Два подхода к измерению информации
Можно измерять количество информации в контексте
компьютерного представления информации такой подход называется "алфавитным". Он не связан с содержанием текста.
Содержательный подход подразумевает оценку содержания полученной информации с точки зрения ее полезности. При этом под полезной частью информации понимается та часть сообщения, которая снимает полностью или уменьшает существовавшую до ее получения неопределенность какой-либо ситуации.
Слайд 3
![Клод Шеннон. Шеннон (Shannon) Клод Элвуд (1916—2001), американский ученый и](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/599655/slide-2.jpg)
Клод Шеннон.
Шеннон (Shannon) Клод Элвуд (1916—2001), американский ученый и инженер,
один из создателей математической теории информации. Окончил Мичиганский университет (1936 г.). В 1941—1957 гг. — сотрудник математической лаборатории компании "Bell System". С 1941 г. — советник национально-исследовательского комитета Министерства обороны США. С 1957 г. — профессор электротехники и математики Массачусетского технологического института. С 1956 г. — член национальной Академии наук США и Американской академии искусств и наук. Основные труды по алгебре логики, теории релейно-контактных схем, математической теории связи, информации и кибернетике.
Сочинения в русском переводе: Работы по теории информации и кибернетике. М., 1963
Слайд 4
![Столица России — Москва. Сумма квадратов катетов равна квадрату гипотенузы.](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/599655/slide-3.jpg)
Столица России — Москва.
Сумма квадратов катетов равна
квадрату гипотенузы.
Дифракцией света называется
совокупность явлений, которые обусловлены волновой природой света и наблюдаются при его распространении в среде с резко выраженной оптической неоднородностью.
Эйфелева башня имеет высоту 300 метров и вес 9000 тонн.
Слайд 5
![Сообщение несет больше информации, если в нем содержатся новые и](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/599655/slide-4.jpg)
Сообщение несет больше информации, если в нем содержатся новые и
понятные сведения. Такое сообщение называется информативным.
Количество информации зависит от информативности.
Количество информации в некотором сообщении равно нулю, если оно с точки зрения конкретного человека неинформативно. Количество информации в информативном сообщении больше нуля.
Слайд 6
![Если некоторое сообщение является информативным, следовательно, оно пополняет нас знаниями](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/599655/slide-5.jpg)
Если некоторое сообщение является информативным, следовательно, оно пополняет нас знаниями или
уменьшает неопределенность наших знаний. Другими словами сообщение содержит информацию, если оно приводит к уменьшению неопределенности наших знаний.
Слайд 7
![Такое количество информации, которое находится в сообщении о том, что](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/599655/slide-6.jpg)
Такое количество информации, которое находится в сообщении о том, что произошло
одно событие из двух равновероятных, принято за единицу измерения информации и равно 1 биту.
1 бит — это количество информации, уменьшающее неопределенность знаний в два раза.
Слайд 8
![Существует формула, которая связывает между собой количество возможных событий и](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/599655/slide-7.jpg)
Существует формула, которая связывает между собой количество возможных событий и количество
информации.
N=2i
Где N – количество возможных вариантов,
I = количество информации
Слайд 9
![Не равновероятные события I = Iog2(l/p), где I — это](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/599655/slide-8.jpg)
Не равновероятные события
I = Iog2(l/p), где I — это количество информации,
р — вероятность события.
Вероятность события выражается в долях единицы и вычисляется по формуле:
р = К / N, где К — величина, показывающая, сколько раз произошло интересующее нас событие, N - общее число возможных исходов какого-то процесса.