Автор работы: Пользователь скрыл имя, 17 Апреля 2012 в 12:36, реферат
Основное внимание в теории информации уделяется определению средней скорости передачи информации и решению задачи максимизации этой скорости путем применения соответствующего кодирования. Предельные соотношения теории информации позволяют оценить эффективность различных систем связи и установить условия согласования в информационном отношении источника с каналом и канала с потребителем.
Энтропия – это среднее количество информации, приходящееся на одно сообщение источника.
Чем больше энтропия, тем сильнее неопределенность и тем большую информацию в среднем несет одно сообщение источника.
Введение 3
1 Энтропия источника дискретных сообщений 4
1.1 Энтропия источника независимых сообщений 4
1.2 Энтропия источника зависимых сообщений 6
2 Избыточность источника сообщений 7
3 Связанные источники сообщений (объединения) 9
4 Энтропия непрерывного источника информации 13
Заключение 15
Список литературы 16
Энтропия непрерывного источника информации бесконечна, т. к. неопределенность выбора из бесконечно большого числа возможных состояний бесконечно велика.
Дифференциальная энтропия — средняя информация непрерывного источника. Определяется как
бит,
где — плотность распределения сигнала непрерывного источника как случайной величины.
Условная дифференциальная энтропия для величины X при заданной величине Y определяется следующей формулой:
бит.
Безусловная и условная дифференциальные энтропии могут быть как положительными, так и отрицательными величинами, а также могут быть равны бесконечности.
Для дифференциальной энтропии справедливы равенства, аналогичные для энтропии дискретного источника:
(для независимых источников — равенство)
Дифференциальная энтропия достигает своего максимума в случае гауссова распределения плотности вероятности сигнала непрерывного источника как случайной величины и равна
бит
Для равномерного распределения:
бит
Для распределения Лапласа
бит
Дифференциальная энтропия обладает следующими свойствами:
1. Дифференциальная энтропия в отличие от обычной энтропии дискретного источника не является мерой собственной информации, содержащейся в ансамбле значений случайной величины Х. Она зависит от масштаба Х и может принимать отрицательные значения. Информационный смысл имеет не сама дифференциальная энтропия, а разность двух дифференциальных энтропий, чем и объясняется ее название.
2. Дифференциальная
энтропия не меняется при
Из этого следует, что h(x) не зависит от математического ожидания случайной величины, т.к. изменяя все значения Х на С мы тем самым изменяем на С и ее среднее, то есть математическое ожидание.
3. Дифференциальная
энтропия аддитивна, то есть
для объединения ХY независимых случайный
величин Х и Y справедливо:
H(XY)= H(X) + H(Y).
Задача передачи информации в теории информации является основной. Для ее решения необходимо определить количество информации. В основу определения меры количества информации заложен вероятностный подход.
Среднее количество информации в одном сообщении называется энтропией. Чем больше энтропия, тем, в среднем, больше количество информации в сообщении.
Условием оптимальной передачи информации является равновероятность сообщений, то есть максимальная энтропия, а значит и максимальное количество информации.
Информационные возможности сигнала возрастают с расширением его спектра и превышением его уровня над уровнем помех.