Автор работы: Пользователь скрыл имя, 26 Декабря 2012 в 16:16, контрольная работа
Термин "информация" происходит от латинского слова "Informatiо"- разъяс-нение, изложение, осведомленность. Можно считать, что этот термин в начальном представлении является общим понятием, означающим некоторые сведения, совокупность данных, знаний и т.д. Понятие информации должно быть с определенным объектом, свойства которого она отражает. Кроме того, наблюдается относительная независимость информации от ее носителя, поскольку возможны ее преобразование и передача по различным физическим средам с помощью разнообразных физических сигналов безотносительно к ее содержанию, т.е. к семантике, что и явилось центральным вопросом многих исследований, в том числе и в философской науке. Информация о любом материальном объекте может быть получена путем наблюдения, натурного либо вычислительного эксперимента, а также на основе логического вывода.
Введение 2
1.Понятие информация и ее аспекты 4
2.Виды и свойства информации 8
2.1 Виды информации 8
2.2 Непрерывная и дискретная формы информации 10
2.3 Геометрические и комбинаторные меры информации 16
2.4 Операции с данными 20
Заключение 22
Список использованной литературы 23
Приложения
Рассмотрим, как влияет на
число сведений основание кода. Пусть
M сообщений передается двумя кодами
с основаниями K1 и K2 , и числами элементов n1 и n2. Будем считать, что
оба кода передают одинаковое число сведений,
т.е. M=К1n1=K2n2, тогда k(K1)n1=k(K2)n2, n1logaK
Свяжем количество информации с вероятностью появления отдельных сообщений. Если сообщения равновероятны и на выходе некоторого источника появляется M различных сообщений, то вероятность возникновения каждого сообщения р(x0 J)=1/М, I= -log2p(x0 J). Таким образом, получаем статистическую меру информации, связывающую вероятность появления каждого сообщения и количество информации. Поскольку за основание логарифма принята двоичная единица, то эта мера представляет собой двоичную единицу на сообщение и отражает количество информации, которое в среднем содержится в каждом равновероятном сообщении. Полученное выражение в общем случае определяет информацию, которая содержится в некотором событии x0 J из множества Х0 и является функцией ансамбля этого множества. Она всегда неотрицательна и увеличивается с уменьшением вероятности р(x0 J). Физически данная информация может быть рассмотрена либо как некоторая априорная неопределенность событияx0 J из множества X0, либо как информация, требуемая для разрешения этой неопределенности. Следует отметить, что данная формула является простейшей: в ней не учитываются некоторые закономерности, связанные с информацией, которая может иметься у наблюдателя до появления данного сообщения, а поэтому весьма существенное место занимает понятие взаимной информации.
Предположим, что на выходе некоторого источника появляется совокупность сообщений из множества X0, которую мы каким-то образом определяем с учетом воздействующих помех посредством ансамбля Y0. Появление некоторого события из ансамбля Y0 изменяет вероятность р(x0 J) от некоторой априорной вероятности р(x0 J) до апостериорной вероятности р(x0 J/y0 J). Для оценки количественной меры изменения этой вероятности может быть использован логарифм отношения апостериорной вероятности к априорной, тогда информация о некотором событии из множества X0, содержащаяся в некотором событии из множества Y0
I(x0 J,y0
J)=log2[p(x0 J/y0 J)/p(x0
J)]
С учетом всех событий, входящих в множества X0 Y0 можно получить окончательно взаимную информацию, как функцию некоторого ансамбля Х0 Y0
не зависящую от частных исходов, входящих в эти ансамбли. Суммируя по всем возможным событиям, составляющим ансамбли Х0 Y0 , получаем
I(X0 ,Y0)=åJ åi p(x0 J,y0 i)*log2[p(x0
J/y0 i )/p(x0 J)] (2.
Нетрудно видеть, что в частном случае, когда появление данного исхода y0J однозначно определяет, что исходом x0 J будет некоторый конкретный элемент множества X, получаем собственную информацию, содержащуюся в конкретном событии, т.е. в сообщении.
Рассмотренные формулы можно
применять для оценки количества
информации в реальных условиях передачи.
Например, если передается множество
двоичных последовательностей длиной т с вероятностью появления каждой
последовательности 1/М, где М=2m то собственная информация,содержащаясяв кажд
I(Х0)=log2 p(x0 J)=m двоичных единиц, т.е., используя код без избыточности, получаем, что каждый элемент двоичного кода переносит одну двоичную единицу информации. При введении избыточности в код сохраняется число передаваемых сообщений М, однако длина кода возрастает доп. Количество передаваемой информации составит при равновероятности передаваемых сообщений, как и ранее, I=log2М, т.е. т двоичных единиц. Поскольку для передачи m двоичных единиц используется n элементов в коде, где n>m, то каждый элемент кода передает m/n двоичных единиц информации, т.е. в одном элементе избыточного кода передается менее одной двоичной единицы информации за счет избыточности, которая тратится либо на обнаружение, либо на обнаружение и исправление ошибок.
Таким образом, аддитивная мера информации позволяет оценить количество информации, передаваемой в одном элементе кода с учетом статистических свойств источника информации, и дает возможность в дальнейшем перейти к оценке скорости передачи информации и сравнению ее с пропускной способностью канала связи, что в целом позволяет дать общую характеристику эффективности использования канала связи, т.е. эффективности согласования источника информации с каналом связи.
Над данными можно выполнять различные операции, состав которых определяется решаемой задачей. Перечисленные ниже операции с данными не зависят от того, кто их выполняет – техническое устройство, компьютер или человек.
В прикладной информатике практически всегда количество информации понимается в объемном смысле. Как ни важно измерение информации, нельзя сводить к нему все связанные с этим понятием проблемы. При анализе информации социального (в широким смысле) происхождения на первый план могут выступить такие ее свойства как истинность, своевременность, ценность, полнота и т.д. Их невозможно оценить в терминах «уменьшение неопределенности» (вероятностный подход) или числа символов (объемный подход). Обращение к качественной стороне информации породило иные подходы к ее оценке. При аксиологическом подходе стремятся исходить из ценности, практической значимости информации, т.е. качественных характеристик, значимых в социальной системе. При семантическом подходе информация рассматривается как с точки зрения формы, так и содержания. При этом информацию связывают с тезаурусом, т.е. полнотой систематизированного набора данных о предмете информации. Отметим, что эти подходы не исключают количественного анализа, но он становится существенно сложнее и должен базироваться на современных методах математической статистики.
Понятие информации нельзя считать лишь техническим, междисциплинарным и даже наддисциплинарным термином. Информация — это фундаментальная философская категория.
Приложение 1
Составить формулу
Приложение 2
Составление таблицы
Ведомость расчета с сельхозпредприятием
Название предприятия |
Срок оплаты
|
Дата оплаты
|
Сумма
|
Недоплата или переплата | |
Подлежащая оплате
|
Фактически оплаченная
| ||||
|
Приложение 3