Понятие информация и ее аспекты

Автор работы: Пользователь скрыл имя, 26 Декабря 2012 в 16:16, контрольная работа

Краткое описание

Термин "информация" происходит от латинского слова "Informatiо"- разъяс-нение, изложение, осведомленность. Можно считать, что этот термин в начальном представлении является общим понятием, означающим некоторые сведения, совокупность данных, знаний и т.д. Понятие информации должно быть с определенным объектом, свойства которого она отражает. Кроме того, наблюдается относительная независимость информации от ее носителя, поскольку возможны ее преобразование и передача по различным физическим средам с помощью разнообразных физических сигналов безотносительно к ее содержанию, т.е. к семантике, что и явилось центральным вопросом многих исследований, в том числе и в философской науке. Информация о любом материальном объекте может быть получена путем наблюдения, натурного либо вычислительного эксперимента, а также на основе логического вывода.

Содержание

Введение 2
1.Понятие информация и ее аспекты 4
2.Виды и свойства информации 8
2.1 Виды информации 8
2.2 Непрерывная и дискретная формы информации 10
2.3 Геометрические и комбинаторные меры информации 16
2.4 Операции с данными 20
Заключение 22
Список использованной литературы 23
Приложения

Вложенные файлы: 1 файл

контрольная работа по информатике.docx

— 56.07 Кб (Скачать файл)

Рассмотрим, как влияет на число сведений основание кода. Пусть M сообщений передается двумя кодами с основаниями Kи K, и числами элементов nи n2. Будем считать, что оба кода передают одинаковое число сведений, т.е. M=К1n1=K2n2, тогда k(K1)n1=k(K2)n2, n1logaK1=n2logaK,k(K1)/logaK1= k(K2)/logaKИз полученного выражения видно, что коэффициент пропорциональности тем больше, чем больше основание используемого кода.

Свяжем количество информации с вероятностью появления отдельных  сообщений. Если сообщения равновероятны  и на выходе некоторого источника  появляется M различных сообщений, то вероятность возникновения каждого сообщения р(xJ)=1/М, I= -log2p(xJ). Таким образом, получаем статистическую меру информации, связывающую вероятность появления каждого сообщения и количество информации. Поскольку за основание логарифма принята двоичная единица, то эта мера представляет собой двоичную единицу на сообщение и отражает количество информации, которое в среднем содержится в каждом равновероятном сообщении. Полученное выражение в общем случае определяет информацию, которая содержится в некотором событии xиз множества Хи является функцией ансамбля этого множества. Она всегда неотрицательна и увеличивается с уменьшением вероятности р(xJ). Физически данная информация может быть рассмотрена либо как некоторая априорная неопределенность событияxиз множества X0, либо как информация, требуемая для разрешения этой неопределенности. Следует отметить, что данная формула является простейшей: в ней не учитываются некоторые закономерности, связанные с информацией, которая может иметься у наблюдателя до появления данного сообщения, а поэтому весьма существенное место занимает понятие взаимной информации.

Предположим, что на выходе некоторого источника появляется совокупность сообщений из множества X0, которую мы каким-то образом определяем с учетом воздействующих помех посредством ансамбля Y0. Появление некоторого события из ансамбля Yизменяет вероятность р(xJ) от некоторой априорной вероятности р(xJ) до апостериорной вероятности р(xJ/yJ). Для оценки количественной меры изменения этой вероятности может быть использован логарифм отношения апостериорной вероятности к априорной, тогда информация о некотором событии из множества X0, содержащаяся в некотором событии из множества Y

 

 

                       I(x0 J,y0 J)=log2[p(x0 J/y0 J)/p(x0 J)]                                       (2.2) 

 

С учетом всех событий, входящих в множества XYможно получить окончательно взаимную информацию, как функцию некоторого ансамбля ХY0

не зависящую от частных  исходов, входящих в эти ансамбли. Суммируя по всем возможным событиям, составляющим ансамбли ХY, получаем

I(X,Y0)=ååp(x0 J,y0 i)*log2[p(x0 J/y0 i )/p(x0 J)]                       (2.3)

Нетрудно видеть, что в  частном случае, когда появление  данного исхода y0J однозначно определяет, что исходом xбудет некоторый конкретный элемент множества X, получаем собственную информацию, содержащуюся в конкретном событии, т.е. в сообщении.

Рассмотренные формулы можно  применять для оценки количества информации в реальных условиях передачи. Например, если передается множество  двоичных последовательностей длиной т с вероятностью появления каждой последовательности 1/М, где М=2то собственная информация,содержащаясяв  каждом  сообщении,  или  количество  в  одном  усредненном  сообщении

I(Х0)=logp(xJ)=m двоичных единиц, т.е., используя код без избыточности, получаем, что каждый элемент двоичного кода переносит одну двоичную единицу информации. При введении избыточности в код сохраняется число передаваемых сообщений М, однако длина кода возрастает доп. Количество передаваемой информации составит при равновероятности передаваемых сообщений, как и ранее, I=log2М, т.е. т двоичных единиц. Поскольку для передачи m двоичных единиц используется n элементов в коде, где n>m, то каждый элемент кода передает m/n двоичных единиц информации, т.е. в одном элементе избыточного кода передается менее одной двоичной единицы информации за счет избыточности, которая тратится либо на обнаружение, либо на обнаружение и исправление ошибок.

Таким образом, аддитивная мера информации позволяет оценить количество информации, передаваемой в одном  элементе кода с учетом статистических свойств источника информации, и  дает возможность в дальнейшем перейти  к оценке скорости передачи информации и сравнению ее с пропускной способностью канала связи, что в целом позволяет  дать общую характеристику эффективности  использования канала связи, т.е. эффективности  согласования источника информации с каналом связи.

2.4 Операции с данными

Над данными можно выполнять  различные операции, состав которых  определяется решаемой задачей. Перечисленные  ниже операции с данными не зависят от того, кто их выполняет – техническое устройство, компьютер или человек.

  1. Сбор данных – накопление данных с целью обеспечения достаточной их полноты для принятия решений.
  2. Формализация данных – приведение данных, поступающих из разных источников, к одинаковой форме, что позволяет сделать их сопоставимыми между собой.
  3. Фильтрация данных – отсеивание данных, в которых нет необходимости для принятия решений, при этом снижается уровень шума и повышается их достоверность и адекватность.
  4. Сортировка данных – упорядочение данных по заданному признаку с целью удобства использования.
  5. Защита данных – комплекс мер, направленных на предотвращение утраты, воспроизведения и модификации данных.
  6. Архивация данных – организация хранения данных в удобной и легкодоступной форме, снижающей затраты на хранение и повышающей общую надежность информационного процесса.
  7. Транспортировка данных – приём и передача данных между удаленными участниками информационного процесса.
  8. Преобразование данных – перевод данных из одной формы в другую. Часто связано с изменением носителя. Например, книги можно хранить в бумажной форме, а можно в электронном виде.

 

 

 

 

 

 

 

 

 

Заключение

 

В прикладной информатике  практически всегда количество информации понимается в объемном смысле. Как  ни важно измерение информации, нельзя сводить к нему все связанные  с этим понятием проблемы. При анализе  информации социального (в широким  смысле) происхождения на первый план могут выступить такие ее свойства как истинность, своевременность, ценность, полнота и т.д. Их невозможно оценить  в терминах «уменьшение неопределенности» (вероятностный подход) или числа  символов (объемный подход). Обращение  к качественной стороне информации породило иные подходы к ее оценке. При аксиологическом подходе  стремятся исходить из ценности, практической значимости информации, т.е. качественных характеристик, значимых в социальной системе. При семантическом подходе  информация рассматривается как  с точки зрения формы, так и  содержания. При этом информацию связывают  с тезаурусом, т.е. полнотой систематизированного набора данных о предмете информации. Отметим, что эти подходы не исключают  количественного анализа, но он становится существенно сложнее и должен базироваться на современных методах  математической статистики.

Понятие информации нельзя считать лишь техническим, междисциплинарным  и даже наддисциплинарным термином. Информация — это фундаментальная  философская категория.

 

 

 

 

 

 

 

Список  использованной литературы

 

  1. Боровиков В.П. [По тексту]Прогнозирование в системе STATISTICA в среде Windows. Основы теории и интенсивная практика на компьютере: Учеб.пособие.-М.:Финансы и статистика, 2009.- 384стр.: ил….
  2. Буч Г. Объектно-ориентированное программирование с примерами применения. - Киев: Диалектика, М.:И.В.К., 1992.
  3. Горбань. А.Н.  Методы нейроинформатики. КГТУ, Красноярск, 2008. 205 стр.
  4. Гончарук В.А. Развитие предприятия. М.: Дело, 2000. 208 с.
  5. Городецкий В. И. Прикладная алгебра и дискретная математика. Часть 3. Формальные системы логического типа. – МО СССР, 1987. – 177 стр. с ил…

 

 

 

 

 

 

 

 

 

 

 

 

 

Приложение 1

Составить формулу

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Приложение  2

Составление таблицы

 

Ведомость расчета с сельхозпредприятием

 

Название предприятия

 

 

Срок оплаты

 

 

 

 

Дата оплаты

 

Сумма

 

Недоплата или переплата

 

Подлежащая оплате

 

 

Фактически оплаченная

 

 

 

 

 

 

         

 

 

 

 

 

 

 

 

 

 

 

 

 

Приложение  3

 

 

 

 

 


Информация о работе Понятие информация и ее аспекты