Понятие информация и ее аспекты

Автор работы: Пользователь скрыл имя, 26 Декабря 2012 в 16:16, контрольная работа

Краткое описание

Термин "информация" происходит от латинского слова "Informatiо"- разъяс-нение, изложение, осведомленность. Можно считать, что этот термин в начальном представлении является общим понятием, означающим некоторые сведения, совокупность данных, знаний и т.д. Понятие информации должно быть с определенным объектом, свойства которого она отражает. Кроме того, наблюдается относительная независимость информации от ее носителя, поскольку возможны ее преобразование и передача по различным физическим средам с помощью разнообразных физических сигналов безотносительно к ее содержанию, т.е. к семантике, что и явилось центральным вопросом многих исследований, в том числе и в философской науке. Информация о любом материальном объекте может быть получена путем наблюдения, натурного либо вычислительного эксперимента, а также на основе логического вывода.

Содержание

Введение 2
1.Понятие информация и ее аспекты 4
2.Виды и свойства информации 8
2.1 Виды информации 8
2.2 Непрерывная и дискретная формы информации 10
2.3 Геометрические и комбинаторные меры информации 16
2.4 Операции с данными 20
Заключение 22
Список использованной литературы 23
Приложения

Вложенные файлы: 1 файл

контрольная работа по информатике.docx

— 56.07 Кб (Скачать файл)

2.2 Непрерывная и дискретная формы  информации

Сведения о состоянии  объекта в ИС формируются в  виде сообщений. Под сообщением понимается все то, что подлежит передаче. Независимо от содержания сообщение обычно представляется в виде электрического, звукового, светового, механического или других сигналов. Таким образом, сообщение отображает некоторые исходные сигналы любого вида и по свойствам зависит от исходных сигналов.

В ИС все исходные сигналы, поступающие от объекта, можно разделить  на две большие группы: сигналы оптические, которые отображают устойчивые состояния некоторых объектов и могут быть представлены, например, в виде определенного положения элемента, системы, текста в документе, определенного состояния электронного устройства и т.д., и сигналы динамические, для которых характерно быстрое изменение во времени, отображающее, например, изменения электрических параметров системы.

Динамические и статические  сигналы имеют свои области использования. Статические сигналы существенное место занимают при подготовке, регистрации  и хранении информации. Динамические используются в основном для передачи информации. Однако заметим. что это  не всегда является обязательным.

По характеру изменения  сигналов во времени различают сигналы непрерывные и дискретные. Непрерывный сигнал отображается некоторой непрерывной функцией и физически представляет собой непрерывно изменяющиеся значения колебаний[1,18]. Дискретный сигнал характеризуется конечным множеством значений и в зависимости от исходного состояния принимает значения, связанные с определенным состоянием системы. Исходя из физической сущности процесса, свойственного объекту управления, можно выделить некоторые разновидности непрерывных и дискретных функций, отображающих реальные сигналы:

1) непрерывную функцию  непрерывного аргумента. Функция  имеет вид f(t), непрерывна на всем отрезке и может описать реальный сигнал в любой момент времени. При этом не накладывается никаких ограничений на выбор момента времени и значения самой функции;

2) непрерывную функцию  дискретного аргумента. Обычно  такие сигналы возникают при  квантовании непрерывных величин  по времени. В этом случае  задаются некоторые фиксированные  моменты времени tJ, отсчитываемые через интервал Dt. который обычно определяется спектральными свойствами исходного физического процесса. Функция f(tJ) может принимать любые мгновенные значения, но она определяется лишь для дискретных значении времени. Этот вид сигналов и связанных с ним функций имеет место при формировании исходных сообщений из непрерывных величин;

3) дискретную функцию  непрерывного аргумента fJ(t). В этом случае функция имеет ряд конечных дискретных значений, однако определена на всем отрезке времени t для любого мгновенного значения времени. Дискретизация самой функции связана с созданием шкалы квантования по уровню, что свойственно различным датчикам, при этом шаг квантования определяется требуемой точностью воспроизведения исходной величины;

4) дискретную функцию  дискретного аргумента fJ(tJ). В этом случае функция принимает одно из возможных дискретных значений, общее число которых является конечным, и определяется для окончательного набора дискретных значений времени. Имеем дискретизацию как по уровням, так и по моментам времени.

В целях систематизации сообщений  и обеспечения возможности передачи сообщений по каналам связи используются процедуры кодирования, с помощью кодирования сообщение представляется в форме, которая позволяет осуществить передачу его по каналам связи. Дискретное сообщение можно изобразить в виде некоторой последовательности цифр или букв, при этом каждая цифра или  буква представляет  собой одно сообщение. С помощью кода каждая цифра или буква отображается некоторым набором импульсов, которые составляют кодовую комбинацию. Основное требование, предъявляемое к кодовым комбинациям, состоит в возможности различения их на приемной стороне при определенных воздействиях помех в каналах связи. Общее число кодовых комбинаций равно числу возможных сообщений М.

При построении кода учитывается  ряд особенностей, связанных с  возможностями передачи информации по каналу связи, кроме того. вопрос реализации технических средств  преобразования сообщений в код, т.е. построение кодирующих устройств  и соответствующих им средств  обратного преобразования - декодирующих устройств. Весьма важными являются вопросы обеспечения требуемой  верности и скорости передачи информации. В настоящее время в раз

-личных системах передачи  информации и в том числе  в информационных сетях получило  распространение большое число  кодов. Рассмотрим их обобщенную  классификацию.

1. По основанию системы счисления коды делятся на двоичные, троичные,  четверичные и т.д. В каждой системе счисления используется определенная совокупность символов, причем число возможных символов для К-ой системы равно К. Двоичные коды строятся с помощью символов 0,1; троичные-0,1,2, при этом нуль означает отсутствие передачи информации по каналу, т.е. отсутствие импульса, единица означает символ с одним значением сигнального признака, двойка- с другим. Под сигнальным признаком понимается некоторое значение тока или напряжения, позволяющее отличить один символ от другого.

2. По построению коды делятся на систематические и несистематические. Особенность построения систематических кодов как разделимых заключается в том, что в них четко разделены часть кода, несущая основную информацию, и часть кода, служащая для обнаружения и исправления ошибок, которая представляет собой контрольную информацию. Систематические коды могут быть построены по детерминированным алгоритмам, в соответствии с чем можно осуществить достаточно простые способы выявления этих кодов с обнаружением или исправлением ошибок.

Несистематические коды строятся с использованием различных методов  комбинирования. Это коды на одно сочетание, размещение перестановки и т.д., и при их выявлении осуществляется анализ путем сопоставления принятой комбинации с известным набором кодов на приемной стороне.

3. По наличию избыточности коды делятся на избыточные и неизбыточные. Для неизбыточных кодов характерно то, что при каждом отображении сообщения кодовой комбинацией для числа М возможных кодовых комбинаций, основным свойством является возможность их различения. Тогда код при основании системы счисления К может быть построен как отображение множества десятичных чисел от нуля до М-1 с числом разрядов n в каждой кодовой комбинации. Например, для М=4 двоичный избыточный код может быть получен при представлении чисел 0,1,2,3 двухэлементным двоичным кодом: 00,01,10,11 соответственно.

Если необходимо представить, например, четыре сообщения троичным неизбыточным кодом, то исходные десятичные числа 0,1,2,3 запишем в виде 00,01,02,10. В общем случае m-элементным неизбыточным кодом в К-ой системе счисления можно представить М=Ксообщений. Например, при двухэлементном неизбыточном троичном коде можно иметь 32=9 сообщений.

Переход от неизбыточного  кода к избыточному при использовании  систематических кодов осуществляется путем добавления некоторых контрольных  позиций, которые можно получить либо путем различных логических операций, выполняемых над основными  информационными позициями, либо путем  использования детерминированных  алгоритмов, связывающих избыточный и неизбыточный коды. Например, если нужно перейти от неизбыточного  кода к простейшему избыточному, то для случая двоичного кода, рассчитанного  на четыре сообщения, отображением которых  являются кодовые комбинации 00,01,10,11,  достаточно ввести одну контрольную позицию, значение символа на которой будет определяться как сумма значений предшествующих символов по модулю два. Эта логическая операция в двоичной системе определяется равенствами 0  0=0, 1  1=0, 0  1=1, 1  0=1.  Для рассматриваемых сообщений получаем 000, 011, 101, 110. Особенность такого кода заключается в том, что он позволяет обнаружить любую одиночную ошибку. Таким образом, отличие неизбыточных кодов от избыточных состоит в том, что из-за отсутствия избыточности они не способны обнаруживать ошибки и поэтому не могут быть использованы для передачи информации по каналам с шумом. С целью обеспечения достоверной передачи информации по каналу связи при заданных вероятностно-временных ограничениях необходимо вводить избыточность в код, что можно осуществить путем использования дополнительных контрольных позиций.

4. По корректирующим свойствам коды делятся на обнаруживающие и исправляющие, или корректирующие. Обнаруживающие коды при введении в них избыточности позволяют находить ошибки, с помощью корректирующих кодов возможно исправление ошибок, при этом доля вводимой избыточности по сравнению с предыдущим существенно возрастает. Следует отметить, что в настоящее время в ИС при передаче информации более широко применяются обнаруживающие коды в сочетании с дополнительными алгоритмами повышения помехоустойчивости за счет использования обратного канала связи.

5. По расположению элементов кода во времени различают последовательные, параллельные и последовательно-параллельные коды. В ИС чаще применяются коды с последовательной передачей элементов во времени в связи с особенностями использования средств модуляции и демодуляции в каналах связи. Трудность реализации параллельных кодов заключается в том, что должны быть использованы либо такие сигнальные признаки (например, частотный),  которые допускают одновременную передачу нескольких своих значений, либо совокупность сигнальных признаков при одновременной передаче по одному значению каждого сигнального признака.

В качестве  примера рассмотрим возможность параллельной передачи нескольких сообщений при использовании амплитудного, полярного и сигнального признаков по длительности. Тогда, если требуется передать три сообщения, одно из которых передается импульсом большой амплитуды, другое импульсом отрицательной полярности, а третье импульсом большой длительности, то передача этих сообщений будет означать появление импульса большой амплитуды, отрицательной полярности и большой длительности. Очевидно, нетрудно рассмотреть возможность передачи любой совокупности двух сообщений одновременно.

Следует отметить, что параллельные коды могут быть эффективно использованы при передаче относительно небольших  объемов информации.

2.3 Геометрические и комбинаторные  меры информации

Под оценкой количества информации прежде всего возникает вопрос о виде исходной информации, а поэтому измерение информации в значительной степени зависит от подхода к самому понятию информации, т.е. от подхода к ее содержанию. В настоящее время существуют три основные теории, в которых к понятию содержательного характера информации подходят с разных позиций. Статистическая теория оценивает информацию с точки зрения меры неопределенности. снимаемой при получении информации. Как правило, она не затрагивает смысла передаваемой информации, т.е. ее семантического содержания. В статистической теории основное внимание обращается на распределение вероятностей отдельных квантов информации и построение на его основе некоторых обобщенных характеристик, позволяющих оценить количество информации в каком-то кванте.

Совершенно иной подход наблюдается  в семантической теории, которая  учитывает в основном ценность информации, полезность ее и тем самым помогает связать ценность информации со старением, ценность информации и количество ее - с эффективностью управления в  системе. Наконец, структурная теория рассматривает принцип построения отдельных информационных массивов, при этом за единицу информации принимаются  некоторые элементарные структурные единицы кванты, и количество информации оценивается простейшим подсчетом квантов в информационном массиве.

Выбор единицы информации в настоящее время является весьма актуальной задачей. При передаче непрерывных  сообщений зачастую используется их дискретизация во времени, поэтому  применяется геометрическая мера. позволяющая  определить количество информации в  отдельных отсчетах, снимаемых за некоторый интервал времени, т.е. количество передаваемых сообщений в этом случае определяется числом отсчетов. При  передаче дискретной информации простейшей мерой информации может служить  число кодовых комбинаций, отображающих передаваемые сообщения. Число комбинаций получается на основе комбинаторного метода и определяется структурой построения кода. его избыточностью, т.е. способом построения. Недостатком данной меры является нелинейная зависимость между  числом кодовых комбинаций и числом элементов в коде. Например, для  неизбыточного кода число кодовых  комбинаций М=Кn. Обычно по каналу связи предается последовательность n символов, поэтому целесообразно иметь характеристику, линейно связанную с числом элементов в коде.

Будем считать, что число  сведений f в сообщении линейно зависит от длины кода: f=kn. Формулу для числа сведений в сообщении выведем при следующих условиях: 1) осуществляется передача дискретных сообщений; 2) сообщений являются равновероятными и взаимно независимыми; 3) символы, выдаваемые источником, взаимно независимы: 4) система счисления конечна.

Тогда df=kn. Если M=Kn, то dM = KlnKdn,  dn=dM/KlnK и df = kdM/M lnК 

f =k lnM/lnK =klogM/lnK=kloga M,                 (2.1)

где k0=k1/lnK.

В теории информации за единицу  количества информации принято число  сведении, которое передается двумя  равновероятными символами, или  сообщениями. Эта единица называется двоичной единицей информации.

Учитывая сказанное, имеем  при f =1 и M=2  1=kloga. Если k0=1, то а=2, 

f = I =log2M, где I - количество информации в некотором усредненном сообщении. Формула I=log2M называется формулой Хартли, она справедлива в соответствии с принятыми выше ограничениями 1) - 4).

Информация о работе Понятие информация и ее аспекты