Автор работы: Пользователь скрыл имя, 27 Ноября 2013 в 13:44, лекция
1. Понятие информации.
2. Концепции информации.
3. Формы передачи, представления и виды информации.
4. Свойства информации.
5. Измерение информации. Математическое понятие информации
6. Понятие системы счисления.
7. Двоичное кодирование.
Закреплен запрет на требование от гражданина (физического лица) предоставления информации о его частной жизни, в том числе информации, составляющей личную или семейную тайну, и на получение такой информации помимо воли гражданина (физического лица). Исключение могут составлять только случаи, предусмотренные федеральными законами.
Концепции информации
Первая концепция (концепция К.Шеннона), отражая количественно-информационный подход, определяет информацию как меру неопределенности (энтропию) события. Количество информации в том или ином случае зависит от вероятности его получения: чем более вероятным является сообщение, тем меньше информации в нем содержится. При таком понимании информация – это снятая неопределенность или результат выбора из набора возможных альтернатив.
Шенноном были решены вопросы исчисления пропускной способности каналов связи, энтропии источников сообщений и т.д.
Совокупность этих представлений, названная К. Шенноном "математической теорией связи"3, и явилась основой классической теории информации. Отличительной чертой этой работы было отсутствие определения понятия "информация", т.к. считалось очевидным, что по каналам связи передают осмысленные сообщения, т.е. информацию. Таким образом, классическая теория информации отвлекается от требований осмысленности информации. Этот подход, хотя и не учитывает смысловую сторону информации, оказался весьма полезным в технике связи и вычислительной технике, послужил основой для измерения информации и оптимального кодирования сообщений.
Впоследствии появилась обобщенная теория информации – система представлений, стремящаяся использовать шенноновскую формулу для определения "количества информации", связанной с событиями, а не только с появлением на выходе канала связи очередного символа.
Вторая концепция рассматривает информацию как свойство (атрибут) материи. Ее появление связано с развитием кибернетики и основано на утверждении, что информацию содержат любые сообщения, воспринимаемые человеком или прибором. Наиболее ярко и образно эта концепция выражена академиком, д-ром физ.-мат. наук Виктором Михайловичем Глушковым. Вообще академик Глушков относится к плеяде выдающихся советских и украинских ученых, оказавших влияние не только на отечественную, но и на мировую науку. Именно Глушков дал современной кибернетике и информатике импульс дальнейшего развития по сравнению с Винером. В работе "Об информационных возможностях современных электронных вычислительных машин" еще в 1960 году он писал: "Под информацией в современной науке принято понимать меру неоднородности распределения материи и энергии в пространстве и во времени. При таком понимании информации, оказывается возможным говорить, например, об информации, которую несет солнечный луч, шум горного обвала, шорох листвы и т.д. Во всяком случае при этом необязательно требовать осмысленности, с которой неразрывно связывается понятие информации в ее обычном, житейском понимании".
Третья концепция основана на логико-семантическом подходе (семантика – изучение текста с точки зрения смысла), при котором информация трактуется как знание, причем не любое знание, а та его часть, которая используется для ориентировки, для активного действия и управления. Иными словами, информация – это действующая, полезная часть знаний. Представитель этой концепции доктор философских наук, проф., академик РАН Виктор Григорьевич Афанасьев, развивая логико-семантический подход, дает определение социальной информации: "Информация, циркулирующая в обществе, используемая в управлении социальными процессами, является социальной информацией. Она представляет собой знания, сообщения, сведения о социальной форме движения материи и обо всех других формах в той мере, в какой она используется обществом…"
Формы передачи информации
Различают две формы передачи информации:
дискретная форма представления информации – это последовательность символов, характеризующая прерывистую, изменяющуюся величину (количество дорожно-транспортных происшествий, количество тяжких преступлений и т.п.);
аналоговая или непрерывная форма представления информации – это величина, характеризующая процесс, не имеющий перерывов или промежутков (температура тела человека, скорости автомобиля на определенном участке пути и т.п.).
Виды информации
Все многообразие окружающей нас информации можно сгруппировать по различным признакам, т.е. классифицировать по видам. Например, в зависимости от области возникновения информацию, отражающую процессы и явления неодушевленной природы, называют элементарной или механической, процессы животного и растительного мира – биологической, человеческого общества – социальной.
Различают виды информации по способу передачи и восприятия. Информацию, передаваемую видимыми образами и символами, называют визуальной, звуками – аудиальной, ощущениями – тактильной, запахами и вкусом – органолептической, информацию, выдаваемую и воспринимаемую средствами вычислительной техники – машинной.
Информацию, создаваемую и используемую человеком, по общественному назначению можно разбить на три класса: личная, массовая и специальная. Название классов используемой информации раскрывает и их содержание. Так, личная информация предназначается для конкретного человека, массовая – для любого желающего ею пользоваться (общественно-политическая, научно-популярная и т.д.), специальная – для использования узким кругом лиц, занимающихся решением сложных специальных задач в области науки, техники, экономики, а, например, в органах внутренних дел – оперативно-розыскные данные, криминалистические данные и т.п.
И, наконец, если говорить об информации как объекте правовых отношений, то законодатель выделяет следующие виды информации в Ст. 5 ФЗ "Об информации, информационных технологиях и о защите информации"
п.2. Информация в зависимости от категории доступа к ней подразделяется на общедоступную информацию, а также на информацию, доступ к которой ограничен федеральными законами (информация ограниченного доступа).
п.3. Информация в зависимости от порядка ее предоставления или распространения подразделяется на:
1) информацию, свободно распространяемую;
2) информацию, предоставляемую
по соглашению лиц,
3) информацию, которая
в соответствии с федеральными
законами подлежит
4) информацию, распространение которой в Российской Федерации ограничивается или запрещается.
п. 4. Законодательством Российской Федерации могут быть установлены виды информации в зависимости от ее содержания или обладателя.
Формы представления информации
Внешнюю форму изображения информации называют представлением (конкретная форма сообщения).
Символьная форма. Основана на использовании символов – букв, цифр, знаков и т.п. Является наиболее простой, практически применяется только для передачи несложных сигналов о различных событиях. Примером может служить свет уличного светофора.
Текстовая форма является более сложной. Здесь также как и в предыдущей форме используются символы: буквы, цифры, математические знаки. Однако информация заложена не только в этих символах, но и в их сочетаниях, порядке следования. Например, слова КОТ и ТОК имеют одинаковые буквы, но содержат различную информацию.
Графическая форма является наиболее сложной и емкой. К этой форме относятся фотографии, схемы, чертежи, рисунки и т.п.
Свойства информации
Информация обладает рядом свойств, характерных для любой ее формы.
Свойства информации можно рассматривать в трех аспектах:
техническом – это точность, надежность, скорость передачи сигналов и т.д.;
семантическом – это передача смысла текста с помощью кодов;
прагматическом – это насколько эффективно информация влияет на поведение объекта.
Свойства характеризуют информацию по ценности, полезности, полноте, истинности и ясности.
Ценность информации может определяться различными факторами. Так, информация ценна, если актуальна, т.е. важна и существенна для данного времени. Ценной является информация, представленная вовремя и тому, кто в ней нуждается.
Информация полезна, если уменьшает неопределенность знаний о чем-либо, обеспечивает своевременность принятия конкретного решения или конкретного действия.
Целевая функция информации (ее прагматический аспект) характеризуется способностью влиять на процессы управления, на соответствующее целям управления поведение людей. В этом, по существу, и состоит полезность и ценность информации.
Полнота информации характеризуется избыточностью, достаточностью и недостаточностью.
Избыточной называется информация, которая либо дублирует уже имеющуюся полезную информацию, либо включает часть неиспользуемой информации. Применительно к системам обработки данных на ЭВМ избыточную информацию часто называют "информационными шумами".
Приемы развернутого (избыточного) изложения материала используется, например, на лекциях с целью оптимизации восприятия аудиторией сущности сложных понятий.
Достаточной информацией считается минимальный необходимый объем информации, который позволяет выполнить, если не оптимально, то хотя бы рационально то или иное действие, ту или иную работу.
Недостаточной является информация, использование которой не обеспечивает возможность решения той или иной задачи.
По истинности информация может быть достоверной (истинной), недостоверной (не истинной) или вероятностной. Достоверная информация объективно отражает положение дел. Недостоверная информация ложна в силу непреднамеренных или преднамеренных действий. В первом случае причинами искажения информации могут быть технические неполадки средств обработки данных, низкая квалификация работников и т.п. Свойство вероятности информации возникает при отсутствии методик для однозначного решения проблемы.
Ясность является важным свойством информации. Если ценная и актуальная информация выражена непонятными словами, непонятными символами, то она может оказаться бесполезной, так как воспользоваться ею человек не сможет. Наоборот, если даже сложная информация представлена ясно и понятно, то такая информация будет способствовать скорейшему ее уяснению и использованию.
ИЗМЕРЕНИЕ ИНФОРМАЦИИ. МАТЕМАТИЧЕСКОЕ ПОНЯТИЕ ИНФОРМАЦИИ
Информация, используемая человеком, очень часто нуждается в измерении, в определении ее количества. Так вот математическое понятие информации как раз и связано с ее измерением.
В теории информации принят энтропийный подход, который устанавливает ценность информации, содержащейся в сообщении для его получателя, и исходит из следующей модели. Получатель сообщения имеет представление о возможности наступления некоторых событий. Эти представления в общем случае недостоверны и выражаются вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределенности, называемая энтропией, характеризуется некоторой математической зависимостью от совокупности этих вероятностей.
Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала. (Эта мера неопределенности в теории информации и есть энтропия.) Если в результате получения сообщения достигается полная ясность в каком-то вопросе, говорят, что была получена полная или исчерпывающая информация и необходимости в получении дополнительной информации нет. И, наоборот, если после получения сообщения неопределенность осталась прежней, значит, информации получено не было (нулевая информация).
Информация всегда имеет конкретное смысловое значение, которое связано с ее потребителем (в том числе потенциальным). Другими словами, субъективные характеристики потребителя информации определяют количество полезной (семантической) информации, и в одном и том же сообщении для разных потребителей будет содержаться различное количество информации.
В то же время с точки зрения статистических характеристик информация имеет количественную меру, абстрагированную от ее смысла играющую важную роль при оценке (измерении) объемов информации в различных сферах ее применения.
С некоторой условностью единицы измерения информации можно разделить на две группы: немашинные и машинные.
Немашинные измерители
позволяют представить
Чтобы получить представление о количестве информации в книге, переводимой с иностранного языка на русский, обычно подсчитывают общее количество знаков на одной странице. Для представления объема информации, который приходится перерабатывать бухгалтеру, можно подсчитать количество документов, поступающих к нему из цехов и отделов, и т.д.
Однако такие единицы количества информации не позволяют представить ее нам с позиций возможностей ЭВМ. Поэтому в технике часто используют более простой и грубый объемный способ измерения информации. Он основан на подсчете числа символов в сообщении, т.е. связан с длиной сообщения и не учитывает его содержания. Объемы информации, подлежащие обработке, оказывают значительное влияние на выбор методов и технических средств обработки, трудоемкость процесса перевода решения задач на ЭВМ. Забегая вперед, надо отметить, что и оперативная и внешняя память современных компьютеров хотя и может достигать колоссальных размеров, имеет предел. Это значит, что, обрабатывая на машине информацию, следует соизмерять ее объемы с объемами машинной памяти.
Сделать это позволяют машинные единицы измерения информации. Количество информации в ЭВМ принято измерять в битах.