Контрольная работа по "Информатике"

Автор работы: Пользователь скрыл имя, 05 Июня 2013 в 00:42, контрольная работа

Краткое описание

Понимая информацию как один из стратегических ресурсов общества, необходимо уметь его оценивать как с качественной, так и с количественной стороны. Здесь возникают проблемы из-за нематериальной природы этого ресурса и субъективного восприятия конкретной информации каждым конкретным человеком.
Для измерения информации вводятся два параметра: количество информации I и объем данных Vд. Эти параметры имеют разные выражения и интерпретацию в зависимости от рассматриваемой меры количества информации и объема данных.
Синтаксическая мера информации. Эта мера оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.

Содержание

1. Количество информации. Единицы измерения информации……………..…...….3
2. основные устройства компьютера, их функции и взаимосвязь……………..…..14
3. Файловая система. Основные операции с файлами………………….………….18
Список использованной литературы……………………………………….……...20

Вложенные файлы: 1 файл

информатика.docx

— 126.30 Кб (Скачать файл)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Содержание:

1. Количество информации. Единицы  измерения информации……………..…...….3

2. основные устройства компьютера, их функции и взаимосвязь……………..…..14

3. Файловая система. Основные операции  с файлами………………….………….18

Список использованной литературы……………………………………….……...20


 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1. Количество информации. Единицы  измерения информации

Меры информации

Понимая информацию как один из стратегических ресурсов общества, необходимо уметь его оценивать  как с качественной, так и с  количественной стороны. Здесь возникают  проблемы из-за нематериальной природы  этого ресурса и субъективного  восприятия конкретной информации каждым конкретным человеком. 
Для измерения информации вводятся два параметра: количество информации I и объем данных Vд. Эти параметры имеют разные выражения и интерпретацию в зависимости от рассматриваемой меры количества информации и объема данных. 
Синтаксическая мера информации. Эта мера оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.  
Количество информации на синтаксическом уровне определяется с помощью понятия неопределенности состояния (энтропии) системы. 
Объем данных Vд в сообщении измеряется количеством символов (разрядов) в этом сообщении. В различных системах счисления один разряд имеет различный вес и соответственно меняется единица измерения данных:

  • в двоичной системе счисления единица измерения – бит (bit – binary digit) или более укрупненная единица байт, равная 8 бит. Сообщение, записанное двоичным кодом 10111011, имеет объем данных 8 бит или 1 байт.
  • в десятичной системе счисления единица измерения – дит (десятичный разряд). Сообщение, записанное числом 275903 имеет объем данных 6 дит.

 Вероятностный  подход 
Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной .кости, имеющей N граней (наиболее распространенным является случай шестигранной кости: N = 6). Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1,2,... N.

  • Введем в рассмотрение численную величину, измеряющую неопределенность -энтропию (обозначим ее Н). Величины N и Н связаны между собой некоторой функциональной зависимостью:

H=f(N),(1.1) 
 
а сама функция f является возрастающей, неотрицательной и определенной (в рассматриваемом нами примере) для N = 1, 2,... 6. 
Рассмотрим процедуру бросания кости более подробно: 
1) готовимся бросить кость; исход опыта неизвестен, т.е. имеется некоторая неопределенность; обозначим ее H1; 
2) кость брошена; информация об исходе данного опыта получена; обозначим количество этой информации через I; 
3) обозначим неопределенность данного опыта после его осуществления через H2. За количество информации, которое получено в ходе осуществления опыта, примем разность неопределенностей «до» и «после» опыта:

  • I = H1 - H2 (1.2)

Очевидно, что в случае, когда получен конкретный результат, имевшаяся неопределенность снята (Н2 = 0), и, таким образом, количество полученной информации совпадает с первоначальной энтропией. Иначе говоря, неопределенность, заключенная в опыте, совпадает с информацией об исходе этого опыта.  
Следующим важным моментом является определение вида функции f в формуле (1.1). Если варьировать число граней N и число бросаний кости (обозначим эту величину через М), общее число исходов (векторов длины М, состоящих из знаков 1,2,.... N) будет равно N в степени М: 
 
X=NM. (1.3) 
Так, в случае двух бросаний кости с шестью гранями имеем: Х = 62 = 36. Фактически каждый исход Х есть некоторая пара (X1, X2), где X1 и X2 - соответственно исходы первого и второго бросаний (общее число таких пар - X). 
Ситуацию с бросанием М раз кости можно рассматривать как некую сложную систему, состоящую из независимых друг от друга подсистем - «однократных бросаний кости». Энтропия такой системы в М раз больше, чем энтропия одной системы (так называемый «принцип аддитивности энтропии»): 
f(6M)=M∙f(6) 
Данную формулу можно распространить и на случай любого N: 
F(NM)=M∙f(N)(1.4) 
Прологарифмируем левую и правую части формулы (1.3): ln X = M ∙ ln N, М = ln X/1n M. Подставляем полученное для M значение в формулу (1.4): 
 
Обозначив через К положительную константу , получим: f(X) = К ∙ lп Х, или, с учетом (1.1), H=K ∙ ln N. Обычно принимают К = 1 / ln 2. Таким образом 
 
H=log2N.(1.5) 
Это-формула Хартли. 
Важным при введение какой-либо величины является вопрос о том, что принимать за единицу ее измерения. Очевидно, Н будет равно единице при N = 2. Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов (примером такого опыта может служить бросание монеты при котором возможны два исхода: «орел», «решка»). Такая единица количества информации называется «бит». 
 
Все N исходов рассмотренного выше опыта являются равновероятными и поэтому можно считать, что на «долю» каждого исхода приходится одна N-я часть общей неопределенности опыта: (log2 N)1N. При этом вероятность i-го исхода Рi равняется, очевидно, 1/N. 
 
Таким образом, 
 
 
 
Та же формула (1.6) принимается за меру энтропии в случае, когда вероятности различных исходов опыта неравновероятны (т.е. Рi могут быть различны). Формула (1.6) называется формулой Шеннона. 
В качестве примера определим количество информации, связанное с появлением каждого символа в сообщениях, записанных на русском языке. Будем считать, что русский алфавит состоит из 33 букв и знака «пробел» для разделения слов. По формуле (1.5) 
Н=log234≈5бит. 
Однако, в словах русского языка (равно как и в словах других языков) различные буквы встречаются неодинаково часто. Ниже приведена табл. 1.3 вероятностей частоты употребления различных знаков русского алфавита, полученная на основе анализа очень больших по объему текстов. 
Воспользуемся для подсчета Н формулой (1.6); Н ≈ 4,72 бит. Полученное значение Н, как и можно было предположить, меньше вычисленного ранее. Величина Н, вычисляемая по формуле (1.5), является максимальным количеством информации, которое могло бы приходиться на один знак. 

 Таблица 1.3. Частотность букв русского языка

 
i

 
Символ

 
Р(i)

 
i

 
Символ

 
P(i)

 
i

 
Символ

 
Р(i)

 
1

 
Пробел

 
0,175

 
13

 

 

 
0,028

 
24

 
Г

 
0.012

 
2

 
0

 
0,090

 
14

 
М

 
0,026

 
25

 
Ч

 
0,012

 
3

 
Е

 
0,072

 
15

 
Д

 
0,025

 
26

 
И

 
0,010

 
4

 
Ё

 
0,072

 
16

 
П

 
0,023

 
27

 
X

 
0,009

 
5

 
А

 
0,062

 
17

 
У

 
0,021

 
28

 
Ж

 
0,007

 
6

 
И

 
0,062

 
18

 
Я

 
0,018

 
29

 
Ю

 
0,006

 
7

 
Т

 
0,053

 
19

 
Ы

 
0,016

 
30

 
Ш

 
0.006

 
8

 
Н

 
0,053

 
20

 
З

 
0.016

 
31

 
Ц

 
0,004

 
9

 
С

 
0,045

 
21

 
Ь

 
0,014

 
32

 
Щ

 
0,003

 
10

 
Р

 
0,040

 
22

 
Ъ

 
0,014

 
33

 
Э

 
0,003

 
11

 
В

 
0,038

 
23

 
Б

 
0,014

 
34

 
Ф

 
0,002

 
12

 
Л

 
0,035

 

 

 

 

 

 

 

 

 

 

 

 

Аналогичные подсчеты Н можно провести и для других языков, например, использующих латинский алфавит - английского, немецкого, французского и др. (26 различных букв и «пробел»). По формуле (1.5) получим 
 
H=log227≈4,76бит. 
 
Как и в случае русского языка, частота появления тех или иных знаков не одинакова. 
Если расположить все буквы данных языков в порядке убывания вероятностей, то получим следующие последовательности: 
 
АНГЛИЙСКИЙ ЯЗЫК: «пробел», E, T, A, O, N, R, …  
 
НЕМЕЦКИЙ ЯЗЫК: «пробел», Е, N, I, S, Т, R, … 
 
ФРАНЦУЗСКИЙ ЯЗЫК: «пробел», Е, S, А, N, I, Т, … 
 
Рассмотрим алфавит, состоящий из двух знаков 0 и 1. Если считать, что со знаками 0 и 1 в двоичном алфавите связаны одинаковые вероятности их появления (Р(0) = Р(1) = 0,5), то количество информации на один знак при двоичном кодировании будет равно 
 
H = 1оg2 2 = 1 бит. 
 
Таким образом, количество информации (в битах), заключенное в двоичном слове, равно числу двоичных знаков в нем. 
 
Пример. По каналу связи передается n-разрядное сообщение, использующее m различных символов. Так как количество всевозможных кодовых комбинаций будет N = mn, то при равновероятности появления любой из них количество информации, приобретенной абонентом в результате получения сообщения, будет I = log N = n log m – формула Хартли. 
 
Если в качестве основания логарифма принять m, то I = n. В данном случае количество информации (при условии полного априорного незнания абонентом содержания сообщения) будет равно объему данных I = Vд, полученных по каналу связи. Для неравновероятностных состояний системы всегда I < Vд = n. 
 
Наиболее часто используются двоичные и десятичные логарифмы. Единицами измерения в этих случаях будут соответственно бит и дит. 
 
Коэффициент (степень) информативности (лаконичность) сообщения определяется отношением количества информации к объему данных, т.е. 
 
 
 
С увеличением Y уменьшаются объемы работы по преобразованию информации, для этого разрабатываются специальные методы оптимального кодирования информации. 
 
Семантическая мера информации. Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне, наибольшее признание получила тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение. Для этого используют понятие тезаурус пользователя. 
 
Тезаурус – это совокупность сведений, которыми располагает пользователь или система. 
 
В зависимости от соотношений между смысловым содержанием информации S и тезаурусом пользователя Sp изменяется количество семантической информации Ic, воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус.  
 
 
 
График зависимости количества семантической информации, воспринимаемой потребителем, от его тезауруса Ic = f(Sp
 
Два предельных случая, когда количество семантической информации Ic равно 0:

  • при Sp » 0 пользователь не воспринимает, не понимает поступающую информацию;
  • при Sp ® ¥ пользователь все знает, и поступающая информация ему не нужна.

Максимальное количество Ic потребитель приобретает при согласовании ее смыслового содержания S со своим тезаурусом Sp (Sp = Sp opt), когда поступающая информация понятна пользователю и несет ему ранее неизвестные (отсутствующее в тезаурусе) сведения. Следовательно новых знаний, получаемых пользователем, является величиной относительной. Одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным для пользователя некомпетентного. При оценке содержательного аспекта информации необходимо стремиться к согласованию величин S и Sp.  
 
Прагматическая мера информации. Эта мера определяет полезность информации (ценность) для достижения пользователем поставленной цели, Эта мера также величина относительная, обусловленная особенностями использования этой информации в той или иной системе. 
 
Пример. В экономической системе ценность информации можно определить приростом экономического эффекта ее функционирования, достигнутым благодаря использованию этой информации для управления системой.

 
 Мера информации

 

Единицы измерения

 
Примеры  
(для компьютерной области)

 
Синтаксическая: 
 
шенноновский подход 
 
 
компьютерный подход

 
Степень уменьшения неопределенности 
 
Единицы представления информации

 
Вероятность события 
 
 
Бит, байт, Кбайт и т.д.

 
Семантическая

Тезаурус 
 
 
Экономические показатели

ППП, ПК, компьютерные сети и т.д. 
Рентабельность, производительность, коэффициент амортизации и т.д.

 
Прагматическая

 
Ценность использования

Емкость памяти, производительность компьютера, скорость передачи данных и т.д. 
 
Денежное выражение 
 
Время обработки информации и принятия решений


Единицы измерения  информации

В компьютерной технике используется двоичная система счисления. Ее выбор  определяется реализацией аппаратуры ЭВМ (электронными схемами), в основе которой лежит использование  двоичного элемента хранения данных – триггера. Он имеет два устойчивых состояния (~ вкл., выкл.), условно обозначаемых как 0 и 1 и способен хранить минимальную порцию данных равную 1 биту. Бит выступает в качестве элементарной единицы количества или объема хранимой (передаваемой) информации безотносительно к ее содержательному смыслу. 
Если взять n триггеров, то количество всевозможных комбинаций нулей и единиц в них равно 2n. Формально появление 0 или 1 в ячейке можно рассматривать как равновероятные исходы событий, тогда, применив формулу Хартли I = log2 2n = n, можно сделать вывод, что в n триггерах можно хранить n бит информации. 
 
Количество информации в 1 бит является слишком малой величиной, поэтому наряду с единицей измерения информации 1 бит, используется более крупная единица1 байт, 1байт =8 бит =23 бит. В компьютерной технике наименьшей адресуемой единицей является 1 байт. 
 
В настоящее время в компьютерной технике при хранении и передаче информации используются в качестве единиц объема хранимой (или передаваемой) информации более крупные единицы: 
 
1 килобайт (1 Кбайт) = 210 байт = 1024 байт,  
 
1 мегабайт (1 Мбайт) = 210 Кбайт = 1024 Кбайт = 220 байт,  
 
1 гигабайт (1 Гбайт) = 210 Мбайт=1024 Мбайт = 230 байт,  
 
1 терабайт (1 Тбайт) = 210 Гбайт = 1024 Мбайт = 240 байт,  
 
1 петабайт (1 Пбайт) = 210 Тбайт = 1024 Тбайт = 250 байт. 
 
1 экзабайт = 210 Пбайт =260 байт.  
 
В битах, байтах, килобайтах, мегабайтах и т.д. измеряется также потенциальная информационная ёмкость оперативной памяти и запоминающих устройств, предназначенных для хранения данных (жесткие диски, дискеты, CD-ROM и т.д.).


 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2. Основные устройства компьютера, их функции и взаимосвязь

 

Информация, обрабатываемая на компьютере, называется данными. Компьютер обрабатывает информацию по определенной инструкции, представляющей собой последовательность команд, которые компьютер может  выполнить. Такая последовательность команд называется программой.

Центральным устройством компьютера, устройством, которое выполняет  программу по обработке данных, является процессор. Процесор может обрабатывать числовую, текстовую, графическую, видео и звуковую информацию. Все эти виды информации кодируются в последовательности электрических импульсов: есть импульс(1), нет импульса(0), т. е. в последовательности нулей и единиц.

Однако пользователь очень плохо  понимает информацию представленную в  виде последовательности нулей и  единиц(машинный яззык). Поэтому в состав компьютера входят специальные устройства ввода и вывода информации. Устройства ввода переводят информацию с языка человека на язык компьютера, а устройства вывода, наоборот, переводят информацию с языка компьютера в форму, понятную человеку.

Рассмотрим устройства ввода информации. Для ввода числовой и текстовой  информации используется клавиатура. Для ввода графической информации или для работы с графическим  интерфейсом программ чащеще всего используется мышь или трекбол.

Чтобы ввести в компьютер фотографию или рисунок используют сканер.

Для ввода звуковой информации используют микрофон.

Для управления компьютерными играми используют джоистик.

Наиболее универсальным устройством  вывода является монитор.

Для сохранения числовой, текстовой  и графической информации в виде "твердой копии" на бумаге используется принтер.

 

Для вывода на бумагу сложных чертежей, рисунков и схем большого формата  используется плоттер.

Вывод звуковой информации осуществляется с помощью акустических колонок  или наушников.

Программа и данные должны быть загружены  в специальное устройство- оперативную память. Однако при выключении компьютера вся информация из оперативной памяти стирается. Для долговременного хранения различных программ и данных используются накопители на гибких магнитных дисках, жесткие диски и дисководы CD-ROM .

Обмен информацией между отдельными устройствами компьютера производится по магистрали, соединяющей все устройства компьютера.

Схема устройства компьютера:

Устройство  компьютера:

Микропроцессор - небольшая электронная схема, выполняющая все вычисления и обработку информации.

В компьютерах  типа IBM PC используется микропроцессоры  фирмы Intel. Микропроцессоры отличаются друг от друга двумя характеристиками: типом (моделью) и тактовой частотой. 
Наиболее распространены модели Intel-8088, 80286, 80386, 80486 и Pentium, они приведены в порядке возрастания производительности и цены. Одинаковые модели микропроцессоров могут иметь разную тактовую частоту. Тактовая частота указывает, сколько элементарных операций (тактов) микропроцессор выполняет в одну секунду. Тактовая частота измеряется в мегагерцах (Мгц).

Оперативная память. Из оперативной памяти процессор берет программы и исходные данные для обработки, в нее он записывает полученные результаты. Оперативная память работает очень быстро, содержащиеся в ней данные сохраняются только пока компьютер включен, при выключении компьютера содержимое оперативной памяти стирается.

Контроллеры и шина. Чтобы компьютер мог работать, необходимо, чтобы в его оперативной памяти находились программа (последовательность команд, записанная на языке понятном процессору) и данные. А попадают они туда из различных устройств компьютера: - клавиатуры, дисководов для магнитных дисков и т.д. Обычно эти устройства называют внешними. 
Таким образом, для работы компьютера необходим обмен информацией между оперативной памятью и внешними устройствами. Такой обмен называется вводом-выводом. Но этот обмен не происходит непосредственно: между любым внешним устройством и оперативной памятью в компьютере имеются два промежуточных звена:

Контроллер или адаптер - электронная схема, которая управляет работой какого-либо внешнего устройства.

Шина - системная магистраль передачи данных

Дисководы- устройства для записи, считывания и длительного хранения информации на гибких магнитных дисках (дискетах). Объем информации, который может быть размещен на дискете, различен для различных типов дискет. Самые распространенные на сегодня дискеты - 1.44 Мбайта.

Винчестеры - устройства для записи, считывания и длительного хранения информации на жестких магнитных дисках. Необходимый объем винчестера зависит от потребностей и материальных возможностей пользователя, на сегодняшний день –1 Гбайт и выше.

Принтеры - печатающие устройства, предназначенные для вывода информации на бумагу. Существует несколько тысяч моделей принтеров. Как правило, применяются принтеры следующих типов: матричные, струйные и лазерные.

Мониторы - устройства, предназначенные для вывода на экран текстовой и графической информации.

Дополнительные  устройства

Мышь - манипулятор для ввода информации в компьютер. Модем - устройство для обмена информацией между компьютерами через телефонные, оптоволоконные и др. Сети.

Сканер - устройство для считывания графической и текстовой информации в компьютер с бумажных носителей информации. Плоттер - устройство для вывода чертежей на бумагу.

 

 

 

 

 

 

 

 

 

3. Файловая система. Основные  операции с файлами.

 

 

 Файл. Все программы  и данные хранятся в долговременной (внешней) памяти компьютера в виде файлов. Файл — это определенное количество информации (программа или  данные), имеющее имя и хранящееся в долговременной (внешней) памяти. 
         Имя файла состоит из двух частей, разделенных точкой: собственно имя файла и расширение, определяющее его тип (программа, данные и т. д.). Собственно имя файлу дает пользователь, а тип файла обычно задается программой автоматически при его создании. 
         В различных операционных системах существуют различные форматы имен файлов. В операционной системе MS-DOS собственно имя файла должно содержать не более восьми букв латинского алфавита и цифр, а расширение состоит из трех латинских букв, например: 
        proba.txt 
        В операционной системе Windows имя файла может иметь до 255 символов, причем допускается использование русского алфавита, например: 
    Единицы измерения информации.doc 
         Файловая система. На каждом носителе информации (гибком, жестком или лазерном диске) может храниться большое количество файлов. Порядок хранения файлов на диске определяется установленной файловой системой. 
      Для дисков с небольшим количеством файлов (до нескольких десятков) удобно применять одноуровневую файловую систему, когда каталог (оглавление диска) представляет собой линейную последовательность имен файлов. 
         Если на диске хранятся сотни и тысячи файлов, то для удобства поиска файлы организуются в многоуровневую иерархическую файловую систему, которая имеет «древовидную» структуру. 
         Начальный, корневой, каталог содержит вложенные каталоги 1-го уровня, в свою очередь, в каждом из них бывают вложенные каталоги 2-го уровня и т. д. Необходимо отметить, что в каталогах всех уровней могут храниться и файлы. 
         Операции над файлами. В процессе работы на компьютере над файлами чаще всего производятся следующие операции: копирование (копия файла помещается в другой каталог); перемещение (сам файл перемещается в другой каталог); удаление (запись о файле удаляется из каталога); переименование (изменяется имя файла). 
         Графическое представление файловой системы. Иерархическая файловая система MS-DOS, содержащая каталоги и файлы, представлена в операционной системе Windows с помощью графического интерфейса в форме иерархической системы папок и документов. Папка в Windows является аналогом каталога MS-DOS. 
         Однако иерархические структуры этих систем несколько различаются. В иерархической файловой системе MS-DOS вершиной иерархии объектов является корневой каталог диска, который можно сравнить со стволом дерева — на нем растут ветки (подкаталоги), а на ветках располагаются листья (файлы). 
                 
    




 

 

Рис. 1 Иерархическая  структура папок.   

 В Windows на вершине иерархии папок находится папка Рабочий стол (рис. 1). Следующий уровень

представлен папками Мой компьютер, Корзина  и Сетевое окружение (если компьютер  подключен к локальной сети).

 

Список  использованной литературы:

1. Орлов С., Цилькер Б. Организация ЭВМ и систем: Пиер, 2007, 672с.;

2. Мелехин В.Ф., Павловский Б.Г. Вычислительные машины, системы и сети, 3-е издание: М.: Издательский центр «Академия» 2007г., 560с.;

3. Гордеев А.В. Операционные системы. Учебник для ВУЗов. 2-е изд.: Питер, 2004, 416 с.;

4. Таненбаум Э.С. Перевод: А. Леонтьев Современные операционные системы: Питер , 2002, 1040с.;

5. www.powerquest.ru

 


Информация о работе Контрольная работа по "Информатике"