Автор работы: Пользователь скрыл имя, 16 Января 2013 в 09:47, реферат
Термин "информатика" (франц. informatique) происходит от французских слов information (информация) и automatique (автоматика) и дословно означает "информационная автоматика". Этот термин введён во Франции в середине 60-х годов XX века, когда началось широкое использование вычислительной техники. Тогда в англоязычных странах вошёл в употребление термин "Computer Science", что означает буквально "компьютерная наука", для обозначения науки о преобразовании информации, которая базируется на использовании вычислительной техники. Теперь эти термины являются синонимами.
Например, программа телепередач на нынешнюю неделю будет неактуальна для многих телезрителей на следующей неделе.
Понятие об информации мы уже рассмотрели. Теперь остановимся на рассмотрении таких понятий как данные и информационные процессы.
Данные – это составная часть информации, представляющая собой зарегистрированные сигналы.
Информация не существует сама по себе, она проявляется в информационных процессах.
Информационные процессы - это процессы, связанные с получением, хранением, обработкой и передачей информации (т.е. действия, выполняемые с информацией). Т.е. это процессы, в ходе которых изменяется содержание информации или форма её представления.
Во время информационного процесса данные преобразовываются из одного вида в другой с помощью методов.
Основные методы обработки данных:
Понятие количества информации
Информация, вводимая в компьютер должна быть конкретной и однозначной. Издавна люди пользовались шифрами. Самыми простыми и удобными из них были цифровые шифры. Самая разнообразная информация - цвета, ноты, дни недели - может быть представлена в виде цифр.
Для обработки компьютером любая информация кодируется с помощью цифр. Цифры представляются электрическими сигналами, с которыми работает компьютер. Для удобства различения в компьютере используют сигналы двух уровней. Один из них соответствует цифре 1, другой - 0. Цифры 1 и 0 называются двоичными и являются символами, из которых состоит язык, понимаемый и используемый компьютером. Любая информация в компьютере представляется с помощью двоичных цифр.
Под количеством информации понимают количество кодируемых, передаваемых или хранимых символов.
Наименьшей единицей информации является бит (от англ. binary digit (bit)).
Бит - это наименьшая единица памяти, необходимая для хранения одного из двух знаков 0 и 1, используемых для внутримашинного представления данных и команд.
В современных компьютерах помимо двоичной системы счисления применяют и другие: восьмеричную и шестнадцатеричную системы счисления – для компактной записи двоичных кодов чисел и команд.
В информатике принято
рассматривать
Байт - это восьмиразрядный двоичный код, с помощью которого можно представить один символ.
С помощью одного байта можно записать двоичные коды 256 (28) чисел от 0 до 255.
Широко используются
также еще более крупные
1 Килобайт (Кбайт) = 1024 байт = 210 байт,
1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,
1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.
В последнее время в связи с увеличением объемов обрабатываемой информации входят в употребление такие производные единицы, как:
1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,
1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.