Теоретическая информатика. Решение систем линейных уравнений методом Крамара

Автор работы: Пользователь скрыл имя, 15 Июня 2014 в 23:58, курсовая работа

Краткое описание

Практически в каждой науке есть фундамент, без которого ее прикладные аспекты лишены основ. Для математики такой фундамент составляют теория множеств, теория чисел, математическая логика и некоторые другие разделы; для физики — это основные законы классической и квантовой механики, статистической физики, релятивистской теории; для химии — периодический закон, его теоретические основы и т.д. Можно, конечно, научиться считать и пользоваться калькулятором, даже не подозревая о существовании указанных выше разделов математики, делать химические анализы без понимания существа химических законов, но при этом не следует думать, что ты знаешь математику или химию. Примерно то же с информатикой: можно изучить несколько программ и даже освоить некоторое ремесло, но это отнюдь не вся информатика, точнее, даже не самая главная и интересная ее часть.

Содержание

Глава 1. Теоретическая информатика.
Введение
Информатика как наука и вид практической деятельности
Социальные, правовые и этические аспекты информатики.
Информация, ее виды и свойства
Единицы количества информации: вероятностный и объемный подходы.
Информационная картина мира.
Глава 2. Решение систем линейных уравнений методом Крамара.
Введение
Метод Крамера
Delphi
Глава 3. Практическая часть.

Вложенные файлы: 1 файл

Курсовая работа.docx

— 112.26 Кб (Скачать файл)

 

 3.3. Этические аспекты информатики

 Далеко не все правила, регламентирующие  деятельность в сфере информатики, можно свести в правовым нормам. Очень многое определяется соблюдением неписаных правил поведения для тех, кто причастен к миру компьютеров. Впрочем, в этом отношении информатика ничуть не отличается от любой другой сферы деятельности человека в обществе.

Как и в любой другой большой и разветвленной сфере человеческой деятельности, в информатике к настоящему времени сложились определенные морально-этические нормы поведения и деятельности. 

Морально-этические нормы в среде информатиков отличаются от этики повседневной жизни несколько большей открытостью, альтруизмом. Большинство нынешних специалистов-информатиков сформировались и приобрели свои знания и квалификацию благодаря  бескорыстным консультациям и содействию других специалистов. Очевидно, поэтому они готовы оказать бескорыстную помощь, дать совет или консультацию, предоставить компьютер для выполнения каких-либо манипуляций с дискетами и т.д. Ярким примером особой психологической атмосферы в среде информатиков является расширяющееся международное движение программистов, предоставляющих созданные ими программные средства для свободного распространения.

Это — положительные аспекты, но есть и отрицательные. Обратим внимание на язык информатиков. Сленг российских информатиков построен на искаженных под русское произношение англоязычных терминах и аббревиатурах, введенных иностранными фирмами — разработчиками компьютеров и программного обеспечения в технической документации. Одновременно формируется и набор  сленговых слов, заимствованных из русского языка на основе аналогий и  ассоциаций по сходству и смежности  (например: архивированный — “утоптанный”, компьютер — “железо” или “тачка” и т.д.). С тем, что многие специальные термины пришли к нам из США, приходится мириться. Никто сегодня уже не перейдет от термина “принтер” к  аналогичному “автоматическое цифровое печатающее устройство” (которым пользовались не так уж давно). Приживаемости подобных слов в отечественной литературе способствует, в частности, их относительная краткость. Однако трудно понять, зачем в телеконференции учителя иногда именуют себя “тичерами” — от этого они лучше не становятся.  Итак, одно из этических правил — не искажай родной язык.

 Особую остроту этические  проблемы приобретают при работе  в глобальных телекоммуникационных  сетях. Вскрыть защиту чужой базы  данных — уголовное преступление. А можно ли позволять себе  нецензурные выражения или прозрачные  их эвфемизмы? Коммерческую рекламу  в некоммерческой телеконференции? — Независимо от того, предусмотрено  за это законом возмездие или  нет, порядочный человек этого  делать не станет.

Этика — система норм нравственного поведения человека. Порядочный человек не прочтет содержимое дискеты, забытой соседом на рабочем месте, не потому, что это грозит ему наказанием, а потому, что это безнравственный поступок; не скопирует программу в отсутствие ее хозяина (не потому, что на него могут подать в суд, а потому, что этот поступок осудят его коллеги. Всякий раз, собираясь совершить сомнительный поступок в сфере профессиональной деятельности, человек должен задуматься, соответствует ли он этическим нормам, сложившимся в профессиональном сообществе.

 

 

4. Информация, ее виды и свойства 

4.1. Различные уровни представлений об информации

 Ранее мы неоднократно употребляли  термин “информация”, никак его  при этом не раскрывая. 

Понятие  информация  является одним из  фундаментальных в современной науке вообще и базовым для изучаемой нами информатики. Информацию наряду с веществом и энергией рассматривают в качестве важнейшей сущности мира, в котором мы живем. Однако, если задаться целью формально определить понятие “информация”, то сделать это будет чрезвычайно сложно. Аналогичными “неопределяемыми” понятиями, например, в математике является “точка” или “прямая”. Так, можно сделать некоторые утверждения, связанные с этими математическими понятиями, но сами они не могут быть определены с помощью более элементарных понятий.

В простейшем бытовом понимании с термином “информация” обычно ассоциируются некоторые сведения, данные, знания и т.п. Информация передается в виде  сообщений, определяющих форму и представление передаваемой информации. Примерами сообщений являются музыкальное произведение; телепередача; команды регулировщика на перекрестке; текст, распечатанный на принтере; данные, полученные в результате работы составленной вами программы и т.д. При этом предполагается, что имеются “источник информации” и “получатель информации”.

Сообщение от источника к получателю передается посредством какой-нибудь среды, являющейся в таком случае “каналом связи” . Так, при передаче речевого сообщения в качестве такого канала связи можно рассматривать воздух, в котором распространяются звуковые волны, а в случае передачи письменного сообщения (например, текста, распечатанного на принтере) каналом сообщения можно считать лист бумаги, на котором напечатан текст.

Человеку свойственно  субъективное   восприятие информации через некоторый набор ее свойств: важность, достоверность, своевременность, доступность и т.д. В этом смысле одно и то же сообщение, передаваемое от источника к получателю, может передавать информацию в разной степени. Так, например, вы хотите сообщить о неисправности компьютера. Для инженера из группы технического обслуживания сообщение “компьютер сломался” явно содержит больше информации, чем для вахтера. Но, в свою очередь, для инженера сообщение “не включается дисплей” содержит информации больше, чем первое, поскольку в большей степени снимает неопределенность, связанную с причиной неисправности компьютера. Как видно,  одно и то же сообщение для различных пользователей несет различную информацию.

Использование терминов “больше информации” или “меньше информации” подразумевает некую возможность ее   измерения  (или хотя бы количественного соотнесения). При субъективном восприятии измерение информации возможно лишь в виде установления некоторой порядковой шкалы для оценки “больше” — “меньше”, да и то субъективной, поскольку на свете немало людей, для которых, например, оба сообщения, использованных выше в качестве примера, вообще не несут никакой информации. Такое становится невозможным при введении  объективных  характеристик, из которых для информации важнейшей является количество. Однако, при объективном измерении количества информации следует заведомо отрешиться от восприятия ее с точки зрения субъективных свойств, примеры которых перечислены выше. Более того, не исключено, что не всякая информация будет иметь объективно измеряемое количество — все зависит от того, как будут введены единицы измерения. Не исключено и то, что при разных способах введения единиц измерения информация, содержащаяся в двух допускающих измерение сообщениях, будет по разному соотноситься.

4.2. Непрерывная и дискретная информация

 Чтобы сообщение было передано от источника к получателю необходима некоторая материальная субстанция — носитель  информации. Сообщение, передаваемое с помощью носителя, назовем сигналом. В общем случае сигнал — это изменяющийся во времени физический процесс. Такой процесс может содержать различные характеристики (например, при передаче электрических сигналов может изменятся напряжение и сила тока). Та из характеристик, которая используется для представления сообщений, называется   параметром сигнала.

В случае когда параметр сигнала принимает последовательное во времени конечное число значений (при этом все они могут быть пронумерованы) сигнал называется дискретным, а сообщение, передаваемое с помощью таких сигналов — дискретным сообщением. Информация, передаваемая источником в этом случае, также называется дискретной. Если же источник вырабатывает непрерывное сообщение (соответственно параметр сигнала — непрерывная функция от времени), то соответствующая информация называется непрерывной. Пример дискретного сообщения — процесс чтения книги, информация в которой представлена текстом, т.е. дискретной последовательностью отдельных значков  (букв). Примером непрерывного сообщения служит человеческая речь, передаваемая модулированной звуковой волной; параметром сигнала в этом случае является давление, создаваемое этой волной в точке нахождения приемника — человеческого уха.

 

а)

 

 

 

б)

 

 

 

в)

 

 

 

 

 

 Рис. 1. Процедура дискретизации непрерывного сообщения.

Непрерывное сообщение может быть представлено некоторой непрерывной функцией, заданной на некотором интервале (рис. 1,а). Непрерывное сообщение можно преобразовать в дискретное (такая процедура называется дискретизацией). Из  бесконечного множества значений параметра сигнала выбирается их определенное число, которое приближенно может характеризовать остальные значения. Для этого область определения функции разбивается на отрезки равной длины и на каждом из этих отрезков значение функции принимается постоянным и равным, например, среднему значению на этом отрезке (рис. 1,б). Полученную функцию, называемую в математике ступенчатой, можно изобразить и иначе, например,  с помощью соответствующих вертикальных линий (рис. 1,в).

В итоге получим конечное множество чисел, определяемых, например, по середине или одной из границ таких отрезков. Таким образом, любое сообщение может быть представлено как дискретное, иначе говоря, последовательностью знаков некоторого алфавита.

Возможность дискретизации непрерывного сигнала с любой желаемой точностью (для возрастания точности достаточно уменьшить шаг)  принципиально важна с точки зрения информатики. Компьютер — цифровая машина, т.е. внутреннее представление информации в нем дискретно. Дискретизация входной информации (если она непрерывна) позволяет сделать ее пригодной для компьютерной обработки.

Существуют и другие вычислительные машины — аналоговые ЭВМ.  Они используются обычно для решения задач специального характера и широкой публике практически не известны.  Эти ЭВМ в принципе не нуждаются в дискретизации входной информации, так как ее внутреннее представление у них непрерывно. В этом случае все наоборот — если внешняя информация дискретна, то ее “перед употреблением” необходимо преобразовать ее в  непрерывную.

 

5. Единицы количества информации: вероятностный и объемный подходы.

 

Определить понятие “количество информации” довольно сложно.  В решении этой проблемы существуют два основных подхода. Исторически они возникли почти одновременно. В конце 40-х годов XX века один из основоположников кибернетики американский математик Клод Шеннон развил вероятностный подход к измерению количества информации, а работы по созданию  ЭВМ привели к “объемному” подходу.

Вероятностный подход

Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной кости, имеющей N граней (наиболее распространенным является случай шестигранной кости: N = 6). Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1, 2, . . . N.

Введем в рассмотрение численную величину, измеряющую неопределенность — энтропию (обозначим ее H). Величины N и H связаны между собой некоторой функциональной зависимостью:

H = f(N),                  (1.1) 

а сама функция f является возрастающей, неотрицательной и определенной (в рассматриваемом нами примере) для N = 1, 2, … 6.

Рассмотрим процедуру бросания кости более подробно:

1) готовимся бросить кость; исход  опыта неизвестен, т.е. имеется некоторая  неопределенность. Обозначим ее H1;

2) кость брошена; информацию об  исходе данного опыта получена. Обозначим количество этой информации  через I;

3) обозначим неопределенность данного  опыта после его осуществления  через H2.

За количество информации, которое получено в ходе осуществления опыта, примем разность неопределенностей, имевшихся “до” и “после” опыта:

I = H1 – H2 .            (1.2)

 Очевидно, что в случае, когда  получен конкретный результат, имевшаяся  неопределенность снята (H2=0), и, таким образом, количество полученной информации совпадает с первоначальной энтропией. Иначе говоря, неопределенность, заключенная в опыте, совпадает с информацией об исходе этого опыта. Заметим, что значение H2 могло быть и не равным нулю, например, в случае, когда в ходе  опыта следующей выпала грань со значением большим “3”.

Следующим важным моментом является определение вида функции f в формуле (1.1). Если варьировать число граней N и число бросаний кости (обозначим эту величину через M), то общее число исходов (векторов длины M, состоящих из знаков 1, 2, …, N) будет равно N в степени М:

X = NМ .                         (1.3)

Так,  в  случае  двух бросаний кости с шестью гранями имеем: X = 62 = 36. Фактически каждый исход X есть некоторая пара (X1, X2), где X1 и X2 — соответственно исходы первого и второго бросаний (общее число таких пар — X).

Ситуацию с бросанием M раз кости можно рассматривать как некую сложную систему, состоящую из независимых друг от друга подсистем — “однократных бросаний кости”. Энтропия такой системы в M раз больше, чем энтропия одной системы (так называемый “принцип аддитивности энтропии”):

f(6М) = M * f(6).

Данную формулу можно распространить и на случай любого N:     f(NМ ) = M * f(N)      (1.4)

Прологарифмируем левую и правую часть формулы (1.3):

ln X = M * ln N,   M = ln X / ln M

Подставляем полученное для M значение в формулу (1.4):

                               

Обозначив через K положительную константу    , получим

f(X ) = K*ln X

или, с учетом (1.1),

  H = K * ln N

Обычно принимают ,  таким образом

   H = log2 N.         (1.5)

Это —  формула Хартли.

Важным при введение какой-либо величины является вопрос о том, что принимать за единицу ее измерения. Очевидно, H будет равно единице при N = 2. Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов (примером такого опыта может служить бросание монеты при котором возможны два исхода: “орел”, “решка”). Такая единица количества информации называется “бит”.

Информация о работе Теоретическая информатика. Решение систем линейных уравнений методом Крамара