Автор работы: Пользователь скрыл имя, 18 Августа 2013 в 21:26, курс лекций
Влияние информационных технологий на менеджмент, на культуру управления, на общество трудно переоценить. Стремительное развитие вычислительной и телекоммуникационной техники, накопление колоссальных объемов информации и чрезвычайно высокая скорость информационного обмена сформировали к концу ХХ века новое понятие - глобальное информационное общество. Это привело к коренной ломке прежних социальных понятий: фокус деятельности компаний переместился с технологий на потребителя.
Лекция 1: Информационные технологии: современное состояние, роль в бизнесе и тенденции развития 2
Информация и информационная культура 2
Информация, данные, знание и развитие экономики 3
Информационные революции 7
Информация и информационная культура предприятия 11
Лекция 2: Обработка и хранение информации 20
Обработка информации 20
Хранение информации. Базы и хранилища данных 23
Развитие инструментальных средств обработки информации 30
Лекция 3: Развитие информационных технологий 45
Предпосылки быстрого развития информационных технологий 45
Этапы развития информационных технологий 46
Тенденции развития ИТ 48
Лекция 4: Internet/Intranet-технологии 55
Развитие Internet/Intranet технологий 55
Поисковые системы 62
Internet-технологии в бизнесе 64
Электронная коммерция 68
Научно-технический прогресс в первую очередь влияет на развитие аппаратной части: уменьшаются геометрические размеры транзисторов, увеличивается быстродействие, растет скорость передачи данных и т. п.; но новые аппаратные возможности дают импульс созданию новых программ. Покупатель компьютера в основном платит за стоимость аппаратуры, которую, один раз купив, нельзя бесплатно много раз обновлять. "Мягкость" составной части программного обеспечения, разработанного на базе принципа "открытых систем", обеспечивается возможностью "загрузки" разных программ на одну и ту же аппаратную платформу. Это позволяет многократно увеличить скорость обновления функциональных возможностей компьютеров (скорость предоставления новых сервисов для пользователей).
Программное обеспечение обычно разделяют на системное и прикладное.
Операционная система (ОС) - базовый комплекс компьютерных программ, обеспечивающий управление аппаратными средствами компьютера, работу с файлами, ввод и вывод данных, а также выполнение прикладных программ и утилит.
При включении компьютера операционная система загружается в память раньше остальных программ и затем служит платформой и средой для их работы. Помимо вышеуказанных функций ОС может осуществлять и другие, например предоставление пользовательского интерфейса, сетевое взаимодействие и т. п. Выбор того или иного системного программного обеспечения достаточно сильно зависит от аппаратной части компьютера. В настоящее время широко используются Microsoft Windows, Mac OS и системы класса UNIX.
Назначение и функции
При произнесении слова "суперкомпьютеры"
воображение рисует сцены, навеянные
научно-фантастическими
Чаще всего авторство термина приписывается Д.Мишелю и С.Фернбачу, в конце 60-х годов XX века работавшим в Ливерморской национальной лаборатории и компании Control Data Corporation. Тем не менее, известен факт, что еще в 1920 году в газете New York World рассказывалось о "супервычислениях" (Supercomputing), выполняемых при помощи уникального мощного табулятора IBM, который был собран по заказу Колумбийского университета.
Рис. 2.8. Cray-2 - самый быстрый компьютер
90-х годов ХХ века
Термин "суперкомпьютер" вошел в общеупотребительный лексикон благодаря распространенности компьютерных систем американца Сеймура Крея - Control Data 6600, Control Data 7600, Cray-1, Cray-2, Cray-3 и Cray-4 (рис. 3.4.3). Крей разрабатывал вычислительные машины, которые, по сути, становились основными вычислительными средствами правительственных, промышленных и академических научно-технических проектов США с середины 60-х годов до 1996 года. Неслучайно в то время одним из популярных определений суперкомпьютера было следующее: "любой компьютер, который создал Сеймур Крей". Сам Крей никогда не называл свои детища суперкомпьютерами, предпочитая использовать вместо этого обычное название "компьютер".
На сегодняшний день суперкомпьютеры являются уникальными системами, создаваемыми "традиционными" лидерами компьютерного рынка, такими как IBM, Hewlett-Packard, NEC и другими, которые приобрели множество ранних компаний, вместе с их опытом и технологиями. Компания Cray Inc. по прежнему занимает достойное место в ряду производителей суперкомпьютерной техники.
Большинство суперкомпьютеров 70-х годов ХХ века оснащались векторными процессорами, К началу и середине 1980-х небольшое число (от 4 до 16) параллельно работающих векторных процессоров практически стало стандартным суперкомпьютерным решением. Типичный векторный компьютер включает в себя скалярный процессор целочисленной арифметики, функциональные блоки сложения и умножения чисел с плавающей точкой, векторный процессор и общую память. Это компьютеры, построенные по технологии "разделяемая память - один поток управления - много потоков данных" ("Shared Memory - Single Instruction - Multi Data").
Конец 1980-х и начало 1990-х годов
охарактеризовались сменой магистрального
направления развития суперкомпьютеров
от векторно-конвейерной
Массивно-параллельные системы стали
объединять в себе сотни и даже
тысячи отдельных процессорных элементов,
причем ими могли служить не только
специально разработанные, но и общеизвестные
и доступные в свободной
В ноябре 2002 года фирма Cray Inc. анонсировала решение Cray X1 с характеристиками 52,4 Тфлопс и 65,5 Тб ОЗУ (флопс - термин от английского словосочетания Floating Point, означающего вычисления с плавающей точкой). Его стартовая цена начиналась с 2,5 миллионов долларов. Этим комплексом сразу заинтересовался испанский метеорологический центр. В это же время был опубликован список Top 500 (http://www.top500.org), в который входили вычислительные системы, официально показавшие максимальную производительность. Его возглавила "Компьютерная модель Земли" (Earth Simulator) с результатом 35,86 Тфлопс (5120 процессоров), созданная одноименным японским центром и NEC. На втором-четвертом местах со значительным отставанием расположились решения ASCI (7,7; 7,7 и 7,2 Тфлопс). Они эксплуатируются Лос-Аламосской лабораторией ядерных исследований, а созданы Hewlett-Packard (первые два насчитывают по 4096 процессоров) и IBM (8192 процессора).
Петафлопсный рубеж (тысяча триллионов
операций с плавающей запятой
в секунду) компания Cray Inc. обещает
преодолеть к концу десятилетия.
Схожие сроки сулят и японцы. В Токио в
рамках соответствующего проекта GRAPE [http://grape.astron.s.u-
Однако уникальные решения с рекордными характеристиками обычно недешевы, поэтому и стоимость подобных систем никак не могла быть сравнима со стоимостью систем, находящихся в массовом производстве и широко используемых в бизнесе. Прогресс в области сетевых технологий сделал свое дело: появились недорогие, но эффективные решения, основанные на коммуникационных технологиях. Это и предопределило появление кластерных вычислительных систем, фактически являющихся одним из направлений развития компьютеров с массовым параллелизмом вычислительного процесса (Massively Parallel Processing - MPP).
Вычислительный кластер - это совокупность компьютеров, объединенных в рамках некоторой сети для решения крупной вычислительной задачи. В качестве узлов обычно используются доступные однопроцессорные компьютеры, двух- или четырехпроцессорные SMP-серверы (Symmetric Multi Processor). Каждый узел работает под управлением своей копии операционной системы, в качестве которой чаще всего используются стандартные операционные системы: Linux, NT, Solaris и т. п. Рассматривая крайние точки зрения, кластером можно считать как пару персональных компьютеров, связанных локальной 10-мегабитной сетью Ethernet, так и обширную вычислительную систему, создаваемую в рамках крупного проекта. Такой проект объединяет тысячи рабочих станций на базе процессоров Alpha, связанных высокоскоростной сетью Myrinet, которая используется для поддержки параллельных приложений, а также сетями Gigabit Ethernet и Fast Ethernet для управляющих и служебных целей.
Состав и мощность узлов может меняться даже в рамках одного кластера, давая возможность создавать обширные гетерогенные (неоднородные) системы с задаваемой мощностью. Выбор конкретной коммуникационной среды определяется многими факторами: особенностями класса решаемых задач, доступным финансированием, необходимостью последующего расширения кластера и т. п. Возможно включение в конфигурацию специализированных компьютеров, например файл-сервера, и, как правило, предоставлена возможность удаленного доступа на кластер через Internet.
На современном рынке
Летом 2000 года Корнелльский университет (США) основал Консорциум по кластерным технологиям (Advanced Cluster Computing Consortium), основная цель которого - координация работ в области кластерных технологий и помощь в осуществлении разработок в данной области. Ведущими компаниями, обеспечивающими инфраструктуру консорциума, стали крупные производители компьютерного оборудования и программного обеспечения - Dell, Intel и Microsoft. Среди других членов консорциума можно назвать Аргоннскую национальную лабораторию, Нью-Йоркский, Корнелльский и Колумбийский университеты, компании Compaq, Giganet, IBM, Kuck & Associates и другие.
Из интересных российских проектов
следует отметить решение, реализованное
в Санкт-Петербургском университете на
базе технологии Fast Ethernet [http://www.ptc.spbu.ru]:
собранные кластеры могут использоваться
и как полноценные независимые учебные
классы, и как единая вычислительная установка,
решающая крупную исследовательскую проблему.
В Самарском научном центре пошли по пути
создания неоднородного вычислительного
кластера, в составе которого работают
компьютеры на базе процессоров Alpha и Pentium
III. В Санкт-Петербургском техническом
университете собирается установка на
основе процессоров Alpha и сети Myrinet без
использования локальных дисков на вычислительных
узлах. В Уфимском государственном авиационном
техническом университете проектируется
кластер на базе двенадцати Alpha-станций,
сети Fast Ethernet и ОС Linux [www.osp.ru/os/2000/05-06/
Технологии суперкомпьютеров и кластеров первоначально "выросли" в основном из научных потребностей - для решения фундаментальных и прикладных задач физики, механики, астрономии, метеорологии, сопротивления материалов и т. д., где требовались огромные вычислительные мощности. В каких рыночных нишах будет востребована подобная производительность? Прежде всего, это проектирование сложных управляемых систем (самолетов, ракет, космических станций), создание синтетических лекарств с заданными свойствами, генная инженерия, предсказание погоды и природных катаклизмов, повышение эффективности и надежности атомных электростанций, прогнозирование макроэкономических эффектов и многое другое.
Размеры вычислительных устройств постоянно уменьшаются. Когда-то предполагалось, что более мощные машины будут требовать больше места для периферийных устройств, памяти и т. д. Это предположение оказалось неверным. В 1965 году Гордон Мур сформулировал действующее и сейчас правило (названное законом Г. Мура), согласно которому производительность вычислительных систем удваивается каждые восемнадцать месяцев [Moore H. // Electronics. 38, 1965, № 8]. Мур вывел свой эмпирический закон, построив зависимость числа транзисторов в интегральной микросхеме от времени (рис. 2.9). Как следствие из этого закона можно вывести темпы миниатюризации отдельного транзистора.
Рис. 2.9. Оригинальная запись закона
Гордона Мура, публикация о котором впервые
появилась в Electrinics Magazine
Ежегодное уменьшение на 10-30% размеров элементарных вычислительных модулей приведет в ближайшие 5-10 лет к практическому применению устройств с элементарными модулями размером примерно в 100-200 ангстрем (0,01-0,02 мк). Другими словами, быстрое развитие цифровых электронных технологий приводит к тому, что размер элементарного вычислительного устройства приближается к размеру молекулы или даже атома.
На таком уровне законы классической физики перестают работать и начинают действовать квантовые законы, которые для многих важных динамических задач еще не описаны теоретически. Для описания работы таких устройств неприменимы классические объекты и методы информатики. В частности, в силу квантового принципа неопределенности Гейзенберга, в таких микроскопических системах нет аналога понятию "bit".
Вместо двоичных цифр новые устройства будут оперировать с "волновыми функциями" ("квантовыми битами"). В некотором смысле, информатика в своем развитии в недалеком будущем должна будет перейти от "арифметики" к "функциональному анализу". С одной стороны, это обусловливает переосмысление и замену основных классических (неквантовых) алгоритмов, а с другой - дает возможность вплотную подступиться к решению проблем искусственного интеллекта.
В научно-исследовательских
Многие из указанных направлений
имеют существенные недостатки, которые
в некоторых случаях приводят
к принципиальной невозможности
создания конкурентоспособного вычислительного
устройства. Характерным примером
является проект корпорации IBM, которая
в 1999 году только на первый этап разработки
молекулярной элементной базы нового
поколения выделила 17 миллиардов долларов
на 5 лет. В результате был создан макет,
оперирующий с 5 или 7 квантовыми битами
и весом около 7 тонн, способный решать
только примитивные задачи типа разложения
числа 15 на два множителя 5 и 3 [domino.research.ibm.com/comm/