Классические задачи решаемые с помощью машинного обучения

Автор работы: Пользователь скрыл имя, 11 Декабря 2013 в 16:02, курсовая работа

Краткое описание

Под базами знаний понимается совокупность фактов и правил вывода, допускающих логический вывод и осмысленную обработку информация. Например, в языке Пролог базы знаний описываются в форме конкретных фактов и правил логического вывода над базами данных и процедурами обработки информации, представляющих сведения и знания о людях, предметах, фактах событиях и процессах в логической форме.
Наиболее важным свойством информации, хранящейся в базах знаний, является достоверность конкретных и обобщенных сведений в базе данных и релевантности информации, получаемой с использованием правил вывода, заложенных в базу знаний. В ответах на простейшие запросы к базам знаний системы логического программирования Пролог, выдает значения истина и ложь в зависимости от наличия соответствующих фактов.

Содержание

Введение…………………………………...………………………………………3
Тема 1.Общие положения……………………………………………………….4
1.1. Классификация и применение баз знаний…………………………………4
1.2. Интеллектуальная информационная система……………………………..5
1.3.Классификация задач, решаемых ИИС…………………………………….6
1.4.Базы знаний в интеллектуальной системе………………………………….8
Тема 2. Машинное обучение……………………………………………………9
2.1.Общая постановка задачи обучения по прецедентам………………………9
2.2.Способы машинного обучения……………………………………………..10
Тема 3.Классические задачи решаемые с помощью машинного обучения..12
3.1.Типы данных при обучении……………………………………………….12
Заключение………………………………………………………………………15
Список использованной литературы…………………………………………..17

Вложенные файлы: 1 файл

информ.docx

— 36.57 Кб (Скачать файл)

Имеется множество объектов (ситуаций) и множество возможных  ответов (откликов, реакций). Существует некоторая зависимость между  ответами и объектами, но она не известна. Известна только конечная совокупность прецедентов пар объект, ответ, называемая обучающей выборкой. На основе этих данных требуется восстановить зависимость, то есть построить алгоритм, способный  для любого объекта выдать достаточно точный ответ. Для измерения точности ответов определённым образом вводится функционал качества.

Данная постановка является обобщением классических задач аппроксимации  функций. В классических задачах  аппроксимации объектами являются действительные числа или векторы. В реальных прикладных задачах входные  данные об объектах могут быть неполными, неточными, нечисловыми, разнородными. Эти особенности приводят к большому разнообразию методов машинного  обучения.

2.2. Способы машинного обучения

 

Так как раздел машинного  обучения, с одной стороны, образовался  в результате разделения науки о  нейросетях на методы обучения сетей  и виды топологий архитектуры  сетей, а с другой, вобрал в себя методы математической статистики, то указанные ниже способы машинного  обучения исходят из нейросетей. То есть базовые виды нейросетей, такие  как перцептрон и многослойный перцептрон (а так же их модификации) могут  обучаться как с учителем, без  учителя, с подкреплением, и активно. Но некоторые нейросети и большинство  статистических методов можно отнести  только к одному из способов обучения. Поэтому если нужно классифицировать методы машинного обучения в зависимости  от способа обучения, то, касательно нейросетей, не корректно их относить к определенному виду, а правильнее классифицировать алгоритмы обучения нейронных сетей.

1) Обучение с учителем - для каждого прецедента задаётся  пара ситуация, требуемое решение:

- Метод коррекции ошибки

- Метод обратного распространения  ошибки

2) Обучение без учителя  - для каждого прецедента задаётся  только ситуация, требуется сгруппировать  объекты в кластеры, используя  данные о попарном сходстве  объектов, и/или понизить размерность  данных:

- Альфа-система подкрепления

- Гамма-система подкрепления

- Метод ближайших соседей

3) Обучение с подкреплением  - для каждого прецедента имеется  пара ситуация, принятое решение:

4) Активное обучение - отличается  тем, что обучаемый алгоритм  имеет возможность самостоятельно  назначать следующую исследуемую  ситуацию, на которой станет известен  верный ответ:

5) Обучение с частичным  привлечением учителя (semi-supervised learning) - для части прецедентов задается  пара ситуация, требуемое решение,  а для части - только ситуация

6) Трансдуктивное обучение (transduction) - обучение с частичным  привлечением учителя, когда прогноз  предполагается делать только  для прецедентов из тестовой  выборки

7) Многозадачное обучение (multi-task learning) - одновременное обучение  группе взаимосвязанных задач,  для каждой из которых задаются  свои пары ситуация, требуемое  решение

8) Многовариантное обучение (multi-instant learning) - обучение, когда прецеденты  могут быть объединены в группы, в каждой из которых для  всех прецедентов имеется ситуация, но только для одного из  них (причем, неизвестно какого) имеется  пара ситуация, требуемое решение  

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Тема 3. Классические задачи решаемые с помощью машинного обучения

3.1. Типы входных данных  при обучении

 

- Классификация как правило,  выполняется с помощью обучения  с учителем на этапе собственно  обучения.

- Кластеризация как правило, выполняется с помощью обучения без учителя

- Регрессия как правило,  выполняется с помощью обучения  с учителем на этапе тестирования, является частным случаем задач  прогнозирования.

- Понижение размерности  данных и их визуализация выполняется  с помощью обучения без учителя

- Восстановление плотности  распределения вероятности по  набору данных

- Одноклассовая классификация  и выявление новизны

- Построение ранговых  зависимостей

- Признаковое описание  объектов наиболее распространённый  случай.

- Описание взаимоотношений  между объектами, чаще всего  отношения попарного сходства, выражаемые  при помощи матрицы расстояний, ядер либо графа данных

- Временной ряд или  сигнал.

- Изображение или видеоряд.  

 

Типы функционалов качества:

При обучении с учителем - функционал качества может определяется как средняя ошибка ответов. Предполагается, что искомый алгоритм должен его  минимизировать. Для предотвращения переобучения в минимизируемый функционал качества часто в явном или  неявном виде добавляют регуляризатор.

При обучении без учителя - функционалы качества могут определяться по-разному, например, как отношение  средних межкластерных и внутрикластерных расстояний.

При обучении с подкреплением - функционалы качества определяются физической средой, показывающей качество приспособления агента. 

 

 

Практические сферы применения:

Целью машинного обучения является частичная или полная автоматизация  решения сложных профессиональных задач в самых разных областях человеческой деятельности.

- Машинное обучение имеет  широкий спектр приложений:

- Распознавание речи;

- Распознавание изображений;

- Распознавание рукописного  ввода;

- Техническая диагностика;

- Медицинская диагностика;

- Прогнозирование временных  рядов;

- Биоинформатика;

- Обнаружение мошенничества;

- Обнаружение спама;

- Категоризация документов;

- Биржевой технический  анализ;

- Финансовый надзор;

- Кредитный скоринг;

- Предсказание ухода клиентов;

- Хемоинформатика

 

Сфера применений машинного  обучения постоянно расширяется. Повсеместная информатизация приводит к накоплению огромных объёмов данных в науке, производстве, бизнесе, транспорте, здравоохранении. Возникающие при этом задачи прогнозирования, управления и принятия решений часто  сводятся к обучению по прецедентам. Раньше, когда таких данных не было, эти задачи либо вообще не ставились, либо решались совершенно другими методами.

Автоматическое доказательство:

Автоматическое доказательство доказательство, реализуемое программно. В основе лежит аппарат математической логики. Используются идеи теории искусственного интеллекта. Процесс доказательства основывается на логике высказываний и логике предикатов.

Логика высказываний (или  пропозициональная логика) это формальная теория, основным объектом которой  служит понятие логического высказывания. С точки зрения выразительности, её можно охарактеризовать как классическую логику нулевого порядка. Логика высказываний является простейшей логикой, максимально  близкой к человеческой логике неформальных рассуждений и известна ещё со времён античности.

Логика первого порядка (исчисление предикатов) формальное исчисление, допускающее высказывания относительно переменных, фиксированных функций, и предикатов. Расширяет логику высказываний. В свою очередь является частным  случаем логики высшего порядка.  

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Заключение:

 

В результате обучения системы  автоматически строятся обобщенные правила или функции, определяющие принадлежность ситуаций классам, которыми обученная система пользуется при интерпретации новых возникающих ситуаций. Таким образом, автоматически формируется база знаний, используемая при решении задач классификации и прогнозирования. Эта база знаний периодически автоматически корректируется по мере накопления опыта реальных ситуаций, что позволяет сократить затраты на ее создание и обновление. Общие недостатки, свойственные всем самообучающимся системам, заключаются в следующем:

• возможна неполнота и/или  зашумленность (избыточность) обучающей  выборки и, как следствие, относительная  адекватность базы знаний возникающим  проблемам;

• возникают проблемы, связанные  с плохой смысловой ясностью зависимостей признаков и, как следствие, неспособность  объяснения пользователям получаемых результатов;

• ограничения в размерности  признакового пространства вызывают неглубокое описание проблемной области и узкую  направленность применения.

 Индуктивные системы.  Обобщение примеров по принципу  от частного к общему сводится  к выявлению подмножеств примеров, относящихся к одним и тем  же подклассам, и определению  для них значимых признаков. 

 Процесс классификации  примеров осуществляется следующим  образом: 

1. Выбирается признак классификации из множества заданных (либо последовательно, либо по какому-либо правилу, например, в соответствии с максимальным числом получаемых подмножеств примеров);

2. По значению выбранного  признака множество примеров  разбивается на подмножества;

3. Выполняется проверка, принадлежит  ли каждое образовавшееся подмножество  примеров одному подклассу; 

4. Если какое-то подмножество  примеров принадлежит одному  подклассу, т.е. у всех примеров  подмножества совпадает значение  классообразующего признака, то  процесс классификации заканчивается  (при этом остальные признаки  классификации не рассматриваются);

5. Для подмножеств примеров  с несовпадающим значением классообразующего  признака процесс классификации  продолжается, начиная с пункта 1. (Каждое подмножество примеров  становится классифицируемым множеством).

 Процесс классификации  может быть представлен в виде  дерева решений, в котором в  промежуточных узлах находятся  значения признаков последовательной  классификации, а в конечных  узлах - значения признака принадлежности  определенному классу.

 

 

 

 

 

 

 

 

 

 

 

Список использованной литературы:

  1. А.В. Басова, О.В. Смирнова и др. Краткий курс информатики, Ростов н/Д. ЮФУ, 2008г.
  2. Ю.А.Стоцкий. Самоучитель. Office XP. — Питер, 2003г.
  3. С.В. Симонович. Информатика. Базовый курс. — Питер, 2002г.
  4. О.Э. Згадзай, С.Я. Казанцев, Л.А. Казанцева. Информатика для юристов. — Москва, 2001г.
  5. Н. Угринович. Информатика и информационные технологии — М., БИНОМ, 2003г.
  6. Н.В.Макарова. Информатика. — М., «Финансы и статистика», 2004г
  7. Информатика. Практикум по технологии работы на компьютере. Под ред. Н.В.Макаровой. — М., «Финансы и статистика», 2004г.
  8. Информатика. Серия «Учебники, учебные пособия».// Под ред. П.П.Беленького. – Ростов н/Д: Феникс, 2003.
  9. Ляхович В.Ф. Основы информатики. - Ростов н/Д: Феникс, 2000.
  10. Немнюгин С.А. Turbo Pascal. СПб: Питер, 2000.
  11. Информатика. Базовый курс/ Под ред. С.В. Симонович – СПб: Издательство «Питер», 2000. –

      640 с.

  1. Информатика: Учебник. /Под ред. Н.В. Макаровой. – М: Финансы и статистика, 2001. – 768 с.
  2. Фигурнов В.Э. IBM РС для пользователя. — М.: Информ. — М., 2000 — 432 с.
  3. Р. Хершель. TURBO PASCAL — М.: МП «МИК», 1991. — 342 с.
  4. Перминов О.Н. Программирование на языке ПАСКАЛЬ. — М.: Радио и связи, 1988. — 220 с.

 


Информация о работе Классические задачи решаемые с помощью машинного обучения