Автор работы: Пользователь скрыл имя, 13 Декабря 2011 в 22:07, контрольная работа
Изучить основы теории принятия решений, в части (методы классификации).
Решить задачу по классификации образов заданными методами.
Сравнить эффективность, выявить сильные и слабые стороны различных методов
Контрольная работа по дисциплине
«Теория
принятия решений»
Цели контрольной работы.
Задание 1.
Выполнить реферирование основных положений теории принятия решений.
Методы классификации: метод ближайшего соседа,метод сравнения с эталоном.
Классическая
модель формального нейрона. Алгоритмы
обучения однослойной нейронной
сети. (2-3 стр.).
(Копирование
рефератов однокурсников - не
проходит!)
Задание
2.
2.1. Задано три образа
(вектора информативных признаков): x1,
x2 и x3.Каждый образ представлен
вектором из двух информативных признаков
x1, x2.
На рисунке
показан пример распределения образов
в пространстве признаков.
Образы x1, x2 и x3 (координаты векторов)необходимо задать произвольно ( в диапазоне значений 0 -10) и занести в таблицу.
x1 | x2 | |
x1 | ||
x2 | ||
x3 |
Используя метрики
евклидова расстояния, направляющих
косинусов и расстояния Танимото,
определить к какому образу (x2или
x3) «ближе» образ x1.
Методическая помощь к 2.1.
Скалярное умножение
векторов.
где
p - число информативных
признаков.
Абсолютное значение
вектора (норма).
Метрики.
Направляющие
косинусы:
Евклидово расстояние:
Расстояние
Танимото:
Задать произвольно ( в диапазоне значений 0-10 ) три «своих» образа (x11, x12, x13).
Определить к каким классам относятся заданные три вектора.
Решить задачу с применением методов ближайшего соседа и сравнения с эталоном (при этом использовать метрику евклидова расстояния).
Определить к каким классам относятся заданные три вектора.
Решить
задачу с использованием метода
линейной разделяющей функции и
одного из алгоритмов обучения.
Исходные данные и результаты свести в таблицу, например:
x1 | x2 | Класс | Метод ближайшего соседа |
Метод сравнения с эталоном |
Метод линейного разделения | |
x1 | 4 | 1 | 0 | |||
x2 | 2 | 1 | 0 | |||
x3 | 5 | 2 | 0 | |||
x4 | 1 | 2 | 0 | |||
x5 | 1 | 3 | 0 | |||
x6 | 7 | 3 | 1 | |||
x7 | 9 | 4 | 1 | |||
x8 | 7 | 4 | 1 | |||
x9 | 6 | 5 | 1 | |||
x10 | 7 | 6 | 1 | |||
x11 | 4 | 4 | ----- | 0 | 0 | |
x12 | 5 | 7 | ----- | 1 | 1 | |
x13 | 3 | 8 | ----- | 1 | 1 |
Отобразить
распределение образов в
Сделать
выводы
Методическая помощь к 2.2.
При решении
задачи классификации методом
При решении
задачи классификации методом
При решении
задачи классификации методом линейной
разделяющей функции необходимо
«построить» разделяющую линию,
т.е. найти коэффициенты wi..
где: xi – i-информационный признак;
wi– коэффициент соответствующего признака.
В качестве алгоритмов
обучения можно использовать правило
Розенблатта, алгоритм обратного распространения
ошибки либо «машину» опорных векторов
(SVM).
Информация о работе Контрольная работа по «Теория принятия решений»