Автор работы: Пользователь скрыл имя, 05 Ноября 2013 в 12:02, реферат
Задача № 1 Методы расчета количества информации, перерабатываемой человеком-оператором. Применение теории информации в эргономике обусловлено влиянием на деятельность человека и определенность (энтропии) процессов и объектов управления в качестве меры неопределенности физической системы x, применяющей состояние xi (i=1,2,…,n), используется понятие энтропии.
Задача № 1…………………………………………………………………………3
Задача № 2………………………………………………………………………..12
Список используемой литературы……………………………………………...17
Содержание
Задача № 1…………………………………………………………………………3
Задача № 2………………………………………………………………………..
Список используемой
литературы……………………………………………...
Задача № 1
Методы расчета количества информации, перерабатываемой человеком-оператором
Применение теории информации в эргономике обусловлено влиянием на деятельность человека и определенность (энтропии) процессов и объектов управления в качестве меры неопределенности физической системы x, применяющей состояние xi (i=1,2,…,n), используется понятие энтропии.
Энтропия физической системы x при значениях состояний xi определяется выражением (формула Шеннона):
, (1)
где Pi – вероятность наступления i-го состояния системы.
Энтропия системы, как это следует из формулы, тем больше, чем меньше общее количество различных состояний и чем меньше отличаются друг от друга вероятности этих состояний.
При равновероятном появлении различных состояний, когда , энтропия максимальна и определяется выражением:
. (2)
Неопределенность системы уменьшается при получении каких-либо сведений об этой системе. Чем больше объем полученных сведений и чем более они содержательные, тем больше информации имеется о системе.
Поэтому количество информации следует измерять уменьшением энтропии той системы, для уточнения состояний которой предназначены эти сведения.
Если в результате получения сведений состояние системы стало полностью определенным, то количество полученной информации численно равно априорной энтропии системы.
Энтропии и количество информации измеряются в двоичных единицах информации (битах). Бит – это энтропия простейшей системы, имеющей два равновероятных состояния.
Количество информации, переработанной человеком-оператором, может существенно отличаться от количества поступившей информации (энтропии источника сообщения). Это отличие обусловлено, во-первых, тем, что, как и для технического канала, часть информации может быть потеряна за счет воздействия помех. Во-вторых, количество информации может увеличится за счет использования дополнительной информации.
Общее количество информации, перерабатываемой оператором, определяется выражением:
, (3)
где: Н(Х) – энтропия
источника сообщений или
Ндоп – дополнительное количество информации, используемой оператором при решении задач;
Нпом – энтропия источника помех, или количество потерянной информации.
Энтропия источника сообщений может быть двух видов:
• энтропия выбора нужного сигнала;
• энтропия измерительного прибора.
Если оператору нужно выбрать один сигнал (или одно состояние сложного сигнала) из n возможных, то количество полученной при этом информации можно определить по формуле (1) при неравновероятном или по формуле (2) при равновероятном появлении сигналов.
Эти формулы оценивают энтропию взаимонезависимых сообщений.
Это наиболее простые ситуации в работе оператора. На практике возможны ситуации, когда предъявляемая последовательность сообщений (сигналов) обладает логической избыточностью. Это значит, что появление определенного сообщения (сигнала) может изменить вероятность появления следующего. Наличие логической избыточности равносильно уменьшению энтропии, так как появление определенного сигнала уменьшает неопределенность очередного состояния информационной системы. В данной контрольной работе эти ситуации не рассматриваются.
На основе энтропийного анализа можно оценить также сложность работы оператора со стрелочными измерительными приборами, расположенными на информационной панели (считывание показаний, установка заданных значений). Энтропию сообщения от прибора определяют выражением:
, (4)
где хmax и хmin – максимальное и минимальное значение шкалы прибора;
σ – абсолютная погрешность считываний показаний с прибора, равная (обычно) половине цены деления шкалы прибора.
Различают следующие виды дополнительной информации, используемой оператором при логической обработке данных:
информация, подлежащая запоминанию;
информация, используемая при вычислениях;
информация, используемая при проверке логических условий.
Если оператор
должен запомнить в порядке
, (5)
Если же оператору не нужно запоминать порядок поступления сигналов, а необходимо помнить только сами сигналы, то количество информации оценивается по формуле:
, (6)
Формулы (4) – (6) справедливы только при равновероятном поступлении сообщений (сигналов).
Количество информации, используемое при простейших вычислительных операциях (сложениях, умножении, делении), определяются по формуле:
, (7)
где v – количество чисел, используемых для получения результата R;
Ni – максимально возможные значения используемых при вычислении чисел;
R – максимально возможное значение результата вычисления.
При проверке логических условий количество информации определяют по формуле:
, (8)
где s – количество проверяемых логических уcловий;
ni – количество возможных альтернатив (исходов), возникающих при проверке i-го условия.
При выполнении управляющих действий (движений) оператором также используется дополнительная информация, определяемая энтропией двух видов:
• энтропия выбора нужного органа управления (выбора требуемого положения органа управления);
• энтропия движения руки к органу управления.
Энтропию первого вида (количество информации) определяют по формулам (1) или (2).
Энтропию второго вида (количество информации) определяют по формуле:
, (9)
где Аj – амплитуда движения руки к j-му органу управления, т.е. расстояние на которое перемещается рука;
Wj – размер j-го органа управления.
Приведенные выше формулы (4) - (9) получены на основании следующих двух правил.
Первое правило учитывает, что величина энтропии оценивает сложность выбора одного состояния из нескольких возможных. Поэтому при нахождении энтропии в любом случае нужно определить общее количество всевозможных состояний (вариантов выбора), а затем применить формулу (1) при равновероятных состояниях или формулу (2), если все варианты равновероятны.
Второе правило, используемое при определении энтропии, заключается в свойстве ее аддитивности. Это значит, что энтропия сложной системы равна сумме энтропий отдельных подсистем. Например, применение формулы (7) для подсчета количества информации основано на том, что при производстве вычислений человек v раз производит выбор одного числа из Ni возможных, а при получении результата – выбор одного числа из R возможных.
Третья составляющая, входящая в выражение (3) – энтропия потерь, обычно не определяется, поскольку для обученного оператора, делающего минимальное количество ошибок, она очень мала и практически не влияет на значение Iч. Поэтому в практических расчетах Нпом принимают равным 0.
Количество перерабатываемой человеком информации необходимо знать, чтобы решить три основные задачи:
1. количество перерабатываемой информации – мера сложности решаемой задачи, поэтому таким способом можно сравнивать между собой различные виды операторской деятельности;
2. знание количества информации
позволяет решить задачу
3. зная количество информации, можно определить время, которое затрачивает оператор на ее переработку, т.е. нормировать операторскую деятельность.
Время, необходимое оператору для решения задачи, определяют на основе методов теории информации. Применение теории информации основано на том, что это время прямо пропорционально количеству перерабатываемой информации.
Следует иметь в виду, что различные виды информации перерабатываются оператором с различной скоростью. Поэтому формулу (1) можно записать в виде:
, (10)
где α – латентный период (скрытое время реакции человека на сигнал);
Нi – количество информации i-го вида, перерабатываемой оператором;
vi – скорость переработки информации i-го вида.
Средние значения скорости переработки различной информации приведены в таблице 1.
Таблица 1 – Средние значения скорости переработки различной информации
Вид перерабатываем информации i |
Скорость переработки информации Vi, бит/с |
Выбор одного сигнала из нескольких возможных |
4 |
Считывание информации с приборов |
2 |
Информация, необходимая для запоминания |
12 |
Информация, используемая при вычислениях |
6 |
Проверка логического условия |
4 |
Выбор нужного органа управления |
4 |
Информация при выполнении движений |
7 |
В эргономике применение теории информации для решения перечисленных выше задач связано с некоторыми трудностями:
1. Величина энтропии в теории информации зависит от длины физического алфавита сигналов и вероятностей их появления. Эти же показатели используются для оценки количества перерабатываемой человеком информации. В действительности человек пользуется собственным, внутренним алфавитом, отличным от физического, а субъективные вероятности сигналов для человек не всегда совпадают с объективными. Однако принципы формирования внутреннего алфавита сигналов и вероятностей их появления для человека еще до конца не раскрыты.
2. Теория информации занимается
лишь стационарными процессами,
статистические характеристики
которых не меняются с
Характеристики же человека в виду его обучаемости, утомляемости, действия различных факторов беспрерывно меняются во времени.
3. Теория информации не учитывает смысловую сторону информации, ее ценность и значимость. На деятельность же оператора оказывают влияние не только статистические характеристики сигналов, но их смысл и значение для оператора.
4. Различные виды информации
неравноценны для оператора.
Несмотря на эти трудности, информационные методы имеют большое практическое значение на ранних этапах проектирования систем «человек – техника – среда (СЧТС)». Зачастую только с их помощью можно количественно оценить параметры и показатели деятельности человека.
Исходные данные:
Количество ламп и приборов – 8;
Множитель показаний – 3;
Расстояние до панели – 66 см;
Размер ручки переключателя – 4 см;
Расстояния между переключателями – 6 см.
Решение:
На рисунке 1 показана информационная панель, с которой работает оператор. На панели расположены 4 индикаторных лампочки Л1-Л4, 4 измерительных прибора И1-И4 с диапазоном измерения от 0 до 10 условных единиц, 2 трехпозиционных переключателя П1 и П2 и 2 десятипозиционных переключателя П3 и П4.
При поступлении входящего сигнала загорается одна из лампочек Л1-Л4 (загорания лампочек равновероятны). Обнаружив загоревшуюся лампочку, оператор считывает показания соответствующего измерительного прибора (Л2-И2). В зависимости от четного или нечетного номера загоревшейся лампочки оператор выбирает соответственно четную или нечетную группу переключателей, с помощью которой устанавливает новое значение измеряемой величины, в три раза большее отмеченной измерительным прибором.
Определить общее количество воспринимаемой и перерабатываемой оператором информации при появлении одного входящего сигнала и соответственно затрачиваемое при этом время.
Известно, что расстояние от оператора до
информационной панели составляет 66 см,
а расстояние между переключателями внутри
группы 6 см. Скорости переработки информации
оператором по видам информации приведены
в таблице 1. Латентный период принимаем
равным
с.
Нпом – энтропия источника помех
(или количество потерянной информации)
не учитывается.