Реферат: Теоретические основы и методы системного анализа оптимизации управления принятия решений и

Метрика должна удовлетворять некоторым определяющим свойствам:

а) r ≥ 0 при любых а,b,c;

б) r(a,b) = 0 тогда и только тогда, когда a = b (аксиома идентичности);

в) r(a,b) = r(b,a) (аксиома симметричности);

г) r(a,b) £r(а,с) + r(с,b) (аксиома треугольника).

Пара (Х,rХ ) называется метрическим пространством.

Примеры метрик:

а) r(а,b) = |a - b|;

б) r2 (a,b) = -

евклидова метрика в евклидовом пространстве Rn ,

в) r¥ (а,b) =- чебышевская метрика;

г) rК (a,b) = - метрика Гельдера, К – целое.


В общем случае – отношения бывают: унарные (самого с собой); бинарные (между двумя элементами); тернарные (между тремя элементами); вообще, - n-арные.

4) Организация

Введем в рассмотрение понятие «состояние» элемента или системы. Количество состояний (мощность множества состояний) может быть конечно, счетно (количество состояний измеряется дискретно, но их число бесконечно); мощности континуум (состояния изменяются непрерывно и число их бесконечно и несчетно).

Состояния можно описать через переменные состояния . Если переменные – дискретные, то количество состояний может быть либо конечным, либо счетным. Если переменные – аналоговые (непрерывные), тогда - мощности континуум.

Минимальное количество переменных, через которые может быть задано состояние, называется фазовым пространством . Изменение состояния системы отображается в фазовом пространстве фазовой траекторией .

Уравнение состояния системы:

Y = F(X, Z), (1.1)

где Z – переменные состояния (вектор аналоговых или дискретных величин),

Х – входные переменные, Y – выходные переменные системы.

Одной из наиболее часто используемых характеристик организации является энтропия (поворот, превращение – греч.).

Энтропия систем

Степень организации элементов в системе связывается с изменением (снижением) энтропии системы по сравнению с суммарной энтропией элементов. Понятие энтропии введено Больцманом для термодинамических систем:

(1.2)

где - вероятность j-го состояния (в теории информации – события); m - возможное число состояний (событий).

Например, два элемента А и В могут каждый принимать два равновероятных состояния: «0»и «1». Вероятность каждого состояния:

Р1 (А) = Р2 (А) = Р1 (В) = Р2 (В) = 0,5.

Для одного элемента энтропия составит

К-во Просмотров: 419
Бесплатно скачать Реферат: Теоретические основы и методы системного анализа оптимизации управления принятия решений и