Реферат: Байесова схема принятия коллективных решений в условиях противоречий
Модельный пример.
Пусть P(V1)=0.3, P(V2)=0.7, а значит λ. = 2.33. Пусть далее известно, что первый эксперт ошибается в 5% случаев, т.е. P(A1)=0.05, а второй - в 8% случаев, т.е. P(A2)=0.08. Предположим, что эксперт A1 отнес объект к классу V1, а эксперт A2 - к классу V2, т.е. мы имеем ситуацию S12 противоречивых решений. Заметим, что первый эксперт более “квалифицированный”, так как P(A1) < P(A2).
Как видно из рис. 1 точка с координатами P(A1)=0.05 и P(A2)=0.08, расположена ниже границы, соответствующей λ. = 2.33. Следовательно объект должен быть отнесен к классу V2, хотя более квалифицированный эксперт A1 принял противоположное решение.
Для проверки обоснованности решения в пользу класса V2 определим по формуле Байеса апостериорные вероятности классов в рассматриваемой ситуации S12 :
= (13)
и
=. (14)
Как видим P(V1/S12) < P(V2/S12), и значит объект действительно следует отнести к классу V2.
Изменим в условиях примера соотношения априорных вероятностей классов, положив P(V1) = 0.4, P(V2) = 0.6. В этом случае λ = 0.67 и, как видно из рис. 1, точка с координатами P(A1)=0.05 и P(A2)=0.08 попадает уже в область решений в пользу класса V1. В самом деле
=
и
=,
т.е. P(V1/S12) > P(V2/S12). Значит в этом случае объект следует отнести к классу V2, что совпадает с решением более “квалифицированного” эксперта A1.
Итак мы показали, что при различных решениях двух независимых экспертов с фиксированными вероятностями ошибок окончательное решение изменяется с изменением λ.
Заметим, что рассматриваемая схема принятия решений основывается на знании весьма ограниченных вероятностных характеристик, которые при решении практических задач, в частности задач медицинской и технической диагностики, легко могут быть получены на основании предыдущего опыта. При достаточном числе наблюдений вероятности P(Vk) и P(Ai) могут быть оценены соответствующими частотами:
где Gk – общее число появлений k-го класса (k=1,2) в выборке из G наблюдений, а Ei – общее число ошибок i-го эксперта (i =1,2) в этой же выборке.
При этом совершенно не требуется знать, на основании какой информации эксперты принимают частные решения и как именно эксперты принимают эти решения – используя формальный или эвристический алгоритм, либо просто полагаясь на свою интуицию.
В то же время мы сделали одно важное допущение о том, что решения экспертов независимы, а вероятность ошибки каждого эксперта не зависит от класса, т.е. P(Ai)=P(Ai/V1)=P(Ai/V2). Естественно, что такое допущение должно быть обосновано.
Для того, чтобы продемонстрировать практическую возможность описанной схемы, рассмотрим один из возможных формальных алгоритмов принятия независимых решений двумя экспертами.
Предположим, что эксперт A1 классифицирует объект по бинарному признаку x1 (симптому), имеющему всего лишь две градации и , а эксперт A2 - по другому признаку x2, также имеющему две градации и . Будем считать, что для минимизации вероятности ошибок оба эксперта используют правило максимума апостериорных вероятностей, т. е. эксперт A1 принимает свое частное решение по максимуму P(V1/x1) и P(V1/x1), а эксперт A2 - по максимуму P(V1/x2) и P(V1/x2).
Будем считать, что P(V1)=0.3, P(V2)=0.7, а также заданы условные распределения значений признаков в классах V1 и V2, которые представлены в таблицах 1 и 2 соответственно .
Для определения вероятности ошибочных решений эксперта A1 найдем апостериорные вероятности классов при возможных значениях признака x1:
= ,
= ,
= ,
= .
Поскольку и , то эксперт A1 классифицирует объект Z по признаку x1 следующим образом