Реферат: Экспертные системы 12

Части корабля, такие, как двигательная установка, корпус, котель­ная, включены один раз на уровне корабля, и не нужно повторять эти узлы на более низком уровне иерархии, вроде типа корабля или конкретного корабля. На практике это свойство семантической сети позволяет сберечь огромные объемы памяти. Зная смысл отношений, обозначаемых дугами, можно осуществлять поиск по сети, например, чтобы установить факты вроде «Куин Мэри имеет котельную». Семантические сети – один из самых удачных методов пред­ставления знаний о предметной области, который сильно уп­рощает поиск решения задач.

2.2.3.Методы, основанные на фреймах

В области искусственного интеллекта термином фрейм обозначается специальный метод представления общих концепций и ситуаций.

Предложивший идею фрейма Марвин Минский, описывает его так:

«Фрейм – это структура данных, представляющая стереотипную си­туацию, вроде нахождения внутри некоторого рода жилой комнаты, или сбора на вечеринку по поводу дня рождения ребенка. К каждому фрейму присоединяется несколько видов информации. Часть этой ин­формации – о том, как использовать фрейм. Часть – о том, чего можно ожидать далее. Часть – о том, что следует делать, если эти ожидания не подтвердятся»

Фрейм является сетью узлов и отношений, организованных иерархически, где верхние узлы представляют общие понятия, а нижние узлы более частные случаи этих понятий или их свойства. Фрейм по своей организации во многом похож на семан­тическую сеть. Не случайно в ряде работ фреймы и семантические сети рассматриваются как методы представления знаний, основанных на фреймах. Они обеспечивают естественный и эффективный путь классифика­ции и систематизации знаний.

2.3.Основные характеристики экспертных систем

Специалисты в области ИИ имеют несколько более сложное представление о том, что такое экспертные системы.

Рис. 5. Особенности экспертной системы, отличающие ее от обычных про­грамм.

Компетентность

Умелая ЭС применяет знания эффективно и быстро, избегая громоздких или ненужных вычислений. Чтобы по-настоящему подра­жать поведению эксперта-человека, ЭС дол­жна обладать робастностью, т.е. уметь лишь постепенно сни­жать качество работы по мере приближения к грани­цам диапазона компетентности или допустимой на­дежности данных.

Символьные рассуждения

Эксперты, решая какие-то задачи (особенно такого типа, для решения которых применяются экспертные системы), об­ходятся без решения систем уравнений или других трудоемких математических вычислений. Вместо этого они с помощью сим­волов представляют понятия предметной области и применяют различные стратегии и эвристики в процессе манипулирования этими понятиями.

При решении задачи экспертная система способна выполнять определенные математические расчеты, но в основном она манипулирует сим­волами, которые соответ­ствуют понятиям предметной области. На жаргоне ИИ сим­вол – это строка знаков, соответствующая содержанию неко­торого понятия реального мира. Ниже приведены примеры символов,

продукт

ответчик

0.8

Эти символы можно объединить, чтобы выразить отноше­ния между ними. Когда эти отношения представлены в про­грамме ИИ, они называются символьными структурами. Да­лее приведены примеры символьных структур:

(ДЕФЕКТНЫЙ продукт)

(ВЫПУЩЕННЫЙ ответчиком продукт)

(РАВНО (ОТВЕТСТВЕННОСТЬ ответчик) 0.8)

Эти структуры можно интерпретировать следующим обра­зом: «продукт является дефектным», «продукт был выпущен в продажу ответчиком» и «ответственность ответчика ра­вна 0.8».

Кроме того, эксперты могут получить задачу, сформулированную неким произвольным об­разом, и преобразовать ее к тому виду, который в наибольшей степени соответствует быстрому получению решения или га­рантирует его максимальную эффективность. Эта способность переформулирования задачи — как раз то свойство, которое должно быть присуще экспертным системам для того, чтобы приблизить их мастерство к уровню экспертов-людей. К сожа­лению, большинство существующих в настоящее время экс­пертных систем не обладают этим свойством.

Глубина

ЭС должна работать эффективно в узкой пред­метной области, содержащей трудные, нетривиальные задачи. Поэтому правила в ЭС дол­жны быть сложными, либо в смысле сложности каждого пра­вила, либо в смысле их обилия.

Если же по отношению к сложной задаче или данным о ней сделаны существенные упрощения, полученное решение может оказаться неприменимым в масштабах, кото­рые характерны для реальной проблемы.

Самосознание

У большинства существующих экспертных систем есть так называемый механизм объяснения . Это знания, необ­ходимые для объяснения того, как система пришла к данным решениям. Большинство объяснений включают демонстрацию цепочек выводов и доводов, объясняющих, на каком основании было применено каждое правило в цепочке. Возможность проверять собственные процессы рассуждения и объяснять свои действия – одно из самых важных свойств экспертных систем.

«Самосознание» важно для экспертной системы, поскольку:

  • пользователи больше доверяют результатам системы.
  • систему легче от­лаживать и усовершенствовать.
  • предположения, положенные в основу работы системы, становятся явными, а не подразумеваемыми.
  • Легче предсказывать и выявлять влияние изменений на работу системы.

Умение объяснить — это всего лишь один из аспектов само­сознания. В будущем самосознание позволит экспертным си­стемам делать даже больше. Они сами смогут создавать обос­нования отдельных правил путем рассуждения, исходящего из основных принципов. Они будут приспосабливать свои объяс­нения к требованиям пользователя. Они смогут изменять соб­ственную внутреннюю структуру путем коррекции правил, ре­организации базы знаний и реконфигурации системы.

К-во Просмотров: 487
Бесплатно скачать Реферат: Экспертные системы 12