Реферат: Экспертные системы 12
Части корабля, такие, как двигательная установка, корпус, котельная, включены один раз на уровне корабля, и не нужно повторять эти узлы на более низком уровне иерархии, вроде типа корабля или конкретного корабля. На практике это свойство семантической сети позволяет сберечь огромные объемы памяти. Зная смысл отношений, обозначаемых дугами, можно осуществлять поиск по сети, например, чтобы установить факты вроде «Куин Мэри имеет котельную». Семантические сети – один из самых удачных методов представления знаний о предметной области, который сильно упрощает поиск решения задач.
2.2.3.Методы, основанные на фреймах
В области искусственного интеллекта термином фрейм обозначается специальный метод представления общих концепций и ситуаций.
Предложивший идею фрейма Марвин Минский, описывает его так:
«Фрейм – это структура данных, представляющая стереотипную ситуацию, вроде нахождения внутри некоторого рода жилой комнаты, или сбора на вечеринку по поводу дня рождения ребенка. К каждому фрейму присоединяется несколько видов информации. Часть этой информации – о том, как использовать фрейм. Часть – о том, чего можно ожидать далее. Часть – о том, что следует делать, если эти ожидания не подтвердятся»
Фрейм является сетью узлов и отношений, организованных иерархически, где верхние узлы представляют общие понятия, а нижние узлы более частные случаи этих понятий или их свойства. Фрейм по своей организации во многом похож на семантическую сеть. Не случайно в ряде работ фреймы и семантические сети рассматриваются как методы представления знаний, основанных на фреймах. Они обеспечивают естественный и эффективный путь классификации и систематизации знаний.
2.3.Основные характеристики экспертных систем
Специалисты в области ИИ имеют несколько более сложное представление о том, что такое экспертные системы.
Рис. 5. Особенности экспертной системы, отличающие ее от обычных программ.
Компетентность
Умелая ЭС применяет знания эффективно и быстро, избегая громоздких или ненужных вычислений. Чтобы по-настоящему подражать поведению эксперта-человека, ЭС должна обладать робастностью, т.е. уметь лишь постепенно снижать качество работы по мере приближения к границам диапазона компетентности или допустимой надежности данных.
Символьные рассуждения
Эксперты, решая какие-то задачи (особенно такого типа, для решения которых применяются экспертные системы), обходятся без решения систем уравнений или других трудоемких математических вычислений. Вместо этого они с помощью символов представляют понятия предметной области и применяют различные стратегии и эвристики в процессе манипулирования этими понятиями.
При решении задачи экспертная система способна выполнять определенные математические расчеты, но в основном она манипулирует символами, которые соответствуют понятиям предметной области. На жаргоне ИИ символ – это строка знаков, соответствующая содержанию некоторого понятия реального мира. Ниже приведены примеры символов,
продукт
ответчик
0.8
Эти символы можно объединить, чтобы выразить отношения между ними. Когда эти отношения представлены в программе ИИ, они называются символьными структурами. Далее приведены примеры символьных структур:
(ДЕФЕКТНЫЙ продукт)
(ВЫПУЩЕННЫЙ ответчиком продукт)
(РАВНО (ОТВЕТСТВЕННОСТЬ ответчик) 0.8)
Эти структуры можно интерпретировать следующим образом: «продукт является дефектным», «продукт был выпущен в продажу ответчиком» и «ответственность ответчика равна 0.8».
Кроме того, эксперты могут получить задачу, сформулированную неким произвольным образом, и преобразовать ее к тому виду, который в наибольшей степени соответствует быстрому получению решения или гарантирует его максимальную эффективность. Эта способность переформулирования задачи — как раз то свойство, которое должно быть присуще экспертным системам для того, чтобы приблизить их мастерство к уровню экспертов-людей. К сожалению, большинство существующих в настоящее время экспертных систем не обладают этим свойством.
Глубина
ЭС должна работать эффективно в узкой предметной области, содержащей трудные, нетривиальные задачи. Поэтому правила в ЭС должны быть сложными, либо в смысле сложности каждого правила, либо в смысле их обилия.
Если же по отношению к сложной задаче или данным о ней сделаны существенные упрощения, полученное решение может оказаться неприменимым в масштабах, которые характерны для реальной проблемы.
Самосознание
У большинства существующих экспертных систем есть так называемый механизм объяснения . Это знания, необходимые для объяснения того, как система пришла к данным решениям. Большинство объяснений включают демонстрацию цепочек выводов и доводов, объясняющих, на каком основании было применено каждое правило в цепочке. Возможность проверять собственные процессы рассуждения и объяснять свои действия – одно из самых важных свойств экспертных систем.
«Самосознание» важно для экспертной системы, поскольку:
- пользователи больше доверяют результатам системы.
- систему легче отлаживать и усовершенствовать.
- предположения, положенные в основу работы системы, становятся явными, а не подразумеваемыми.
- Легче предсказывать и выявлять влияние изменений на работу системы.
Умение объяснить — это всего лишь один из аспектов самосознания. В будущем самосознание позволит экспертным системам делать даже больше. Они сами смогут создавать обоснования отдельных правил путем рассуждения, исходящего из основных принципов. Они будут приспосабливать свои объяснения к требованиям пользователя. Они смогут изменять собственную внутреннюю структуру путем коррекции правил, реорганизации базы знаний и реконфигурации системы.