И методы интеллектуальной поддержки процессов принятия решений


с. 1 ... с. 2 с. 3 с. 4 с. 5

НЕКОТОРЫЕ ИЗ ПРИЛОЖЕНИЙ
ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЕЙ



8.1. ИНС в вычислительных системах
Развитие и внедрение в практику новых информационных технологий рассматривается как комплексный системный подход к автоматизации процессов манипулирования с информацией в различных аспектах (получения, хранения, обработки, передачи, использования информации). Это неизбежно приводит к более широкой трактовке многих понятий.

Так, под вычислениями уже подразумеваются любые процедуры, связанные с получением, хранением, обработкой, передачей и использованием информации. Распознать (вычислить) на основании показаний датчиков системы управления технологической линией возникшую нештатную ситуацию, спланировать (вычислить) на основании полученных к текущему моменту результатов очередной шаг процесса проектирования сложного изделия, осуществить цифровую обработку принятых непрерывных сигналов, «вычислить» преступника – вот некоторые из примеров процедур, иллюстрирующих широту понятия вычислений.

Более широкой трактовки требует и понятие вычислительной системы (ВС). Очевидно, оно должно объединять в себе любые аппаратно-программные системы, манипулирующие с информацией хотя бы в одном из перечисленных выше аспектов. Это могут быть простейшие системы передачи данных или сложнейшие системы в виде взаимосвязанной совокупности одного или многих компьютеров или процессоров (возможно, базирующихся на различных принципах организации вычислений), многоуровневой памяти, периферийных устройств и программного обеспечения, управляющего аппаратными средствами и расширяющего их возможности в плане реализации информационно-вычислительных процессов различного характера. Под последними понимаются любые процессы, связанные с приобретением, хранением, обработкой, передачей и использованием информации.

Аналоговая ВС, оперируя непрерывными физическими сигналами, соответствующими переменным реализуемых математических моделей, обладает колоссальным быстродействием в силу существенного параллелизма вычислений (все функциональные блоки аналогового процессора принимают одновременное участие в вычислительном процессе). Однако ей присущ ряд недостатков. Это отсутствие универсальности, гибкости в плане переориентации системы на другую задачу (класс задач). Это проблемы обеспечения требуемой точности вычислений, которые могут возникать на определенных классах задач. Это низкая помехоустойчивость системы, функционирующей в условиях существенного влияния внешних факторов (температурных режимов, уровня радиации и т.п.).

Последовательный цифровой принцип архитектуры фон Неймана, базирующейся на формальном аппарате алгебры логики, отличается универсальностью. Он обеспечивает необходимую точность вычислений, высокую надежность и как пути повышения производительности использует:


  • увеличение тактовых частот системы;

  • конвейеризацию выполнения инструкций;

  • распараллеливание вычислительных структур на уровнях микрокоманд, команд и алгоритмов;

а также ряд других архитектурных усовершенствований, способствующих повышению эффективности вычислительного процесса.

Универсальность цифрового микропроцессора, возможность обеспечения практически любой точности, более высокая помехоустойчивость определяют то предпочтение, которое отдано в современной практике цифровым ВС.

Вместе с тем заслуживает внимания успешно развивающийся альтернативный подход к организации вычислений, базирующийся на применении ИНС как основы существенно параллельных вычислительных систем — нейрокомпьютеров (нейропроцессоров). В идеальной, с точки зрения быстродействия, реализации это аналоговый подход с присущей ему высокой скоростью вычислений, но вместе с тем предоставляющий возможность достижения на определенных классах задач приемлемой точности путем:


  • повышения мощности нейронной сети (увеличения числа нейронов, количества слоев);

  • совершенствования ее архитектуры;

  • применения эффективных процедур обучения;

  • сочетания с элементами цифровой вычислительной техники, т.е. создания гибридной архитектуры, комбинирующей в себе аналоговый и цифровой принципы организации вычислений.

Последнее позволяет также придать определенную универсальность, гибкость нейрокомпьютеру, хотя и уводит от существенного параллелизма.

ВС, реализующую параллелизм как результат представления задачи в нейросетевом базисе, (нейрокомпьютер) следует рассматривать как гибридную систему, к организации которой можно подойти с разных позиций.

Наиболее доступный способ — полностью эмулировать систему в среде достаточно мощного универсального цифрового компьютера, а лучше —цифровой системы параллельного действия (мультипроцессора, мультикомпьютера). Однако не для всех задач такой вариант обеспечит необходимый эффект. Поэтому его придерживаются в основном при создании специализированных нейропакетов, ориентированных на определенные классы задач. Информацию по некоторым из них можно получить, обратившись к источнику [12].

Более эффективный способ предполагает создание нейроплат, реализующих нейросетевые алгоритмы решения задач определенной прикладной направленности. Эти платы включаются в состав универсальных цифровых компьютеров на правах сопроцессоров и отличаются друг от друга своей архитектурой и используемой элементной базой. Основным элементом нейроплаты является нейрочип, реализующий нейронную сеть определенной архитектуры. Он может быть цифровым, аналоговым или комбинировать в себе цифровую и аналоговую элементную базу. Аналоговый нейрочип позволяет добиться максимального быстродействия, ибо реализует существенный параллелизм, свойственный аналоговому принципу вычислений.

Реализация нейрочипов в виде заказных или полузаказных СБИС/УБИС может оказаться слишком накладной и неудобной в плане обеспечения необходимой гибкости системы. Гораздо дешевле и удобнее использовать для этих целей СБИС/УБИС программируемой логики (CPLD, FPGA, FLEX) [18].

Выбор того или иного способа реализации нейрокомпьютера во многом зависит от его функциональной организации, т.е. от состава включаемых в него функциональных систем, подсистем и модулей, а также принципов их взаимодействия между собой.

С точки зрения функциональной организации гипотетический нейрокомпьютер должен иметь в своем составе ряд компонентов, основное место среди которых занимает нейронная сеть. Если говорить об универсальном нейрокомпьютере, то в его составе должна быть библиотека нейронных сетей, включающая сети различных архитектур, позволяющие создавать нейросреду для моделирования задач разнообразного характера. Такая библиотека должна обладать свойством открытости, т.е. допускать возможность включения в ее состав новых структур нейронных сетей без изменения архитектуры ВС в целом. Библиотеку нейронных сетей может заменить (или дополнить) генерируемая каким-либо образом нейронная сеть произвольной конфигурации.

Как неотъемлемую часть нейрокомпьютера следует рассматривать механизм обучения нейронных сетей.

Концепция обучения с супервизором предполагает наличие некоторой внешней компоненты, поставляющей входные и целевые образы (шаблоны) для обучения сети. Значения синаптических весов и порогов активационных функций нейронов, обеспечивающие настройку сети на воспроизведение и обобщение заданных шаблонов, определяются как результат решения задачи минимизации отклонения реального выхода сети от желаемого. Для решения этой задачи можно использовать известные методы поисковой оптимизации, обладающие способностью эффективно работать на существенно нелинейных, овражных и многоэкстремальных функциях с большим числом независимых переменных. В определенной мере таким требованиям отвечают эволюционно-генетические алгоритмы.

При обучении нейронной сети путем ее самоорганизации (без супервизора) в качестве обучающей выборки используются только входные образы. При этом для адаптации (коррекции) параметров сети применяются некоторые правила (эвристики), оперирующие с состояниями нейронов, вызываемыми теми или иными предъявляемыми образами.

Отсутствие единого формального метода и существование множества различных процедур обучения конкретных типов нейронных сетей требует наличия в механизме обучения определенным образом организованной библиотеки процедур обучения.

Важной компонентой механизма обучения являются средства формирования обучающей выборки. На них возлагаются функции получения, обработки и приведения к необходимому формату (воспринимаемому нейронной сетью) информации, используемой для ее обучения. Очевидно, это должен быть модуль, включающий некоторую инвариантную часть, реализующую последовательную подачу на входы нейронной сети обучающих примеров в требуемом формате, и способный использовать встраиваемые процедуры, выполняющие специфические для данной задачи преобразования обучающей информации.

В архитектуре нейрокомпьютера должен быть также предусмотрен интерпретатор выходных сигналов сети. Его назначение состоит в приведении получаемых сетью результатов к форматам, воспринимаемым пользователем и механизмом обучения. Механизм обучения использует эти результаты для формальной оценки степени их отклонения от желаемых.

Такие оценки могут формироваться различным образом. Они выполняют роль критериев, по которым подбираются (корректируются) значения настраиваемых параметров нейронной сети (веса синаптических связей, пороги активационных функций нейронов и, возможно, параметры активационных функций). Для придания системе гибкости в плане обеспечения возможности оперативной перестройки с одного критерия на другой данная функция (функция оценки) должна быть выделена в отдельный модуль формирования критерия обучения. На данный модуль может быть возложена также функция отслеживания и наглядного представления пользователю динамики изменения значений критерия обучения.

Способность механизма обучения рационально использовать имеющиеся в его распоряжении средства (включая библиотеку процедур обучения) во многом определяется наличием в его архитектуре модуля интеллектуальной поддержки процесса обучения. Этот модуль может быть организован как система, основанная на знаниях. На эту систему могут быть возложены функции отслеживания состояния процесса обучения и выработки рекомендаций относительно:


  • коррекции сценария обучения;

  • смены критериев оценки;

  • декомпозиции варьируемых переменных;

  • структурного изменения нейронной сети при вырождении (приближении к нулю) значений некоторых синаптических весов;

  • коррекции активационных функций нейронов при попадании их в состояние насыщения и т.п.

Знания, используемые системой для выполнения этих функций, могут быть представлены, например, в виде набора продукционных правил. Не исключено применение обученных нейронных сетей для выполнения функций хранения и интерпретации знаний.

Эффективность нейрокомпьютера, включающего рассмотренные выше компоненты, во многом зависит от его реализации. Существенную роль в этой реализации, очевидно, должны играть цифровые составляющие.




    1. Структурный синтез цифровых

автоматов в нейросетевом базисе
Развитие современных вычислительных систем в направлении цифровых архитектур параллельного действия, а также нейроархитектур, реализующих существенный параллелизм вычислений в нейросетевом логическом базисе, ставит в разряд наиболее актуальных проблемы формализации задач под выбранную архитектуру вычислительной системы.

Цифровые автоматы как объект исследования представляют интерес в двух аспектах. Во-первых, как средства технического обеспечения информационных систем различного назначения (САПР, АСУ, АСНИ, АОС и т.д.). Во-вторых, как объект проектирования в САПР микроэлектронных устройств цифровой аппаратуры.

Постоянное совершенствование архитектуры цифровых ВС, усложнение их конструктивно-технологической базы, использование цифровых модулей в реализациях нейрокомпьютеров предъявляют особые требования к методам и технологиям их проектирования. Развитие этих методов в свою очередь способствует появлению и внедрению в вычислительную практику новых архитектурных решений.

Методы проектирования произвольных цифровых автоматов с памятью исходят из основных положений абстрактной теории автоматов и более конструктивного ее продолжения — структурной теории автоматов [10]. На абстрактном уровне достаточно просто решаются вопросы определения числа состояний автомата (с возможностью его минимизации) и необходимого для их фиксации объема памяти. Согласно структурной теории, синтез логической схемы (структурный синтез) произвольного конечного автомата сводится к структурному синтезу схемы (схем) комбинационной логики. При этом в качестве исходной для синтеза комбинационной схемы выступает функциональная таблица автомата, сформированная по несложным правилам в соответствии с выбранным типом запоминающих элементов памяти и алгоритмом функционирования автомата, представленным его структурными таблицами переходов и выходов. Функциональная таблица представляет собой таблицу истинности, содержащую значения реализуемых логических функций (выходов комбинационной схемы) для всех наборов их аргументов (входных сигналов комбинационной цепи).

Традиционные методы синтеза комбинационных схем предполагают дальнейший переход от таблицы истинности к СДНФ (СКНФ) реализуемых функций, их оптимизацию по определенным критериям и реализацию в заданном логическом базисе [10, 18]:


  • на основе программируемой логической матрицы или матричной логики;

  • в виде логического блока табличного типа;

  • на основе универсального логического модуля (мультиплексора);

  • в малом логическом базисе (на вентильном уровне).

Синтез комбинационной схемы в малом логическом базисе (SLC – Simple Logic Cells) предоставляет широкие возможности для поиска наиболее рациональных решений. Однако традиционные методы минимизации булевых функций не являются универсальными с точки зрения произвольного выбора малого логического базиса для синтеза схем. Они оперируют в классе ДНФ (КНФ) булевых функций, не предусматривая возможность одновременной (согласованной в соответствии с дополнительными критериями) минимизации системы функций. С увеличением размерности пространства переменных (аргументов) функции становятся громоздкими и трудно контролируемыми. Процесс носит эвристический характер и порождает обширное множество вариантов схем, среди которых не всегда оказываются лучшие.

Развитие и внедрение в практику нейросетевой вычислительной парадигмы привело к появлению нового типа представления задач. К традиционным перечисляющему представлению, представлению в пространстве состояний, иерархическому представлению и их комбинациям добавилось представление задач в нейросетевом базисе. Оно позволяет:



  • выделить естественный для данного представления существенный параллелизм задачи;

  • применить для ее формализации известные методы обучения искусственных нейронных сетей;

  • определиться с архитектурой ВС, наиболее рациональной для решения рассматриваемого класса задач.

В работе [3] показана возможность представления комбинационной логической схемы эквивалентной (бинарной или биполярной) нейронной сетью прямого распространения (с сохранением физического и математического смысла всех параметров). Это позволяет свести трудноформализуемую проблему синтеза схем произвольной комбинационной логики к формальной задаче обучения (оптимизации) исходно избыточной нейронной сети с распараллеливанием вычислений (анализа нейронной сети) на каждой итерации оптимизационного процесса.

Синтезируемая комбинационная схема представляется в виде многослойной нейронной сети прямого распространения - многослойного персептрона, составными элементами которого являются спецпроцессоры двух видов:



  • нейроны, преобразующие поступающие на их входы бинарные (принимающие значения 0 или 1) или биполярные (принимающие значения 1 или -1) сигналы в единственный выходной сигнал в соответствии с заданной активационной функцией нейрона (ступенчатой или биполярной ступенчатой);

  • связи между нейронами, реализующие межнейронные взаимодействия в виде бинарных (или биполярных) сигналов, умножаемых на синаптические веса связей.

Исходно персептрон имеет все возможные межнейронные связи, не нарушающие его свойство прямонаправленности (каждый нейрон предшествующих слоев имеет непосредственные связи воздействия на все нейроны последующих слоев и ни на какие другие). Количество входов персептрона равно числу аргументов реализуемых логических функций, а количество выходов — числу реализуемых функций . Число внутренних (скрытых) слоев и количество нейронов в каждом из них задаются эвристически.

Виды активационных функций нейронов, их пороги и возможные значения синаптических весов межнейронных связей определяются выбором конкретного базиса SLC. Так, в случае базиса {И, ИЛИ, НЕ}, нейроны имеют биполярную ступенчатую активационную функцию



, (8.1)

где — сигнал на выходе -го нейрона; ;



— сигнал на выходе -го нейрона, воздействующего на -й нейрон

— порог активационной функции -го нейрона, реализующего логическую функцию И;

— общее количество нейронов, непосредственно воздействующих на -й нейрон;

— порог активационной функции -го нейрона, реализующего логическую функцию ИЛИ.

Синаптические веса межнейронных связей могут принимать значения . Значение представляет связь через инвертор (логическую функцию НЕ), отмечает отсутствие данной связи между нейронами, определяет обычную ретрансляционную связь.

Сигналы, распространяющиеся в данной сети, принимают значения из .

В случае использования базисов {И-НЕ}, {ИЛИ-НЕ} нейроны имеют, соответственно, активационные функции следующих видов:



; (8.2)

, (8.3)

где — сигнал на выходе -го нейрона;



;

— сигнал на выходе -го нейрона, воздействующего на -й нейрон

— порог активационной функции (8.2) -го нейрона, реализующего логическую функцию И-НЕ;

— порог активационной функции (8.3) -го нейрона, реализующего логическую функцию ИЛИ-НЕ.

Синаптические веса межнейронных связей могут принимать значения . Значение отмечает отсутствие данной связи между нейронами, определяет обычную ретрансляционную связь.

Сигналы, распространяющиеся в данной сети, принимают значения из .

При обучении нейронной сети в качестве варьируемых параметров выступают типы активационных функций нейронов (только для базиса {И, ИЛИ, НЕ}) и синаптические веса межнейронных связей.

Роль множества обучающих шаблонов выполняет исходная таблица истинности, т.е. функциональная таблица автомата -й вектор известных значений аргументов реализуемых функций, — вектор соответствующих значений функций, — мощность обучающего множества, т.е. число строк таблицы истинности, равное для полностью определенных функций).

В процессе обучения векторы , из множества последовательно подаются на вход персептрона и для каждого из них оценивается ошибка между фактическим и желаемым откликом (выходом) сети . Затем определяется общая ошибка , на основании которой алгоритм обучения осуществляет модификацию значений настроечных параметров сети, направленную на уменьшение ошибки. Обучение продолжается до тех пор, пока сеть не приобретет способность выполнять требуемый тип преобразования, заданный набором шаблонов (об этом свидетельствует значение ошибки ).

С математической точки зрения рассмотренная задача обучения персептрона представляет собой однокритериальную задачу дискретной безусловной оптимизации (минимизации). Поэтому для ее решения в работах [3, 4] применены эволюционно-генетические алгоритмы [6, 9] и метод имитации отжига.

В ходе эволюции персептрона избыточной структуры последовательно получаются все допустимые в ее рамках эквивалентные варианты нейронных сетей, реализующие исходную таблицу истинности (для них ошибка на выходе должна быть нулевой). Среди этих вариантов возможно присутствие идентичных структур, построенных на различных наборах нейроэлементов (число таких структур напрямую зависит от степени избыточности исходного персептрона). Из них для дальнейшего рассмотрения оставляется только одна.

В потенциале данный подход позволяет получить весь спектр решений поставленной задачи синтеза, возможный для заданной начальной топологии нейронной сети. Из него могут быть выбраны те, которые обеспечивают приемлемый компромисс в пространстве критериев быстродействия, аппаратной сложности, технологичности исполнения схемы и др.

Рассмотренный подход отличается высокой степенью формализма, недостижимой для классической теории синтеза комбинационных схем [10]. Он покрывает единым образом как общую классическую задачу синтеза, так и все ее частные классы (с дополнительными условиями в различных сочетаниях), в том числе каноническую задачу комбинационного синтеза. В отличие от классического, данный подход позволяет осуществлять синтез многофункциональных (векторных) устройств произвольной комбинационной логики в различных функционально полных базисах, что обусловливает возможность использования его при решении проблем интеграции схем.



    1. ИНС в системах автоматического управления

Классический подход к созданию систем автоматического управления (САУ) (систем автоматического регулирования – САР) базируется на аппарате интегродифференциального исчисления. Искусственные нейронные сети можно рассматривать как альтернативное направление в теории автоматического управления.

Появление термина «нейроуправление» связано с работами Вербоса, датируемыми 1976 годом. Однако первые практические результаты в данной сфере обозначились только к 1990 году [24].

В САУ ИНС применяются в качестве:



  • нейроконтроллеров, выполняющих функции управления динамическими объектами;

  • нейроэмуляторов, имитирующих поведение объекта управления в целом или по определенной его характеристике, трудно поддающейся математическому моделированию.

В качестве примера такого приложения ИНС можно привести результаты исследований (на уровне постановки задач и моделей их решения), опубликованные в работе [9].

Пусть ИНС, выполняющая функции нейроконтроллера, реализует управление инерционным колебательным звеном второго порядка, динамика поведения которого описывается дифференциальным уравнением



,

где — переменная, характеризующая состояние объекта управления (выходной сигнал) в момент времени ;



, и — параметры объекта управления, имеющие определенный физический смысл;

— входное воздействие на объект управления как функция времени.

Целью управления является подавление колебательности сигнала на выходе объекта при ступенчатом входном воздействии.

Схема взаимодействия нейроконтроллера с объектом управления и алгоритмом обучения представлена на рис. 20.

Нейроконтроллер (согласно данным о конкретных экспериментах из работы [9]) содержит три ретранслирующих нейрона во входном слое, четыре нейрона – в скрытом слое и один нейрон – в выходном слое (в принятых обозначениях это нейронная сеть NN3-4-1, где первые две буквы представляют аббревиатуру Neuron Network, а следующие три цифры определяют количество нейронов, соответственно, во входном, скрытом и выходном слоях). Все нейроны скрытого и выходного слоев имеют сигмоидальную активационную функцию.

На входные нейроны подаются:



  • разность между сигналом воздействия на систему и выходным сигналом объекта управления ;

  • производная от этой разности ( – оператор дифференцирования);

  • интеграл разности ( – оператор интегрирования).

Выходной нейрон выдает управляющее воздействие .

В качестве алгоритма обучения в приведенной схеме может выступать любой достаточно эффективный алгоритм оптимизации, способный найти значения параметров сети, обеспечивающие минимальное отклонение выходного сигнала объекта от сигнала эталонной модели . Таким алгоритмом может быть генетический алгоритм [9].

Применение алгоритма обратного распространения ошибки в условиях рассмотренной модели не представляется возможным, т.к. он требует информации об ошибке на моторном слое нейронной сети. Получение таковой существенно усложняет задачу.

Обучающий алгоритм настраивает параметры нейроконтроллера по ошибке на выходе объекта управления. При этом эталонная модель описывает желаемое поведение объекта, т.е. выполняет роль библиотеки тренировочных шаблонов.

В машинном эксперименте значение выходного сигнала объекта управления может определяться как результат численного решения системы обыкновенных дифференциальных уравнений:



(8.4)

Качественный вид решения системы (8.4) при ступенчатом входном воздействии представлен на рис. 21.

При обучении нейроконтроллера приходится экспериментировать либо с самим объектом управления, либо с его математической моделью.

В моделировании как проблемной области можно выделить две различные ветви: фундаментализм и эмпиризм.

Классическая ветвь, фундаментализм, базируется на интегро-дифференциальных уравнениях, описывающих физическую (фундаментальную) суть объекта моделирования. Ее отличительной чертой является наличие так называемой фазы анализа, в ходе которой моделируемый объект декомпозируется на элементарные явления известной природы, описываемые простыми (обычно линейными) моделями с единственным коэффициентом и имеющие ясную физическую интерпретацию.

Эмпиризм, к которому относится и нейромоделирование, принципиально исключает фазу анализа. Он базируется на синтетическом (не аналитическом) подходе, моделируя объект сразу целиком в реальных, практических условиях его функционирования без выделения идеальных элементарных явлений. Нейронная сеть способна запомнить и обобщить конкретные эмпирические зависимости и в дальнейшем воспроизвести динамическое поведение объекта. При этом не обязательно акцентировать внимание на том, с чем связана активность того или иного нейрона и какой физический смысл приобретают синаптические веса.

Вместе с тем у обеих ветвей есть нечто общее: параметрический синтез моделей реализуется как процесс оптимизации по заданному набору шаблонов.

Поскольку нейросетевые модели только имитируют динамические характеристики объекта, их называют нейроэмуляторами или предикторами (по их способности предсказывать, прогнозировать следующие состояния объекта на основании текущего и, возможно, нескольких предыдущих состояний).

По глубине предсказания различают одношаговые и краткосрочные предикторы.



Одношаговый предиктор обучается по схеме, представленной на рис. 22. Он получает информацию о текущих состояниях объекта ( и ) от самого объекта ( — временная задержка сигнала на один такт). Поэтому ошибка в предсказании возникает только в пределах текущего шага, не накапливаясь от шага к шагу. Это обеспечивает более точное предсказание по сравнению с краткосрочным предиктором.


Краткосрочный предиктор обучается согласно схеме, представленной на рис. 23. Он может предсказывать поведение объекта на много шагов, отталкиваясь в прогнозе от собственных прогнозов предыдущих шагов. Это может приводить к значительному накоплению ошибки.

Рис. 23. Схема обучения краткосрочного предиктора

На основании вышеизложенного рассмотрим предложенную в работе [9] архитектуру САУ, базирующуюся на концепции виртуальной реальности.

Примем, что виртуальный – это значит существующий в понятии или производящий эффект, но не существующий в действительности и не имеющий названия. Виртуальная реальность существует в каждом человеке, который на протяжении всей своей жизни строит и уточняет картину окружающего мира, моделирует себя в этом мире и вырабатывает стратегию своего поведения.

Исходя из данных представлений об интеллекте человека и проводя аналогию, авторы работы [9] подошли к организации САУ следующим образом.

В роли окружающего мира для САУ выступает управляемый объект. Телом системы является нейроконтроллер. Функции мозга системы, с помощью которого она адаптирует себя к окружающему миру, выполняет виртуальный канал управления, содержащий модель объекта управления и модель нейроконтроллера. Схема взаимодействия рассмотренных составляющих изображена на рис. 24.

Исходной для работы системы, представленной на рис. 24, является априорная информация о поведении объекта управления в различных режимах. На основании этой информации синтезируется нейроэмулятор объекта, который копируется в виртуальный канал, где происходит обучение нейроконтроллера. При достижении виртуальным каналом требований эталонной модели параметры виртуального контроллера передаются на исполнительный нейроконтроллер, после чего система готова выполнять свои функции управления.

ВОПРОСЫ И ЗАДАНИЯ ДЛЯ САМОКОНТРОЛЯ


  1. Дайте определение нейрокомпьютера.

  2. Перечислите основные компоненты, которые должны входить в состав нейрокомпьютера.

  3. Определите функции каждой из перечисленных компонент.

  4. Изложите Ваши соображения относительно способов реализации каждой из перечисленных компонент.

  5. В чем заключается основная идея синтеза схем произвольной комбинационной логики в нейросетевом базисе?

  6. Как представляется комбинационная логическая схема в нейросетевом базисе?

  7. Какие методы и алгоритмы используются для синтеза комбинационной схемы в нейросетевом базисе?

  8. Какими преимуществами обладает подход к синтезу схем произвольной комбинационной логики в нейросетевом базисе?

  9. Какие функции нейронная сеть может выполнять в системе автоматического управления?

  10. Постройте схему обучения нейроконтроллера для примера управления инерционным колебательным звеном второго порядка.

  11. По какой схеме обучается одношаговый предиктор?

  12. По какой схеме обучается краткосрочный предиктор?

  13. Изложите принципы организации САУ, базирующейся на концепции виртуальной реальности.

  1. ГИБРИДНЫЕ СРЕДСТВА ИНТЕЛЛЕКТУАЛЬНОЙ ПОДДЕРЖКИ ПРОЦЕССОВ ПРИНЯТИЯ РЕШЕНИЙ


9.1. Концепция гибридной системы интеллектуальной поддержки
Традиционные системы, основанные на знаниях продукционного типа, используемые в качестве средств интеллектуальной поддержки процессов принятия решений, обладают рядом достоинств. Во-первых, они способны осуществлять как четкий (достоверный), так и нечеткий (правдоподобный) логический вывод с использованием управляемых стратегий поиска в ширину и в глубину. Во-вторых, они обеспечивают возможность отслеживания логики рассуждений для обоснования принимаемых решений. В-третьих, они используют сравнительно несложную технологию получения знаний от эксперта в виде графа решений и трансформации их в набор продукционных правил. В-четвертых, они обладают свойством открытости в плане внесения изменений в базу правил.

Вместе с тем эти системы обладают и недостатками, среди которых можно выделить следующие:



  • громоздкость процесса вывода, связанная с проверкой условий применимости правил;

  • сложность управления процессом вывода, сопряженная с риском обойти вниманием важные решения.

Отмеченные недостатки обусловлены лежащим в основе систем базовым принципом аналитического (символьного) распознавания ситуаций.

Избавиться от указанных недостатков позволяет синтетический (образный) способ восприятия и распознавания ситуаций, свойственный искусственным нейронным сетям. Нетрудно показать (это будет сделано несколько позже), что на основании графа решений с использованием некоторых эвристических правил и процедур обучения может быть построена эквивалентная ему (по логике принятия решений) нейронная сеть.

Образное восприятие ситуации в целом и практически мгновенная реакция обученной нейронной сети значительно ускоряют процесс принятия решений. Однако такому подходу свойственны свои недостатки:


  • сложно отследить логику «рассуждений» сети для обоснования принимаемых ею решений;

  • сложно сформировать множество шаблонов для обучения (дообучения) нейронной сети.

Все вышесказанное может служить основанием для введения концепции гибридной системы интеллектуальной поддержки [5], сочетающей в себе оба рассмотренных подхода, каждый из которых способен компенсировать недостатки другого.


    1. Архитектура оболочки гибридной системы
      интеллектуальной поддержки

В составе оболочки гибридной системы интеллектуальной поддержки процессов принятия решений предусмотрены следующие основные компоненты (рис. 25):



  • исходно пустая база знаний;

  • механизм вывода;

  • подсистема приобретения знаний;

  • механизм обучения нейронной сети;

  • подсистема объяснения;

  • интеллектуальный интерфейс.

База знаний включает две традиционные составляющие. Одна из них (база правил) объединяет в себе долговременные знания о предметной области в виде набора продукционных правил, получаемых от подсистемы приобретения знаний на этапе настройки оболочки системы на определенную предметную область. Другая составляющая базы знаний (рабочая память) представляет ее динамическую часть, в которой хранятся факты (оперативные данные), описывающие текущую ситуацию (состояние процесса принятия решений).

Механизм вывода представляет собой аналитическое ядро системы, выполняющее функцию построения прямой логической цепочки рассуждений с использованием стратегий поиска в глубину и в ширину в соответствии с технологией, детально рассмотренной в подразделах 6.2 и 6.3.

Подсистема приобретения знаний в качестве главного механизма получения знаний от эксперта использует граф решений. Принимая на вход описание графа решений, она формирует в требуемом формате набор продукционных правил, который передает в базу правил.

Кроме этого подсистема приобретения знаний генерирует нейронную сеть прямого распространения, эквивалентную (по логике «рассуждений») исходному графу решений.

Осуществляется это по следующим правилам:


  • каждой вершине вывода (промежуточного или окончательного) ставится в соответствие свой нейрон, имеющий сигмоидальную активационную функцию;

  • выходная ветвь нейрона помечается синаптическим весом, равным коэффициенту уверенности вывода, указанному в правом нижнем углу вершины вывода;

  • каждой вершине-овалу сходящихся к нейрону цепочек (некоторые из них могут начинаться с вершины промежуточного вывода) ставится в соответствие входная ветвь нейрона, помеченная коэффициентом уверенности факта, указанного в вершине-овале; вершинам промежуточных выводов, с которых начинаются некоторые из цепочек, так же ставятся в соответствие входные ветви нейрона, но помеченные коэффициентом уверенности, указанным в правом нижнем углу вершины вывода;

  • нейроны располагаются по слоям согласно правилу: каждый нейрон последующего слоя должен иметь входные связи только с нейронами предшествующих слоев и хотя бы одну входную связь с каким-нибудь нейроном предыдущего, смежного с ним слоя;

  • каждой вершине-овалу графа решений ставится в соответствие группа смежных нейронов сенсорного слоя (каждому нейрону группы соответствует свой выход из вершины-овала);

  • оставшиеся свободными выходные ветви нейронов выводятся каждая на свой нейрон моторного слоя.

Для последующего дообучения нейронной сети (если в этом появляется необходимость) в структуре системы предусмотрен механизм обучения, который в качестве обучающих шаблонов использует векторы состояний системы (ситуаций), берущиеся из рабочей памяти и подающиеся на входы сети, и соответствующие им (ситуациям) векторы решений, получаемые механизмом вывода и рассматриваемые как желаемые. В качестве варьируемых переменных при дообучении нейронной сети могут выступать синаптические веса межнейронных связей, пороги активационных функций нейронов и параметры этих функций.

Таким образом, нейронная сеть обучается, «наблюдая» за поведением механизма аналитического вывода (на примерах его функционирования).



Достаточно обученная нейронная сеть при необходимости способна заменить механизм вывода и осуществлять существенно параллельный нейровывод. Широтой охвата пространства поиска нейровыводом можно управлять путем селективной активизации входных сигналов сети.

Подсистема объяснения призвана представить по требованию пользователя в понятном для него виде цепочку рассуждений, приведшую к тому или иному заключению (заключениям). При работе системы в аналитическом режиме рассуждений обеспечение такой функции не вызывает проблем. Сложнее дело обстоит с нейровыводом, хотя какие-то механизмы раскрытия логики «рассуждений» сети, очевидно, могут быть реализованы (об этом осторожно говорит пунктирная связь нейронной сети с подсистемой объяснения, отмеченная на рис. 25).

Интеллектуальный интерфейс объединяет в себе лингвистические, информационные и программные средства взаимодействия пользователя, инженера по знаниям и эксперта с соответствующими компонентами системы. Они должны быть ориентированы на неподготовленного пользователя, обладать способностью настраиваться на его терминологию и создавать по возможности комфортные условия для работы в системе.


ВОПРОСЫ И ЗАДАНИЯ ДЛЯ САМОКОНТРОЛЯ


  1. Сопоставьте достоинства и недостатки СОЗ и ИНС, выступающих в качестве средств интеллектуальной поддержки.

  2. В чем состоит суть концепции гибридной системы интеллектуальной поддержки процессов принятия решений?

  3. Перечислите основные компоненты оболочки гибридной системы интеллектуальной поддержки.

  4. Определите функции каждой из перечисленных компонент.

  5. Изложите формальные правила, лежащие в основе алгоритма трансформации графа решений в эквивалентную нейронную сеть.

  6. Какие параметры нейронной сети могут выступать в качестве варьируемых при ее дообучении?



Список литературы


  1. Альперович Э.Е., Батищев Д.И., Басалин П.Д. и др. САППОР – система автоматизации процесса принятия оптимальных решений // Кибернетические системы автоматизации проектирования: Материалы семинара. — М., 1973. — С. 29—35.

  2. Басалин П.Д. Организация интеллектуальной обучающей среды с применением новых информационных технологий // Вестник ВГАВТ. Межвузовская серия «Моделирование и оптимизация сложных систем». – Н. Новгород, 2002. – С. 21—25.

  3. Басалин П.Д., Белокрылов П.Ю. Структурный синтез цифровых автоматов в нейросетевом базисе // Системы управления и информационные технологии. — 2007. — № 3(29). — С. 44—48.

  4. Басалин П.Д., Белокрылов П.Ю., Згурский Д.С. Синтез схем произвольной комбинационной логики в нейросетевом базисе с применением метода имитации отжига // Вестник Нижегородского университета им. Н.И. Лобачевского. – 2008. — № 5.— С. 126–130.

  5. Басалин П.Д., Безрук К.В. Средства интеллектуальной поддержки процессов проектирования и управления // Интеллектуальные системы: Труды Девятого Международного симпозиума / Под ред. К.А. Пупкова. — М.: РУСАКИ, 2010. — С. 217—221.

  6. Батищев Д.И., Костюков В.Е., Старостин Н.В., Смирнов А.И. Популяционно-генетический подход к решению задач покрытия множества: Учебное пособие. — Н. Новгород: Изд-во ННГУ им. Н.И. Лобачевского, 2004. — 152 с.

  7. Борисов В.В., Круглов В.В., Федулов А.С. Нечеткие модели и сети. — М.: Горячая линия — Телеком, 2007. — 284 с.

  8. Вагин В.Н., Головина Е.Ю., Загорянская А.А., Фомина М.В. Достоверный и правдоподобный вывод в интеллектуальных системах / Под ред. В.Н. Вагина, Д.А. Поспелова. — М.: Физматлит, 2004. — 704 с.

  9. Вороновский Г.К., Махотило К.В., Петрашев С.Н., Сергеев С.А. Генетические алгоритмы, искусственные нейронные сети и проблемы виртуальной реальности. — Х.: Основа, 1997. — 112 с.

  10. Глушков В.М. Синтез цифровых автоматов. – М: Физматгиз, 1962. – 476 с.

  11. Комарцова Л.Г., Максимов А.В. Нейрокомпьютеры: Учебное пособие для вузов. — 2-е изд., перераб. и доп. — М.: Изд-во МГТУ им. Н.Э. Баумана, 2004. — 400 с.

  12. Круглов В.В., Борисов В.В. Искусственные нейронные сети. Теория и практика. — М.: Горячая линия – Телеком, 2001. — 382 с.

  13. Леви Р., Дранг Д., Эдельсон Б. Практическое введение в технологию искусственного интеллекта и экспертных систем с иллюстрациями на Бейсике. — М.: Финансы и статистика, 1990. — 239 с.

  14. Малышев Н.Г., Берштейн Л.С., Боженюк А.В. Нечеткие модели для экспертных систем в САПР. — М.: Энергоатомиздат, 1991. — 136 с.

  15. Построение экспертных систем: Пер. с англ. / Под ред. Ф. Хейеса-Рота, Д. Уотермана, Д. Лената. — М.: Мир, 1987. — 441 с.

  16. Представление знаний в человеко-машинных и робототехнических системах: Том А. Фундаментальные исследования в области представления знаний. — М.: ВЦ АН СССР, ВИНИТИ, 1984. — 261 с.

  17. Таунсенд К., Фохт Д. Проектирование и программная реализация экспертных систем на персональных ЭВМ: Пер. с англ. / Предисл. Г.С. Осипова. — М.: Финансы и статистика, 1990. — 320 с.

  18. Угрюмов Е.П. Цифровая схемотехника: Учебное пособие для вузов. – 2-е изд., перераб. и доп. – СПб.: БХВ-Петербург, 2007. – 800 с.

  19. Хайкин С. Нейронные сети: полный курс. — 2-е издание: Пер. с англ. — М.: Издательский дом «Вильямс», 2008. — 1104 с.

  20. Хант Э. Искусственный интеллект: Пер. с англ. / Под ред. В.Л. Стефанюка. — М.: Мир, 1978. — 558 с.

  21. Частиков А.П., Гаврилова Т.А., Белов Д.Л. Разработка экспертных систем. Среда CLIPS. — СПб.: БХВ-Петербург, 2003. — 608 с.

  22. Экспертные системы. Принципы работы и примеры: Пер с англ. / Под ред. Р. Форсайта. — М.: Радио и связь, 1987. — 224 с.

  23. Aleksander I., Morton H. An Introduction to Neural Computing. — London: Chapman&Hall, 1990.

  24. Narendra K.S., Parthasarathy K. Identification and control of dynamical systems using neural networks // IEEE Trans. on Neur. Net. — 1990. — Vol. 1. — № 1. — P. 4–27.

СОДЕРЖАНИЕ


Предисловие 3

1. Концепция интеллектуальной поддержки процессов

принятия решений

1.1. Трудноформализуемые и неформальные этапы принятия решений 7

1.2. Цели и средства интеллектуальной поддержки процессов

принятия решений 10

Вопросы для самоконтроля 11

2. Искусственный интеллект как научное направление 12

2.1. Искусственный интеллект: концепция, возможности,

методы реализации 12

2.2. Фундаментальное направление в искусственном интеллекте 16

Вопросы для самоконтроля 20

3. Системы, основанные на знаниях, в качестве средств интеллектуальной поддержки процессов принятия решений 21

3.1. Понятия интеллектуальной и экспертной систем 21

3.2. Системы, основанные на знаниях 23

Вопросы и задания для самоконтроля 30

4. Модели представления знаний 31

4.1. Данные и знания как категории информационного

обеспечения задач 31

4.2. Логические модели представления знаний, основанные

на исчислениях 33

4.3. Сетевые модели представления знаний 35

4.4. Представление знаний в виде набора продукционных правил 36

Вопросы и задания для самоконтроля 38

5. Построение базы знаний 40

5.1. Исследование и описание предметной области 40

5.2. Организация модели представления и формализация знаний 43

5.3. Приобретение знаний 45

Вопросы и задания для самоконтроля 51
6. Механизмы интерпретации знаний 53

6.1. Интерпретация логических моделей представления знаний, основанных на исчислениях 53

6.2. Интерпретация знаний в экспертных системах продукционного типа 58

6.3. Иллюстративный пример построения макетной

системы, основанной на знаниях продукционного типа 64

Вопросы и задания для самоконтроля 69

7. Нейромодельный подход к построению интеллектуальных систем 70

7.1. Биологические основы нейромодельного подхода 70

7.2. Концепция искусственной нейронной сети 76

7.3. Классификация искусственных нейронных сетей 81

7.4. Персептроны 82

7.5. RBF-сеть 89

7.6. Сеть Хопфилда 92

7.7. Сеть Хемминга 93

7.8. Самоорганизующиеся нейронные сети Кохонена 95

Вопросы и задания для самоконтроля 100

8. Некоторые из приложений искусственных нейронных сетей 101

8.1. ИНС в вычислительных системах 101

8.2. Структурный синтез цифровых автоматов в нейросетевом

базисе 106

8.3. ИНС в системах автоматического управления 112

Вопросы и задания для самоконтроля 119

9. Гибридные средства интеллектуальной поддержки процессов

принятия решений 120

9.1. Концепция гибридной системы интеллектуальной

поддержки 120

9.2. Архитектура оболочки гибридной системы интеллектуальной поддержки 121

Вопросы и задания для самоконтроля 125

Список литературы 126

Павел Дмитриевич Басалин

Константин Васильевич Безрук

Марина Вячеславовна Радаева



МОДЕЛИ И МЕТОДЫ ИНТЕЛЛЕКТУАЛЬНОЙ

ПОДДЕРЖКИ ПРОЦЕССОВ ПРИНЯТИЯ РЕШЕНИЙ
Учебное пособие

Формат 6084 1/16. Бумага офсетная. Печать офсетная.

Уч.-изд. л. 8,3. Усл. печ. л. 7,6. Тираж 200 экз. Заказ 262.
Издательство Нижегородского госуниверситета им. Н.И. Лобачевского

603950, Н. Новгород, пр. Гагарина, 23.


Редакционно-издательское управление (РИУ)

Нижегородского госуниверситета им. Н.И. Лобачевского.



603950, Н. Новгород, пр. Гагарина, 23.



с. 1 ... с. 2 с. 3 с. 4 с. 5

скачать файл