![]() Главная страница Случайная страница КАТЕГОРИИ: АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
Принципы построения полиномиальных моделей нейронных сетей для распознавания образов
Высокая сложность и размерность многих задач распознавания образов, классификации потоков данных, анализа изображений и диагностики состояний глобальных ТКС и распределённых ИКС, а также часто возникающая необходимость их решения в реальном времени требуют массового параллелизма и самоорганизации распределённых вычислений на базе НС. С этой точки зрения особый интерес представляют гетерогенные полиномиальные нейронные сети (ПНС) с самоорганизующейся архитектурой и их разновидности, предложенные в работах [18, 35–40, 55, 94–108]. Основные идеи, математические модели, методы обучения, способы оптимизации и принципы самоорганизации гетерогенных ПНС были описаны в [17, 18, 35–40] и развиты в [41–43, 99–107]. К ним прежде всего относится следующее: –архитектура ПНС гетерогенна и многослойна; –наличие слоя полиномиальных нейронных элементов (П-нейронов); –возможность и целесообразность самоорганизации архитектуры ПНС различных типов; –детерминированные и вероятностные методы обучения и самоорганизации гетерогенных ПНС; –принципы минимальной сложности и высокой экстраполяции гетерогенных ПНС; –алгебраическое требование диофантовости (целочисленности синаптических весов) гетерогенных ПНС. В процессе дальнейшего развития теории гетерогенных ПНС были предложены модели многозначных нейронных элементов (М-нейронов) и связанных с ними конъюнктивных, полиномиальных, дизъюнктивных и суммирующих нейронных элементов (МК-, МП-, МД- и МS-нейронов), а также новые разновидности гетрогенных ПНС (генно-нейронные сети, квантовые, нейронные сети, мульти-агентные ПНС и т.п.). ПНС с гетерогенной архитектурой предназначены для решения сложных интеллектуальных задач. Примерами таких задач могут служить задачи распознавания образов, классификации данных, диагностики состояний, идентификации объектов и т.п. Обычно эти задачи формулируются следующим образом. Пусть задано конечное множество объектов
Это означает, что существует неизвестная распознающая (классифицирующая) функция R(w), ставящая в соответствие каждому объекту w Î W номер класса k, к которому он принадлежит, т.е.
Кроме того, существует множество неизвестных идентифицирующих функций вида
являющихся характеристическими функциями классов Wk, k = 1, 2, …, K, которые отделяют все объекты w Î Wk от остальных Wi. Предположим, что имеется некоторая измерительная система (датчики информации, сенсоры, измерительные приборы и т.п.), которая в результате измерения свойств или определения характеристик любого объекта w Î W однозначно ставит в соответствие объекту w его информационное описание в виде вектора признаков Отображение x: W® Rn будем называть корректным или информативным, если выполняются следующие условия: 1) если т.е. объекты wi и wj с одинаковым описанием принадлежат одному классу, 2) если т.е. объектам wi и wj из разных классов соответствуют различные описания. Таким образом, корректное отображение объектов в пространство признаков не приводит к потере информации о классах. Это информативное отображение определяет следующее разбиение описаний объектов на классы (образы)
Из соотношений (11.1) – (11.6) следует, что если w Î Wk, тоx (w)Î X k, и наоборот. В том случае, когда Будем считать, что отображение x: W® Rn является информативным и, возможно, сжимающим. Тогда задачи классификации и идентификации образов сводятся к восстановлению (определению) неизвестных решающих функций вида (11.2) и (11.3). При этом единственной доступной информацией о классах (11.1) являются табличные базы данных вида
называемые обучающей выборкой или обучающей БД. Мощность этой выборки Наряду с классическими задачами классификации и идентификации образов с помощью скалярных решающих функций вида (11.2) и (11.3), значительный интерес для практики представляет их обобщение на случай векторного распознавания образов и диагностики состояний. Примером таких задач могут служить сложные задачи медицинской теледиагностики, когда требуется для каждого больного wÎ W с вектором симптомов признаков x(w) определить не только диагноз, т.е. класс заболеваний W k, к которому он относится, но и дать его “расшифровку”, т.е. найти ряд уточняющих и детализирующих характеристик в виде вектора
где Формально развёрнутое (детализирующее) решение можно представить в виде (q+1) – мерного вектора
Компонентами этого вектора является классифицирующий предикат При обобщённой векторной классификации образов главный (глобальный) предикат
Предикаты
По этим данным требуется восстановить (определить) неизвестную решающую вектор-функцию (11.9) и её компоненты (11.2) и (11.8). Некоторые методы решения этой задачи векторной (расширенной) классификации образов на базе обучения и самоорганизации гетерогенных ПНС предложены в работе [104]. В настоящее время известно много математических и эвристических подходов к решению сформулированных задач классификации данных и идентификации образов. Среди них важную роль играют нейросетевые подходы, основанные на синтезе различных моделей (архитектур) и алгоритмов обучения НС для распознавания образов и диагностики состояний. Во многих случаях эти НС имеют гомогенную архитектуру [109]. При этом заранее не известно, какое число слоёв и нейроэлементов необходимо для решения задачи. Алгоритмы обучения таких гомогенных НС не всегда сходятся к решению задачи за конечное число шагов [25, 26]. Примерами гомогенных НС могут служить однослойные НС Хопфилда или Хемминга или многослойные перцептроны, использующие пороговые или сигмоидальные нейроэлементы. Популярные сегодня градиентные алгоритмы обучения гомогенных НС типа Backpropagation и его модификации (Quick propagation, Rpro и т.п.) медленно сходятся или вообще не приводят к решению за конечное время [109]. Описываемые ниже гетерогенные ПНС различных типов являются эффективным средством восстановления (определения) неизвестных классифицирующих и идентифицирующих функций (11.2) и (11.3) по обучающим базам данных (11.7) и их реализации на базе ПНС с самоорганизующейся архитектурой минимальной сложности. В основе теории этих гетерогенных ПНС лежат идеи и принципы, сформулированные выше, а также в работах [17, 18, 35–43, 99–107]. Предлагаемые гетерогенные ПНС позволяют также решать обобщенные задачи векторной классификации и описания образов, т.е. восстанавливать (определять) неизвестные векторные функции (11.9) по расширенным обучающим выборкам вида (11.1). Кроме того, они могут успешно использоваться в качестве моделей нейросетевых агентов при коллективном (мульти-агентном) решении сложных (глобальных) задач распознавания образов, расширенной (векторной) диагностики и адаптивной маршрутизации информационных потоков [18, 79, 96, 104].
|