Студопедия

Главная страница Случайная страница

КАТЕГОРИИ:

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника






Искусственные нейронные сети, их свойства и Основные Характеристики.






Цель работы: выработка навыков выявления основных параметров искусственных нейронных сетей, влияющих на ее работу.

Используемое программное обеспечение: Matlab 6.5, Microsoft Excel 2007.

Теоретические сведения

Искусственные нейронные сети совокупность моделей биологических нейронных сетей; сеть элементов (искусственных нейронов), связанных между собой синоптическими соединениями. Сеть обрабатывает входную информацию и в процессе изменения своего состояния во времени формирует совокупность выходных сигналов.

Работа сети состоит в преобразовании входных сигналов во времени, в результате чего меняется внутреннее состояние сети и формируются выходные воздействия. Обычно нейронные сети оперирует цифровыми величинами.

Они используют множество простых вычислительных элементов, называемых нейронами, каждый из которых имитирует поведение отдельной клетки человеческого мозга.

В настоящее время нейронные сети применяются для решения многих не формализуемых или трудно формализуемых задач:

- распознавания и синтеза речи;

- распознавания аэрокосмических изображений;

- прогнозирования котировки ценных бумаг и курса валют;

- предупреждения мошенничества с кредитными карточками;

- оценки стоимости недвижимости;

- оценки финансового состояния предприятий и риска невозврата кредитов;

- обработки радиолокационных сигналов;

- контроля движения на скоростных автомагистралях и железных дорогах;

- диагностики в медицине;

- добычи знаний из больших объемов данных в бизнесе, финансах и научных исследованиях.

Области применения нейронных сетей:

1) техника и телекоммуникация;

2) информационные технологии;

3) экономика и финансы;

4) реклама и маркетинг;

5) здравоохранение.

 
 

Структура нейронной сети (рис. 1)

 

Рис. 1. Базовая структура нейронной сети

 

Классификация нейронных сетей:

По способу съема информации с выходов нейронной сети различают:

- съем с выходов выходных нейронов;

- съем с синапсов выходных нейронов;

- съем в виде значений весов синапсов выходных нейронов;

- аддитивный съем с синапсов выходных нейронов.

По организации обучения разделяют:

- обучение нейронных сетей с учителем (supervised neural networks);

- без учителя (nonsupervised).

По способу обучения разделяют:

- обучение по входам;

- обучение по выходам.

По способу предъявления примеров различают:

- предъявление одиночных примеров;

- предъявление «страницы» примеров.

По особенностям модели нейрона различают нейроны с разными нелинейными функциями:

- пороговой;

- экспоненциальной сигмоидой;

- рациональной сигмоидой;

- гиперболическим тангенсом.

Виды искусственных нейронных сетей:

- L-слойные сети прямого распространения: стандартная и каскадная.

Стандартная L-слойная сеть прямого распространения состоит из слоя входных, (L-1) скрытых слоев и выходного слоя, соединенных последовательно в прямом направлении и не содержащих связей между элементами внутри слоя и обратных связей между слоями.

Каскадная сеть прямого распространения отличается тем, что входными параметрами для L-ого слоя могут быть выходные параметры не только (L-1)-ого слоя, но и всех слоев, предшествующих ему.

- Многослойный перцептрон. Каждый вычислительный элемент такой сети использует пороговую или сигмоидальную функцию активации. Многослойный перцептрон может формировать сколь угодно сложные границы принятия решения и реализовывать произвольные булевы функции.

- RBF-сети - сети, использующие радиальные базисные функции, являются частным случаем двухслойной сети прямого распространения. Каждый элемент скрытого слоя использует в качестве активационной функции радиальную базисную функцию типа гауссовой. Радиальная базисная функция (функция ядра) центрируется в точке, которая определяется весовым вектором, связанным с нейроном. Как позиция, так и ширина функции ядра должны быть обучены по выборочным образцам. Обычно ядер гораздо меньше, чем обучающих примеров. Каждый выходной элемент вычисляет линейную комбинацию этих радиальных базисных функций.

- Самоорганизующиеся карты Кохонена. Алгоритм Кохонена дает возможность строить нейронную сеть для разделения векторов входных сигналов на подгруппы. Сеть состоит из M нейронов, образующих прямоугольную решетку на плоскости. Элементы входных сигналов подаются на входы всех нейронов сети. В процессе работы алгоритма настраиваются синаптические веса нейронов.

- Сеть Элмана представляет собой рекуррентную сеть, состоящую из двух слоев, в которой скрытый слой охвачен динамической обратной связью.

- Сеть Хопфилда также относиться к рекуррентным сетям. Динамическое изменение состояний сети может быть выполнено, по крайней мере, двумя способами: синхронно и асинхронно. В первом случае все элементы модифицируются одновременно на каждом временном шаге, во втором - в каждый момент времени выбирается и подвергается обработке один элемент. Этот элемент может выбираться случайно. Сеть функционирует циклически. Выход каждого из нейронов подается на входы всех остальных нейронов. Нейроны сети имеют жесткие пороговые функции.

- Модель Хэмминга - нейронная сеть, которая реализует параллельное вычисление расстояний Хэмминга от входного вектора до нескольких векторов-образцов. Расстояние Хэмминга между двумя бинарными векторами одинаковой длины - это число несовпадающих бит в этих векторах. Входными сигналами являются бинарные векторы, а выходными - целые числа. В качестве передаточной функции используется линейная с насыщением.

- Модель ART (Adaptive Resonance Theory) или сеть Гроссберга обучается без учителя, она реализует алгоритм кластеризации: первый входной сигнал считается образцом первого кластера; следующий входной сигнал сравнивается с образцом первого кластера. Говорят, что входной сигнал «следует за лидером» и принадлежит первому кластеру, если расстояние до образца первого кластера меньше порога. В противном случае второй входной сигнал - образец второго кластера. Этот процесс повторяется для всех следующих входных сигналов. Таким образом, число кластеров растет с течением времени и зависит как от значения порога, так и от метрики расстояния, использующейся для сравнения входных сигналов и образцов классов.

Сеть ART-1 отличается от сети Хэмминга обратными связями от выходных нейронов к входным, кроме того имеется возможность выключать выходной нейрон с максимальным значением соответствия и проводить пороговое тестирование соответствия входного сигнала и образцов кластеров. Порог показывает, насколько должен входной сигнал совпадать с одним их запомненных образцов, чтобы они считались похожими.

В существовании нейронных сетей можно выделить 3 основных этапа:

- создание;

- обучение;

- использование.

Правило Хебба

- Увеличивать вес активного входа нейрона, если выход этого нейрона должен быть активным.

- Уменьшить вес активного входа нейрона, если выход этого нейрона не должен быть активным.

Задача нейронной сети состоит в преобразовании информации требуемым образом. Для этого сеть предварительно обучается. При обучении используются идеальные (эталонные) значения пар < входы-выходы> или < учитель>, который оценивает поведение нейронной сети. Для обучения используется так называемый обучающий алгоритм.

Обучающий алгоритм модифицирует отдельные нейроны сети и веса ее связей таким образом, чтобы поведение сети соответствовало желаемому поведению.

Алгоритм обучения:

1. Задать начальные значения весов и порогов каждого нейрона. Всем весам и порогам присваиваются малые случайные значения.

2. Представить входной и выходной образы из обучающей выборки.

3. Рассчитать действительные значения выходов. Значения выходов нейронов каждого слоя рассчитываются и передаются на входы нейронов следующего слоя.

4. Провести модификацию весов связей. Начиная от выходного слоя и, двигаясь в обратном направлении, необходимо изменять веса.

Адаптивная функция - метод обучения искусственной нейронной сети.

Виды адаптивных функций:

- traingdx - метод градиентного спуска с учетом моментов и с адаптивным обучением;

- trainlm - метод Левенберга-Маркара (Levenberg-Marquardt);

- trainbfg - тренировка сети с использованием квази-Ньютоновского метода BFGS.

Алгоритм работы с искусственной нейронной сетью:

1. Подготовка данных для обучения сети.

2. Создание сети.

3. Обучение сети.

4. Тестирование сети.

5. Моделирование сети (использование сети для решения поставленной задачи).


Поделиться с друзьями:

mylektsii.su - Мои Лекции - 2015-2024 год. (0.01 сек.)Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав Пожаловаться на материал