Главная страница Случайная страница КАТЕГОРИИ: АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
Нейрокомпьютерные алгоритмы
Относятся к одноэтапным алгоритмам с условной оптимизацией. Условием является частично заданная их структура. Структура задается из аналогий с гипотетическими биологическими нейросистемами (нейросетями) Экспериментальные достижения в этой области часто трактуют как проявления искусственного интеллекта. Обучение (адаптация) нейрокомпьютерных систем (алгоритмов) проводится на основе предъявления большого числа случайных обучающих образцов процессов или объектов известных классов. Статистические закономерности последних заранее, как правило, не анализируют, а автоматически учитывают в процессе обучения. Пространство входных сигналов 2.4.1. ПРИНЦИПЫ ПОСТРОЕНИЯ И СТРУКТУРЫ И ЕЙРО КОМПЬЮТЕРНЫХ АЛГОРИТМОВ Искусственные нейроныкак элементы искусственных нейросистем описывают чаще всего, сочетанием нелинейных и линейных операций вида
Поступающие значения ys (s=1, 2, …, m) подаются при этом в различных линейных комбинациях на т элементов " скрытого" слоя нейронов или, иначе, слоя " внутреннего представления", в котором эти комбинации претерпевают " мягкое² ограничение дифференцируемыми монотонно нарастающими функциями Выходные данные слоя внутреннего представления подаются, в свою очередь, на п - элементов выходного слоя нейронов, причем также в различных линейных комбинациях и с последующим " мягким" (или " жестким") ограничением. Описанную трехслойную нейроструктуру (рис. 2.1, а) называют персептроном Розенблатта (perception – восприятие, понимание, сознание). Трехслойная структура не является единственно возможной. Возможны, например, персептроны с четырьмя и более слоями. Анализ многослойных, трехслойных в частности, структур может сводиться, однако, к анализу однослойных структур с последовательно следующими т входными элементами N - т " скрытыми" элементами - элементами внутреннего представления п - выходными элементам (рис. 2.1.6). Входная информация в такой структуре перемещается строго вперед обеспечивая классифицированные решения на п - выходных элементах.
Рис. 2.1. Варианты расположения элементов нейроструктур Предварительное обучение рассчитано на рациональный выбор весовых коэффициентов а и порогов β на основе возникающих несоответствий выходных отсчетов zвых i известным zpi для классов обучающих реализаций. Информация о необходимости и характере корректировок должна распространяться в направлении, обратном распространению входной информации - с выхода на вход, в связи с чем говорят о методе обратного распространения. Возможны разновидности нейросетей: с использованием корреляционных обратных связей; с заменой функций от линейных комбинаций (от линейных форм) квадратичными формами или формами более высокого порядка, что сокращает потребное число нейронных элементов, однако за счет усложнения их структуры. ВАРИАНТЫ АЛГОРИТМОВ ФУНКЦИОНИРОВАНИЯ И ОБУЧЕНИЯ Алгоритм функционирования однослойной искусственной нейросети (рис. 2.1.б) обычно имеет вид [55]
Пороги могут вводиться неодинаковыми β =β i при выборе функций fi(w)=f(w+β i). В случае трехслойного персептрона (рис. 2.1, а) часть введенных значений aik обращается в нуль. Отсчеты zi, а именно, входные, выходные и " скрытые", принимают вид
Алгоритмы обучения (адаптации). Вводятся обычно из условия минимизации суммы квадратов невязок выходных отсчетов zl
Аргументом функций Для минимизации можно использовать численные методы поиска безусловных экстремумов: метод Ньютона, градиентный метод. При градиентном поиске начальное значение
где Процесс градиентного поиска может осуществляться в ходе последовательного предъявления обучающих реализаций. Предыдущее равенство переходит тогда в
Для составляющих as вектора
Если составляющая as относится к выходному слою трехслойного персептрона as = aij
Если составляющая as относится к " скрытому" слою as = alv
Значения δ pl вычисляются согласно (2.40). Для часто используемых функций
Градиентная процедура настройки неодинаковых порогов β, в выходном и " скрытом" слоях соответственно, определяется выражениями
|