Главная страница Случайная страница КАТЕГОРИИ: АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
Теоретичні положення для виконання курсової роботи
4.1 Базовий алгоритм навчання СПР за методом-функціонально-статистичних випробувань (МФСВ) Призначенням базового алгоритму навчання LEARNING [8] є оптимізація геометричних параметрів контейнерів класів розпізнавання, які відновлюються на кожному кроці навчання в радіальному базисі. Вхідною інформацією для навчання за базовим алгоритмом у загальному випадку є дійсний масив реалізацій образу Розглянемо етапи реалізації алгоритму LEARNING: 1 Формування бінарної навчальної матриці
2 Формування масиву еталонних двійкових векторів
де r m - рівень селекції координат вектора 3 Розбиття множини еталонних векторів на пари найближчих ² сусідів²: а) структурується множина еталонних векторів, починаючи з вектора x 1 базового класу б) будується матриця кодових відстаней між еталонними векторами розмірності M ´ M; в) для кожного рядка матриці кодових відстаней знаходиться мінімальний елемент, який належить стовпчику вектора, найближчого до вектора, що визначає строку. За наявності декількох однакових мінімальних елементів вибирається з них будь-який, оскільки вони є рівноправними; г) формується структурована множина елементів попарного розбиття 4 Оптимізація кодової відстані dm відбувається за рекурентною процедурою (2.3.4). При цьому береться 5 Процедура закінчується при знаходженні максимуму КФЕ в робочій області його визначення: Таким чином, базовий алгоритм навчання є ітераційною процедурою пошуку глобального максимуму інформаційного КФЕ в робочій області визначення його функції
На рис. 1 наведено структурну схему базового алгоритму навчання LEARNING. Тут показано такі вхідні дані: { Y [ J, I, K ]} - масив навчальних вибірок,
Рисунок 1- Структурна схема базового алгоритму навчання { D 1[ K ]}, { A [ K ]}, { B [ K ]}, { D2 [ K ]} - дійсні масиви оцінок екстремальних значень точнісних характеристик процесу навчання для відповідних класів розпізнавання: перша достовірність, помилки першого та другого роду і друга достовірність відповідно. Змінна D є робочою змінною кроків навчання, на яких послідовно збільшується значення радіуса контейнера. У структурній схемі алгоритму (рис. 1) блок 3 формує масив навчальних двійкових вибірок { X [ J, I, K ]} шляхом порівняння значень елементів масиву { Y [ J, I, K ]} з відповідними контрольними допусками за правилом (2.4.1.1) і формує масив еталонних двійкових векторів { EV [ K ]} шляхом статистичного усереднення стовпців масиву { X [ J, I, K ]} за правилом (2.4.1.2) при відповідному рівні селекції, який за замовчуванням дорівнює Блок 4 здійснює розбиття множини еталонних векторів на пари “найближчих сусідів”. Блок 11 обчислює на кожному кроці навчання значення інформаційного КФЕ. При невиконанні умови блока порівняння 12 блок 13 оцінює належність поточного значення критерію Таким чином, основною процедурою базового алгоритму навчання за МФСВ є обчислення на кожному кроці навчання інформаційного КФЕ і організація пошуку його глобального максимуму в робочій області визначення функції критерію.
|