Алгоритм формирования карт самоорганизации распознающей нейросетевой структуры в условиях априорных ограничений

В статье рассмотрен подход к построению SOM нейронних сетей применительно к задачам распознавания случайных объектов. Предложен модифицированный алгоритм обучения распознающей SOM нейросетевой структуры в условиях отсутствия априорной информации о мощности подлежащего распознаванию множества классов...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
Datum:2010
1. Verfasser: Шараевский, Г.И.
Format: Artikel
Sprache:Russian
Veröffentlicht: Інститут кібернетики ім. В.М. Глушкова НАН України 2010
Schriftenreihe:Математичне та комп'ютерне моделювання. Серія: Фізико-математичні науки
Online Zugang:http://dspace.nbuv.gov.ua/handle/123456789/18782
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
Назва журналу:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Zitieren:Алгоритм формирования карт самоорганизации распознающей нейросетевой структуры в условиях априорных ограничений / Г.И. Шараевский // Математичне та комп'ютерне моделювання. Серія: Технічні науки: зб. наук. пр. — Кам’янець-Подільський: Кам'янець-Подільськ. нац. ун-т, 2010. — Вип. 3. — С. 195-200. — Бібліогр.: 3 назв. — рос.

Institution

Digital Library of Periodicals of National Academy of Sciences of Ukraine
id irk-123456789-18782
record_format dspace
spelling irk-123456789-187822013-02-13T03:20:25Z Алгоритм формирования карт самоорганизации распознающей нейросетевой структуры в условиях априорных ограничений Шараевский, Г.И. В статье рассмотрен подход к построению SOM нейронних сетей применительно к задачам распознавания случайных объектов. Предложен модифицированный алгоритм обучения распознающей SOM нейросетевой структуры в условиях отсутствия априорной информации о мощности подлежащего распознаванию множества классов. In this article the approach to building SOM-neural networks regarding the tasks of accidental objects recognition is reviewed. Modified algorithm of studying the recognizing SOM-neural structure is proposed in condition of absence of a priori information about the power of classes' multitude to-be-recognized. 2010 Article Алгоритм формирования карт самоорганизации распознающей нейросетевой структуры в условиях априорных ограничений / Г.И. Шараевский // Математичне та комп'ютерне моделювання. Серія: Технічні науки: зб. наук. пр. — Кам’янець-Подільський: Кам'янець-Подільськ. нац. ун-т, 2010. — Вип. 3. — С. 195-200. — Бібліогр.: 3 назв. — рос. XXXX-0060 http://dspace.nbuv.gov.ua/handle/123456789/18782 004.032.26 ru Математичне та комп'ютерне моделювання. Серія: Фізико-математичні науки Інститут кібернетики ім. В.М. Глушкова НАН України
institution Digital Library of Periodicals of National Academy of Sciences of Ukraine
collection DSpace DC
language Russian
description В статье рассмотрен подход к построению SOM нейронних сетей применительно к задачам распознавания случайных объектов. Предложен модифицированный алгоритм обучения распознающей SOM нейросетевой структуры в условиях отсутствия априорной информации о мощности подлежащего распознаванию множества классов.
format Article
author Шараевский, Г.И.
spellingShingle Шараевский, Г.И.
Алгоритм формирования карт самоорганизации распознающей нейросетевой структуры в условиях априорных ограничений
Математичне та комп'ютерне моделювання. Серія: Фізико-математичні науки
author_facet Шараевский, Г.И.
author_sort Шараевский, Г.И.
title Алгоритм формирования карт самоорганизации распознающей нейросетевой структуры в условиях априорных ограничений
title_short Алгоритм формирования карт самоорганизации распознающей нейросетевой структуры в условиях априорных ограничений
title_full Алгоритм формирования карт самоорганизации распознающей нейросетевой структуры в условиях априорных ограничений
title_fullStr Алгоритм формирования карт самоорганизации распознающей нейросетевой структуры в условиях априорных ограничений
title_full_unstemmed Алгоритм формирования карт самоорганизации распознающей нейросетевой структуры в условиях априорных ограничений
title_sort алгоритм формирования карт самоорганизации распознающей нейросетевой структуры в условиях априорных ограничений
publisher Інститут кібернетики ім. В.М. Глушкова НАН України
publishDate 2010
url http://dspace.nbuv.gov.ua/handle/123456789/18782
citation_txt Алгоритм формирования карт самоорганизации распознающей нейросетевой структуры в условиях априорных ограничений / Г.И. Шараевский // Математичне та комп'ютерне моделювання. Серія: Технічні науки: зб. наук. пр. — Кам’янець-Подільський: Кам'янець-Подільськ. нац. ун-т, 2010. — Вип. 3. — С. 195-200. — Бібліогр.: 3 назв. — рос.
series Математичне та комп'ютерне моделювання. Серія: Фізико-математичні науки
work_keys_str_mv AT šaraevskijgi algoritmformirovaniâkartsamoorganizaciiraspoznaûŝejnejrosetevojstrukturyvusloviâhapriornyhograničenij
first_indexed 2025-07-02T19:44:50Z
last_indexed 2025-07-02T19:44:50Z
_version_ 1836565649556504576
fulltext Серія: Технічні науки. Випуск 3 195 УДК 004.032.26 Г. И. Шараевский, асистент Национальний техничнеский университет Украины «Киевский политехнический институт», г. Киев АЛГОРИТМ ФОРМИРОВАНИЯ КАРТ САМООРГАНИЗАЦИИ РАСПОЗНАЮЩЕЙ НЕЙРОСЕТЕВОЙ СТРУКТУРЫ В УСЛОВИЯХ АПРИОРНЫХ ОГРАНИЧЕНИЙ В статье рассмотрен подход к построению SOM нейронних сетей применительно к задачам распознавания случайных объектов. Предложен модифицированный алгоритм обучения распознающей SOM нейросетевой структуры в условиях от- сутствия априорной информации о мощности подлежащего распознаванию множества классов. Ключевые слова: распознавание, искусственные нейронные сети, алгоритмы обучения нейронных сетей, кластеризация. Постановка проблемы. Сеть Кохонена является нейронной се- тью с самоорганизацией, при обучении которой используется вход- ной неупорядоченный статистический массив. Известные виды обу- чения сети Кохонена включают:  Алгоритм обучения, основанный на принципе WTA (англ.: Win- ner Takes All) то есть «победитель получает все», в ходе которо- го производится адаптация весов только нейрона победителя [1];  Алгоритм обучения, основанный на принципе WTМ (англ.: Winner Takes Most) то есть «победитель получает больше», в хо- де которого производится коррекция весов не только нейрона- победителя, но также и нейронов, расположенных в непосредст- венной близости от доминантного нейрона [1]. Особенностью второй из указанных разновидностей алгоритма обучения сети Кохонена является структурная организация нейронов сети в некоторые геометрические пространства, отображающее соот- ветствующие структуры данных. Результатом реализации этого алго- ритма обучения является структуризация системы нейронов следую- щим образом: при подаче на вход сети случайных векторов, принад- лежащих к векторному пространству одного образа, активизируются те нейроны, которые расположены в непосредственной близости друг от друга в пространстве состояний карты самоорганизации Кохонена. Неоспоримым достоинством вышеуказанных алгоритмов являет- ся высокая гибкость процедуры обучения, которая достигается посред- ством аппроксимации пространства признаков, для которого межклас- совая разделяющая поверхность неопределенна или имеет разрывы. В © Г. И. Шараевский, 2010 Математичне та комп’ютерне моделювання 196 то же время этим алгоритмам присущи и существенные недостатки. Прежде всего, в процессе обучения нельзя определить оптимальное количество нейронов сети, которое бы позволило с заданной точно- стью аппроксимировать входное пространство признаков. Кроме того, алгоритмы второй из указанных разновидностей при реализации задач распознавания не обеспечивают эффективного функционирования в условиях, когда кластеры соответствующих классов образов в призна- ковом пространстве распределены неравномерно. В этом случае опи- сание такого пространства на основе структуризации карты самоорга- низации сети Кохонена не являются оптимальным. Анализ последних исследований. В ряде недавних работ [2] разработаны модифицированные подходы к реализации процедуры обучения сетей Кохонена, которые обеспечивают возможность рас- ширения множества распознаваемых классов образов на основе уве- личения числа нейронов, участвующих в распознавании. В то же время указанные подходы требуют для своей реализации значитель- ных объемов обучающих статистических выборок, доступ к которым в ряде важных практических случаев (например, в задачах диагно- стики оборудования АЭС) существенно ограничен. Указанные об- стоятельства делают невозможным применение предложенных в [2] подходов к решению ряда важных практических задач. Целью статьи является разработка эволюционного алгоритма формирования распознающей нейронной структуры с топологией Кохонена, который позволяет динамически видоизменять мощность множества распознаваемых классов в процессе формирования карты самоорганизации. Модифицированный алгоритм обучения сети Кохонена Предложенный алгоритм позволяет обучать нейронную сеть в ус- ловиях, когда для пространства входных векторов отсутствует исход- ная априорная информация о классах обучающего множества. Указан- ный алгоритм предусматривает предварительную маркировку нейро- нов в карте самоорганизации таким образом, чтобы определенной точ- ке покрытия соответствовал один из распознаваемых классов. Реализа- ция указанного алгоритма осуществляется следующим образом. Шаг 1. Инициализация. Для исходных векторов синаптических весов (0)jw выбираются случайные значения, которые формируют соответствующее фазовое пространство сети, представлено на рис. 1. Определяющим требованием является различие входных векторов, которые соответствуют различным областям карты самоорганизации, содержащих нейроны j = 1,2,...,l, где l — общее количество нейронов в решетке. Указанные нейроны первоначально рекомендуется ини- циализировать малыми значениями случайных чисел. Серія: Технічні науки. Випуск 3 197 Рис. 1. Графическая интерпретация фазового пространства весовых коэф- фициентов нейронов на этапе инициализации. Шаг 2. Маркировка нейронов. Для инициализированной кар- ты самоорганизации в соответствующих точках покрытия устанавли- ваются центры соответствующих кластерных областей, представлен- ных на рис. 2. Рис. 2. Графическая интерпретация маркировки нейронов. Шаг 3. Подвыборка. Из входного неупорядоченного множества случайных векторов произвольно выбирается вектор x при условии, что вектор синаптических весов каждого из нейронов сети имеет ту же размерность 1, 2[ , , ] ,T mx x x x  где m — размерность входного вектора Шаг 4. Поиск максимального подобия (конкуренция). На ос- нове критерия минимума Евклидова расстояния определяется доми- нантный нейрон i (нейрон - победитель), то есть 2 1 ( , ) ( ) , N i i j ij j d x w x w x w      где: ( , )id x w обозначает расстояние между векторами x и w, а N — количество нейронов. Шаг 5. Генерация нового кластера. Если расстояние ( , )id x w   (т.е., если входной вектор не отнесен ни к одному из из- вестных классов), то генерируется новый кластер с соответствующим кластерным центром, который представлен на рис. 3. Рис. 3. Графическая интерпретация формирования нового кластера и его маркированного центра. Математичне та комп’ютерне моделювання 198 Шаг 6. Процесс кооперации. Определяется топологическая ок- рестность ,j ih с центром в победившем нейроне i , которая состоит из множества возбуждаемых т.е., кооперирующихся нейронов, т.е. 2 , , ( ) 2 exp , 0,1, 2,3..., 2 ( ) j i j i x d h n n           где: ,j id — латеральное расстояние между победившим i и вторично возбужденным j нейронами,  — эффективная ширина топологи- ческой окрестности, которая вычисляется по формуле 0 1 ( ) exp , 0,1, 2..., n n n           в которой 0 — функция окрестности равная радиусу решетки, а 1 определяется следующим образом 1 0 1000 . log    Функция окрестности , ( )j i xh должна изначально охватывать практически все нейроны сети (рис. 4. а) и иметь центр в победившем нейроне. Со временем эта функция будет постепенно сужаться до малого значения и будет содержать в себе только ближайших соседей победителя нейрона (рис. 4. б). а) б) Рис. 4. Графическая интерпретация функции окрестности а) Начальное состояние hj,i(x) б) Конечное состояние hj,i(x). Шаг 7. Синаптическая адаптация. Корректируются векторы синаптических весов всех нейронов, находящихся в топологической окрестности , ( )j i xh , ( )( 1) ( ) ( ) ( )( ( )),j j j i x jw n w n n h n x w n    где jw — вектор синаптических весов нейрона j (учитывая формализа- цию дискретного времени, для данного вектора синаптических весов ( )jw n в момент времени п обновленный вектор ( 1)jw n  в момент вре- мени (п + 1), ( )n параметр скорости обучения определяется по формуле 0 2 ( ) exp , 0,1,2 , n n n            Серія: Технічні науки. Випуск 3 199 Параметр скорости обучения ( )n лучше выбрать близким к значению 0,1. С течением времени должен убывать, но оставаться больше величины 0,01. Это можно добиться, применив следующие значения констант: 0 0.1  , 2 1000  . Шаг 8. Возврат к шагу 2 и продолжаем вычисления до тех пор, по- ка в карте признаков не перестанут происходить заметные изменения. В свою очередь критерий добавления новых нейронов определя- ется устанавливаемым пользователем шагом дискретизации исходного пространства признаков, в котором находится обучающие образы или несовпадением класса изображения с ответом, предложенным сетью. Добавление данных в существующий кластер нейрона происхо- дит в соответствии с формулой вычисления динамического среднего 1 ( 1) ( ) ( 1) ( ) . 1j j j jw t w t u t w t t        Если добавляется новый кластер, а класс изображения, которое его инициализирует, не известен, то такой нейрон маркируется но- вым классом автоматически генерируемым сетью. Иначе он маркиру- ется классом, к которому относится входной вектор. Результатом ра- боты модифицированного алгоритма является сеть, которая обеспе- чивает равномерное покрытие входного обучающего пространства. Заключение. Применение описанного алгоритма к массивам неупорядоченных статистических данных в условиях отсутствия ап- риорной информации о принадлежности соответствующих реализа- ций к каждому из распознаваемых классов этих объектов позволяет получить представленные в табл.1 оценки сравнительных характери- стик двух типов SOM: (традиционной и модифицированной). Таблица 1 Сравнительный анализ двух типов SOM Сравнительные характери- стики Типы SOM Традиционная SOM Модифицированная SOM Возможность добавления нового кластера нет есть Скорость обучения 1 усл.ед. времени 0,2 усл.ед. времени Надежность распознавания 96 % 98 % Таким образом, практическая реализация вышеизложенного подхода к построению SOM нейронних сетей применительно к зада- чам распознавания образов обеспечивает:  Возможность динамического добавления новых, априорно неиз- вестных на начальном этапе обучения, кластеров;  Равномерного покрытия входного обучающего пространства с це- лью расширения числа используемых при распознавании нейронов; Математичне та комп’ютерне моделювання 200  Исключение этапа кластеризации на основе квантизации обу- чающих векторов;  Существенное повышение скорости обучения нейронной сети;  Улучшение геометрической разделимости классов распознавае- мых случайных объектов. Список использованной литературы: 1. Teuvo Kohonen. Self-Organizing Maps: Springer, 2006. — 665 с. 2. Садыхов Р. Х., Новые алгоритмы формирования SOM нейронных сетей в задаче распознавания образов / Р. Х. Садыхов, М. Е. Ваткин // Нейроком- пьютеры: разработка, применение. — 2004, №1, 23—31 с. 3. Шаповалова С. І. Комп’ютерне моделювання карти самоорганізації для розв’язання задачі розпізнавання сигналів / С. І. Шаповалова, Г. І. Шараєвсь- кий // Автоматика. Вимірювання та керування. — 2007. — № 574, 75—80 с. In this article the approach to building SOM-neural networks regarding the tasks of accidental objects recognition is reviewed. Modified algorithm of studying the recognizing SOM-neural structure is proposed in condition of absence of a priori information about the power of classes' multitude to- be-recognized. Key words: Recognition, artificial neural networks, learning algo- rithms of neural networks, clustering. Отримано 17.05.10 УДК 519.672:534.14:62.53 О. Ю. Швець, д-р. фіз-мат. наук, В. О. Сіренко, аспірант Національний технічний університет України «КПІ», м. Київ РІЗНОМАНІТНІСТЬ ДИНАМІЧНИХ РЕЖИМІВ НЕІДЕАЛЬНИХ ГІДРОДИНАМІЧНИХ СИСТЕМ ПРИ ОБМЕЖЕНОМУ ЗБУДЖЕННІ Розглянуті усталені динамічні режими неідеальних детер- мінованих систем «бак з рідиною — електродвигун». Головна увага приділяється виявленню детермінованого хаоса дослі- джуваних систем. Побудовано карти динамічних режимів. Вперше показано існування гіперхаотичних атракторів. Опи- сано новий сценарій переходів типу «гіперхаос — гіперхаос» який є узагальненням раніше відомих сценаріїв переміжності. Ключові слова: карта динамічних режимів, неідеальне збудження, гіперхаотичний атрактор. Вступ. Дослідження коливань вільної поверхні рідини у твердих баках розглядається у великій кількості робіт, детальна бібліографія яких наведена у монографіях [1—3]. Окрім великого дослідницького © О. Ю. Швець, В. О. Сіренко, 2010