Аналіз систем нечіткої логіки для апроксимації нечітких функцій

Розглядаються три моделі нечіткого логічного виведення: нечіткий шаблон, нечіткі нейронні мережі ANFIS і NEFPROX. Показано, що мережа ANFIS дає якісний результат апроксимації, але вимагає навчання великої кількості параметрів та складна для інтерпретації результатів. Мережа NEFPROX зручна для інтерп...

Повний опис

Збережено в:
Бібліографічні деталі
Дата:2012
Автори: Щегельський, Т.С., Провотар, О.О., Провотар, О.І.
Мова:Ukrainian
Опубліковано: Інститут програмних систем НАН України 2012
Назва видання:Проблеми програмування
Теми:
Онлайн доступ:http://dspace.nbuv.gov.ua/handle/123456789/86638
Теги: Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
Назва журналу:Digital Library of Periodicals of National Academy of Sciences of Ukraine
Цитувати:Аналіз систем нечіткої логіки для апроксимації нечітких функцій / Т.С. Щегельський, О.О. Провотар, О.І. Провотар // Проблеми програмування. — 2012. — № 4. — С. 43-49. — Бібліогр.: 6 назв. — укр.

Репозитарії

Digital Library of Periodicals of National Academy of Sciences of Ukraine
id irk-123456789-86638
record_format dspace
spelling irk-123456789-866382015-09-25T03:01:54Z Аналіз систем нечіткої логіки для апроксимації нечітких функцій Щегельський, Т.С. Провотар, О.О. Провотар, О.І. Теоретичні та методологічні основи програмування Розглядаються три моделі нечіткого логічного виведення: нечіткий шаблон, нечіткі нейронні мережі ANFIS і NEFPROX. Показано, що мережа ANFIS дає якісний результат апроксимації, але вимагає навчання великої кількості параметрів та складна для інтерпретації результатів. Мережа NEFPROX зручна для інтерпретації результатів. Модель на основі нечіткого шаблону дає низьку якість апроксимації та складна для інтерпретації результатів. 2012 Аналіз систем нечіткої логіки для апроксимації нечітких функцій / Т.С. Щегельський, О.О. Провотар, О.І. Провотар // Проблеми програмування. — 2012. — № 4. — С. 43-49. — Бібліогр.: 6 назв. — укр. 1727-4907 http://dspace.nbuv.gov.ua/handle/123456789/86638 uk Проблеми програмування Інститут програмних систем НАН України
institution Digital Library of Periodicals of National Academy of Sciences of Ukraine
collection DSpace DC
language Ukrainian
topic Теоретичні та методологічні основи програмування
Теоретичні та методологічні основи програмування
spellingShingle Теоретичні та методологічні основи програмування
Теоретичні та методологічні основи програмування
Щегельський, Т.С.
Провотар, О.О.
Провотар, О.І.
Аналіз систем нечіткої логіки для апроксимації нечітких функцій
Проблеми програмування
description Розглядаються три моделі нечіткого логічного виведення: нечіткий шаблон, нечіткі нейронні мережі ANFIS і NEFPROX. Показано, що мережа ANFIS дає якісний результат апроксимації, але вимагає навчання великої кількості параметрів та складна для інтерпретації результатів. Мережа NEFPROX зручна для інтерпретації результатів. Модель на основі нечіткого шаблону дає низьку якість апроксимації та складна для інтерпретації результатів.
author Щегельський, Т.С.
Провотар, О.О.
Провотар, О.І.
author_facet Щегельський, Т.С.
Провотар, О.О.
Провотар, О.І.
author_sort Щегельський, Т.С.
title Аналіз систем нечіткої логіки для апроксимації нечітких функцій
title_short Аналіз систем нечіткої логіки для апроксимації нечітких функцій
title_full Аналіз систем нечіткої логіки для апроксимації нечітких функцій
title_fullStr Аналіз систем нечіткої логіки для апроксимації нечітких функцій
title_full_unstemmed Аналіз систем нечіткої логіки для апроксимації нечітких функцій
title_sort аналіз систем нечіткої логіки для апроксимації нечітких функцій
publisher Інститут програмних систем НАН України
publishDate 2012
topic_facet Теоретичні та методологічні основи програмування
url http://dspace.nbuv.gov.ua/handle/123456789/86638
citation_txt Аналіз систем нечіткої логіки для апроксимації нечітких функцій / Т.С. Щегельський, О.О. Провотар, О.І. Провотар // Проблеми програмування. — 2012. — № 4. — С. 43-49. — Бібліогр.: 6 назв. — укр.
series Проблеми програмування
work_keys_str_mv AT ŝegelʹsʹkijts analízsistemnečítkoílogíkidlâaproksimacíínečítkihfunkcíj
AT provotaroo analízsistemnečítkoílogíkidlâaproksimacíínečítkihfunkcíj
AT provotaroí analízsistemnečítkoílogíkidlâaproksimacíínečítkihfunkcíj
first_indexed 2025-07-06T14:08:01Z
last_indexed 2025-07-06T14:08:01Z
_version_ 1836906847346360320
fulltext Теоретичні та методологічні основи програмування © Т.С. Щегельський, О.О. Провотар, О.І. Провотар, 2012 ISSN 1727-4907. Проблеми програмування. 2012. № 4 43  УДК 519.68 Т.С. Щегельський, О.О. Провотар, О.І. Провотар АНАЛІЗ СИСТЕМ НЕЧІТКОЇ ЛОГІКИ ДЛЯ АПРОКСИМАЦІЇ НЕЧІТКИХ ФУНКЦІЙ Розглядаються три моделі нечіткого логічного виведення: нечіткий шаблон, нечіткі нейронні мережі ANFIS і NEFPROX. Показано, що мережа ANFIS дає якісний результат апроксимації, але вимагає на- вчання великої кількості параметрів та складна для інтерпретації результатів. Мережа NEFPROX зруч- на для інтерпретації результатів. Модель на основі нечіткого шаблону дає низьку якість апроксимації та складна для інтерпретації результатів. Вступ Більшість сучасних методів керу- вання припускають наявність точної мате- матичної моделі процесу (або системи). Як правило, таку модель важко або надто до- рого отримати. З іншого боку, нечітка ло- гіка може бути зручним інструментом для вирішення проблем побудови моделей різ- них процесів, якщо немає необхідності аналізувати об’єкт керування з високим ступенем деталізації. Такі моделі є набли- женими, але вони можуть бути досить швидко та легко отримані. Знання в таких моделях виражають природу процесу (чи системи) у лінгвістичній інтерпретації. Це дає можливість аналізувати систему без необхідності отримання стратегії керу- вання. У роботі проаналізовано можли- вість ефективного застосування різних моделей для апроксимації нечітких функ- цій. Невелика кількість таких досліджень та необхідність всебічного аналізу нечіт- ких систем зумовлює актуальність дослі- дження. Нечіткі системи. Нечітка модель процесу зазвичай конструюється на базі знань експерта про процес (чи систему). Також часто враховуються результати екс- периментів, проведених над об’єктом ке- рування. Досвід експерта, як правило, ви- користовується для визначення структу- ри та початкових налаштувань – змінних, функцій приналежності та нечітких пра- вил. Після цього система налаштовується так, щоб відповідати експериментальним даним. Існує два основних способи налаш- тування нечітких систем: додавання та видалення правил і корегування парамет- рів функцій приналежності. Перший використовується для наближеного налаш- тування, другий – для точного налашту- вання моделі. В деяких моделях пропонується ви- користовувати ваги правил (вага правила може інтерпретуватися як рівень його ва- жливості) для налаштування нечіткої мо- делі. Нечіткий шаблон моделювання, за- пропонований Ягером та Файлевом в [1], використовує цей підхід. Для визначення пар вхідних-вихід- них змінних та їх нечіткого розподілу ви- користовуються знання людини-експерта. Правильність елементарних правил, які були визначені цим розподілом, переві- ряється експериментальними даними та виражається вагами правил. Якість системи (більш точне відо- браження природи процесу) у значній мірі залежить від правильності вибору даних для налаштування ваг правил. Для порівняння вибрано три нечіткі моделі: нечіткі шаблони моделювання, нечітка нейронна мережа ANFIS та мережа NEFPROX. Нечіткі шаблони моделювання. Нечіткі шаблони моделювання базуються на нечіткому методі моделювання, запро- понованому Ягером та Файлевим в [1], який було розширено до моделі з багатьма входами та виходами [2]. Теоретичні та методологічні основи програмування Задані пари зчитаних даних ( )1 2 1 2, ,..., , , ,...,k k k k k k s tx x x y y y , де – значення входів k s kk xxx ,...,, 21 1 2, , ... ,k k k sU U U у момент ( )( )1,k k K= , – значення виходів 1 2, , ... ,k k k ty y y 1 2, ,...,k k k sV V V у відповідні моменти часу, відповідає елементарному правилу: якщо це 1U 1 1 iB AND … AND sU це s s iB то це 1 kV 1 1 jD AND … AND k sV   це t t jD , якщо всі ваги ( ) ( )1 1 1 1 1 ,...., s s k s s i i i i s kB x Bτ τ= = x ) , ( ) ( )( 1 11, ,..., 1,r si s i s= = та ( ) ( )1 1 1 1 1 ,...., , t t k t t k j j j jD x D xγ γ= = t ) ( ) ( )( 1 11, ,..., 1,r sj t j t= = не нульові. Ступінь узгодження визнача- ється як: ( )1 2 1 2... ...s ti i i j j j kδ = 1 2 1 2 1 2 1 2... ... . s t s t i i i j j jτ τ τ γ γ γ= ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ (1) Одне читання вхідних-вихідних даних може мати не нульовий рівень узгодження для більш ніж одного елемен- тарного правила. Це враховується нормалі- зованим рівнем узгодження ( )1 2 1 2... ...s ti i i j j j kυ , який отримується норма- лізацією рівня узгодженості (1) по відно- шенню до загального рівня узгодженості k-го читання даних з елементарними пра- вилами ( )1 2 1 2... ...s ti i i j j j kυ = ( ) ( ) 1 2 1 2 1 1 1 2 1 2 1 1 ... ... ... ... 1 1 1 1 ... ... s t s t s t s t i i i j j j s ts t i i i j j j i i j j k k δ δ = = = = = ∑ ∑ ∑ ∑ . (2) Наступним кроком є обрахунок рів- ня узгодження елементарних правил по відношенню до всього вхідного набору даних ( ) 1 2 1 2 1 2 1 2... ... ... ... 1 s t s t K i i i j j j i i i j j j k kυ υ = = ∑ . (3) Повний нормалізований рівень уз- годження -го набору правил, який складається з правил, еквівалентних гіпо- тезам, визначається за формулою: riii ...21 1 2 1 2 1 2 1 2 1 2 ... ... ... 1 1 1 ... t s s t tt t i i i i i i j j j j j j υ υ = = = = ∑ ∑ ∑ t . (4) Результатом моделювання є база правил ( )1 1 1 1,..., , ,..., s t s t i i j jR B B B D , яка міс- тить 1 2 1 2... ...s yi i i j j j⋅ ⋅ ⋅ ⋅ ⋅ ⋅ ⋅ правил з ва- гами 1 2 1 2 1 2 1 2 1 2 ... ... ... ... ... s t s t s i i i j j j i i i j j j i i i p υ υ = . (5) Нечіткі нейронні системи. Ней- ронні мережі використовуються для задач розпізнавання образів, але незручні для з'ясування питання про те, як вони таке розпізнавання здійснюють. Вони можуть автоматично набувати знання, але процес їх навчання часто відбувається досить по- вільно. Побудова нейронних мереж є до- сить простим процесом, але аналіз навче- ної мережі дуже складний (зазвичай на- вчена мережа – «чорний ящик» для корис- тувача). При цьому будь-яку апріорну ін- формацію (знання експерта) для приско- рення процесу її навчання в нейронну ме- режу ввести неможливо. Системи з нечіткою логікою, на- впаки, зручні для пояснення отримуваних за їх допомогою висновків, але не мо- жуть автоматично набувати знання для використання їх в механізмах висновків. Необхідність розбиття універсальних мно- жин на окремі області, як правило, обме- жує кількість вхідних змінних у таких сис- темах. Системи з нечіткою логікою і шту- чні нейронні мережі еквівалентні один одному, проте, у кожному конкретному випадку в них є свої переваги та недо- ліки. Це лягло в основу апарата гібридних мереж, у яких висновки робляться на ос- нові апарата нечіткої логіки, а відповідні 44 Теоретичні та методологічні основи програмування функції приналежності підлаштовуються з використанням алгоритмів навчання ней- ронних мереж, наприклад, алгоритму зво- ротного поширення помилки. Такі системи не тільки використовують апріорну інфор- мацію, але можуть набувати нові знання і для користувача є логічно прозорими. Нечітка нейронна мережа ANFIS (Adaptive Neuro-Fuzzy Inference System), запропонована Єнгом, визначається дифе- ренційовними операторами механізму виведення (множення та додавання), ди- ференційовними функціями приналежнос- ті (Гауссовими) та дефузифікацією ме- тодом зваженого середнього. Дана мережа відображає механізм нечіткого виведення Тсукамото [5]. Вона може бути представ- лена спеціальною п’ятишаровою мережею прямого поширення. Оскільки мережа ANFIS використовує тільки диференційо- вні функції, для її навчання можна викори- стовувати стандартні методи, наприклад, комбінацію алгоритму зворотного поши- рення похибки (метод градієнтного спус- ку) та методу найменших квадратів [6]. Розглянемо, наприклад, систему, що має наступну базу знань: якщо х це і х це і х це ,1 1L 2 2L 3 3L то y це H, якщо х це H і х це H і х це L ,1 1 2 2 3 3 то y це M, якщо х це H і х це H і х це H ,1 1 2 2 3 3 то y це S, де x , x , x – вхідні змінні, y – вихід систе-1 2 3 ми, L , L , L , H , H , H , H, M, S – деякі 1 2 3 1 2 3 нечіткі множини з функціями приналеж- ності сигмоїдного типу: ( ) 1( ) 1 j j j b t c L t e − = + , ( ) 1( ) 1 j j j b t c H t e− − = + , j = 1,2,3, ( )4 4 5 1( ) 1 b t c c H t e− − + = + , (6) ( )4 4 1( ) 1 b t c M t e− − = + , ( )4 4 1( ) 1 b t c S t e − = + . Для визначення вихідної змінної використовується алгоритм виведення Тсукамото: 1) підраховуються значення іс- тинності передумов для кожного правила: ( ) ( ) ( )1 1 1 2 2 3 3L a L a L aα = ∧ ∧ , ( ) ( ) (2 1 1 2 2 3 3H a H a L aα = ∧ ∧ ) , (7) ( ) ( ) ( )3 1 1 2 2 3 3H a H a H aα = ∧ ∧ , де в цьому випадку , , – поточні значення входів системи; 1a 2a 3a 2) для кожного правила визна- чаються часткові виходи: ( )1 1 1 1 4 5 4 1 11 lnz B c c b αα α − − = = + + , ( )1 2 2 2 4 4 2 11 lnz B c b αα α − − = = + , (8) 1 3 3 3 4 4 3 11( ) lnz B c b α α α − − = = + ; 3) знаходиться загальний вихід системи: 1 1 2 2 3 3 0 1 2 3 z zz zα α α α α α + + = + + . (9) Гібридна нейронна мережа, яка ві- дображає наведений механізм виведення, показана на рис. 1. Рис. 1. Структура мережі ANFIS Ця мережа може бути описана та- ким чином: Шар 1. Виходи вузлів цього шару представляють собою значення функцій приналежності при конкретних (заданих) значеннях входів. 45 Теоретичні та методологічні основи програмування Шар 2. Виходами нейронів цього шару є ступені істинності передумов кожного правила бази знань системи, які обчислю- ють за формулами (7). Всі нейрони цього шару позначені буквою Т. Це означає, що вони можуть реалізовувати довільну t-норму. Шар 3. Нейрони цього шару (позначені буквою N) обчислюють величини: 321 1 1 ααα αβ ++ = , 321 2 2 ααα αβ ++ = , 321 3 3 ααα αβ ++ = . (10) Шар 4. Нейрони цього шару виконують операції: ( )1 1 1 1 1z H aβ β −= , ( )1 2 2 2 2z M aβ β −= , ( )1 3 3 3 3z S aβ β −= . (11) Шар 5. Єдиний нейрон цього шару об- раховує вихід мережі: 0 1 1 2 2 3 3z z z zβ β β= + + . (12) Коригування параметрів системи відбувається за правилом градієнтного спуску. Так, наприклад, налаштування ко- ефіцієнтів b4, c4 і с5 відбувається за форму- лами: 4 4 4 kEb b b η ∂ = − = ∂ 1 2 3 4 2 1 2 34 ,k a a ab a a ab η δ + − − + +   4 4 4 kEc c c η ∂ = − ∂ = (13) kk c aaa aaac ηδηδ += ++ ++ += 4 321 321 4 , 1 5 5 5 4 1 2 ,k k E ac c c b a a η ηδ ∂ = − = + ∂ + 3a+ де . k k k y oδ = − Відповідні вирази можуть бути отримані й для решти коефіцієнтів. Мережа NEFPROX базується на нечіткому перцептроні [3]. Елементи ме- режі використовують -норми або -норми замість активаційних функцій, які зазвичай використовуються в нейрон- них мережах. Перший шар представляє вхідні змінні, другий (прихований) – нечі- ткі правила, третій – вихідні змінні. Нечіт- кі множини кодуються як колекції ваг t s ( ) ( ), / ,W x R W R y . Ваги, які відповідають тим самим функціям приналежності, ма- ють однакові значення. Нечіткі системи мають мало обме- жень – практично можуть викорис- товуватись усі - та -норми та всі типи функцій приналежності, також середнє значення в якості дифузифікатора. Систе- ма може бути ініціалізована апріорними знаннями експерта. Метод градієнтного спуску не може бути використаний, s t оскільки - та -норми не є диферен-t s ційованими функціями. Замість нього ви- користовують просту евристичну проце- дуру, яка складається із двох кроків: навчання нечітких правил (навчання структури мережі) та навчання нечітких множин (навчання параметрів), (рис. 2). Рис. 2. Структура мережі NEFPROX Ітераційний алгоритм навчання правил мережі створює базу правил (починаючи з порожньої множини пра- вил, якщо потрібно) послідовним дода- ванням нових правил. Для кожної на- вчальної пари нечітка множина, яка забезпечує найвищий ступінь приналеж- ності, використовується для конструю- вання нового правила. Підчас другої ста- дії база правил оптимізується шляхом 46 Теоретичні та методологічні основи програмування зміни наслідків для відповідних функцій приналежності, якщо це потрібно. Результатом навчання параметрів мережі є корегування функцій прина- лежності. На основі роботи правил, алго- ритм визначає необхідність зменшення чи збільшення ступеня активації правила і визначає нечітку множину, яка відповідає за активацію даного правила. Система. Для порівняння та оцінки моделей нечіткої логіки було використано просту нечітку систему з одним входом та одним виходом. Вхідна змінна [ ]x 0, 10= та вихідна змінна [ ]y –5, 5= розділені відповідно на 6 та 5 функцій приналежності mfi. На рис. 3 показано ці функції приналежності, нечіткі пра- вила та відношення входом та виходом результуючої системи. Рис. 3. Нечітка система Функції приналежності та базу пра- вил вибрано таким чином, щоб побудувати функцію, яку б було важко апроксимувати. Порівняння та оцінка моделей. Першою була змодельована система мето- дом Янгера-Файлева із використан-ням: 1) симетричних трикутних функцій приналежності зі степенем перекривання 0.5; 2) нечіткого поділу оригінальної сис- теми. Результуючі моделі (правила, ваги яких були менші за 0.1, не вносились в таблиці для більшої наочності результату) приведені в табл. 1 та 2 відповідно. Таблиця 1 Вхід/ Вихід f1 f2 f3 f4 f5 mf1 .414 .568 mf2 .248 .562 .149 mf3 .111 .241 .309 .437 mf4 .331 .669 mf5 .124 .789 mf6 .487 .513 Таблиця 2 Вхід/ Вихід f1 f2 f3 f4 f5 mf1 .243 .377 mf2 .603 .658 mf3 .717 .241 mf4 .103 .330 .520 mf5 .140 .342 .516 mf6 .644 .290 Результат роботи моделі на вхід- ному проміжку [0, 10] у порівнянні з оригінальною системою показаний на рис. 4. Система на основі цієї моделі в обох випадках демонструє низьку якість апроксимації. Ще одним недоліком мо- делі є необхідність застосування ваг для кожного нечіткого правила. Це порушує семантику нечіткої системи та робить її інтерпретацію досить складною. При аналізі моделі бралися до уваги тільки правила з великими вагами. Правила з малими вагами можуть призводити до хибних висновків. 47 Теоретичні та методологічні основи програмування Рис. 4. Моделювання методом Янгера- Файлева Для мережі ANIFS визначено шість апріорних функцій приналежності. Для цього використано метод субтрактивної кластеризації (рис. 5). Рис. 5. Апріорні функції приналежності мережі ANFIS Результат навчання мережі показа- ний на рис. 6. Рис. 6. Моделювання за допомогою мережі ANFIS Мережа ANIFS у поєднанні з суб- трактивною кластеризацією дає високу якість апроксимації. Це можна пояснити великою кількістю параметрів, що підля- гають налаштуванню та аналітичним пра- вилам навчання. Інтерпретація правил Суґено є досить складною, тому викорис- товувати цю мережу доцільно тоді, коли якість роботи більш важлива, ніж необхід- ність розуміння природи процесу. Результат роботи мережі NEFPROX показано на рис. 7. Аналогічно до нечітко- го шаблону, цей метод не дозволяє відтво- рити оригінальну модель, але в даному випадку немає потреби використовувати додаткові ваги та відклик набагато ближ- чий до оригінальної системи. Рис. 7. Моделювання за допомогою мере- жі NEFPROX Аналогічно до ANFIS, якість роботи мережі NEFPROX сильно залежить від кількості функцій приналежності, які ма- ють бути визначені до початку навчання. Збільшення кількості функцій приналеж- ності зумовлює кращий результат. Висновки Розглянуті моделі нечіткого логіч- ного виведення по-різному виконують за- вдання апроксимації нечітких функцій. Модель ANFIS дає якісний результат ап- роксимації, але потребує навчання великої кількості параметрів та складна при інтер- претації. Модель NEFPROX не повністю відтворює оригінальну модель, але зручна для інтерпретації результатів. 48 Теоретичні та методологічні основи програмування 1. Yager R. and Filev D.. Essentials of Fuzzy Modeling and Control // John Wiley and Sons, New York, 1994. 2. Riid A. and Rüstern E. Fuzzy modeling and control of fed-batch fermentation // Proc. 9th Int. Symp. on System-Modelling-Control, Zakopane, Poland, 1998. 3. Nauck D., Klawonn F. and Kruse R.. Foundations of Neuro-fuzzy Systems // John Wiley and Sons, New York, 1997. 4. Круглов В.В. Искусственные нейронные сети // Теория и практика. – М. : Горячая линия – Телеком, 2002. – 382 с. 5. Осовский С. Нейронные сети для обра- ботки информации: пер. с польск. И.Д. Ру- динского. – М. : Финансы и статистика, 2002. – 344 с. 6. Рудковская Д., Пилипинский М., Рутков- ский Л. Нейронные сети, генетические ал- горитмы и нечеткие системы : пер. с польск. И.Д. Рудинского. – М.: Горяч. ли- ния – Телеком, 2006. – 452 с. Одержано 21.10.2011 Про авторів: Щегельський Тарас Сергійович, аспірант, Провотар Ольга Олександрівна, аспірантка, Провотар Олександр Іванович, доктор фізико-математичних наук, професор. Місце роботи авторів: Волинський національний університет імені Лесі Українки Тел. 066 627 3357, e-mail: shchegelskij@gmail.com Інститут кібернетики імені В.М. Глушкова НАН України Тел. 063 034 2230, e-mail: aprowata@unicyb.kiev.ua Київський національний університет імені Тараса Шевченка Університет міста Жешув (Польща) Тел. 050 444 1735, e-mail: aprowata@unicyb.kiev.ua 49 mailto:shchegelskij@gmail.com mailto:aprowata@unicyb.kiev.ua mailto:aprowata@unicyb.kiev.ua