Особенности нечёткого моделирования
Збережено в:
Дата: | 2009 |
---|---|
Автор: | |
Формат: | Стаття |
Мова: | Russian |
Опубліковано: |
Інститут проблем моделювання в енергетиці ім. Г.Є. Пухова НАН України
2009
|
Назва видання: | Збірник наукових праць Інституту проблем моделювання в енергетиці ім.Г.Є.Пухова НАН України |
Онлайн доступ: | http://dspace.nbuv.gov.ua/handle/123456789/26960 |
Теги: |
Додати тег
Немає тегів, Будьте першим, хто поставить тег для цього запису!
|
Назва журналу: | Digital Library of Periodicals of National Academy of Sciences of Ukraine |
Цитувати: | Особенности нечёткого моделирования / М.А. Никулин // Збірник наукових праць Інституту проблем моделювання в енергетиці ім.Г.Є.Пухова НАН України. — К.: ІПМЕ ім. Г.Є.Пухова НАН України, 2009. — Вип. 51. — С. 130-138. — Бібліогр.: 4 назв. — рос. |
Репозитарії
Digital Library of Periodicals of National Academy of Sciences of Ukraineid |
irk-123456789-26960 |
---|---|
record_format |
dspace |
spelling |
irk-123456789-269602011-09-30T12:17:03Z Особенности нечёткого моделирования Никулин, М.А. 2009 Article Особенности нечёткого моделирования / М.А. Никулин // Збірник наукових праць Інституту проблем моделювання в енергетиці ім.Г.Є.Пухова НАН України. — К.: ІПМЕ ім. Г.Є.Пухова НАН України, 2009. — Вип. 51. — С. 130-138. — Бібліогр.: 4 назв. — рос. XXXX-0067 http://dspace.nbuv.gov.ua/handle/123456789/26960 621.3 ru Збірник наукових праць Інституту проблем моделювання в енергетиці ім.Г.Є.Пухова НАН України Інститут проблем моделювання в енергетиці ім. Г.Є. Пухова НАН України |
institution |
Digital Library of Periodicals of National Academy of Sciences of Ukraine |
collection |
DSpace DC |
language |
Russian |
format |
Article |
author |
Никулин, М.А. |
spellingShingle |
Никулин, М.А. Особенности нечёткого моделирования Збірник наукових праць Інституту проблем моделювання в енергетиці ім.Г.Є.Пухова НАН України |
author_facet |
Никулин, М.А. |
author_sort |
Никулин, М.А. |
title |
Особенности нечёткого моделирования |
title_short |
Особенности нечёткого моделирования |
title_full |
Особенности нечёткого моделирования |
title_fullStr |
Особенности нечёткого моделирования |
title_full_unstemmed |
Особенности нечёткого моделирования |
title_sort |
особенности нечёткого моделирования |
publisher |
Інститут проблем моделювання в енергетиці ім. Г.Є. Пухова НАН України |
publishDate |
2009 |
url |
http://dspace.nbuv.gov.ua/handle/123456789/26960 |
citation_txt |
Особенности нечёткого моделирования / М.А. Никулин // Збірник наукових праць Інституту проблем моделювання в енергетиці ім.Г.Є.Пухова НАН України. — К.: ІПМЕ ім. Г.Є.Пухова НАН України, 2009. — Вип. 51. — С. 130-138. — Бібліогр.: 4 назв. — рос. |
series |
Збірник наукових праць Інституту проблем моделювання в енергетиці ім.Г.Є.Пухова НАН України |
work_keys_str_mv |
AT nikulinma osobennostinečëtkogomodelirovaniâ |
first_indexed |
2025-07-02T22:19:10Z |
last_indexed |
2025-07-02T22:19:10Z |
_version_ |
1836575359750897664 |
fulltext |
130 © М.А.Никулин
3. www.pathengine.com – Intelligent agent movement
4. www.navpower.com – AI motion planning middleware
5. Mat Buckland. Programming Game AI By Example. Wordware Publishing, 2004
6. Добронравин Ю.В. Интеллектуальные агенты, базирующиеся на принципе
психической доминанты. // VII-я международная конференция "Интеллектуальный
анализ информации ИАИ-2007", 14-18 мая 2007 года, Киев
Поступила 26.01.2009р.
УДК 621.3
М.А.Никулин
ОСОБЕННОСТИ НЕЧЁТКОГО МОДЕЛИРОВАНИЯ
Особенностью моделей надёжности является их зависимость от
параметров, которые на этапе проектирования являются сложно
определяемыми. Одним из базовых факторов, определяющих их значение,
является возникновение неисправностей, возникновение отказов устройств в
целом и т.д. Существенная степень неопределённости исходных данных,
необходимых для построения моделей надёжности определяет подходы,
которые используются для построения этих моделей. Один из наиболее
распространённых подходов основывается на использовании теории
вероятности и математической статистики. Благодаря этому
неопределённость исходных данных заменяется статистическими оценками
значений параметров, интерпретацией параметров, которые характеризируют
возникновение неисправностей, случайными величинами и случайными
событиями с теми или иными функциями распределений.
В настоящее время достаточно интенсивно развиваются теоретические
основы размытых или нечётких исчислений, размытой арифметики,
размытой логики и т.д. Благодаря базовым положениям этого направления,
которые состоят в правилах оперирования неточно, или нечётко
определенными величинами и нечёткими переменными, возникает
возможность использования этого подхода для построения моделей, для
которых отсутствуют точные данные об исходных параметрах и исходных
условиях в целом. Поскольку такая ситуация характерна для теории
надежности и особенно при построении моделей надежности, то
целесообразно рассмотреть возможности использования размытых методов
описания процессов для построения моделей надёжности технических
объектов реального времени, к которым относятся транспортные системы
различных типов и различного назначения.
В связи с этим, рассмотрим коротко принципы и методы построения
131
различных моделей. Основной проблемой, при построении размытой модели,
является формирование размытых множеств для нечётких переменных,
которые используются в модели, выбор функций размывания и
дефузификации, а также выбор функций принадлежности для используемых
переменных. При этом, функции принадлежности входных и выходных
переменных должны обеспечивать минимальную ошибку моделирования при
выбранном способе определения такой ошибки. Например: средняя
относительная ошибка, средняя квадратическая ошибка или максимальная
ошибка. Принимается, что структура модели задана и не подлежит
изменениям. К наиболее распространенным методам построения или
оптимизации параметров относятся следующие:
- методы размытых нейронных сетей;
- методы поиска;
- методы, основывающиеся на кластеризации;
- методы, использующие не размытые нейронные сети;
- эвристические методы.
Рассмотрим некоторые из этих методов более детально. В первую
очередь рассмотрим метод, который основывается на использовании
размытых нейронных сетей.
Для реализации первого метода чаще всего используются
многоуровневые нейронные сети, которые состоят из первого уровня или
уровня входных нейронов, среднего, как правило, скрытого и уровня
выходного, на выходах которого формируется выходной сигнал, функция
распространения вычисляет взвешенную сумму всех входов нейрона и
передает её на нелинейный элемент, в котором реализуется функция
активации f (s), где s – взвешенная сумма. Достаточно широко, в качестве
функции активации используются сигмондальные функции:
f(s) = 1/(1+e-cs),
где с изменяет наклон сигмондальной функции. Процессы обучения
нейронных сетей достаточно глубоко исследованы. Использование размытых
нейронных сетей для построения размытых моделей состоит в формировании
и настройке параметров модели путём реализации в размытой нейронной
сети процессов обучения. В результате реализации процессов обучения,
завершение которых определяется в рамках соответствующей сети,
формируются её внутренние параметры таким образом, чтобы
функциональные преобразования, осуществляемые ею, соответствовали
функциональным преобразованиям, которые должны осуществляться
соответствующей размытой моделью. В этом случае, основной задачей
становится преобразование соответствующей размытой модели в размытую
модель нейронной сети. Таким образом, в данной методике осуществляется
формирование размытой модели на основе исходных данных, являющихся
результатом экспериментальных исследований или экспертных данных,
которые представляются в рамках модели в виде размытых подмножеств в
132
которых с помощью функций принадлежностей определяются входные
переменные, соответственно, размытые подмножества и функции
принадлежности для выходных переменных. В качестве примера рассмотрим
способы преобразования отдельных компонентов размытой модели в
компоненты размытой нейронной сети. Для определённости примем, что
функции принадлежности описываются линейными отрезками. Например,
функция принадлежности
1 1 2 2 2 1 2[( ) ( ( ) 1)]&[( ) ( ( ) (( )/( )))]&[( ) ( ( ) 0)]M M Mx a x a x a x a x a a x a xμ μ μ< → = ≤ < → = − − ≥ → =
Поскольку сигналы возбуждения поступают на вход функции
распространения, подаётся изменение входного сигнала, а процесс обучения
осуществляется на основе обратного распространения ошибки, то коррекция
коэффициентов последнего уровня происходит на основе производной от
входного сигнала. Поэтому входные сигналы в соответствующей сети будут
соответствовать производным от функции принадлежности. Поскольку в
пределах функции принадлежности, в рамках размытой модели переменные
рассматриваются с точностью до малых значений «М», средних значений «S»
и больших значений «D», а в качестве примера используются кусочно-
линейные функции, то производные необходимо определить для каждого
диапазона рассмотрения функций. Тогда для значений М можно записать:
2
1 2 1 22
1 12 1
( ) ( )
[( ) ]&[( ) 0 ]
( )
M Mx a x x
a x a a x a
a aa a
μ μ⎛ ⎞ ⎛ ⎞∂ − ∂
≤ < → = > > → =⎜ ⎟ ⎜ ⎟∂ ∂− ⎝ ⎠⎝ ⎠
Для диапазона средних значений можно записать следующее
соотношение:
( ) 2 ( ) ( )S M Dx x xμ μ μ= − −
Производные по трём интервалам, которые проецируются на ось
абсцисс и соответствуют значениям ординат M, S и D можно записать в виде:
1 1 2 2 2 3 3
( ) ( ) ( )( ) ( ) ( ) ( )
; ;S S SM M D Dx x xx x x x
a a a a a a a
μ μ μμ μ μ μ∂ ∂ ∂∂ ∂ ∂ ∂
= − = − − = −
∂ ∂ ∂ ∂ ∂ ∂ ∂
Производная функций принадлежности ( )M xμ по а2 запишется в виде
следующего соотношения:
1
1 2 2 12
2 22 1
( ) ( )
[( ) ] & [( ) 0 ]
( )
M Mx x a x
a x a a x a
a aa a
μ μ⎛ ⎞ ⎛ ⎞∂ − ∂
≤ < → = < < → =⎜ ⎟ ⎜ ⎟∂ ∂− ⎝ ⎠⎝ ⎠
Для больших значений функции принадлежности можно записать
следующее соотношение:
2 3 1 3 2
2 3
[( ) ( ( ) ( )( ))]
& [( ) ( ( ) 0)] & [( ) ( ( ) 1)]
D
D D
a x a x x a a a
x a x x a x
μ
μ μ
≤ < → = − −
< → = ≥ → =
Соответственно производные для ( )D xμ можно записать в виде
следующих соотношений:
3
2 3 2 32
2 23 2
( ) ( )
[( ) ] & [( ) 0 ]
( )
D Dx ax x
a x a a x a
a aa a
μ μ⎛ ⎞ ⎛ ⎞−∂ ∂
≤ < → = > ≥ → =⎜ ⎟ ⎜ ⎟∂ ∂− ⎝ ⎠⎝ ⎠
133
Производная по Q3 запишется в виде:
2
2 3 2 32
3 33 2
( ) ( )
[( ) ]&[( ) 0 ]
( )
D Dx a x x
a x a a x a
a aa a
μ μ⎛ ⎞ ⎛ ⎞∂ − ∂
≤ < → = ≥ > → =⎜ ⎟ ⎜ ⎟∂ ∂− ⎝ ⎠⎝ ⎠
База правил преобразуется в структуру нейронной сети таким образом,
что соответствующие её узлы реализуют логические функции, которые
используются в правилах базы. Исходя из структуры правила видно, что в
последнем используются функции &, V, → , реализуемые в соответствующих
нейронах, которые соединяются в сеть, отображающую структуру каждого
правила.
Блок дефузификации, в зависимости от методов дефузификации,
реализует преобразование размытого выходного значения в точное его
представление. Наиболее часто используется метод дефузификации, который
основывается на использовании синглетонов. Такими синглетонами
заменяются размытые множества выходов. Такой синглетон размещается в
вершине функции принадлежности. Выходное значение переменной
вычисляется в соответствии со следующим соотношением:
1 1
( ) /q q
l lBl BlBl
y yμ μ= =
= •∑ ∑
Особое место в размытых моделях занимают модели, обладающие
особенностями или свойствами самоорганизации и самонастраивания,
которое осуществляется на основе входных и выходных данных, измеряемых
в процессе функционирования модели. В данном случае,
самоорганизующейся моделью называется модель, в рамках которой
реализуется определение эффективных входов, оптимальное количество
размытых множеств входов и выходов, а также вид и количество правил. Под
размытой самонастраивающейся моделью, в данном случае, понимается
модель, в рамках которой определяются оптимальные параметры функции
принадлежности, доверительные коэффициенты правил и др. Основной
целью в большинстве случаев реализации принципов самоорганизации
является:
- минимализация количества правил;
- минимализация размытых множеств;
- минимализация параметров, которые используются в размытых
моделях.
Наиболее эффективным упрощение модели является уменьшение её
входов за счёт выявления несущественных входных переменных. Благодаря
этому в геометрической прогрессии уменьшается количество правил.
Поэтому, рассмотрим используемые методы определения несущественных
входных переменных или входных параметров.
Для определения несущественных входных параметров можно
использовать следующие методы:
- метод проб и ошибок;
- метод построения кривых средней размытости.
134
На качественном уровне метод проб и ошибок реализуется двумя
способами. В первом случае формируется модель с минимальным
количеством входных переменных и определяется её точность. На
следующем шаге к модели добавляется одна наиболее соответствующая
переменная из потенциальных кандидатов и определяется точность
модифицированной модели. Если точность увеличивается, то эта процедура
повторяется до тех пор, пока неточность не перестанет увеличиваться или её
увеличение не окажется незначительным. Второй способ реализации этого
метода состоит в реализации обратной процедуры. В этом случае, в состав
модели вводятся все возможные входные переменные и пошагово
исключаются после очередного определения точности модели. Такой процесс
продолжается до тех пор, пока увеличивается точность и прекращается при
условии, когда точность перестает увеличиваться или изменяется
несущественно.
Метод построения кривых средней размытости представляет собой
графический способ исключения непосредственных параметров, что
технически менее удобно, поскольку отображать формально графическую
интерпретацию соответствующих преобразований достаточно громоздко.
Самоорганизация размытой модели тесно связана с оптимизацией её
структуры и оптимизацией количества входов и выходов, которые
используются в модели. Прежде всего следует отметить, что положение
внутренних функций принадлежностей множеств S и D не является
произвольным, а соответствует локальным экстремумам функции y = f(x),
которая описывает и опроксимирует множество измеряемых точек, которые
получены при проведении экспериментов. Количество правил и параметров
функций принадлежности зависит от отображения входов и выходов,
которые реализуются в соответствии с объектом.
Можно выделить следующие основные методы самоорганизации и
формирования размытой модели:
- - метод «важных» точек поверхности решения системы;
- - кластеризационный метод;
- - поисковый метод.
Как отмечалось выше, одним из важных проявлений самоорганизации
является модификация системы правил, которая реализуется путем
формирования новых правил в системе вывода. Как обычно, правила
строятся в соответствии с важными или существенными точками значений
входных параметров. В случае расширения системы правил, последние
строятся не только для точек соответствующих максимумов и минимумов
функции 1( , , )ny f x x= K , но и для точек, которые соответствуют
максимальной относительной ошибке. Для того, чтобы определить точки,
содержащие относительную ошибку, целесообразно использовать функции
принадлежности, которые описываются соотношением:
2( ) exp( ( ) / )x x mμ δ= − −
135
которая обладает тремя степенями свободы:
- m – центр симметрии дификции,
- б – мера отклонения плеча функции,
- l – степень изменения структуры функции.
Алгоритм реализации метода важных точек можно представить в виде
определённой последовательности действий, которые состоят в следующем.
1. Определить базовую модель μ0 моделируемой или исследуемой
системы.
2. Достроить базовую модель, используя данные экспериментальных
измерений, которые проводятся на исследуемой системе.
3. Определить точность базовой модели. Если точность достаточна, то
закончить процесс построения или модификации модели. Если точность
недостаточна, то перейти к пункту 4.
4. Определить ошибку нового варианта базовой модели Ео.
5. Определить точки максимальной величины ошибки и минимальной
величины ошибки базовой модели Еом.
6. Разместить два правила в точках экстремума ошибки модели Еом.
7. Достроить параметры функции принадлежности модели ошибки Еом на
основе данных об ошибке базовой модели Е.
8. Добавить базовую модель Мо к модели ошибки Еом. Сумму этих моделей
определить как новую модель М1, которая сформирована в результате
модификации и носит характер самоорганизации. Проверить точность
модели М1. Если точность этой модели достаточная, то завершить
модификацию модели. Если точность М1 не достаточна, то необходимо
вычислить отклонение ошибки Е1 и продолжить моделирование до тех
пор, пока не будет достигнута необходимая точность модифицируемой
модели.
Приведённый алгоритм может модифицироваться с целью его
улучшения.
Построение базовой модели Мо и модели ошибок Еμ можно
реализовывать более эффективно, если к их выходам добавить
дополнительную степень свободы С, благодаря которой поверхность модели
можно передвигать вверх, вниз или вдоль оси ординат. Благодаря этому,
можно уменьшить количество необходимых правил.
Следующая возможность увеличения точности модели состоит в
использовании эллиптических функций принадлежности в диагональных
осях координат. Примером эллиптической двухаргументной показательной
функции, которую можно использовать в качестве функции принадлежности,
может служить функция, имеющая следующий вид:
2 2
1 2 1 1 2 2( , ) exp( (( ) / ) (( ) / ) )x x x m a x m bμ = − − − −
Эта функция имеет 4 степени свободы 1 2( , , , )m m a b . Повёрнутая
функция μ (х1, х2) запишется в виде:
136
2
1 2 1 1 2 2
2
1 1 2 2
( , ) exp[ ((( )cos ( )sin )
(( ( )sin ( ) cos ) / ) ]
x x x m x m
x m x m b
μ α α
α α
= − − + −
− − − + −
Эта функция имеет 5 степеней свободы 1 2( , , , , )m m a b α . Введение
дополнительных степеней свободы приводит к увеличению сложностей при
выводе производных.
Рассмотрим основные положения реализации методов самоорганизации
и построения моделей на основе использования методов кластеризации. Этот
метод часто называют частотным методом. Основывается он на следующем.
Большое число явлений, для которых правила истинности, справедливости
или обобщения формируются на основе оценок относительной частоты
появления различных событий и различных вариантов реализации
последовательности таких событий. Примером таких правил могут служить
следующие соотношения:
1: ( : ( ) ) ( : ( ) )i i i j j jR IF x P x a TO x P x b= =
где хі – некоторое событие или последовательность событий, частота
появления которых определяется вероятностью Pi(xi)=a, xj.-событие которое
обуславливается событием хі с частотой вероятности, которая определяется
величиной Pj(xj)=b. Для лингвистического описания соответствующих правил
необходимо, что бы Pi(xi)>50%. В соответствии с базовыми утверждениями
теории вероятности и в первую очередь в соответствии с теоремой больших
чисел для формирования таких правил необходимо провести достаточно
большое количество испытаний, чтобы получить необходимую величину
выборки.
Экспериментальные исследования системы с целью получения
необходимого числа событий для обеспечения достаточно большой выборки
могут привести к тому, что полученные значения измерений входных и
выходных величин могут размещаться в пространстве параметров
неравномерно. Это означает, что наиболее существенные точки системы и,
соответственно, модели принимаются не в возможных максимумах или
минимумах соответствующих функций 1( , , )ny f x x= K , а в точках скопления
значений входных и выходных переменных. Для этих точек, среди которых
выбираются средние величины и строятся правила преобразований или
правила, устанавливающие соответствующие зависимости. Такая ситуация
свидетельствует о том, что реальная система в точках или областях
максимумов или минимумов значения функции 1( , , )ny f x x= K является
функцией дискретной с интервальными разрывами и особенностями
различных типов, что свидетельствует о невозможности её интерпретации с
необходимой достоверностью, и, как следствие, точностью, как функции,
которая 1( , , )ny f x x= K зависимости реализующейся в соответствующих
системах. Определение базы правил, функций принадлежностей и её
параметров зависит от возможности выявления скоплений значений точек
137
измерения параметров при проведении экспериментальных исследований
систем. Такие скопления данных называются кластерами, и выбор наиболее
значимых величин в таких кластерах осуществляется на основе определения
их центров тяжести. Поэтому, если система работает в пределах кластеров, то
независимо от того, может ли она находится в пределах экстремумов в
процессе работы, она может работать с достаточно высокой точностью.
Пространство входных переменных можно по арбитально разделить на
произвольное количество определённых размытых множеств. После этого
можно создать базу правил, которая содержала бы все комбинации множеств
входов и выходов. Одномерная кластеризация может быть реализована
известным методом К – средств, который можно представить в виде
алгоритма, состоящего из следующих шагов.
На первом шаге необходимо выбрать количество К кластеров и
стартовые векторы осей координат их центров μ2(0), δ=1,…,к, что запишется
в виде:
1, 1),([ , , ]i i
T
i x x pm m m += K
где р – количество входов системы. Количество кластеров может быть
сгенерировано случайным образом.
На втором шаге необходимо каждое измеренное значение j отнести к
ближайшему кластеру. Такое отнесение реализуется на основе соотношения
определяющего расстояние αij от кластера:
,
1 2
, ,1
( )
i j
p
i j i j xi
a x m+
=
= −∑
На третьем шаге определяются новые центры тяжести кластеров. Если
через Ni обозначить количество точек отнесённых к кластеру і, то оси
координат Хl, l=1,…,p, центров тяжести или среди кластеров определяются из
следующего соотношения:
, ,1
( 1) (1/ ) ( ), 1, , ( 1)l i
iN
x i i jj
m t N x t l p
=
+ = = +∑ K
где t – цикл кластеризации.
На четвёртом шаге проверяется величина перемещения центра кластера
imΔ по отношению к предыдущему циклу (t-1) кластеризации, которая
определяется в соответствии с соотношением:
( ) ( ) ( 1)i i im m t m tτΔ = − −
Если минимальное перемещение imΔ выполняет условие min
min ( )im t εΔ ≤ , то актуализация mi кластеров заканчивается и четвёртый шаг
завершается.
На пятом шаге определяется функция принадлежности к кластерам.
Отклонение отдельных точек от середин кластеров целесообразно описывать
функциями Гаусса. В этом случае функцию принадлежности целесообразно
определять в соответствии с соотношением:
138 © С.О.Нікулін
2 2 2
,1 1 ,2 2( ) exp[ (( ) ( ) ) / 2 ]lAl lx lxx m x m xμ σ= − − + − ,
где , ,1 ,2min ; 2, , ; [ , ]l l j lx lx lxD j k m m mσ = = =K
Существуют и другие разновидности метода кластеризации.
1. Осовский С. Нейронные сети для обработки информации. М.: Финансы и
статистика, 2002.
2.Круглов В.В., Борисов В.В. Исскуственные нейронные сети. Теория и практика. М.:
Горячая линия –Телеком, 2001
3.Богаров П.П.,Печинкин А.В. Теория вероятностей. Математическая статистика. М.:
Высшая школа, 1972
4. Тюрин Ю.Н., Макаров А.А. Статистический анализ данных на компьютере. М.:
ИНФРА-М, 1998
Поступила 19.01.2009р.
УДК 621.3
С.О.Нікулін
ВИКОРИСТАННЯ ЛОКАЛЬНИХ КОМП’ЮТЕРНИХ
СПЕЦІАЛІЗОВАНИХ МЕРЕЖ ДЛЯ УПРАВЛІННЯ ТЕХНІЧНИМИ
ОБ’ЄКТАМИ
Переважна більшість систем управління технологічними процесами і
відповідно технологічними об’єктами реалізується на основі використання
локальних комп’ютерних мереж та у вигляді відкритих систем автоматики.
Відкрити системи автоматики знаходять з часом все більше розповсюдження
в системах управління об’єктами різної складності. Вони можуть
забезпечувати розв’язок цілого ряду задач, як то:
- Виконувати сполучення з різними типами мереж; типовими мережами
автоматики та комп’ютерними мережами – для забезпечення розв’язку
цих задач найчастіше використовуються спеціалізовані прилади
автоматики у вигляді програмованих регуляторів PLC. Системи
автоматики включають цілий ряд стандартів різних промислових мереж
з розподіленими параметрами, що до комп’ютерних мереж, особливо, до
широко розповсюдженого стандарту Ethernet. Прикладами таких
промислових мереж можуть бути FIP, CAN, Lon-Works, Profibus,
ModBus, SDS, DevieeNet, Juterbus-S, N-80 та цілий ряд інших. Задачею
окремого приладу відкритої системи автоматики є забезпечення
підключення до виконавчих приладів та до даних відповідного рівня
запита та доступу, а також можливість під’єднання до WAN мережи,
|