RU2022123701A - Способ и система управления технической системой или процессом с помощью искусственной нейронной сети, оптимизирующий целевую функцию - Google Patents

Способ и система управления технической системой или процессом с помощью искусственной нейронной сети, оптимизирующий целевую функцию Download PDF

Info

Publication number
RU2022123701A
RU2022123701A RU2022123701A RU2022123701A RU2022123701A RU 2022123701 A RU2022123701 A RU 2022123701A RU 2022123701 A RU2022123701 A RU 2022123701A RU 2022123701 A RU2022123701 A RU 2022123701A RU 2022123701 A RU2022123701 A RU 2022123701A
Authority
RU
Russia
Prior art keywords
values
training
control
time
series
Prior art date
Application number
RU2022123701A
Other languages
English (en)
Inventor
Леонид Сергеевич Чернышев
Original Assignee
Общество с ограниченной ответственностью "Матсофт"
Filing date
Publication date
Application filed by Общество с ограниченной ответственностью "Матсофт" filed Critical Общество с ограниченной ответственностью "Матсофт"
Publication of RU2022123701A publication Critical patent/RU2022123701A/ru

Links

Claims (11)

1. Способ управления технической системой или процессом, далее - Объектом управления, отличающийся тем, что включает в себя способ идентификации нейросетевой модели объекта управления состоящий из процедуры обучения и процедуры верификации искуственной нейронной сети (ИНС) и способ оптимизации управляющих параметров Объекта управления на требуемых временных срезах горизонта управления (прогнозирования) с целью получения агрегированного максимума (или минимума) целевой функции, в которую входят как параметры состояния объекта управления, так и управляющие параметры объекта управления по сумме ее значений на всех требуемых временных срезах горизонта управления, для чего на 1-м этапе, с использованием искусственной нейронной сети (ИНС), которая в данной реализации изобретения является полносвязной нейронной сетью прямого распространения, состоящей из входного слоя нейронов, одного скрытого слоя и одного выходного слоя нейронов, (но может иметь другую архитектуру и другое количество слоев в других реализациях изобретения), строят модель Объекта управления, при этом для обучения ИНС используется временной ряд прошлых значений как минимум одного параметра состояния Объекта управления в одной реализации изобретения и возможно - нескольких параметров в других реализациях, так же используется временной ряд прошлых и настоящего значений как минимум одного управляющего параметра Объекта управления в одной реализации изобретения и возможно - нескольких параметров в других реализациях, при котором нейросеть проходит обучение одним из стандартных методов, известных на данном уровне техники, например итерационным методом обратного распространения ошибки на данных прошлых значений временных рядов управляющих параметров и параметров состояния Объекта, при этом в одной реализации изобретения начальные весовые синаптические коэффициенты для всех нейронов ИНС выбираются случайным образом в диапазоне значений [-1, 1]; при этом корректировка параметров ИНС, а именно - наборов весовых синаптических коэффициентов для каждого из слоев ИНС может производиться на каждой итерации с использованием, например, известного на данном уровне техники метода градиентного спуска; при этом в одной из реализаций изобретения данные имеющихся значений управляющего параметра и параметра состояния предварительно нормируются, чтобы их значения лежали в диапазоне [-1, 1]; при том, что особенностью обучения ИНС в одном из способов реализации изобретения является использование скользящего окна для формирования обучающей выборки, состоящей в данной реализации изобретения из двух векторов длиной Kx и Ku: (Kx≥Ku) элементов, причем на первой итерации обучения первый вектор формируется из начального отрезка длиной Kx значений временного ряда параметров состояния объекта, подготовленного для обучения ИНС (обучающий ряд), второй вектор формируется из отрезка длиной Ku значений временного ряда управляющих параметров объекта, подготовленного для обучения ИНС, сдвинутых от начала обучающего ряда на величину Kx-Ku+1, при этом результатом прогноза будет значение YKx+1, которое при идеальном обучении должно совпасть со значением XKx+1 - параметра состояния объекта на шаге Kx+1 временного ряда параметров состояния объекта управления; при этом на 2-й итерации обучения - в вектора обучающей выборки поступают Kx и Ku элементов подготовленных для обучения ИНС соответствующих временных рядов, временные индексы которых дополнительно сдвинуты вправо по оси времени на 1 единицу временной дискретности этих рядов; на i-й итерации обучения- в вектора поступят отрезки рядов длиной Kx и Ku элементов, отстоящие соответственно на i- и i+(Kx-Ku+1) интервалов дискретности от начала обучающих рядов; при этом, при достижении номера итерации значения i=L-Kx-1 эпоха обучения считается завершенной, индекс i обнуляется, в вектора обучающих выборок снова принимаются отрезки рядов обучения как для 1-й итерации; останавливать процесс обучения можно, если достигнута заданная точность на участке обучения, либо в случае достижения заданного порога по количеству эпох обучения; при этом в одной из реализаций изобретения обучение искусственной нейронной сети (ИНС) производится не по значениям временных рядов наблюдений управляющих параметров и параметров состояния объекта, а по разности их значений в ближайшие моменты времени, соответствующие дискретности обучающего временного ряда; при этом в одной из реализаций изобретения для успешной идентификации нейросетевой модели объекта, параллельно с процессом обучения ИНС идет процесс валидации ИНС, заключающийся в следующем: имеющиеся ряды наблюдаемых в прошлом значений параметров состояния и параметров управления длинной L делят на 2 части - обучающий ряд и ряд валидации, причем длина ряда валидации F должна быть много меньше длины обучающего ряда (в одной реализации изобретения отношение F/L выбрано=0.1); причем обучение и корректировку синаптических коэффициентов проводят только с использованием обучающего ряда; т.е. эпоха обучения заканчивается на итерации i=L-Kx-F-1; после завершения эпохи обучения проводят итеративные процедуры прямого распространения сети ИНС сдвигающимся окном с количеством итераций =L-Kx-1, получая таким образом набор прогнозов Y=[YKx+… YL], где значения прогноза [YKx+… YL-F],относятся к участку обучения, а прогнозы [YL-F+1…YL] будут уже относится к значениям прогноза на участке валидации; по разнице между прогнозными значениями параметров состояния на отрезке валидации [YL-F+1…YL] и реальными значениями [XL-F+1… XL] ряда валидации параметров состояния объекта определяют ошибку валидации; при этом в другой реализации изобретения процесс обучения ИНС и валидации производится не по значениям временных рядов наблюдений управляющих параметров и параметров состояния объекта, а по разности их значений в ближайшие моменты времени, соответствующие дискретности обучающего и валидационного рядов; в случае успешной валидации - т.е при достижении суммарной ошибки по ряду валидации параметра состояния объекта значения меньше определенного порога - модель считается верифицированной, а ряды валидации присоединяют к обучающим рядам параметров состояния и управляющих параметров и продолжают обучение ИНС с момента остановки (т.е используя в качестве начальных матриц весовых коэффициентов те, что были получены на момент остановки обучения) уже по полным рядам имеющихся значений, что обеспечит максимальное использование доступной априори информации для построения наиболее точных прогнозов на горизонт управления в будущем; по прошествии некоторого времени с момента использования способа обучения и валидации ИНС модели объекта управления (не менее интервала дискретности обучающего и валидационного рядов) и появлении новых фактических данных в одинаковые временные интервалы по значениям параметров состояния и параметров управления объектом- их так же можно включать в обучающие и валидационные ряды и таким образом уточнять прогноз практически в непрерывном режиме on-line (с временной дискретностью исходных временных рядов); при этом на 2-м этапе на базе прошедшей обучение и валидацию ИНС, составляется прогнозирующая модель (ПМ), имеющая вид:
где θt - набор параметров ПМ, соответствующих временному срезу с индексом t: t=(1…N), горизонта управления tN, Ut - t-элементный вектор, каждый из элементов которого представляет из себя набор сгенерированных значений управляющих параметров для временных срезов tc, c=(1…t), вплоть до временного среза t горизонта управления tN, имеющих заданную дискретность и ограничение на значения при этом с помощью ПМ (1) на каждом временном срезе t: t=(1…N), горизонта управления tN рассчитываются наборы возможных прогнозных значений параметра состояния объекта Yt, на основе которых на каждом временном срезе t: t=(1…N), горизонта управления tN рассчитываются наборы значений целевой функции объекта Pt=F(t, Yt, Ut), которые в дальнейшем участвуют в процедуре оптимизации, заключающуюся в определении набора значений управляющего параметра <Uoptt>, состоящего из таких оптимальных значений управляющего параметра для каждого временного среза горизонта управления, который максимизирует (при решении задачи максимизации) или - минимизирует - при решении задачи минимизации сумму значений целевой функции по всем временным срезам t (t=1…N) горизонта управления tN; при этом формула прогнозирующей модели ПМ (1) в развернутом виде для первого временного среза (t=1) имеет вид:
а для каждого последующего из временных срезов t (t=2…N) горизонта управления tN, ПМ (1) имеет развернутый вид:
где f - функция активации- гиперболический тангенс - для данной реализации изобретения, но может быть другой для других реализаций изобретения; указанный в (1) θt, - набор параметров ПМ в (1), соответствующих временному срезу с индексом t включает в себя применительно к (2) и (3): bx, bu - матрицы синаптических коэффициентов перехода на j-й нейрон скрытого слоя с нейронов входного слоя с номерами: от 0 до K-1 и от K до 2*K-1 - соответсвенно для bx и bu; dy(t) - значения обучающего временного ряда параметров состояния Объекта, относящихся к интервалу временного ряда с индексом =L-K+t+i, при i=0… K - t, dp(t) - значения обучающего временного ряда управляющих параметров Объекта, относящихся к интервалу временного ряда с индексом =L-K+t+i+1, при i=0… K-t-1; Ut - наборы значений управляющих параметров, соответствующих временному срезу t горизонта управления, представляющие из себя смоделированные наборы параметров управления объектом, имеющих заданную дискретность и ограничение на значения и по которым будет проводится оптимизация целевой функции объекта для временного среза t горизонта управления;, Yi- -вектор, состоящий из набора прогнозных значений параметров состояния, вычисленных с использованием ПМ для предыдущих текущему временному срезу с индексом t>1 временных срезов ti, i=(1…t-1) горизонта управления tN; таким образом, если на каждом временном срезе t модели по определенному алгоритму (например - равномерным распределением на отрезке) генерируется Nut значений управляющих параметров: то число всевозможных прогнозных значений параметров состояний Yt для временного среза t будет соответствовать произведению т.е. для случая, когда для каждого временного среза с индексом t генерируется одинаковое количество параметров управления =Nu, то число рассчитанных для каждого временного среза с индексом t значений Yt будет возрастать пропорционально степени t с основанием Nu. Число возможных значений целевой функции Pt=F(t, Yt, Ut) для каждого временного среза с индексом t в свою очередь будет так же возрастать пропорционально степени t с основанием Nu; на заключительном этапе процедура оптимизации может быть проведена с использованием метода, предложенного в реализации данного изобретениия, и описанного в одном из пунктов формулы изобретения, либо другим методом в других реализациях изобретения, при этом для нахождения оптимального набора управляющих параметров <Uoptt> может быть применен способ последовательного понижения дискретности генерации Ut, когда на первой итерации выбирают малое число Nu (например, в одной из реализаций Nu=5) и генерируют набор значений управляющего параметра <Ut,z> на заданном диапазоне например по соотношению далее по (2) и (3) рассчитываются Nut значений прогноза параметра состояния объекта для временного среза t: Yt=<Yt,i,z>, где i=1…Nut-1, z=1…Nu, далее для каждого из значений Yt,i,z и Ut,z из соответствующих наборов рассчитывается набор значений целевой функции размером Nut: Pt=F(t, Yt, Ut), далее для проведения процедуры оптимизации целевой функции необходимо построить отрезки (ребра графа), соединяющие каждую точку набора <Pt,i,z>, i=1…Nut-1 временного среза t с каждой точкой набора <Pt+1,j,z>, j=1…Nut последующего временного среза t+1; таким образом, каждая точка набора <P1,i,z> первого среза t=1, может быть соединена с каждой точкой набора набора <PN,j,z> последнего временного среза t=N набором графов, проходящим через одну любую точку каждого из промежуточных временных срезов t; далее рассчитываются суммы значений целевой функции по узлам NuN+NuN-1+…Nu построенных уникальных траекторий (графов), далее определяется первая траектория, имеющая оптимальную сумму (максимум или минимум) сумму и вторая траектория, дающая вторую по оптимальному значению сумму, затем учитывая, что индексы zt оптимальных траекторий по графам с узлами в точках соответствуют значениям , которые использовались для расчета оптимальных узлов то последовательность и будет оптимальным набором для данной итерации процесса оптимизации, далее вычисляют последовательность приводящей суммы целевой функции ко второму результату по оптимальности; на следующей итерации производится сужение диапазона значений Ut за счет изменения предельного значения, ограничивающего диапазон изменения Ut сверху: или снизу: что позволит уменьшить интервалы между соседними значениями Ut,z, а значит - повысить точность расчета оптимальной траектории, при этом вначале определяется положение середины расстояния между значениями первого и второго оптимумов для каждого временного среза. Если то сужение интервала Ut произойдет за счет сдвига нижнего предела диапазона возможных значений Ut на величину Δt вправо, если же , то сужение интервала Ut произойдет за счет сдвига верхнего предела диапазона возможных значений Ut на величину Δt влево, при этом одним из вариантов величины сдвига может быть значение т.е. 10 процентное уменьшение диапазона и соответствующее уменьшение дискретности тестируемых значений Ut - что означает увеличение точности на каждой оптимизационной итерации; при этом, после изменения диапазонов Ut заново пересчитываются все траектории заново определяются индексы z1t и z2t двух наиболее оптимальных траекторий для данной дискретности Ut определяются оптимальные наборы при этом если при изменении дискретности Ut новые рассчитанные значения первого и второго оптимумов целевой функции хуже значений, полученных на предыдущей итерации оптимизации, то процесс оптимизации можно прекратить (в случае, если каждая итерация требует существенных временных затрат), а оптимальное значение, полученное на предыдущей итерации считать локальным оптимумом, набор параметров - считать локально оптимизирующим целевую функцию набором; если же значения первого либо второго оптимумов улучшились на новой итерации, то итерации уменьшения дискретности Ut и перерасчетов оптимальных наборов можно продолжать до тех пор, пока изменения полученных на итерации оптимумов по сравнением с предыдущей итерацией не станут меньше установленной точности ε; тогда, на соответствующей итерации набор - можно считать оптимизирующим целевую функцию набором.
2. Способ по п. 1, в котором для обучения ИНС используются временные ряды известных значений управляющих параметров и параметров состояний Объекта длиной L интервалов временной дискретности, причем на первой итерации обучения используются первые отрезки этих рядов длинной Kx и Ku интервалов временной дискретности в качестве векторов обучающей выборки ИНС, а на каждой i-й итерации обучения ИНС, где i=1…L-Kx, кроме корректировки синаптических коэффициентов ИНС происходит постоянная замена последнего элемента в векторе обучающей выборки параметров состояния на полученное на предыдущем шаге обучения i-1 прогнозное значение параметра состояния Объекта YKx+i-1.
3. Способ по п. 1, в котором для определения момента прекращения дальнейшего обучения ИНС используются особый критерий, отличающийся следующим построением: подсчитывают ошибки обучения ИНС как квадрат разности между прогнозным значением параметра состояния Объекта и известным значением обучающего ряда параметра состояния Объекта для всей длины обучающего ряда параметра состояния Объекта, и части временных интервалов ряда валидации параметра состояния Объекта, эти значения суммируют по всем указанным временным интервалам отдельно для отрезка валидации и отрезка ряда обучения, полученные суммы делят на число временных интервалов, и таким образом получают значения MSE (средний квадрат ошибки) для отрезка валидации и для отрезка обучения, затем для отрезка обучения рассчитывают относительный коэффициент ошибки, заключающийся в отношении MSE на текущей эпохе обучения к MSE на нулевой эпохе обучения, указанное значение будем называть относительным средним квадратом ошибки - ReMSE, затем отдельно для отрезка валидации и для отрезка обучения вычисляют разницы между подсчитанными значениями MSE для текущей и предыдущей эпох (градиенты изменения MSE), затем, опираясь на практику, говорящую, что несмотря на повышение точности прогнозирования нейросетью значений параметра состояния Объекта на участке обучения, точность прогноза на участке валидации начинает существенно ухудшатся, начиная с некоторых значений числа прошедших эпох обучения (переобучение ИНС), из-за чего имеет смысл останавливать обучение и отбраковывать реализацию обучения, если например после увеличения точности обучения не менее чем в 10 раз (ReMSE<0.1) ошибка на участке валидации значительно превышает допустимый уровень, а градиент значения MSE на отрезке валидации не имеет отрицательного знака (т.е. если прогноз на участке валидации не уточняется в процессе обучения), в этом случае валидация считается неуспешной, набор полученных синаптических коэффициентов сбрасывается и заново генерируется случайным образом в пределах [-1, 1], либо в других пределах в других реализациях изобретения, процесс обучения начинается заново; при этом отбраковка реализаций будет проходить до тех пор, пока не будет зафиксирован отрицательный градиент MSE на отрезке валидации в процессе обучения; останавливать процесс обучения можно, если достигнута заданная точность на участке валидации, либо в случае приближения значения градиента MSE на отрезке валидации к нулю, либо в случае достижения заданного порога по количеству эпох обучения.
4. Способ по п. 1, в котором моделируется набор значений параметра управления <U> для последующих расчетов значений целевой функции таким образом, что его максимальная и минимальные границы выбираются по значениям среднего Uсред и по значению стандартного среднеквадратического отклонения σ имеющегося временного ряда измеренных ранее значений управляющего параметра, используя правило 3 сигма, что означает 99% вероятность охвата всех возможных значений управляющего параметра при гауссовом распределении случайной величины его значений, т.e. Umin=Uсред-3*σ, Umax=Uсред+3*σ, а дискретный набор значений управляющего параметра, предъявляемых для дальнейшей оптимизации целевой функции объекта вычисляется равномерным распределением на отрезке [Umin, Umax] по соотношению: где Nu - выбранный размер набора значений управляющего параметра.
5. Система управления технической системой или процессом, далее - Объектом управления, состоящая из взаимосвязанных блоков и подблоков, построенных на основе программных модулей ЭВМ, с возможностью считывания, обработки и хранения данных, обеспечивающие процесс оптимизации управляющих параметров Объекта на требуемых временных срезах горизонта управления с целью получения агрегированного максимума (или минимума) целевой функции, в которую входят параметры состояния и управляющие параметры объекта управления на всех требуемых временных срезах горизонта управления, для чего на 1-м этапе согласно способу, раскрытому в п. 1 изобретения в блоке 101 строится искусственная нейросеть ИНС, которая проходит обучение и валидацию в подблоке 1011 с использованием обучающего временного ряда и временного ряда валидации, состоящих из наблюдаемых в прошлом значений параметра состояния Объекта, записанного и хранящегося в блоке 110, а также обучающего временного ряда и временного ряда валидации, состоящих из наблюдаемых в прошлом значений управляющих параметров Объекта, записанных и хранящихся в блоке 120, и передаваемых на подблок 1011 обучения и валидации нейросети, которая после окончания обучения и расчета ошибки валидации передает набор синаптических коэффициентов ИНС в подблок 1012 использования ИНС в режиме прогноза, где проходит процедуру принятия или отклонения по значениям ошибки валидации, затем, в случае успешного прохождения валидации, прогнозная модель ПМ считается идентифицированной, после чего в блоке 140 задаются (моделируются), например с помощью способа изложенного в п. 4 формулы настоящего изобретения, но возможно - другим способом в других реализациях изобретения - набор из Nu модельных значений параметра управления Объекта U=[U1…UNu] или значения разности параметров управления Объекта согласно п. 1 формулы настоящего изобретения, в требуемом диапазоне и с требуемой дискретностью для каждого временного среза t: t=[1…N] горизонта управления, после чего с использованием ПМ происходит расчет набора значений параметра состояния (или значений разности параметров состояния Объекта) Yt=<Yt,i,z>, где i=1…Nut-1, z=1…Nu, далее для каждого из значений Yt,i,z и Ut,z из соответствующих наборов блоком 210 рассчитывается набор значений целевой функции размером Nut: Pt=F(t, Yt, Ut) для каждого временного среза t: t=[1…N] горизонта управления, причем, в случае использования согласно п. 1 формулы изобретения смоделированных значений отклонений управляющих параметров и рассчитанных значений отклонений параметров состояния, то расчет набора значений целевой функции производится по восстановленным по их разностям значениям управляющих параметров и параметров состояния; затем полученные наборы значений целевой функции поступают в блок 300, где происходит определение оптимальных значений параметров управления, каждое из которых соответствует своему временному срезу t: t=[1…N] горизонта управления, и которые при их использовании на обеспечат достижения агрегированного максимума (или минимума) целевой функции Объекта управления суммой по всем временным срезам горизонта управления; при этом результаты записываются и хранятся в блоке 400 Системы.
RU2022123701A 2022-09-06 Способ и система управления технической системой или процессом с помощью искусственной нейронной сети, оптимизирующий целевую функцию RU2022123701A (ru)

Publications (1)

Publication Number Publication Date
RU2022123701A true RU2022123701A (ru) 2024-03-06

Family

ID=

Similar Documents

Publication Publication Date Title
CN109063911B (zh) 一种基于门控循环单元网络的负荷聚合体分组预测方法
CN110969290B (zh) 一种基于深度学习的径流概率预测方法及系统
CN111563706A (zh) 一种基于lstm网络的多变量物流货运量预测方法
CN112507610B (zh) 一种热轧卷取温度的区间预测方法
CN108764568B (zh) 一种基于lstm网络的数据预测模型调优方法及装置
CN111967688B (zh) 一种基于卡尔曼滤波器与卷积神经网络的电力负荷预测方法
CN105046045B (zh) 一种基于贝叶斯组合的Web服务QoS预测方法
CN111047085A (zh) 一种基于元学习的混合动力车辆工况预测方法
CN110443417A (zh) 基于小波变换的多模型集成负荷预测方法
CN110059867B (zh) 一种swlstm结合gpr的风速预测方法
CN111553535B (zh) 一种基于ae-lstm-bo车流量预测的导航参考方法
CN110837915B (zh) 一种基于混合集成深度学习的电力系统低压负荷点预测及概率预测方法
CN115410372B (zh) 基于贝叶斯lstm的高速公路交通流量可靠预测方法
CN111523728B (zh) 一种四阶段混合短时风向预测方法
CN113947182B (zh) 基于双阶段堆叠图卷积网络的交通流预测模型构建方法
CN112232561A (zh) 基于约束并行lstm分位数回归的电力负荷概率预测方法
CN110633859A (zh) 一种两阶段分解集成的水文序列预测方法
CN113919545A (zh) 一种多数据模型融合的光伏发电功率预测方法和系统
CN117994986B (zh) 一种基于智能优化算法的交通车流量预测优化方法
CN112819224B (zh) 基于深度学习融合模型的机组出力预测及置信评估方法
CN110675278A (zh) 一种基于rbf神经网络的光伏功率短期预测方法
CN112861418A (zh) 一种基于ga-woa-grnn网络的斜拉索短期覆冰厚度预测方法
CN113255963A (zh) 基于路元拆分和深度学习模型lstm的路面使用性能预测方法
CN113159395A (zh) 一种基于深度学习的污水处理厂进水流量预测方法及系统
RU2022123701A (ru) Способ и система управления технической системой или процессом с помощью искусственной нейронной сети, оптимизирующий целевую функцию