RU2476825C2 - Method of controlling moving object and apparatus for realising said method - Google Patents

Method of controlling moving object and apparatus for realising said method Download PDF

Info

Publication number
RU2476825C2
RU2476825C2 RU2011107969/28A RU2011107969A RU2476825C2 RU 2476825 C2 RU2476825 C2 RU 2476825C2 RU 2011107969/28 A RU2011107969/28 A RU 2011107969/28A RU 2011107969 A RU2011107969 A RU 2011107969A RU 2476825 C2 RU2476825 C2 RU 2476825C2
Authority
RU
Russia
Prior art keywords
image
cartographic
images
additional
course
Prior art date
Application number
RU2011107969/28A
Other languages
Russian (ru)
Other versions
RU2011107969A (en
Inventor
Владимир Иванович Сырямкин
Юрий Семенович Соломонов
Лев Семенович Соломонов
Лев Павлович Каменский
Виктор Станиславович Шидловский
Глеб Сергеевич Глушков
Сергей Викторович Горбачев
Антон Олегович Гафуров
Original Assignee
Государственное образовательное учреждение высшего профессионального образования Томский государственный университет (ТГУ)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Государственное образовательное учреждение высшего профессионального образования Томский государственный университет (ТГУ) filed Critical Государственное образовательное учреждение высшего профессионального образования Томский государственный университет (ТГУ)
Priority to RU2011107969/28A priority Critical patent/RU2476825C2/en
Publication of RU2011107969A publication Critical patent/RU2011107969A/en
Application granted granted Critical
Publication of RU2476825C2 publication Critical patent/RU2476825C2/en

Links

Images

Abstract

FIELD: radio engineering, communication.
SUBSTANCE: cartographic reference and current images of a territory are obtained, variation parameters of the current cartographic image are compared with the reference cartographic image and noise is filtered from the images. Before comparing variation parameters of the images, preliminary coordinates of the object are determined, the section of the territory is recognised and an integral cartographic reference image is formed. Integral information-bearing parameters of the compared images are obtained, while selecting multidimensional parameters among them and increasing the latter by a value defined by the required accuracy of estimating coordinates of the object. Change in shape, topology and colour of the section of the territory is determined.
EFFECT: broader functional capabilities owing to higher accuracy, faster determination of coordinates of movement of the object and noise-immunity.
20 cl, 21 dwg

Description

Группа изобретений относится к способу управления движущимся объектом и устройству для его осуществления. Область применения охватывает автоматическое и автоматизированное управление движением различных объектов, например транспортных роботов, судов, летательных аппаратов и т.д.The group of inventions relates to a method for controlling a moving object and a device for its implementation. The scope covers automatic and automated control of the movement of various objects, such as transport robots, ships, aircraft, etc.

Известны и широко применяются различные способы и устройства определения координат объекта, например инерциальные, оптико-телевизионные или радиолокационные навигационные устройства [1, 2].Various methods and devices for determining the coordinates of an object are known and widely used, for example, inertial, optical-television or radar navigation devices [1, 2].

Существенным признаком этих способов и устройств является то, что производится анализ получаемой информации согласно определенным методикам, алгоритмам или теоретическим моделям, а затем делается вывод о координатах объекта. Так, например, вывод о местоположении объекта делается при анализе радиолокационного изображения местности [3].An essential feature of these methods and devices is that the analysis of the information obtained is carried out according to certain methods, algorithms or theoretical models, and then a conclusion is made about the coordinates of the object. So, for example, the conclusion about the location of the object is made when analyzing the radar image of the area [3].

Недостатки способов и устройств заключаются в низкой точности определения координат объекта и невозможности быстрой адаптации при изменении навигационной задачи. Кроме этого, указанные способы и устройства имеют низкие функциональные возможности, так как они воспринимают навигационную информацию с ограниченного количества датчиков (одного, двух и трех).The disadvantages of the methods and devices are the low accuracy of determining the coordinates of the object and the inability to quickly adapt when changing the navigation task. In addition, these methods and devices have low functionality, since they perceive navigation information from a limited number of sensors (one, two and three).

В качестве прототипа рассмотрим способ для определения координат объекта, в котором считывают (воспринимают) эталонное и текущее изображения, в результате чего получается пара сравниваемых изображений [4]. Устройство, реализующее этот способ, включает в себя картографический указатель истинного курса (КУИК), основной картографический указатель заданного курса (ОКУЗК), фильтры для фильтрации помех КУИК и ОКУЗК, блок корреляционно-экстремальной обработки информации (БКЭОИ) и блоки управления фильтрами. С помощью КУИК воспринимается текущее изображение, а с помощью ОКУЗК воспроизводится эталонное изображение, которые сравниваются в БКЭОИ и определяются координаты местоположения объекта.As a prototype, we consider a method for determining the coordinates of an object in which the reference and current images are read (perceived), resulting in a pair of compared images [4]. A device that implements this method includes a true course cartographic index (CICC), a basic cartographic index of a given course (CGC), filters for filtering interference CQC and CGC, a correlation-extreme information processing unit (CECI) and filter control units. With the help of the KUIK, the current image is perceived, and with the help of the CKPS, the reference image is reproduced, which are compared in the BKEOI and the coordinates of the object's location are determined.

Недостатки способа и устройства заключаются в низкой точности определения координат объекта из-за низкой помехоустойчивости и помехозащищенности (ограниченной возможностью фильтрации помех ТИ, ЭИ и ВКФ), невозможности быстрой адаптации при изменении навигационной задачи, низкой функциональной возможности вследствие использования одного датчика изображения (картографического указателя истинного курса), низком быстродействии из-за наличия электромеханических блоков фильтрации сравниваемых изображений и управления фильтрами.The disadvantages of the method and device are the low accuracy of determining the coordinates of the object due to the low noise immunity and noise immunity (limited by the ability to filter interference TI, EI and VKF), the inability to quickly adapt when changing the navigation task, low functionality due to the use of one image sensor (cartographic pointer true course), low speed due to the presence of electromechanical filtering units of the compared images and filter control.

Задачей является создание способа управления движущимся объектом и устройства с улучшенными функциональными возможностями за счет повышения точности, быстродействия определения координат движения объекта, помехоустойчивости и помехозащищенности, и как следствие, повышение оперативности выполнения навигационной задачи.The objective is to create a way to control a moving object and a device with improved functionality by increasing accuracy, speed of determining the coordinates of the movement of the object, noise immunity and noise immunity, and as a result, increasing the efficiency of the navigation task.

Поставленная задача достигается тем, что как и в известном способе в заявленном способе управления движущимся объектом получают картографические эталонные и текущие изображения территории, сравнивают параметры изменения текущего картографического изображения с эталонным картографическим изображением, фильтруют изображения от помехThe problem is achieved in that, as in the known method in the claimed method of controlling a moving object, get cartographic reference and current images of the territory, compare the change parameters of the current cartographic image with a reference cartographic image, filter the image from interference

Отличием предлагаемого способа от известного является то, что перед сравнением параметров изменения изображений определяют предварительные координаты объекта, распознают участок территории, формируют интегральное картографическое эталонное изображение и получают интегральные информативные параметры сравниваемых изображений, выделяя среди них многомерные и увеличивая последние на величину, определяемую требуемой точностью оценки координат объекта, определяют изменение геометрии, топологии и цвета участка территории, при этом дополнительно подавляют помехи нейросетевой фильтрацией, а после сравнения параметров изменения изображений оценивают местоположение объекта и производят коррекцию маршрута движения объекта.The difference between the proposed method and the known one is that before comparing the parameters for changing the images, preliminary coordinates of the object are determined, a site area is recognized, an integrated cartographic reference image is formed and integrated informative parameters of the compared images are obtained, highlighting the multidimensional ones and increasing the latter by an amount determined by the required estimation accuracy the coordinates of the object, determine the change in the geometry, topology and color of the area, while up to olnitelno suppress interference neural network filtering, and after comparing the image change parameter estimates the position of the object and produce corrected route of the object.

При этом формируют интегральное картографическое эталонное изображение путем монтажа локальных участков территории по реперным точкам с помощью нейросетевых технологий.At the same time, an integral cartographic reference image is formed by mounting local areas of the territory at reference points using neural network technologies.

Кроме того, получают интегральные информативные параметры сравниваемых изображений при формировании радиолокационных, телевизионных цветных или инфракрасных изображений подстилающей поверхности Земли или изображений карты звездного неба.In addition, receive integrated informative parameters of the compared images when forming radar, television color or infrared images of the underlying surface of the Earth or images of a map of the starry sky.

Формируют радиолокационные или телевизионные цветные изображения по топографическим картам Земли.Generate radar or television color images on topographic maps of the Earth.

Определяют изменение геометрии, топологии и цвета участка территории для сравниваемой пары изображений при устранении рассогласований изображений по углу их относительного разворота, масштабу, крену, тангажу и цвету.Determine the change in the geometry, topology and color of the area for the compared pair of images while eliminating the inconsistencies of the images according to the angle of their relative rotation, scale, roll, pitch and color.

Кроме того, определяют геометрические параметры локальных и интегральных участков территории в виде периметров, площадей, радиусов, длины, ширины, количества точек перегиба контура, геометрического центра элементов изображений, постоянно наблюдаемых участков, развертки контура, перевычисления в полярную систему координат, инвертирования изображения, формирования микроплана.In addition, the geometrical parameters of local and integral areas of the territory are determined in the form of perimeters, areas, radii, length, width, the number of inflection points of the contour, the geometric center of image elements, constantly observed areas, contour sweep, re-calculation in the polar coordinate system, image inversion, image formation microplan.

При этом переход к типу изображения осуществляют на основе вычисления адаптивного коэффициента путем сравнения текущих и предельных значений интегральных информативных геометрических, топологических и цветовых параметров изображений, а также амплитудных, спектральных, структурных и дифференциальных информативных параметров взаимно-корреляционной функции.In this case, the transition to the type of image is carried out on the basis of calculating the adaptive coefficient by comparing the current and limit values of the integral informative geometric, topological and color parameters of the images, as well as the amplitude, spectral, structural and differential informative parameters of the cross-correlation function.

Кроме того, корректируют маршрут движения объекта путем перенастройки работы устройства.In addition, they adjust the route of movement of the object by reconfiguring the operation of the device.

Кроме того, распознают участок территории с помощью нейросетевых технологий.In addition, they recognize a site using neural network technologies.

Целесообразно, многомерные интегральные информативные параметры сравниваемых изображений увеличивают до 1000 раз.It is advisable that multidimensional integrated informative parameters of the compared images are increased up to 1000 times.

При этом территорией может быть наземная, подводная, воздушная территория.In this case, the territory may be land, underwater, air territory.

Поставленная задача достигается также тем, что, как и известное заявленное устройство управления движущимся объектом, содержит последовательно соединенные синхронизатор, блок корреляционно-экстремальной обработки информации, основной картографический указатель заданного курса, блок дополнительных фильтров основного картографического заданного курса, выходом подключен ко второму входу блока корреляционно-экстремальной обработки информации, входом через блок управления фильтрами подключен к выходу блока корреляционно-экстремальной обработки информации, последний вторым входом подключен к блоку дополнительных фильтров картографического указателя истинного курса, а блок управления фильтрами вторым выходом подключен к блоку дополнительных фильтров картографического указателя истинного курса и объекту управления.The task is also achieved by the fact that, like the known claimed device for controlling a moving object, it contains a serially connected synchronizer, a block of correlation-extreme information processing, a main cartographic indicator of a given course, a block of additional filters of the main cartographic specified course, with an output connected to the second input of a correlation block -extreme information processing, the input through the filter control unit is connected to the output of the correlation-extreme block th information processing, the latter is connected to the second input of the additional filter unit COG pointer mapping, and filter control unit is connected to the second output of the additional filter unit COG mapping and pointer control object.

Новым является то, что оно дополнительно содержит, во-первых, последовательно соединенные блок подключения датчика изображения, адаптивный нейросетевой фильтр подавления помех и интеллектуальный блок обработки изображений, отдельным выходом подключен к входу блока подключения датчика изображения, которые введены между выходом радиолокационного картографического указателя истинного курса и отдельным входом блока корреляционно-экстремальной обработки информации, отдельным выходом подключен к интеллектуальному блоку обработки изображений, во-вторых, инфракрасный датчик изображений, блок астродатчиков, телевизионный датчик изображений, блок спутниковой навигационной системы, блок построения изображений по топографической карте подключены отдельными двунаправленными связями к блоку подключения датчика изображений, в-третьих, последовательно соединенные инерциальная навигационная система и структурно-перестраиваемый блок управления отдельными входами подключены к выходам блока корреляционно-экстремальной обработки информации, блока спутниковой навигационной системы, блока построения изображений по топографической карте и синхронизатора, а отдельными выходами подключены к объекту управления и блоку построения изображений по топографической карте, причем отдельный вход структурно-перестраиваемого блока управления подключен к выходу задатчика управления, в-четвертых, блок нейросетевого распознавания изображений отдельными входами подключен к отдельным выходам интеллектуального блока обработки изображений и синхронизатора, а отдельным выходом подключен к отдельным входам блока корреляционно-экстремальной обработки информации.What is new is that it additionally contains, firstly, a series-connected image sensor connection unit, an adaptive neural network interference suppression filter and an intelligent image processing unit, with a separate output connected to the input of the image sensor connection unit, which are inserted between the output of the radar cartographic indicator of the true course and a separate input of the correlation-extreme information processing unit, a separate output is connected to an intelligent processing unit of secondly, an infrared image sensor, an astro sensor unit, a television image sensor, a satellite navigation system unit, a topographic map image building unit are connected by separate bidirectional connections to the image sensor connection unit, thirdly, an inertial navigation system and structurally connected tunable control unit for individual inputs connected to the outputs of the correlation-extreme information processing unit, satellite navigation unit system, a block for constructing images from a topographic map and a synchronizer, and with separate outputs connected to a control object and a block for constructing images from a topographic map, with a separate input of a structurally tunable control unit connected to the output of a control unit, fourthly, a block of neural network image recognition by separate inputs connected to separate outputs of the intelligent image processing unit and synchronizer, and a separate output connected to separate inputs of the block relational-extreme information processing.

Кроме того, блок подключения датчика изображения выполнен в виде многоканального мультиплексора.In addition, the image sensor connection unit is made in the form of a multi-channel multiplexer.

Кроме того, блок астродатчиков содержит датчики, воспринимающие карту звездного неба и радиогалактики.In addition, the astro sensors block contains sensors that receive a map of the starry sky and radio galaxies.

Кроме того, блок спутниковой навигационной системы содержит ГЛОНАСС, GPS и/или ГАЛИЛЕО.In addition, the satellite navigation system unit contains GLONASS, GPS and / or GALILEO.

Кроме того, инерциальная навигационная система включает блоки гироскопов, акселерометров, управления, контроля и обработки информации.In addition, the inertial navigation system includes blocks of gyroscopes, accelerometers, control, monitoring and information processing.

Кроме того, блок построения изображений по топографической карте состоит из топографических и топологических карт земной поверхности, считывателя изображения с карт и автомата на перестраиваемых вычислительных средах.In addition, the block for constructing images on a topographic map consists of topographic and topological maps of the earth’s surface, an image reader from maps, and an automaton on tunable computing environments.

Кроме того, телевизионный датчик изображений выполнен в виде телевизионной камеры, функционирующей в инфракрасном оптическом диапазоне, и содержит инфракрасный прожектор.In addition, the television image sensor is made in the form of a television camera operating in the infrared optical range, and contains an infrared spotlight.

Кроме того, блок дополнительных фильтров картографического указателя истинного и заданного курсов и блок управления фильтрами выполнены на перестраиваемых вычислительных средах.In addition, the block of additional filters of the cartographic indicator of the true and given courses and the filter control block are made on tunable computing environments.

Кроме того, структурно-перестраиваемый блок управления реализован на перестраиваемых вычислительных средах.In addition, a structurally tunable control unit is implemented on tunable computing environments.

Предлагаемый способ и устройство иллюстрируется чертежами, представленными на фиг.1-21.The proposed method and device is illustrated by the drawings shown in figures 1-21.

На фиг.1 представлена структурная схема устройства.Figure 1 presents the structural diagram of the device.

На фиг.2 представлена структурная схема интеллектуального блока обработки изображений.Figure 2 presents the structural diagram of an intelligent image processing unit.

На фиг.3 представлена структурная схема блока корреляционно-экстремальной обработки информации.Figure 3 presents the structural diagram of the block correlation-extreme information processing.

На фиг.4 представлена структурная схема адаптивного нейросетевого фильтра подавления помех.Figure 4 presents the structural diagram of an adaptive neural network filter suppression interference.

На фиг.5 представлена схема формального нейрона.Figure 5 presents a diagram of a formal neuron.

На фиг.6 представлена нейронная сеть.Figure 6 presents the neural network.

На фиг.7 представлены используемые в способе шаблоны особенностей изображений (при применении нейросетей).7 shows the patterns of image features used in the method (when using neural networks).

На фиг.8 представлена структура многомерного запоминающего устройства основного картографического указателя заданного курса.On Fig presents the structure of a multidimensional storage device of the main cartographic indicator of a given course.

На фиг.9 представлено поле информативных параметров (ИП) основного радиолокационного картографического указателя заданного курса.Figure 9 presents the field of informative parameters (IP) of the main radar cartographic index of a given course.

На фиг.10 представлено поле ИП основного инфракрасного картографического указателя заданного курса.Figure 10 presents the IP field of the main infrared cartographic indicator of a given course.

На фиг.11 представлено поле ИП основного телевизионного картографического указателя заданного курса.Figure 11 presents the IP field of the main television cartographic index of a given course.

На фиг.12 представлено поле ИП основного астрономического картографического указателя заданного курса.On Fig presents the field IP of the main astronomical cartographic index of a given course.

На фиг.13 представлено поле ИП основного спутникового картографического указателя заданного курса.On Fig presents the IP field of the main satellite map of the specified course.

На фиг.14 представлено поле ИП основного топографического картографического указателя заданного курса.On Fig presents field IP of the main topographic cartographic index of a given course.

На фиг.15 представлена структурная схема основного картографического указателя заданного курса.On Fig presents a structural diagram of the main cartographic indicator of a given course.

На фиг.16 представлена структурная схема структурно-перестраиваемого блока управления.On Fig presents a structural diagram of a structurally tunable control unit.

На фиг.17 представлен вариант исполнения блока перестраиваемой вычислительной среды.On Fig presents an embodiment of a block tunable computing environment.

На фиг.18 представлена структурная схема блока подключения датчика изображения.On Fig presents a structural diagram of a unit for connecting an image sensor.

На фиг.19 представлен новый вид взаимно-корреляционной функции (ВКФ) при различных размерах элементов изображений и различных типах изображений.On Fig presents a new type of cross-correlation function (VKF) for various sizes of image elements and various types of images.

На фиг.20 представлены графики зависимостей точностных характеристик устройства от крутизны ВКФ или от геометрических характеристик изображений.On Fig presents graphs of the dependencies of the accuracy characteristics of the device from the steepness of the VKF or from the geometric characteristics of the images.

На фиг.21 представлен вид ВКФ при различных типах изображений.On Fig presents a view of the VKF with various types of images.

На фиг.1 даны следующие обозначения:Figure 1 gives the following notation:

1 - объект управления (ОУ);1 - control object (OS);

2 - дополнительный инфракрасный датчик изображений (ИДИ);2 - additional infrared image sensor (IDN);

3 - дополнительный блок астродатчиков (БА);3 - an additional block of astro sensors (BA);

4 - радиолокационный картографический указатель истинного курса (РКУИК);4 - radar cartographic indicator of the true course (RKUIK);

5 - дополнительный телевизионный картографический указатель истинного курса (ОТДИ);5 - additional television cartographic indicator of the true course (OTDI);

6 - дополнительный спутниковый картографический указатель истинного курса (БСНС);6 - additional satellite cartographic indicator of the true course (BSNS);

7 -инерциальная навигационная система (ИНС);7 - inertial navigation system (ANN);

8 - дополнительный формирователь картографического указателя истинного курса по топографической карте (блок построения изображений по топографической карте) (БПИТК);8 - additional shaper of the cartographic indicator of the true course on the topographic map (block for constructing images on the topographic map) (BPITK);

9 - блок подключения датчика изображений (БПДИ);9 - unit for connecting an image sensor (BPDI);

10 - интеллектуальный блок обработки изображений (ИБОИ);10 - intelligent image processing unit (OBOI);

11 - структурно-перестраиваемый блок управления (СПБУ);11 - structurally tunable control unit (SPBU);

12 - синхронизатор;12 - synchronizer;

13 - блок управления фильтрами (БУФ);13 - filter control unit (FUF);

14 - блок дополнительных фильтров картографического указателя истинного курса (БДФКУИК);14 - block additional filters cartographic pointer true course (BDFKUIK);

15 - блок дополнительных фильтров основного картографического указателя заданного курса (БДФОКУЗК);15 is a block of additional filters of the main cartographic index of a given course (BDFOKUZK);

16 - основной картографический указатель заданного курса (ОКУЗК);16 - the main cartographic index of a given course (OKUZK);

17 - блок корреляционно-экстремальной обработки информации (БКЭОИ);17 - block correlation-extreme information processing (BKEOI);

18 - адаптивный нейросетевой фильтр подавления помех (АНФПП);18 - adaptive neural network interference suppression filter (ANFPP);

19 - блок нейросетевого распознавания изображений (БНРИ).19 is a block neural network image recognition (BNRI).

Определение координат объекта с помощью предлагаемых способов и устройства осуществляется при сравнении изображений различных размерностей и цветностей на основе вычисления оценки:Determining the coordinates of an object using the proposed methods and devices is carried out when comparing images of various dimensions and chromaticities based on calculation estimates:

Figure 00000001
Figure 00000001

где R - мера близости текущего изображения (картографического указателя истинного курса) и эталонного изображения (картографического указателя заданного курса);where R is a measure of the proximity of the current image (cartographic indicator of the true course) and the reference image (cartographic indicator of the given course);

F1(λ), F2(λ,ν) - функции, описывающие картографические указатели истинного и заданного курсов соответственно;F 1 (λ), F 2 (λ, ν) - functions that describe the cartographic indicators of the true and given courses, respectively;

λ, ν - соответственно постоянная и переменная части параметров.λ, ν are respectively the constant and variable parts of the parameters.

Сначала рассмотрим алгоритмы, способные функционировать с произвольными изображениями (с произвольным расположением элементов ТИ и ЭИ).First, we consider algorithms that can function with arbitrary images (with an arbitrary arrangement of TI and EI elements).

Известно [5], что если угол разворота между ТИ и ЭИ равен нулю α=0), то координаты главного максимума ВКФ определяются следующими выражениями:It is known [5] that if the angle of rotation between TI and EI is zero α = 0), then the coordinates of the main maximum of the CCF are determined by the following expressions:

Figure 00000002
Figure 00000002

где

Figure 00000003
,
Figure 00000004
- координаты центров тяжести совпадающих элементов ТИ, ЭИ соответственно; a, b - относительные смещения коррелируемых изображений.Where
Figure 00000003
,
Figure 00000004
- coordinates of the centers of gravity of the coincident elements TI, EI, respectively; a, b are the relative displacements of the correlated images.

Если при угловом совмещении изображений системы координат, связанные с ТИ и плоскостью регистрации ВКФ, фиксированы, а ЭИ поворачивается вокруг оптической оси коррелятора, то координаты главного максимума ВКФ определяются приближенноIf during angular alignment of images, the coordinate systems associated with the TI and the registration plane of the VKF are fixed, and the EI rotates around the optical axis of the correlator, then the coordinates of the main maximum of the VKF are determined approximately

Figure 00000005
Figure 00000005

Для точного определения координат главного максимума следует произвести преобразование выражения (3) следующим образом:To accurately determine the coordinates of the main maximum, the expression (3) should be transformed as follows:

Figure 00000006
Figure 00000006

Выражения (4) означают перевычисления координат, связанных с ТИ, в координаты, связанные с ЭИ.Expressions (4) mean the re-calculation of coordinates associated with EI into coordinates associated with EI.

Очевидно, что при использовании алгоритма (3) возникает ошибка в вычислении линейных координатObviously, when using algorithm (3), an error occurs in the calculation of linear coordinates

Figure 00000007
Figure 00000007

Таким образом, еслиSo if

Figure 00000008
Figure 00000008

то, чтобы δ'ξ=δ'η=0, необходимо сначала определить приближенные значения ξ1, η1, а затем вычислить точные координаты по формулам (4).so that δ ' ξ = δ' η = 0, you must first determine the approximate values of ξ 1 , η 1 , and then calculate the exact coordinates using formulas (4).

Пользуясь (3) и методами геометрической оптики, можно также записатьUsing (3) and the methods of geometric optics, we can also write

Figure 00000009
Figure 00000009

Из (7) следует, что, еслиIt follows from (7) that if

Figure 00000010
Figure 00000010

то при угловом совмещении изображений линейные координаты не зависят от угла разворота ТИ и ЭИ относительно исходного положения и характеризуются только. выражениями (2).then with the angular alignment of the images, the linear coordinates do not depend on the rotation angle of the TI and EI relative to the initial position and are characterized only. expressions (2).

Таким образом, при совмещении сравниваемых изображений без изменения вращения ЭИ необходимо либо уточнять полученные приближенные значения координат, либо с целью упрощения процесса вычисления координат совмещать центр вращения ЭИ и центр тяжести изображения с оптической осью коррелятора.Thus, when combining the compared images without changing the EI rotation, it is necessary either to refine the obtained approximate coordinates, or to simplify the process of calculating the coordinates, combine the center of rotation of the EI and the center of gravity of the image with the optical axis of the correlator.

Рассмотрим теперь применение данного алгоритма в случае использования дифференцированного метода определения координат, при котором знаки координат вычисляются следующим образом:Let us now consider the application of this algorithm in the case of using a differentiated method for determining coordinates, in which the signs of coordinates are calculated as follows:

Figure 00000011
Figure 00000011

где Z1÷Z4 - сигналы, характеризующие освещенность соответствующего квадранта корреляционной плоскости.where Z 1 ÷ Z 4 - signals characterizing the illumination of the corresponding quadrant of the correlation plane.

В выражении (9) знак Δ1 соответствует координате η, а знак Δ2 - координате ξ.In expression (9), the sign Δ 1 corresponds to the coordinate η, and the sign Δ 2 corresponds to the coordinate ξ.

Выражение (9) справедливо в случае, если центр вращения ЭИ и центр тяжести изображения совмещены с оптической осью коррелятора, а разворот ЭИ не превышает угол π/2. При развороте ЭИ на угол больше, чем π/2, знаки уже будут:Expression (9) is valid if the center of rotation of the EI and the center of gravity of the image are aligned with the optical axis of the correlator, and the turn of the EI does not exceed the angle π / 2. When the EI is rotated by an angle greater than π / 2, the signs will already be:

Figure 00000012
Figure 00000012

Как видно из сопоставления выражений (9), (10) при развороте ЭИ на угол, превышающий π/2, в определении линейных координат возникают ошибкиAs can be seen from the comparison of expressions (9), (10) when the EI is rotated by an angle exceeding π / 2, errors arise in the determination of linear coordinates

Figure 00000013
Figure 00000013

Выражение (11) следует понимать так: величина ошибки по координате ξ соответствует значению смещения Δη по координате η, а величина ошибки по координате η - значению смещения Δξ по координате ξ.Expression (11) should be understood as follows: the magnitude of the error along the coordinate ξ corresponds to the offset Δη along the coordinate η, and the magnitude of the error along the coordinate η corresponds to the offset Δξ along the coordinate ξ.

Для устранения ошибок δξα; δηα. необходимо, используя априорную информацию о развороте ЭИ относительно корреляционной плоскости, подключать сигналы Z1÷Z4, снимаемые с выхода фотоприемника, к соответствующим входам блока оценки линейных координат.To eliminate errors δξ α ; δη α . it is necessary, using a priori information about the reversal of the EI with respect to the correlation plane, to connect the signals Z 1 ÷ Z 4 taken from the output of the photodetector to the corresponding inputs of the linear coordinate estimation block.

При распознавании цвета элементов территории определяется цвет зоны, «окрашенной» в какой-либо тон или спектр, на основе следующего правила:When recognizing the color of the elements of the territory, the color of the zone “colored” in any tone or spectrum is determined based on the following rule:

Figure 00000014
Figure 00000014

где Цк, Цз, Цс, Цп, Цж, Цг, Цб - соответственно уровни красного, зеленого, синего,where C to , C z , C s , C p , C W , C g , C b - respectively, the levels of red, green, blue,

пурпурного, желтого, голубого, белого цветов,purple, yellow, blue, white,

JR, JG, JB - соответственно ВКФ, характеризующие красный, зеленый и синий цвета. Таким образом, по сочетанию ВКФ JR, JG, JB можно определить любой цвет зоныJ R , J G , J B - respectively VKF, characterizing red, green and blue colors. Thus, by the combination of VKF J R , J G , J B , any color of the zone can be determined

исследуемой поверхности.the investigated surface.

Слагаемые ВКФ описываются следующими выражениями:The terms of the VKF are described by the following expressions:

Figure 00000015
Figure 00000015

где

Figure 00000016
- функция описывающая цветное ТИ (в системе координат X1, O1, Y1);Where
Figure 00000016
- a function describing the color TI (in the coordinate system X 1 , O 1 , Y 1 );

Figure 00000017
Figure 00000018
Figure 00000019
- функции, описывающие ЭИ (в системах координат
Figure 00000020
,
Figure 00000021
,
Figure 00000022
), пропускающие соответственно красную R, зеленную G и синюю В компоненту цвета;
Figure 00000017
Figure 00000018
Figure 00000019
- functions that describe EI (in coordinate systems
Figure 00000020
,
Figure 00000021
,
Figure 00000022
), letting through respectively the red R, green G and blue B component of the color;

K - коэффициент пропорциональности.K is the coefficient of proportionality.

Геометрические характеристики зон исследуемой поверхности определяются следующими известными выражениями.The geometric characteristics of the zones of the investigated surface are determined by the following well-known expressions.

Figure 00000023
Figure 00000023

Figure 00000024
Figure 00000024

где XC, YC - координаты центра «тяжести» структурного элемента зоны изображения;where X C , Y C - coordinates of the center of gravity of the structural element of the image area;

ΔMKX, ΔMKY - элементарные моменты по направлению соответствующих осей;ΔM KX , ΔM KY - elementary moments in the direction of the corresponding axes;

Nк - число точек (пиксел) в контуре;N to - the number of points (pixel) in the circuit;

i - номер контура;i is the circuit number;

SСЭ - площадь структурного элемента зоны изображения, ограниченного контуром;S SE - the area of the structural element of the image area, limited by the contour;

KФ - коэффициент формы;K f - form factor;

P - периметр контура;P is the perimeter of the circuit;

Пi - перегиб контура;P i - inflection of the contour;

Nп - число перегибов контура;Nп - the number of inflections of the contour;

j - номер перегиба i-ого контура.j is the number of the inflection of the i-th circuit.

Площадь SСЭ и периметр Р структурного элемента определяются при обходе контура зоны. После получения необходимой информации происходит сопоставление текущей и эталонной информации (изображений) в соответствии с выражением (1):The area S of the solar cell and the perimeter P of the structural element are determined bypassing the zone contour. After obtaining the necessary information, the current and reference information (images) are compared in accordance with expression (1):

Figure 00000025
Figure 00000025

где

Figure 00000026
,
Figure 00000027
,
Figure 00000028
,
Figure 00000029
,
Figure 00000030
,
Figure 00000031
- матрицы информативных признаков (параметров) текущих изображений, формируемых в данный момент времени радиолокационным, инфракрасным, телевизионным, астрономическим, спутниковым и топографическим картографическим указателями истинного курса, соответственно;Where
Figure 00000026
,
Figure 00000027
,
Figure 00000028
,
Figure 00000029
,
Figure 00000030
,
Figure 00000031
- a matrix of informative features (parameters) of current images generated at a given time by radar, infrared, television, astronomical, satellite and topographic cartographic indicators of the true course, respectively;

Figure 00000032
Figure 00000033
Figure 00000034
Figure 00000035
Figure 00000036
Figure 00000037
- матрицы информативных признаков (параметров) эталонных изображений (запоминаемых заранее), формируемых радиолокационным, инфракрасным, телевизионным, астрономическим, спутниковым и топографическим картографическим указателями заданного курса, соответственно.
Figure 00000032
Figure 00000033
Figure 00000034
Figure 00000035
Figure 00000036
Figure 00000037
- a matrix of informative features (parameters) of reference images (stored in advance) generated by radar, infrared, television, astronomical, satellite and topographic cartographic indicators of a given course, respectively.

Эти матрицы могут формироваться в виде снимков (фотографий) и математических моделей территорий.These matrices can be formed in the form of images (photographs) and mathematical models of territories.

Устройство работает в двух режимах: подготовка эталона и измерение (определение координат). В режиме подготовки эталона формируется эталонное изображение (ЭИ), характеризующее требуемое положение ОУ 1 и обеспечивающее заданное решение навигационной задачи. Для этого подключаются с помощью БПДИ 9 по сигналу от синхронизатора 12 все датчики изображений ИДИ 2, БА 3, РКУИК 4, ОТДИ 5, БСНС 6 и БПИТК 8, считываются изображения, обрабатываются изображения ИБОИ 10 и записываются в ОКУЗК 16, который является блоком записи (хранения) ЭИ. На этом режим работы устройства «подготовка эталона» заканчивается.The device operates in two modes: preparation of a standard and measurement (determination of coordinates). In the standard preparation mode, a reference image (EI) is formed that characterizes the required position of the OS 1 and provides the specified solution to the navigation problem. For this, all image sensors IDI 2, BA 3, RKUIK 4, OTDI 5, BSNS 6 and BPITK 8 are connected using the BPDI 9 by the signal from the synchronizer 12, the images are read, the images of the OBOI 10 are processed and recorded in the RAM 16, which is the recording unit (storage) EI. At this mode of operation of the device "preparation of the standard" ends.

В режиме «измерение (определение координат)» устройство работает следующим образом. По сигналу от синхронизатора 12 включаются БКЭОИ 17, СПБУ 11, ИНС 7, ИБОИ 10 и БПДИ 9, который подключает датчики изображений ИДИ 2, БА 3, РКУИК 4, ОТДИ 5, БСНС 6 и БПИТК 8. Дополнительный инфракрасный датчик изображений ИДИ 2 воспринимает тепловое изображение поверхности Земли, а дополнительный телевизионный картографический указатель истинного курса ОТДИ 5 - цветные изображения поверхности Земли. Дополнительный блок астродатчиков БА 3 формирует оптико-телевизионное изображение карты Звездного неба или карты радиополя Звездного неба. РКУИК 4 считывает радиолокационное изображение (РЛИ) поверхности Земли. БСНС 6 воспринимает сигналы с навигационных спутников и определяет предварительные (грубые) координаты объекта управления ОУ 1, пропорциональные сигналы которых поступают в СПБУ 11. Кроме этого, сигналы с БСНС 6 направляются через БПДИ 9 в интеллектуальный блок обработки изображений ИБОИ 10. Блок БПИТК 8 синтезирует ТИ, используя предварительные навигационные координаты объекта управления ОУ 1, полученные с ИНС 7 и БСНС 6. Все сигналы, описывающие текущие изображения, полученные ИДИ 2, БА 3, РКУИК 4, ОТДИ 5, ДСНС 6 и БПИТК 8, поступают через БПДИ 9 и адаптивный нейросетевой фильтр подавления помех АНФПП 18 (вариант исполнения АНФПП 18 представлен на фиг.4) в интеллектуальный блок обработки изображений ИБОИ 10, который выполняет следующие операции: преобразование ТИ в контурные или точечные изображения, выделение электронным способом информативной части (частей) ТИ, преобразование ТИ по заданному закону, фильтрацию ТИ от несовпадающих частей (помех). Таким образом, ИБОИ 10 подает на БНРИ 19, БДФКУИК 14, БДФОКУЗК 15 или ОКУЗК 16 полное (не преобразованное) изображение (вариант исполнения ИБОИ 10 представлен на фиг.2). После этого включается блок нейросетевого распознавания изображений БНРИ 19, который сравнивает (распознает) изображения территории (вариант исполнения представлен на фиг.5, 6). После этого БУФ 13 включает БДФКУИК 14 и БДФОКУЗК 15, которые оптически устраняют дополнительные несовпадающие части изображений на ОКУЗК 16 и картографического указателя истинного курса, поступающего с ИБОИ 10. Далее БКЭОИ 17 определяет координаты (ξ, η) объекта следующим образом:In the "measurement (determination of coordinates)" mode, the device operates as follows. The signal from the synchronizer 12 includes BKEOI 17, SPBU 11, INS 7, IBOI 10 and BPDI 9, which connects the image sensors IDI 2, BA 3, RCUIK 4, OTDI 5, BSNS 6 and BPITK 8. An additional infrared image sensor IDI 2 senses thermal image of the Earth’s surface, and an additional television cartographic indicator of the true course of OTDI 5 - color images of the Earth’s surface. An additional block of astro sensors BA 3 forms an optical-television image of a map of the Starry sky or a map of the radio field of the Starry sky. RKUIK 4 reads the radar image (RLI) of the Earth's surface. BSNS 6 receives signals from navigation satellites and determines the preliminary (rough) coordinates of the control object OU 1, the proportional signals of which are sent to SPBU 11. In addition, signals from BSNS 6 are sent through BPDI 9 to the intellectual block of image processing of OBOI 10. Block BPITK 8 synthesizes TI, using the preliminary navigation coordinates of the control object OS 1, obtained from ANN 7 and BSNS 6. All signals describing the current images received by IDN 2, BA 3, RKUIK 4, OTDI 5, DSNS 6 and BPITK 8 are received through BPDI 9 and hell An ANPPP 18 active neural network filter for interference suppression (ANPPP 18 embodiment is shown in FIG. 4) into an intelligent image processing unit IBOI 10, which performs the following operations: converting the TI into contour or point images, electronically extracting the information part (s) of the TI, converting TI according to a given law, filtering TI from mismatched parts (interference). Thus, IBOI 10 submits to BNRI 19, BDFKUIK 14, BDFOKUZK 15 or OKUZK 16 a complete (not converted) image (the embodiment of IBOI 10 is shown in FIG. 2). After that, the neural network image recognition unit BNRI 19 is turned on, which compares (recognizes) the images of the territory (the embodiment is shown in FIGS. 5, 6). After this, BUF 13 includes BDFKUIK 14 and BDFOKUZK 15, which optically eliminate additional mismatched parts of the images on TPSU 16 and the cartographic indicator of the true course coming from IBOI 10. Further, the BKEOI 17 determines the coordinates (ξ, η) of the object as follows:

Figure 00000038
Figure 00000038

где

Figure 00000039
,
Figure 00000040
- фильтры, представляющие собой маску с прозрачной областью, равной размеру кадров КУИК и ОКУЗК;Where
Figure 00000039
,
Figure 00000040
- Filters, which are a mask with a transparent area equal to the size of the KUIK and OKUZK frames;

Figure 00000041
- фильтр, выполненный в виде маски, в которой изображения элементов прозрачны, по форме и расположению идентичны ЭИ, а границы элементов изображения на маске расширены по сравнению с ЭИ на величину, равную суммарной ошибке работы предлагаемого устройства;
Figure 00000041
- a filter made in the form of a mask in which the image of the elements are transparent, identical in shape and arrangement to the EI, and the boundaries of the image elements on the mask are expanded compared to the EI by an amount equal to the total error of the proposed device;

Z3(ξ',η') - фильтр, представляет собой диафрагму.Z 3 (ξ ', η') - filter, represents a diaphragm.

Причем фильтры

Figure 00000042
,
Figure 00000043
обеспечивают фильтрацию помех основного картографического указателя заданного курса 16, а фильтр Z3(ξ',η') - фильтрацию побочных максимумов взаимно-корреляционной функции. Сигналы, пропорциональные величинам ξ', η', поступают от БКЭОИ 17 на структурно-перестраиваемый блок управления 11, который использует информацию с БСНС 6, ИНС 7 и БПИТК 8, управляет движением объекта управления 1. При изменении оперативной задачи на СПБУ 11 поступают соответствующие сигналы управления от задатчика управления. Информация с CПБУ 11 поступает также на БПИТК 8.Moreover, the filters
Figure 00000042
,
Figure 00000043
provide interference filtering of the main cartographic indicator of a given course 16, and filter Z 3 (ξ ', η') - filtering side maxima of the cross-correlation function. Signals proportional to ξ ', η' are received from BKEOI 17 to a structurally tunable control unit 11, which uses information from BSNS 6, ANN 7 and BPITK 8, controls the movement of control object 1. When the operational task changes to SPBU 11, the corresponding control signals from the control unit. Information from SPBU 11 also arrives at BPITK 8.

На этом один цикл работы устройства заканчивается. Следующий цикл начинается снова по сигналу от синхронизатора 12.This completes one cycle of the device. The next cycle starts again at the signal from the synchronizer 12.

На фиг.2 представлена структурная схема интеллектуального блока обработки изображений 10. ИБОИ 10 состоит из следующих блоков:Figure 2 presents the structural diagram of an intelligent image processing unit 10. IBOI 10 consists of the following blocks:

20 - блок выделения контуров (БВК);20 - block selection contours (BVK);

21 - блок формирования точек (БФТ);21 - block forming points (BFT);

22 - блок инвертирования (БИ);22 - invert block (BI);

23 - блок перевычисления в другие системы координат (БПДСК);23 - block re-calculation in other coordinate systems (BPDSK);

24 - блок выделения постоянно наблюдаемых частей изображения (БВПНЧИ);24 is a block selection of constantly observed parts of the image (MNIS);

25 - блок фильтрации несовпадающих частей изображения (БФНЧИ);25 is a block filtering mismatched parts of the image (BFNCHI);

26 - блок формирования микроплана (БФМ);26 - microplan forming unit (BFM);

27 - блок формирования развертки контура (БФРК);27 - block forming a scan circuit (BFRK);

28 - блок вычисления координат центра «тяжести» изображения (БВКЦТИ);28 - block calculating the coordinates of the center of gravity of the image (BVKTSTI);

ИБОИ 10 работает следующим образом.OBOI 10 works as follows.

Во время функционирования ИБОБ 10 реализуются алгоритмы сегментации и кодирования изображения. Сегментацией называют процесс разбиения изображения рабочей сцены на составные части: объекты, их фрагменты или характерные особенности. Под кодированием понимают сжатие видеоинформации для хранения в памяти ИБОИ [3]. На этом этапе возможны следующие режимы работы ИБОИ:During the operation of IBC 10, image segmentation and coding algorithms are implemented. Segmentation is the process of dividing the image of the working scene into its component parts: objects, their fragments or characteristic features. Under coding is understood the compression of video information for storage in the memory of an OBOI [3]. At this stage, the following operating modes are possible:

1-й режим - без преобразования изображения - использование обычных (полных) изображений;1st mode - without image conversion - using ordinary (full) images;

2-й режим - преобразование полных изображений в контурные (формирование контуров элементов изображения или формирование развертки контуров изображений);2-nd mode - conversion of complete images to contour ones (forming contours of image elements or forming a scan of image contours);

3-й режим - преобразование полных изображений в точечные (например, путем формирования точек изображения в местах перегиба контура, путем вычисления координат центра тяжести части или всего изображения);3rd mode - conversion of full images to point-based ones (for example, by forming image points at the inflection points of the contour, by calculating the coordinates of the center of gravity of a part or the whole image);

4-й режим - выделение информативной части (частей) изображения (инвертирование, выделение постоянно-наблюдаемых частей - селекция элементов изображения);4th mode - selection of the informative part (s) of the image (invert, selection of constantly-observable parts - selection of image elements);

5-й режим - преобразование изображения по заданному закону (перевычисление в другие системы координат);5th mode - image conversion according to a given law (recalculation into other coordinate systems);

6-й режим - фильтрация изображений от несовпадающих частей (экстраполяция смещения изображения, использование режима микроплана изображения применение адаптивной нейросетевой фильтрации).6th mode - filtering images from mismatched parts (extrapolating image bias, using the microplan mode of the image, using adaptive neural network filtering).

Выбор режима работы ИБОИ основывается на некоторых характеристиках изображения и ВКФ. При этом используются геометрические характеристики элементов полных изображений (SGT - площадь объекта, l - длина (или ширина) объекта, Smu -изображение, характеризующее площадь объекта и помехи и кадра (экрана) датчика изображения (SЭ - площадь, lЭ - диаметр (ширина и высота)). Для изменения режима работы ИБОИ (то есть датчика изображения) используются следующие отношения:The choice of the operating mode of the OBI is based on some characteristics of the image and the VKF. In this case, the geometric characteristics of the elements of the complete images are used (S GT is the area of the object, l is the length (or width) of the object, S mu is the image characterizing the area of the object and the noise and frame (screen) of the image sensor (S E is the area, l E diameter (width and height)). To change the operating mode of the OBI (i.e. the image sensor), the following relationships are used:

Figure 00000044
Figure 00000044

Соотношения (17), легко реализуемые программно или аппаратно, следует использовать в качестве критериев для переключения некоторых режимов работы интеллектуального блока обработки изображений 10. При этом переход на другой режим необходимо осуществлять, если соблюдается одно (или несколько) из условий:Relations (17), easily implemented in software or hardware, should be used as criteria for switching some operating modes of the intelligent image processing unit 10. Moreover, the transition to another mode must be carried out if one (or several) of the following conditions is met:

Figure 00000045
Figure 00000045

где K*s, K*е, K*s, ΔS* - критические (предельные) значения соответствующих величин Ks, Ke, K's, ΔS, превышение которых обусловит сбой в работе БКЭОИ 17 (величины Ks, Ke, K*s, K*е получены экспериментально).wherein K * s, K * f, K * s, ΔS * - critical (limit) values the corresponding values K s, K e, K ' s, ΔS, above which will cause a malfunction SEAL 17 (value K s, K e , K * s , K * e obtained experimentally).

Ясно, что Ks, Ke следует использовать при отсутствии помех на ТИ, а K's, ΔS - при наличии помех на ТИ. Возможны также ситуации, когда режимами работы ИБОИ 10 нужно управлять, используя два критерия: один - при отсутствии помех, другой - при их наличии. Таким образом, по величинам Ks, Ke, K's, ΔS принимается решение о выборе какого-либо режима работы ИБОИ 10.It is clear that K s , K e should be used in the absence of interference on the transformer, and K ' s , ΔS - in the presence of interference on the transformer. Situations are also possible when the operating modes of IBOI 10 need to be controlled using two criteria: one - in the absence of interference, the other - if any. Thus, according to the values of K s , K e , K ' s , ΔS, a decision is made on the choice of any operating mode of OBOI 10.

Дадим схему выбора основных режимов (решающее правило РП) работы ИБОИ 10:We give a scheme for choosing the main modes (the decisive rule of the RP) of the operation of OBOI 10:

1-й режим используется при Ks≤K*s, Ke≤K*е, K's≤K'*s, ΔS≤ΔS*;1st mode is used for K s ≤K * s , K e ≤K * e , K ' s ≤K' * s , ΔS≤ΔS *;

2-й режим применяется при Ks>K*s, Ke>K*е, K's≤K'*s, ΔS≤ΔS*, при этом помехи не должны искажать контур объекта;2nd mode is applied when K s > K * s , K e > K * e , K ' s ≤K' * s , ΔS≤ΔS *, while the interference should not distort the contour of the object;

3-й режим используется при Ks>K*s, Ke>K*е, K's>K'*s, ΔS>ΔS*;3rd mode is used for K s > K * s , K e > K * e , K ' s >K' * s , ΔS> ΔS *;

4-й режим применяется в случае, когда использование предыдущих режимов не дает положительного эффекта, в частности, если элементы ТИ флуктуируют по яркости свечения и координатам, а информативная часть ТИ не воспринимается датчиком ТИ;The 4th mode is used when the use of the previous modes does not have a positive effect, in particular, if the elements of the TI fluctuate in brightness and coordinates, and the informative part of the TI is not perceived by the TI sensor;

5-й режим применяется в случае, если необходимо обеспечить оценку угловой координаты с высокой точностью, не используя при этом вращения ЭИ;5th mode is used if it is necessary to provide an estimate of the angular coordinate with high accuracy, without using the rotation of the EI;

6-й режим используется, если Ks>K*s, ΔS>ΔS*. Критические значения K*s, K*e, K*s, ΔS выбираются на основе предварительных исследований с учетом желаемых точностных характеристик предлагаемого устройства.6th mode is used if K s > K * s , ΔS> ΔS *. The critical values of K * s , K * e , K * s , ΔS are selected on the basis of preliminary studies, taking into account the desired accuracy characteristics of the proposed device.

Информация от ИБОИ 10 поступает на БПДИ 9, который определяет адаптивный коэффициент Ka, используя выражение (17), (18) и решающее правило РП. По этому коэффициенту Ka выбирается структура сравниваемых изображений и тип используемого датчика изображения.Information from IBOI 10 is fed to BPDI 9, which determines the adaptive coefficient K a using expression (17), (18) and the decision rule of the RP. Based on this coefficient K a , the structure of the compared images and the type of image sensor used are selected.

На фиг.3 представлена структурная схема блока корреляционно-экстремальной обработки информации 17.Figure 3 presents the structural diagram of the block correlation-extreme processing of information 17.

БКЭОИ 17 состоит из следующих блоков:BKEOI 17 consists of the following blocks:

29 - формирователь корреляционной функции (КФ);29 - shaper correlation function (CF);

30 - анализатор КФ;30 - KF analyzer;

31 - классический корреляционный вычислитель (KB);31 - classical correlation calculator (KB);

32 - КВ с фильтрацией;32 - HF with filtration;

33 - КВ с совмещением ТИ и ЭИ по углу (КВСТИЭИУ);33 - HF with the combination of TI and EI in angle (KVSTIIU);

34 - КВ без совмещения ТИ и ЭИ по углу (КВБСТИЭИУ);34 - HF without combining TI and EI in angle (KVBSTIEIU);

35 - безэталонный (динамический) KB (БДКВ);35 - non-standard (dynamic) KB (BDKV);

36 - KB с заданным расположением слагаемых ВКФ (КВЗРСВКФ);36 - KB with a given arrangement of terms VKF (KVZRSVKF);

37 - KB с разложением цвета (КВРЦ);37 - KB with color decomposition (CMEC);

38 - классический корреляционный анализатор (КА);38 - classical correlation analyzer (KA);

39 - КА с коррекцией координат (КАКК);39 - spacecraft with coordinate correction (AS);

40 - дифференцированный КА (ДКА);40 - differentiated KA (DKA);

41 - разностный КА (РКА);41 - differential spacecraft (RCA);

42 - спектральный КА;42 - spectral KA;

43 - структурный КА;43 - structural spacecraft;

44 - квадратичный КА (ККА);44 - quadratic KA (KKA);

45 - стереоскопический КА;45 - stereoscopic spacecraft;

46 - линейный КА (ЛКА);46 - linear spacecraft (LCA);

47 - КА с экстраполяцией (КАЭ);47 - spacecraft with extrapolation (CAE);

48 - адаптивный КА;48 - adaptive spacecraft;

49 - амплитудный КА.49 - amplitude spacecraft.

БКЭОИ 17 работает следующим образом. Формирователь корреляционных функций (КФ) реализует следующие способы формирования КФ. Наиболее прост классический корреляционный анализатор (КА) 38, вычисляющий ВКФ или интеграл свертки. КА в классическом варианте требует значительных вычислительных мощностей для осуществления операций умножения и интегрирования при всех сдвигах и разворотах ТИ и эталонного изображения (ЭИ). КА с фильтрацией 32 обеспечивает фильтрацию (пространственную или иную) от помех ТИ, ЭИ и ВКФ. КА с совмещением ТИ и ЭИ по углу 33 по сравнению с КА без углового совмещения изображений 34 допускает разворот ТИ на любой угол и требует кругового вращения ЭИ по углу относительно ТИ. Безэталонный KB 35 синтезирует ВКФ с помощью последовательной перезаписи ТИ и ЭИ и основан на использовании динамического коррелятора [5]. КА, формирующий слагаемые ВКФ по заданному закону 36, характеризуется конструкцией коррелятора и определенным расположением элементов ТИ и ЭИ. KB с разложением на цвета 37 обеспечивает формирование ВКФ, соответствующих слагаемым цвета изображений. Применение конкретного формирователя КФ обуславливается задачей, выполняемой БКЭОИ и следовательно предлагаемым устройством. Анализатор КФ 30 работает следующим образом. Амплитудный КА 49 необходимую информацию извлекает на основе оценки амплитуды главного максимума ВКФ. Это самый простой КА. Более высокие точностные характеристики по сравнению с амплитудным КА 49 обеспечивает модифицированное амплитудное корреляционное вычисление, в котором необходимая информация извлекается на основе анализа параметров (ширина, крутизна) ВКФ. КА с коррекцией координат 39 допускает непрерывное вращение ЭИ при угловом совмещении изображений. При этом полученная грубая оценка координат уточняется. В дифференциальном КА 40 также осуществляется угловое вращение ЭИ и коррекция координат путем коммутации соответствующих квадрантов фотоприемника анализатора КФ 30. Разностный КА 41, основанный на поэлементном вьяислении разностей интенсивности ТИ и ЭИ, по объему вычислений имеет преимущество перед классическим КА 38, требующим проведения операции умножения. Спектральный КА 42, определяющий угловую координату, основан на Фурье-преобразовании и вычисляет различие спектров ТИ и дискретно развернутых ЭИ. Структурный (синтаксический или лингвистический) КА 43 базируется на трех процедурах: выделение контуров ТИ, выделение дескрипторов (линий определенной формы, сегментов) и описание их параметров, синтаксический анализ с использованием грамматики (классификация). При реализации алгоритма КА 43 производится сравнение признаков, а не полных изображений. Это значительно снижает необходимый объем памяти предлагаемого устройства и уменьшает объем вычислительных операций.BKEOI 17 works as follows. Shaper correlation functions (CF) implements the following methods of forming CF. The simplest classical correlation analyzer (KA) 38 calculates the VKF or convolution integral. The spacecraft in the classical version requires significant computing power to perform the operations of multiplication and integration for all shifts and turns of the TI and the reference image (EI). SC with filtering 32 provides filtering (spatial or otherwise) from interference TI, EI and VKF. A spacecraft with a combination of TI and EI at an angle of 33 in comparison with a spacecraft without an angular alignment of images 34 allows TI to be rotated to any angle and requires a circular rotation of the EI in angle relative to the TI. The standardless KB 35 synthesizes VKF using sequential rewriting of TI and EI and is based on the use of a dynamic correlator [5]. The spacecraft, which forms the terms of the VKF according to the given law 36, is characterized by the design of the correlator and a certain arrangement of the elements TI and EI. KB with color decomposition 37 provides the formation of VKF corresponding to the terms of the color of the images. The use of a specific shaper KF is determined by the task performed by the BKEOI and therefore the proposed device. The KF 30 analyzer operates as follows. Amplitude spacecraft 49 retrieves the necessary information based on an estimate of the amplitude of the main maximum of the VKF. This is the simplest spacecraft. A higher accuracy characteristics compared to the amplitude KA 49 provides a modified amplitude correlation calculation in which the necessary information is extracted based on the analysis of parameters (width, slope) VKF. Spacecraft with coordinate correction 39 allows continuous rotation of EI with angular alignment of images. In this case, the obtained rough estimate of the coordinates is refined. In the differential CA 40, the angular rotation of the EI and the correction of coordinates by commutation of the corresponding quadrants of the photodetector of the KF 30 analyzer are also carried out. The difference KA 41, based on the element-by-element calculation of the differences in the intensities of the TI and the EI, has the advantage over the classical KA 38, requiring the operation of multiplication. The spectral KA 42, which determines the angular coordinate, is based on the Fourier transform and calculates the difference between the spectra of TI and discretely deployed EI. Structural (syntactic or linguistic) CA 43 is based on three procedures: allocation of TI contours, selection of descriptors (lines of a certain shape, segments) and a description of their parameters, parsing using grammar (classification). When implementing the CA 43 algorithm, features are compared, not full images. This significantly reduces the required memory capacity of the proposed device and reduces the amount of computational operations.

Квадратичный КА 44 реализуется путем возведения в квадрат корреляционной функции, за счет чего увеличивается разница между главным и побочным (побочными) максимумами. Это значительно повышает помехоустойчивость предлагаемого устройства.Quadratic spacecraft 44 is implemented by squaring the correlation function, thereby increasing the difference between the main and secondary (secondary) maxima. This greatly increases the noise immunity of the proposed device.

Стереоскопический и линейный модифицированные КА 45, 46 предназначены для сравнения трехмерных изображений (т.е. анализа трехмерных сцен). При этом стереоскопический КА 45 основан на корреляционной оценке параллакса, а линейный модифицированный - на корреляционном сравнении совокупности плоских (двухмерных) изображений территории в рабочей зоне.Stereoscopic and linear modified KA 45, 46 are intended for comparing three-dimensional images (i.e. analysis of three-dimensional scenes). In this case, the stereoscopic spacecraft 45 is based on a correlation estimation of parallax, while the linear modified one is based on a correlation comparison of a combination of flat (two-dimensional) images of the territory in the working area.

КА с экстраполяцией 47 осуществляет фильтрацию ТИ и ЭИ путем прогнозирования смещения ТИ. Однако такой КА 47 требует априорной информации о смещении объекта в рабочей зоне.A spacecraft with extrapolation 47 filters TI and EI by predicting TI bias. However, such a spacecraft 47 requires a priori information about the displacement of the object in the working area.

Адаптивный КА 48 синтезирован на основе вышеописанных КА и осуществляет подстройку параметров предлагаемого устройства (например, выделение информативных признаков ТИ, регулирование чувствительности анализатора КФ, фильтрацию ТИ, ЭИ и ВКФ и др.) при наличии помех на сравниваемых изображениях и изменении ситуации в рабочей зоне. Выбор конкретного алгоритма определяется задачей, выполняемой устройством.Adaptive spacecraft 48 is synthesized based on the spacecraft described above and adjusts the parameters of the proposed device (for example, identifying informative features of TI, adjusting the sensitivity of the KF analyzer, filtering TI, EI and VKF, etc.) in the presence of interference in the compared images and changing the situation in the working area. The choice of a specific algorithm is determined by the task performed by the device.

На фиг.4 представлена структурная схема адаптивного нейросетевого фильтра подавления помех (АНФПП) 18.Figure 4 presents the structural diagram of an adaptive neural network interference suppression filter (ANFP) 18.

АНФПП решает задачу выделения полезного сигнала, искаженного широкополосной помехой, с помощью нейросети, которая выступает здесь фильтром, подавляющим широкополосную помеху (шум). Рассмотрим случай, когда полезный сигнал искажается широкополосной помехой, при этом не имеется внешнего эталонного сигнала, содержащего сам полезный сигнал. В общем случае для уменьшения или исключения такого вида помехи нельзя применять адаптивное устройство подавления помехи. Однако при получении эталонного сигнала непосредственно из входного сигнала через заданную задержку, как показано на фиг.4, можно подавить широкополосную помеху.ANFPP solves the problem of extracting a useful signal distorted by broadband interference using a neural network, which acts here as a filter that suppresses broadband interference (noise). Consider the case where the useful signal is distorted by broadband interference, while there is no external reference signal containing the useful signal itself. In general, an adaptive interference suppression device cannot be used to reduce or eliminate this type of interference. However, upon receipt of the reference signal directly from the input signal after a predetermined delay, as shown in FIG. 4, broadband interference can be suppressed.

АНФПП состоит из следующих элементов:ANFPP consists of the following elements:

50, 51-сумматоры;50, 51 adders;

52 - линия задержки;52 - delay line;

53 - фильтр.53 - filter.

На фиг.4 через m[k]=m(tk), tk=k*dt обозначен полезный гармонический сигнал. Через v[k]=v(tk) обозначена широкополосная помеха. Входной сигнал обозначен через x[k]=x(tk), (x[k]=m[k]+v[k]), а эталонный сигнал обозначен через x[k-dh]=x(tk-dh). Через y[k]=y(tk), обозначен сигнал на выходе фильтра, причем y[k]=M[k], где M[k] - оценка сигнала m[k] в момент времени tk. Через e[k]=e(tk) обозначена разность между x[k] и y[k], причем e[k]=x[k]-y[k]. Здесь через dt обозначен интервал дискретности измерений.In Fig. 4, m [k] = m (t k ), t k = k * dt denotes a useful harmonic signal. By v [k] = v (t k ) the broadband interference is indicated. The input signal is denoted by x [k] = x (t k ), (x [k] = m [k] + v [k]), and the reference signal is denoted by x [k-dh] = x (tk-dh) . By y [k] = y (t k ), the signal at the filter output is designated, and y [k] = M [k], where M [k] is the estimate of the signal m [k] at time t k . The difference between x [k] and y [k] is denoted by e [k] = e (t k ), and e [k] = x [k] -y [k]. Here, dt denotes the interval of measurement discreteness.

Нейросетевой блок распознавания изображений базируетсся на применении различных типов нейронных сетей [6, 7]. Нейронная сеть (НС) состоит из элементов, называемых формальными нейронами, которые имитируют работу нейронов коры головного мозга. Каждый нейрон преобразует набор сигналов, поступающих к нему на вход, в выходной сигнал. Пример формального нейрона показан на фиг.5. Структура нейронной сети приведена на фиг.6.The neural network image recognition unit is based on the use of various types of neural networks [6, 7]. A neural network (NS) consists of elements called formal neurons that mimic the functioning of neurons in the cerebral cortex. Each neuron converts a set of signals entering its input into an output signal. An example of a formal neuron is shown in FIG. The structure of the neural network is shown in Fig.6.

Между отдельными нейронами может существовать связь, и именно связи между нейронами, кодируемые весовыми коэффициентами, играют ключевую роль в функционировании НС. Связи между нейронами на фиг.6 обозначены латинской буквой W. Индекс в верхней части обозначает принадлежность весового коэффициента слою. Одним из преимуществ НС является возможность параллельного функционирования всех элементов, чем существенно повышается эффективность решения задачи в целом. Эта особенность НС успешно используется в системах распознавания образов. Нейронная сеть имеет входы Х и выходы Y, представляя собой систему, которая формирует выходное состояние в зависимости от входного. Наличие весовых коэффициентов, которые можно определять алгоритмически, позволяет придать НС важнейшее свойство - способности обучаться. На сегодняшний день существует огромное количество алгоритмов подстройки весов, которые успешно справляются с задачей обучений нейронной сети.A connection between individual neurons can exist, and it is communications between neurons, encoded by weight coefficients, that play a key role in the functioning of NS. The connections between the neurons in Fig.6 are indicated by the Latin letter W. The index in the upper part indicates the affiliation of the weight coefficient to the layer. One of the advantages of the NS is the possibility of parallel functioning of all elements, which significantly increases the efficiency of solving the problem as a whole. This feature of NS has been successfully used in pattern recognition systems. A neural network has inputs X and outputs Y, representing a system that generates an output state depending on the input. The presence of weighting coefficients that can be determined algorithmically allows us to give the NS the most important property - the ability to learn. Today, there are a huge number of weight adjustment algorithms that successfully cope with the task of training a neural network.

Рассмотрим алгоритм распознавания изображений территории с помощью нейронной сети. Допустим, что на фотографии (эталонном изображении) представлен образ изображения и система распознавания должна его идентифицировать. Для проведения правильной идентификации система должна быть этому обучена. Так как цифровая фотография представляет собой матрицу значений интенсивности, то, например, для черно-белой фотографии шкала градации серого цвета имеет протяженность от 0 (черный цвет) до 255 (белый цвет). Таким образом, на вход нейронной сети можно подать значение каждого пикселя цифровой фотографии в виде информационной матрицы векторов

Figure 00000046
.Consider an algorithm for recognizing images of a territory using a neural network. Suppose that a photograph (reference image) presents an image of the image and the recognition system should identify it. For proper identification, the system must be trained in this. Since a digital photograph is a matrix of intensity values, for example, for a black-and-white photograph, the gray scale has a length from 0 (black) to 255 (white). Thus, the value of each pixel of a digital photograph can be fed to the input of a neural network in the form of an information matrix of vectors
Figure 00000046
.

Предположим, что система обучена узнавать 10 изображений территории. Следовательно, выходной слой нейронной сети должен содержать 10 нейронов, каждый из которых «обучен узнавать» соответствующую территорию. Если на выходе какого-либо нейрона сигнал является максимальным по отношению к другим, то этот нейрон является «победителем» распознавания. Поскольку он связан с образом определенной территории из этой десятки, то идентифицированным будет та территория, которой соответствует данный нейрон.Suppose the system is trained to recognize 10 images of a territory. Therefore, the output layer of the neural network must contain 10 neurons, each of which is “trained to recognize” the corresponding territory. If at the output of a neuron the signal is maximum in relation to others, then this neuron is the “winner” of recognition. Since it is associated with the image of a certain territory from this ten, the territory to which this neuron corresponds will be identified.

Заметим, что при применении всех описанных методов для распознавания изображений трехмерных объектов возникают трудности, связанные с пространственными поворотами и изменением условий освещенности. Изображения для различных углов поворота объекта могут существенно различаться, а часть информации на изображении теряться. Существенными являются трудности, связанные с внутриклассовыми вариациями. Для территорий такими вариациями являются изменение цвета, освещенности и геометрических характеристик территории.Note that when applying all the described methods for image recognition of three-dimensional objects, difficulties arise associated with spatial rotations and changes in lighting conditions. Images for different angles of rotation of the object can vary significantly, and some of the information in the image is lost. The difficulties associated with intraclass variations are significant. For territories, such variations are changes in the color, lighting, and geometric characteristics of the territory.

Человек при распознавании образов неосознанно привлекает огромный запас контекстных знаний, который накапливает на протяжении всей своей жизни. Нейросетевой метод, реализованный в навигационной компьютерной программе «Нейрокибер» обучаемой нейронной сети, потенциально позволяет смоделировать происходящие при распознавании образов процессы в мозге человека, который в первом приближении можно представить в виде нейронной сети большой сложности.When recognizing images, a person unconsciously attracts a huge supply of contextual knowledge, which he accumulates throughout his life. The neural network method implemented in the Neurociber navigation computer program of the trained neural network, potentially allows you to simulate the processes occurring during pattern recognition in the human brain, which in a first approximation can be represented as a neural network of great complexity.

Рассмотрим результаты экспериментальных исследований программы «Нейрокибер». После получения текущего кадра изображения проводится его последующая загрузка в буфер модуля поиска аномального участка на изображении территории (или поиск другого изображения).Consider the results of experimental studies of the Neurociber program. After receiving the current image frame, it is subsequently loaded into the buffer of the search module of the anomalous area on the territory image (or search for another image).

Модуль поиска аномального участка на изображении территории предназначен для обнаружения на изображении областей, содержащих данные объекты или с подозрением на данные изменения, для последующей передачи содержимого этих областей модулю распознавания изменений на основе нейронных сетей. Модуль поиска аномального участка на изображении территории реализует алгоритм обнаружения объектов с использованием каскадов классификаторов, работающих с подобными особенностями.The module for searching for an abnormal area in the image of the territory is designed to detect areas containing these objects or with suspicion of these changes in the image, for subsequent transmission of the contents of these areas to the module for recognizing changes based on neural networks. The abnormal area search module on the territory image implements an algorithm for detecting objects using cascades of classifiers working with similar features.

Алгоритм использует сохраненный в памяти каскад классификаторов, созданный в результате «тренировки» каскада на массиве «положительных» изображений (содержащих данные изменения) и «отрицательных» изображений (изображения того же размера, не содержащие изменения участков территории).The algorithm uses a cascade of classifiers stored in memory, created as a result of “training” the cascade on an array of “positive” images (containing change data) and “negative” images (images of the same size that do not contain changes in areas of the territory).

После загрузки каскада он может быть применен к участку на изображении. Результатом операции является значение «1», если участок содержит похожий на аномальный участок на изображении территории, и значение «0» в ином случае. При анализе полного изображения каскад несколько раз масштабируется и «передвигается» по всему изображению для обнаружения аномальных участков на изображении территории, расположенных на разных участках изображения.After loading the cascade, it can be applied to the plot in the image. The result of the operation is the value "1" if the site contains a similar to an abnormal site in the image of the territory, and the value "0" otherwise. When analyzing the full image, the cascade is scaled several times and “moves” throughout the image to detect abnormal areas in the image of the territory located in different parts of the image.

Слово «каскад классификаторов» в названии алгоритма означает, что объект под этим именем содержит несколько уровней классификаторов, которые последовательно, уровень за уровнем, применяются к исследуемому участку изображения, пока на одном из уровней участок изображения будет признан «отрицательным», либо все уровни будут пройдены и участок изображения будет признан «положительным». Хаар-подобные особенности являются входами отдельных классификаторов и рассчитываются следующим образом (см. фиг.7).The word “cascade of classifiers” in the name of the algorithm means that the object under this name contains several levels of classifiers, which are applied sequentially, level by level, to the studied image section, until at one of the levels the image section is recognized as “negative”, or all levels will be passed and the image section will be considered “positive”. Haar-like features are inputs of individual classifiers and are calculated as follows (see Fig. 7).

Особенность, используемая в конкретном классификаторе, задается ее положением внутри рассматриваемого участка изображения, масштабом и шаблоном (фиг.7).The feature used in a particular classifier is determined by its position inside the considered image area, scale and pattern (Fig. 7).

Например, в случае с третьей линейной особенностью (фиг.7, шаблон 2с) отклик вычисляется как разница между суммой пикселей изображения под прямоугольником, включающим всю особенность полностью (две белые полоски и черную полоску посередине) и суммой пикселей изображения под черной полоской, умноженной на 3, чтобы компенсировать разницу в размере площадей.For example, in the case of the third linear feature (Fig. 7, template 2c), the response is calculated as the difference between the sum of the pixels of the image under the rectangle that includes the entire feature (two white stripes and a black strip in the middle) and the sum of the pixels of the image under the black strip multiplied by 3 to compensate for the difference in the size of the areas.

По совокупности таких особенностей модуль поиска аномального участка на изображении территории обнаруживает на изображении все области, содержащие аномальные участки на изображении территории, вырезает их и передает для обработки модулю распознавания аномального участка на изображении территории на основе нейронных сетей.Based on the totality of these features, the search module for an anomalous area in the image of the territory detects all areas containing abnormal areas in the image of the area, cuts them out and passes it to the recognition module for recognizing the anomalous area in the image of the area based on neural networks.

Модуль распознавания аномального участка на изображении территории на основе нейронных сетей при загрузке осуществляет чтение базы данных нейронной сети, обученной распознавать данное изменение памяти компьютера.The module for recognizing an abnormal area in the image of a territory based on neural networks, when loading, reads a database of a neural network trained to recognize this change in computer memory.

Когда модуль поиска аномального участка на изображении территории передает область изображения, которая содержит аномальный участок, модуль распознавания на основе нейронных сетей подает пиксели данного изображения, представленные в диапазон [-1; +1], на вход обученной нейронной сети. В результате на ее выходе значение +1 появляется на нейроне, соответствующем одному из сохраненных в базе данных типу изменения изображения (или типу изображения). Остальные нейроны в этом случае должны иметь значение -1. В ином случае вследствие воздействия помех при распознавании (например, низкая или неравномерная освещенность, большой угол поворота транспортного средства и т.п.) значения отличаются от 1. Если отличие превышает заданный при компиляции порог, то объект считается нераспознанным и модуль распознавания аномального участка на изображении территории на основе нейронных сетей возвращает строку «неизвестный участок». В случае успешного распознавания модуль распознавания аномального участка на изображении территории на основе нейронных сетей выполняет поиск в базе данных, сопоставленной распознанному изменению строки (описание данного изменения) и возвращает ее как результат распознавания. Программа «Нейрокибер» выделяет идентифицированный аномальный участок на изображении территории.When the search module for the anomalous area in the territory image transmits an image area that contains the anomalous area, the neural network recognition module supplies the pixels of this image presented in the range [-1; +1], to the input of a trained neural network. As a result, at its output, the value +1 appears on the neuron corresponding to one of the type of image change (or type of image) stored in the database. The remaining neurons in this case should have a value of -1. Otherwise, due to the influence of interference during recognition (for example, low or uneven illumination, a large angle of rotation of the vehicle, etc.), the values differ from 1. If the difference exceeds the threshold set during compilation, the object is considered unrecognized and the recognition module of the anomalous section is the image of the territory based on neural networks returns the string "unknown section". In case of successful recognition, the recognition module of the anomalous area on the image of the territory based on neural networks searches the database associated with the recognized change in the line (description of this change) and returns it as the result of recognition. The Neurociber program identifies an identified abnormal area in the image of the territory.

Так как задача, решаемая нейронной сетью, классификация, то для решения данной задачи нейронной сети достаточно одного выхода. Выходное значение нейронной сети находится в интервале [-1; 1], что соответственно означает отсутствие или присутствие исследуемого объекта на классифицируемом изображении.Since the problem solved by the neural network is classification, then one output is enough to solve this problem of the neural network. The output value of the neural network is in the range [-1; 1], which accordingly means the absence or presence of the investigated object in the classified image.

Входной слой размером 28×32 нейронов служит для подачи входного образа в нейронную сеть. Следом за входным слоем находится сверточный слой С1, который состоит из 5 плоскостей и выполняет свертывание входного изображения с помощью синаптической маски размером 5×5.The input layer of 28 × 32 neurons serves to feed the input image into the neural network. Next to the input layer is a convolutional layer C1, which consists of 5 planes and coagulates the input image using a 5 × 5 synaptic mask.

Размер сверточной плоскости определяется в соответствии со следующим выражением:The size of the convolution plane is determined in accordance with the following expression:

Figure 00000047
.
Figure 00000047
.

hc=hu-K+1,h c = h u -K + 1,

где wu, hu - ширина и высота сверточной плоскости соответственно;where w u , h u are the width and height of the convolution plane, respectively;

wc, hc - ширина и высота плоскости следующего слоя;w c , h c - width and height of the plane of the next layer;

K - ширина (высота) окна сканирования.K is the width (height) of the scan window.

Размер плоскости сверточного слоя С1 составляет 24×28 нейронов.The plane size of the convolutional layer C1 is 24 × 28 neurons.

Рецептивные области нейронов пересекаются. Нейроны извлекают одни и те же особенности входного изображения независимо от их точного местоположения. Следующий за слоем С1 подвыборочный слой S1 состоит из 5 карт характеристик и обеспечивает локальное усреднение и подвыборку. После операции подвыборки точное местоположение и специфические признаки каждой особенности становятся менее важными, что дает довольно большую степень инвариантности данной сети. Каждая плоскость слоя S1 связана лишь с одной плоскостью слоя С1. Размер каждой плоскости слоя S1 12×14 нейронов, что вдвое меньше, чем размер плоскости предыдущего слоя. Сверточный слой С2 состоит из 20 плоскостей размером 8×10 нейронов, слои S1 и С2 перекрестно связаны. Различные карты особенностей необходимы для извлечения различных характеристик, потому что они получают различные наборы входов. Таким образом, сети добавляется способность объединять различные виды особенностей, чтобы составлять новые, менее зависящие от искажений входного изображения. Слой S2 состоит из 20 плоскостей, по каждой на одну плоскость слоя С2, размер каждой плоскости 4х5 нейронов. Слои N1 и N2 содержат простые сигмоидальные нейроны. Роль этих слоев состоит в обеспечении классификации, после того как выполнены извлечение особенностей и сокращение размерности входа. В слое N1 находится 20 нейронов (по одному на каждую плоскость слоя S2), каждый нейрон полностью связан с каждым нейроном только одной плоскости слоя S2, он пропускает результат через активационную функцию. Единственный нейрон слоя N2 полностью связан со всеми нейронами слоя N1. Роль этого нейрона состоит в вычислении окончательного результата классификации. Выход этого нейрона используется для классификации входного образа на заданную территорию и произвольную (случайную) территорию.Receptive areas of neurons intersect. Neurons extract the same features of the input image regardless of their exact location. The subsampling layer S1 following layer C1 consists of 5 characteristic maps and provides local averaging and subsampling. After the subsampling operation, the exact location and specific features of each feature become less important, which gives a rather large degree of invariance of this network. Each plane of layer S1 is associated with only one plane of layer C1. The size of each plane of the S1 layer is 12 × 14 neurons, which is half that of the plane of the previous layer. The convolutional layer C2 consists of 20 planes 8 × 10 neurons in size, layers S1 and C2 are cross-linked. Different feature maps are needed to extract different characteristics because they receive different sets of inputs. Thus, the network is added the ability to combine different kinds of features to make up new, less dependent on the distortion of the input image. Layer S2 consists of 20 planes, each on one plane of layer C2, the size of each plane is 4x5 neurons. Layers N1 and N2 contain simple sigmoid neurons. The role of these layers is to ensure classification after the extraction of features and reduction of the dimension of the input are performed. There are 20 neurons in the N1 layer (one for each plane of the S2 layer), each neuron is completely connected to each neuron of only one plane of the S2 layer, it passes the result through the activation function. The only neuron of the N2 layer is completely connected with all the neurons of the N1 layer. The role of this neuron is to calculate the final classification result. The output of this neuron is used to classify the input image into a given territory and an arbitrary (random) territory.

В основе всех способов обучения положен единый принцип - минимизация ошибки. В многослойных сетях оптимальные значения нейронов всех слоев, кроме последнего слоя, как правило, не известны. Поэтому такие сети уже невозможно обучить, руководствуясь только величинами ошибок на выходах нейронной сети. Основная идея используемого метода обратного распространения ошибки состоит в том, что сигнал ошибки распространяется от выходов сети к ее входам, в направлении, обратном направлению распространения сигналов в обычном режиме работы.All teaching methods are based on a single principle - error minimization. In multilayer networks, the optimal values of neurons of all layers except the last layer, as a rule, are not known. Therefore, such networks can no longer be trained, guided only by the magnitude of the errors at the outputs of the neural network. The main idea of the used method of back propagation of the error is that the error signal propagates from the outputs of the network to its inputs, in the direction opposite to the direction of propagation of signals in normal operation.

Для тестирования программы были выбраны 150 заданных и 50 произвольных изображений территории. Методика тестирования заключалась в следующем. При подаче первого изображения в нейронную сеть весовые коэффициенты генерировались случайным образом. Для остальных изображений веса корректировались последовательно с учетом ранее вычисленных значений. Для произвольных образов первоначальное значение весовых коэффициентов было взято из расчета заданных образов. Затем веса последовательно корректировались путем обработки изображений.To test the program, 150 preset and 50 arbitrary images of the territory were selected. The testing methodology was as follows. When the first image was fed into the neural network, weights were randomly generated. For the remaining images, the weights were adjusted sequentially based on previously calculated values. For arbitrary images, the initial value of the weight coefficients was taken from the calculation of the given images. Then the weights were subsequently adjusted by image processing.

Результаты тестирования - отклики программы - приведены в таблицах 1 и 2. Таким образом, для решения задачи классификации изображений можно эффективно использовать искусственные нейронные сети, а именно сверточные нейронные сети, как обладающие устойчивостью к изменениям масштаба, смещениям, поворотам, смене ракурса и прочим искажениям, что является очень важным при обработке изображений.The test results — the responses of the program — are given in Tables 1 and 2. Thus, to solve the problem of image classification, artificial neural networks can be effectively used, namely convolutional neural networks, which are resistant to changes in scale, displacements, rotations, change of angle and other distortions , which is very important when processing images.

Испытания показали, что программа «Нейрокибер» способна в реальном времени запоминать посредством встроенного инструментария для добавления в базу данных новых аномальных участков на изображении территории и затем распознавать аномальные участки на изображении территории при фиксированных условиях освещенности.Tests have shown that the Neurociber program is able to memorize in real time using the built-in tools to add new anomalous areas to the database image of the area and then recognize the anomalous areas on the image of the territory under fixed lighting conditions.

Таблица 1Table 1 Результаты тестирования нейронной сети на заданных изображениях территорииThe results of testing a neural network on given images of the territory No. Отклик сетиNetwork response No. Отклик сетиNetwork response No. Отклик сетиNetwork response No. Отклик сетиNetwork response No. Отклик сетиNetwork response 1one 0,9920,992 3131 0,9990,999 6161 0,9890.989 9191 0,9990,999 121121 0,9990,999 22 0,9990,999 3232 0,9990,999 6262 0,9990,999 9292 0,9790.979 122122 1,0001,000 33 1,0001,000 3333 0,9800.980 6363 0,9990,999 9393 0,9890.989 123123 ,1,000, 1,000 4four 0,9990,999 3434 1,0001,000 6464 0,9990,999 9494 0,9950,995 124124 0,9990,999 55 0,9990,999 3535 0,9990,999 6565 0,9990,999 9595 1,0001,000 125125 0,9980,998 66 0,9990,999 3636 1,0001,000 6666 1,0001,000 9696 0,9990,999 126126 0,9960,996 77 0,9990,999 3737 0,9930,993 6767 1,0001,000 9797 0,9740.974 127127 0,9990,999 88 0,9860.986 3838 1,0001,000 6868 0,9990,999 9898 0,9990,999 128128 1,0001,000 99 0,9990,999 3939 0,9950,995 6969 0,9990,999 9999 1,0001,000 129129 1,0001,000 1010 1,0001,000 4040 1,0001,000 7070 1,0001,000 100one hundred 1,0001,000 130130 0,9990,999 11eleven 0,9990,999 4141 0,9990,999 7171 0,9720.972 101101 1,0001,000 131131 1,0001,000 1212 1,0001,000 4242 0,9990,999 7272 0,9990,999 102102 1,0001,000 132132 1,0001,000 1313 0,9990,999 4343 1,0001,000 7373 0,9880.988 103103 0,9990,999 133133 0,9550.955 14fourteen 0,9880.988 4444 0,9990,999 7474 1,0001,000 104104 1,0001,000 134134 0,9990,999 15fifteen 0,9990,999 4545 1,0001,000 7575 1,0001,000 105105 0,9590.959 135135 0,9990,999 1616 0,9940,994 4646 0,9990,999 7676 0,9910,991 106106 0,9990,999 136136 1,0001,000 1717 1,0001,000 4747 0,9820.982 7777 1,0001,000 107107 1,0001,000 137137 1,0001,000 18eighteen 0,9990,999 4848 0,9980,998 7878 1,0001,000 108108 0,9960,996 138138 1,0001,000 1919 0,9990,999 4949 1,0001,000 7979 0,9990,999 109109 0,9930,993 139139 1,0001,000 20twenty 1,0001,000 50fifty 1,0001,000 8080 0,9990,999 110110 1,0001,000 140140 0,9990,999 2121 1,0001,000 5151 0,9990,999 8181 1,0001,000 111111 1,0001,000 141141 0,9990,999 2222 0,9550.955 5252 0,9980,998 8282 1,0001,000 112112 1,0001,000 142142 0,9990,999 2323 1,0001,000 5353 1,0001,000 8383 1,0001,000 113113 1,0001,000 143143 0,9990,999 2424 0,9600.960 5454 0,9870.987 8484 1,0001,000 114114 0,9990,999 144144 0,9690.969 2525 1,0001,000 5555 0,9990,999 8585 0,9620.962 115115 0,9990,999 145145 0,9990,999 2626 1,0001,000 5656 0,9990,999 8686 0,9810.981 116116 0,9950,995 146146 1,0001,000 2727 0,9940,994 5757 1,0001,000 8787 1,0001,000 117117 1,0001,000 147147 1,0001,000 2828 0,9990,999 5858 0,9960,996 8888 1,0001,000 118118 0,9980,998 148148 1,0001,000 2929th 1,0001,000 5959 0,9990,999 8989 0,9990,999 119119 1,0001,000 149149 1,0001,000 30thirty 1,0001,000 6060 1,0001,000 9090 0,9990,999 120120 0,9990,999 150150 1,0001,000

Таблица 2table 2 Результаты тестирования нейронной сети на произвольных изображениях территорииTest results of a neural network in arbitrary images of the territory No. Отклик сетиNetwork response No. Отклик сетиNetwork response No. Отклик сетиNetwork response No. Отклик сетиNetwork response 1one -0,999999-0.999999 14fourteen -0,999984-0.999984 2727 -0,999999-0.999999 4040 -0,999999-0.999999 22 -0,999999-0.999999 15fifteen -0,999999-0.999999 2828 -0,999999-0.999999 4141 -0,999999-0.999999 33 -0,999999-0.999999 1616 -0,999999-0.999999 2929th -0,999999-0.999999 4242 -0,999999-0.999999 4four -0,999999-0.999999 1717 -0,999999-0.999999 30thirty -0,999999-0.999999 4343 -0,999999-0.999999 55 -0,999999-0.999999 18eighteen -0,999999-0.999999 3131 -0,999999-0.999999 4444 -0,999999-0.999999 66 -0,999999-0.999999 1919 -0,999999-0.999999 3232 -0,999999-0.999999 4545 -0.999981-0.999981 77 -0,999999-0.999999 20twenty -0,999999-0.999999 3333 -0,999999-0.999999 4646 -0,999999-0.999999 88 -0,999999-0.999999 2121 -0,999999-0.999999 3434 -0,999999-0.999999 4747 -0,999999-0.999999 99 -0,999999-0.999999 2222 -0,999999-0.999999 3535 -0,999999-0.999999 4848 -0,999999-0.999999 1010 -0,999999-0.999999 2323 -0,999983-0.999983 3636 -0,999999-0.999999 4949 -0,999999-0.999999 11eleven -0,999999-0.999999 2424 -0,999999-0.999999 3737 -0,999999-0.999999 50fifty -0,999999-0.999999 1212 -0,999983-0.999983 2525 -0,999999-0.999999 3838 -0,999999-0.999999 1313 -0,999999-0.999999 2626 -0,999999-0.999999 3939 -0,999999-0.999999

На фиг.8 представлена структура многомерного запоминающего устройства основного картографического указателя заданного курса, который включает следующие элементы:On Fig presents the structure of a multidimensional storage device of the main cartographic index of a given course, which includes the following elements:

55 - основной радиолокационный картографический указатель заданного курса (ОРКУЗК);55 - main radar cartographic index of a given course (ORKUZK);

56 - основной инфракрасный картографический указатель заданного курса (ОИКУЗК);56 - the main infrared cartographic indicator of a given course (OIKUZK);

57 - основной телевизионный картографический указатель заданного курса (ОТКУЗК);57 - the main television cartographic index of a given course (HOSE);

58 - основной астрономический указатель заданного курса (ОАКУЗК);58 - the main astronomical index of a given course (OAKUZK);

59 - основной спутниковый картографический указатель заданного курса (ОСКУЗК);59 - the main satellite map index of a given course (OSKUZK);

60 - основной топографический картографический указатель заданного курса (ОТУЗК);60 - the main topographic cartographic index of a given course (HOLES);

61-66 - реперные метки (начало первой строки кадра изображения); соответственно ОРКУЗК (55), ОИКУЗК (56), ОТКУЗК (57), ОАКЗК (58), ОСКУЗК (59), ОТКУЗК (60);61-66 - reference marks (beginning of the first line of the image frame); respectively, ORKUZK (55), OIKUZK (56), HIGH SCHOOL (57), OAHK (58), OSKUZK (59), HOLIDAY (60);

67-72 - реперные метки (конец первой строки кадра изображения); соответственно ОРКУЗК (55), ОИКУЗК (56), ОТКУЗК (57), ОАКЗК (58), ОСКУЗК (59), ОТКУЗК (60);67-72 - reference marks (end of the first line of the image frame); respectively, ORKUZK (55), OIKUZK (56), HIGH SCHOOL (57), OAHK (58), OSKUZK (59), HOLIDAY (60);

73-78 - реперные метки (начало последней строки кадра изображения) соответственно ОРКУЗК (55), ОИКУЗК (56), ОТКУЗК (57), ОАКЗК (58), ОСКУЗК (59). ОТКУЗК (60);73-78 - reference marks (the beginning of the last line of the image frame), respectively, ORKUZK (55), OIKUZK (56), HOLIDAY (57), OAKZK (58), OSKUZK (59). HOLIDAY (60);

79-84 - реперные метки (конец последней строки кадра изображения) соответственно ОРКУЗК (55), ОИКУЗК (56), ОТКУЗК (57), ОАКЗК (58), ОСКУЗК (59), ОТКУЗК (60).79-84 - reference marks (end of the last line of the image frame), respectively, ORKUZK (55), OIKUZK (56), OTKUZK (57), OAKZK (58), OSKUZK (59), OTKUZK (60).

Многомерный основной картографический указатель заданного курса представляет собой многослойную цифровую модель или фотографию изображения.A multidimensional main cartographic indicator of a given course is a multilayer digital model or photograph of an image.

На фиг.9 представлено поле информативных параметров (ИП) основного радиолокационного картографического указателя заданного курса (РЗ). Здесь введены следующие обозначения:Figure 9 presents the field of informative parameters (IP) of the main radar cartographic index of a given course (RE). The following notation is introduced here:

Figure 00000048
Figure 00000049
- координаты центра «тяжести» элемента изображения в системе координат XOY;
Figure 00000048
Figure 00000049
- coordinates of the center of gravity of the image element in the XOY coordinate system;

Figure 00000050
- коэффициент формы;
Figure 00000050
- form factor;

Figure 00000051
- число перегибов контура элемента изображения;
Figure 00000051
- the number of bends in the contour of the image element;

Figure 00000052
- площадь элемента изображения;
Figure 00000052
- the area of the image element;

Figure 00000053
- периметр элемента изображения;
Figure 00000053
- the perimeter of the image element;

a - элементы изображения; a - image elements;

i, j - координаты пикселя в системе координат XOY.i, j - pixel coordinates in the XOY coordinate system.

На фиг.10 показано поле ИП основного инфракрасного картографического указателя заданного курса (ИЗ). Здесь все обозначения соответствуют обозначениям, представленным на фиг.9.Figure 10 shows the IP field of the main infrared cartographic index of a given course (FROM). Here, all the symbols correspond to the symbols presented in Fig.9.

На фиг.11 представлено поле ИП основного телевизионного картографического указателя заданного курса. Здесь введены следующие обозначения:Figure 11 presents the IP field of the main television cartographic index of a given course. The following notation is introduced here:

Figure 00000054
,
Figure 00000055
,
Figure 00000056
,
Figure 00000057
,
Figure 00000058
,
Figure 00000059
,
Figure 00000060
- соответственно, уровни красного, зеленого, синего, пурпурного, желтого, голубого и белого цветов;
Figure 00000054
,
Figure 00000055
,
Figure 00000056
,
Figure 00000057
,
Figure 00000058
,
Figure 00000059
,
Figure 00000060
- respectively, the levels of red, green, blue, magenta, yellow, cyan and white;

Figure 00000061
,
Figure 00000062
,
Figure 00000063
- соответственно, длина, ширина и ориентация элемента изображения (угол между продольной осью элемента и осью системы координат изображения);
Figure 00000061
,
Figure 00000062
,
Figure 00000063
- accordingly, the length, width and orientation of the image element (the angle between the longitudinal axis of the element and the axis of the image coordinate system);

Figure 00000064
,
Figure 00000065
,
Figure 00000066
,
Figure 00000067
,
Figure 00000068
- значения обозначений соответствуют обозначениям, представленным на фиг.9.
Figure 00000064
,
Figure 00000065
,
Figure 00000066
,
Figure 00000067
,
Figure 00000068
- the values of the symbols correspond to the symbols presented in Fig.9.

На фиг.12 показано поле ИП основного астрономического картографического указателя заданного курса (A3). Здесь введены следующие обозначения:12 shows the IP field of the main astronomical cartographic index of a given course (A3). The following notation is introduced here:

Figure 00000069
,
Figure 00000070
,
Figure 00000071
- соответственно, координаты центра «тяжести» элементов (совокупности изображений звезд) ОАКУЗК;
Figure 00000069
,
Figure 00000070
,
Figure 00000071
- accordingly, the coordinates of the center of gravity of the elements (the totality of the images of the stars);

Figure 00000072
- угол между продольной осью совокупности ориентиров (звезд) и какой-либо осью системы координат XOY;
Figure 00000072
- the angle between the longitudinal axis of the set of landmarks (stars) and any axis of the XOY coordinate system;

Figure 00000073
Figure 00000074
- координаты элементов изображения, преобразованные в полярную систему координат;
Figure 00000073
Figure 00000074
- coordinates of image elements converted to a polar coordinate system;

Figure 00000075
- количество звезд;
Figure 00000075
- number of stars;

Figure 00000076
,
Figure 00000077
- соответственно, минимальный и максимальный радиус-векторы локальных (или интегральных) участков изображений;
Figure 00000076
,
Figure 00000077
- respectively, the minimum and maximum radius vectors of local (or integral) image sections;

а - элементы изображения.and - image elements.

На фиг.13 представлено поле ИП основного спутникового картографического указателя заданного курса (СЗ). Здесь введены следующие обозначения:On Fig presents the field IP of the main satellite map of the specified course (SZ). The following notation is introduced here:

rij, νij - соответственно, радиус (орбиты), угловая скорость и ускорение спутника;r ij , ν ij - respectively, radius (orbits), angular velocity and satellite acceleration;

Figure 00000078
,
Figure 00000079
- координаты центра «тяжести» локального участка (интегральной площади) изображения;
Figure 00000078
,
Figure 00000079
- coordinates of the center of gravity of the local area (integral area) of the image;

αij - угол между продольной осью локального участка или интегральной площади изображения;α ij is the angle between the longitudinal axis of the local section or the integral image area;

а - элементы изображения.and - image elements.

На фиг.14 дано поле ИП основного топографического картографического указателя заданного курса (ТПЗ). Здесь введены следующие обозначения:On Fig given IP field of the main topographic cartographic index of a given course (TPZ). The following notation is introduced here:

Figure 00000080
- высоты соответствующих уровней z трехмерного изображения территорий;
Figure 00000080
- heights of the corresponding levels z of a three-dimensional image of territories;

остальные значения обозначений соответствуют обозначениям, представленным на фиг.9, 10, 11, 12.the remaining values of the symbols correspond to the symbols shown in Fig.9, 10, 11, 12.

Основные значения обозначений, представленных на фиг.9 - 14, определяются выражениями (2)-(14).The main meanings of the designations shown in Figs. 9-14 are determined by expressions (2) - (14).

Многомерное запоминающее устройство основного картографического указателя заданного курса работает следующим образом. В режиме записи (подготовки) эталонного изображения в картографические указатели заданного курса 55-60 записывается эталонное изображение. При этом в точках 61-84 расставляются реперные метки (оптические или электронные), с помощью которых обеспечивается правильное «сшивание» кадров изображения при монтаже интегрального основного картографического указателя заданного курса. Сшивание происходит по правилу: конец первой строки i-го кадра изображения - начало первой строки (i+n)-го кадра изображения; конец последней строки 1-го кадра изображения - начало последней строки (i+n)-го кадра изображения.Multidimensional storage device of the main cartographic index of a given course works as follows. In the recording (preparation) mode of the reference image, the reference image is recorded in the cartographic pointers of the given course 55-60. At the same time, reference marks (optical or electronic) are placed at points 61-84, with the help of which the correct "stitching" of image frames during installation of the integrated main cartographic index of a given course is ensured. Stitching occurs according to the rule: the end of the first line of the i-th image frame - the beginning of the first line of the (i + n) -th image frame; the end of the last line of the 1st image frame is the beginning of the last line of the (i + n) -th image frame.

На фиг.15 представлена структурная схема основного картографического указателя заданного курса (ОКУЗК) 16, который включает следующие изделия:On Fig presents a structural diagram of the main cartographic index of a given course (OKUZK) 16, which includes the following products:

85 - многомерное запоминающее устройство (МЗУ85);85 - multidimensional storage device (MZU85);

86 - блок управления записью-считыванием (БУЗС86);86 - control unit write-read (BUZS86);

87 - блок смещения, разворота и смены кадра изображения (БСРСКИ87).87 - block offset, reversal and change the image frame (BSRSKI87).

ОКУЗК 16 работает следующим образом. По сигналам от блока корреляционно-экстремальной обработки информации 17 осуществляется запись соответствующего изображения от интеллектуального блока обработки изображений 10 через блок записи изображения 86 в многомерное запоминающее устройство 85; это изображение затем из многомерного запоминающего устройства поступает в блок дополнительных фильтров основного картографического указателя заданного курса 14.OKUZK 16 works as follows. The signals from the correlation-extreme information processing unit 17 record the corresponding image from the intelligent image processing unit 10 through the image recording unit 86 into a multidimensional storage device 85; this image then from the multidimensional storage device enters the block of additional filters of the main cartographic index of the specified course 14.

На фиг.16 представлена структурная схема структурно-перестраиваемого блока управления (СПБУ) 11.On Fig presents a structural diagram of a structurally tunable control unit (SPBU) 11.

СПБУ состоит из следующих блоков:SPBU consists of the following blocks:

88 - блока функционального преобразователя входных сигналов (БФПвх);88 - block functional converter of the input signals (BFPvh);

89 - блока перестраиваемой вычислительной среды (БПВС);89 - block tunable computing environment (BPVS);

90 - блока настройки (БН);90 - tuning unit (BN);

91 - блока функционального преобразователя выходных сигналов (БФПвых). Ключевой составляющей рассматриваемого блока управления является БПВС 89. Под БПВС 89 будем понимать набор (Zk, V, Q), где Zk - множество k-мерных векторов с целыми координатами, задающих узлы k-мерной целочисленной решетки; V={v1, v2, …, vm+p} - перестраиваемый автомат, помещенный в каждый узел решетки, у которого n+p входных каналов, m+p выходных каналов (m основных, p боковых).91 - block functional converter output signals (BFPvy). A key component of the control unit under consideration is BPSA 89. By BPSA 89 we mean a set (Z k , V, Q), where Z k is the set of k-dimensional vectors with integer coordinates that specify the nodes of a k-dimensional integer lattice; V = {v 1 , v 2 , ..., v m + p } is a tunable automaton placed in each node of the lattice with n + p input channels, m + p output channels (m main, p side channels).

Figure 00000081
Figure 00000081

ЗдесьHere

Figure 00000082
,
Figure 00000082
,

где σij∈{0,1} (j=1,…,t),

Figure 00000083
,
Figure 00000084
t=log2R;where σ ij ∈ {0,1} (j = 1, ..., t),
Figure 00000083
,
Figure 00000084
t = log 2 R;

Figure 00000085
- i-я функция алгебры логики (i=1, 2,…, R), реализуемая на j-м выходе автомата (j=1, 2,…, m+p);
Figure 00000085
- the i-th function of the algebra of logic (i = 1, 2, ..., R), implemented at the j-th output of the automaton (j = 1, 2, ..., m + p);

x1,…, x(n+p) - информационные входы;x 1 , ..., x (n + p) - information inputs;

z1,…, zt - дополнительные входы, используемые для настройки автомата на требуемую структуру;z 1 , ..., z t - additional inputs used to configure the machine to the desired structure;

Q={υ1, υ2,…, υp}, где υi ∈ Zk, i=1,…, p - шаблон соседства: каждый вектор υ ∈ V для автомата с координатами υ определяет автомат с координатами υ+υ1, с i-м боковым выходным каналом которого соединен i-й боковой вход автомата в узле υ, i=1,…,р.Q = {υ 1 , υ 2 , ..., υ p }, where υ i ∈ Z k , i = 1, ..., p is a neighborhood pattern: each vector υ ∈ V for an automaton with coordinates υ defines an automaton with coordinates υ + υ 1 , with the i-th side output channel of which is connected the i-th side input of the machine in the node υ, i = 1, ..., p.

Под перестраиваемым автоматом будем понимать автомат, для которого задано множество реализуемых им автоматных отображений и определен алгоритм настройки на реализацию каждого из этих автоматных отображений. Перестраиваемый автомат можно представить как множество автоматов с одними и теми же выходами, причем настройка определяет тот автомат, выходы которого считаются при этой настройке выходами всего перестраиваемого автомата.By a tunable automaton we mean an automaton for which a set of automaton mappings implemented by it is given and an algorithm for tuning to implement each of these automaton mappings is defined. A tunable automaton can be represented as a set of automata with the same outputs, and the setting determines the automaton whose outputs are considered the outputs of the entire tunable automaton at this setting.

БФПвх 88 осуществляет преобразование входной информации в двоичную форму; БН 90 на основе входной информации вырабатывает коды настройки вычислительной среды на необходимый в текущий момент времени алгоритм работы; БФПвых 91 преобразовывает двоичный сигнал с вычислительной среды в сигнал, удобный для восприятия и переработки полученной информации в других блоках.BFPvh 88 converts the input information into binary form; BN 90 on the basis of the input information generates codes for setting up the computing environment for the algorithm of work necessary at the current time; BFPvy 91 converts a binary signal from the computing environment into a signal convenient for perceiving and processing the received information in other blocks.

БПВС 89 представляет собой матрицу размером m×n, образованную коллективом вычислителей на основе перестраиваемых автоматов. На фиг.17 приведен пример БПВС 89 для (m=6 - количество строк, n=7 - количество столбцов) и для перестраиваемого автомата, описывающегося системой формул:BPVS 89 is an m × n matrix formed by a team of calculators based on tunable automata. In Fig.17 shows an example of BPS 89 for (m = 6 is the number of rows, n = 7 is the number of columns) and for a tunable automaton described by a system of formulas:

Figure 00000086
Figure 00000086

Здесь f1, f2 - выходы автомата;Here f 1 , f 2 are the outputs of the automaton;

y1, y2 - информационные входы;y 1 , y 2 - information inputs;

x - вход;x is the input;

z1, z2, z3, - входы настройки.z 1 , z 2 , z 3 , - settings inputs.

На фиг.17 для каждого перестраиваемого автомата в нижнем левом углу приведен его код настройки на текущее автоматное отображение, так для автомата с координатами (1, 1) приведен код 001, что соответствует z1=0, z2=0, z3=1.On Fig for each tunable automaton in the lower left corner its code for setting the current automatic display is shown, so for the automaton with coordinates (1, 1) the code 001 is shown, which corresponds to z 1 = 0, z 2 = 0, z 3 = one.

На фиксированные четыре входа перестраиваемой вычислительной среды подаются величины (hk, k=1, 2, …, 4). Для настройки, представленной на фиг.17, а на выходах f1 и f2 вычислительной среды реализуются функции:The fixed four inputs of the tunable computing environment are supplied with values (h k , k = 1, 2, ..., 4). For the settings presented in Fig.17, and at the outputs f 1 and f 2 computing environment functions are implemented:

Figure 00000087
Figure 00000087

а при изменении кода настройки одного из автомата с координатами (2, 7) в матрице вычислительной среды на код z1=0, z2=0, z3=1 (фиг.17, б) на выходах f1 и f2 вычислительной среды реализуются функции:and when you change the setup code of one of the machines with coordinates (2, 7) in the matrix of the computing environment on the code z 1 = 0, z 2 = 0, z 3 = 1 (Fig.17, b) at the outputs f 1 and f 2 computing environment implemented functions:

Figure 00000088
Figure 00000088

На фиг.18 дана структурная схема блока подключения датчика изображения (БПДИ) 9, который работает следующим образом. Работа блока 9 начинается по сигналу от синхронизатора 12. На сумматор структурных параметров изображений с картографических указателей поступают сигналы через мультиплексор 96 от интеллектуального блока обработки изображений 10. Эти сигналы, характеризующие тип структуры изображения (обычные, контурные, точечные и др.) и вычисляющиеся по формулам (12)-(14), (24) подаются на первый вход схемы сравнения 93, на второй вход которой поступают сигналы от сумматора параметров (крутизны) взаимно-корреляционной функции 95. Информация на сумматор 95 приходит от ИБОИ 10. На третий вход схемы сравнения 93 поступают эталонные сигналы K, K от памяти эталонных параметров 94. Схема сравнения 93 функционирует по правилу:On Fig given a structural diagram of a unit for connecting an image sensor (BPI) 9, which operates as follows. The operation of block 9 begins with a signal from the synchronizer 12. The signals are transmitted to the adder of the structural parameters of the images from the cartographic pointers through a multiplexer 96 from the intelligent image processing unit 10. These signals characterize the type of image structure (ordinary, contour, point, etc.) and are calculated by formulas (12) - (14), (24) are fed to the first input of the comparison circuit 93, the second input of which receives signals from the adder of parameters (steepness) of the cross-correlation function 95. Information to the adder 95 come from IBOI 10. The third input of the comparator circuit 93 receives the reference signals ie K, K fe reference parameters from a memory 94. The comparison circuit 93 operates according to the rule:

Figure 00000089
Figure 00000089

где Ka - адаптивный интегральный коэффициент;where K a is the adaptive integral coefficient;

Ki, K - коэффициенты, характеризующие текущие и эталонные информативные геометрические параметры изображений;K i , K i - coefficients characterizing the current and reference informative geometric parameters of the images;

KF, K - коэффициенты, характеризующие текущие и эталонные крутизны ВКФ, соответственно;K F , K Fe - coefficients characterizing the current and reference steepness of the VKF, respectively;

KЦ, KЦэ - коэффициенты, характеризующие текущие и эталонные цветные изображения.K C , K Tse - coefficients characterizing the current and reference color images.

При выполнении условия (24) включается через мультиплексор 96 требуемый датчик (или датчики) картографического указателя истинного курса.When condition (24) is fulfilled, the required sensor (or sensors) of the cartographic indicator of the true course is turned on via the multiplexer 96.

Другие блоки (блок астродатчиков 3, РКУМК 4, ОТДИ 5, БСНС 6, БИНС 7, БПИТК 8, ИДИ 2, БПДИ 9, СПБУ 11, БДФКУИК 14, БДОКУЗК 15, ОКУЗК 16) выполнены в соответствии с рекомендациями, изложенными в [1-5, 8].Other blocks (astro sensors block 3, RKUMK 4, OTDI 5, BSNS 6, BINS 7, BPITK 8, IDI 2, BPDI 9, SPBU 11, BDFKUIK 14, BDOKUZK 15, OKUZK 16) were made in accordance with the recommendations set forth in [1 -5, 8].

По сравнению с известными предлагаемые способ и устройство обладают улучшенными функциональными возможностями за счет повышения точности, быстродействия определения координат движения объекта, помехоустойчивости и помехозащищенности.Compared with the known, the proposed method and device have improved functionality by increasing the accuracy, speed of determining the coordinates of the movement of the object, noise immunity and noise immunity.

Покажем это на примере. Высокие точностные характеристики предлагаемого устройства обеспечиваются, во-первых, за счет введения дополнительных датчиков изображений (дополнительных картографических указателей истинного курса), во-вторых, путем введения нейросетевого фильтра подавления помех, в-третьих, за счет эффективного преобразования изображений (выделения информативных признаков), в-четвертых, с помощью введения блока нейросетевого распознавания изображений, в-пятых, использования структурно-перестраиваемого блока управления, в-шестых, за счет совмещения сравниваемых изображений по цвету, масштабу, крену, тангажу и угловому рассогласованию.We show this by example. High accuracy characteristics of the proposed device are ensured, firstly, by introducing additional image sensors (additional cartographic indicators of the true course), secondly, by introducing a neural network interference suppression filter, and thirdly, by efficiently converting images (highlighting informative features) fourthly, by introducing a neural network image recognition unit, fifthly, using a structurally tunable control unit, sixthly, due to the combination of tions compared images in color, scale, roll, pitch and angular misalignment.

Введение дополнительных картографических указателей истинного курса обеспечит подключение в случае необходимости требуемого датчика, который сформирует наиболее достоверное (интегральное) изображение территории (радиолокационное, телевизионное, инфракрасное, оптическое, радиотехническое, гравитационное, топографическое). С помощью дополнительного инерциального картографического указателя 7 обеспечивается предоставление предварительных навигационных параметров; это дает возможность вывода объекта в заданный район территории. Причем адаптивный нейросетевой фильтр подавления помех обеспечит эффективную фильтрацию полезного сигнала от помех, поступающего от блока подключения изображений 10. Это обеспечит с высокой точностью местоопределение (определения координат) объекта.The introduction of additional cartographic indicators of the true course will ensure the connection, if necessary, of the required sensor, which will form the most reliable (integral) image of the territory (radar, television, infrared, optical, radio engineering, gravity, topographic). Using an additional inertial cartographic index 7 provides the provision of preliminary navigation parameters; this makes it possible to withdraw the object to a given area area. Moreover, the adaptive neural network interference suppression filter will provide effective filtering of the useful signal from interference coming from the image connection unit 10. This will provide with high accuracy the location (determination of coordinates) of the object.

Блок нейросетевого распознавания изображений 19 осуществит распознавание с высокой точностью (вероятностью) территории даже при наличии значительного уровня помех; это исключит сбой в работе блока корреляционной обработки информации 17, который затем осуществит более точное местоопределение объекта, по сравнению с известными способом и устройством.The neural network image recognition unit 19 will recognize the area with high accuracy (probability) even if there is a significant level of interference; this will eliminate a malfunction in the block of correlation processing of information 17, which then will carry out a more accurate location of the object, compared with the known method and device.

Точность местоопределения повышается также за счет совмещения сравниваемых изображений по цвету, масштабу, крену, тангажу и угловому рассогласованию. То есть устраняются рассогласования картографического указателя заданного курса относительно истинного курсаThe accuracy of positioning is also improved by combining the compared images in color, scale, roll, pitch and angular mismatch. That is, the mismatch of the cartographic index of a given course relative to the true course is eliminated

Figure 00000090
Figure 00000090

где Ц, Н, β, γ, α - значения цвета, масштаба, крена, тангажа и углового рассогласования сравниваемых изображений, соответственно.where C, H, β, γ, α are the values of color, scale, roll, pitch and angular mismatch of the compared images, respectively.

Применение структурно-перестраиваемого блока управления 11 обеспечит точное управление движением объекта (например, точное управление движением по заданному маршруту) путем структурной и параметрической оптимизации (т.е. оптимального изменения своей структуры и подбор своих параметров).The use of a structurally tunable control unit 11 will provide precise control of the movement of the object (for example, precise control of movement along a given route) by structural and parametric optimization (i.e., optimal change in its structure and selection of its parameters).

Расширение функциональных возможностей осуществляется за счет, во-первых, получения дополнительной информации от ДИКУИК 2, ДАКУИК 3, ДТКУИК 5, ДСКУИК 6, ДИКУИК 7, ДФКУИКТК 8 о территории, в которой необходимо произвести точное местоопределение, во-вторых, введения БНРИ 19, обеспечивающего распознавание широкого класса изображений (по сравнению с известными способом и устройством), в-третьих, введения СПБУ 11, реализующего управлением движения объекта при изменении оперативной навигационной задачи.The expansion of functionality is carried out by, firstly, obtaining additional information from DIKUIK 2, DAKUIK 3, DTKUIK 5, DSKUIK 6, DIKUIK 7, DFKUIKTK 8 about the territory in which it is necessary to make an exact location, and secondly, the introduction of BNRI 19, providing recognition of a wide class of images (compared with the known method and device), thirdly, the introduction of SPBU 11, which implements control of the movement of the object when changing the operational navigation task.

Приведем результаты экспериментальных исследований предлагаемого устройства.We present the results of experimental studies of the proposed device.

На фиг.19,а представлено сечение ВКФ J (ξ) по оси Oξ (в метрах) при совмещении обычных (не преобразованных) изображений крупномасштабных элементов (кривая 1), элементов стержневого типа (кривая 2) и маломасштабных элементов (кривая 3). На фиг.19,б дано сечение ВКФ для обычных (кривая 1), контурных (кривая 2) и точечных (кривая 3) изображений. Из приведенных графиков следует, что, во-первых, чем мельче структура ТИ и ЭИ (чем меньше элементы изображений), тем с большей крутизной формируется ВКФ; во-вторых, точечные изображения формируют ВКФ с большей крутизной по сравнению с контурными или обычными изображениями.On Fig, a presents a section of the VKF J (ξ) along the Oξ axis (in meters) when combining ordinary (not converted) images of large-scale elements (curve 1), elements of the rod type (curve 2) and small-scale elements (curve 3). On Fig, b given the section of the VKF for ordinary (curve 1), contour (curve 2) and point (curve 3) images. From the above graphs it follows that, firstly, the finer the structure of TI and EI (the smaller the image elements), the more steeply the VKF is formed; secondly, point images form VKF with greater steepness in comparison with contour or ordinary images.

На фиг.20,а приведены графики зависимостей случайной составляющей ошибки σ (в % от допустимого смещения и разворота) определения угловой (кривая 1) и линейных (кривая 2) координат объекта от крутизны KF главного максимума ВКФ. Здесь пунктирными линиями обозначены области KF для обычных О, контурных К и точечных Т изображений. Как видно из графиков, целесообразнее использование контурных или точечных изображений, для которых крутизна KF наибольшая, а ошибка σ наименьшая.On Fig, a shows graphs of the dependences of the random component of the error σ (in% of the allowable displacement and turn) to determine the angular (curve 1) and linear (curve 2) coordinates of the object from the steepness K F of the main maximum of the VKF. Here, the dotted lines indicate the regions K F for ordinary O, contour K, and point T images. As can be seen from the graphs, it is more advisable to use contour or point images for which the steepness K F is the largest and the error σ is the smallest.

Критерием перехода к контурным или точечным изображениям может служить коэффициент KF, характеризующий крутизну ВКФ (на уровне 0,7 от максимального значения амплитуды), и коэффициент KS=Sg/Sэ (где Sg - площадь изображения объекта на экране картографического указателя истинного курса, Sэ - площадь экрана картографического указателя истинного курса) или коэффициент Ke=Lg/Lэ (где Lg -размер (длина) изображения элементов на экране картографического указателя истинного курса, Lэ - размер (диаметр) экрана картографического указателя истинного курса). На фиг.20,б приведены графики зависимостей ошибки σ определения координат от величин KS и Kе. Здесь кривые 1 и 1а характеризуют угловую координату, а кривые 2, 2a - линейную координату (сплошные линии - графики зависимостей σ от KS, а пунктирные линии - графики зависимостей σ от Kе). Как видно из графиков, полученных на основе экспериментальных исследований, при KS<0,19 или Ke<0.35 (для данного алгоритма работы анализатора ВКФ, реализующего метод слепого поиска) необходимо преобразовывать изображения в контурные или точечные (например, при KS=0.21 устройство не работало).The criterion for the transition to contour or point images can be the coefficient K F , which characterizes the steepness of the VKF (at the level of 0.7 of the maximum amplitude value), and the coefficient K S = S g / S e (where S g is the image area of the object on the map pointer screen true course, S e is the screen area of the cartographic indicator of the true course) or the coefficient K e = L g / L e (where L g is the size (length) of the image of the elements on the screen of the cartographic pointer of the true course, L e is the size (diameter) of the cartographic screen True Chicken Pointer a). On Fig, b shows the graphs of the dependences of the error σ of determining the coordinates on the values of K S and K e . Here, curves 1 and 1a characterize the angular coordinate, and curves 2, 2 a the linear coordinate (solid lines are the graphs of the dependences of σ on K S , and dashed lines are the graphs of the dependences of σ on K e ). As can be seen from the graphs obtained on the basis of experimental studies, for K S <0.19 or K e <0.35 (for this algorithm of operation of the VKF analyzer that implements the blind search method), it is necessary to convert images to contour or point (for example, when K S = 0.21 device did not work).

Вызывает определенный интерес использование в устройстве изображений, когда ТИ представлено в обычном виде, а ЭИ - в контурном виде (это возможно, если индикатор ТИ реализован в упрощенном варианте, т.е. без обработки ТИ, а для повышения точностных характеристик ЭИ готовится в контурном виде). На фиг.21 даны сечения ВКФ J (η), подтверждающие возможность использования таких изображений (здесь представлены: 1-ВКФ обычных ТИ и ЭИ; 2-ВКФ контурных ТИ и ЭИ; 3-ВКФ обычного ТИ и контурного ЭИ). Как видно, кривая 3 имеет большую крутизну в области главного максимума по сравнению с кривой 1, кроме этого, крутизна кривой 3 незначительно отличается от крутизны кривой 2.Of particular interest is the use of images in the device when the TI is presented in the usual form, and the EI is in the contour form (this is possible if the TI indicator is implemented in a simplified version, i.e. without processing the TI, and to improve the accuracy characteristics, the EI is prepared in the contour form). Figure 21 shows the cross sections of the VKF J (η) confirming the possibility of using such images (here: 1-VKF of conventional TI and EI; 2-VKF of contour TI and EI; 3-VKF of conventional TI and contour EI). As you can see, curve 3 has a large slope in the region of the main maximum in comparison with curve 1, in addition, the slope of curve 3 is slightly different from the slope of curve 2.

Источники информацииInformation sources

1. Анучин О.Н., Комарова И.Э., Порфильев Л.Ф. Бортовые системы навигации и ориентации искусственных спутников Земли. - С.-Петербург: Изд-во ГНЦ РФ ЦНИИ «Электроприбор», 2004. С.80-120.1. Anuchin O.N., Komarova I.E., Porfilyev L.F. Airborne navigation and orientation systems for artificial Earth satellites. - St. Petersburg: Publishing House of the SSC RF Central Research Institute "Elektropribor", 2004. S.80-120.

2. XVI Санкт-Петербургская международная конференция по интегрированным навигационным системам. Сборник материалов. - С.-Петербург: Изд-во ЦНИИ «Электроприбор», 2009. - 302 с.2. XVI St. Petersburg International Conference on Integrated Navigation Systems. Collection of materials. - St. Petersburg: Publishing House of the Central Research Institute "Elektribribor", 2009. - 302 p.

3. Сырямкин В.И. и др. Системы технического зрения. Справочник. Томск: МГП «РАСКО», 1992. 367 с.3. Syryamkin V.I. and other systems of technical vision. Directory. Tomsk: MGP "RASCO", 1992. 367 p.

4. Ангелов М.П., Катышев В.А., Резник В.Г., Сырямкин В.И. Устройство для определения координат движущегося объекта. Авторское свидетельство СССР №592229.4. Angelov M.P., Katyshev V.A., Reznik V.G., Syryamkin V.I. A device for determining the coordinates of a moving object. USSR copyright certificate No. 592229.

5. Белоглазов И.Н., Тарасенко В.П. Корреляционно-экстремальные системы. М.: Сов.радио, 1974. - 392 с.5. Beloglazov I.N., Tarasenko V.P. Correlation-extreme systems. M .: Sov.radio, 1974.- 392 p.

6. Golomb L.A., Lawrence D.T. and Sejnowski T. J, SexNet: A neural network identifies sex from human faces // Advances in Neural Information Processing Systems. Morgan Kaufmann Publishers. San Mateo. USA. 1991. P.77-83.6. Golomb L.A., Lawrence D.T. and Sejnowski T. J, SexNet: A neural network identifies sex from human faces // Advances in Neural Information Processing Systems. Morgan Kaufmann Publishers. San Mateo. USA 1991. P.77-83.

7. Уоссермен Ф. Нейрокомпьютерная техника: Теория и практика / Пер. на рус. яз. Ю. А. Зуев, В. А. Точено. 1992 - 184 с.7. Wassermen F. Neurocomputer technology: Theory and practice / Per. in Russian lang Yu.A. Zuev, V.A. Tocheno. 1992 - 184 p.

8. Информационный портал DailyTechInfo-http://www.dailytechinfo.org/space/339-nasa-publikuet-samuyu-polnuyu-topologicheskuyu.html.8. Information portal DailyTechInfo-http: //www.dailytechinfo.org/space/339-nasa-publikuet-samuyu-polnuyu-topologicheskuyu.html.

Claims (20)

1. Способ управления движущимся объектом, заключающийся в том, что получают картографические эталонные и текущие изображения территории, сравнивают параметры изменения текущего картографического изображения с эталонным картографическим изображением, фильтруют изображения от помех, отличающийся тем, что перед сравнением параметров изменения изображений определяют предварительные координаты объекта, распознают участок территории, формируют интегральное картографическое эталонное изображение и получают интегральные информативные параметры сравниваемых изображений, выделяя среди них многомерные и увеличивая последние на величину, определяемую требуемой точностью оценки координат объекта, определяют изменение геометрии, топологии и цвета участка территории, при этом дополнительно подавляют помехи нейросетевой фильтрацией, а после сравнения параметров изменения изображений оценивают местоположение объекта и производят коррекцию маршрута движения объекта.1. A method of controlling a moving object, which consists in obtaining cartographic reference and current images of the territory, comparing the change parameters of the current cartographic image with a reference cartographic image, filtering the image from interference, characterized in that prior to comparing the image changing parameters, preliminary coordinates of the object are determined, they recognize a site of the territory, form an integrated cartographic reference image and receive integral informative the parameters of the compared images, distinguishing among them multidimensional and increasing the latter by an amount determined by the required accuracy of estimating the coordinates of the object, determine the change in the geometry, topology and color of the area, while additionally suppressing noise by neural network filtering, and after comparing the parameters of the image changes, the location of the object is evaluated and produced correction of the route of the object. 2. Способ по п.1, отличающийся тем, что формируют интегральное картографическое эталонное изображение путем монтажа локальных участков территории по реперным точкам с помощью нейросетевых технологий.2. The method according to claim 1, characterized in that they form an integrated cartographic reference image by mounting local sections of the territory at the reference points using neural network technologies. 3. Способ по п.1, отличающийся тем, что получают интегральные информативные параметры сравниваемых изображений при формировании радиолокационных, телевизионных цветных или инфракрасных изображений подстилающей поверхности Земли или изображений карты звездного неба.3. The method according to claim 1, characterized in that the integrated informative parameters of the compared images are obtained when forming radar, television color or infrared images of the underlying surface of the Earth or images of a map of the starry sky. 4. Способ по п.3, отличающийся тем, что формируют радиолокационные или телевизионные цветные изображения по топографическим картам Земли.4. The method according to claim 3, characterized in that they form a radar or television color image on topographic maps of the Earth. 5. Способ по п.1, отличающийся тем, что определяют изменение геометрии, топологии и цвета участка территории для сравниваемой пары изображений при устранении рассогласований изображений по углу их относительного разворота, масштабу, крену, тангажу и цвету.5. The method according to claim 1, characterized in that they determine the change in the geometry, topology and color of the area for the compared pair of images while eliminating the mismatches of the images according to their relative rotation angle, scale, roll, pitch and color. 6. Способ по п.5, отличающийся тем, что определяют геометрические параметры локальных и интегральных участков территории в виде периметров, площадей, радиусов, длины, ширины, количества точек перегиба контура, геометрического центра элементов изображений, постоянно наблюдаемых участков, развертки контура, перевычисления в полярную систему координат, инвертирования изображения, формирования микроплана.6. The method according to claim 5, characterized in that the geometric parameters of the local and integral sections of the territory are determined in the form of perimeters, areas, radii, length, width, the number of inflection points of the contour, the geometric center of image elements, constantly observed sections, sweep contour, recalculation into the polar coordinate system, inverting the image, forming a microplan. 7. Способ по п.6, отличающийся тем, что переход к типу изображения осуществляют на основе вычисления адаптивного коэффициента путем сравнения текущих и предельных значений интегральных информативных геометрических, топологических и цветовых параметров изображений, а также амплитудных, спектральных, структурных и дифференциальных информативных параметров взаимно-корреляционной функции.7. The method according to claim 6, characterized in that the transition to the type of image is carried out on the basis of calculating an adaptive coefficient by comparing the current and limit values of the integral informative geometric, topological and color parameters of the images, as well as the amplitude, spectral, structural and differential informative parameters, mutually correlation function. 8. Способ по п.1, отличающийся тем, что корректируют маршрут движения объекта путем перенастройки работы устройства.8. The method according to claim 1, characterized in that they adjust the route of movement of the object by reconfiguring the operation of the device. 9. Способ по п.1, отличающийся тем, что распознают участок территории с помощью нейросетевых технологий.9. The method according to claim 1, characterized in that the area is recognized using neural network technologies. 10. Способ по п.1, отличающийся тем, что многомерные интегральные информативные параметры сравниваемых изображений увеличивают до 1000 раз.10. The method according to claim 1, characterized in that the multidimensional integrated informative parameters of the compared images are increased up to 1000 times. 11. Способ по п.1, отличающийся тем, что территорией может быть наземная, подводная, воздушная территория.11. The method according to claim 1, characterized in that the territory may be land, underwater, air territory. 12. Устройство управления движущимся объектом, содержащее последовательно соединенные синхронизатор, блок корреляционно-экстремальной обработки информации, основной картографический указатель заданного курса, блок дополнительных фильтров основного картографического заданного курса, выходом подключен ко второму входу блока корреляционно-экстремальной обработки информации, входом через блок управления фильтрами подключен к выходу блока корреляционно-экстремальной обработки информации, последний вторым входом подключен к блоку дополнительных фильтров картографического указателя истинного курса, а блок управления фильтрами вторым выходом подключен к блоку дополнительных фильтров картографического указателя истинного курса, и объект управления, отличающееся тем, что оно дополнительно содержит, во-первых, последовательно соединенные блок подключения датчика изображения, адаптивный нейросетевой фильтр подавления помех и интеллектуальный блок обработки изображений, отдельным выходом подключен к входу блока подключения датчика изображения, которые введены между выходом радиолокационного картографического указателя истинного курса и отдельным входом блока корреляционно-экстремальной обработки информации, отдельным выходом подключен к интеллектуальному блоку обработки изображений, во-вторых, дополнительный инфракрасный датчик изображений, дополнительный блок астродатчиков, дополнительный телевизионный картографический указатель истинного курса, дополнительный формирователь картографического указателя истинного курса по топографической карте подключены отдельными двунаправленными связями к блоку подключения датчика изображений, в-третьих, последовательно соединенные дополнительный инерциальный картографический указатель истинного курса и структурно-перестраиваемый блок управления отдельными входами подключены к выходам блока корреляционно-экстремальной обработки информации, дополнительного спутникового картографического указателя истинного курса, дополнительного формирователя картографического указателя истинного курса по топографической карте и синхронизатора, а отдельными выходами подключены к объекту управления и дополнительному формирователю картографического указателя истинного курса по топографической карте, причем отдельный вход структурно-перестраиваемого блока управления подключен к выходу задатчика движения, в-четвертых, блок нейросетевого распознавания изображений отдельными входами подключен к отдельным выходам интеллектуального блока обработки изображений и синхронизатора, а отдельным выходом подключен к отдельному входу блока корреляционно-экстремальной обработки информации.12. A moving object control device comprising a synchronizer, a correlation-extreme information processing unit, a basic cartographic index of a given course, an additional filter block of a basic cartographic given course, an output connected to a second input of a correlation-extreme information processing unit, an input through a filter control unit connected to the output of the block of correlation-extreme information processing, the latter by the second input is connected to the block to additional filters of the true-course cartographic index, and the second output filter control unit is connected to the additional true-course cartographic filters block, and a control object, characterized in that it additionally contains, firstly, an image sensor connection block, an adaptive neural network filter interference and an intelligent image processing unit, a separate output is connected to the input of the image sensor connection unit, which are entered between at the output of the radar cartographic indicator of the true course and a separate input of the correlation-extreme processing unit of information, a separate output is connected to the intelligent image processing unit, secondly, an additional infrared image sensor, an additional unit of astro sensors, an additional television cartographic indicator of the true course, an additional shaper of the cartographic pointer true course on topographic map connected by separate bidirectional by connections to the image sensor connection unit, thirdly, an additional inertial cartographic indicator of the true course and a structurally tunable control unit for individual inputs connected in series to the outputs of the correlation-extreme information processing unit, an additional satellite cartographic indicator of the true course, and an additional shaper of the true course cartographic indicator by topographic map and synchronizer, and connected to separate outputs by separate outputs control object and an additional shaper of the true course heading on the topographic map, with a separate input of a structurally tunable control unit connected to the output of the motion encoder, fourthly, the neural network image recognition unit with individual inputs is connected to separate outputs of the intelligent image processing unit and synchronizer, and to separate the output is connected to a separate input of the block of correlation-extreme information processing. 13. Устройство по п.12, отличающееся тем, что блок подключения датчика изображения выполнен в виде многоканального мультиплексора.13. The device according to p. 12, characterized in that the unit for connecting the image sensor is made in the form of a multi-channel multiplexer. 14. Устройство по п.12, отличающееся тем, что дополнительный блок астродатчиков содержит датчики, воспринимающие карту звездного неба и радиогалактики.14. The device according to p. 12, characterized in that the additional unit of astro sensors contains sensors that receive a map of the starry sky and radio galaxies. 15. Устройство по п.12, отличающееся тем, что дополнительный спутниковый картографический указатель истинного курса содержит ГЛОНАСС, GPS и/или ГАЛИЛЕО.15. The device according to p. 12, characterized in that the additional satellite cartographic indicator of the true course contains GLONASS, GPS and / or GALILEO. 16. Устройство по п.12, отличающееся тем, что дополнительный инерциальный картографический указатель истинного курса включает блоки гироскопов, акселерометров, управления, контроля и обработки информации.16. The device according to p. 12, characterized in that the additional inertial cartographic indicator of the true course includes blocks of gyroscopes, accelerometers, control, monitoring and information processing. 17. Устройство по п.12, отличающееся тем, что дополнительный формирователь картографического указателя истинного курса по топографической карте состоит из топографических и топологических карт земной поверхности, считывателя изображения с карт и автомата на перестраиваемых вычислительных средах.17. The device according to p. 12, characterized in that the additional shaper of the cartographic indicator of the true course on the topographic map consists of topographic and topological maps of the earth’s surface, an image reader from maps and an automaton on tunable computing environments. 18. Устройство по п.12, отличающееся тем, что дополнительный телевизионный картографический указатель истинного курса выполнен в виде телевизионной камеры, функционирующей в инфракрасном оптическом диапазоне, и содержит инфракрасный прожектор.18. The device according to p. 12, characterized in that the additional television cartographic indicator of the true course is made in the form of a television camera that operates in the infrared optical range, and contains an infrared spotlight. 19. Устройство по п.12, отличающееся тем, что блок дополнительных фильтров картографического указателя истинного курса, блок дополнительных фильтров основного картографического указателя заданного курса и блок управления фильтрами выполнены на перестраиваемых вычислительных средах.19. The device according to p. 12, characterized in that the block of additional filters of the cartographic index of the true course, the block of additional filters of the main cartographic index of a given course and the control unit of the filters are made on tunable computing environments. 20. Устройство по п.12, отличающееся тем, что структурно-перестраиваемый блок управления реализован на перестраиваемых вычислительных средах. 20. The device according to p. 12, characterized in that the structurally tunable control unit is implemented on tunable computing environments.
RU2011107969/28A 2011-03-01 2011-03-01 Method of controlling moving object and apparatus for realising said method RU2476825C2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2011107969/28A RU2476825C2 (en) 2011-03-01 2011-03-01 Method of controlling moving object and apparatus for realising said method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2011107969/28A RU2476825C2 (en) 2011-03-01 2011-03-01 Method of controlling moving object and apparatus for realising said method

Publications (2)

Publication Number Publication Date
RU2011107969A RU2011107969A (en) 2012-09-10
RU2476825C2 true RU2476825C2 (en) 2013-02-27

Family

ID=46938508

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2011107969/28A RU2476825C2 (en) 2011-03-01 2011-03-01 Method of controlling moving object and apparatus for realising said method

Country Status (1)

Country Link
RU (1) RU2476825C2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2538938C2 (en) * 2013-04-11 2015-01-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Юго-Западный государственный университет" (ЮЗГУ) Method of forming two-dimensional image of biosignal and analysis thereof
RU173468U1 (en) * 2017-03-27 2017-08-29 Акционерное общество "ЭЛВИС-НеоТек" DEVICE FOR CASCADE PROCESSING OF THE IMAGE FLOW USING SURFACE NEURAL NETWORKS
RU2651147C1 (en) * 2017-03-27 2018-04-18 Акционерное общество "ЭЛВИС-НеоТек" Device of cascade processing of a stream of images by means of convolutional neural network
RU2654502C2 (en) * 2013-10-15 2018-05-21 Форд Глобал Технолоджис, ЛЛК System and method for remote vehicle monitoring
RU2664411C2 (en) * 2016-12-01 2018-08-17 Федеральное государственное бюджетное образовательное учреждение высшего образования "Рязанский государственный радиотехнический университет" Method for processing the sequence of images to recognize air objects
RU2684710C1 (en) * 2018-04-06 2019-04-11 Федеральное государственное автономное образовательное учреждение высшего образования "Уральский федеральный университет имени первого Президента России Б.Н. Ельцина" Aircraft ins errors correction system by the area road map
RU2701051C2 (en) * 2017-01-24 2019-09-24 ФОРД ГЛОУБАЛ ТЕКНОЛОДЖИЗ, ЭлЭлСи Method, system and machine-readable storage media for detecting objects using recurrent neural network and linked feature map
RU2707644C1 (en) * 2018-08-07 2019-11-28 Федеральное государственное автономное образовательное учреждение высшего образования "Национальный исследовательский Томский государственный университет" (ТГУ, НИ ТГУ) Pipeline diagnostic robot
RU2724908C1 (en) * 2019-06-17 2020-06-26 Общество С Ограниченной Ответственностью "Скайлайн" Aircraft-type unmanned aerial vehicle landing method to runway using optical devices of different range
RU2773554C1 (en) * 2019-04-24 2022-06-06 Инновейшн Ферст, Инк. Method for assembly of a demonstration arena (options), a system of assembly of a demonstration arena, a way to determine the position and orientation of the device within the environment, a system of demonstration arena for vehicles operating in the demonstration space (options), a system of demonstration arena (options)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108872932B (en) * 2018-05-03 2021-04-02 中国人民解放军战略支援部队信息工程大学 Beyond-visual-range target direct positioning result deviation rectifying method based on neural network
CN111366169B (en) * 2020-04-09 2022-02-15 湖南工学院 Deterministic mobile robot path planning method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2382416C2 (en) * 2008-03-20 2010-02-20 Общество с ограниченной ответственностью "Системы передовых технологий " (ООО "Системы передовых технологий") Method of determining speed and coordinates of vehicles with subsequent identification thereof and automatic recording traffic offences and device for realising said method
EP2333491A1 (en) * 2004-12-17 2011-06-15 Nike International Ltd Multi-sensor monitoring of athletic performance
EP2357841A2 (en) * 2002-03-27 2011-08-17 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2357841A2 (en) * 2002-03-27 2011-08-17 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
EP2333491A1 (en) * 2004-12-17 2011-06-15 Nike International Ltd Multi-sensor monitoring of athletic performance
RU2382416C2 (en) * 2008-03-20 2010-02-20 Общество с ограниченной ответственностью "Системы передовых технологий " (ООО "Системы передовых технологий") Method of determining speed and coordinates of vehicles with subsequent identification thereof and automatic recording traffic offences and device for realising said method

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
АНУЧИН О.Н., КОМАРОВА И.Э., ПОРФИЛЬЕВ Л.Ф. Бортовые системы навигации и ориентации искусственных спутников Земли. - СПб.: Изд-во ГНЦ РФ ЦНИИ «Электроприбор», 2004. *
АНУЧИН О.Н., КОМАРОВА И.Э., ПОРФИЛЬЕВ Л.Ф. Бортовые системы навигации и ориентации искусственных спутников Земли. - СПб.: Изд-во ГНЦ РФ ЦНИИ «Электроприбор», 2004. СЫРЯМКИН В.И. и др. Системы технического зрения. Справочник. - Томск: МГП «РАСКО», 1992. УОССЕРМЕН Ф. Нейрокомпьютерная техника: Теория и практика / Пер. на рус. яз. Ю.А. ЗУЕВ, В.А.ТОЧЕНОВ. - М.: Мир, 1992. *
СЫРЯМКИН В.И. и др. Системы технического зрения. Справочник. - Томск: МГП «РАСКО», 1992. *
УОССЕРМЕН Ф. Нейрокомпьютерная техника: Теория и практика / Пер. на рус. яз. Ю.А. ЗУЕВ, В.А.ТОЧЕНОВ. - М.: Мир, 1992. *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2538938C2 (en) * 2013-04-11 2015-01-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Юго-Западный государственный университет" (ЮЗГУ) Method of forming two-dimensional image of biosignal and analysis thereof
RU2654502C2 (en) * 2013-10-15 2018-05-21 Форд Глобал Технолоджис, ЛЛК System and method for remote vehicle monitoring
RU2664411C2 (en) * 2016-12-01 2018-08-17 Федеральное государственное бюджетное образовательное учреждение высшего образования "Рязанский государственный радиотехнический университет" Method for processing the sequence of images to recognize air objects
RU2701051C2 (en) * 2017-01-24 2019-09-24 ФОРД ГЛОУБАЛ ТЕКНОЛОДЖИЗ, ЭлЭлСи Method, system and machine-readable storage media for detecting objects using recurrent neural network and linked feature map
RU173468U1 (en) * 2017-03-27 2017-08-29 Акционерное общество "ЭЛВИС-НеоТек" DEVICE FOR CASCADE PROCESSING OF THE IMAGE FLOW USING SURFACE NEURAL NETWORKS
RU2651147C1 (en) * 2017-03-27 2018-04-18 Акционерное общество "ЭЛВИС-НеоТек" Device of cascade processing of a stream of images by means of convolutional neural network
RU2684710C1 (en) * 2018-04-06 2019-04-11 Федеральное государственное автономное образовательное учреждение высшего образования "Уральский федеральный университет имени первого Президента России Б.Н. Ельцина" Aircraft ins errors correction system by the area road map
RU2707644C1 (en) * 2018-08-07 2019-11-28 Федеральное государственное автономное образовательное учреждение высшего образования "Национальный исследовательский Томский государственный университет" (ТГУ, НИ ТГУ) Pipeline diagnostic robot
RU2773554C1 (en) * 2019-04-24 2022-06-06 Инновейшн Ферст, Инк. Method for assembly of a demonstration arena (options), a system of assembly of a demonstration arena, a way to determine the position and orientation of the device within the environment, a system of demonstration arena for vehicles operating in the demonstration space (options), a system of demonstration arena (options)
RU2724908C1 (en) * 2019-06-17 2020-06-26 Общество С Ограниченной Ответственностью "Скайлайн" Aircraft-type unmanned aerial vehicle landing method to runway using optical devices of different range

Also Published As

Publication number Publication date
RU2011107969A (en) 2012-09-10

Similar Documents

Publication Publication Date Title
RU2476825C2 (en) Method of controlling moving object and apparatus for realising said method
CN110163187B (en) F-RCNN-based remote traffic sign detection and identification method
Chen et al. Underwater image enhancement based on deep learning and image formation model
CN110674688B (en) Face recognition model acquisition method, system and medium for video monitoring scene
CN109583483A (en) A kind of object detection method and system based on convolutional neural networks
CN109492596B (en) Pedestrian detection method and system based on K-means clustering and regional recommendation network
CN110070025A (en) Objective detection system and method based on monocular image
CN113313703A (en) Unmanned aerial vehicle power transmission line inspection method based on deep learning image recognition
CN113724379B (en) Three-dimensional reconstruction method and device for fusing image and laser point cloud
CN111260687B (en) Aerial video target tracking method based on semantic perception network and related filtering
CN116612468A (en) Three-dimensional target detection method based on multi-mode fusion and depth attention mechanism
CN113743417A (en) Semantic segmentation method and semantic segmentation device
CN113792686B (en) Vehicle re-identification method based on visual representation of invariance across sensors
CN116469020A (en) Unmanned aerial vehicle image target detection method based on multiscale and Gaussian Wasserstein distance
CN115272876A (en) Remote sensing image ship target detection method based on deep learning
CN110334703B (en) Ship detection and identification method in day and night image
Aziz et al. Evaluation of visual attention models for robots
CN116703996A (en) Monocular three-dimensional target detection algorithm based on instance-level self-adaptive depth estimation
CN116740516A (en) Target detection method and system based on multi-scale fusion feature extraction
CN111476075A (en) Object detection method and device based on CNN (convolutional neural network) by utilizing 1x1 convolution
CN110458234A (en) It is a kind of based on deep learning to scheme to search vehicle method
CN111898671B (en) Target identification method and system based on fusion of laser imager and color camera codes
CN115376184A (en) IR image in-vivo detection method based on generation countermeasure network
Yin et al. M2F2-RCNN: Multi-functional faster RCNN based on multi-scale feature fusion for region search in remote sensing images
Li et al. Enhancing Feature Fusion Using Attention for Small Object Detection