RU2771442C9 - Method for processing images by convolutional neural networks - Google Patents

Method for processing images by convolutional neural networks Download PDF

Info

Publication number
RU2771442C9
RU2771442C9 RU2020137176A RU2020137176A RU2771442C9 RU 2771442 C9 RU2771442 C9 RU 2771442C9 RU 2020137176 A RU2020137176 A RU 2020137176A RU 2020137176 A RU2020137176 A RU 2020137176A RU 2771442 C9 RU2771442 C9 RU 2771442C9
Authority
RU
Russia
Prior art keywords
images
image
objects
convolutional neural
neural network
Prior art date
Application number
RU2020137176A
Other languages
Russian (ru)
Other versions
RU2771442C1 (en
Inventor
Игорь Анатольевич Бырков
Валентин Валентинович Выжлецов
Никита Юрьевич Кожанов
Сергей Александрович Мишин
Игорь Николаевич Оков
Original Assignee
Акционерное общество "Концерн радиостроения "Вега"
Filing date
Publication date
Application filed by Акционерное общество "Концерн радиостроения "Вега" filed Critical Акционерное общество "Концерн радиостроения "Вега"
Priority to RU2020137176A priority Critical patent/RU2771442C9/en
Publication of RU2771442C1 publication Critical patent/RU2771442C1/en
Application granted granted Critical
Publication of RU2771442C9 publication Critical patent/RU2771442C9/en

Links

Images

Abstract

FIELD: image data processing.
SUBSTANCE: invention relates to the field of image recognition, namely to technology for detecting and classifying objects in images. The method includes the stages of obtaining sets of full-scale images of N>2 objects and three-dimensional models of objects, creating N initial sets of images of objects using a computing system, wherein each image from the initial set of images is the result of rendering a three-dimensional model of the object, creating an augmented set of images of each object by introducing at least one change to each image from the initial set of images and the set of full-scale images of the corresponding object, creating training data samples containing multiple images selected from the augmented sets of images of objects, training a convolutional neural network using the corresponding training data samples, and applying the trained convolutional neural network to the examined image in order to detect and classify the objects depicted therein.
EFFECT: increase in the probability of detecting and classifying objects in images of various types, including images of the visible range, UHF range, and IR range.
19 cl, 14 dwg

Description

Заявленное техническое решение относится к области распознавания изображений, а именно к технике обнаружения и классификации объектов на изображениях с использованием 3D-моделирования и сверточной нейронной сети.The claimed technical solution relates to the field of image recognition, namely, to a technique for detecting and classifying objects in images using 3D modeling and a convolutional neural network.

Заявленное изобретение может быть использовано для повышения вероятности обнаружения и классификации объектов на изображениях различных видов, включая изображения видимого диапазона, СВЧ-диапазона и ИК-диапазона.The claimed invention can be used to increase the probability of detecting and classifying objects in various types of images, including images of the visible range, microwave range and infrared range.

Использование сверточной нейронной сети, обученной на большом числе изображений, включающих множество вариантов условий съемки объектов, изменчивости самих объектов и воздействующих на процесс съемки помех, позволяет существенно повысить возможности по обнаружению и классификации искомых объектов на исследуемых изображениях. К распознаваемым объектам могут относиться различные объекты как искусственного, так и природного происхождения, такие как различные транспортные и технические средства, здания и строительные конструкции, элементы инфраструктуры, космические объекты, элементы местности и т.п.The use of a convolutional neural network trained on a large number of images, including many options for shooting conditions for objects, the variability of the objects themselves, and interference affecting the shooting process, can significantly increase the ability to detect and classify the desired objects in the images under study. Recognizable objects may include various objects of both artificial and natural origin, such as various vehicles and technical means, buildings and building structures, infrastructure elements, space objects, terrain elements, etc.

Современные средства получения изображений позволяют формировать изображения объектов в различных диапазонах электромагнитных волн, включая изображения видимого диапазона, СВЧ-диапазона и ИК-диапазона. Данные типы изображений существенно отличаются по своим характеристикам. Например, получаемые в СВЧ-диапазоне радиолокационные изображения (РЛИ) обладают рядом особенностей, существенно отличающих их от снимков видимого диапазона, как описано в [1]. Специфика рассеяния электромагнитных волн в сверхвысокочастотном диапазоне приводит к тому, что на РЛИ большей яркостью обладают образы объектов, имеющих более высокую электропроводность, главным образом объектов искусственного происхождения. При этом образы (изображения) объектов представляют собой совокупность локальных центров рассеяния, которые формируются вследствие однократного или многократного переотражения зондирующего сигнала от элементов объекта. Расположение и яркость таких центров определяется ракурсом наблюдения объекта, что приводит к высокой изменчивости образов, наблюдаемых на РЛИ. Также свои особенности имеют изображения в ИК-диапазоне.Modern means of obtaining images make it possible to form images of objects in various ranges of electromagnetic waves, including images of the visible range, microwave range and infrared range. These types of images differ significantly in their characteristics. For example, radar images (RLI) obtained in the microwave range have a number of features that significantly distinguish them from images of the visible range, as described in [1]. The specificity of the scattering of electromagnetic waves in the microwave range leads to the fact that images of objects with a higher electrical conductivity, mainly objects of artificial origin, have greater brightness on radar images. In this case, the images (images) of objects are a set of local scattering centers, which are formed as a result of a single or multiple re-reflection of the probing signal from the elements of the object. The location and brightness of such centers is determined by the viewing angle of the object, which leads to a high variability of the images observed on radar images. Also, images in the IR range have their own characteristics.

Очень разнообразными могут быть условия получения изображений, такие как съемка с борта подвижных технических средств, включающих пилотируемые и беспилотные летательные аппараты, наземные и морские пилотируемые и робототехнические комплексы и т.п. При этом на формируемые изображения влияют различные условия, такие как искажения, вызванные движением носителя средства съемки или самого объекта съемки, изменением освещенности, дистанции съемки, воздействием шумовых помех различного физического происхождения и т.п. Перечисленные факторы приводят к тому, что для обучения сверточной нейронной сети, способной уверенно обнаруживать и классифицировать искомые объекты на исследуемых изображениях, необходимо использовать большое количество изображений каждого объекта, полученные в разное время суток, года, с разных средств формирования изображений, с разных ракурсов, сделанные с различным разрешением и учитывающих всевозможные воздействия. Однако это является затруднительным в силу высокой стоимости получения натурных изображений объектов в различных условиях, юридически и этически затруднительным для медицинских снимков, или физически невозможным, например, для многих космических объектов в силу их низкой доступности для наблюдения и т.п.The conditions for obtaining images can be very diverse, such as filming from the board of mobile technical means, including manned and unmanned aerial vehicles, ground and sea manned and robotic systems, etc. In this case, the formed images are affected by various conditions, such as distortions caused by the movement of the carrier of the recording means or the subject itself, changes in illumination, shooting distance, exposure to noise interference of various physical origins, etc. These factors lead to the fact that in order to train a convolutional neural network capable of confidently detecting and classifying the desired objects in the studied images, it is necessary to use a large number of images of each object obtained at different times of the day, year, from different imaging tools, from different angles, made with different resolutions and taking into account all kinds of influences. However, this is difficult due to the high cost of obtaining full-scale images of objects in various conditions, legally and ethically difficult for medical images, or physically impossible, for example, for many space objects due to their low availability for observation, etc.

Эти условия требуют применения новых технических решений, таких как создание с использованием вычислительных средств электронных трехмерных моделей объектов и формирование из них множества синтетических фотореалистических изображений этих объектов, где синтетические фотореалистические изображения неотличимы от натурных изображений, используемых сверточной нейронной сетью при обучении в интересах обнаружения и классификации этих объектов.These conditions require the use of new technical solutions, such as the creation of electronic three-dimensional models of objects using computing tools and the formation of a set of synthetic photorealistic images of these objects from them, where synthetic photorealistic images are indistinguishable from natural images used by a convolutional neural network in training in the interests of detection and classification these objects.

Известен способ индексации и поиска цифровых изображений по патенту РФ №2510933, описанный в [2]. Способ относится к системам индексации и поиска цифровых изображений, содержащихся в файлах различных графических форматов. Технический результат заключается в уменьшении времени автоматической и полуавтоматической индексации изображений и в повышении быстродействия процедуры поиска изображений, содержащих схожие преобладающие цвета, в базе данных. Находят цвет, который имеет наименьшее расстояние Манхеттэна от найденного преобладающего цвета в выбранной цветовой системе координат из заранее заданного набора основных цветов, классифицированных по яркости, насыщенности и цветовому тону. Используют полученный цвет в качестве идентификатора для организации процедуры поиска в базе данных изображений. Определяют ассоциации цветов из базового набора основных цветов для формирования характеристики визуального подобия цветов и визуального контраста цветов. Формируют индекс изображения согласно предъявленному основному цвету в формате RGB, и/или названию, и/или тегу цвета. Осуществляют поиск изображений в информационной базе данных. В результате поиска формируют список изображений с индексами, совпадающими с предъявленным индексом, и/или с индексами, у которых основные цвета присутствуют в списке ассоциаций визуального сходства или в списке контрастности цветов для основного цвета в индексе поиска изображений.A known method of indexing and searching for digital images according to the patent of the Russian Federation No. 2510933, described in [2]. The method relates to systems for indexing and searching for digital images contained in files of various graphic formats. The technical result consists in reducing the time of automatic and semi-automatic indexing of images and in increasing the speed of the procedure for searching for images containing similar predominant colors in the database. A color is found that has the smallest Manhattan distance from the found dominant color in the selected color coordinate system from a predetermined set of primary colors classified by brightness, saturation, and hue. The resulting color is used as an identifier to organize the search procedure in the image database. Color associations are determined from a basic set of primary colors to form characteristics of visual similarity of colors and visual contrast of colors. An image index is formed according to the presented primary color in RGB format and/or the name and/or color tag. Searching for images in the information database. As a result of the search, a list of images is formed with indices matching the presented index and/or indices, in which primary colors are present in the visual similarity association list or in the color contrast list for the primary color in the image search index.

Недостатком указанного аналога является ограничение способа обнаружением и классификацией объектов только по критерию цвета объекта и только на изображениях видимого диапазона.The disadvantage of this analog is the limitation of the method by detecting and classifying objects only by the criterion of the color of the object and only on images of the visible range.

Известен также способ вычислительно эффективного многоклассового распознавания изображений с использованием последовательного анализа нейросетевых признаков по патенту РФ №2706960, описанный в [3]. Данный способ заключается в том, что посредством сверточной нейронной сети получают вектор глубоких признаков входного изображения, применяют преобразование по методу главных компонент к данному вектору для получения последовательности главных компонент входного изображения, делят последовательность главных компонент на заранее заданное количество смежных частей, каждая из которых относится к отличающемуся от других уровню гранулярности, присоединяют часть последовательности, относящуюся к этому уровню гранулярности, к первоначально пустой подпоследовательности главных компонент входного изображения, вычисляют расстояние между подпоследовательностью и соответствующими подпоследовательностями главных компонент эталонов из множества решений-кандидатов, оценивают отношения минимального расстояния к другим расстояниям, исключают эталоны с отношениями меньше порога из множества решений-кандидатов, и если множество решений-кандидатов включают в эталоны только одного класса, идентифицируют входное изображение как относящееся к этому классу.There is also a method of computationally efficient multi-class image recognition using sequential analysis of neural network features according to RF patent No. 2706960, described in [3]. This method consists in the fact that by means of a convolutional neural network a vector of deep features of the input image is obtained, a principal component transformation is applied to this vector to obtain a sequence of principal components of the input image, the sequence of principal components is divided into a predetermined number of adjacent parts, each of which belongs to to a different level of granularity, the part of the sequence related to this level of granularity is attached to the initially empty subsequence of the main components of the input image, the distance between the subsequence and the corresponding subsequences of the main components of the templates from the set of candidate solutions is calculated, the ratios of the minimum distance to other distances are estimated, etalons with ratios less than a threshold are excluded from the set of candidate solutions, and if the set of candidate solutions is included in the etalons of only one class, the input one image as belonging to this class.

Недостатком указанного аналога является неустойчивость распознавания изображений при воздействии на исследуемые изображения различных искажающих воздействий при формировании изображений.The disadvantage of this analog is the instability of image recognition when exposed to the studied images of various distorting influences in the formation of images.

Наиболее близким по своей технической сущности к заявленному способу обработки изображений сверточной нейронной сетью является способ обработки изображений обученными сверточными нейронными сетями по патенту РФ №2709661, описанный в [4]. Способ - прототип обработки изображений сверточной нейронной сетью включает создание вычислительной системой исходного набора изображений, где каждое изображение из исходного набора изображений содержит рендеринг изображения текста, создание аугментированного набора изображений путем обработки исходного набора изображений для внесения в каждое изображение из исходного набора изображений по меньшей мере одного смоделированного дефекта эмуляции процесса фотосъемки изображения, создание обучающей выборки данных, содержащей множество пар изображений, в которых каждая пара изображений содержит первое изображение, выбранное из исходного набора изображений, и второе изображение, выбранное из аугментированного набора изображений, и обучение, с использованием обучающей выборки данных, одной или более сверточной нейронной сети для обработки изображений путем активации сверточной нейронной сети для каждого изображения из обучающей выборки данных, предварительной обработки каждого указанного изображения посредством соответствующих сверточных слоев нейронной сети, уменьшения каждого указанного изображения на заданный коэффициент масштабирования, увеличения изображения на заданный коэффициент масштабирования посредством соответствующих слоев транспонированной свертки и применение одной или более обученной сверточной нейронной сети для обработки одного или более изображений.The closest in its technical essence to the claimed method of image processing by a convolutional neural network is the method of image processing by trained convolutional neural networks according to RF patent No. 2709661, described in [4]. The method - a prototype of image processing by a convolutional neural network includes the creation by a computing system of an initial set of images, where each image from the original set of images contains a rendering of a text image, the creation of an augmented set of images by processing the initial set of images to add at least one image to each image from the original set of images. of a simulated defect in the emulation of the image capture process, creating a training data set containing a plurality of image pairs, in which each image pair contains a first image selected from the original image set and a second image selected from the augmented image set, and training using the training data set , one or more convolutional neural networks for image processing by activating a convolutional neural network for each image from the training data sample, preprocessing each specified image ing through the respective convolutional neural network layers, reducing each specified image by a given scaling factor, enlarging the image by a given scaling factor through the respective transposed convolution layers, and applying one or more trained convolutional neural networks to process one or more images.

Особенностью способа-прототипа является то, что для обучения сверточной нейронной сети создают большой набор изображений символов с различными модификациями, такими как затемнение части изображения символов, размытие изображения символов, наложение на изображения символов мешающего шума и т.д., что позволяет обучить сверточную нейронную сеть на большом наборе различных вариантов изображений одного и того же текстового сообщения, и обеспечить устойчивое к таким модификациям обнаружение и распознавание на изображениях видимого диапазона символов текста с использованием обученной сверточной нейронной сети.A feature of the prototype method is that for training a convolutional neural network, a large set of character images is created with various modifications, such as darkening part of the character image, blurring the character image, superimposing interfering noise on the character images, etc., which allows you to train the convolutional neural network. network on a large set of different variants of images of the same text message, and to ensure the detection and recognition of the visible range of text characters in images that are resistant to such modifications using a trained convolutional neural network.

Однако в данном способе-прототипе обработки изображений сверточной нейронной сетью выполняют обнаружение и классификацию только на изображениях видимого диапазона и только алфавитно-цифровых надписей, причем условия получения таких изображений ограничиваются фотосъемкой изображений с борта наземных средств передвижений, таких как автомобиль.However, in this prototype image processing method, a convolutional neural network performs detection and classification only on visible range images and only alphanumeric inscriptions, and the conditions for obtaining such images are limited to photographing images from aboard ground vehicles, such as a car.

Таким образом, недостатком ближайшего аналога (прототипа) способа обработки изображений сверточной нейронной сетью является относительно низкая вероятность обнаружения и классификации на изображениях объектов, представляющих собой различные транспортные и технические средства, здания и строительные конструкции, элементы инфраструктуры, элементы местности и т.п., при получении изображений различной физической природы, включающей изображения видимого диапазона, СВЧ-диапазона и ИК-диапазона, с использованием подвижных технических средств, включающих пилотируемые и беспилотные летательные аппараты и наземные и морские пилотируемые и робототехнические комплексы.Thus, the disadvantage of the closest analogue (prototype) of the image processing method by a convolutional neural network is the relatively low probability of detecting and classifying objects in images, which are various vehicles and technical means, buildings and building structures, infrastructure elements, terrain elements, etc., when obtaining images of various physical nature, including images of the visible range, microwave range and infrared range, using mobile technical means, including manned and unmanned aerial vehicles and ground and sea manned and robotic systems.

Техническим результатом заявляемого решения является разработка способа обработки изображений сверточной нейронной сетью, обеспечивающего повышение вероятности обнаружения и классификации объектов на изображениях различных видов, включая изображения видимого диапазона, СВЧ-диапазона и ИК-диапазона.The technical result of the proposed solution is the development of a method for processing images by a convolutional neural network, which provides an increase in the probability of detecting and classifying objects in images of various types, including images of the visible range, microwave range and infrared range.

Указанный технический результат в заявляемом способе обработки изображений сверточной нейронной сетью достигается тем, что в известном способе обработки изображений сверточной нейронной сетью, включающем создание вычислительной системой исходных наборов изображений, создание аугментированного набора изображений, создание обучающих выборок данных, содержащих множество изображений, обучение с использованием соответствующей обучающей выборки данных сверточной нейронной сети, применение обученной сверточной нейронной сети, дополнительно предварительно получают наборы натурных изображений N>2 объектов и трехмерные модели объектов, причем наборы натурных изображений объектов предварительно сформированы в видимом диапазоне, или в СВЧ-диапазоне, или в ИК-диапазоне.The specified technical result in the claimed method of image processing by a convolutional neural network is achieved by the fact that in the known method of image processing by a convolutional neural network, including the creation of a computing system of initial sets of images, the creation of an augmented set of images, the creation of training data samples containing a plurality of images, training using the appropriate training sample data of a convolutional neural network, the use of a trained convolutional neural network, additionally, sets of natural images of N> 2 objects and three-dimensional models of objects are preliminarily obtained, moreover, sets of natural images of objects are preliminarily formed in the visible range, or in the microwave range, or in the infrared range .

Создают N исходных наборов изображений объектов, где каждое изображение из исходного набора изображений является результатом рендеринга трехмерной модели объекта, причем каждое изображение из исходного набора изображений получают изменением ракурса наблюдения трехмерной модели этого объекта по азимуту и углу места.N initial sets of images of objects are created, where each image from the original set of images is the result of rendering a three-dimensional model of the object, and each image from the original set of images is obtained by changing the viewing angle of the three-dimensional model of this object in azimuth and elevation.

Создают аугментированный набор изображений каждого объекта путем внесения в каждое изображение из исходного набора изображений и набора натурных изображений соответствующего объекта по меньшей мере одного изменения. Внесение изменений в каждое изображение из исходного набора изображений и набора натурных изображений соответствующего объекта выполняют путем изменения масштаба изображения, путем сокрытия части изображения этого объекта, путем деконтрастирования всего или части изображения этого объекта, путем изменения освещенности всего или части изображения этого объекта, путем расфокусировки всего или части изображения этого объекта, путем размытия изображения этого объекта, имитирующего движение объекта или устройства формирования изображения, путем наложения шумового сигнала на все или часть изображения этого объекта, путем изменения отражательных свойств всего или части изображения этого объекта, путем закрытия части изображения этого объекта изображением другого объекта. Также для внесения изменений в каждое изображение ИК-диапазона из исходного набора изображений и набора натурных изображений соответствующего объекта выполняют путем изменения излучательных свойств всего или части изображения этого объекта.An augmented set of images of each object is created by introducing at least one change into each image from the original set of images and the set of full-scale images of the corresponding object. Making changes to each image from the original set of images and a set of full-scale images of the corresponding object is performed by changing the image scale, by hiding part of the image of this object, by decontrasting all or part of the image of this object, by changing the illumination of all or part of the image of this object, by defocusing the entire or part of the image of this object, by blurring the image of this object, imitating the movement of an object or imaging device, by applying a noise signal to all or part of the image of this object, by changing the reflective properties of all or part of the image of this object, by covering part of the image of this object with an image another object. Also, to make changes to each image in the IR range from the original set of images and the set of full-scale images of the corresponding object, it is performed by changing the radiative properties of all or part of the image of this object.

Создают обучающие выборки данных, содержащие множество изображений, выбранных из аугментированных наборов изображений объектов.Training data samples are created containing a plurality of images selected from augmented object image sets.

Обучение сверточной нейронной сети с использованием соответствующей обучающей выборки данных выполняют путем вычисления с помощью сверточной нейронной сети множества векторов признаков, при этом каждый вектор признаков из множества векторов признаков соответствует изображению из обучающей выборки данных в пространстве признаков изображений, вычисление для обучающей выборки данных значения функции потерь, отображающей множество вероятностей, где каждая вероятность из множества вероятностей характеризует гипотезу, ассоциирующую изображение из обучающей выборки данных классом, ассоциируемым с этим изображением, при этом функция потерь дополнительно отображает множество значений расстояния, где каждое значение расстояния вычисляют в пространстве признаков изображений между вектором признаков, представляющим изображение из обучающей выборки данных, и центром класса, ассоциируемого с этим изображением в соответствии с обучающей выборкой данных, настройку одного или более параметров сверточной нейронной сети на основе значения функции потерь.The training of a convolutional neural network using the corresponding training data set is performed by calculating a set of feature vectors using the convolutional neural network, with each feature vector of the set of feature vectors corresponding to an image from the training data set in the image feature space, calculating the value of the loss function for the training data set , displaying a set of probabilities, where each probability from the set of probabilities characterizes a hypothesis that associates an image from the training data sample with a class associated with this image, while the loss function additionally displays a set of distance values, where each distance value is calculated in the feature space of images between the feature vector, representing an image from the training data sample, and the center of the class associated with this image in accordance with the training data sample, setting one or more parameters convolutionally th neural network based on the value of the loss function.

После обучения сверточной нейронной сети применяют ее к исследуемому изображению для обнаружения и классификации изображенных на нем объектов, причем обученная соответствующим образом сверточная нейронная сеть обнаруживает и классифицирует объекты на изображениях видимого диапазона, или СВЧ-диапазона, или ИК-диапазона.After training, the convolutional neural network is applied to the image under study to detect and classify the objects depicted on it, and the appropriately trained convolutional neural network detects and classifies objects in the images of the visible range, or the microwave range, or the infrared range.

В предлагаемой совокупности действий предварительно получают наборы натурных изображений N>2 объектов и трехмерные модели этих объектов. Формирование множества синтетических фотореалистических изображений из исходного набора изображений путем рендеринга трехмерной модели соответствующего объекта изменением ракурса наблюдения трехмерной модели этого объекта по азимуту и углу места позволяет получить большое количество разнообразных изображений каждого объекта, что важно для обучения сверточной нейронной сети, способной обеспечить высокую вероятность обнаружения и классификации изображенного объекта. Важным моментом также является то, что из трехмерной модели объекта возможно формирование произвольно большого множества синтетических фотореалистических изображений этого объекта в видимом, СВЧ и ИК диапазонах электромагнитного спектра в условиях, когда получение значительных по размеру наборов натурных изображений объектов является затруднительным или невозможным в силу высокой стоимости получения натурных изображений объектов, их низкой доступности для наблюдения и т.п.In the proposed set of actions, sets of full-scale images of N>2 objects and three-dimensional models of these objects are first obtained. The formation of a set of synthetic photorealistic images from the initial set of images by rendering a three-dimensional model of the corresponding object by changing the viewing angle of the three-dimensional model of this object in azimuth and elevation allows you to get a large number of various images of each object, which is important for training a convolutional neural network that can provide a high probability of detection and classification of the depicted object. An important point is also that from a three-dimensional model of an object it is possible to form an arbitrarily large set of synthetic photorealistic images of this object in the visible, microwave and infrared ranges of the electromagnetic spectrum in conditions where obtaining large sets of natural images of objects is difficult or impossible due to the high cost. obtaining full-scale images of objects, their low availability for observation, etc.

Кроме того, создают аугментированные наборы изображений каждого объекта путем внесения в каждое изображение из исходного набора изображений и набора натурных изображений соответствующего объекта множества изменений, характерных для исследуемых изображений, получаемых с борта подвижных технических средств, включающих пилотируемые и беспилотные летательные аппараты, наземные и морские управляемые транспортные средства и робототехнические комплексы, с учетом множества воздействующих в таких условиях искажений. Обучение сверточной нейронной сети с использованием сформированной таким образом обучающей выборки данных позволяет при использовании обученной сети устойчиво обнаруживать и классифицировать объекты на получаемых далее исследуемых изображениях, имеющих большую вариабельность. Описанные действия по созданию обучающей выборки данных выполняют раздельно для изображений видимого диапазона, СВЧ-диапазона и ИК-диапазона, и используют для соответствующего обучения сверточной нейронной сети, что обеспечивает адаптацию действий обнаружения и классификации объектов применительно к особенностям изображений соответствующего диапазона электромагнитных волн.In addition, augmented sets of images of each object are created by introducing into each image from the original set of images and the set of full-scale images of the corresponding object a set of changes characteristic of the studied images obtained from the board of mobile technical means, including manned and unmanned aerial vehicles, ground and sea controlled vehicles and robotic systems, taking into account the many distortions that affect such conditions. Training a convolutional neural network using the training data set thus formed allows, using the trained network, to stably detect and classify objects in the further studied images that have a large variability. The described steps for creating a training data sample are performed separately for images of the visible range, microwave range and IR range, and are used for the corresponding training of a convolutional neural network, which ensures that the actions of detecting and classifying objects are adapted to the features of the images of the corresponding range of electromagnetic waves.

Поэтому указанная новая совокупность действий при выполнении обработки изображений сверточной нейронной сетью позволяет обеспечить повышение вероятности обнаружения и классификации объектов на изображениях различных видов, включая изображения видимого диапазона, СВЧ-диапазона и ИК-диапазона.Therefore, the specified new set of actions when performing image processing by a convolutional neural network makes it possible to increase the probability of detecting and classifying objects in images of various types, including images of the visible range, microwave range and infrared range.

Заявленный способ поясняется чертежами, на которых показаны:The claimed method is illustrated by drawings, which show:

- на фиг. 1 - система обработки изображений сверточной нейронной сетью;- in Fig. 1 - an image processing system with a convolutional neural network;

- на фиг. 2 - алгоритм обработки изображений сверточной нейронной сетью;- in Fig. 2 - algorithm for image processing by a convolutional neural network;

- на фиг. 3 - примеры натурных и модельных изображений самолета на изображениях СВЧ-диапазона с различными ракурсами;- in Fig. 3 - examples of full-scale and model images of the aircraft on images of the microwave range from different angles;

- на фиг. 4 - примеры натурных и модельных изображений самолета в ИК-диапазоне, днем, в зимних условиях;- in Fig. 4 - examples of full-scale and model images of the aircraft in the IR range, during the day, in winter conditions;

- на фиг. 5 - примеры визуализации трехмерной модели танка Т-90;- in Fig. 5 - examples of visualization of a three-dimensional model of the T-90 tank;

- на фиг. 6 - иллюстрация метода бросания лучей при рендеринге;- in Fig. 6 is an illustration of the rendering method of throwing rays;

- на фиг. 7 - пример сокрытия части изображения объектов вида строительной и транспортной техники деревьями и строительными конструкциями;- in Fig. 7 - an example of hiding a part of the image of objects of the type of construction and transport equipment by trees and building structures;

- на фиг. 8 - пример деконтрастирования изображения объектов вида транспортных средств и элементов инфраструктуры при воздушной съемке;- in Fig. 8 - an example of decontrasting the image of objects such as vehicles and infrastructure elements during aerial photography;

- на фиг. 9 - пример изменения освещенности части изображения объекта вида вертолетная площадка, вид сверху;- in Fig. 9 - an example of changing the illumination of a part of the image of an object of the helipad view, top view;

- на фиг. 10 - пример размытия изображения автомобиля, обусловленного движением объекта;- in Fig. 10 is an example of blurring of an image of a car due to the movement of an object;

- на фиг. 11 - пример наложения шумового сигнала на изображение объектов вида стоянка транспортных средств и прилегающие деревья;- in Fig. 11 - an example of superimposing a noise signal on the image of objects of the form of a parking lot of vehicles and adjacent trees;

- на фиг. 12 - пример изменения отражательных свойств изображения транспортных средств в видимом диапазоне света;- in Fig. 12 - an example of changing the reflective properties of the image of vehicles in the visible light range;

- на фиг. 13 - пример закрытия части изображения одних транспортных средств изображениями других транспортных средств;- in Fig. 13 - an example of covering a part of the image of some vehicles with images of other vehicles;

- на фиг. 14 - примеры изменения излучательных свойств работающего двигателя легкового автомобиля и транспортера с нагретыми из-за трения движения гусеницами на изображениях ИК-диапазона.- in Fig. 14 - examples of changes in the radiative properties of a running engine of a passenger car and a conveyor with caterpillars heated due to friction in the IR range images.

Реализация заявленного способа представлена на примере системы обработки изображений сверточной нейронной сетью, показанной на фиг. 1. На вход блока рейдеринга 1 поступают предварительно созданные трехмерные модели объектов. Блок рендеринга 1, представляющий из себя вычислительную систему, из каждой трехмерной модели создает исходный набор изображений соответствующего объекта. В блоке создания аугментированного набора изображений 2 из исходных наборов изображений объектов и предварительно созданных наборов натурных изображений этих же объектов изображения подвергаются различным изменениям в различных сочетаниях. В результате создается большой по размеру аугментированный набор изображений каждого объекта, из которых в блоке создания обучающей выборки данных 3 выбирают меньшую по размеру обучающую выборку данных, которая в блоке обучения сверточной нейронной сети 4 используется для обучения сверточной нейронной сети. Обучение могут выполнять неоднократно, каждый раз меняя часть аугментированных наборов изображений, используемых в качестве текущего варианта обучающей выборки данных. Обучение заканчивается, когда при изменениях обучающей выборки данных прекращается увеличение вероятности обнаружения и классификации распознаваемых объектов с использованием обученной сверточной нейронной сети. Далее в блоке обнаружения и классификации 5, построенном на основе обученной сверточной нейронной сети, на поступающем на его вход исследуемом изображении осуществляется поиск и идентификация объектов, изображения которых возможно присутствуют на исследуемом изображении. Результатом работы является обнаружение и классификация по N типам изображенных объектов или при их отсутствии решение вида "объектов не обнаружено". Если на исследуемом изображении имеется два и более изображения объектов, то их обнаружение и классификация выполняют независимо друг от друга. Представленная система обработки изображений описывает использование сверточной нейронной сети для обнаружения и классификации объектов применительно к изображениям видимого диапазона, СВЧ-диапазона, ИК-диапазона, соответственно.The implementation of the claimed method is presented on the example of an image processing system with a convolutional neural network, shown in Fig. 1. Raider block 1 receives pre-created 3D object models. Rendering unit 1, which is a computing system, creates an initial set of images of the corresponding object from each three-dimensional model. In the block for creating an augmented set of images 2 from the original sets of images of objects and previously created sets of full-scale images of the same objects, the images are subjected to various changes in various combinations. As a result, a large augmented set of images of each object is created, from which a smaller training data sample is selected in the training data sample creation block 3, which is used to train the convolutional neural network in the convolutional neural network training block 4. Training can be performed repeatedly, each time changing part of the augmented image sets used as the current version of the training data set. Training ends when, with changes in the training data set, the increase in the probability of detecting and classifying recognizable objects using the trained convolutional neural network stops. Further, in the detection and classification block 5, built on the basis of the trained convolutional neural network, on the image under study arriving at its input, the search and identification of objects whose images are possibly present in the image under study is carried out. The result of the work is the detection and classification by N types of depicted objects or, in their absence, a solution of the form "no objects found". If there are two or more images of objects on the studied image, then their detection and classification are performed independently of each other. The presented image processing system describes the use of a convolutional neural network for object detection and classification in relation to images of the visible range, microwave range, IR range, respectively.

В способе реализуют следующую последовательность действий.The method implements the following sequence of actions.

Алгоритм обработки изображений сверточной нейронной сетью представлен на фигуре 2.The image processing algorithm for a convolutional neural network is shown in Figure 2.

Способы предварительного получения наборов натурных изображений N>2 объектов известны, натурные изображения объектов получают, например, с использованием электронных фотоаппаратов для изображений видимого диапазона, с использованием радиолокационных станций для изображений СВЧ-диапазона, с использованием инфракрасных датчиков для изображений ИК-диапазона. Целесообразно для каждого объекта получение множества натурных изображений, отличающихся точкой съемки, ракурсом объекта, масштабом изображения, климатическими условиями и т.п. Например, на фиг.3 показаны натурные изображения самолета в СВЧ-диапазоне с различными ракурсами (угол азимута 79 градусов в левой верхней части рисунка и 350 градусов в правой верхней части рисунка), а на фиг.4(a) - натурное изображение самолета в ИК-диапазоне, днем, в зимних условиях.Methods for preliminary obtaining sets of natural images of N>2 objects are known, natural images of objects are obtained, for example, using electronic cameras for visible images, using radar stations for microwave images, using infrared sensors for infrared images. It is advisable for each object to obtain a plurality of natural images that differ in the shooting point, the angle of the object, the image scale, climatic conditions, etc. For example, figure 3 shows full-scale images of the aircraft in the microwave range from different angles (azimuth angle 79 degrees in the upper left part of the figure and 350 degrees in the upper right part of the figure), and figure 4(a) - full-scale image of the aircraft in IR range, during the day, in winter conditions.

В силу возможных высоких затрат получения наборов натурных изображений или физической сложности их получения, например, для объектов в космосе или под водой, количество имеющихся натурных изображений некоторых объектов, как правило, ограничено.Due to the possible high costs of obtaining sets of natural images or the physical complexity of obtaining them, for example, for objects in space or under water, the number of available natural images of some objects is usually limited.

Способы предварительного получения трехмерных моделей объектов известны, для их построения разработан ряд программ, таких как 3ds Max, Maya, Cinema 4D, Blender. Трехмерные модели различных объектов создают в результате их 3D-моделирования. Для построения 3D-модели объекта измеряют его геометрические размеры и оценивают его форму. Полученные 3D-модели объектов должны удовлетворять следующим требованиям: высокая степень реалистичности, визуального подобия геометрических форм создаваемых моделей самим объектам, соответствие габаритных размеров моделей размерам объектов, достаточный уровень детализации моделей, высокая точность форм, положения и размеров отдельных конструктивных элементов. Например, моделирование объектов, представляемых изображениями в СВЧ-диапазоне, описано в [5], а моделирование объектов, представляемых изображениями в видимом диапазоне, описано в [6].Methods for preliminary obtaining three-dimensional models of objects are known; a number of programs have been developed for their construction, such as 3ds Max, Maya, Cinema 4D, Blender. Three-dimensional models of various objects are created as a result of their 3D modeling. To build a 3D model of an object, its geometric dimensions are measured and its shape is estimated. The resulting 3D models of objects must meet the following requirements: a high degree of realism, visual similarity of the geometric shapes of the created models to the objects themselves, compliance of the overall dimensions of the models with the dimensions of the objects, a sufficient level of detail of the models, high accuracy of the shapes, position and dimensions of individual structural elements. For example, modeling of objects represented by images in the microwave range is described in [5], and modeling of objects represented by images in the visible range is described in [6].

При создании трехмерных моделей наиболее распространенным способом является построение объемных фигур из сетки полигонов, описываемых вершинами, ребрами и гранями. Трехмерная модель объекта, состоящая из множества полигонов, представляет собой полигональную сетку. Например, на фиг.5 показаны примеры визуализации трехмерной модели танка Т-90 из компьютерной игры "World of Tanks". Для обеспечения фотореалистичности изображения поверхностям трехмерной модели объекта придают вид реальных материалов, таких как металл, дерево, пластик и т.п. Поверхность при необходимости становится прозрачной или зеркальной. Для этого, например, используется функция редактора материалов вида Material Editor в 3ds Max.When creating three-dimensional models, the most common way is to build three-dimensional figures from a grid of polygons described by vertices, edges, and faces. A three-dimensional model of an object, consisting of many polygons, is a polygonal mesh. For example, figure 5 shows examples of visualization of a three-dimensional model of the T-90 tank from the computer game "World of Tanks". To ensure photorealistic images, the surfaces of a three-dimensional model of an object are given the appearance of real materials, such as metal, wood, plastic, etc. The surface, if necessary, becomes transparent or mirror. To do this, for example, use the Material Editor feature of the Material Editor view in 3ds Max.

Для каждого объекта с использованием вычислительной системы создают соответствующий набор изображений объекта, где каждое изображение из исходного набора изображений является результатом рендеринга трехмерной модели этого объекта. Для этого каждое изображение из исходного набора изображений получают изменением ракурса наблюдения трехмерной модели этого объекта по азимуту и углу места. Например, на фиг. 3 показаны сформированные из трехмерной модели изображения самолета с различными ракурсами (угол азимута 79 градусов в левой нижней части рисунка и 350 градусов в правой нижней части рисунка) в СВЧ-диапазоне, а на фиг. 4(6) - сформированное из трехмерной модели изображение самолета в ИК-диапазоне.For each object, using a computing system, a corresponding set of images of the object is created, where each image from the original set of images is the result of rendering a three-dimensional model of this object. To do this, each image from the original set of images is obtained by changing the viewing angle of the three-dimensional model of this object in azimuth and elevation. For example, in FIG. 3 shows images of the aircraft formed from a three-dimensional model with different angles (azimuth angle of 79 degrees in the lower left part of the figure and 350 degrees in the lower right part of the figure) in the microwave range, and in Fig. 4(6) - an image of an aircraft in the IR range formed from a three-dimensional model.

При рендеринге из виртуально наблюдаемой стороны трехмерной модели объекта с помощью вычислительной системы создают двумерное изображение объекта. Например, одним из способов рендеринга является метод трассировки лучей [7]. При этом методе формируемое изображение рассматривается как наблюдаемое из определенной точки. Из точки наблюдения на трехмерную модель объекта направляются лучи, с помощью которых определяется интенсивность и цвет отображаемого пикселя на двумерном изображении. Лучи прекращают свое распространение, когда достигают поверхности трехмерной модели или используемой фоновой поверхности. Иллюстрация метода трассировки лучей при рейдеринге показана на фиг. 6.When rendering from a virtually observed side of a three-dimensional model of an object, a two-dimensional image of the object is created using a computing system. For example, one of the rendering methods is the ray tracing method [7]. With this method, the generated image is considered as being observed from a certain point. Rays are directed from the observation point to the 3D model of the object, with the help of which the intensity and color of the displayed pixel in the 2D image are determined. The rays stop their propagation when they reach the surface of the 3D model or the background surface being used. An illustration of the ray tracing method for raiding is shown in FIG. 6.

Существующую в виде электронного образа в вычислительной системе трехмерную модель объекта виртуально поворачивают на заданные угол азимута и угол места и формируют наблюдаемый ракурс изображения объекта. Значения углов азимута и углов места наблюдения трехмерной модели объекта выбирают исходя из возможных ракурсов физического наблюдения этого объекта, таких как вид спереди, сзади, с боков, горизонтально земной поверхности или под углом, включая вид сверху. Шаг изменения угла азимута и угла места выбирают не более нескольких градусов для увеличения числа изображений в наборе для каждого объекта, что позволит повысить вероятность обнаружения и распознавания этих объектов. Например, на фиг. 3 (нижняя часть рисунка) показаны изображения самолета в СВЧ-диапазоне, при наблюдении его трехмерной модели при различных углах по азимуту.The three-dimensional model of the object existing in the form of an electronic image in the computer system is virtually rotated by the specified azimuth angle and elevation angle and an observable view of the object image is formed. The values of the azimuth angles and elevation angles of the three-dimensional model of the object are selected based on the possible angles of physical observation of this object, such as front, rear, side, horizontal to the earth's surface or at an angle, including a top view. The step of changing the azimuth and elevation angles is chosen no more than a few degrees to increase the number of images in the set for each object, which will increase the probability of detecting and recognizing these objects. For example, in FIG. 3 (lower part of the figure) shows images of the aircraft in the microwave range, when observing its three-dimensional model at various angles in azimuth.

Из созданного исходного набора изображений и набора натурных изображений каждого объекта создают аугментированный набор изображений этого объекта путем внесения в каждое изображение этих наборов по меньшей мере одного изменения. Данные изменения вносятся в электронные изображения известными способами электронного редактирования. При внесении таких изменений в исходный набор изображений и набор натурных изображений учитывают возможные условия съемки и влияние различных искажений, получаемых в реальных условиях наблюдения объектов с учетом воздействия различных физических, климатических и иных факторов.From the created initial set of images and a set of full-scale images of each object, an augmented set of images of this object is created by making at least one change to each image of these sets. These changes are made to electronic images by known electronic editing techniques. When making such changes to the original set of images and the set of natural images, possible shooting conditions and the effect of various distortions obtained in real conditions of observing objects, taking into account the impact of various physical, climatic and other factors, are taken into account.

Изображения могут изменять, например, путем изменения масштаба этого изображения. Для этого для исследуемых изображений, на которых планируют выполнять операции обнаружения и классификации объектов, определяют возможные варианты масштаба изображений. Исходя из полученных вариантов масштаба исследуемых изображений, для каждого изображения из аугментированного набора изображений объекта изменяют его масштаб таким образом, чтобы полученный хотя бы в одном измененном изображении масштаб не отличался более чем на 20…30% от одного из вариантов масштаба исследуемых изображений. Изменение масштаба электронного изображения может реализоваться соответствующей функцией редактора электронных изображений, таким как Adobe Photoshop.Images can be modified, for example, by rescaling the image. To do this, for the studied images, on which it is planned to perform the operations of detection and classification of objects, the possible variants of the image scale are determined. Based on the obtained options for the scale of the images under study, for each image from the augmented set of images of the object, its scale is changed so that the scale obtained in at least one modified image does not differ by more than 20 ... 30% from one of the scale options for the images under study. The rescaling of an electronic image may be implemented by a corresponding function of an electronic image editor such as Adobe Photoshop.

Изображения могут изменять, например, путем сокрытия части изображения объекта. Такое искажение может быть вызвано различными причинами, включая невозможностью наблюдения каких-либо частей объекта, скрытием части объекта окружающим ландшафтом и т.п. Способы сокрытия части изображения объекта заключаются в выделении на электронном изображении соответствующих частей и заменой их, например, фоновым изображением. Выделение на электронном изображении частей и заменой их фоновым изображением может реализоваться соответствующей функцией редактора электронных изображений, таким как Adobe Photoshop. Например, на фиг. 7 показан пример сокрытия части изображений объектов вида строительной и транспортной техники деревьями и строительными конструкциями.Images can be changed, for example, by hiding part of the image of the object. Such distortion can be caused by various reasons, including the impossibility of observing any parts of the object, hiding part of the object by the surrounding landscape, and so on. Methods for hiding a part of an image of an object consist in selecting the corresponding parts on the electronic image and replacing them, for example, with a background image. Selecting parts of the electronic image and replacing them with a background image can be implemented by the corresponding function of the electronic image editor, such as Adobe Photoshop. For example, in FIG. 7 shows an example of hiding part of the images of objects of the type of construction and transport equipment by trees and building structures.

Изображения могут изменяться, например, путем деконтрастирования всего или части изображения этого объекта. При деконтрастировании всего или части изображения объекта происходит снижение контрастности этого изображения. Деконтрастирование всего или части изображения объекта на практике вызвано дымкой и осадками на трассе распространения электромагнитного сигнала. В предлагаемом способе в вычислительной системе имитируют деконтрастирование всего или части изображения объекта выполнением в соответствующей части изображения амплитудного преобразования, приводящего к сужению динамического диапазона яркости, соответствующего физическим условиям съемки и особенностям устройств формирования изображения. Фильтрация всего или части изображения может реализоваться соответствующей функцией редактора электронных изображений, таким как Adobe Photoshop.Например, на фиг. 8 показан пример деконтрастирования изображения объектов вида транспортных средств и элементов инфраструктуры при воздушной съемке.Images can be changed, for example, by decontrasting all or part of the image of this object. When decontrasting all or part of an image of an object, the contrast of this image is reduced. The decontrasting of all or part of the image of an object in practice is caused by haze and precipitation along the electromagnetic signal propagation path. In the proposed method, the computer system simulates the decontrasting of the entire or part of the image of an object by performing an amplitude transformation in the corresponding part of the image, which leads to a narrowing of the dynamic range of brightness corresponding to the physical conditions of shooting and the features of imaging devices. Filtering all or part of an image may be implemented by an appropriate function of an electronic image editor such as Adobe Photoshop. For example, in FIG. 8 shows an example of decontrasting the image of objects such as vehicles and infrastructure elements during aerial photography.

Изображения также могут изменять, например, путем изменения освещенности всего или части изображения объекта. Способы изменения освещенности всего или части изображения заключаются в формировании в вычислительной системе модели источника света, например, имитирующего солнечное светило, определение его интенсивности и местоположения относительно плоскости изображения объекта и в соответствии с углами падения имитируемых солнечных лучей на поверхности изображения объекта, изменение степени освещенности этих поверхностей. Пропорционально изменению степени освещенности изменяют значение яркости соответствующих пикселей редактируемого электронного изображения с использованием функцией редактора электронных изображений, таким как Adobe Photoshop.Например, на фиг. 9 показан пример изменения освещенности части изображения объекта вида вертолетная площадка, вид сверху.Images can also be changed, for example, by changing the illumination of all or part of the image of the object. Methods for changing the illumination of the entire or part of the image consist in the formation in the computer system of a model of a light source, for example, simulating a solar luminary, determining its intensity and location relative to the image plane of the object and, in accordance with the angles of incidence of the simulated sunlight on the image surface of the object, changing the degree of illumination of these surfaces. The brightness value of the corresponding pixels of the electronic image being edited is changed proportionally to the change in the illuminance using a function of an electronic image editor such as Adobe Photoshop. For example, in FIG. Figure 9 shows an example of changing the illumination of a part of the image of an object of the heliport view, top view.

Изображения также могут изменять, например, путем размытия изображения этого объекта, обусловленного движением объекта или устройства формирования изображения. Обнаруживаемые на изображениях объекты могут передвигаться с некоторой скоростью и/или устройства формирования изображения могут быть установлены на различных транспортных средствах, включая летательные аппараты, что на практике вызывает смещение изображения объекта в течение времени экспозиции съемки. В предлагаемом способе в вычислительной системе имитируют размытие изображения этого объекта, обусловленного движением объекта или устройства формирования изображения, путем фильтрации изображения, например, одномерным фильтром Гаусса в направлении предполагаемого взаимного изменения местоположения объекта или устройства формирования изображения, и с параметрами фильтрации, определяемыми возможными значениями скорости их взаимного перемещения. Для размытия изображения может быть использована соответствующая функция редактора электронных изображений, таким как Adobe Photoshop.Например, на фиг. 10 показан пример размытия изображения автомобиля, обусловленного движением объекта.The images can also be changed, for example, by blurring the image of that object due to movement of the object or imaging device. Objects detected in images may move at some speed and/or imaging devices may be mounted on various vehicles, including aircraft, which in practice causes the image of the object to shift during exposure time. In the proposed method, the computer system imitates the blurring of the image of this object, due to the movement of the object or imaging device, by filtering the image, for example, with a one-dimensional Gaussian filter in the direction of the supposed mutual change in the location of the object or imaging device, and with filtering parameters determined by possible speed values their mutual movement. An appropriate function of an electronic image editor such as Adobe Photoshop can be used to blur the image. For example, in FIG. 10 shows an example of blurring an image of a car due to the movement of an object.

Изображения также могут изменять, например, путем наложения шумового сигнала на все или часть изображения этого объекта. Шумовой сигнал на изображениях объекта может быть вызван, например, шумами матрицы средства съемки, загрязнением и неидеальностью оптической системы линз средства съемки, атмосферными условиями при съемке, сжатием с потерями информации при записи снимков, помехами канала передачи изображений и т.п. В предлагаемом способе в вычислительной системе выполняют наложение шумового сигнала на все или часть изображения объекта путем генерации матрицы шумового сигнала с соответствующей интенсивностью и распределением шума и суммирование матрицы шумового сигнала с матрицей яркости пикселей изображения. Такое суммирование (микширование) двух матриц может реализоваться соответствующей функцией редактора электронных изображений, таким как Adobe Photoshop. Например, на фиг. 11 показан пример наложения шумового сигнала на изображение объектов вида стоянка транспортных средств и прилегающие деревья.The images can also be modified, for example by applying a noise signal to all or part of the image of that object. The noise signal in the images of the object can be caused, for example, by the noise of the sensor of the acquisition tool, contamination and non-ideality of the optical system of the lenses of the acquisition tool, atmospheric conditions during shooting, lossy compression when recording images, noise in the image transmission channel, etc. In the proposed method, the computer system superimposes a noise signal on all or part of an object image by generating a noise signal matrix with the appropriate intensity and noise distribution and summing the noise signal matrix with the image pixel brightness matrix. Such a summation (mixing) of the two matrices can be realized by an appropriate function of an electronic image editor such as Adobe Photoshop. For example, in FIG. Figure 11 shows an example of overlaying a noise signal on an image of objects of the form of a parking lot of vehicles and adjacent trees.

Изображения также могут изменять, например, путем расфокусировки всего или части изображения объекта. В предлагаемом способе в вычислительной системе имитируют расфокусировку всего или части изображения объекта путем выполнения операции интерполяции значений яркости соседних пикселей соответствующей части изображения объекта. При этом истинное значение яркости текущего пиксела заменяют на среднее арифметическое значение яркости соседних пикселей. Степень расфокусировки можно регулировать числом итераций выполнения операции интерполяции. Для расфокусировки всего или части изображения объекта может быть использована функция интерполяции значений яркости соседних пикселей в редакторе электронных изображений, таком как Adobe Photoshop.Images can also be changed, for example, by defocusing all or part of the image of the object. In the proposed method, the computer system simulates defocusing of the entire or part of the object image by performing the operation of interpolating the brightness values of neighboring pixels of the corresponding part of the object image. In this case, the true value of the brightness of the current pixel is replaced by the arithmetic mean value of the brightness of neighboring pixels. The degree of defocusing can be controlled by the number of iterations of the interpolation operation. To defocus all or part of an image of an object, the function of interpolating the brightness values of neighboring pixels in an electronic image editor such as Adobe Photoshop can be used.

Изображения также могут изменять, например, путем изменения отражательных свойств всего или части изображения объекта. На качество получаемых изображений, например, радиолокационных изображений, существенное влияние оказывают отражательные свойства этого объекта, определяемые характеристиками конструкционных материалов объекта и его составных частей. Созданные в виде электронного образа в вычислительной системе трехмерные модели объекта предполагают возможность изменения отражательных свойств всего или части изображения объекта. Для изображений в видимом диапазоне отражательные свойства меняются в зависимости от материала поверхности объекта, степени гладкости поверхности, характеристик лако-красочного покрытия и т.п. Для изображений в СВЧ-диапазоне отражательные свойства меняются в зависимости от вида материала объекта: металл, дерево, пластик, камень и т.п. Меняя в составных частей трехмерной модели объекта вид материала, степени гладкости поверхности и характеристики покрытия с известными значениями коэффициента отражения, возможно изменение отражательных свойств всего или части изображения объекта. Например, на фиг. 12 показан пример изменения отражательных свойств изображения транспортных средств в видимом диапазоне света.Images can also be modified, for example by changing the reflective properties of all or part of the object's image. The quality of the resulting images, for example, radar images, is significantly affected by the reflective properties of this object, which are determined by the characteristics of the structural materials of the object and its components. Three-dimensional models of an object created in the form of an electronic image in a computer system suggest the possibility of changing the reflective properties of the entire or part of the image of the object. For images in the visible range, the reflective properties vary depending on the surface material of the object, the degree of surface smoothness, the characteristics of the paint coating, etc. For images in the microwave range, the reflective properties vary depending on the type of object material: metal, wood, plastic, stone, etc. By changing the type of material, the degree of surface smoothness and characteristics of the coating with known values of the reflection coefficient in the constituent parts of the three-dimensional model of the object, it is possible to change the reflective properties of the entire or part of the image of the object. For example, in FIG. 12 shows an example of changing the reflective properties of an image of vehicles in the visible light range.

Изображения также могут изменять, например, путем закрытия части изображения объекта изображением другого объекта. На практике часто происходит закрытие части изображения объекта изображением другого объекта, например, изображение наблюдаемого здания может быть частично закрыто деревьями, изображение летательного аппарата или космического тела - облаками и т.п. Способы закрытия части изображения объекта изображением другого объекта заключаются в выделении на электронном изображении объекта некоторых предположительно ненаблюдаемых частей и заменой их изображением других объектов, возможных в соответствии с условиями съемки. Выделение на электронном изображении частей и заменой их изображением других объектов может реализоваться соответствующей функцией редактора электронных изображений, таким как Adobe Photoshop. Например, на фиг. 13 показан пример закрытия части изображения одних транспортных средств изображениями других транспортных средств.Images can also be changed, for example, by covering part of the image of an object with an image of another object. In practice, a part of an image of an object is often covered by an image of another object, for example, an image of an observed building can be partially covered by trees, an image of an aircraft or a space body by clouds, etc. Methods for covering a part of an image of an object with an image of another object consist in highlighting some supposedly unobservable parts on the electronic image of the object and replacing them with an image of other objects that are possible in accordance with the shooting conditions. Selecting parts on the electronic image and replacing them with the image of other objects can be implemented by the corresponding function of the electronic image editor, such as Adobe Photoshop. For example, in FIG. 13 shows an example of covering a part of the image of some vehicles with images of other vehicles.

Изображения ИК-диапазона также могут изменять, например, путем изменения излучательных свойств всего или части этого объекта. Излучательные свойства объектов обусловлены рядом факторов, таких как освещенностью (нагревом) солнцем предметов, внутренними источниками тепла объектов, например, обусловленных нагревом за счет работы двигателя или за счет трения в осях механизмов, а также особенностями излучения объектом и окружающим фоном, как описано, например, в [8]. На визуализированных изображениях ИК-диапазона при изменении излучательных свойств всего или части объекта пропорционально изменяется яркость пикселей представления соответствующих частей объекта. Например, на фиг. 14 показаны примеры изменения излучательных свойств работающего двигателя легкового автомобиля и транспортера с нагретыми из-за трения движения гусеницами на изображениях ИК-диапазона.IR images can also be modified, for example by changing the radiative properties of all or part of that object. The radiative properties of objects are due to a number of factors, such as the illumination (heating) of objects by the sun, internal heat sources of objects, for example, due to heating due to the operation of the engine or due to friction in the axes of mechanisms, as well as the characteristics of radiation by the object and the surrounding background, as described, for example , at 8]. In the rendered images of the IR range, when the radiative properties of the entire or part of the object change, the brightness of the representation pixels of the corresponding parts of the object changes proportionally. For example, in FIG. 14 shows examples of changes in the radiative properties of a running engine of a passenger car and a conveyor with caterpillars heated due to friction in the IR range images.

Перечисленные изменения изображений могут быть выполнены в произвольном порядке с выбором произвольного набора изменений над различными изображениями из исходного набора изображений и набора натурных изображений каждого объекта. В результате для каждого объекта создают аугментированный набор изображений, состоящий из многих сотен - тысяч изображений, отражающих различные условия съемки данного объекта раздельно для изображений видимого диапазона, СВЧ- диапазона и ИК-диапазона.The listed changes to images can be performed in any order with the choice of an arbitrary set of changes on different images from the original set of images and a set of natural images of each object. As a result, an augmented set of images is created for each object, consisting of many hundreds - thousands of images, reflecting various shooting conditions of this object separately for images of the visible range, microwave range and IR range.

Создание обучающих выборок данных, содержащих множество изображений, выбранных из аугментированных наборов изображений объектов, выполняют следующим образом. Раздельно для изображений видимого диапазона, СВЧ-диапазона и ИК-диапазона, из аугментированных наборов изображений объектов случайным образом выбирают часть изображений, составляющую, например, 60-90% от аугментированных наборов изображений, как рекомендуется в [9]. При этом выбранное количество изображений каждого объекта может быть или равным для всех объектов или пропорциональным частости встречаемости такого объекта на практике. Также возможно создание нескольких обучающих выборок данных для изображений из групп объектов, например, разделить все множество объектов на группы по категориям вида летательные аппараты, наземные транспортные средства, здания и строительные конструкции и т.п. Это позволит далее, зная условия съемки искомых объектов, повысить вероятность обнаружения и распознавания объектов в пределах группы объектов.The creation of training data samples containing a plurality of images selected from augmented object image sets is performed as follows. Separately for images of the visible range, microwave range and IR range, a part of the images is randomly selected from the augmented sets of images of objects, for example, 60-90% of the augmented sets of images, as recommended in [9]. In this case, the selected number of images of each object can be either equal for all objects or proportional to the frequency of occurrence of such an object in practice. It is also possible to create several training data samples for images from groups of objects, for example, to divide the entire set of objects into groups into categories such as aircraft, ground vehicles, buildings and building structures, etc. This will allow further, knowing the shooting conditions of the desired objects, to increase the probability of detecting and recognizing objects within a group of objects.

Для обнаружения и классификации объектов используют сверточную нейронную сеть, в которой для операции свертки используется лишь ограниченная матрица весов небольшого размера, которую смещают по всему обрабатываемому слою, формируя после каждого сдвига сигнал активации для нейрона следующего слоя с аналогичной позицией. То есть для различных нейронов выходного слоя используются одна и та же матрица весов, которую называют ядром свертки. Ее интерпретируют как графическое кодирование какого-либо признака, например, наличие наклонной линии под определенным углом. Тогда следующий слой, получившийся в результате операции свертки такой матрицей весов, показывает наличие данного признака в обрабатываемом слое и ее координаты, формируя так называемую карту признаков. Соответственно, в сверточной нейронной сети используют ряд наборов весов, кодирующих элементы изображения (например, линии и дуги под разными углами). При этом такие ядра свертки не закладываются исследователем заранее, а формируются на этапе обучения сети различными способами, описанными, например, в [9].To detect and classify objects, a convolutional neural network is used, in which only a limited small-sized weight matrix is used for the convolution operation, which is shifted over the entire processed layer, forming after each shift an activation signal for the neuron of the next layer with a similar position. That is, for different neurons of the output layer, the same weight matrix is used, which is called the convolution kernel. It is interpreted as a graphic encoding of some feature, for example, the presence of an oblique line at a certain angle. Then the next layer, resulting from the convolution operation by such a weight matrix, shows the presence of this feature in the processed layer and its coordinates, forming the so-called feature map. Accordingly, a convolutional neural network uses a number of sets of weights that encode image elements (eg, lines and arcs at different angles). At the same time, such convolution kernels are not laid down by the researcher in advance, but are formed at the stage of network training in various ways, described, for example, in [9].

Обучение сверточной нейронной сети с использованием обучающей выборки данных выполняют, например, следующим образом. Раздельно обучают сверточную нейронную сеть для обнаружения и классификации объектов на изображениях видимого диапазона, СВЧ-диапазона и ИК-диапазона. Для обучения сети используют одну из созданных обучающих выборок данных. Например, как предлагается в [10], для каждого изображения из обучающей выборки данных с помощью сверточной нейронной сети вычисляют вектор признаков в пространстве признаков изображений, для обучающей выборки данных вычисляют значение функции потерь, отображающей множество вероятностей, где каждая вероятность из множества вероятностей характеризует гипотезу, ассоциирующую изображение из обучающей выборки данных классом, ассоциируемым с этим изображением. При этом функция потерь дополнительно отображает множество значений расстояния, где каждое значение расстояния вычисляют в пространстве признаков изображений между вектором признаков, представляющим изображение из обучающей выборки данных, и центром класса, ассоциируемого с этим изображением в соответствии с обучающей выборкой данных. На основе вычисленного значения функции потерь выполняют настройку одного или более параметров сверточной нейронной сети. Данную последовательность действий итеративно выполняют множество раз, добиваясь минимизации значения функции потерь. Если на очередных итерациях дальнейшего уменьшения значения функции потерь не происходит, то для данной обучающей выборки данных обучение сверточной нейронной сети для обнаружения и классификации объектов на изображениях соответствующего диапазона считают завершенным. Проверку достижения максимально достижимой вероятности обнаружения и классификации объектов для обученной сверточной нейронной сети выполняют на остатке множества изображений, выбранных из аугментированных наборов изображений объектов, из которого исключена использованная для обучения сети обучающая выборка данных. Запомнив полученные значения вероятности обнаружения и классификации объектов, повторно описанным выше образом из аугментированных наборов изображений объектов создают новую обучающую выборку данных, заново обучают на ней сверточную нейронную сеть, для заново обученной сверточной нейронной сети получают значения вероятности обнаружения и классификации объектов на соответствующем остатке множества изображений, выбранных из аугментированных наборов изображений объектов, из которого исключена использованная для обучения обучающая выборка данных. Если вновь полученные значения вероятности обнаружения и классификации объектов не превосходят ранее полученные значения, то обучение сверточной нейронной сети с использованием данной обучающей выборки данных завершают.The training of a convolutional neural network using the training data sample is performed, for example, as follows. A convolutional neural network is trained separately to detect and classify objects in visible, microwave, and infrared images. To train the network, one of the created training data samples is used. For example, as proposed in [10], for each image from the training data sample, using a convolutional neural network, a feature vector is calculated in the image feature space, for the training data sample, the value of the loss function is calculated, which displays a set of probabilities, where each probability from the set of probabilities characterizes the hypothesis A that associates an image from the training data set with the class associated with this image. At the same time, the loss function additionally displays a set of distance values, where each distance value is calculated in the image feature space between the feature vector representing the image from the training data sample and the center of the class associated with this image in accordance with the training data sample. Based on the calculated value of the loss function, one or more parameters of the convolutional neural network are tuned. This sequence of actions is iteratively performed many times in order to minimize the value of the loss function. If at the next iterations there is no further decrease in the value of the loss function, then for a given training data set, the training of a convolutional neural network to detect and classify objects in images of the corresponding range is considered completed. Checking the achievement of the maximum achievable probability of detecting and classifying objects for the trained convolutional neural network is performed on the remainder of the set of images selected from the augmented sets of object images, from which the training data sample used for network training is excluded. Having memorized the obtained values of the probability of detection and classification of objects, in the manner described above, a new training data sample is created from the augmented sets of images of objects, the convolutional neural network is retrained on it, for the newly trained convolutional neural network, the values of the probability of detection and classification of objects are obtained on the corresponding remainder of the set of images , selected from the augmented sets of images of objects, from which the training data set used for training is excluded. If the newly obtained values of the probability of detection and classification of objects do not exceed the previously obtained values, then the training of the convolutional neural network using this training data sample is completed.

Также для повышения вероятности обнаружения и классификации объектов на исследуемых изображениях могут выполнять обучение сверточных нейронных сетей на соответствующих обучающих выборках данных для изображений из групп объектов, например, разделенных на группы объектов по категориям вида летательные аппараты, наземные транспортные средства, здания и строительные конструкции и т.п.Also, to increase the probability of detecting and classifying objects in the images under study, convolutional neural networks can be trained on the corresponding training data samples for images from groups of objects, for example, divided into groups of objects by categories such as aircraft, ground vehicles, buildings and building structures, etc. .P.

Применение обученной сверточной нейронной сети к исследуемому изображению для обнаружения и классификации изображенных на нем объектов выполняют следующим образом. Для обработки исследуемого изображения, полученного в соответствующем диапазоне электромагнитных волн, используют обученную для этого диапазона сверточную нейронную сеть. Результатом обнаружения и классификации изображенного на нем объекта могут быть решения вида "обнаружены и классифицированы объекты" с локализацией их места на исследуемом изображении или "на данном изображении искомых объектов не обнаружено", как показано на фиг. 1. На исследуемом изображении могут быть несколько искомых объектов одного или различных типов. Для их обнаружения на изображении параллельно выполняют поиск объектов различных типов.The application of a trained convolutional neural network to the image under study to detect and classify the objects depicted on it is performed as follows. To process the studied image obtained in the corresponding range of electromagnetic waves, a convolutional neural network trained for this range is used. The result of the detection and classification of the object depicted on it can be solutions of the form "objects detected and classified" with the localization of their place in the image under study or "the desired objects were not found in this image", as shown in Fig. 1. There can be several desired objects of the same or different types on the studied image. To detect them in the image, a search for objects of various types is performed in parallel.

Также для повышения вероятности обнаружения и классификации объектов на исследуемых изображениях, полученных в известных пространственных средах, таких как космическое пространство, подводное пространство и т.п.может быть применена сверточная нейронная сеть, обученная на соответствующих обучающих выборках данных для изображений из групп возможных наблюдаемых объектов.Also, to increase the probability of detecting and classifying objects in the studied images obtained in known spatial environments, such as outer space, underwater space, etc., a convolutional neural network trained on the corresponding training data samples for images from groups of possible observed objects can be used. .

Проверка теоретических предпосылок заявленного способа обработки изображений сверточной нейронной сетью выполнялась путем разработки и тестирования экспериментального образца, реализующего предлагаемый способ.Verification of the theoretical prerequisites of the claimed method of image processing by a convolutional neural network was carried out by developing and testing an experimental sample that implements the proposed method.

Для десятков типов объектов, являющимися транспортными средствами и строительной техникой, получены соответствующие наборы натурных изображений видимого диапазона и разработаны трехмерные модели, для которых созданы аугментированные наборы изображений объектов объемом не менее 300 для каждого объекта, и обучена сверточная нейронная сеть, имеющая следующие характеристики обнаружения и классификации объектов на исследуемых изображениях:For dozens of types of objects, which are vehicles and construction equipment, the corresponding sets of full-scale images of the visible range were obtained and three-dimensional models were developed for which augmented sets of images of objects with a volume of at least 300 for each object were created, and a convolutional neural network was trained with the following detection characteristics and classification of objects on the studied images:

вероятность обнаружения объектов 96,1%:probability of detecting objects 96.1%:

вероятность пропуска объектов 3,9%;the probability of missing objects is 3.9%;

вероятность правильной классификации объектов 98,5%.the probability of correct classification of objects is 98.5%.

Проведенные исследования подтверждают, что при использовании предлагаемого способа обеспечивается повышение вероятности обнаружения и классификации объектов на изображениях различных видов, включая изображения видимого диапазона, СВЧ-диапазона и ИК-диапазона.The conducted studies confirm that when using the proposed method, an increase in the probability of detecting and classifying objects in images of various types, including images of the visible range, microwave range and infrared range, is provided.

ЛитератураLiterature

[1] Радиолокационные характеристики объектов. Методы исследования / Под ред. С.М. Несторова. - М.: Изд. Радиотехника. 2015. - 312 с.[1] Radar characteristics of objects. Research methods / Ed. CM. Nestorov. - M.: Ed. Radio engineering. 2015. - 312 p.

[2] Способ индексации и поиска цифровых изображений. Патент РФ №2510933 от 23.09.2011, МПК G06F 17/30 (2006.01).[2] A method for indexing and searching digital images. RF patent No. 2510933 dated 09/23/2011, IPC G06F 17/30 (2006.01).

[3] Способ вычислительно эффективного многоклассового распознавания изображений с использованием последовательного анализа нейросетевых признаков. Патент РФ №2706960 от 25.01.2019, МПК G06K 9/62 (2006.01).[3] A method for computationally efficient multiclass image recognition using sequential analysis of neural network features. Patent of the Russian Federation No. 2706960 dated 01/25/2019, IPC G06K 9/62 (2006.01).

[4] Способ обработки изображений обученными сверточными нейронными сетями. Патент РФ №2709661 от 19.09.2018, МПК G06N 3/08 (2006.01).[4] Method of image processing by trained convolutional neural networks. RF patent No. 2709661 dated September 19, 2018, IPC G06N 3/08 (2006.01).

[5] Афиногенов А.Ю. Математическое моделирование радиолокационных портретов распределенных объектов сложной формы и некоторые его приложения: дисс…канд. физ. - мат.наук. - М.: 1996. - 275 с.[5] Afinogenov A.Yu. Mathematical modeling of radar portraits of distributed objects of complex shape and some of its applications: diss…cand. physical - Mathematical sciences. - M.: 1996. - 275 p.

[6] Гарбуль А.А., Жданов Д.Д., Потемкин И.С., Соколов В.Г. Компьютерное моделирование изображений сложных трехмерных сцен, сформированных моделями реальных оптических систем: //Журнал Научная визуализация. МИФИ. 2013, том 5, номер 4. - С. 88-117.[6] Garbul A.A., Zhdanov D.D., Potemkin I.S., Sokolov V.G. Computer modeling of images of complex three-dimensional scenes formed by models of real optical systems: // Journal of Scientific Visualization. MEPhI. 2013, volume 5, number 4. - S. 88-117.

[7] Ульянов А.Ю., Котюжанский Л.А., Рыжкова Н.Г. Метод трассировки лучей как основная технология фотореалистичного рендеринга: //Журнал Фундаментальные исследования. УФУ. 2015, №11. - С. 1124-1128.[7] Ulyanov A.Yu., Kotyuzhansky L.A., Ryzhkova N.G. Ray tracing method as the main technology of photorealistic rendering: //Journal of Basic Research. UFU. 2015, No. 11. - S. 1124-1128.

[8] Михеев С.В. Основы инфракрасной техники. - СПб.: Изд. Университет ИТМО. 2017. - 127 с.[8] Mikheev S.V. Fundamentals of infrared technology. - St. Petersburg: Ed. Saint Petersburg State University of Information Technologies, Mechanics and Optics. 2017. - 127 p.

[9] Deep learning. Yann LeCun, Yoshua Bengio, Geoffrey Hinton. Nature 521, 2015.[9] Deep learning. Yann LeCun, Yoshua Bengio, Geoffrey Hinton. Nature 521, 2015.

[10] Способ обучения нейронной сети. Патент РФ №2707147 от 31.10.2018, МПК G06N 3/08 (2006.01).[10] A method for training a neural network. RF patent No. 2707147 dated October 31, 2018, IPC G06N 3/08 (2006.01).

Claims (19)

1. Способ обработки изображений сверточной нейронной сетью, включающий создание вычислительной системой исходных наборов изображений, создание аугментированного набора изображений, создание обучающих выборок данных, содержащих множество изображений, обучение с использованием соответствующей обучающей выборки данных сверточной нейронной сети, применение обученной сверточной нейронной сети, отличающийся тем, что предварительно получают наборы натурных изображений N>2 объектов и трехмерные модели объектов, создают N исходных наборов изображений объектов, где каждое изображение из исходного набора изображений является результатом рендеринга трехмерной модели объекта, создают аугментированный набор изображений каждого объекта путем внесения в каждое изображение из исходного набора изображений и набора натурных изображений соответствующего объекта по меньшей мере одного изменения, создают обучающие выборки данных, содержащие множество изображений, выбранных из аугментированных наборов изображений объектов, после обучения сверточной нейронной сети применяют ее к исследуемому изображению для обнаружения и классификации изображенных на нем объектов.1. A method for processing images by a convolutional neural network, including the creation by a computing system of initial sets of images, the creation of an augmented set of images, the creation of training data samples containing a plurality of images, training using the corresponding training data sample of a convolutional neural network, the use of a trained convolutional neural network, characterized in that , which previously receive sets of natural images of N> 2 objects and three-dimensional models of objects, create N initial sets of images of objects, where each image from the original set of images is the result of rendering a three-dimensional model of the object, create an augmented set of images of each object by introducing into each image from the original a set of images and a set of natural images of the corresponding object of at least one change, create training data samples containing a plurality of images selected from augmented image sets objects, after training the convolutional neural network, it is applied to the image under study to detect and classify the objects depicted on it. 2. Способ по п. 1, отличающийся тем, что сверточная нейронная сеть обнаруживает и классифицирует объекты на изображениях видимого диапазона.2. The method according to p. 1, characterized in that the convolutional neural network detects and classifies objects in the images of the visible range. 3. Способ по п. 1, отличающийся тем, что сверточная нейронная сеть обнаруживает и классифицирует объекты на изображениях СВЧ-диапазона.3. The method according to claim. 1, characterized in that the convolutional neural network detects and classifies objects in the images of the microwave range. 4. Способ по п. 1, отличающийся тем, что сверточная нейронная сеть обнаруживает и классифицирует объекты на изображениях ИК-диапазона.4. The method according to claim 1, characterized in that the convolutional neural network detects and classifies objects in IR images. 5. Способ по п. 1, отличающийся тем, что наборы натурных изображений объектов предварительно сформированы в видимом диапазоне.5. The method according to p. 1, characterized in that the sets of full-scale images of objects are pre-formed in the visible range. 6. Способ по п. 1, отличающийся тем, что наборы натурных изображений объектов предварительно сформированы в СВЧ-диапазоне.6. The method according to p. 1, characterized in that the sets of full-scale images of objects are pre-formed in the microwave range. 7. Способ по п. 1, отличающийся тем, что наборы натурных изображений объектов предварительно сформированы в ИК-диапазоне.7. The method according to p. 1, characterized in that the sets of full-scale images of objects are pre-formed in the IR range. 8. Способ по п. 1, отличающийся тем, что при создании N исходных наборов изображений объектов каждое изображение из исходного набора изображений получают изменением ракурса наблюдения трехмерной модели этого объекта по азимуту и углу места.8. The method according to claim 1, characterized in that when creating N initial sets of images of objects, each image from the initial set of images is obtained by changing the viewing angle of a three-dimensional model of this object in azimuth and elevation. 9. Способ по п. 1, отличающийся тем, что внесение изменения в каждое изображение из исходного набора изображений и набора натурных изображений соответствующего объекта выполняют изменением масштаба этого изображения.9. The method according to claim 1, characterized in that changes are made to each image from the original set of images and the set of full-scale images of the corresponding object by changing the scale of this image. 10. Способ по п. 1, отличающийся тем, что внесение изменения в каждое изображение из исходного набора изображений и набора натурных изображений соответствующего объекта выполняют путем сокрытия части изображения этого объекта.10. The method according to claim. 1, characterized in that the modification of each image from the original set of images and a set of full-scale images of the corresponding object is performed by hiding part of the image of this object. 11. Способ по п. 1, отличающийся тем, что внесение изменения в каждое изображение из исходного набора изображений и набора натурных изображений соответствующего объекта выполняют путем деконтрастирования всего или части изображения этого объекта.11. The method according to claim 1, characterized in that the modification of each image from the original set of images and the set of full-scale images of the corresponding object is performed by decontrasting all or part of the image of this object. 12. Способ по п. 1, отличающийся тем, что внесение изменения в каждое изображение из исходного набора изображений и набора натурных изображений соответствующего объекта выполняют путем изменения освещенности всего или части изображения этого объекта.12. The method according to claim 1, characterized in that changes are made to each image from the original set of images and the set of full-scale images of the corresponding object by changing the illumination of all or part of the image of this object. 13. Способ по п. 1, отличающийся тем, что внесение изменения в каждое изображение из исходного набора изображений и набора натурных изображений соответствующего объекта выполняют путем расфокусировки всего или части изображения этого объекта.13. The method according to claim 1, characterized in that changes are made to each image from the original set of images and the set of full-scale images of the corresponding object by defocusing all or part of the image of this object. 14. Способ по п. 1, отличающийся тем, что внесение изменения в каждое изображение из исходного набора изображений и набора натурных изображений соответствующего объекта выполняют путем размытия изображения этого объекта, имитирующего движение объекта или устройства формирования изображения.14. The method according to claim. 1, characterized in that the introduction of changes in each image from the original set of images and a set of full-scale images of the corresponding object is performed by blurring the image of this object, simulating the movement of an object or imaging device. 15. Способ по п. 1, отличающийся тем, что внесение изменения в каждое изображение из исходного набора изображений и набора натурных изображений соответствующего объекта выполняют путем наложения шумового сигнала на все или часть изображения этого объекта.15. The method according to claim 1, characterized in that the modification of each image from the original set of images and the set of full-scale images of the corresponding object is performed by applying a noise signal to all or part of the image of this object. 16. Способ по п. 1, отличающийся тем, что внесение изменения в каждое изображение из исходного набора изображений и набора натурных изображений соответствующего объекта выполняют путем изменения отражательных свойств всего или части изображения этого объекта.16. The method according to claim 1, characterized in that changes are made to each image from the original set of images and the set of full-scale images of the corresponding object by changing the reflective properties of all or part of the image of this object. 17. Способ по п. 1, отличающийся тем, что внесение изменения в каждое изображение из исходного набора изображений и набора натурных изображений соответствующего объекта выполняют путем закрытия части изображения этого объекта изображением другого объекта.17. The method according to claim 1, characterized in that changes are made to each image from the original set of images and the set of full-scale images of the corresponding object by covering a part of the image of this object with an image of another object. 18. Способ по п. 1, отличающийся тем, что внесение изменения в каждое изображение ИК-диапазона из исходного набора изображений и набора натурных изображений соответствующего объекта выполняют путем изменения излучательных свойств всего или части изображения этого объекта.18. The method according to claim 1, characterized in that changes are made to each IR image from the original set of images and the set of full-scale images of the corresponding object by changing the radiative properties of all or part of the image of this object. 19. Способ по п. 1, отличающийся тем, что обучение сверточной нейронной сети с использованием соответствующей обучающей выборки данных выполняют путем вычисления с помощью сверточной нейронной сети множества векторов признаков, при этом каждый вектор признаков из множества векторов признаков соответствует изображению из обучающей выборки данных в пространстве признаков изображений, вычисление для обучающей выборки данных значения функции потерь, отображающей множество вероятностей, где каждая вероятность из множества вероятностей характеризует гипотезу, ассоциирующую изображение из обучающей выборки данных классом, ассоциируемым с этим изображением, при этом функция потерь дополнительно отображает множество значений расстояния, где каждое значение расстояния вычисляют в пространстве признаков изображений между вектором признаков, представляющим изображение из обучающей выборки данных, и центром класса, ассоциируемого с этим изображением в соответствии с обучающей выборкой данных, настройку одного или более параметров сверточной нейронной сети на основе значения функции потерь.19. The method according to claim 1, characterized in that the training of the convolutional neural network using the corresponding training data sample is performed by calculating a set of feature vectors using the convolutional neural network, with each feature vector from the set of feature vectors corresponding to an image from the training data set in in the image feature space, calculating for the training data sample the value of the loss function that displays the set of probabilities, where each probability from the set of probabilities characterizes the hypothesis that associates the image from the training data sample with the class associated with this image, while the loss function additionally displays the set of distance values, where each distance value is computed in the feature space of the images between the feature vector representing the image from the training data sample and the center of the class associated with this image in accordance with the training data sample, set derivation of one or more parameters of the convolutional neural network based on the value of the loss function.
RU2020137176A 2020-11-12 Method for processing images by convolutional neural networks RU2771442C9 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2020137176A RU2771442C9 (en) 2020-11-12 Method for processing images by convolutional neural networks

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2020137176A RU2771442C9 (en) 2020-11-12 Method for processing images by convolutional neural networks

Publications (2)

Publication Number Publication Date
RU2771442C1 RU2771442C1 (en) 2022-05-04
RU2771442C9 true RU2771442C9 (en) 2022-06-07

Family

ID=

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110111272A (en) * 2019-04-24 2019-08-09 江西理工大学应用科学学院 A kind of artificial intelligence infrared image processing instrument, control system and control method
RU2706960C1 (en) * 2019-01-25 2019-11-22 Самсунг Электроникс Ко., Лтд. Computationally efficient multi-class image recognition using successive analysis of neural network features
RU2707147C1 (en) * 2018-10-31 2019-11-22 Общество с ограниченной ответственностью "Аби Продакшн" Neural network training by means of specialized loss functions
RU2709661C1 (en) * 2018-09-19 2019-12-19 Общество с ограниченной ответственностью "Аби Продакшн" Training neural networks for image processing using synthetic photorealistic containing image signs

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2709661C1 (en) * 2018-09-19 2019-12-19 Общество с ограниченной ответственностью "Аби Продакшн" Training neural networks for image processing using synthetic photorealistic containing image signs
RU2707147C1 (en) * 2018-10-31 2019-11-22 Общество с ограниченной ответственностью "Аби Продакшн" Neural network training by means of specialized loss functions
RU2706960C1 (en) * 2019-01-25 2019-11-22 Самсунг Электроникс Ко., Лтд. Computationally efficient multi-class image recognition using successive analysis of neural network features
CN110111272A (en) * 2019-04-24 2019-08-09 江西理工大学应用科学学院 A kind of artificial intelligence infrared image processing instrument, control system and control method

Similar Documents

Publication Publication Date Title
CN109584248B (en) Infrared target instance segmentation method based on feature fusion and dense connection network
CN109615611B (en) Inspection image-based insulator self-explosion defect detection method
CN108596101B (en) Remote sensing image multi-target detection method based on convolutional neural network
CN111783525B (en) Aerial photographic image target sample generation method based on style migration
CN110599537A (en) Mask R-CNN-based unmanned aerial vehicle image building area calculation method and system
CN112150575A (en) Scene data acquisition method, model training method, device and computer equipment
CN112529015A (en) Three-dimensional point cloud processing method, device and equipment based on geometric unwrapping
CN112712535B (en) Mask-RCNN landslide segmentation method based on simulation difficult sample
CN111553869B (en) Method for complementing generated confrontation network image under space-based view angle
CN112639846A (en) Method and device for training deep learning model
US11094134B1 (en) System and method for generating synthetic data
US20230281913A1 (en) Radiance Fields for Three-Dimensional Reconstruction and Novel View Synthesis in Large-Scale Environments
CN113408594A (en) Remote sensing scene classification method based on attention network scale feature fusion
CN112348758B (en) Optical remote sensing image data enhancement method and target identification method
CN116258816A (en) Remote sensing image simulation method based on nerve radiation field
WO2022094290A2 (en) Systems and methods for processing remote sensing data
Khoshboresh-Masouleh et al. Robust building footprint extraction from big multi-sensor data using deep competition network
Schmidt et al. Object detection of aerial image using mask-region convolutional neural network (mask R-CNN)
RU2771442C9 (en) Method for processing images by convolutional neural networks
RU2771442C1 (en) Method for processing images by convolutional neural networks
CN115984443A (en) Space satellite target image simulation method of visible light camera
RU2779281C1 (en) Image processing method with trained neural networks
Wickramasuriya et al. Deep Monocular Relative 6D Pose Estimation for Ship-Based Autonomous UAV
CN110910450A (en) Method for carrying out 3D target detection based on mixed feature perception neural network
Papadopoulos et al. Modelling of material ageing with generative adversarial networks