RU2747044C1 - Hardware-software complex designed for training and (or) re-training of processing algorithms for aerial photographs of the territory for detection, localization and classification up to type of aviation and ground equipment - Google Patents

Hardware-software complex designed for training and (or) re-training of processing algorithms for aerial photographs of the territory for detection, localization and classification up to type of aviation and ground equipment Download PDF

Info

Publication number
RU2747044C1
RU2747044C1 RU2020119638A RU2020119638A RU2747044C1 RU 2747044 C1 RU2747044 C1 RU 2747044C1 RU 2020119638 A RU2020119638 A RU 2020119638A RU 2020119638 A RU2020119638 A RU 2020119638A RU 2747044 C1 RU2747044 C1 RU 2747044C1
Authority
RU
Russia
Prior art keywords
training
neural network
markup
images
expert
Prior art date
Application number
RU2020119638A
Other languages
Russian (ru)
Inventor
Виктор Сергеевич Балакчин
Анастасия Викторовна Балакчина
Евгения Владимировна Гасникова
Лариса Желалудиновна Благушина
Дмитрий Александрович Гаврилов
Сергей Витальевич Гамиловский
Артем Геннадьевич Еременко
Мария Александровна Гутор
Николай Николаевич Ефанов
Вячеслав Юрьевич Ефимов
Илья Леонидович Каврецкий
Владимир Петрович Косицын
Андрей Георгиевич Лапушкин
Дмитрий Александрович Маслов
Александр Моисеевич Местецкий
Леонид Моисеевич Местецкий
Андрей Богданович Пунь
Павел Борисович Родионов
Андрей Борисович Семенов
Глеб Михайлович Соколов
Елена Александровна Татаринова
Андрей Владимирович Федоров
Владимир Николаевич Фонин
Юрий Николаевич Фонин
Антон Александрович Фортунатов
Original Assignee
Российская Федерация, от имени которой выступает ФОНД ПЕРСПЕКТИВНЫХ ИССЛЕДОВАНИЙ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Российская Федерация, от имени которой выступает ФОНД ПЕРСПЕКТИВНЫХ ИССЛЕДОВАНИЙ filed Critical Российская Федерация, от имени которой выступает ФОНД ПЕРСПЕКТИВНЫХ ИССЛЕДОВАНИЙ
Priority to RU2020119638A priority Critical patent/RU2747044C1/en
Application granted granted Critical
Publication of RU2747044C1 publication Critical patent/RU2747044C1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

FIELD: image data processing.
SUBSTANCE: invention relates to a complex and a method of forming a training sample intended for training and/or re-training of processing algorithms for aerial photographs of the terrain for detection, localization and classification up to type of aviation and ground equipment. According to the method, large-format aerial photographs presented as color or grayscale digital images are imported by means of an import unit; the imported data from the data import unit is received by means of a neural network core, and neural network models are selected from the catalog of neural network models; the original large-format aerial photographs are marked by means of a neural network marking unit using the selected neural network model; the obtained neural network marking is corrected by means of a neural network marking correction unit; the volume of images for training samples is automatically expanded by means of an automatic augmentation module; the corrected marked images are transferred to the training and test sample database with expert marking, providing continuous updates of the database, wherein the training samples are balanced by the number of objects of interest and the number of background elements by means of the training and test sample database with expert marking; the neural network models from the catalog of neural network models are re-trained by means of a re-training module based on the obtained training samples formed in the training sample database with expert marking; reports are generated by means of an analytics and report-generating module based on the data obtained at the previous stages of the method, wherein said reports allow controlling the training and/or re-training process.
EFFECT: improved quality of training processing algorithms for aerial terrain photographs.
3 cl, 2 dwg

Description

Область техникиTechnology area

Изобретение относится к компьютерным системам, основанным на биологических моделях, а именно к способам обучения и/или дообучения сверточных и/или полносверточных нейронных сетей, предназначенных для обнаружения, локализации и классификации объектов до типа авиационной и сухопутной техники на аэрокосмических изображениях местности.The invention relates to computer systems based on biological models, and in particular to methods of training and / or additional training of convolutional and / or full-convolutional neural networks designed to detect, localize and classify objects to the type of aviation and land equipment in aerospace images of the terrain.

Уровень техникиState of the art

Известны способы обучения сверточных и полносверточных нейронных сетей с помощью библиотек глубокого обучения с использованием возможностей высоко-параллельных вычислений на графических ускорителях (GPGPU-General-purpose computing for graphics processing units, неспециализированные вычисления на графических процессорах [1]). Известные библиотеки глубокого обучения, такие как Caffe [2] и Tensorflow [3], работают в предположении, что для обучения используются изображения фиксированного размера [4]. Данное упрощение позволяет значительно упростить и ускорить процесс обучения.Known methods of training convolutional and full-convolutional neural networks using deep learning libraries using the capabilities of highly parallel computing on graphics accelerators (GPGPU-General-purpose computing for graphics processing units, non-specialized computing on graphics processing units [1]). Well-known deep learning libraries such as Caffe [2] and Tensorflow [3] operate under the assumption that fixed-size images are used for training [4]. This simplification allows you to significantly simplify and speed up the learning process.

Обучение нейронных сетей задачам обнаружения, локализации осуществляется на основе наборов эталонных данных, на которых экспертом с высокой точностью размечены объекты интереса. При этом для решения задач обнаружения и локализации достаточно выделения объекта интереса прямоугольной рамкой, а для решения задачи классификации необходимо более детально выделить форму объекта. Существует способ определения типа объекта авиационной техники на выделенных изображениях объектов интереса, основанный на сегментации объектов с последующим обнаружением ключевых точек объектов и сопоставлением с шаблонами [5]. Однако, образцы аэрокосмических изображений местности, на которых необходимо осуществить обнаружение, локализацию и классификацию до типа авиационной и сухопутной техники могут иметь различные размеры, в том числе необходима и обработка крупноформатных изображений.Training of neural networks in the tasks of detection and localization is carried out on the basis of sets of reference data, on which the objects of interest are marked with high accuracy by an expert. At the same time, to solve the problems of detection and localization, it is sufficient to select the object of interest with a rectangular frame, and to solve the classification problem, it is necessary to highlight the shape of the object in more detail. There is a way to determine the type of aircraft object on the selected images of objects of interest, based on segmentation of objects with subsequent detection of key points of objects and comparison with templates [5]. However, samples of aerospace images of the terrain on which it is necessary to carry out detection, localization and classification to the type of aviation and land equipment may have different sizes, including the need for processing large-format images.

Разметка обучающих выборок состоит в сегментации изображений - отделении объектов интереса от фона. Известные подходы к выполнению сегментации аэрокосмических изображений, различаются по качеству сегментации и требуемым трудозатратам. Например, использование алгоритма GrabCut [6] не позволяет осуществлять полностью автоматическое сегментирование и требует существенных временных затрат.The marking of training samples consists in image segmentation - the separation of objects of interest from the background. Known approaches to performing segmentation of aerospace images differ in the quality of segmentation and the required labor costs. For example, the use of the GrabCut algorithm [6] does not allow fully automatic segmentation and is time consuming.

Известны способы подготовки обучающих выборок с помощью аугментаций на основе формирования новых изображений путем вставки объектов интереса на различные фоновые изображения [7]. Данные способы позволяют формировать обучающие выборки для изображений с локализованными объектами интереса. На крупноформатных изображениях число элементов фона значительно превышает число элементов объектов интереса, что значительно усложняет процесс обучения.Known methods for preparing training samples using augmentation based on the formation of new images by inserting objects of interest on various background images [7]. These methods make it possible to form training samples for images with localized objects of interest. On large-format images, the number of background elements significantly exceeds the number of elements of objects of interest, which greatly complicates the learning process.

Известные фрэймворки, позволяющие осуществлять разметку изображений для обучения нейросети (Amazon SageMaker, https://handl.ai/ Handl, Google Data Labeling https://cloud.google.com/data-labeling/docs/). Недостатком известных решений является то, что они не поддерживают обучение и дообучение.Well-known frameworks that allow you to markup images for training a neural network (Amazon SageMaker, https://handl.ai/ Handl, Google Data Labeling https://cloud.google.com/data-labeling/docs/). The disadvantage of the known solutions is that they do not support training and additional training.

Раскрытие сущностиDisclosure of the essence

Задачей, на решение которой направлено заявляемое изобретение является обучение и/или дообучение сверточных и/или полносверточных нейронных сетей, предназначенных для обнаружения, локализации и классификации объектов до типа авиационной и сухопутной техники на аэрокосмических изображениях местности. Техническим результатом является расширение по сравнению с аналогами (например, GrabCut, SegNet [10]) функциональных возможностей и повышение качества обучения и/или дообучения алгоритмов обработки аэрокосмических изображений местности с целью обнаружения, локализации и классификации до типа авиационной и сухопутной техники.The problem to be solved by the claimed invention is training and / or additional training of convolutional and / or full-convolutional neural networks designed to detect, localize and classify objects to the type of aviation and land equipment on aerospace images of the terrain. The technical result is the expansion in comparison with analogues (for example, GrabCut, SegNet [10]) of functionality and improvement of the quality of training and / or additional training of algorithms for processing aerospace images of terrain in order to detect, localize and classify to the type of aviation and land equipment.

На фиг. 1 и фиг. 2 приведены схемы двух вариантов программно-аппаратного комплекса, предназначенного для обучения и/или дообучения алгоритмов обработки аэрокосмических изображений местности с целью обнаружения, локализации и классификации до типа авиационной и сухопутной техники.FIG. 1 and FIG. 2 shows diagrams of two variants of a software and hardware complex intended for training and / or additional training of algorithms for processing aerospace images of terrain in order to detect, localize and classify to the type of aviation and land equipment.

На фиг. 1 ведены обозначения:FIG. 1 the designations are given:

1 - база данных обучающих и тестовых выборок с экспертной разметкой;1 - database of training and test samples with expert markup;

2 - модуль дообучения;2 - additional training module;

3 - блок импорта;3 - import block;

4 - нейросетевое ядро;4 - neural network core;

5 - каталог нейросетевых моделей;5 - catalog of neural network models;

6 - блок нейросетевой разметки;6 - block of neural network markup;

7 - блок корректировки нейросетевой разметки;7 - block for correcting neural network markup;

8 - эксперт;8 - expert;

9 - модуль аналитики и формирования отчетов.9 - module for analytics and reporting.

Предлагаемый программно-аппаратный комплекс состоит из базы данных обучающих и тестовых выборок с экспертной разметкой 1, блока импорта 3, нейросетевого ядра 4, модуля дообучения 2, каталога нейросетевых моделей 5, блока нейросетевой разметки 6, блока корректировки нейросетевой разметки 7, модуля аналитики и формирования отчетов 9, при этом выход блока импорта 3 соединен с первым входом нейросетевого ядра 4, выход базы данных обучающих и тестовых выборок с экспертной разметкой 1 соединен со входом модуля дообучения 2, первый выход модуля дообучения 2 соединен со входом модуля аналитики и формирования отчетов 9, выход модуля аналитики и формирования отчетов 9 предназначен для контроля результатов обучения или дообучения экспертом 8, второй выход модуля дообучения 2 соединен со входом каталога нейросетевых моделей 5, выход каталога нейросетевых моделей 5 соединен со вторым входом нейросетевого ядра 4, выход нейросетевого ядра 4 соединен со входом блока нейросетевой разметки 6, выход блока нейросетевой разметки 6 соединен с первым входом блока корректировки нейросетевой разметки 7, второй вход блока корректировки нейросетевой разметки 7 предназначен для корректировки обучающих данных экспертом 8, выход блока корректировки нейросетевой разметки 7 соединен со входом базы данных обучающих и тестовых выборок с экспертной разметкой 1, причем блок нейросетевой разметки 6 выполнен с возможностью автоматической разметки обучающих данных на крупноформатных аэрокосмических изображениях с помощью нейросетей, блок корректировки нейросетевой разметки 7 выполнен с возможностью корректировки разметки экспертом 8, база данных обучающих и тестовых выборок с экспертной разметкой 1 выполнена с возможностью непрерывного пополнения и расширения обучающей выборки модуля дообучения 2 с возможностью балансировки количества объектов интереса и количества элементов фона, заключающейся в том, что в обучающую выборку добавляется количество объектов интереса и/или количество элементов фона с целью достижения сопоставимых (сбалансированных) количеств объектов интереса и элементов фона, модуль дообучения 2 выполнен с возможностью расширения области применения нейросетевых моделей на новые классы объектов и фоноцелевой обстановки, чем и обеспечивается ускорение процесса разметки.The proposed hardware and software complex consists of a database of training and test samples with expert markup 1, an import block 3, a neural network core 4, a retraining module 2, a catalog of neural network models 5, a neural network markup block 6, a neural network markup correction unit 7, an analytics and formation module reports 9, while the output of the import block 3 is connected to the first input of the neural network core 4, the output of the database of training and test samples with expert markup 1 is connected to the input of the additional training module 2, the first output of the additional training module 2 is connected to the input of the analytics and reporting module 9, the output of the analytics and reporting module 9 is designed to control the learning outcomes or additional training by an expert 8, the second output of the additional training module 2 is connected to the input of the catalog of neural network models 5, the output of the catalog of neural network models 5 is connected to the second input of the neural network core 4, the output of the neural network core 4 is connected to the input block of neural network markup 6, output block and the neural network markup 6 is connected to the first input of the neural network markup correction unit 7, the second input of the neural network markup correction unit 7 is intended for the expert 8 to correct the training data, the output of the neural network markup correction unit 7 is connected to the input of the training and test samples database with expert markup 1, and the neural network markup unit 6 is configured to automatically mark training data on large-format aerospace images using neural networks, the neural network markup correction unit 7 is configured to correct the markup by an expert 8, the database of training and test samples with expert markup 1 is made with the possibility of continuous replenishment and expansion of the training sampling of the additional training module 2 with the possibility of balancing the number of objects of interest and the number of background elements, which consists in the fact that the number of objects of interest and / or the number of background elements is added to the training set with the aim of achieving comparable (balanced) numbers of objects of interest and background elements, the additional training module 2 is made with the possibility of expanding the area of application of neural network models to new classes of objects and background target environment, which accelerates the marking process.

В соответствии с другим вариантом исполнения в программно-аппаратный комплекс добавлен (см. фиг. 2) модуль автоматической аугментации 10 и он выполнен с возможностью компьютерного синтеза 3D моделей объектов интереса и размещением их в автоматическом режиме на изображения "подстилающей поверхности с учетом разрешенных областей, с возможностью автоматического генерирования изображений с различным состоянием атмосферы, угла освещения источником света ракурса съемки.In accordance with another embodiment, an automatic augmentation module 10 has been added to the software and hardware complex (see Fig. 2) and it is made with the possibility of computer synthesis of 3D models of objects of interest and placing them in automatic mode on the images of the underlying surface, taking into account the permitted areas, with the ability to automatically generate images with different conditions of the atmosphere, the angle of illumination by the light source of the shooting angle.

Способ формирования обучающей выборки на крупноформатных аэрокосмических изображениях с помощью нейросетей с возможностью корректировки разметки экспертом и состав заявляемого программно-аппаратного комплекса обеспечивает выполнение следующих задач:The method of forming a training sample on large-format aerospace images using neural networks with the possibility of adjusting the markup by an expert and the composition of the proposed software and hardware complex ensures the following tasks:

• импорт и непрерывное накопление обучающих данных для обучения и (или) дообучения алгоритмов, обеспечивающих обнаружение, локализацию и классификацию до типа объектов авиационной и сухопутной техники на аэрокосмических снимках в видимом диапазоне длин;• import and continuous accumulation of training data for training and (or) additional training of algorithms that provide detection, localization and classification to the type of objects of aviation and land equipment on aerospace images in the visible range of lengths;

• возможность добавления новых классов объектов распознавания;• the ability to add new classes of recognition objects;

• совершенствование алгоритмов, дешифрирования аэрокосмической информации;• improvement of algorithms, deciphering aerospace information;

• расширение обучающей выборки с учетом балансировки количества объектов интереса и количества элементов фона.• expanding the training sample, taking into account the balancing of the number of objects of interest and the number of background elements.

Увеличение объема обучающей выборки осуществляется за счет искусственного расширения обучающей выборки вручную или автоматически с помощью аугментации изображений объектов с помощью искажений в виде добавления шумов, сдвигов, случайных поворотов в плоскости и «из плоскости» в пределах 360°, сжатие и растяжение по осям абсцисс и ординат с коэффициентом 0,1; масштабирование с коэффициентом 0,1; изменения цветов; контрастности; яркости, а также путем вставки объектов интереса на различные фоновые изображения.An increase in the volume of the training sample is carried out by artificially expanding the training sample manually or automatically using augmentation of object images using distortions in the form of adding noise, shifts, random rotations in the plane and "out of the plane" within 360 °, compression and stretching along the abscissa axes and ordinate with a coefficient of 0.1; scaling by a factor of 0.1; color changes; contrast; brightness, as well as by inserting objects of interest on various background images.

В соответствии с другим вариантом изобретения увеличение объема обучающей выборки осуществляется с использованием компьютерного синтеза изображений объектов интереса. Предварительно на реальных фоновых изображениях осуществляется разметка области, в которой может размещаться объект интереса. После чего в автоматическом режиме на подстилающую поверхность с учетом разрешенных областей размещается 3D модель объекта интереса. Обеспечивается возможность в автоматическом режиме генерировать изображения с различным состоянием атмосферы, угла источника освещения, ракурса съемки.In accordance with another embodiment of the invention, an increase in the volume of the training sample is carried out using computer synthesis of images of objects of interest. Preliminarily, on real background images, the area is marked in which the object of interest can be placed. After that, in automatic mode, a 3D model of the object of interest is placed on the underlying surface, taking into account the allowed areas. Provides the ability to automatically generate images with different conditions of the atmosphere, angle of the light source, shooting angle.

В итоге формирование обучающих выборок с учетом балансировки количества объектов интереса и количества элементов фона приводит к тому, что вероятность попадания элементов фона и объектов интереса в состав изображения выборки будет одинакова.As a result, the formation of training samples, taking into account the balancing of the number of objects of interest and the number of background elements, leads to the fact that the probability of getting background elements and objects of interest in the sample image will be the same.

Кроме того, эксперт имеет возможность вручную указывать ценность или релевантность каждого объекта для обучения, что позволяет снизить вероятность добавления в обучающую выборку сгруппированных объектов, с учетом того, что для обучения обнаружению и локализации больший эффект может быть достигнут при увеличении в обучающей выборке количества изображений отдельно-стоящих объектов интереса или объектов интереса, находящихся в необычных местах, и уменьшении изображений, содержащих группы близкорасположенных объектов интереса.In addition, the expert has the ability to manually indicate the value or relevance of each object for training, which makes it possible to reduce the likelihood of adding grouped objects to the training set, taking into account the fact that for training detection and localization, a greater effect can be achieved by increasing the number of images in the training set separately. - standing objects of interest or objects of interest located in unusual places, and reducing images containing groups of nearby objects of interest.

В алгоритме создания обучающей выборки с близкорасположенными объектами интереса в автоматическом режиме блоком корректировки нейросетевой разметки 7 осуществляется выбор объекта интереса в зависимости от наличия рядом других объектов, с целью исключения равновероятного выбора объектов и групп близкорасположенных объектов интереса для снижения вероятности добавления в обучающую выборку групп близкорасположенных объектов интереса.In the algorithm for creating a training sample with closely spaced objects of interest in the automatic mode, the neural network markup correction unit 7 selects an object of interest depending on the presence of other objects nearby, in order to exclude an equiprobable selection of objects and groups of closely spaced objects of interest to reduce the likelihood of adding groups of closely spaced objects to the training sample. interest.

Для обучения алгоритмов обработки аэрокосмических изображений местности задаче обнаружения создаются эталонные тепловые карты, представляющие собой цветовые карты вероятностей принадлежности пикселя объекту интереса. Цвет каждого элемента тепловой карты соответствует степени уверенности алгоритма в том, что в области входного изображения, соответствующей этому элементу, находится объект интереса. Чем большее смещение цвета на тепловой карте в сторону красного по шкале от синего к красному, тем больше степень уверенности. В процессе обучения тепловая карта, полученная на выходе алгоритма обработки аэрокосмических изображений местности, сравнивается с эталонной тепловой картой. В результате вычисляется функция потерь, а также градиент данной функции по весам нейронов нейронной сети в соответствии с принципом обратного распространения ошибки [8]. На крупноформатных изображениях число элементов фона значительно превышает число элементов объектов интереса. Успешное обучение в таком случае возможно при условии снижения учета элементов фона по сравнению с элементами, принадлежащими объекту. Для решения проблемы вводится коэффициент, понижающий значение функции потерь, использующейся для определения расхождения между истинными данными и полученными ответами нейронной сети для элементов фона. Введение понижающего коэффициента для балансировки объектов приводит к появлению на выходе нейросети широких «пятен» высокого значения вероятности вокруг центров объектов. Возникновение «пятен» высокого значения вероятности затрудняет определение точного положения центра объекта. Для уменьшения размеров данных «пятен» и улучшения локализации объекта обеспечивается плавное повышение понижающего коэффициента. Значение понижающего коэффициента вокруг объекта определяется плавной, монотонно убывающей (ядерной [9]) функцией расстояния до центра объекта интереса. Из-за небольшого числа объектов такое изменение понижающего коэффициента практически не оказывает влияния на балансировку фона, но значительно уменьшает области высокого значения вероятности и улучшает локализацию объектов.To train the algorithms for processing aerospace images of the terrain for the detection task, reference heat maps are created, which are color maps of the probabilities of a pixel belonging to an object of interest. The color of each element of the heat map corresponds to the degree of confidence of the algorithm that an object of interest is located in the region of the input image corresponding to this element. The more the color shift on the heatmap towards red on a scale from blue to red, the greater the degree of confidence. In the process of training, the heat map obtained at the output of the algorithm for processing aerospace images of the terrain is compared with the reference heat map. As a result, the loss function is calculated, as well as the gradient of this function over the weights of the neurons of the neural network in accordance with the principle of back propagation of the error [8]. On large-format images, the number of background elements significantly exceeds the number of objects of interest. Successful training in this case is possible provided that the background elements are counted less in comparison with the elements belonging to the object. To solve the problem, a coefficient is introduced that reduces the value of the loss function, which is used to determine the discrepancy between the true data and the received responses of the neural network for background elements. The introduction of a decreasing coefficient for balancing objects leads to the appearance of wide "spots" of a high probability value around the centers of objects at the output of the neural network. The occurrence of "spots" with a high probability value makes it difficult to determine the exact position of the center of the object. To reduce the size of these "spots" and improve the localization of the object, a gradual increase in the reduction factor is provided. The value of the decreasing coefficient around the object is determined by a smooth, monotonically decreasing (nuclear [9]) function of the distance to the center of the object of interest. Due to the small number of objects, such a change in the reduction factor has practically no effect on the background balancing, but it significantly reduces the areas of high probability values and improves the localization of objects.

Осуществление изобретенияImplementation of the invention

Сущность предлагаемого изобретения поясняется схемой программно-аппаратного комплекса, предназначенного для обучения и/или дообучения алгоритмов обработки аэрокосмических изображений местности с целью обнаружения, локализации и классификации до типа авиационной и сухопутной техники, представленной на фиг. 1 и фиг. 2. Исходные крупноформатные аэрокосмические изображения, представленные в формате цветных или полутоновых цифровых изображений поступают в блок импорта 3 и передаются в нейросетевое ядро 4 с возможностью выбора нейросетевой модели из каталога нейросетевых моделей 5, в блоке нейросетевой разметки 6 осуществляется разметка исходных крупноформатных аэрокосмических изображений с помощью выбранной нейросети, блок корректировки нейросетевой разметки 7 обеспечивает корректировку нейросетевой разметки экспертом 8 в случае необходимости, в модуле автоматической аугментации 10 (см. фиг. 2) может осуществляться автоматическое расширение объема изображений для обучающих выборок. Откорректированные размеченные изображения поступают в базу данных обучающих и тестовых выборок с экспертной разметкой 1, что обеспечивает ее непрерывное пополнение. Обучающие выборки, сформированные в базе данных обучающей выборки с экспертной разметкой 1, поступают в модуль дообучения 2, обеспечивающий дообучение нейросетевых моделей из каталога нейросетевых моделей 5. В модуле аналитики и формирования отчетов 9 формируются отчеты, позволяющие эксперту 8 контролировать процесс обучения и/или дообучения.The essence of the invention is illustrated by a diagram of a software and hardware complex intended for training and / or additional training of algorithms for processing aerospace images of terrain in order to detect, localize and classify to the type of aviation and land equipment shown in Fig. 1 and FIG. 2. The original large-format aerospace images presented in the format of color or grayscale digital images enter the import block 3 and are transferred to the neural network core 4 with the possibility of choosing a neural network model from the catalog of neural network models 5, in the neural network markup block 6 the initial large-format aerospace images are marked using the selected neural network, the neural network markup correction unit 7 provides the expert 8 to correct the neural network markup, if necessary, the automatic augmentation module 10 (see Fig. 2) can automatically expand the volume of images for training samples. The corrected marked images are fed to the database of training and test samples with expert markup 1, which ensures its continuous replenishment. The training samples formed in the training sample database with expert markup 1 are sent to the additional training module 2, which provides additional training of neural network models from the catalog of neural network models 5. In the analytics and reporting module 9, reports are generated that allow expert 8 to control the learning process and / or additional training ...

Технический результат обеспечивается использованием импорта и непрерывного накопления обучающих данных с автоматической разметкой на крупноформатных аэрокосмических изображениях с помощью нейросетей с возможностью корректировки разметки экспертом, возможностью увеличения объема обучающей выборки вручную и автоматически за счет различных аугментаций изображений объектов интереса, за счет компьютерного синтеза реалистичных 3D моделей объектов интереса и размещением их в автоматическом режиме на изображения подстилающей поверхности с учетом разрешенных областей, возможностью автоматического генерирования изображений с различным состоянием атмосферы, угла источника освещения, ракурса съемки, использованием балансировки обучающих выборок по числу объектов интереса и количеству элементов фона.The technical result is provided by the use of import and continuous accumulation of training data with automatic marking on large-format aerospace images using neural networks with the possibility of adjusting the marking by an expert, the possibility of increasing the volume of the training sample manually and automatically due to various augmentation of images of objects of interest, due to computer synthesis of realistic 3D models of objects of interest and placing them in automatic mode on the images of the underlying surface, taking into account the allowed areas, the ability to automatically generate images with different conditions of the atmosphere, the angle of the light source, the shooting angle, using the balancing of training samples by the number of objects of interest and the number of background elements.

ЛитератураLiterature

1. Fung J., Tang F., Mann S. Mediated Reality using Computer Graphics Hardware for Computer Vision // Proceedings of the International Symposium on Wearable Computing 2002 (ISWC2002). Seattle, Washington, USA. P. 83-89.1. Fung J., Tang F., Mann S. Mediated Reality using Computer Graphics Hardware for Computer Vision // Proceedings of the International Symposium on Wearable Computing 2002 (ISWC2002). Seattle, Washington, USA. P. 83-89.

2. Caffe [Electronic resource]. URL: http://caffe.berkeleyvision.org/ (accessed: 20.10.2018).2. Caffe [Electronic resource]. URL: http://caffe.berkeleyvision.org/ (accessed: 10/20/2018).

3. Tensorflow [Electronic resource]. URL: https://www.tensorflow.org/ (accessed: 20.10.2018).3. Tensorflow [Electronic resource]. URL: https://www.tensorflow.org/ (accessed: 10/20/2018).

4. Crawford C. An Introduction to Deep Learning [Electronic resource]. URL: https://blog.algorithmia.com/introduction-to-deep-learning/ (accessed: 13.07.2018).4. Crawford C. An Introduction to Deep Learning [Electronic resource]. URL: https://blog.algorithmia.com/introduction-to-deep-learning/ (accessed: 13.07.2018).

5. Zuo, J., Xu, G., Fu, K., Sun, X., Sun H. Aircraft Type Recognition Based on Segmentation With Deep Convolutional Neural Networks // IEEE Geosci. Remote Sens. Lett. 2018. Vol. 15, №2. P. 282-286.5. Zuo, J., Xu, G., Fu, K., Sun, X., Sun H. Aircraft Type Recognition Based on Segmentation With Deep Convolutional Neural Networks // IEEE Geosci. Remote Sens. Lett. 2018. Vol. 15, no. 2. P. 282-286.

6. Grabcut [Electronic resource]. URL: https://chocopoule.github.io/grabcutweb/ (accessed: 22.02.2019).6. Grabcut [Electronic resource]. URL: https://chocopoule.github.io/grabcutweb/ (accessed: 22.02.2019).

7. Dvornik, N., Mairal, J., Schmid C. On the Importance of Visual Context for Data Augmentation in Scene Understanding // ArXiv Prepr. ArXiv1809.02492. 2018.7. Dvornik, N., Mairal, J., Schmid C. On the Importance of Visual Context for Data Augmentation in Scene Understanding // ArXiv Prepr. ArXiv1809.02492. 2018.

8. Goodfellow I, Bengio Y, Courville A. Deep learning. MIT press; 2016 Nov 108. Goodfellow I, Bengio Y, Courville A. Deep learning. MIT press; 2016 Nov 10

9. Rosenblatt M. Remarks on Some Nonparametric Estimates of a Density Function// The Annals of Mathematical Statistics. - 1956. - T. 27, вып. 3. - doi: 10.1214/aoms/1177728190.9. Rosenblatt M. Remarks on Some Nonparametric Estimates of a Density Function // The Annals of Mathematical Statistics. - 1956. - T. 27, no. 3.- doi: 10.1214 / aoms / 1177728190.

10. Badrinarayanan Vijay, Kendall Alex, Cipolla Roberto. Segnet: A deep convolutional encoder-decoder architecture for image segmentation // IEEE transactions on pattern analysis and machine intelligence. - 2017. - Vol. 39, no. 12. - P. 2481-2495.10. Badrinarayanan Vijay, Kendall Alex, Cipolla Roberto. Segnet: A deep convolutional encoder-decoder architecture for image segmentation // IEEE transactions on pattern analysis and machine intelligence. - 2017. - Vol. 39, no. 12. - P. 2481-2495.

Claims (12)

1. Способ формирования обучающей выборки, предназначенной для обучения и/или дообучения алгоритмов обработки аэрокосмических изображений местности с целью обнаружения, локализации и классификации объектов до типа авиационной и сухопутной техники, характеризующийся тем, что в заявленном способе:1. A method of forming a training sample intended for training and / or additional training of algorithms for processing aerospace images of terrain in order to detect, localize and classify objects to the type of aviation and land equipment, characterized in that in the claimed method: импортируют посредством блока импорта крупноформатные аэрокосмические изображения, представленные в формате цветных или полутоновых цифровых изображений;large-format aerospace images, presented in the format of color or grayscale digital images, are imported through the import unit; получают посредством нейросетевого ядра импортированные данные от блока импорта данных и выбирают нейросетевые модели из каталога нейросетевых моделей;receive imported data from the data import unit by means of the neural network core and select neural network models from the catalog of neural network models; осуществляют разметку исходных крупноформатных аэрокосмических изображений посредством блока нейросетевой разметки с использованием выбранной нейросетевой модели;carry out the marking of the original large-format aerospace images by means of a neural network marking unit using the selected neural network model; осуществляют корректировку полученной нейросетевой разметки посредством блока корректировки нейросетевой разметки;correcting the obtained neural network markup by means of the neural network markup correction unit; выполняют автоматическое расширение объема изображений для обучающих выборок посредством модуля автоматической аугментации;perform automatic expansion of the volume of images for training samples by means of the automatic augmentation module; передают откорректированные размеченные изображения в базу данных обучающих и тестовых выборок с экспертной разметкой, обеспечивая непрерывное пополнение базы данных, при этомtransfer the corrected tagged images to the database of training and test samples with expert markup, providing continuous replenishment of the database, while выполняют посредством базы данных обучающих и тестовых выборок с экспертной разметкой балансировку обучающих выборок по числу объектов интереса и количеству элементов фона;balancing the training samples according to the number of objects of interest and the number of background elements by means of a database of training and test samples with expert markup; выполняют дообучение нейросетевых моделей из каталога нейросетевых моделей посредством модуля дообучения на основании полученных обучающих выборок, сформированных в базе данных обучающей выборки с экспертной разметкой;performing additional training of neural network models from the catalog of neural network models by means of the additional training module based on the received training samples formed in the training sample database with expert markup; посредством модуля аналитики и формирования отчетов на основании полученных на предыдущих этапах способа данных формируют отчеты, позволяющих контролировать процесс обучения и/или дообучения.using the analytics and reporting module, based on the data obtained at the previous stages of the method, reports are generated that allow you to control the learning and / or retraining process. 2. Программно-аппаратный комплекс, предназначенный для реализации способа по п. 1, состоящий из базы данных обучающих и тестовых выборок с экспертной разметкой, блока импорта, нейросетевого ядра, характеризующийся тем, что комплекс содержит модуль дообучения, каталог нейросетевых моделей, блок нейросетевой разметки, блок корректировки нейросетевой разметки, модуль автоматической аугментации, модуль аналитики и формирования отчетов, при этом выход блока импорта соединен с первым входом нейросетевого ядра, выход базы данных обучающей выборки с экспертной разметкой, соединен со входом модуля дообучения, первый выход модуля дообучения соединен со входом модуля аналитики и формирования отчетов, выход модуля аналитики и формирования отчетов предназначен для контроля результатов обучения или дообучения экспертом, второй выход модуля дообучения соединен со входом каталога нейросетевых моделей, выход каталога нейросетевых моделей соединен со вторым входом нейросетевого ядра, выход нейросетевого ядра соединен со входом блока нейросетевой разметки, выход блока нейросетевой разметки соединен с первым входом блока корректировки нейросетевой разметки, второй вход блока корректировки нейросетевой разметки предназначен для корректировки обучающих данных экспертом, выход блока корректировки нейросетевой разметки соединен со входом модуля автоматической аугментации, выход модуля автоматической аугментации соединен со входом базы данных обучающей выборки с экспертной разметкой, причем блок нейросетевой разметки выполнен с возможностью автоматической разметки обучающих данных на крупноформатных аэрокосмических изображениях с помощью нейросетей, блок корректировки нейросетевой разметки выполнен с возможностью корректировки разметки экспертом, база данных обучающих и тестовых выборок с экспертной разметкой выполнена с возможностью непрерывного пополнения и расширения обучающей выборки, с возможностью балансировки обучающих выборок по числу объектов интереса и количеству элементов фона, модуль дообучения выполнен с возможностью расширения области применения нейросетевых моделей на новые классы объектов и фоноцелевой обстановки и обеспечивает ускорение процесса разметки.2. A software and hardware complex designed to implement the method according to claim 1, consisting of a database of training and test samples with expert markup, an import block, a neural network core, characterized by the fact that the complex contains an additional training module, a catalog of neural network models, a neural network markup block , neural network markup correction unit, automatic augmentation module, analytics and reporting module, while the output of the import block is connected to the first input of the neural network core, the output of the training sample database with expert markup is connected to the input of the additional training module, the first output of the additional training module is connected to the input the analytics and reporting module, the output of the analytics and reporting module is designed to control the learning outcomes or additional training by an expert, the second output of the additional training module is connected to the input of the neural network models catalog, the output of the neural network models catalog is connected to the second input of the neural network core, the output of the neural network the core is connected to the input of the neural network markup block, the output of the neural network markup block is connected to the first input of the neural network markup correction block, the second input of the neural network markup correction block is designed to correct the training data by an expert, the output of the neural network markup correction block is connected to the input of the automatic augmentation module, the output of the automatic augmentation module connected to the input of the training sample database with expert markup, and the neural network markup unit is configured to automatically mark the training data on large-format aerospace images using neural networks, the neural network markup correction unit is configured to correct the markup by an expert, the training and test samples database with expert markup made with the possibility of continuous replenishment and expansion of the training sample, with the possibility of balancing training samples by the number of objects of interest and the number of background elements, m The additional training module is made with the possibility of expanding the area of application of neural network models to new classes of objects and background target environment and provides acceleration of the marking process. 3. Программно-аппаратный комплекс по п. 2, отличающийся тем, что модуль автоматической аугментации выполнен с возможностью компьютерного синтеза реалистичных 3D моделей объектов интереса и размещением их в автоматическом режиме на изображения подстилающей поверхности с учетом разрешенных областей, с возможностью автоматического генерирования изображений с различным состоянием атмосферы, угла источника освещения, ракурса съемки.3. The hardware and software complex according to claim 2, characterized in that the automatic augmentation module is made with the possibility of computer synthesis of realistic 3D models of objects of interest and their placement in automatic mode on the images of the underlying surface, taking into account the permitted areas, with the possibility of automatically generating images with different the state of the atmosphere, the angle of the light source, the shooting angle.
RU2020119638A 2020-06-15 2020-06-15 Hardware-software complex designed for training and (or) re-training of processing algorithms for aerial photographs of the territory for detection, localization and classification up to type of aviation and ground equipment RU2747044C1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2020119638A RU2747044C1 (en) 2020-06-15 2020-06-15 Hardware-software complex designed for training and (or) re-training of processing algorithms for aerial photographs of the territory for detection, localization and classification up to type of aviation and ground equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2020119638A RU2747044C1 (en) 2020-06-15 2020-06-15 Hardware-software complex designed for training and (or) re-training of processing algorithms for aerial photographs of the territory for detection, localization and classification up to type of aviation and ground equipment

Publications (1)

Publication Number Publication Date
RU2747044C1 true RU2747044C1 (en) 2021-04-23

Family

ID=75584842

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2020119638A RU2747044C1 (en) 2020-06-15 2020-06-15 Hardware-software complex designed for training and (or) re-training of processing algorithms for aerial photographs of the territory for detection, localization and classification up to type of aviation and ground equipment

Country Status (1)

Country Link
RU (1) RU2747044C1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2811357C2 (en) * 2021-12-06 2024-01-11 Российская Федерация, от имени которой выступает ФОНД ПЕРСПЕКТИВНЫХ ИССЛЕДОВАНИЙ Software and hardware complex designed for processing aerospace image of terrain for purpose of detection, localization and classification by type of aviation and land equipment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2411468C1 (en) * 2009-09-21 2011-02-10 Закрытое акционерное общество "Научно-технический центр "Реагент" Method of evaluating quantitative characteristics of probed earth's surface
US20170228871A1 (en) * 2012-06-22 2017-08-10 Google Inc. System and method for labelling aerial images
US9858496B2 (en) * 2016-01-20 2018-01-02 Microsoft Technology Licensing, Llc Object detection and classification in images
RU2641447C1 (en) * 2016-12-27 2018-01-17 Общество с ограниченной ответственностью "ВижнЛабс" Method of training deep neural networks based on distributions of pairwise similarity measures
CN109492580A (en) * 2018-11-08 2019-03-19 北方工业大学 Multi-size aerial image positioning method based on full convolution network field saliency reference
RU2698649C1 (en) * 2018-01-16 2019-08-29 Акционерное общество "Федеральный научно-производственный центр "Нижегородский научно-исследовательский институт радиотехники" Method of detecting and classifying small objects on images obtained by synthetic aperture radar stations

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2411468C1 (en) * 2009-09-21 2011-02-10 Закрытое акционерное общество "Научно-технический центр "Реагент" Method of evaluating quantitative characteristics of probed earth's surface
US20170228871A1 (en) * 2012-06-22 2017-08-10 Google Inc. System and method for labelling aerial images
US9858496B2 (en) * 2016-01-20 2018-01-02 Microsoft Technology Licensing, Llc Object detection and classification in images
RU2641447C1 (en) * 2016-12-27 2018-01-17 Общество с ограниченной ответственностью "ВижнЛабс" Method of training deep neural networks based on distributions of pairwise similarity measures
RU2698649C1 (en) * 2018-01-16 2019-08-29 Акционерное общество "Федеральный научно-производственный центр "Нижегородский научно-исследовательский институт радиотехники" Method of detecting and classifying small objects on images obtained by synthetic aperture radar stations
CN109492580A (en) * 2018-11-08 2019-03-19 北方工业大学 Multi-size aerial image positioning method based on full convolution network field saliency reference

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2811357C2 (en) * 2021-12-06 2024-01-11 Российская Федерация, от имени которой выступает ФОНД ПЕРСПЕКТИВНЫХ ИССЛЕДОВАНИЙ Software and hardware complex designed for processing aerospace image of terrain for purpose of detection, localization and classification by type of aviation and land equipment

Similar Documents

Publication Publication Date Title
CN107945204B (en) Pixel-level image matting method based on generation countermeasure network
CN109816725B (en) Monocular camera object pose estimation method and device based on deep learning
CN109584248B (en) Infrared target instance segmentation method based on feature fusion and dense connection network
CN109740588B (en) X-ray picture contraband positioning method based on weak supervision and deep response redistribution
CN111428575B (en) Tracking method for fuzzy target based on twin network
CN110969250A (en) Neural network training method and device
CN110163208B (en) Scene character detection method and system based on deep learning
CN110163836A (en) Based on deep learning for the excavator detection method under the inspection of high-altitude
CN112233129B (en) Deep learning-based parallel multi-scale attention mechanism semantic segmentation method and device
CN112613350A (en) High-resolution optical remote sensing image airplane target detection method based on deep neural network
CN111783779A (en) Image processing method, apparatus and computer-readable storage medium
CN112907614A (en) Yoov 5-segnet insulator string contour extraction method based on depth feature fusion
CN111339902A (en) Liquid crystal display number identification method and device of digital display instrument
CN108921929A (en) A kind of recognition methods of identifying system and training method and individual monocular image
CN110378174A (en) Road extracting method and device
CN115049945B (en) Unmanned aerial vehicle image-based wheat lodging area extraction method and device
CN111260687B (en) Aerial video target tracking method based on semantic perception network and related filtering
CN113850189B (en) Embedded twin network real-time tracking method applied to maneuvering platform
CN112766102A (en) Unsupervised hyperspectral video target tracking method based on space-spectrum feature fusion
CN111242134A (en) Remote sensing image ground object segmentation method based on feature adaptive learning
RU2747044C1 (en) Hardware-software complex designed for training and (or) re-training of processing algorithms for aerial photographs of the territory for detection, localization and classification up to type of aviation and ground equipment
CN116630828B (en) Unmanned aerial vehicle remote sensing information acquisition system and method based on terrain environment adaptation
CN116703744B (en) Remote sensing image dodging and color homogenizing method and device based on convolutional neural network
Rusyn et al. Deep learning for atmospheric cloud image segmentation
CN107729992B (en) Deep learning method based on back propagation