RU2747044C1 - Hardware-software complex designed for training and (or) re-training of processing algorithms for aerial photographs of the territory for detection, localization and classification up to type of aviation and ground equipment - Google Patents
Hardware-software complex designed for training and (or) re-training of processing algorithms for aerial photographs of the territory for detection, localization and classification up to type of aviation and ground equipment Download PDFInfo
- Publication number
- RU2747044C1 RU2747044C1 RU2020119638A RU2020119638A RU2747044C1 RU 2747044 C1 RU2747044 C1 RU 2747044C1 RU 2020119638 A RU2020119638 A RU 2020119638A RU 2020119638 A RU2020119638 A RU 2020119638A RU 2747044 C1 RU2747044 C1 RU 2747044C1
- Authority
- RU
- Russia
- Prior art keywords
- training
- neural network
- markup
- images
- expert
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
Область техникиTechnology area
Изобретение относится к компьютерным системам, основанным на биологических моделях, а именно к способам обучения и/или дообучения сверточных и/или полносверточных нейронных сетей, предназначенных для обнаружения, локализации и классификации объектов до типа авиационной и сухопутной техники на аэрокосмических изображениях местности.The invention relates to computer systems based on biological models, and in particular to methods of training and / or additional training of convolutional and / or full-convolutional neural networks designed to detect, localize and classify objects to the type of aviation and land equipment in aerospace images of the terrain.
Уровень техникиState of the art
Известны способы обучения сверточных и полносверточных нейронных сетей с помощью библиотек глубокого обучения с использованием возможностей высоко-параллельных вычислений на графических ускорителях (GPGPU-General-purpose computing for graphics processing units, неспециализированные вычисления на графических процессорах [1]). Известные библиотеки глубокого обучения, такие как Caffe [2] и Tensorflow [3], работают в предположении, что для обучения используются изображения фиксированного размера [4]. Данное упрощение позволяет значительно упростить и ускорить процесс обучения.Known methods of training convolutional and full-convolutional neural networks using deep learning libraries using the capabilities of highly parallel computing on graphics accelerators (GPGPU-General-purpose computing for graphics processing units, non-specialized computing on graphics processing units [1]). Well-known deep learning libraries such as Caffe [2] and Tensorflow [3] operate under the assumption that fixed-size images are used for training [4]. This simplification allows you to significantly simplify and speed up the learning process.
Обучение нейронных сетей задачам обнаружения, локализации осуществляется на основе наборов эталонных данных, на которых экспертом с высокой точностью размечены объекты интереса. При этом для решения задач обнаружения и локализации достаточно выделения объекта интереса прямоугольной рамкой, а для решения задачи классификации необходимо более детально выделить форму объекта. Существует способ определения типа объекта авиационной техники на выделенных изображениях объектов интереса, основанный на сегментации объектов с последующим обнаружением ключевых точек объектов и сопоставлением с шаблонами [5]. Однако, образцы аэрокосмических изображений местности, на которых необходимо осуществить обнаружение, локализацию и классификацию до типа авиационной и сухопутной техники могут иметь различные размеры, в том числе необходима и обработка крупноформатных изображений.Training of neural networks in the tasks of detection and localization is carried out on the basis of sets of reference data, on which the objects of interest are marked with high accuracy by an expert. At the same time, to solve the problems of detection and localization, it is sufficient to select the object of interest with a rectangular frame, and to solve the classification problem, it is necessary to highlight the shape of the object in more detail. There is a way to determine the type of aircraft object on the selected images of objects of interest, based on segmentation of objects with subsequent detection of key points of objects and comparison with templates [5]. However, samples of aerospace images of the terrain on which it is necessary to carry out detection, localization and classification to the type of aviation and land equipment may have different sizes, including the need for processing large-format images.
Разметка обучающих выборок состоит в сегментации изображений - отделении объектов интереса от фона. Известные подходы к выполнению сегментации аэрокосмических изображений, различаются по качеству сегментации и требуемым трудозатратам. Например, использование алгоритма GrabCut [6] не позволяет осуществлять полностью автоматическое сегментирование и требует существенных временных затрат.The marking of training samples consists in image segmentation - the separation of objects of interest from the background. Known approaches to performing segmentation of aerospace images differ in the quality of segmentation and the required labor costs. For example, the use of the GrabCut algorithm [6] does not allow fully automatic segmentation and is time consuming.
Известны способы подготовки обучающих выборок с помощью аугментаций на основе формирования новых изображений путем вставки объектов интереса на различные фоновые изображения [7]. Данные способы позволяют формировать обучающие выборки для изображений с локализованными объектами интереса. На крупноформатных изображениях число элементов фона значительно превышает число элементов объектов интереса, что значительно усложняет процесс обучения.Known methods for preparing training samples using augmentation based on the formation of new images by inserting objects of interest on various background images [7]. These methods make it possible to form training samples for images with localized objects of interest. On large-format images, the number of background elements significantly exceeds the number of elements of objects of interest, which greatly complicates the learning process.
Известные фрэймворки, позволяющие осуществлять разметку изображений для обучения нейросети (Amazon SageMaker, https://handl.ai/ Handl, Google Data Labeling https://cloud.google.com/data-labeling/docs/). Недостатком известных решений является то, что они не поддерживают обучение и дообучение.Well-known frameworks that allow you to markup images for training a neural network (Amazon SageMaker, https://handl.ai/ Handl, Google Data Labeling https://cloud.google.com/data-labeling/docs/). The disadvantage of the known solutions is that they do not support training and additional training.
Раскрытие сущностиDisclosure of the essence
Задачей, на решение которой направлено заявляемое изобретение является обучение и/или дообучение сверточных и/или полносверточных нейронных сетей, предназначенных для обнаружения, локализации и классификации объектов до типа авиационной и сухопутной техники на аэрокосмических изображениях местности. Техническим результатом является расширение по сравнению с аналогами (например, GrabCut, SegNet [10]) функциональных возможностей и повышение качества обучения и/или дообучения алгоритмов обработки аэрокосмических изображений местности с целью обнаружения, локализации и классификации до типа авиационной и сухопутной техники.The problem to be solved by the claimed invention is training and / or additional training of convolutional and / or full-convolutional neural networks designed to detect, localize and classify objects to the type of aviation and land equipment on aerospace images of the terrain. The technical result is the expansion in comparison with analogues (for example, GrabCut, SegNet [10]) of functionality and improvement of the quality of training and / or additional training of algorithms for processing aerospace images of terrain in order to detect, localize and classify to the type of aviation and land equipment.
На фиг. 1 и фиг. 2 приведены схемы двух вариантов программно-аппаратного комплекса, предназначенного для обучения и/или дообучения алгоритмов обработки аэрокосмических изображений местности с целью обнаружения, локализации и классификации до типа авиационной и сухопутной техники.FIG. 1 and FIG. 2 shows diagrams of two variants of a software and hardware complex intended for training and / or additional training of algorithms for processing aerospace images of terrain in order to detect, localize and classify to the type of aviation and land equipment.
На фиг. 1 ведены обозначения:FIG. 1 the designations are given:
1 - база данных обучающих и тестовых выборок с экспертной разметкой;1 - database of training and test samples with expert markup;
2 - модуль дообучения;2 - additional training module;
3 - блок импорта;3 - import block;
4 - нейросетевое ядро;4 - neural network core;
5 - каталог нейросетевых моделей;5 - catalog of neural network models;
6 - блок нейросетевой разметки;6 - block of neural network markup;
7 - блок корректировки нейросетевой разметки;7 - block for correcting neural network markup;
8 - эксперт;8 - expert;
9 - модуль аналитики и формирования отчетов.9 - module for analytics and reporting.
Предлагаемый программно-аппаратный комплекс состоит из базы данных обучающих и тестовых выборок с экспертной разметкой 1, блока импорта 3, нейросетевого ядра 4, модуля дообучения 2, каталога нейросетевых моделей 5, блока нейросетевой разметки 6, блока корректировки нейросетевой разметки 7, модуля аналитики и формирования отчетов 9, при этом выход блока импорта 3 соединен с первым входом нейросетевого ядра 4, выход базы данных обучающих и тестовых выборок с экспертной разметкой 1 соединен со входом модуля дообучения 2, первый выход модуля дообучения 2 соединен со входом модуля аналитики и формирования отчетов 9, выход модуля аналитики и формирования отчетов 9 предназначен для контроля результатов обучения или дообучения экспертом 8, второй выход модуля дообучения 2 соединен со входом каталога нейросетевых моделей 5, выход каталога нейросетевых моделей 5 соединен со вторым входом нейросетевого ядра 4, выход нейросетевого ядра 4 соединен со входом блока нейросетевой разметки 6, выход блока нейросетевой разметки 6 соединен с первым входом блока корректировки нейросетевой разметки 7, второй вход блока корректировки нейросетевой разметки 7 предназначен для корректировки обучающих данных экспертом 8, выход блока корректировки нейросетевой разметки 7 соединен со входом базы данных обучающих и тестовых выборок с экспертной разметкой 1, причем блок нейросетевой разметки 6 выполнен с возможностью автоматической разметки обучающих данных на крупноформатных аэрокосмических изображениях с помощью нейросетей, блок корректировки нейросетевой разметки 7 выполнен с возможностью корректировки разметки экспертом 8, база данных обучающих и тестовых выборок с экспертной разметкой 1 выполнена с возможностью непрерывного пополнения и расширения обучающей выборки модуля дообучения 2 с возможностью балансировки количества объектов интереса и количества элементов фона, заключающейся в том, что в обучающую выборку добавляется количество объектов интереса и/или количество элементов фона с целью достижения сопоставимых (сбалансированных) количеств объектов интереса и элементов фона, модуль дообучения 2 выполнен с возможностью расширения области применения нейросетевых моделей на новые классы объектов и фоноцелевой обстановки, чем и обеспечивается ускорение процесса разметки.The proposed hardware and software complex consists of a database of training and test samples with
В соответствии с другим вариантом исполнения в программно-аппаратный комплекс добавлен (см. фиг. 2) модуль автоматической аугментации 10 и он выполнен с возможностью компьютерного синтеза 3D моделей объектов интереса и размещением их в автоматическом режиме на изображения "подстилающей поверхности с учетом разрешенных областей, с возможностью автоматического генерирования изображений с различным состоянием атмосферы, угла освещения источником света ракурса съемки.In accordance with another embodiment, an
Способ формирования обучающей выборки на крупноформатных аэрокосмических изображениях с помощью нейросетей с возможностью корректировки разметки экспертом и состав заявляемого программно-аппаратного комплекса обеспечивает выполнение следующих задач:The method of forming a training sample on large-format aerospace images using neural networks with the possibility of adjusting the markup by an expert and the composition of the proposed software and hardware complex ensures the following tasks:
• импорт и непрерывное накопление обучающих данных для обучения и (или) дообучения алгоритмов, обеспечивающих обнаружение, локализацию и классификацию до типа объектов авиационной и сухопутной техники на аэрокосмических снимках в видимом диапазоне длин;• import and continuous accumulation of training data for training and (or) additional training of algorithms that provide detection, localization and classification to the type of objects of aviation and land equipment on aerospace images in the visible range of lengths;
• возможность добавления новых классов объектов распознавания;• the ability to add new classes of recognition objects;
• совершенствование алгоритмов, дешифрирования аэрокосмической информации;• improvement of algorithms, deciphering aerospace information;
• расширение обучающей выборки с учетом балансировки количества объектов интереса и количества элементов фона.• expanding the training sample, taking into account the balancing of the number of objects of interest and the number of background elements.
Увеличение объема обучающей выборки осуществляется за счет искусственного расширения обучающей выборки вручную или автоматически с помощью аугментации изображений объектов с помощью искажений в виде добавления шумов, сдвигов, случайных поворотов в плоскости и «из плоскости» в пределах 360°, сжатие и растяжение по осям абсцисс и ординат с коэффициентом 0,1; масштабирование с коэффициентом 0,1; изменения цветов; контрастности; яркости, а также путем вставки объектов интереса на различные фоновые изображения.An increase in the volume of the training sample is carried out by artificially expanding the training sample manually or automatically using augmentation of object images using distortions in the form of adding noise, shifts, random rotations in the plane and "out of the plane" within 360 °, compression and stretching along the abscissa axes and ordinate with a coefficient of 0.1; scaling by a factor of 0.1; color changes; contrast; brightness, as well as by inserting objects of interest on various background images.
В соответствии с другим вариантом изобретения увеличение объема обучающей выборки осуществляется с использованием компьютерного синтеза изображений объектов интереса. Предварительно на реальных фоновых изображениях осуществляется разметка области, в которой может размещаться объект интереса. После чего в автоматическом режиме на подстилающую поверхность с учетом разрешенных областей размещается 3D модель объекта интереса. Обеспечивается возможность в автоматическом режиме генерировать изображения с различным состоянием атмосферы, угла источника освещения, ракурса съемки.In accordance with another embodiment of the invention, an increase in the volume of the training sample is carried out using computer synthesis of images of objects of interest. Preliminarily, on real background images, the area is marked in which the object of interest can be placed. After that, in automatic mode, a 3D model of the object of interest is placed on the underlying surface, taking into account the allowed areas. Provides the ability to automatically generate images with different conditions of the atmosphere, angle of the light source, shooting angle.
В итоге формирование обучающих выборок с учетом балансировки количества объектов интереса и количества элементов фона приводит к тому, что вероятность попадания элементов фона и объектов интереса в состав изображения выборки будет одинакова.As a result, the formation of training samples, taking into account the balancing of the number of objects of interest and the number of background elements, leads to the fact that the probability of getting background elements and objects of interest in the sample image will be the same.
Кроме того, эксперт имеет возможность вручную указывать ценность или релевантность каждого объекта для обучения, что позволяет снизить вероятность добавления в обучающую выборку сгруппированных объектов, с учетом того, что для обучения обнаружению и локализации больший эффект может быть достигнут при увеличении в обучающей выборке количества изображений отдельно-стоящих объектов интереса или объектов интереса, находящихся в необычных местах, и уменьшении изображений, содержащих группы близкорасположенных объектов интереса.In addition, the expert has the ability to manually indicate the value or relevance of each object for training, which makes it possible to reduce the likelihood of adding grouped objects to the training set, taking into account the fact that for training detection and localization, a greater effect can be achieved by increasing the number of images in the training set separately. - standing objects of interest or objects of interest located in unusual places, and reducing images containing groups of nearby objects of interest.
В алгоритме создания обучающей выборки с близкорасположенными объектами интереса в автоматическом режиме блоком корректировки нейросетевой разметки 7 осуществляется выбор объекта интереса в зависимости от наличия рядом других объектов, с целью исключения равновероятного выбора объектов и групп близкорасположенных объектов интереса для снижения вероятности добавления в обучающую выборку групп близкорасположенных объектов интереса.In the algorithm for creating a training sample with closely spaced objects of interest in the automatic mode, the neural network
Для обучения алгоритмов обработки аэрокосмических изображений местности задаче обнаружения создаются эталонные тепловые карты, представляющие собой цветовые карты вероятностей принадлежности пикселя объекту интереса. Цвет каждого элемента тепловой карты соответствует степени уверенности алгоритма в том, что в области входного изображения, соответствующей этому элементу, находится объект интереса. Чем большее смещение цвета на тепловой карте в сторону красного по шкале от синего к красному, тем больше степень уверенности. В процессе обучения тепловая карта, полученная на выходе алгоритма обработки аэрокосмических изображений местности, сравнивается с эталонной тепловой картой. В результате вычисляется функция потерь, а также градиент данной функции по весам нейронов нейронной сети в соответствии с принципом обратного распространения ошибки [8]. На крупноформатных изображениях число элементов фона значительно превышает число элементов объектов интереса. Успешное обучение в таком случае возможно при условии снижения учета элементов фона по сравнению с элементами, принадлежащими объекту. Для решения проблемы вводится коэффициент, понижающий значение функции потерь, использующейся для определения расхождения между истинными данными и полученными ответами нейронной сети для элементов фона. Введение понижающего коэффициента для балансировки объектов приводит к появлению на выходе нейросети широких «пятен» высокого значения вероятности вокруг центров объектов. Возникновение «пятен» высокого значения вероятности затрудняет определение точного положения центра объекта. Для уменьшения размеров данных «пятен» и улучшения локализации объекта обеспечивается плавное повышение понижающего коэффициента. Значение понижающего коэффициента вокруг объекта определяется плавной, монотонно убывающей (ядерной [9]) функцией расстояния до центра объекта интереса. Из-за небольшого числа объектов такое изменение понижающего коэффициента практически не оказывает влияния на балансировку фона, но значительно уменьшает области высокого значения вероятности и улучшает локализацию объектов.To train the algorithms for processing aerospace images of the terrain for the detection task, reference heat maps are created, which are color maps of the probabilities of a pixel belonging to an object of interest. The color of each element of the heat map corresponds to the degree of confidence of the algorithm that an object of interest is located in the region of the input image corresponding to this element. The more the color shift on the heatmap towards red on a scale from blue to red, the greater the degree of confidence. In the process of training, the heat map obtained at the output of the algorithm for processing aerospace images of the terrain is compared with the reference heat map. As a result, the loss function is calculated, as well as the gradient of this function over the weights of the neurons of the neural network in accordance with the principle of back propagation of the error [8]. On large-format images, the number of background elements significantly exceeds the number of objects of interest. Successful training in this case is possible provided that the background elements are counted less in comparison with the elements belonging to the object. To solve the problem, a coefficient is introduced that reduces the value of the loss function, which is used to determine the discrepancy between the true data and the received responses of the neural network for background elements. The introduction of a decreasing coefficient for balancing objects leads to the appearance of wide "spots" of a high probability value around the centers of objects at the output of the neural network. The occurrence of "spots" with a high probability value makes it difficult to determine the exact position of the center of the object. To reduce the size of these "spots" and improve the localization of the object, a gradual increase in the reduction factor is provided. The value of the decreasing coefficient around the object is determined by a smooth, monotonically decreasing (nuclear [9]) function of the distance to the center of the object of interest. Due to the small number of objects, such a change in the reduction factor has practically no effect on the background balancing, but it significantly reduces the areas of high probability values and improves the localization of objects.
Осуществление изобретенияImplementation of the invention
Сущность предлагаемого изобретения поясняется схемой программно-аппаратного комплекса, предназначенного для обучения и/или дообучения алгоритмов обработки аэрокосмических изображений местности с целью обнаружения, локализации и классификации до типа авиационной и сухопутной техники, представленной на фиг. 1 и фиг. 2. Исходные крупноформатные аэрокосмические изображения, представленные в формате цветных или полутоновых цифровых изображений поступают в блок импорта 3 и передаются в нейросетевое ядро 4 с возможностью выбора нейросетевой модели из каталога нейросетевых моделей 5, в блоке нейросетевой разметки 6 осуществляется разметка исходных крупноформатных аэрокосмических изображений с помощью выбранной нейросети, блок корректировки нейросетевой разметки 7 обеспечивает корректировку нейросетевой разметки экспертом 8 в случае необходимости, в модуле автоматической аугментации 10 (см. фиг. 2) может осуществляться автоматическое расширение объема изображений для обучающих выборок. Откорректированные размеченные изображения поступают в базу данных обучающих и тестовых выборок с экспертной разметкой 1, что обеспечивает ее непрерывное пополнение. Обучающие выборки, сформированные в базе данных обучающей выборки с экспертной разметкой 1, поступают в модуль дообучения 2, обеспечивающий дообучение нейросетевых моделей из каталога нейросетевых моделей 5. В модуле аналитики и формирования отчетов 9 формируются отчеты, позволяющие эксперту 8 контролировать процесс обучения и/или дообучения.The essence of the invention is illustrated by a diagram of a software and hardware complex intended for training and / or additional training of algorithms for processing aerospace images of terrain in order to detect, localize and classify to the type of aviation and land equipment shown in Fig. 1 and FIG. 2. The original large-format aerospace images presented in the format of color or grayscale digital images enter the
Технический результат обеспечивается использованием импорта и непрерывного накопления обучающих данных с автоматической разметкой на крупноформатных аэрокосмических изображениях с помощью нейросетей с возможностью корректировки разметки экспертом, возможностью увеличения объема обучающей выборки вручную и автоматически за счет различных аугментаций изображений объектов интереса, за счет компьютерного синтеза реалистичных 3D моделей объектов интереса и размещением их в автоматическом режиме на изображения подстилающей поверхности с учетом разрешенных областей, возможностью автоматического генерирования изображений с различным состоянием атмосферы, угла источника освещения, ракурса съемки, использованием балансировки обучающих выборок по числу объектов интереса и количеству элементов фона.The technical result is provided by the use of import and continuous accumulation of training data with automatic marking on large-format aerospace images using neural networks with the possibility of adjusting the marking by an expert, the possibility of increasing the volume of the training sample manually and automatically due to various augmentation of images of objects of interest, due to computer synthesis of realistic 3D models of objects of interest and placing them in automatic mode on the images of the underlying surface, taking into account the allowed areas, the ability to automatically generate images with different conditions of the atmosphere, the angle of the light source, the shooting angle, using the balancing of training samples by the number of objects of interest and the number of background elements.
ЛитератураLiterature
1. Fung J., Tang F., Mann S. Mediated Reality using Computer Graphics Hardware for Computer Vision // Proceedings of the International Symposium on Wearable Computing 2002 (ISWC2002). Seattle, Washington, USA. P. 83-89.1. Fung J., Tang F., Mann S. Mediated Reality using Computer Graphics Hardware for Computer Vision // Proceedings of the International Symposium on Wearable Computing 2002 (ISWC2002). Seattle, Washington, USA. P. 83-89.
2. Caffe [Electronic resource]. URL: http://caffe.berkeleyvision.org/ (accessed: 20.10.2018).2. Caffe [Electronic resource]. URL: http://caffe.berkeleyvision.org/ (accessed: 10/20/2018).
3. Tensorflow [Electronic resource]. URL: https://www.tensorflow.org/ (accessed: 20.10.2018).3. Tensorflow [Electronic resource]. URL: https://www.tensorflow.org/ (accessed: 10/20/2018).
4. Crawford C. An Introduction to Deep Learning [Electronic resource]. URL: https://blog.algorithmia.com/introduction-to-deep-learning/ (accessed: 13.07.2018).4. Crawford C. An Introduction to Deep Learning [Electronic resource]. URL: https://blog.algorithmia.com/introduction-to-deep-learning/ (accessed: 13.07.2018).
5. Zuo, J., Xu, G., Fu, K., Sun, X., Sun H. Aircraft Type Recognition Based on Segmentation With Deep Convolutional Neural Networks // IEEE Geosci. Remote Sens. Lett. 2018. Vol. 15, №2. P. 282-286.5. Zuo, J., Xu, G., Fu, K., Sun, X., Sun H. Aircraft Type Recognition Based on Segmentation With Deep Convolutional Neural Networks // IEEE Geosci. Remote Sens. Lett. 2018. Vol. 15, no. 2. P. 282-286.
6. Grabcut [Electronic resource]. URL: https://chocopoule.github.io/grabcutweb/ (accessed: 22.02.2019).6. Grabcut [Electronic resource]. URL: https://chocopoule.github.io/grabcutweb/ (accessed: 22.02.2019).
7. Dvornik, N., Mairal, J., Schmid C. On the Importance of Visual Context for Data Augmentation in Scene Understanding // ArXiv Prepr. ArXiv1809.02492. 2018.7. Dvornik, N., Mairal, J., Schmid C. On the Importance of Visual Context for Data Augmentation in Scene Understanding // ArXiv Prepr. ArXiv1809.02492. 2018.
8. Goodfellow I, Bengio Y, Courville A. Deep learning. MIT press; 2016 Nov 108. Goodfellow I, Bengio Y, Courville A. Deep learning. MIT press; 2016
9. Rosenblatt M. Remarks on Some Nonparametric Estimates of a Density Function// The Annals of Mathematical Statistics. - 1956. - T. 27, вып. 3. - doi: 10.1214/aoms/1177728190.9. Rosenblatt M. Remarks on Some Nonparametric Estimates of a Density Function // The Annals of Mathematical Statistics. - 1956. - T. 27, no. 3.- doi: 10.1214 / aoms / 1177728190.
10. Badrinarayanan Vijay, Kendall Alex, Cipolla Roberto. Segnet: A deep convolutional encoder-decoder architecture for image segmentation // IEEE transactions on pattern analysis and machine intelligence. - 2017. - Vol. 39, no. 12. - P. 2481-2495.10. Badrinarayanan Vijay, Kendall Alex, Cipolla Roberto. Segnet: A deep convolutional encoder-decoder architecture for image segmentation // IEEE transactions on pattern analysis and machine intelligence. - 2017. - Vol. 39, no. 12. - P. 2481-2495.
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2020119638A RU2747044C1 (en) | 2020-06-15 | 2020-06-15 | Hardware-software complex designed for training and (or) re-training of processing algorithms for aerial photographs of the territory for detection, localization and classification up to type of aviation and ground equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2020119638A RU2747044C1 (en) | 2020-06-15 | 2020-06-15 | Hardware-software complex designed for training and (or) re-training of processing algorithms for aerial photographs of the territory for detection, localization and classification up to type of aviation and ground equipment |
Publications (1)
Publication Number | Publication Date |
---|---|
RU2747044C1 true RU2747044C1 (en) | 2021-04-23 |
Family
ID=75584842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2020119638A RU2747044C1 (en) | 2020-06-15 | 2020-06-15 | Hardware-software complex designed for training and (or) re-training of processing algorithms for aerial photographs of the territory for detection, localization and classification up to type of aviation and ground equipment |
Country Status (1)
Country | Link |
---|---|
RU (1) | RU2747044C1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2811357C2 (en) * | 2021-12-06 | 2024-01-11 | Российская Федерация, от имени которой выступает ФОНД ПЕРСПЕКТИВНЫХ ИССЛЕДОВАНИЙ | Software and hardware complex designed for processing aerospace image of terrain for purpose of detection, localization and classification by type of aviation and land equipment |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2411468C1 (en) * | 2009-09-21 | 2011-02-10 | Закрытое акционерное общество "Научно-технический центр "Реагент" | Method of evaluating quantitative characteristics of probed earth's surface |
US20170228871A1 (en) * | 2012-06-22 | 2017-08-10 | Google Inc. | System and method for labelling aerial images |
US9858496B2 (en) * | 2016-01-20 | 2018-01-02 | Microsoft Technology Licensing, Llc | Object detection and classification in images |
RU2641447C1 (en) * | 2016-12-27 | 2018-01-17 | Общество с ограниченной ответственностью "ВижнЛабс" | Method of training deep neural networks based on distributions of pairwise similarity measures |
CN109492580A (en) * | 2018-11-08 | 2019-03-19 | 北方工业大学 | Multi-size aerial image positioning method based on full convolution network field saliency reference |
RU2698649C1 (en) * | 2018-01-16 | 2019-08-29 | Акционерное общество "Федеральный научно-производственный центр "Нижегородский научно-исследовательский институт радиотехники" | Method of detecting and classifying small objects on images obtained by synthetic aperture radar stations |
-
2020
- 2020-06-15 RU RU2020119638A patent/RU2747044C1/en active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2411468C1 (en) * | 2009-09-21 | 2011-02-10 | Закрытое акционерное общество "Научно-технический центр "Реагент" | Method of evaluating quantitative characteristics of probed earth's surface |
US20170228871A1 (en) * | 2012-06-22 | 2017-08-10 | Google Inc. | System and method for labelling aerial images |
US9858496B2 (en) * | 2016-01-20 | 2018-01-02 | Microsoft Technology Licensing, Llc | Object detection and classification in images |
RU2641447C1 (en) * | 2016-12-27 | 2018-01-17 | Общество с ограниченной ответственностью "ВижнЛабс" | Method of training deep neural networks based on distributions of pairwise similarity measures |
RU2698649C1 (en) * | 2018-01-16 | 2019-08-29 | Акционерное общество "Федеральный научно-производственный центр "Нижегородский научно-исследовательский институт радиотехники" | Method of detecting and classifying small objects on images obtained by synthetic aperture radar stations |
CN109492580A (en) * | 2018-11-08 | 2019-03-19 | 北方工业大学 | Multi-size aerial image positioning method based on full convolution network field saliency reference |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2811357C2 (en) * | 2021-12-06 | 2024-01-11 | Российская Федерация, от имени которой выступает ФОНД ПЕРСПЕКТИВНЫХ ИССЛЕДОВАНИЙ | Software and hardware complex designed for processing aerospace image of terrain for purpose of detection, localization and classification by type of aviation and land equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107945204B (en) | Pixel-level image matting method based on generation countermeasure network | |
CN109816725B (en) | Monocular camera object pose estimation method and device based on deep learning | |
CN109584248B (en) | Infrared target instance segmentation method based on feature fusion and dense connection network | |
CN109740588B (en) | X-ray picture contraband positioning method based on weak supervision and deep response redistribution | |
CN111428575B (en) | Tracking method for fuzzy target based on twin network | |
CN110969250A (en) | Neural network training method and device | |
CN110163208B (en) | Scene character detection method and system based on deep learning | |
CN110163836A (en) | Based on deep learning for the excavator detection method under the inspection of high-altitude | |
CN112233129B (en) | Deep learning-based parallel multi-scale attention mechanism semantic segmentation method and device | |
CN112613350A (en) | High-resolution optical remote sensing image airplane target detection method based on deep neural network | |
CN111783779A (en) | Image processing method, apparatus and computer-readable storage medium | |
CN112907614A (en) | Yoov 5-segnet insulator string contour extraction method based on depth feature fusion | |
CN111339902A (en) | Liquid crystal display number identification method and device of digital display instrument | |
CN108921929A (en) | A kind of recognition methods of identifying system and training method and individual monocular image | |
CN110378174A (en) | Road extracting method and device | |
CN115049945B (en) | Unmanned aerial vehicle image-based wheat lodging area extraction method and device | |
CN111260687B (en) | Aerial video target tracking method based on semantic perception network and related filtering | |
CN113850189B (en) | Embedded twin network real-time tracking method applied to maneuvering platform | |
CN112766102A (en) | Unsupervised hyperspectral video target tracking method based on space-spectrum feature fusion | |
CN111242134A (en) | Remote sensing image ground object segmentation method based on feature adaptive learning | |
RU2747044C1 (en) | Hardware-software complex designed for training and (or) re-training of processing algorithms for aerial photographs of the territory for detection, localization and classification up to type of aviation and ground equipment | |
CN116630828B (en) | Unmanned aerial vehicle remote sensing information acquisition system and method based on terrain environment adaptation | |
CN116703744B (en) | Remote sensing image dodging and color homogenizing method and device based on convolutional neural network | |
Rusyn et al. | Deep learning for atmospheric cloud image segmentation | |
CN107729992B (en) | Deep learning method based on back propagation |