RU2809945C2 - Method for detecting moving objects - Google Patents

Method for detecting moving objects Download PDF

Info

Publication number
RU2809945C2
RU2809945C2 RU2021134902A RU2021134902A RU2809945C2 RU 2809945 C2 RU2809945 C2 RU 2809945C2 RU 2021134902 A RU2021134902 A RU 2021134902A RU 2021134902 A RU2021134902 A RU 2021134902A RU 2809945 C2 RU2809945 C2 RU 2809945C2
Authority
RU
Russia
Prior art keywords
image
bounding
pixels
diff
optical flow
Prior art date
Application number
RU2021134902A
Other languages
Russian (ru)
Other versions
RU2021134902A (en
Inventor
Фабио МАШИ
Original Assignee
Зе Эдж Компани С.Р.Л.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Зе Эдж Компани С.Р.Л. filed Critical Зе Эдж Компани С.Р.Л.
Publication of RU2021134902A publication Critical patent/RU2021134902A/en
Application granted granted Critical
Publication of RU2809945C2 publication Critical patent/RU2809945C2/en

Links

Abstract

FIELD: method for detecting moving objects.
SUBSTANCE: method for detecting moving objects is claimed, which includes the following steps: extracting at least one first image (f1) and at least one second image (f2) from a video recording of the space being monitored; detecting corner points in the first image (f1) and in the second image (f2); using the detected points, at least one feature vector is extracted; determining the corresponding points on the first image (f1) and on the second image (f2); determining a homography to perform image registration between the first image (f1) and the second image (f2); applying warping of the second image (f2) based on the homography to obtain a warped second image (f2_w); calculating the difference in individual pixels between the warped second image (F2_w) and the first image (f1) and detecting the different pixels; obtaining a third image (diff) by comparing the second warped image (F2_w) with the first image (f1); determining a bounding block (bb) in the third image (diff) for each group of neighboring pixels; calculating optical flow based on the first image (f1) and the curved second image (f2w); extracting from the optical flow a matrix (mag) corresponding to the optical flow value for each bounding block (bb) superimposed on the third image (diff), checking whether the optical flow value of the detected group of pixels exceeds the average value of the surrounding pixels; removing the bounding block (bb) if the optical flow value does not exceed the average value of the surrounding pixels; for each bounding block (bb) superimposed on the third image (diff), a blob detector is used; removing the bounding block (bb) if there are no blobs; and assigning object detection to non-deleted bounding blocks (bb).
EFFECT: improvement of detection of moving objects in video recordings, thus making it more reliable.
12 cl, 6 dwg

Description

Настоящее изобретение относится к способу обнаружения движущихся объектов.The present invention relates to a method for detecting moving objects.

Предпосылки изобретенияBACKGROUND OF THE INVENTION

Сегодня известны разные способы обнаружения движущихся объектов, в которых применяют алгоритмы «обнаружения движения». Эти алгоритмы основаны на технологиях машинного зрения, при этом используются видеозаписи, полученные посредством камер, в качестве их начальной точки. Today, various methods are known for detecting moving objects, which use “motion detection” algorithms. These algorithms are based on computer vision technologies, using video recordings obtained through cameras as their starting point.

Камеры обычно являются фиксированными. Кадр в них может меняться, но они не могут быть перемещены близко к объекту. Для перемещения ближе к движущемуся объекту или для движения вслед за ним может применяться дрон, то есть маленький летательный аппарат, которым управляют с земли посредством радиосвязи. Cameras are usually fixed. The frame in them can change, but they cannot be moved close to the subject. To move closer to a moving object or to follow it, a drone can be used, that is, a small aircraft that is controlled from the ground via radio communication.

Сегодня дроны имеют широкое применение: охрана и слежение, мониторинг окружающей среды и объектов архитектуры, удаленное зондирование, сбор качественных и количественных данных на конкретной территории с последующим анализом электромагнитного излучения, испускаемого или отраженного, и видеосъемка. Видеосъемка, в частности, делает возможным обнаружение объектов, движущихся рядом с дроном.Today, drones have a wide range of applications: security and surveillance, environmental and architectural monitoring, remote sensing, collection of qualitative and quantitative data in a specific area with subsequent analysis of electromagnetic radiation emitted or reflected, and video recording. Video recording, in particular, makes it possible to detect objects moving near the drone.

Применение для обнаружения движущихся объектов, представляющее интерес, заключается в автоматическом обнаружении птиц и наблюдении за ними в небе или ареале обитания, например в наблюдении за жизнью птиц вокруг аэропортов с целью повышения безопасности полетов.An application of interest for moving object detection is the automatic detection and monitoring of birds in the sky or habitat, such as monitoring bird life around airports to improve flight safety.

Обычно отслеживание наличия птиц в подвергаемом наблюдению пространстве или ареале обитания осуществляется путем наблюдения персоналом, который обеспечен системами визуального наблюдения, такими как телескопы или бинокли, за подвергаемым наблюдению пространством. Эти способы делают невозможным полностью автоматическое обнаружение птиц в подвергаемом наблюдению пространстве. Кроме того, наблюдение, выполняемое персоналом в полевых условиях, является весьма субъективным и обусловлено такими факторами, как подготовка и уровень знаний самого персонала.Typically, monitoring the presence of birds in a monitored space or habitat is accomplished by monitoring the monitored space by personnel provided with visual surveillance systems, such as telescopes or binoculars. These methods make it impossible to fully automatically detect birds in the monitored space. In addition, observations performed by personnel in the field are highly subjective and are affected by factors such as the training and knowledge level of the personnel themselves.

Сегодня также существуют радиолокационные системы для обнаружения птиц.Today there are also radar systems for detecting birds.

Эти радиолокационные системы требуют высококвалифицированного персонала для толкования информации и технического обслуживания и поэтому характеризуются очень высокими затратами.These radar systems require highly trained personnel to interpret the information and maintain them and therefore have very high costs.

В последнее время развивались способы отслеживания на основе технологий машинного зрения, в которых птиц обнаруживают на видеозаписях, полученных посредством одной или более камер, размещенных возле подвергаемого наблюдению пространства. Сегодня существуют алгоритмы машинного зрения для обнаружения движущихся объектов, в которых используется технология оптического потока, которая в основном используется для оценки движения между двумя последовательными кадрами в видеозаписи. Recently, tracking methods based on machine vision technologies have been developed, in which birds are detected in video recordings obtained by one or more cameras placed near the area being monitored. Today, there are computer vision algorithms for detecting moving objects that use optical flow technology, which is mainly used to estimate the motion between two consecutive frames in a video recording.

Тем не менее, способы, основанные на этих известных алгоритмах, имеют ограничения. Например, такими способами невозможно обнаружить движущиеся объекты, которые по размерам малы относительно тех, которые, наоборот, могут быть артефактами изображения, возникающими в результате сжатия видеозаписи. Кроме того, этими способами невозможно оптимально обработать видеозаписи, сделанные посредством движущейся камеры, например камеры, прикрепленной к дрону. В действительности в большинстве способов, основанных на оптическом потоке для обнаружения, относительно объекта на заднем плане (который движется) используют стандартный задний фон (который не движется). В случае движущегося устройства двигается как задний фон, так и передний фон, и поэтому очень сложно, если вообще возможно, восстановить стандартный задний фон для осуществления обнаружения, особенно если объект является очень маленьким.However, methods based on these known algorithms have limitations. For example, such methods cannot detect moving objects that are small in size relative to those that, on the contrary, may be image artifacts resulting from video compression. In addition, these methods cannot optimally process video captured by a moving camera, such as a camera attached to a drone. In fact, most optical flow-based methods use a standard background (which does not move) to detect a relative background object (which is moving). In the case of a moving device, both the background and the foreground are moving, and therefore it is very difficult, if not impossible, to restore the standard background to perform detection, especially if the object is very small.

Описание изобретенияDescription of the invention

Цель настоящего изобретения заключается в том, чтобы улучшить обнаружение движущихся объектов на видеозаписи и, таким образом, сделать его более надежным.The purpose of the present invention is to improve the detection of moving objects in video footage and thus make it more reliable.

Еще одна цель настоящего изобретения заключается в обеспечении возможности обнаружения, даже когда в качестве начальной точки используется фильм, полученный посредством движущегося устройства, такого как видеокамера. Another object of the present invention is to enable detection even when a movie obtained by a moving device such as a video camera is used as a starting point.

Согласно настоящему изобретению эти цели достигаются с помощью способа обнаружения движущихся объектов с признаками, определенными в пункте 1 формулы изобретения.According to the present invention, these goals are achieved using a method for detecting moving objects with the characteristics defined in paragraph 1 of the claims.

Этот способ делает возможным надежное определение объектов, которые в этот момент находятся в движении, даже если они маленькие. Кроме того, не нужно создавать стандартный задний фон. Движущиеся объекты могут быть обнаружены камерой, которая также находится в движении и которую можно затем переместить ближе к объекту и, таким образом, сделать обнаружение более надежным.This method makes it possible to reliably detect objects that are currently in motion, even if they are small. In addition, there is no need to create a standard background. Moving objects can be detected by a camera that is also in motion and which can then be moved closer to the object and thus make detection more reliable.

Предпочтительно для удаления высоких частот, присутствующих в изображении, полученном на основании разницы между первым изображением и вторым искривленным изображением, используют фильтр нижних частот и/или к этому изображению применяют пороговую величину для обнаружения отличающихся пикселей между вторым искривленным изображением и первым изображением.Preferably, a low pass filter is used to remove high frequencies present in the image obtained based on the difference between the first image and the second warped image and/or a threshold is applied to the image to detect different pixels between the second warped image and the first image.

В одном предпочтительном варианте осуществления вдоль координатных осей для каждого неудаленного ограничивающего блока после использования детектора blob-объектов извлекают два профиля, проверяют выравнивание между двумя профилями и удаляют любой ограничивающий блок с невыровненными профилями.In one preferred embodiment, along the coordinate axes for each undeleted bounding box, after using the blob detector, two profiles are retrieved, the alignment between the two profiles is checked, and any bounding box with unaligned profiles is removed.

Эти этапы позволяют ограничить «ошибки первого рода», а именно когда движущиеся объекты, которые могут не представлять интерес, такие как ветки деревьев, определяются как интересующие объекты, такие как птицы.These steps help limit “type I errors,” which is when moving objects that may not be of interest, such as tree branches, are identified as objects of interest, such as birds.

Краткое описание графических материаловBrief description of graphic materials

Другие преимущества и признаки настоящего изобретения станут более понятными из подробного описания, представленного ниже со ссылками на прилагаемые графические материалы, в которых представлен неограничивающий вариант осуществления и в которых:Other advantages and features of the present invention will become more apparent from the detailed description set forth below with reference to the accompanying drawings, which show a non-limiting embodiment and in which:

на фиг. 1 представлено изображение одного предпочтительного варианта осуществления способа согласно настоящему изобретению;in fig. 1 is an illustration of one preferred embodiment of the method according to the present invention;

на фиг. 2 представлено изображение, на котором обнаружены границы и углы;in fig. 2 shows an image in which boundaries and corners are detected;

на фиг. 3 представлены два последовательных изображения, на которых определяют соответствующие точки;in fig. 3 shows two consecutive images in which the corresponding points are determined;

на фиг. 4 представлено изображение после применения установки пороговых величин;in fig. 4 shows the image after applying the threshold values;

на фиг. 5 представлено изображение, на котором применяют ограничивающие блоки;in fig. 5 is an image in which bounding blocks are applied;

на фиг. 6 показано извлечение профилей из двух ограничивающих блоков.in fig. Figure 6 shows the extraction of profiles from two bounding boxes.

Предпочтительные варианты осуществления изобретенияPreferred Embodiments of the Invention

На фиг. 1 представлено изображение одного предпочтительного варианта осуществления способа согласно настоящему изобретению.In fig. 1 is an illustration of one preferred embodiment of the method according to the present invention.

В способе обнаружения движущихся объектов необходимо получить запись (или видеозапись) подвергаемого наблюдению пространства.In the method of detecting moving objects, it is necessary to obtain a recording (or video recording) of the space being monitored.

Согласно настоящему изобретению способ обнаружения включает этап 1: извлечение по меньшей мере одного первого изображения (f1) и по меньшей мере одного второго изображения (f2) из записи. According to the present invention, the detection method includes step 1: extracting at least one first image (f1) and at least one second image (f2) from a record.

Изображения (кадры), которые образуют видеозапись, являются цветными и состоят из пикселей. В частности, разрешение составляет 1280x720 пикселей с переменной частотой кадров от приблизительно 24 до 60 кадров в секунду. The images (frames) that make up the video are colored and made up of pixels. Specifically, the resolution is 1280x720 pixels with a variable frame rate from approximately 24 to 60 frames per second.

Предпочтительно второе изображение (f2) следует за первым изображением (f1).Preferably, the second image (f2) follows the first image (f1).

На этапе 2 на первом изображении (f1) и на втором изображении (f2) обнаруживают угловые точки. В частности, на этапе 2 на первом изображении (f1) и на втором изображении (f2) обнаруживают группу граничных и угловых точек. Под углами подразумевается пересечение двух или более краев.In step 2, corner points are detected in the first image (f1) and the second image (f2). Specifically, in step 2, a group of boundary and corner points is detected in the first image (f1) and the second image (f2). Angles refer to the intersection of two or more edges.

Предпочтительно точки обнаруживают путем применения алгоритма FAST (Features from Accelerated Segment Test) для обнаружения углов.Preferably, the points are detected by applying the FAST (Features from Accelerated Segment Test) algorithm to detect corners.

На фиг. 2 показано применение алгоритма FAST к кадру, при этом каждый кружок соответствует искомой точке.In fig. Figure 2 shows the application of the FAST algorithm to a frame, with each circle corresponding to the desired point.

На этапе 3 с помощью обнаруженных точек извлекают векторы признаков, то есть n-мерные векторы, описывающие признаки объекта; в частности, извлекают один для каждой обнаруженной точки. Предпочтительно используют дескриптор BRISK (Binary Robust Invariant Scalable Keypoints), который является неизменяющимся в отношении масштаба и поворота; это свойство подходит для случаев, в которых сцена может быть подвергнута изменениям масштаба и поворота за счет перемещения записывающего устройства, такого как камера, установленная на дроне. At stage 3, using the detected points, feature vectors are extracted, that is, n-dimensional vectors describing the features of the object; in particular, one is extracted for each detected point. Preferably, a BRISK (Binary Robust Invariant Scalable Keypoints) descriptor is used, which is scale and rotation invariant; this property is suitable for cases in which the scene may be subject to changes in scale and rotation due to the movement of a recording device, such as a camera mounted on a drone.

На этапе 4 на первом изображении (f1) и на втором изображении (f2) определяют соответствующие точки. Выполняют сопоставление, например, путем использования алгоритма KNN (k-nearest neighbours), между точками и дескрипторами, извлеченными из двух кадров (f1), (f2), для обнаружения соответствующих точек в двух сценах. На фиг. 3 показано совпадение, обнаруженное между точками двух последовательных кадров, при этом каждая обнаруженная точка в кадре связана с соответствующей точкой в следующем кадре посредством сегмента.In step 4, corresponding points are determined on the first image (f1) and on the second image (f2). A match is performed, for example, by using the KNN (k-nearest neighbors) algorithm, between points and descriptors extracted from two frames (f1), (f2), to detect corresponding points in two scenes. In fig. 3 shows a match detected between points in two successive frames, with each detected point in the frame linked to a corresponding point in the next frame via a segment.

После обнаружения совпадений их используют на этапе 5 для оценки гомографии, а именно геометрического преобразования, которое делает возможным выполнение регистрации между первым изображением (f1) и вторым изображением (f2); другими словами, выравнивание/наложение двух изображений, кадрирующих одну и ту же сцену с двух разных точек наблюдения.Once matches are found, they are used in step 5 to estimate the homography, namely the geometric transformation that makes it possible to perform registration between the first image (f1) and the second image (f2); in other words, the alignment/superposition of two images framing the same scene from two different vantage points.

На этапе 6 ко второму изображению (f2) применяют искривление в цифровой форме, на основании гомографии, с получением искривленного второго изображения (f2_w).In step 6, warping is digitally applied to the second image (f2), based on homography, to produce a warped second image (f2_w).

На этапе 7 вычисляют разницу в отдельных пикселях между искривленным вторым изображением (f2_w) и первым изображением (f1) с обнаружением отличающихся пикселей.In step 7, the difference in individual pixels between the warped second image (f2_w) and the first image (f1) is calculated and the different pixels are detected.

Таким образом, путем сравнения второго искривленного изображения (F2_w) с первым изображением (f1) получают третье изображение (diff).Thus, by comparing the second warped image (F2_w) with the first image (f1), a third image (diff) is obtained.

В частности, третье изображение (diff) получают на основании сравнения второго искривленного изображения (f2_w) с первым изображением (f1) путем вычисления разницы в отдельных пикселях между искривленным вторым изображением (f2_w) и первым изображением (f1) с обнаружением отличающихся пикселей.Specifically, the third image (diff) is obtained based on a comparison of the second warped image (f2_w) with the first image (f1) by calculating the difference in individual pixels between the warped second image (f2_w) and the first image (f1) and detecting the different pixels.

Предпочтительно на этапе 8 на изображении (diff), полученном на основании разницы между вторым искривленным изображением (f2_w) и первым изображением (f1), используют фильтр нижних частот (LP) для удаления высоких частот, присутствующих в изображении, наличие которых может быть обусловлено артефактами из-за сжатия изображения.Preferably, in step 8, a low pass filter (LP) is used on the image (diff) obtained from the difference between the second distorted image (f2_w) and the first image (f1) to remove high frequencies present in the image, which may be due to artifacts. due to image compression.

В одном предпочтительном варианте осуществления на этапе 9 осуществляют установку пороговых величин для определения пикселей, отличающихся между двумя кадрами. In one preferred embodiment, step 9 sets thresholds to determine pixels that differ between two frames.

Установка пороговых величин представляет собой процесс сегментации изображения, в котором берется полутоновое изображение и возвращается черно-белое бинарное изображение.Thresholding is an image segmentation process that takes a grayscale image and returns a black and white binary image.

Предпочтительно используют метод Оцу для автоматической установки пороговых величин гистограммы изображения (TH), в котором графически показывается распределение тонов цифрового изображения. В этом методе предполагается, что в изображении, для которого выполняется установка пороговых величин, есть только два класса, и, таким образом, выполняется вычисление оптимальной пороговой величины для разделения этих двух классов путем минимизации внутриклассовой дисперсии.Preferably, Otsu's method is used to automatically threshold an image's histogram (TH), which graphically shows the tonal distribution of a digital image. This method assumes that there are only two classes in the image being thresholded, and thus calculates the optimal threshold to separate the two classes by minimizing the intra-class variance.

На фиг. 4 представлено изображение после установки пороговых величин, в котором пиксели, которые отличаются в сцене больше всего, показаны черным, тогда как те, которые не меняются, остаются белыми. In fig. Figure 4 shows the image after thresholding, in which the pixels that differ the most in the scene are shown in black, while those that do not change remain white.

Этапы 8 и 9 могут отсутствовать, может присутствовать только один из них, или могут присутствовать оба из них. Steps 8 and 9 may be absent, only one of them may be present, or both of them may be present.

В одном предпочтительном варианте осуществления этап 9 присутствует.In one preferred embodiment, step 9 is present.

Согласно настоящему изобретению на этапе 10 (нахождение контуров) в третьем изображении (diff) или в изображении, полученном путем установки пороговых величин или путем применения фильтра, определяют все контуры (ограничивающие блоки), касающиеся групп соседних пикселей. На фиг. 5 представлено изображение с прямоугольниками (ограничивающими блоками), непечатными на определенных контурах. В частности, в третьем изображении (diff) для каждой группы смежных пикселей, характеризующейся значениями расхождения изображения, которые выше пороговой величины, определяют ограничивающий блок (bb).According to the present invention, in step 10 (finding edges), in the third image (diff) or in the image obtained by setting thresholds or applying a filter, all edges (bounding blocks) touching groups of neighboring pixels are determined. In fig. Figure 5 shows an image with rectangles (bounding blocks) that are not printed on certain contours. Specifically, in the third image (diff), for each group of contiguous pixels characterized by image disparity values that are above a threshold, a bounding block (bb) is defined.

Согласно настоящему изобретению на этапе 11 на основании первого изображения (f1) и искривленного второго изображения (f2_w) вычисляют оптический поток. According to the present invention, in step 11, optical flow is calculated based on the first image (f1) and the warped second image (f2_w).

В частности, оптический поток вычисляют путем сравнения второго искривленного изображения (F2_w) с первым изображением (f1), как показано на фиг. 1. Specifically, optical flow is calculated by comparing the second warped image (F2_w) with the first image (f1), as shown in FIG. 1.

Этап 11 можно выполнять одновременно с этапами 8–10, перед ними или после них.Step 11 can be performed simultaneously with, before, or after Steps 8–10.

В одном предпочтительном варианте осуществления оптический поток вычисляют с помощью метода Фарнбека. Этот метод описан в статье Гуннара Фарнбека «Two-Frame Motion Estimation Based on Polynomial Expansion».In one preferred embodiment, optical flow is calculated using the Farnbeck method. This method is described in the article “Two-Frame Motion Estimation Based on Polynomial Expansion” by Gunnar Farnbeck.

Из оптического потока извлекают матрицу (mag), соответствующую величине оптического потока.A matrix (mag) corresponding to the optical flow value is extracted from the optical flow.

Извлеченную матрицу можно рассматривать как изображение, в котором для отображения величины оптического потока используют разные цвета.The extracted matrix can be considered as an image in which different colors are used to represent the amount of optical flow.

Один предпочтительный вариант осуществления включает этап 12, на котором для каждого извлеченного ограничивающего блока (bb) проверяют площадь прямоугольника и отношение сторон для обеспечения того, что обнаруженный элемент не является слишком маленьким или слишком большим и что расположение пикселей не слишком увеличено. One preferred embodiment includes step 12 where, for each extracted bounding block (bb), the rectangle area and aspect ratio are checked to ensure that the detected element is not too small or too large and that the pixel arrangement is not too enlarged.

Если это условие не соблюдено, то ограничивающий блок (bb) удаляют.If this condition is not met, then the bounding block (bb) is removed.

Согласно настоящему изобретению на этапе 13 для каждого ограничивающего блока (bb), наложенного на третье изображение (diff), проверяют, превышает ли величина оптического потока (соответствующая величине движения) обнаруженной группы пикселей (которая может быть интересующим объектом) среднюю величину оптического потока окружающих пикселей (то есть двигаются ли они неодинаково относительно элементов на заднем фоне, который могут также находиться в движении). Это позволяет определить, двигается ли обнаруженная группа пикселей не так, как элементы на заднем фоне. Если величина оптического потока группы соседних пикселей — соответствующая величине возможного интересующего объекта — не больше, чем средняя величина окружающих пикселей, ограничивающий блок (bb) удаляют.According to the present invention, in step 13, for each bounding block (bb) superimposed on the third image (diff), it is checked whether the optical flux value (corresponding to the motion amount) of the detected group of pixels (which may be an object of interest) is greater than the average optical flux value of the surrounding pixels (that is, do they move differently relative to elements in the background that may also be in motion). This allows you to determine whether a detected group of pixels is moving differently than elements in the background. If the optical flow value of a group of neighboring pixels—corresponding to the magnitude of a possible object of interest—is no greater than the average value of the surrounding pixels, the bounding block (bb) is removed.

На этапе 14 к каждому ограничивающему блоку (bb) применяют детектор blob-объектов для обнаружения наличия blob-объектов внутри каждого отдельного ограничивающего блока (bb), образующего часть третьего изображения (diff); а именно точек и/или областей в изображении, у которых такие свойства, как яркость или цвет, отличаются при сравнении с окружением.In step 14, a blob detector is applied to each bounding block (bb) to detect the presence of blobs within each individual bounding block (bb) forming part of the third image (diff); namely, points and/or areas in an image that have properties such as brightness or color that differ when compared to their surroundings.

На этапе 15, если blob-объектов нет, то ограничивающий блок (bb) удаляют.At step 15, if there are no blobs, then the bounding block (bb) is removed.

Предпочтительно ограничивающий блок (bb) удаляют даже при наличии более одного blob-объекта, тогда как ограничивающий блок (bb) с только одним blob-объектом считается верным обнаружением.Preferably, a bounding box (bb) is removed even if there is more than one blob, while a bounding box (bb) with only one blob is considered a valid detection.

Один предпочтительный вариант осуществления включает этап 16, на котором вдоль координатных осей X и Y для каждого неудаленного ограничивающего блока (bb) извлекают два профиля. Это выполняют путем добавления значения пикселей вдоль двух осей изображения. Затем на этапе 17 проверяют, что два профиля хорошо выровнены, для проверки того, что blob-объект является выпуклым. Если профили не выровнены, то ограничивающий блок (bb) удаляют.One preferred embodiment includes step 16 where two profiles are extracted along the X and Y coordinate axes for each non-removed bounding block (bb). This is done by adding pixel values along two axes of the image. Step 17 then checks that the two profiles are well aligned to check that the blob is convex. If the profiles are not aligned, then the bounding block (bb) is removed.

На фиг. 6 представлены два примера извлечения профилей: в первом примере, который слева, два профиля не выровнены, и поэтому ограничивающий блок (bb) удаляют, тогда как во втором примере, который справа, проверка профилей показала положительный результат, и поэтому ограничивающий блок (bb) считается верным обнаружением.In fig. Figure 6 shows two examples of profile extraction: in the first example, which is on the left, the two profiles are not aligned and therefore the bounding box (bb) is removed, while in the second example, which is on the right, the profile check is positive and therefore the bounding box (bb) is considered a correct finding.

Ограничивающий блок (bb), который не удаляют, считается верным обнаружением.A bounding block (bb) that is not removed is considered a valid detection.

Следовательно, способ согласно настоящему изобретению делает возможным обнаружение определенных движущихся объектов, пусть даже маленьких. Therefore, the method according to the present invention makes it possible to detect certain moving objects, even small ones.

Кроме того, поскольку он может быть осуществлен путем выбора видеозаписи, полученной посредством движущейся камеры, в качестве его начальной точки, это позволяет делать записи возле движущегося объекта и, следовательно, делает возможным обнаружение элементов, которые действительно представляют интерес.In addition, since it can be carried out by selecting a video recording obtained by a moving camera as its starting point, it allows recordings to be made near a moving object and therefore makes it possible to detect elements that are truly of interest.

Claims (28)

1. Способ обнаружения движущихся объектов, включающий следующие этапы, на которых:1. A method for detecting moving objects, including the following steps: - из видеозаписи подвергаемого наблюдению пространства извлекают по меньшей мере одно первое изображение (f1) и по меньшей мере одно второе изображение (f2);- at least one first image (f1) and at least one second image (f2) are extracted from the video recording of the space being observed; - обнаруживают угловые точки на первом изображении (f1) и на втором изображении (f2);- detect corner points in the first image (f1) and in the second image (f2); - с помощью обнаруженных точек извлекают по меньшей мере один вектор признаков; в частности, извлекают один вектор признаков для каждой обнаруженной точки;- using the detected points, at least one feature vector is extracted; in particular, one feature vector is extracted for each detected point; - определяют соответствующие точки на первом изображении (f1) и на втором изображении (f2);- determine the corresponding points on the first image (f1) and on the second image (f2); - определяют гомографию для осуществления регистрации изображения между первым изображением (f1) и вторым изображением (f2);- defining a homography to perform image registration between the first image (f1) and the second image (f2); - применяют искривление второго изображения (f2) на основании гомографии с получением искривленного второго изображения (f2_w);- apply the curvature of the second image (f2) based on the homography to obtain a curved second image (f2_w); - вычисляют разницу в отдельных пикселях между искривленным вторым изображением (F2_w) и первым изображением (f1) с обнаружением отличающихся пикселей;- calculating the difference in individual pixels between the warped second image (F2_w) and the first image (f1) and detecting the different pixels; - путем сравнения второго искривленного изображения (F2_w) с первым изображением (f1) получают третье изображение (diff);- by comparing the second distorted image (F2_w) with the first image (f1), a third image (diff) is obtained; - определяют ограничивающий блок (bb) в третьем изображении (diff) для каждой группы соседних пикселей; - determine the bounding block (bb) in the third image (diff) for each group of neighboring pixels; - вычисляют оптический поток на основании первого изображения (f1) и искривленного второго изображения (f2w);- calculate the optical flow based on the first image (f1) and the curved second image (f2w); - из оптического потока извлекают матрицу (mag), соответствующую величине оптического потока;- a matrix (mag) corresponding to the value of the optical flow is extracted from the optical flow; - для каждого ограничивающего блока (bb), наложенного на третье изображение (diff), проверяют, превышает ли величина оптического потока обнаруженной группы пикселей среднюю величину окружающих пикселей;- for each bounding block (bb) superimposed on the third image (diff), it is checked whether the optical flux value of the detected group of pixels exceeds the average value of the surrounding pixels; - удаляют ограничивающий блок (bb), если величина оптического потока не превышает среднюю величину окружающих пикселей;- remove the bounding block (bb) if the optical flow value does not exceed the average value of the surrounding pixels; - используют детектор blob-объектов для каждого ограничивающего блока (bb), наложенного на третье изображение (diff);- use a blob detector for each bounding block (bb) superimposed on the third image (diff); - удаляют ограничивающий блок (bb) при отсутствии blob-объектов; и- delete the bounding block (bb) if there are no blob objects; And - присваивают обнаружение объекта неудаленным ограничивающим блокам (bb).- assign object detection to non-deleted bounding blocks (bb). 2. Способ по п. 1, отличающийся тем, что второе изображение (f2) следует за первым изображением (f1).2. The method according to claim 1, characterized in that the second image (f2) follows the first image (f1). 3. Способ по п. 1 или 2, отличающийся тем, что на этапе определения соответствующих точек на первом изображении (f1) и на втором изображении (f2) каждую обнаруженную точку на первом изображении (f1) посредством сегмента связывают с соответствующей точкой на втором изображении (f2).3. The method according to claim 1 or 2, characterized in that at the stage of determining the corresponding points in the first image (f1) and in the second image (f2), each detected point in the first image (f1) is associated by means of a segment with the corresponding point in the second image (f2). 4. Способ по пп. 1, 2 или 3, отличающийся тем, что перед определением ограничивающего блока (bb) применяют фильтр нижних частот для удаления высоких частот, присутствующих в третьем изображении (diff).4. Method according to paragraphs. 1, 2 or 3, characterized in that before determining the bounding block (bb), a low-pass filter is applied to remove high frequencies present in the third image (diff). 5. Способ по любому из предыдущих пунктов, отличающийся тем, что перед определением ограничивающего блока (bb) к третьему изображению (diff) применяют установку пороговых величин для выделения пикселей, отличающихся между вторым искривленным изображением (f2_w) и первым изображением (f1).5. The method according to any one of the previous claims, characterized in that before determining the bounding block (bb), thresholding is applied to the third image (diff) to select pixels that differ between the second warped image (f2_w) and the first image (f1). 6. Способ по п. 5, отличающийся тем, что используют метод Оцу для автоматической установки пороговых величин гистограммы изображения.6. The method according to claim 5, characterized in that the Otsu method is used to automatically set the threshold values of the image histogram. 7. Способ по любому из предыдущих пунктов, отличающийся тем, что оптический поток вычисляют с помощью метода Фарнбека.7. The method according to any of the previous paragraphs, characterized in that the optical flow is calculated using the Farnbeck method. 8. Способ по любому из предыдущих пунктов, отличающийся тем, что для каждого ограничивающего блока (bb) вычисляют площадь прямоугольника и отношение сторон.8. The method according to any of the previous paragraphs, characterized in that for each bounding block (bb) the area of the rectangle and the aspect ratio are calculated. 9. Способ по любому из предыдущих пунктов, отличающийся тем, что ограничивающий блок (bb) удаляют при наличии в нем более одного blob-объекта.9. The method according to any of the previous paragraphs, characterized in that the bounding block (bb) is removed if it contains more than one blob object. 10. Способ по любому из предыдущих пунктов, отличающийся тем, что вдоль координатных осей (X, Y) для каждого неудаленного ограничивающего блока (bb) после использования детектора blob-объектов извлекают два профиля, проверяют выравнивание между двумя профилями и удаляют любой ограничивающий блок (bb) с невыровненными профилями.10. The method as claimed in any one of the preceding claims, wherein along the coordinate axes (X, Y), for each unremoved bounding box (bb), after using a blob detector, two profiles are retrieved, the alignment between the two profiles is checked, and any bounding box is removed ( bb) with unaligned profiles. 11. Способ по любому из предыдущих пунктов, отличающийся тем, что видеозапись получают посредством движущегося устройства.11. The method according to any of the previous paragraphs, characterized in that the video recording is obtained through a moving device. 12. Машиночитаемый носитель, содержащий команды для выполнения этапов способа по любому из предыдущих пунктов.12. A computer-readable medium containing instructions for performing the steps of the method according to any of the previous paragraphs.
RU2021134902A 2019-06-03 2020-06-01 Method for detecting moving objects RU2809945C2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT102019000007815 2019-06-03

Publications (2)

Publication Number Publication Date
RU2021134902A RU2021134902A (en) 2023-05-29
RU2809945C2 true RU2809945C2 (en) 2023-12-19

Family

ID=

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6678413B1 (en) * 2000-11-24 2004-01-13 Yiqing Liang System and method for object identification and behavior characterization using video analysis
US20110052003A1 (en) * 2009-09-01 2011-03-03 Wesley Kenneth Cobb Foreground object detection in a video surveillance system
US8285045B2 (en) * 2006-10-18 2012-10-09 Samsung Electronics Co., Ltd. Image analysis method, medium and apparatus and moving image segmentation system
US20180374233A1 (en) * 2017-06-27 2018-12-27 Qualcomm Incorporated Using object re-identification in video surveillance
US20190057588A1 (en) * 2017-08-17 2019-02-21 Bossa Nova Robotics Ip, Inc. Robust Motion Filtering for Real-time Video Surveillance

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6678413B1 (en) * 2000-11-24 2004-01-13 Yiqing Liang System and method for object identification and behavior characterization using video analysis
US8285045B2 (en) * 2006-10-18 2012-10-09 Samsung Electronics Co., Ltd. Image analysis method, medium and apparatus and moving image segmentation system
US20110052003A1 (en) * 2009-09-01 2011-03-03 Wesley Kenneth Cobb Foreground object detection in a video surveillance system
US20180374233A1 (en) * 2017-06-27 2018-12-27 Qualcomm Incorporated Using object re-identification in video surveillance
US20190057588A1 (en) * 2017-08-17 2019-02-21 Bossa Nova Robotics Ip, Inc. Robust Motion Filtering for Real-time Video Surveillance

Similar Documents

Publication Publication Date Title
WO2019218824A1 (en) Method for acquiring motion track and device thereof, storage medium, and terminal
US9008366B1 (en) Bio-inspired method of ground object cueing in airborne motion imagery
CN111797653B (en) Image labeling method and device based on high-dimensional image
US11443454B2 (en) Method for estimating the pose of a camera in the frame of reference of a three-dimensional scene, device, augmented reality system and computer program therefor
US9773322B2 (en) Image processing apparatus and image processing method which learn dictionary
US20180268556A1 (en) Method for detecting moving objects in a video having non-stationary background
WO2013088175A1 (en) Image processing method
Rao et al. Estimation of crowd density by clustering motion cues
KR101021994B1 (en) Method of detecting objects
CN111383244A (en) Target detection tracking method
Raj et al. Vacant parking lot detection system using random forest classification
US20110085026A1 (en) Detection method and detection system of moving object
US20220327716A1 (en) Method of detecting moving objects
Lecca et al. Comprehensive evaluation of image enhancement for unsupervised image description and matching
Miller et al. Person tracking in UAV video
US20200394802A1 (en) Real-time object detection method for multiple camera images using frame segmentation and intelligent detection pool
EP3044734B1 (en) Isotropic feature matching
Amri et al. A robust framework for joint background/foreground segmentation of complex video scenes filmed with freely moving camera
CN113096016A (en) Low-altitude aerial image splicing method and system
Tsesmelis et al. Tamper detection for active surveillance systems
RU2809945C2 (en) Method for detecting moving objects
Colombari et al. Background initialization in cluttered sequences
Lee et al. An intelligent video security system using object tracking and shape recognition
Kaimkhani et al. UAV with Vision to Recognise Vehicle Number Plates
CN107248167B (en) Moving object shadow detection method and device and computer readable storage medium