RU2534827C2 - Method for video surveillance of open space with fire hazard monitoring - Google Patents

Method for video surveillance of open space with fire hazard monitoring Download PDF

Info

Publication number
RU2534827C2
RU2534827C2 RU2013116631/08A RU2013116631A RU2534827C2 RU 2534827 C2 RU2534827 C2 RU 2534827C2 RU 2013116631/08 A RU2013116631/08 A RU 2013116631/08A RU 2013116631 A RU2013116631 A RU 2013116631A RU 2534827 C2 RU2534827 C2 RU 2534827C2
Authority
RU
Russia
Prior art keywords
blocks
images
image
fire
moving
Prior art date
Application number
RU2013116631/08A
Other languages
Russian (ru)
Other versions
RU2013116631A (en
Inventor
Сергей Вячеславович Бобков
Павел Владимирович Воднев
Андрей Александрович Лукьяница
Сергей Сергеевич Робатень
Михаил Леонидович Сбитной
Алексей Геннадьевич Шишкин
Original Assignee
Закрытое акционерное общество "НТК"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Закрытое акционерное общество "НТК" filed Critical Закрытое акционерное общество "НТК"
Priority to RU2013116631/08A priority Critical patent/RU2534827C2/en
Publication of RU2013116631A publication Critical patent/RU2013116631A/en
Application granted granted Critical
Publication of RU2534827C2 publication Critical patent/RU2534827C2/en

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Fire-Detection Mechanisms (AREA)

Abstract

FIELD: physics, video.
SUBSTANCE: invention relates to video surveillance, primarily of open spaces, with fire hazard monitoring and can be used to monitor forest areas in regions with underdeveloped infrastructure. The method comprises video monitoring of a protected area; selecting mobile regions on the obtained image; comparing said regions with reference images from a library of images and making a decision on burning based on the similarity of the obtained images and the available images; wherein mobile objects are selected on the image by breaking down the whole image into rectangular blocks; the shifting of blocks over time is diagnosed from the shift of the centre of a block; separate mobile blocks are merged by spatial clusterisation; time clusterisation of mobile objects is carried out based on a criterion of the intersection of trajectories of separate blocks with each other, wherein the shape of a mobile object is reconstructed by cutting off short edges, joining adjacent boundary points and smoothing the obtained boundaries, wherein the internal region of the object is reconstructed on the obtained boundary, and clusterisation of the selected mobile object is carried out on the normal component of optical flux.
EFFECT: high probability of recognising signs of fire on an open area owing to early detection of fire from smoke traces and air currents.
3 cl, 1 dwg

Description

Изобретение относится к области видеонаблюдения, преимущественно открытых пространств, с контролем пожарной опасности и может быть использовано для слежения за лесными массивами в регионах со слабо развитой инфраструктурой.The invention relates to the field of video surveillance, mainly in open spaces, with fire hazard control and can be used to track forests in regions with poorly developed infrastructure.

Известен способ обнаружения события для системы видеонаблюдения, содержащий обучающую фазу, в которой получают обучающие изображения контролируемой зоны в разные моменты времени в отсутствие любых подлежащих обнаружению событий, и рабочую фазу обнаружения, в которой получают текущие изображения упомянутой зоны, при этом обнаруживают событие путем сравнения текущего изображения с изображением, соответствующим линейной комбинации множества эталонных изображений, аппроксимирующих соответствующие обучающие изображения или совпадающие с ними, по заявке №2009106852/08, опубл. 10.09.2010 г.A known method of detecting an event for a video surveillance system, comprising a training phase in which training images of the controlled area are obtained at different times in the absence of any events to be detected, and a working phase of detection in which current images of the mentioned zone are obtained, while the event is detected by comparing images with an image corresponding to a linear combination of a plurality of reference images approximating the corresponding training images or matching with them, according to the application No. 2009106852/08, publ. 09/10/2010

Известный способ эффективен для ситуаций, в которых заведомо обеспечивается отсутствие подлежащих наблюдению событий, что при контроле больших открытых пространств трудно гарантировать.The known method is effective for situations in which the absence of events to be observed is deliberately ensured, which is difficult to guarantee when controlling large open spaces.

Известен способ видеонаблюдения, позволяющий контролировать помещения и территорию, осуществлять видеозапись тревожных событий и непрерывную запись видеоинформации, согласно патенту РФ №2381533, опубл. 10.02.2010 г.A known method of video surveillance, which allows you to control the premises and territory, to carry out video recording of disturbing events and continuous recording of video information, according to the patent of the Russian Federation No. 2381533, publ. 02/10/2010

Способ имеет недостаточно высокую информативность при работе в режиме реального времени.The method has not enough high information content when working in real time.

Известен способ видеонаблюдения, включающий этапы получения видеосигнала контролируемой зоны по меньшей мере одной видеокамерой, его передачи и его анализа по меньшей мере в одном вычислительном устройстве с памятью, в котором согласно изобретению полученный видеокамерой сигнал анализируют при помощи вычислительного устройства с использованием информации с описаниями тревожных ситуаций, заранее записанной в виде базы данных в памяти вычислительного устройства, по результатам анализа получают данные о цели, формируют управляющий сигнал, передают его на подвижную видеокамеру, приспособленную для наведения на цель в соответствии с управляющим сигналом, с помощью подвижной видеокамеры получают изображение цели, пригодное для дальнейшего анализа, и передают его для хранения в базу данных.A known method of video surveillance, including the steps of receiving a video signal of a controlled area of at least one video camera, transmitting it and analyzing it in at least one computing device with memory, in which according to the invention the signal received by the video camera is analyzed using a computing device using information with descriptions of alarm situations , pre-recorded in the form of a database in the memory of the computing device, according to the results of the analysis, data on the target is obtained, the control drove it, transmit it to a mobile video camera, adapted for aiming at a target in accordance with a control signal, using a mobile video camera obtain a target image suitable for further analysis, and transfer it to a database for storage.

Предпочтительно в способе согласно изобретению по результатам анализа дополнительно формируют сигнал тревоги и передают его оператору. Анализ осуществляют с возможностью вычислять вектор скорости, текущую координату нахождения цели, и дополнительно формируют и передают на подвижную видеокамеру соответствующий управляющий сигнал для обеспечения наведения подвижной видеокамеры на цель. Управляющий сигнал передают на подвижную видеокамеру по последовательному каналу связи. Анализ сигнала от видеокамеры осуществляю с учетом параметров цели, выбранных из группы, включающей яркость, размер, длительность нахождения в контролируемой зоне, скорость и направление перемещения. (Патент РФ №2268497, опубл. 20.01.2006 г., принятый за прототип изобретения).Preferably, in the method according to the invention, according to the results of the analysis, an alarm is additionally generated and transmitted to the operator. The analysis is carried out with the ability to calculate the velocity vector, the current coordinate of finding the target, and additionally generate and transmit to the mobile video camera the corresponding control signal to ensure that the moving video camera is aimed at the target. The control signal is transmitted to the mobile video camera via a serial communication channel. I analyze the signal from the video camera taking into account the target parameters selected from the group including brightness, size, duration of stay in the controlled area, speed and direction of movement. (RF patent No. 2268497, published on January 20, 2006, adopted as a prototype of the invention).

Известен способ видеонаблюдения и контроля пожарной опасности, согласно которому производят видеомониторинг охраняемой площади, выделяют на получаемом изображении подвижные области, сравнивают эти области с образцовыми изображениями из библиотеки образов и принимают решение о возгорании на основании сходства полученного и имеющегося изображений.There is a method of video surveillance and fire hazard control, according to which the protected area is video-monitored, moving areas are selected on the resulting image, these areas are compared with model images from the image library and a decision is made on fire based on the similarity of the received and available images.

Техническая задача, которую решает заявляемое изобретение, состоит в повышении вероятности распознавания признаков пожара на открытой местности за счет ранней диагностики пожара по дымовым следам и потокам воздуха.The technical problem that the claimed invention solves is to increase the likelihood of recognizing signs of a fire in an open area due to the early diagnosis of a fire by smoke traces and air flows.

Задача решена тем, что в способе видеонаблюдения открытого пространства с контролем пожарной опасности, согласно которому производят видеомониторинг охраняемой площади, выделяют на получаемом изображении подвижные области, сравнивают эти области с образцовыми изображениями из библиотеки образов и принимают решение о возгорании на основании сходства полученного и имеющегося изображений,The problem is solved in that in the method of video surveillance of open space with fire hazard control, according to which the protected area is video-monitored, moving areas are selected on the received image, these areas are compared with model images from the image library and a decision is made on fire based on the similarity of the received and available images ,

Согласно изобретению выделение на изображении движущихся объектов производится путем разбиения всего изображения на квадратные блоки, смещение блоков со временем диагностируют по смещению центра блока, отдельные движущиеся блоки объединяют путем пространственной кластеризации, временную кластеризацию движущихся блоков производят по критерию пересечения траекторий отдельных блоков между собой, причем форму движущегося объекта восстанавливают путем отсечения коротких краев, соединения лежащих рядом краевых точек и сглаживания полученных границ, при этом внутреннюю область объекта восстанавливают по полученной границе, а классификацию выделенного подвижного объекта производят по нормальной составляющей оптического потока. Кроме того, библиотеку образов формируют с выделением категорий «транспортные средства», «люди», «животные», «колышущиеся ветви деревьев», «задымление», «тепловой след», «открытый огонь».According to the invention, the allocation in the image of moving objects is done by dividing the entire image into square blocks, the displacement of the blocks with time is diagnosed by the displacement of the center of the block, individual moving blocks are combined by spatial clustering, temporary clustering of moving blocks is carried out according to the criterion for the intersection of the trajectories of the individual blocks with each other, and the shape a moving object is restored by cutting off short edges, connecting adjacent edge points and smoothing along scientists boundaries, the inner region of the object is reduced by the resulting boundary, and classification of the selected moving object produced by the normal component of the optical flow. In addition, a library of images is formed with the categories “vehicles”, “people”, “animals”, “swaying branches of trees”, “smoke”, “thermal footprint”, “open fire”.

Figure 00000001
Кроме того, в каждой из категорий библиотеки образов формируют подкатегории «траектория», «скорость», «направление движения» и привязывают полученные образы к характеристическим особенностям охраняемой площади.
Figure 00000001
In addition, in each of the categories of image libraries, subcategories “trajectory”, “speed”, “direction of movement” are formed and the resulting images are tied to the characteristic features of the protected area.

Изобретение поясняется фиг.1, на которой представлена блок-схема реализации предложенного способа.The invention is illustrated in figure 1, which presents a block diagram of the implementation of the proposed method.

Пример реализации способа.An example implementation of the method.

1. Выделение на изображении движущихся блоков1. The selection in the image of moving blocks

Все изображение (позиция 1 на фиг.1) разбивается на блоки Bi размером n×n пикселей. Значение n зависит от размера объектов и разрешения изображения и выбирается из диапазона от 1 до 100. Предположим, что центр блока Bi находится в точке (x,y) в момент времени t и в точке (x+Δx, y+Δy) в момент времени t+1. Тогда величины соответствия блоков и их смещения для двух последовательных моментов времени выражаются следующим образом:The whole image (position 1 in figure 1) is divided into blocks B i of size n × n pixels. The value of n depends on the size of the objects and the resolution of the image and is selected from a range from 1 to 100. Suppose that the center of the block B i is at the point (x, y) at time t and at the point (x + Δx, y + Δy) in time t + 1. Then the values of the correspondence of the blocks and their displacements for two consecutive moments of time are expressed as follows:

D ( B i ) = 1 n 2 ( i , j ) B i | I t + 1 ( x , y ) I t ( x + Δ x + i , y + Δ y + j ) | 2 , ( 1 )

Figure 00000002
D ( B i ) = one n 2 ( i , j ) B i | | | I t + one ( x , y ) - I t ( x + Δ x + i , y + Δ y + j ) | | | 2 , ( one )
Figure 00000002

Δ ( B i ) = ( Δ x ) 2 + ( Δ y ) 2 . ( 2 )

Figure 00000003
Δ ( B i ) = ( Δ x ) 2 + ( Δ y ) 2 . ( 2 )
Figure 00000003

Для устранения ошибок второго рода (ложные движущиеся блоки), возникающих вследствие шума, необходимо, чтобы величина D превышала пороговое значение δα, которое может быть определено с помощью теста значимости. Для пикселя (x,y), где не происходит никакого движения, величина d(x,y)=It(x,y)-It+1(x,y) представляет собой шум камеры. Он, как известно, может быть описан гауссовским распределением с нулевым средним и дисперсией, равной удвоенной дисперсии шума камеры. Уровень значимости можно рассматривать как вероятность обнаружения блока в качестве движущегося блока, хотя в действительности он является неподвижным (ошибка второго рода). Если выбрать размер блоков n=16 и положить δα=1, то это будет соответствовать вероятности, равной 0.9 (позиция 2 на фиг.1).To eliminate errors of the second kind (false moving blocks) arising due to noise, it is necessary that the value of D exceed the threshold value δ α , which can be determined using the significance test. For a pixel (x, y), where no movement occurs, the quantity d (x, y) = I t (x, y) -I t + 1 (x, y) is the camera noise. It is known that it can be described by a Gaussian distribution with a zero mean and a dispersion equal to twice the dispersion of the camera noise. The significance level can be considered as the probability of detecting a block as a moving block, although in reality it is motionless (an error of the second kind). If you select the block size n = 16 and put δ α = 1, then this will correspond to a probability equal to 0.9 (position 2 in figure 1).

2. Пространственная кластеризация движущихся блоков2. Spatial clustering of moving blocks

На этом этапе с помощью методов кластеризации объединяются отдельные схожие движущиеся блоки, для которых величина D превышает пороговое значение δα, в движущиеся области. Будем считать два блока соседними, если у них есть общая сторона (или ее часть) или вершина, т.е. они связаны отношением 8-смежности. В качестве характерных признаков блоков можно использовать связность C(Bi,Bj), нормированную разность соответствия блоков D(Bi,Bj) и нормированное смещение блоков Δ(Bi,Bj):At this stage, using clustering methods, separate similar moving blocks, for which the value of D exceeds the threshold value δ α , are combined into moving regions. We will consider two blocks adjacent if they have a common side (or part of it) or a vertex, i.e. they are connected by an 8-adjacency relation. As characteristic features of the blocks, you can use the connectivity C (B i , B j ), the normalized difference in the correspondence of the blocks D (B i , B j ) and the normalized offset of the blocks Δ (B i , B j ):

C ( B i , B j ) = { 1, B i , B j с о с е д н и е , и н а ч е , ( 3 )

Figure 00000004
C ( B i , B j ) = { one, B i , B j - from about from e d n and e , and n but h e , ( 3 )
Figure 00000004

D ( B i , B j ) = | D ( B i ) D ( B j ) | | D ( B i ) + D ( B j ) | , ( 4 )

Figure 00000005
D ( B i , B j ) = | | | D ( B i ) - D ( B j ) | | | | | | D ( B i ) + D ( B j ) | | | , ( four )
Figure 00000005

Δ ( B i , B j ) = | Δ ( B i ) Δ ( B j ) | | Δ ( B i ) + Δ ( B j ) | . ( 5 )

Figure 00000006
Δ ( B i , B j ) = | | | Δ ( B i ) - Δ ( B j ) | | | | | | Δ ( B i ) + Δ ( B j ) | | | . ( 5 )
Figure 00000006

Расстояние между движущимися блоками будем определять какThe distance between the moving blocks will be determined as

D c ( B i , B j ) = C ( B i , B j ) θ D ( B i , B j ) + ( 1 θ ) Δ ( B i , B j )

Figure 00000007
D c ( B i , B j ) = C ( B i , B j ) θ D ( B i , B j ) + ( one - θ ) Δ ( B i , B j )
Figure 00000007

где параметр θ равен 0.3. Блоки Bi и Bj объединяются в одну область, если это значение меньше порога δc, равного 0.5 (позиция 3 на фиг.1).where the parameter θ is 0.3. Blocks B i and B j are combined in one area if this value is less than the threshold δ c equal to 0.5 (position 3 in FIG. 1).

3. Временная кластеризация движущихся блоков3. Temporary clustering of moving blocks

Проблемой при сегментации газообразных объектов типа дыма является возможная их разрывность - в различные моменты времени изначально единый объект может состоять из нескольких отдельных областей. Для того чтобы идентифицировать их как один и тот же движущийся объект, будем сопровождать движущиеся области от кадра к кадру. Тогда, хотя области, составляющие один объект, могут не касаться друг друга в каком-либо кадре, траектории таких объектов будут пересекаться (позиция 4 на фиг.1). Таким образом, отдельные объекты могут быть объединены во временной области.The problem with the segmentation of gaseous objects such as smoke is their discontinuity - at different points in time, initially a single object can consist of several separate areas. In order to identify them as one and the same moving object, we will accompany the moving areas from frame to frame. Then, although the areas that make up one object may not touch each other in any frame, the trajectories of such objects will intersect (position 4 in figure 1). Thus, individual objects can be combined in the time domain.

4. Определение формы объектов4. Determining the shape of objects

Полученные на предыдущем этапе кластеры состоят из нескольких блоков. Для установления точной формы объектов используется процедура выделения краевых точек, например, по методу Канни. Полученные краевые точки для газообразных объектов (дыма) обычно бывают не связаны друг с другом. Для построения замкнутой границы из таких краев необходимо применить операции морфологии: удалить очень короткие края, так как они в основном представляют собой влияние шума, затем воспользоваться операцией дилатации, чтобы соединить лежащие рядом краевые точки, после чего сгладить полученные границы для придания им более естественного вида.The clusters obtained in the previous step consist of several blocks. To establish the exact shape of objects, the procedure for selecting edge points is used, for example, according to the Canny method. The resulting boundary points for gaseous objects (smoke) are usually not connected with each other. To construct a closed border from such edges, it is necessary to apply morphological operations: remove very short edges, since they mainly represent the influence of noise, then use the dilatation operation to connect the adjacent edge points, and then smooth the resulting borders to give them a more natural look .

Пусть X - это бинарное изображение обнаруженных краевых точек. Значение пикселя, равное 1, означает, что этот пиксель является краевой точкой. Комбинация морфологических операций для построения границы объекта из разрозненных краевых точек выглядит следующим образом:Let X be a binary image of the detected edge points. A pixel value of 1 means that this pixel is an edge point. The combination of morphological operations for constructing the boundary of an object from disparate boundary points is as follows:

( ( X V c ) V d ) V b , ( 6 )

Figure 00000008
( ( X V c ) V d ) V b , ( 6 )
Figure 00000008

где ⊕ - операция дилатации,where ⊕ is the dilatation operation,

( X V c ) = { x : | ( X \ V c ) V c | > 3 } ,

Figure 00000009
( X V c ) = { x : | | | ( X \ V c ) V c | | | > 3 } ,
Figure 00000009

X V b = { x : | X V b | 3 }

Figure 00000010
, X V b = { x : | | | X V b | | | 3 }
Figure 00000010
,

V c = ( 0 0 0 0 1 0 0 0 0 )

Figure 00000011
, V d = ( 0 1 0 1 1 1 0 1 0 )
Figure 00000012
, V b = ( 1 0 1 0 1 0 1 0 1 )
Figure 00000013
. V c = ( 0 0 0 0 one 0 0 0 0 )
Figure 00000011
, V d = ( 0 one 0 one one one 0 one 0 )
Figure 00000012
, V b = ( one 0 one 0 one 0 one 0 one )
Figure 00000013
.

Следующий шаг заключается в восстановлении внутренней области объекта по полученной границе. Если области слабой интенсивности являются очень длинными, то даже с помощью морфологических операций невозможно восстановить границу. Это означает, что обнаруженная граница будет незамкнутой и может не полностью включать в себя внутреннюю область объекта. Поэтому необходимо различать области, не охватываемые полученной границей, и самостоятельные отдельные области. Для этого следует отыскать пересечения с границей в горизонтальном и вертикальном направлениях. Только если горизонтальная и вертикальная линии, проходящие через данный пиксель, пересекают одну и ту же границу, будем считать такой пиксель принадлежащим внутренней области объекта (позиция 5 на фиг.1).The next step is to restore the internal area of the object from the resulting border. If areas of low intensity are very long, then even with the help of morphological operations it is impossible to restore the border. This means that the detected boundary will be open and may not fully include the internal region of the object. Therefore, it is necessary to distinguish between areas not covered by the resulting border, and independent individual areas. To do this, find the intersection with the border in horizontal and vertical directions. Only if the horizontal and vertical lines passing through a given pixel intersect the same border, we will consider such a pixel to belong to the internal region of the object (position 5 in figure 1).

5. Классификация выделенных объектов5. Classification of selected objects

Классификация выделенных объектов для определения дыма и огня проводится с помощью динамических текстур. Одним из основных методов классификации с помощью динамических текстур является использование оптического потока, вычисление которого представляет собой довольно ресурсоемкую проблему. Мы будем определять не полный оптический поток, а только его нормальную составляющую. Этого вполне достаточно для целей распознавания типа объекта и в то же самое время позволит избежать большого объема вычислений. Нормальный поток, т.е. поток в направлении градиента интенсивности ∇I(x,y), записывается следующим образом:Classification of selected objects for the determination of smoke and fire is carried out using dynamic textures. One of the main classification methods using dynamic textures is the use of an optical stream, the calculation of which is a rather resource-intensive problem. We will not determine the total optical flux, but only its normal component. This is quite sufficient for the purpose of recognizing the type of an object, and at the same time it will allow avoiding a large amount of computation. Normal flow i.e. the flow in the direction of the intensity gradient ∇I (x, y) is written as follows:

υ N ( x , y ) = d I / d t | | I | | n , ( 7 )

Figure 00000014
υ N ( x , y ) = - d I / d t | | | | | | I | | | | | | n , ( 7 )
Figure 00000014

где n

Figure 00000015
- единичный вектор в направлении ∇I(x,y). Нормальный поток содержит в себе как временную, так и пространственную информацию о динамических текстурах: временная информация связана с движением краевых точек, а пространственная - с их градиентами.Where n
Figure 00000015
is the unit vector in the direction ∇I (x, y). A normal flow contains both temporal and spatial information about dynamic textures: temporal information is associated with the movement of boundary points, and spatial information is associated with their gradients.

В качестве характерных признаков для классификации объектов помимо нормального потока будем использовать также максимальное значение направленной регулярности текстур R(i), что позволит добиться аффинной инвариантности полученных результатов. Данный подход основывается на том факте, что регулярные (периодические) текстуры воспринимаются таковыми в широком диапазоне углов зрения. Поэтому определенная адекватным образом степень регулярности рассматриваемых объектов может служить в качестве инвариантного, физически обоснованного характерного признака. Будем использовать полярные координаты на сетке αi=Δα·i, dj=Δd·j.In addition to the normal flow, we will also use the maximum value of the directional regularity of textures R (i) as characteristic features for classifying objects, which will allow us to achieve affine invariance of the results. This approach is based on the fact that regular (periodic) textures are perceived as such in a wide range of viewing angles. Therefore, an adequately defined degree of regularity of the objects under consideration can serve as an invariant, physically substantiated characteristic feature. We will use the polar coordinates on the grid α i = Δα · i, d j = Δd · j.

Определим максимальное значение направленной регулярности R(i) как M R = max α i R ( α i )

Figure 00000016
. Величина MR лежит в пределах 0≤MR≤1, где MR=0 соответствует текстурам случайного вида, a MR=1 отвечает текстурам с хорошо выраженной регулярностью; она вычисляется для набора перекрывающихся окон, полностью содержащих область объекта, полученную на предыдущем этапе, и выбирается максимальное значение P = max W M R ( W )
Figure 00000017
. Здесь через W обозначены окна, размер которых определяется таким образом, чтобы включать в себя как минимум два периода функции контрастности. Так как описанная процедура повторяется для нескольких последовательных кадров, то таким образом мы получаем временную зависимость P(t).We define the maximum value of directional regularity R (i) as M R = max α i R ( α i )
Figure 00000016
. The value of M R lies in the range 0≤M R ≤1, where M R = 0 corresponds to random textures, and M R = 1 corresponds to textures with well-defined regularity; it is calculated for a set of overlapping windows that completely contain the area of the object obtained in the previous step, and the maximum value is selected P = max W M R ( W )
Figure 00000017
. Here, through W, windows are indicated whose size is determined in such a way as to include at least two periods of the contrast function. Since the described procedure is repeated for several consecutive frames, in this way we obtain the temporal dependence P (t).

В качестве характерных признаков текстур будем использовать следующие усредненные по всем кадрам видеопоследовательности величины:As the characteristic features of textures, we will use the following values averaged over all frames of the video sequence:

- Средние значения d i v υ N ( x , y )

Figure 00000018
и r o t υ N ( x , y )
Figure 00000019
.- Average values d i v υ N ( x , y )
Figure 00000018
and r o t υ N ( x , y )
Figure 00000019
.

- Отношение среднего значения нормального потока и его стандартного отклонения.- The ratio of the average of the normal flow and its standard deviation.

- Степень однородности ориентации нормального потока ϕ = | | ( x , y ) Ω υ N ( x , y ) | | ( x , y ) Ω | | υ N ( x , y ) | |

Figure 00000020
,- The degree of uniformity of the orientation of the normal flow ϕ = | | | | | | ( x , y ) Ω υ N ( x , y ) | | | | | | ( x , y ) Ω | | | | | | υ N ( x , y ) | | | | | |
Figure 00000020
,

где Ω - множество пикселей, для которых значение нормального потока отлично от нуля.where Ω is the set of pixels for which the normal flux value is nonzero.

- Среднее значение P(t).- The average value of P (t).

- Дисперсия P(t).- Dispersion P (t).

Все указанные величины являются инвариантными к перемещению и вращению. Принадлежность рассматриваемого объекта к классу объектов, соответствующих дыму на изображении, может быть определена с помощью какого-либо метода классификации, например метода опорных векторов или нейросетей (позиция 6 на фиг.1).All indicated quantities are invariant to displacement and rotation. The belonging of the object in question to the class of objects corresponding to smoke in the image can be determined using some classification method, for example, the method of reference vectors or neural networks (position 6 in figure 1).

Claims (3)

1. Способ видеонаблюдения открытого пространства с контролем пожарной опасности, согласно которому производят видеомониторинг охраняемой площади, выделяют на получаемом изображении подвижные области, сравнивают эти области с образцовыми изображениями из библиотеки образов и принимают решение о возгорании на основании сходства полученного и имеющегося изображений, отличающийся тем, что выделение на изображении движущихся объектов производится путем разбиения всего изображения на прямоугольные блоки, смещение блоков со временем диагностируют по смещению центра блока, отдельные движущиеся блоки объединяют путем пространственной кластеризации, временную кластеризацию движущихся блоков производят по критерию пересечения траекторий отдельных блоков между собой, причем форму движущегося объекта восстанавливают путем отсечения коротких краев, соединения лежащих рядом краевых точек и сглаживания полученных границ, при этом внутреннюю область объекта восстанавливают по полученной границе, а классификацию выделенного подвижного объекта производят по нормальной составляющей оптического потока.1. The method of video surveillance of open space with fire hazard control, according to which the protected area is video-monitored, moving areas are selected on the received image, these areas are compared with model images from the image library and a decision is made on fire based on the similarity of the received and available images, characterized in that the selection in the image of moving objects is done by dividing the entire image into rectangular blocks, the displacement of the blocks with time they are predicted by the displacement of the center of the block, individual moving blocks are combined by spatial clustering, temporary clustering of moving blocks is carried out according to the criterion for the intersection of the trajectories of the individual blocks with each other, and the shape of the moving object is restored by cutting off short edges, connecting adjacent edge points and smoothing the obtained boundaries, while the inner region of the object is restored according to the obtained boundary, and the classification of the selected moving object is carried out according to normal delivering optical flow. 2. Способ по п.1, отличающийся тем, что библиотеку образов формируют с выделением категорий «транспортные средства», «люди», «животные», «колышущиеся ветви деревьев», «задымление», «тепловой след», «открытый огонь».2. The method according to claim 1, characterized in that the library of images is formed with the allocation of the categories of "vehicles", "people", "animals", "swaying tree branches", "smoke", "thermal footprint", "open fire" . 3. Способ по пп.1 и 2, отличающийся тем, что в каждой из категорий библиотеки образов формируют подкатегории «траектория», «скорость», «направление движения» и привязывают полученные образы к характеристическим особенностям охраняемой площади. 3. The method according to claims 1 and 2, characterized in that in each of the categories of image libraries form subcategories "trajectory", "speed", "direction of movement" and tie the resulting images to the characteristic features of the protected area.
RU2013116631/08A 2013-04-12 2013-04-12 Method for video surveillance of open space with fire hazard monitoring RU2534827C2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2013116631/08A RU2534827C2 (en) 2013-04-12 2013-04-12 Method for video surveillance of open space with fire hazard monitoring

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2013116631/08A RU2534827C2 (en) 2013-04-12 2013-04-12 Method for video surveillance of open space with fire hazard monitoring

Publications (2)

Publication Number Publication Date
RU2013116631A RU2013116631A (en) 2013-08-20
RU2534827C2 true RU2534827C2 (en) 2014-12-10

Family

ID=49162608

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2013116631/08A RU2534827C2 (en) 2013-04-12 2013-04-12 Method for video surveillance of open space with fire hazard monitoring

Country Status (1)

Country Link
RU (1) RU2534827C2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2595532C1 (en) * 2015-03-11 2016-08-27 Федеральное государственное унитарное предприятие федеральный научно-производственный центр "Производственное объединение "Старт" им. М.В. Проценко" (ФГУП ФНПЦ ПО "Старт" им. М.В. Проценко") Radar system for protection of areas with small-frame video surveillance system and optimum number of security guards
RU2601164C2 (en) * 2015-02-18 2016-10-27 Федеральное государственное унитарное предприятие федеральный научно-производственный центр "Производственное объединение "Старт" им. М.В. Проценко" (ФГУП ФНПЦ ПО "Старт" им. М.В. Проценко") Cluster system for monitoring perimeters and superficies of objects
RU2650347C1 (en) * 2017-03-20 2018-04-11 Дмитрий Анатольевич Горяченков Method of the natural fires recognition in sub-horizon areas

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105261131B (en) 2015-10-12 2018-07-31 小米科技有限责任公司 A kind of method and apparatus sending alert notification messages

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5717463A (en) * 1995-07-24 1998-02-10 Motorola, Inc. Method and system for estimating motion within a video sequence
US6075875A (en) * 1996-09-30 2000-06-13 Microsoft Corporation Segmentation of image features using hierarchical analysis of multi-valued image data and weighted averaging of segmentation results
RU2002114606A (en) * 2002-06-04 2004-05-27 Евгений Викторович Прокофьев TELEVISION METHOD AND SEARCH AND CAMERA SYSTEM
RU2276407C2 (en) * 2001-10-22 2006-05-10 Интел Зао Method and device for background segmentation on basis of movement localization
RU2315352C2 (en) * 2005-11-02 2008-01-20 Самсунг Электроникс Ко., Лтд. Method and system for automatically finding three-dimensional images
RU2459267C2 (en) * 2010-08-16 2012-08-20 Алексей Борисович Ануров Method of universal video surveillance

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5717463A (en) * 1995-07-24 1998-02-10 Motorola, Inc. Method and system for estimating motion within a video sequence
US6075875A (en) * 1996-09-30 2000-06-13 Microsoft Corporation Segmentation of image features using hierarchical analysis of multi-valued image data and weighted averaging of segmentation results
RU2276407C2 (en) * 2001-10-22 2006-05-10 Интел Зао Method and device for background segmentation on basis of movement localization
RU2002114606A (en) * 2002-06-04 2004-05-27 Евгений Викторович Прокофьев TELEVISION METHOD AND SEARCH AND CAMERA SYSTEM
RU2315352C2 (en) * 2005-11-02 2008-01-20 Самсунг Электроникс Ко., Лтд. Method and system for automatically finding three-dimensional images
RU2459267C2 (en) * 2010-08-16 2012-08-20 Алексей Борисович Ануров Method of universal video surveillance

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2601164C2 (en) * 2015-02-18 2016-10-27 Федеральное государственное унитарное предприятие федеральный научно-производственный центр "Производственное объединение "Старт" им. М.В. Проценко" (ФГУП ФНПЦ ПО "Старт" им. М.В. Проценко") Cluster system for monitoring perimeters and superficies of objects
RU2595532C1 (en) * 2015-03-11 2016-08-27 Федеральное государственное унитарное предприятие федеральный научно-производственный центр "Производственное объединение "Старт" им. М.В. Проценко" (ФГУП ФНПЦ ПО "Старт" им. М.В. Проценко") Radar system for protection of areas with small-frame video surveillance system and optimum number of security guards
RU2650347C1 (en) * 2017-03-20 2018-04-11 Дмитрий Анатольевич Горяченков Method of the natural fires recognition in sub-horizon areas

Also Published As

Publication number Publication date
RU2013116631A (en) 2013-08-20

Similar Documents

Publication Publication Date Title
Qureshi et al. QuickBlaze: early fire detection using a combined video processing approach
US9652863B2 (en) Multi-mode video event indexing
US8189049B2 (en) Intrusion alarm video-processing device
WO2019083738A9 (en) Methods and systems for applying complex object detection in a video analytics system
CN104378582A (en) Intelligent video analysis system and method based on PTZ video camera cruising
CN104813339A (en) Methods, devices and systems for detecting objects in a video
CN103824070A (en) Rapid pedestrian detection method based on computer vision
KR102282800B1 (en) Method for trackig multi target employing ridar and camera
Tschentscher et al. Scalable real-time parking lot classification: An evaluation of image features and supervised learning algorithms
CN104376577A (en) Multi-camera multi-target tracking algorithm based on particle filtering
RU2534827C2 (en) Method for video surveillance of open space with fire hazard monitoring
Qi et al. Small infrared target detection utilizing local region similarity difference map
Shalnov et al. Convolutional neural network for camera pose estimation from object detections
Tang et al. Hybrid blob and particle filter tracking approach for robust object tracking
CN112800918A (en) Identity recognition method and device for illegal moving target
Mousse et al. People counting via multiple views using a fast information fusion approach
Ahuja et al. A survey of recent advances in crowd density estimation using image processing
Limprasert et al. Real-time people tracking in a camera network
Parameswaran et al. Design and validation of a system for people queue statistics estimation
Chebi et al. Dynamic detection of anomalies in crowd's behavior analysis
Dinh et al. Development of a tracking-based system for automated traffic data collection for roundabouts
JP6831396B2 (en) Video monitoring device
Zimoch et al. Human flow recognition using deep networks and vision methods
Malinovskiy et al. A simple and model-free algorithm for real-time pedestrian detection and tracking
CN114979567B (en) Object and region interaction method and system applied to video intelligent monitoring

Legal Events

Date Code Title Description
HE9A Changing address for correspondence with an applicant
MM4A The patent is invalid due to non-payment of fees

Effective date: 20160413