KR101106448B1 - Real-Time Moving Object Detection For Intelligent Visual Surveillance - Google Patents

Real-Time Moving Object Detection For Intelligent Visual Surveillance Download PDF

Info

Publication number
KR101106448B1
KR101106448B1 KR1020090067119A KR20090067119A KR101106448B1 KR 101106448 B1 KR101106448 B1 KR 101106448B1 KR 1020090067119 A KR1020090067119 A KR 1020090067119A KR 20090067119 A KR20090067119 A KR 20090067119A KR 101106448 B1 KR101106448 B1 KR 101106448B1
Authority
KR
South Korea
Prior art keywords
foreground
moving object
object detection
pixel
connection element
Prior art date
Application number
KR1020090067119A
Other languages
Korean (ko)
Other versions
KR20110009761A (en
Inventor
정선태
타한 빈흐
Original Assignee
정선태
(주)임베디드비전
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 정선태, (주)임베디드비전 filed Critical 정선태
Priority to KR1020090067119A priority Critical patent/KR101106448B1/en
Publication of KR20110009761A publication Critical patent/KR20110009761A/en
Application granted granted Critical
Publication of KR101106448B1 publication Critical patent/KR101106448B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 이동 객체 검출 방법에서 검출 방법의 실시간 구현에 관한 것이다.The present invention relates to a real time implementation of a detection method in a moving object detection method.

이동 객체 검출은 입력 영상에서 배경과 다른 전경 객체를 찾는 것을 말하는 것으로 지능 영상 감시, HCI, 객체 기반 영상 압축 등의 여러 영상 처리 응용 분야에서 반드시 필요한 과정이다. 기존의 객체 검출 알고리즘은 상당한 계산량을 요구하여 다채널 영상 감시 응용, 또는 임베디드 시스템에서의 단일 채널의 실시간 응용에 사용하는 데 애로가 많다. 이동 객체 검출은 다음과 같은 절차를 거친다: 전경 마스크 추출, 전경 마스크 정정, 연결 요소 레이블링을 통한 블롭 분할. 보다 정확한 객체 검출을 위하여 필요한 과정인 전경 마스크 정정은 보통 열림, 닫힘 등의 모폴로지 연산을 통해 수행된다. 연결 요소 레이블링은 전경 마스크에서 연결된 픽셀들의 집합인 블롭들을 분할하여 구별한다. 모폴로지 연산은 계산량이 적지 않고 게다가 프로세싱 방법이 달라 연결 요소 레이블링 루틴과 병렬로 처리되기 어렵다. 본 발명에서는 먼저 모폴로지 연산과는 달리 연결 요소 레이블링 절차에서 사용되는 주변 픽셀 점검 과정을 활용한 전경 마스크 정정 루틴을 개발하고, 개발된 루틴을 활용하여 전경 마스크 정정과 연결 요소 레이블링이 병렬로 수행될 수있는 개선된 실시간 구현 알고리즘을 제공한다. 개선의 결과로 본 발명이 제공하는 이동 객체 검출 방법이 기존의 모폴로지 연산을 이용한 이동 객체 검출 방법 보다 정확하고 신속하게 처리됨을 실험을 통해서 확인되었다.Moving object detection refers to finding background and other foreground objects in the input image and is a necessary process in many image processing applications such as intelligent video surveillance, HCI, and object-based image compression. Existing object detection algorithms require significant computational complexity, making them difficult to use in multichannel video surveillance applications or single channel real-time applications in embedded systems. Moving object detection involves the following steps: Extract foreground mask, correct foreground mask, and segment blobs by connecting element labeling. Foreground mask correction, a process necessary for more accurate object detection, is usually performed through morphology operations such as open and closed. Linking element labeling distinguishes between blobs, which are sets of linked pixels in the foreground mask. Morphological operations are not computationally expensive and differ in processing methods, making them difficult to process in parallel with connection element labeling routines. In the present invention, first, unlike the morphology calculation, the foreground mask correction routine using the peripheral pixel checking process used in the connection element labeling procedure is developed, and the foreground mask correction and the connection element labeling can be performed in parallel using the developed routine. An improved real-time implementation algorithm is provided. As a result of the improvement, it was confirmed through experiments that the moving object detection method provided by the present invention is processed more accurately and quickly than the moving object detection method using the existing morphology calculation.

이동 객체 검출, 블롭 검출, 연결 요소 레이블링, 전경 마스크 정정, 지능형 영상 감시 Moving object detection, blob detection, connection element labeling, foreground mask correction, intelligent video surveillance

Description

지능 영상 감시를 위한 이동 객체 실시간 검출 방법 {Real-Time Moving Object Detection For Intelligent Visual Surveillance}Real-Time Moving Object Detection For Intelligent Visual Surveillance}

본 발명이 속하는 기술 분야는 지능 영상 감시, HCI, 객체 기반 동영상 압축 등의 영상 처리 응용에서 필요한 이동 객체 검출 처리 분야이다. 본 발명에서는 획득된 동영상에서 배경과 다른 이동 객체를 기존의 방법 보다 빠르고 정확하게 검출하는 개선된 이동 객체 실시간 검출 기법 및 구현 방법을 제공한다.TECHNICAL FIELD The present invention belongs to the field of moving object detection required for image processing applications such as intelligent video surveillance, HCI, and object-based video compression. The present invention provides an improved moving object real-time detection technique and an implementation method for detecting a moving object different from a background in an acquired video faster and more accurately than a conventional method.

이동 객체 검출은 입력 영상에서 배경과 다른 전경 객체를 찾는 것을 말하는 것으로 지능 영상 감시, HCI, 객체 기반 영상 압축 등의 여러 영상 처리 응용 분야에서 필요한 과정이다[문헌 1,2]. 예를 들어, 지능 영상 감시에서는 관심 객체의 행위 분석이 요구된다. 관심 객체는 이동 객체 검출로부터 도출되며 지능 영상 감시의 성능은 얼마나 빠르고 정확하게 이동 객체를 검출할 수있느냐에 달려 있다는 것이 잘 알려져 있다 [문헌 1]. 그런데, 기존의 모폴로지 연산 이용 이동 객체 검출 알고리즘은 상당한 계산량을 요구하여 다채널 영상 감시 응용, 또는 임베디드 시스템에서의 단일 채널의 실시간 응용 구현에 사용하는 데 애로가 많다. 이동 객체 검출은 다음과 같은 절차를 거친다[문헌 1,2][도 2 참조]: 전경 마스크 추출, 전경 마스크 정정, 블롭 분할. 전경 마스크는 추출된 전경 픽셀들을 나타내는 것으로 정확한 객체 추출을 위해서 잘못 추출되거나 추출안된 것을 고치는 전경 마스크 정정 단계가 필요하며 보통 열림/닫힘 등의 모포롤지 연산이 전처리 단계로 처리되어 수행된다[문헌 3,4,5]. 한편, 전경 마스크는 다수의 블롭을 포함할 수있으므로 이들 블롭을 구분하여 분할을 해낼 필요가 있으며 연결 요소 레이블링 알고리즘[문헌 5]을 이용하여 처리된다. 블롭은 연결된 전경 픽셀들의 집합을 의미한다. 이후 분할된 블롭들을 각각 포함하는 최소 사각형 영역이 계산되고 이들 최소 사각형 영역이 객체 영역으로 검출되게 된다.Moving object detection refers to finding a background and other foreground object in the input image, which is a necessary process in various image processing applications such as intelligent video surveillance, HCI, and object-based image compression. For example, intelligent video surveillance requires analysis of the behavior of objects of interest. The object of interest is derived from moving object detection and it is well known that the performance of intelligent video surveillance depends on how fast and accurately it can detect moving objects [Ref. 1]. However, the existing morphological algorithm using a moving object detection algorithm requires a considerable amount of computation and is difficult to use for real-time application of a single channel in a multi-channel video surveillance application or an embedded system. Moving object detection goes through the following procedure [1, 2] [see Figure 2]: foreground mask extraction, foreground mask correction, blob segmentation. Foreground masks represent extracted foreground pixels. For accurate object extraction, a foreground mask correction step is required to correct incorrectly extracted or unextracted ones. A morphology paper operation such as open / close is usually performed as a preprocessing step. 4,5]. On the other hand, since the foreground mask may include a number of blobs, it is necessary to divide the blobs and divide them, and they are processed using a connection element labeling algorithm [5]. A blob is a set of connected foreground pixels. Subsequently, a minimum rectangular area including each of the divided blobs is calculated and these minimum rectangular areas are detected as the object area.

그런데, 전경 마스크 정정 과정에서 이용되는 모폴로지 연산은 계산량이 적지 않고 게다가 프로세싱 방법이 달라 연결 요소 레이블링 처리 루틴에서 사용되는 방법과 달라 연결 요소 레이블링 처리 루틴과 동시에 처리되기 어렵고, 먼저 모폴로지 연산에 의한 전경 마스크 정정 과정 처리후에 순차적으로 연결 요소 레이블링 과정이 수행된다. 모폴로지 연산 자체가 계산량이 적지 않고 전경 마스크 정정과 연결 요소 레이블링이 순차적으로 처리되기 때문에 기존의 모폴로지 연산 이용 이동 객체 검출 방법은 수행에 많이 시간이 소요된다.However, the morphology operation used in the foreground mask correction process is not small and the processing method is different so that it is difficult to be processed simultaneously with the connection element labeling processing routine, and is different from the method used in the connection element labeling processing routine. After the correction process, the connection element labeling process is performed sequentially. Since the morphology operation itself does not have a small amount of calculation and the foreground mask correction and the connection element labeling are sequentially processed, the conventional morphology calculation using moving object detection method takes a lot of time.

본 발명에서는 기존의 방법 [문헌 1,2] 에서 제공하는 방법과 다른 새로운 실시간 이동 객체 검출 기법 및 구현 방법을 제공한다. 제공되는 이동 객체 검출 기법 및 구현 방법은 모폴로지 연산을 이용하는 기존의 방법에 비해 더 신속하고 정확하다. 본 발명에서는 먼저 주변 픽셀 점검을 활용하는 전경 마스크 정정 알고리즘을 제공한다. 본 발명에서 제공하는 전경 마스크 정정 알고리즘인 ‘주변 전경 픽셀 전파’는 8개 주변 픽셀 점검을 이용하는 데 알고리즘이 모폴로지 연산 이용 전경 마스크 정정 알고리즘에 비해 단순하여 계산량이 적다. 더구나, 8 개 주변 픽셀 점검은 연결 요소 레이블링 처리 루틴에서도 활용되므로, ‘주변 전경 픽셀 전파’ 가 연결 요소 레이블링 처리 루틴 과정에 포함되어 처리될 수 있게 된다. 따라서 전경 마스크 정정은 보다 간단한 알고리즘으로 연결 요소 레이블링 처리 과정에서 함께 처리되게 되므로, 모폴로지 연산을 이용한 전경 마스크 정정 과정을 먼저 처리하고 이후 연결 요소 레이블링 과정을 순차적으로 수행하는 기존 객체 검출 방법들에 비해 수행 시간의 큰 개선을 가져 온다. 실험을 통해 제안된 이동 객체 검출 방법이 기존 방법보다 정확하고 신속하게 처리됨이 확인되었다.The present invention provides a new real-time moving object detection technique and an implementation method different from those provided by the existing methods [Documents 1 and 2]. The provided moving object detection technique and implementation method is faster and more accurate than conventional methods using morphology operations. The present invention first provides a foreground mask correction algorithm utilizing the surrounding pixel check. The foreground mask correction algorithm, which is provided by the present invention, uses eight peripheral pixel checks, and the algorithm is simpler than the foreground mask correction algorithm using morphology calculation. In addition, the eight peripheral pixel checks are also used in the connection element labeling routine, so that "peripheral foreground pixel propagation" can be included in the connection element labeling routine and processed. Therefore, foreground mask correction is a simpler algorithm, which is processed together in the link element labeling process. Therefore, foreground mask correction is performed in comparison with the existing object detection methods which process the foreground mask correction process using morphology operation first and then link element labeling process sequentially. Brings a great improvement of time. Through experiments, it is confirmed that the proposed moving object detection method is processed more accurately and faster than the existing method.

[문헌 1] T. Chen, H. Haussecker, A. Bovyrin, R. Belenov, K. Rodyushkin, A. Kuranov, V. Eruhimov, "Computer Vision Workload Analysis: Case Study of Video Surveillance Systems", Intel Technology Journal, May 2005.[1] T. Chen, H. Haussecker, A. Bovyrin, R. Belenov, K. Rodyushkin, A. Kuranov, V. Eruhimov, "Computer Vision Workload Analysis: Case Study of Video Surveillance Systems", Intel Technology Journal, May 2005.

- 논문 내용 ;-Paper content;

영상 감시 응용의 예를 통하여 구현되는 컴퓨터 비젼 알고리즘들의 실행 처리 계산량에 대해 분석을 수행하고 이에 대한 설명을 기술하였다.An analysis of the execution throughput of computer vision algorithms implemented through an example of a video surveillance application is described and described.

[문헌 2] C. Stauffer C, W.E.L Grimson, "Adaptive background mixture models for real-time tracking", IEEE CVPR, 1999, pp. 244 - 252.C. Stauffer C, W.E.L Grimson, "Adaptive background mixture models for real-time tracking", IEEE CVPR, 1999, pp. 244-252.

- 논문 내용 ;-Paper content;

지능형 영상 감시에서 배경차 기법에 의한 이동 객체 검출을 위해 혼합 가우시안 모델을 제안하고 혼합 가우시안 모델 기반 이동 객체 검출이 기존 방법 보다 개선한 방법임을 실험 결과를 통해 확인한 결과를 기술하였다.We propose a mixed Gaussian model for moving object detection based on background difference technique in intelligent video surveillance, and describe the results confirmed through experimental results that the detection of moving object based on mixed Gaussian model is an improvement over the existing method.

[문헌 3] P. Soille, Morphological Image Analysis: Principles and Applications, Springer-Verlag Telos, Berlin,2003.P. Soille, Morphological Image Analysis: Principles and Applications, Springer-Verlag Telos, Berlin, 2003.

- 논문 내용 ;-Paper content;

모폴로지 연산에 대해 자세한 설명을 한 책이다.This book provides a detailed explanation of morphology operations.

[문헌 3] R. C. Gonzalez, R. E. Woods, and S. L. Eddins, Digital Image Processing using MATLAB, PrenticeHall, UpperSaddleRiver, NewJersey, 2003.R. C. Gonzalez, R. E. Woods, and S. L. Eddins, Digital Image Processing using MATLAB, Prentice Hall, Upper Saddle River, New Jersey, 2003.

- 책 내용 ;-Book content;

영상 처리 이론 및 기법을 해설한 책으로 이 가운데 영상 처리에 있어서 모폴로지 연산의 활용에 대해서도 자세한 설명을 제공하였다.This book explains the theory and techniques of image processing, and provides a detailed explanation of the use of morphology computation in image processing.

[문헌 4] E. R. Dougherty and R. A. Lotufo, Hands-on Morphological Image Processing, SPIE Press, Bellingham, 2003.[4] E. R. Dougherty and R. A. Lotufo, Hands-on Morphological Image Processing, SPIE Press, Bellingham, 2003.

- 논문 내용 ;-Paper content;

영상 처리에 있어서 모폴로지 연산에 대해 자세한 설명을 기술하였다.A detailed description of the morphology computation in image processing has been provided.

[문헌 5] L. Shapiro and G. Stockman, Computer Vision, Prentice Hall, Upper Saddle River, New Jersey, 2001.L. Shapiro and G. Stockman, Computer Vision, Prentice Hall, Upper Saddle River, New Jersey, 2001.

- 책 내용 ; -Book content;

컴퓨터 비젼 이론 및 기법을 해설한 책으로 컴퓨터 비젼에서의 모폴로지 연산의 활용 및 연결 요소 레이블링에 대해서 자세한 설명이 제공되어 있다.An explanation of computer vision theory and techniques, this book provides a detailed description of the use of morphology operations and the labeling of connected elements in computer vision.

기존 이동 객체 검출 방법들 [문헌 1,2]에서는 전경 마스크 정정에 모폴로지 연산을 이용한다. 모폴로지 연산은 첫째, 계산량이 많으며, 둘째, 이동 객체 전처리 과정인 연결 요소 레이블링 처리 루틴에서 요구되는 연산들과 공통점이 없어 병렬 처리가 이루어 지지 못해 모폴로지 연산을 이용하는 기존의 이동 객체 검출 방법은 다채널 구현이나 임베디드 시스템에서의 실시간 구현이 힘들다. 본 발명에서는 이러한 기존의 모폴로지 이용 이동 객체 방법의 과도한 수행 시간 소요 문제를 해결하는 보다 신속하고 정확한 실시간 이동 객체 검출 방법을 제공하므로써, 현실적으로 현재의 데스크 탑 컴퓨터에서 다채널 지능형 영상 감시 시스템 개발, 임베디드 지능영 영상 감시 시스템 개발, 객체 기반 영상 압축 방법의 실시간 구현 등에서의 기술적 장애를 해결하고자 한다.Existing moving object detection methods [Documents 1 and 2] use morphology operations for foreground mask correction. First, morphology operations are large in computational complexity. Secondly, since parallel processing cannot be performed because there is nothing in common with the operations required in the connection element labeling routine, which is a moving object preprocess, the existing moving object detection method using morphology operations is multi-channel. Or real-time implementation in embedded systems is difficult. The present invention provides a more rapid and accurate real-time moving object detection method that solves the problem of excessive execution time of the existing morphology-based moving object method. This paper aims to solve technical obstacles in developing a video surveillance system and real-time implementation of object-based video compression.

현재 이동 객체 검출에 필요한 연결 요소 레이블링 과정은 2단계로 수행된다. 1단계에서는 이진 이미지를 행별로 왼쪽에서 오른쪽으로 스캐닝하면서 스캔중에 전경 픽셀을 만나면 이미 스캔된 픽셀들중에 주변 전경 픽셀이 있는 지를 점검하고 만일 없으면 해당 전경 픽셀에 이제까지 할당되었던 레이블(번호)중 가장 큰 레이블 다음의 레이블을 할당하고, 있으면 스캔된 주변 전경 픽셀들의 레이블중 가장 낮은 레이블을 할당한다. 이때, 주변 전경 픽셀들의 레이블들은 모두 같은 등가 클래스에 속하게 되고 발견된 등가 클래스는 기록된다. 2단계에서는 이진 이미지를 다시 스캐닝하고 기록된 등가 레이블 클래스를 이용하여 1단계에서 할당한 레이블을 최종 레이블로 고친다.Currently, the connection element labeling process required for moving object detection is performed in two steps. Step 1 scans the binary image row-by-row, left to right, if it encounters a foreground pixel during scanning, checking if there are surrounding foreground pixels among the already scanned pixels, and if not, the largest label (number) ever assigned to that foreground pixel. Assign the label after the label, and assign the lowest label among the labels of the scanned foreground pixels, if any. At this time, the labels of the surrounding foreground pixels all belong to the same equivalent class and the found equivalent class is recorded. In step 2, the binary image is rescanned and the recorded equivalent label class is used to replace the label assigned in step 1 with the final label.

연결 요소 레이블링의 1단계 과정에서 수행하는 주변 전경 픽셀 존재 유무 점검 절차 처리 과정중에 수행될 수있는 연산량이 적은 전경 마스크 정정 기법인 ‘전경 픽셀 전파’ 알고리즘을 개발하고 제공하여, 기존의 연결 요소 레이블링 처리 루틴 수행전에 순차적으로 수행하여야 했던 모폴로지 연산 과정을 대치하도록 한다. 이로써, 계산량이 많은 모폴로지 연산을 사용하지 않고 전경 마스크 정정 과정이 적은 연산량으로 연결 요소 레이블링 작업과 동시에 처리되도록 되어 이동 객체 검출의 신속한 실시간 처리가 가능해진다.Developing and providing 'foreground pixel propagation' algorithm, a foreground mask correction technique with a small amount of computation that can be performed during the process of checking the presence of surrounding foreground pixels in the first step of linking element labeling, Replace the morphology calculation process that had to be performed sequentially before executing the routine. As a result, the foreground mask correction process is processed simultaneously with the connection element labeling operation with a small amount of computation without using a large amount of computational morphology operations, thereby enabling rapid real-time processing of moving object detection.

본 발명의 효과를 명확히 기술하기 위해 실행한 실험 및 그 결과를 기술하고, 그 효과를 정리한다.Experiments and results performed to clearly describe the effects of the present invention are described and the effects are summarized.

가. 본 발명 제공 ‘전경 픽셀 전파’ 알고리즘과 기존 모폴로지 연산 이용 방법의 전경 마스크 정정 능력 비교end. Comparison of the foreground mask correction capability of the present invention 'foreground pixel propagation' algorithm and the conventional morphology calculation method

전경 마스크 정정 능력에 대해 기존 모포롤지 연산과 본 발명에서 제공한 ‘주변 전경 픽셀 전파’ 알고리즘과 비교하였다. [도 3]은 이 비교 결과를 보여 준다. [도 3] 은 ‘주변 전경 픽셀 전파’ 알고리즘이 모폴로지 연산 이용 방법 보다 간단하면서도 전경 마스크 정정 능력이 더 좋음을 보여 준다. [도 3]에서의 전 경 마스크는 혼합 가우시안 모델을 이용하여 구하였으며, 모폴로지 연산은 닫기와 열기로 3x3 사이즈의 정사각형 구조 요소를 사용하였다. 만일 더 적절한 구조 요소를 사용하면, 모폴로지 연산 이용의 경우도 ‘전경픽셀전파’ 기법 사용 경우와 같이 좀 더 분명한 전경 마스크 정정을 얻을 수있다. 그러나, 이 경우 더 많은 연산 계산량이 필요하다.The foreground mask correction capability is compared with the existing Morphoroll paper calculation and the 'peripheral foreground pixel propagation' algorithm provided by the present invention. 3 shows the results of this comparison. FIG. 3 shows that the 'peripheral foreground pixel propagation' algorithm is simpler than the morphology calculation method and has better foreground mask correction capability. The foreground mask in FIG. 3 was obtained using a mixed Gaussian model, and the morphology calculation used square structure elements of size 3x3 as close and open. If more appropriate structural elements are used, the use of morphology calculations can yield more explicit foreground mask corrections, as is the case with the 'foreground pixel propagation' technique. However, more computational computation is needed in this case.

나. 수행시간 시간 비교I. Execution time time comparison

기존 모폴로지 연산 이용 이동 객체 검출 알고리즘(이하 기존 방법)과 본 발명 제공 이동 객체 검출 알고리즘(이하 제공 방법) 을 이용한 각각의 경우의 수행시간을 비교하기 위해 2가지 실험을 시행하였다.Two experiments were performed to compare the execution time of each case using the existing morphology calculation using the moving object detection algorithm (hereinafter, referred to as an existing method) and the present invention.

첫 번째 실험에서는 [도 3]의 전경 마스크 한 프레임에 대해 이동 객체 검출 시간을 계산하였고, 2번째 실험에서는 영상 비디오에 대해 연속적인 이동 객체 검출 수행 시간을 계산하여 비교하였다. 2개 실험 환경은 3GHz 펜티엄 4 코어 및 3GB DDR2 메모리를 갖는 윈도우즈 PC 이다. 또한, 각 영상 이미지 프레임의 해상도 는 320x240 이며, 영상 비디오 1 과 2의 크기는 각각 4.67 MB(221 프레임) 과 245MB(1117 프레임)이다.In the first experiment, the moving object detection time was calculated for one frame of the foreground mask of FIG. 3, and in the second experiment, the execution time of continuous moving object detection was calculated and compared for the video image. Two experimental environments were Windows PCs with 3GHz Pentium 4 cores and 3GB DDR2 memory. In addition, the resolution of each video image frame is 320x240, and the sizes of video videos 1 and 2 are 4.67 MB (221 frames) and 245 MB (1117 frames), respectively.

본 논문의 실험에서 사용된 PC 사양은 인텔 펜티엄 4 (3GHz), 3GB DDR2 RAM 을 사용하였고, 사용한 프로그램 통합 환경은 visual studio 2008 이다.The PC specification used in this paper was Intel Pentium 4 (3GHz), 3GB DDR2 RAM, and the program integration environment used was visual studio 2008.

[도 4 (a)]과 [도 4 (b)]는 각각 첫번째와 2번째 실험 결과를 보여준다.4 (a) and 4 (b) show the results of the first and second experiments, respectively.

[도 4]의 결과는 제공 방법이 기존 방법 보다 신속히 수행됨을 확인해준다.The results of FIG. 4 confirm that the providing method is performed faster than the existing method.

다. 발명의 효과All. Effects of the Invention

본 발명에서는 기존의 모폴로지 연산을 이용한 이동 객체 검출 방법 보다 개선된 ‘전경 픽셀 전파’ 기법을 이용한 이동 객체 검출 방법을 제공하였다. 제공한 이동 객체 검출 방법은 기존 모폴로지 연산 기반 이동 객체 검출 방법 보다 수행 속도와 정확한 객체 검출 능력이 개선된 방법임을 실험을 통하여 확인하였다. 제공된 개선된 이동 객체 검출 방법으로 다채널 지능 영상 감시 시스템 개발, 임베디드 지능 영상 감시 시스템 개발, 객체 기반 영상 압축 방법의 수행속도 개선 등이 가능하다.The present invention provides a moving object detection method using a 'foreground pixel propagation' technique, which is an improvement over the moving object detection method using a conventional morphology calculation. Experimental results show that the proposed moving object detection method improves execution speed and accurate object detection capability over the existing morphology-based moving object detection method. With the improved moving object detection method provided, it is possible to develop a multi-channel intelligent video surveillance system, to develop an embedded intelligent video surveillance system, and to improve the performance of the object-based video compression method.

본 발명에서 제공하는 ‘주변 전경 픽셀 전파’ 기반 이동 객체 검출 방법’의 동작 구조가 도면 1 에 표시되어 있다. 본 발명은 ‘전경 마스크 정정을 위한 모폴로지 연산 + 블롭 분할을 위한 연결 요소 레이블링’ 의 순차적 처리 과정을 모폴로지 연산 보다 간단한 ‘주변 전경픽셀 전파’ 알고리즘을 제공하고 이를 활용하여 ‘전경 마스크 정정’ 과정 및 ‘연결 요소 레이블링’ 과정이 동시에 수행될 수있도록 하므로써 신속하고 정확한 실시간 객체 검출을 수행하는 방법을 제공 한다. 본 발명 내용의 이해를 위해 먼저 연결 요소 레이블링 과정에 대한 이해가 필요하다. 연결 요소 레이블링 과정에 대한 보다 자세한 내용에 대해서는 [문헌 5]을 참조하기로 하고, 여기서는 본 발명에 관련된 ‘유니온-파인드 구조 기반 연결 요소 레이블링’ 알고리즘에 대해 소개한 후에, 본 발명의 구체적인 내용에 대해 설명한다.The operation structure of the 'peripheral foreground pixel propagation' based moving object detection method provided by the present invention is shown in FIG. 1. The present invention provides a 'foreground foreground pixel propagation' algorithm, which is simpler than the morphology calculation, and employs the sequential processing of 'morphology calculation for foreground mask correction + connection element labeling for blob division' and utilizes the 'foreground mask correction' process and ' It provides a method to perform fast and accurate real-time object detection by allowing the connection element labeling 'process to be performed simultaneously. In order to understand the contents of the present invention, an understanding of the connection element labeling process is first required. For more information on the connection element labeling process, refer to [Reference 5], and after introducing the 'union-find structure based connection element labeling' algorithm related to the present invention, Explain.

가. ‘유니온-파인드 구조 기반 연결 요소 레이블링’ 알고리즘 소개end. Introduction to the Union-Find Structure-Based Linked Element Labeling Algorithm

연결 요소 레이블링 과정은 이미지를 스캔하여 이미지 픽셀들을 픽셀들의 연결에 기반하여 블롭들을 분할하는 작업을 수행한다. 블롭은 연결된 (전경) 픽셀 픽셀들의 모임이다. 전경 마스크 이미지에서 연결 요소는 전경 픽셀을 연결된 주변으로 갖는 전경 픽셀들의 집합이다. 본 발명에서 픽셀의 주변이란 해당 픽셀의 8개 주변을 의미한다 ([도 5 참조]).The connecting element labeling process scans an image and divides the blobs based on the concatenation of the pixel pixels. A blob is a collection of concatenated (foreground) pixel pixels. In the foreground mask image, the connecting element is a collection of foreground pixels with the foreground pixel connected to it. In the present invention, the periphery of a pixel means eight peripheries of the pixel (see FIG. 5).

일단 모든 연결 요소들이 추출되면, 각 픽셀은 소속되는 연결 요소의 레이블(번호)이 할당된다. 이미지에서 분리된 연결 요소들을 추출하고 이들에게 레이블을 할당하는 작업은 지능형 영상 감시를 포함한 많은 컴퓨터 비젼 응용에서 요구되는 중요한 작업의 하나이다.Once all connecting elements are extracted, each pixel is assigned a label (number) of the connecting element to which it belongs. Extracting separate connection elements from images and labeling them is one of the important tasks required in many computer vision applications, including intelligent video surveillance.

문헌들에서 제안된 많은 연결 요소 레이블링 문제 처리 알고리즘들중 [문헌 5의 참고 문헌 참조], 가장 유망하고 효율적인 연결 요소 레이블링 알고리즘들은 보통 유니온-파인드 구조(union-find structure)를 이용한 2단계 절차로 이루어진 다.Of the many connection element labeling problem handling algorithms proposed in the literature [see reference 5], the most promising and efficient connection element labeling algorithms usually consist of a two-step procedure using a union-find structure. All.

유니온-파인드 구조는 등가 클래스(equivalence class) 를 트리 구조로 효과적으로 구축하고 조작하기 위한 것으로, 서로소 집합(disjoint set)의 모임들을 저장하고 유니온(2개 집합을 하나로 합침)과 파인드(특정 원소가 어느 집합에 속하는 지를 결정)의 연산들을 지원한다. 각 집합은 트리구조로 저장된다. 트리의 노드는 각 집합의 레이블을 나타내고 노드의 값은 부모 노드를 가르킨다. 유니온-파인드의 트리 구조는 벡터 어레이 PARENT 를 통해 표현낸다. PARENT 의 색인(subscript) 는 가능한 레이블(노드)을 나타내고 그 값은 부모 노드의 레이블을 타낸다. 0 값을 갖는 노드는 최상위 노드 (root node) 를 의미한다.The union-find structure is used to effectively build and manipulate equivalence classes in a tree structure. It stores a collection of disjoint sets, combines two sets into one, and finds To determine which set belongs to). Each set is stored in a tree structure. The nodes in the tree represent the labels of each set, and their values point to the parent node. The union-find tree structure is represented by the vector array PARENT. The index of the PARENT represents a possible label (node) and its value represents the label of the parent node. A node with a value of zero means the root node.

파인드 연산은 레이블 X 와 PARENT 벡터 어레이가 주어질 때, 레이블 X 가 나타내는 노드의 부모 노드를 계속 쫓아 올라가 레이블 X 가 있는 트리의 루트 노드의 레이블을 찾는 작업을 수행한다. 유니온 연산은 2개의 레이블 X 와 Y , PARENT 벡터 어레이가 주어질 때, 트리 구조를 변형하여 X 와 Y 를 합하는 작업을 수행한다.The find operation, given a label X and a PARENT vector array, continues to traverse the parent node of the node represented by label X to find the label of the root node of the tree with label X. The union operation transforms the tree structure and adds X and Y when given two arrays of labels X and Y and a PARENT vector.

유니언 연산은 레이블 X 와 Y에서 각각 시작하여 각 레이블의 루트 노드를 찾고 만일 X 와 Y의 루트 노드가 다르면 하나(X 또는 Y)의 레이블을 다른 하나(Y 또는 X)의 부모 노드로 한다. [도 6]은 2개 레이블 세트에 대해 유니온-파인드 구조를 보여 준다.Union operations look for the root node of each label, starting at labels X and Y respectively, and if the root nodes of X and Y are different, make one label (X or Y) the parent node of the other (Y or X). Figure 6 shows the union-find structure for two label sets.

아래에 간단히 ‘유니언-파인드 구조를 이용한 2 단계 절차 연결 요소 레이 블링 알고리즘’을 설명한다.Below is a brief description of the two-step procedural linking element labeling algorithm using a union-find structure.

첫 번째 단계에서, 알고리즘은 이진 이미지를 행별로 왼쪽에서 오른쪽으로 차례로 스캔한다. 스캔중에 전경 픽셀을 만나면 이미 스캔된 픽셀들중에 주변 전경 픽셀이 있는 지를 점검하고 (주변 전경 픽셀 점검), 만일 없으면 해당 전경 픽셀에 이제까지 할당되었던 레이블중 가장 큰 레이블 다음 레이블을 할당하고, 있으면 스캔된 주변 전경 픽셀들의 레이블중 가장 낮은 레이블을 할당한다. 이때, 주변 전경 픽셀들의 레이블들은 모두 같은 등가 클래스에 속하게 된다. 발견된 등가 클래스는 유니온-파인드 구조에 기록된다. 첫 번째 단계의 절차의 마지막에 각 등가 클래스는 완전히 결정되고 유니온-파인드 구조의 트리의 루트로 결정되는 유일한 레이블을 갖게 된다.In the first step, the algorithm scans the binary image row by row from left to right. If it encounters a foreground pixel during scanning, it checks whether there is a surrounding foreground pixel among the already scanned pixels (check the surrounding foreground pixel), and if not, assigns the next label with the largest label ever assigned to that foreground pixel, Assign the lowest label among the labels of the surrounding foreground pixels. At this time, the labels of the surrounding foreground pixels all belong to the same equivalent class. The found equivalent class is recorded in the union-find structure. At the end of the first step procedure, each equivalence class has a unique label that is fully determined and determined by the root of the tree of the union-find structure.

2번째 단계 절차는 이미지를 스캔하여 임시 레이블들을 최종 레이블로 대치된다. 최종 레이블은 각 레이블의 루트 노드의 레이블로 된다.The second step procedure scans the image and replaces the temporary labels with the final labels. The final label is the label of the root node of each label.

[도 7]은 예제 입력 이진 이미지를 보여준다. [도 7]에서 f 는 전경 픽셀을 의미하며, 그밖의 픽셀은 배경 픽셀이다.Figure 7 shows an example input binary image. In FIG. 7, f denotes a foreground pixel, and other pixels are background pixels.

[도 8] 은 앞에서 소개한 ‘유니온-파인드 구조를 이용한 연결 요소 레이블링’ 알고리즘의 [도 7]에 대한 첫단계 절차 수행 결과를 보여준다.FIG. 8 shows the result of performing the first step procedure for [FIG. 7] of the 'connecting element labeling using union-find structure' algorithm.

[도 9] 는 앞에서 소개한 ‘유니온-파인드 구조를 이용한 연결 요소 레이블링’ 알고리즘의 [도 7]에 대한 2단계 절차후의 최종 레이블링 결과를 보여준다.FIG. 9 shows the final labeling result after the two-step procedure for [FIG. 7] of the 'connected element labeling using union-find structure' algorithm.

나. 주변 전경 픽셀 전파 알고리즘I. Surround foreground pixel propagation algorithm

자연 객체들은 구멍이 있기 힘들고, 삐져 나온 부분이 있기 힘들다. 또한 고립된 소수 픽셀 집합은 관심있는 객체일 가능성이 작다. 전경 마스크 이미지의 블롭들은 자연 객체의 블롭들이다. 따라서, 전경 마스크 이미지에 보이는 전경 영역에서의 구멍은 추출되지 못한 전경 픽셀일 가능성이 매우 높다. 또한 고립된 전경 픽셀이나 삐져 나온 전경 픽셀들은 전경 픽셀로 잘못 추출되었을 가능성이 높다. 그러므로, 전경 마스크 이미지의 구멍은 주변에 많은 전경 픽셀을 가질 확률이 높고 삐져 나온 전경 픽셀이나 고립된 전경 픽셀은 주변에 배경 픽셀을 가질 가능성이 높다.Natural objects are less likely to have holes and less protruding parts. Also, isolated fractional pixel sets are less likely to be objects of interest. The blobs of the foreground mask image are the blobs of the natural object. Thus, the hole in the foreground area visible in the foreground mask image is very likely a foreground pixel that has not been extracted. Also, isolated foreground pixels or protruding foreground pixels are most likely incorrectly extracted as foreground pixels. Therefore, holes in the foreground mask image are more likely to have many foreground pixels around, and protruding foreground or isolated foreground pixels are more likely to have background pixels around.

여기서, 픽셀 X 의 전경 주변 확률 P(X) 를 해당 픽셀 X 의 8 주변 ([도 5] 참조) 중 전경 픽셀일 비율로 정의한다.Here, the foreground periphery probability P (X) of the pixel X is defined as the ratio of the foreground pixel among the eight peripheries of the pixel X (see FIG. 5).

이러한 관찰로부터 본 발명에서는 전경 마스크 정정 방법인 ‘주변 전경 픽셀 전파’ 알고리즘을 제공한다.From this observation, the present invention provides an 'peripheral foreground pixel propagation' algorithm, which is a foreground mask correction method.

<주변 전경 픽셀 전파 알고리즘>Peripheral foreground pixel propagation algorithm

픽셀의 값이 2가지인 전경 마스크 이미지( 값 1은 전경 픽셀을, 값 0은 배경 픽셀을 의미)에서, 전경 마스크 정정은 다음과 같이 이루어 진다.In a foreground mask image with two pixel values (value 1 means foreground pixel and value 0 means background pixel), foreground mask correction is performed as follows.

전경 마스크 이미지를 행별로 왼쪽에서 오른쪽으로 스캐닝할 때, 해당 픽셀의 정정은 다음과 같이 전경 주변 확률이 0.5 이상이면, 전경 픽셀(값 1)로, 확률이 0.5 미만이면 배경 픽셀(값 0)로 한다. 즉,When scanning a foreground mask image row-by-row from left to right, the correction of that pixel is to the foreground pixel (value 1) if the foreground margin is greater than 0.5, and to the background pixel (value 0) if the probability is less than 0.5: do. In other words,

Figure 112009044880726-pat00001
Figure 112009044880726-pat00001

‘주변 전경 픽셀 전파 ’ 알고리즘 수행의 예가 [도 10]에 나타나 있다.An example of performing the 'peripheral foreground pixel propagation' algorithm is shown in FIG. 10.

[도 11]은 적응적 가우시안 혼합 모델[문헌 2]을 이용하여 얻어진 전경 마스크에 ‘주변 전경픽셀 전파’ 알고리즘을 적용한 결과 이미지의 예를 보여 준다. ‘주변 전경 픽셀 전파’ 알고리즘 적용후에 전경 마스크의 블롭들이 더 분명해지고 채워졌음을 볼 수있다.FIG. 11 shows an example of an image of the result of applying the 'peripheral foreground pixel propagation' algorithm to the foreground mask obtained using the adaptive Gaussian mixture model [Document 2]. We can see that the blobs in the foreground mask are more apparent and filled after the 'peripheral foreground pixel propagation' algorithm is applied.

‘주변 전경픽셀 전파’ 알고리즘은 간단하지만 좋은 전경 마스크 정정 결과를 보여 준다. 이러한 좋은 전경 마스크 정정 성질에 더하여 보다 중요한 특성은 연결 요소 레이블링 과정 루틴 처리중에 수행될 수있다는 점이다. 이는 ‘주변 전경 픽셀 전파’ 알고리즘과 ‘연결 요소 레이블링’ 알고리즘이 모두 주변 전경 픽셀 점검을 활용하기 때문이다.The Peripheral Foreground Pixel Propagation algorithm demonstrates a simple but good foreground mask correction. In addition to this good foreground mask correction property, a more important feature is that it can be performed during the connection element labeling process routine processing. This is because both the Peripheral Foreground Pixel Propagation algorithm and the Connected Element Labeling algorithm both utilize surrounding foreground pixel checks.

이러한 특성은 이동 개체 검출에 계산량을 많이 줄일 수있다. 이러한 특성에 기반하여, 본 논문에서는 새로운 이동 객체 검출 방법을 제공한다. 제공한 이동 객체 검출 방법은 기존 모폴로지 연산 기반 이동 객체 검출 알고리즘보다 더 빠르고 정확하다.These characteristics can reduce a lot of computation in moving object detection. Based on these characteristics, this paper provides a new moving object detection method. The proposed moving object detection method is faster and more accurate than the existing morphology calculation based moving object detection algorithm.

다. 주변 전경 픽셀 전파 기반 실시간 이동 객체 검출 방법All. Real-time moving object detection method based on surrounding foreground pixel propagation

본 발명에서 제공하는 주변 전경픽셀 전파 기반 이동 객체 검출 방법은 유니온-파인드 구조 기반 연결 요소 레이블링 방법과 주변 전경픽셀 전파 방법을 결합한 것으로 동작 구조는 [도 1] 과 같다.The surrounding foreground pixel propagation-based moving object detection method provided by the present invention combines a union-find structure-based connection element labeling method and a surrounding foreground pixel propagation method. The operation structure is as shown in FIG. 1.

제공된 주변 전경 픽셀 전파 기반 이동 객체 검출 방법은 기존 유니온-파인드 연결 요소 레이블링과 마찬가지로 2단계 절차로 수행된다. 다만, 모폴로지 연산 전처리후 유니온-파인드 연결 요소 레이블링이 수행되던 기존 방법과 달리 유니온-파인드 연결 요소 레이블링 수행중에 모폴로지 연산보다 더 간단한 전경 마스크 정정 방법인 ‘주변 전경 픽셀 전파’ 알고리즘이 1단계에서 동시에 수행되도록 되어 계산량이 줄어 든다. 1단계에서는 연결 요소 레이블링과 ‘주변 전경 픽셀 전파’를 이용한 전경 마스크 정정, 그리고 유니온-파인드 구조 가 구축되며 2단계에서 구축된 유니온-파인드 구조를 이용하여 임시로 할당된 블롭들의 레이블이 정정된다. 이후, 각 레이블의 블롭을 포함하는 최소 사각 영역이 계산된다.
라. 본 발명의 지능 영상 감시를 위한 이동 객체 실시간 검출 구현 방법
본 발명에서 제공하는 지능 영상 감시를 위한 이동 객체 실시간 검출 방법은 주변 전경픽셀 전파 기반 이동 객체 검출 방법으로 유니온-파인드 구조 기반 연결 요소 레이블링 방법과 주변 전경픽셀 전파 방법을 결합한 것이며 동작 구조는 [도 1] 과 같으며 2단계([도 1]의 20 과정 및 30 과정)로 구현된다.
먼저 적응 혼합 가우시안 모델링 등에 의하여 추출된 이진 전경 마스크 ([도 1]의 10)가 입력되면, 본 발명의 지능 영상 감시를 위한 이동 객체 실시간 검출 구현의 1단계([도 1]의 20 과정)에서는 8주변 픽셀을 점검하고([도 1]의 21 과정), 나)에서 설명한 ‘주변 전경 픽셀 전파 알고리즘’를 이용하여 전경 마스크를 정정한다([도 1]의 22 과정). 이때 동시에, 유니온-파인드 구조 기반 1차 연결 요소 레이블링이 수행된다 ([도 1]의 23 과정). 2단계([도 1]의 30 과정)에서 구축된 유니온-파인드 구조를 이용하여 임시로 할당된 블롭들의 레이블이 최종 확정된다([도 1]의 31 과정). 이후, 각 레이블의 블롭을 포함하는 최소 사각 영역이 계산된다([도 1]의 32 과정). 이 때, 이동 객체 리스트가 작성되어 출력된다 (([도 1]의 40 과정).
The provided surrounding foreground pixel propagation based moving object detection method is performed in a two-step procedure as with the existing union-find connection element labeling. However, unlike the conventional method in which union-find connection element labeling is performed after preprocessing morphology calculation, 'peripheral foreground pixel propagation' algorithm, which is a simpler foreground mask correction method, is executed simultaneously in step 1 during union-find connection element labeling. The amount of computation is reduced. In the first step, the foreground mask is corrected using the connection element labeling, 'peripheral foreground pixel propagation', and the union-find structure is constructed, and the label of the temporarily allocated blobs is corrected using the union-find structure constructed in the second step. The minimum rectangular area containing the blobs of each label is then calculated.
la. Implementation method of real time detection of moving object for intelligent video surveillance of the present invention
The moving object real-time detection method for intelligent video surveillance provided by the present invention combines a union-find structure-based connection element labeling method and a surrounding foreground pixel propagation method as a moving object detection method based on surrounding foreground pixels. ] And is implemented in two steps (20 and 30 steps of [Fig. 1]).
First, if a binary foreground mask (10 of FIG. 1) extracted by adaptive mixed Gaussian modeling is input, in the first stage (20 of FIG. 1) of real-time detection of moving object for intelligent video surveillance of the present invention The pixels around 8 are checked (step 21 of FIG. 1), and the foreground mask is corrected using the 'peripheral foreground pixel propagation algorithm' described in step 2) (step 22 of FIG. 1). At this time, the union-find structure-based primary connection element labeling is performed (step 23 of FIG. 1). The label of the temporarily assigned blobs is finally determined using the union-find structure constructed in step 2 (30 in FIG. 1) (step 31 in FIG. 1). Then, the minimum rectangular area including the blob of each label is calculated (step 32 in FIG. 1). At this time, a list of moving objects is created and output ((step 40 of FIG. 1)).

본 발명은 다채널 지능 영상 감시 시스템 개발, 임베디드 지능 영상 감시 시스템 개발, 객체 기반 동영상 영상 압축, HCI 등 이동 객체 검출을 필요로 하는 영상 처리 및 컴퓨터 비젼 응용 소프트웨어 개발 및 시스템 개발에 적용될 수 있다.The present invention can be applied to the development of multi-channel intelligent video surveillance system, embedded intelligent video surveillance system, object-based video image compression, image processing and computer vision application software and system development requiring moving object detection such as HCI.

1) 도 1은 본 발명에서 제공하는 ‘주변 전경 픽셀 전파’ 기반 이동 객체 검출 방법’의 동작 구조1) FIG. 1 is a view illustrating an operation structure of a moving object detection method based on 'peripheral foreground pixel propagation' provided by the present invention.

2) 도 2는 이동 객체 검출 과정의 이미지들로 (a)는 원 이미지, (b)는 전경 마스크 이미지, (c)는 정정된 전경 마스크 이미지 , (d) 는 검출된 이동 객체 이미지2) FIG. 2 shows images of a moving object detection process, (a) an original image, (b) a foreground mask image, (c) a corrected foreground mask image, and (d) a detected moving object image

3) 도 3은 본 발명 제공 ‘전경 픽셀 전파’ 알고리즘과 기존 모폴로지 연산 이용 방법의 전경 마스크 정정 능력 비교 결과 이미지들3 is a comparison result image of the foreground mask correction ability of the present invention 'foreground pixel propagation' algorithm and the conventional morphology calculation method

4) 도 4는 본 발명 제공 이동 객체 검출 방법과 기존 모포롤지 기반 이동 객체 검출 방 법과의 수행 시간 비교 실험 결과로도 4(a) 는 첫 번째 실험 결과, 도 4(b)는 2번째 실험 결과4 is a comparison result of execution time between the present invention-provided moving object detection method and the existing Morphoroll paper-based moving object detection method. FIG. 4 (a) shows the first test result, and FIG.

5) 도 5는 해당 픽셀의 8개의 주변 픽셀5) 8 peripheral pixels of the pixel

6) 도 6은 2개 레이블 세트에 대해 유니온-파인드 구조6) Figure 6 shows a union-find structure for two label sets.

7) 도 7은 예제 입력 이진 이미지7) Figure 7 is an example input binary image

8) 도 8은 ‘유니온-파인드 구조를 이용한 연결 요소 레이블링’ 알고리즘의 [도 7]에 대한 첫단계 절차 수행 결과8) FIG. 8 shows the result of performing the first step procedure for [FIG. 7] of the 'connection element labeling using union-find structure' algorithm.

9) 도 9는 ‘유니온-파인드 구조를 이용한 연결 요소 레이블링’ 알고리즘의 [도 7]에 대한 2단계 절차 수행 후의 최종 레이블링 결과9) FIG. 9 shows the final labeling result after the two-step procedure for [FIG. 7] of the 'connecting element labeling using the union-find structure' algorithm.

10) 도 10은 [발명의 실시를 위한 구체적인 내용]의 나)항에서 설명한 본 발명이 제공하는 ‘주변 전경 픽셀 전파’ 알고리즘 수행의 예10) FIG. 10 shows an example of performing the 'peripheral foreground pixel propagation' algorithm provided by the present invention described in b) of [the detailed description of the invention].

11) 도 11은 적응적 가우시안 혼합 모델[문헌 2]을 이용하여 얻어진 전경 마스크에 ‘주변 전경 픽셀 전파’ 알고리즘을 적용한 결과 이미지의 예11) FIG. 11 shows an example of an image of the result of applying the 'peripheral foreground pixel propagation' algorithm to the foreground mask obtained using the adaptive Gaussian mixture model [Document 2].

Claims (3)

지능 영상 감시를 위한 이동 객체 실시간 검출 방법에 있어서,In the moving object real-time detection method for intelligent video surveillance, 이진 전경 마스크를 추출하는 단계;Extracting a binary foreground mask; 추출된 이진 전경 마스크가 입력되면 주변 픽셀을 점검하는 단계;Checking surrounding pixels when the extracted binary foreground mask is input; 주변 전경 픽셀 전파 알고리즘을 이용하여 상기 이진 전경 마스크를 정정하는 단계;Correcting the binary foreground mask using an ambient foreground pixel propagation algorithm; 1차 연결 요소 레이블링을 수행하는 단계;Performing primary connection element labeling; 임시로 할당된 블롭들의 레이블을 확정하는 단계; 및Determining a label of temporarily assigned blobs; And 각 레이블의 블롭을 포함하는 최소 사각 영역을 계산하며, 이동 객체 리스트를 작성하는 단계;를 포함하며,Calculating a minimum rectangular area including a blob of each label, and creating a moving object list; 상기 주변 전경 픽셀 전파 알고리즘은,The surrounding foreground pixel propagation algorithm is 픽셀 값이 2가지인 전경 마스크 이미지에서 전경 마스크 이미지를 행별로 스캐닝할 때, 전경 주변 확률이 0.5 이상이면 해당 픽셀을 전경 픽셀로, 전경 주변 확률이 0.5 미만이면 배경 픽셀로 정정하는 것을 특징으로 하는 지능 영상 감시를 위한 이동 객체 실시간 검출 방법.When scanning a foreground mask image row by row in a foreground mask image having two pixel values, if the foreground margin probability is 0.5 or more, the pixel is corrected as the foreground pixel, and if the foreground margin probability is less than 0.5, the background pixel is corrected. Moving object real-time detection method for intelligent video surveillance. 제1항에 있어서,The method of claim 1, 상기 1차 연결 요소 레이블링을 수행하는 단계는 유니온-파인드 구조를 이용한 연결 요소 레이블링을 수행하는 단계를 포함하며, 상기 유니온-파인드 구조를 이용한 연결 요소 레이블링을 수행하는 단계는,The performing of the primary connection element labeling may include performing connection element labeling using a union-find structure, and performing the connection element labeling using the union-find structure may include: 이진 이미지를 행별로 왼쪽에서 오른쪽으로 스캔하는 단계;Scanning the binary image row by row from left to right; 스캔중에 전경 픽셀을 만나면 이미 스캔된 픽셀들중에 주변 전경 픽셀이 존재하는지 점검하는 단계; If it encounters a foreground pixel during scanning, checking whether there is a surrounding foreground pixel among the already scanned pixels; 상기 주변 전경 픽셀이 존재하지 않으면, 해당 전경 픽셀에 이미 할당되었던 레이블중 가장 큰 레이블 다음 레이블을 할당하고, 상기 주변 전경 픽셀이 존재하면 스캔된 주변 전경 픽셀들의 레이블중 가장 낮은 레이블을 할당하는 단계; 및If the surrounding foreground pixel does not exist, assigning a next label after the largest label that has already been assigned to the corresponding foreground pixel, and if the surrounding foreground pixel exists, assigning the lowest label among the labels of the scanned surrounding foreground pixels; And 상기 주변 전경 픽셀의 레이블을 등가 클래스에 속하며, 발견된 등가 클래스를 유니온-파인드 구조에 기록하는 단계; Recording the labels of the surrounding foreground pixels belonging to an equivalent class and recording the found equivalent class in a union-fine structure; 를 포함하는 것을 특징으로 하는 지능 영상 감시를 위한 이동 객체 실시간 검출 방법.Moving object real-time detection method for intelligent video surveillance comprising a. 제2항에 있어서,3. The method of claim 2, 상기 유니온-파인드 구조를 이용한 연결 요소 레이블링을 수행하는 단계는 이미지를 스캔하여 임시 레이블을 최종 레이블로 대체하는 단계를 더 포함하는 것을 특징으로 하는 지능 영상 감시를 위한 이동 객체 실시간 검출 방법.The performing of the connection element labeling using the union-find structure further comprises the step of scanning an image and replacing the temporary label with the final label.
KR1020090067119A 2009-07-23 2009-07-23 Real-Time Moving Object Detection For Intelligent Visual Surveillance KR101106448B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090067119A KR101106448B1 (en) 2009-07-23 2009-07-23 Real-Time Moving Object Detection For Intelligent Visual Surveillance

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090067119A KR101106448B1 (en) 2009-07-23 2009-07-23 Real-Time Moving Object Detection For Intelligent Visual Surveillance

Publications (2)

Publication Number Publication Date
KR20110009761A KR20110009761A (en) 2011-01-31
KR101106448B1 true KR101106448B1 (en) 2012-01-18

Family

ID=43615327

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090067119A KR101106448B1 (en) 2009-07-23 2009-07-23 Real-Time Moving Object Detection For Intelligent Visual Surveillance

Country Status (1)

Country Link
KR (1) KR101106448B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102161212B1 (en) * 2013-11-25 2020-09-29 한화테크윈 주식회사 System and method for motion detecting
KR102357680B1 (en) * 2014-11-17 2022-02-03 삼성전자주식회사 Method and device to detect movement of object based on event
KR20210008574A (en) 2019-06-17 2021-01-25 포인드 주식회사 A Real-Time Object Detection Method for Multiple Camera Images Using Frame Segmentation and Intelligent Detection POOL

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070003655A (en) * 2005-07-01 2007-01-05 제이에스알 가부시끼가이샤 Curable resin composition and cured film formed from same
KR20090041554A (en) * 2007-10-24 2009-04-29 아주대학교산학협력단 Method for detecting skin region by grid-based approach

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070003655A (en) * 2005-07-01 2007-01-05 제이에스알 가부시끼가이샤 Curable resin composition and cured film formed from same
KR20090041554A (en) * 2007-10-24 2009-04-29 아주대학교산학협력단 Method for detecting skin region by grid-based approach

Also Published As

Publication number Publication date
KR20110009761A (en) 2011-01-31

Similar Documents

Publication Publication Date Title
CN108229490B (en) Key point detection method, neural network training method, device and electronic equipment
KR101932009B1 (en) Image processing apparatus and method for multiple object detection
JP5775225B2 (en) Text detection using multi-layer connected components with histograms
CN105590319B (en) A kind of saliency method for detecting area of deep learning
CN111681273B (en) Image segmentation method and device, electronic equipment and readable storage medium
CN1875378A (en) Object detection in images
CN109685045B (en) Moving target video tracking method and system
US20220215656A1 (en) Method, apparatus, device for image processing, and storage medium
CN110827312B (en) Learning method based on cooperative visual attention neural network
CN113609896A (en) Object-level remote sensing change detection method and system based on dual-correlation attention
WO2019197021A1 (en) Device and method for instance-level segmentation of an image
CN111768415A (en) Image instance segmentation method without quantization pooling
CN111461101A (en) Method, device and equipment for identifying work clothes mark and storage medium
CN108229281B (en) Neural network generation method, face detection device and electronic equipment
Kshirsagar et al. Plant disease detection in image processing using MATLAB
KR101106448B1 (en) Real-Time Moving Object Detection For Intelligent Visual Surveillance
Nguyen et al. An improved real-time blob detection for visual surveillance
CN110363198B (en) Neural network weight matrix splitting and combining method
KR20110009596A (en) Real-time moving object detection for intelligent visual surveillance
Tan et al. Enhanced “GrabCut” tool with blob analysis in segmentation of blooming flower images
KR20140138046A (en) Method and device for processing a picture
CN112990076A (en) Data arrangement method and device based on artificial intelligence
Chaczko et al. A preliminary investigation on computer vision for telemedicine systems using OpenCV
KR20100009451A (en) Method for determining ground line
Hussain et al. Image Processing in Artificial Intelligence

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20141110

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee