KR101106448B1 - Real-Time Moving Object Detection For Intelligent Visual Surveillance - Google Patents
Real-Time Moving Object Detection For Intelligent Visual Surveillance Download PDFInfo
- Publication number
- KR101106448B1 KR101106448B1 KR1020090067119A KR20090067119A KR101106448B1 KR 101106448 B1 KR101106448 B1 KR 101106448B1 KR 1020090067119 A KR1020090067119 A KR 1020090067119A KR 20090067119 A KR20090067119 A KR 20090067119A KR 101106448 B1 KR101106448 B1 KR 101106448B1
- Authority
- KR
- South Korea
- Prior art keywords
- foreground
- moving object
- object detection
- pixel
- connection element
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
Abstract
본 발명은 이동 객체 검출 방법에서 검출 방법의 실시간 구현에 관한 것이다.The present invention relates to a real time implementation of a detection method in a moving object detection method.
이동 객체 검출은 입력 영상에서 배경과 다른 전경 객체를 찾는 것을 말하는 것으로 지능 영상 감시, HCI, 객체 기반 영상 압축 등의 여러 영상 처리 응용 분야에서 반드시 필요한 과정이다. 기존의 객체 검출 알고리즘은 상당한 계산량을 요구하여 다채널 영상 감시 응용, 또는 임베디드 시스템에서의 단일 채널의 실시간 응용에 사용하는 데 애로가 많다. 이동 객체 검출은 다음과 같은 절차를 거친다: 전경 마스크 추출, 전경 마스크 정정, 연결 요소 레이블링을 통한 블롭 분할. 보다 정확한 객체 검출을 위하여 필요한 과정인 전경 마스크 정정은 보통 열림, 닫힘 등의 모폴로지 연산을 통해 수행된다. 연결 요소 레이블링은 전경 마스크에서 연결된 픽셀들의 집합인 블롭들을 분할하여 구별한다. 모폴로지 연산은 계산량이 적지 않고 게다가 프로세싱 방법이 달라 연결 요소 레이블링 루틴과 병렬로 처리되기 어렵다. 본 발명에서는 먼저 모폴로지 연산과는 달리 연결 요소 레이블링 절차에서 사용되는 주변 픽셀 점검 과정을 활용한 전경 마스크 정정 루틴을 개발하고, 개발된 루틴을 활용하여 전경 마스크 정정과 연결 요소 레이블링이 병렬로 수행될 수있는 개선된 실시간 구현 알고리즘을 제공한다. 개선의 결과로 본 발명이 제공하는 이동 객체 검출 방법이 기존의 모폴로지 연산을 이용한 이동 객체 검출 방법 보다 정확하고 신속하게 처리됨을 실험을 통해서 확인되었다.Moving object detection refers to finding background and other foreground objects in the input image and is a necessary process in many image processing applications such as intelligent video surveillance, HCI, and object-based image compression. Existing object detection algorithms require significant computational complexity, making them difficult to use in multichannel video surveillance applications or single channel real-time applications in embedded systems. Moving object detection involves the following steps: Extract foreground mask, correct foreground mask, and segment blobs by connecting element labeling. Foreground mask correction, a process necessary for more accurate object detection, is usually performed through morphology operations such as open and closed. Linking element labeling distinguishes between blobs, which are sets of linked pixels in the foreground mask. Morphological operations are not computationally expensive and differ in processing methods, making them difficult to process in parallel with connection element labeling routines. In the present invention, first, unlike the morphology calculation, the foreground mask correction routine using the peripheral pixel checking process used in the connection element labeling procedure is developed, and the foreground mask correction and the connection element labeling can be performed in parallel using the developed routine. An improved real-time implementation algorithm is provided. As a result of the improvement, it was confirmed through experiments that the moving object detection method provided by the present invention is processed more accurately and quickly than the moving object detection method using the existing morphology calculation.
이동 객체 검출, 블롭 검출, 연결 요소 레이블링, 전경 마스크 정정, 지능형 영상 감시 Moving object detection, blob detection, connection element labeling, foreground mask correction, intelligent video surveillance
Description
본 발명이 속하는 기술 분야는 지능 영상 감시, HCI, 객체 기반 동영상 압축 등의 영상 처리 응용에서 필요한 이동 객체 검출 처리 분야이다. 본 발명에서는 획득된 동영상에서 배경과 다른 이동 객체를 기존의 방법 보다 빠르고 정확하게 검출하는 개선된 이동 객체 실시간 검출 기법 및 구현 방법을 제공한다.TECHNICAL FIELD The present invention belongs to the field of moving object detection required for image processing applications such as intelligent video surveillance, HCI, and object-based video compression. The present invention provides an improved moving object real-time detection technique and an implementation method for detecting a moving object different from a background in an acquired video faster and more accurately than a conventional method.
이동 객체 검출은 입력 영상에서 배경과 다른 전경 객체를 찾는 것을 말하는 것으로 지능 영상 감시, HCI, 객체 기반 영상 압축 등의 여러 영상 처리 응용 분야에서 필요한 과정이다[문헌 1,2]. 예를 들어, 지능 영상 감시에서는 관심 객체의 행위 분석이 요구된다. 관심 객체는 이동 객체 검출로부터 도출되며 지능 영상 감시의 성능은 얼마나 빠르고 정확하게 이동 객체를 검출할 수있느냐에 달려 있다는 것이 잘 알려져 있다 [문헌 1]. 그런데, 기존의 모폴로지 연산 이용 이동 객체 검출 알고리즘은 상당한 계산량을 요구하여 다채널 영상 감시 응용, 또는 임베디드 시스템에서의 단일 채널의 실시간 응용 구현에 사용하는 데 애로가 많다. 이동 객체 검출은 다음과 같은 절차를 거친다[문헌 1,2][도 2 참조]: 전경 마스크 추출, 전경 마스크 정정, 블롭 분할. 전경 마스크는 추출된 전경 픽셀들을 나타내는 것으로 정확한 객체 추출을 위해서 잘못 추출되거나 추출안된 것을 고치는 전경 마스크 정정 단계가 필요하며 보통 열림/닫힘 등의 모포롤지 연산이 전처리 단계로 처리되어 수행된다[문헌 3,4,5]. 한편, 전경 마스크는 다수의 블롭을 포함할 수있으므로 이들 블롭을 구분하여 분할을 해낼 필요가 있으며 연결 요소 레이블링 알고리즘[문헌 5]을 이용하여 처리된다. 블롭은 연결된 전경 픽셀들의 집합을 의미한다. 이후 분할된 블롭들을 각각 포함하는 최소 사각형 영역이 계산되고 이들 최소 사각형 영역이 객체 영역으로 검출되게 된다.Moving object detection refers to finding a background and other foreground object in the input image, which is a necessary process in various image processing applications such as intelligent video surveillance, HCI, and object-based image compression. For example, intelligent video surveillance requires analysis of the behavior of objects of interest. The object of interest is derived from moving object detection and it is well known that the performance of intelligent video surveillance depends on how fast and accurately it can detect moving objects [Ref. 1]. However, the existing morphological algorithm using a moving object detection algorithm requires a considerable amount of computation and is difficult to use for real-time application of a single channel in a multi-channel video surveillance application or an embedded system. Moving object detection goes through the following procedure [1, 2] [see Figure 2]: foreground mask extraction, foreground mask correction, blob segmentation. Foreground masks represent extracted foreground pixels. For accurate object extraction, a foreground mask correction step is required to correct incorrectly extracted or unextracted ones. A morphology paper operation such as open / close is usually performed as a preprocessing step. 4,5]. On the other hand, since the foreground mask may include a number of blobs, it is necessary to divide the blobs and divide them, and they are processed using a connection element labeling algorithm [5]. A blob is a set of connected foreground pixels. Subsequently, a minimum rectangular area including each of the divided blobs is calculated and these minimum rectangular areas are detected as the object area.
그런데, 전경 마스크 정정 과정에서 이용되는 모폴로지 연산은 계산량이 적지 않고 게다가 프로세싱 방법이 달라 연결 요소 레이블링 처리 루틴에서 사용되는 방법과 달라 연결 요소 레이블링 처리 루틴과 동시에 처리되기 어렵고, 먼저 모폴로지 연산에 의한 전경 마스크 정정 과정 처리후에 순차적으로 연결 요소 레이블링 과정이 수행된다. 모폴로지 연산 자체가 계산량이 적지 않고 전경 마스크 정정과 연결 요소 레이블링이 순차적으로 처리되기 때문에 기존의 모폴로지 연산 이용 이동 객체 검출 방법은 수행에 많이 시간이 소요된다.However, the morphology operation used in the foreground mask correction process is not small and the processing method is different so that it is difficult to be processed simultaneously with the connection element labeling processing routine, and is different from the method used in the connection element labeling processing routine. After the correction process, the connection element labeling process is performed sequentially. Since the morphology operation itself does not have a small amount of calculation and the foreground mask correction and the connection element labeling are sequentially processed, the conventional morphology calculation using moving object detection method takes a lot of time.
본 발명에서는 기존의 방법 [문헌 1,2] 에서 제공하는 방법과 다른 새로운 실시간 이동 객체 검출 기법 및 구현 방법을 제공한다. 제공되는 이동 객체 검출 기법 및 구현 방법은 모폴로지 연산을 이용하는 기존의 방법에 비해 더 신속하고 정확하다. 본 발명에서는 먼저 주변 픽셀 점검을 활용하는 전경 마스크 정정 알고리즘을 제공한다. 본 발명에서 제공하는 전경 마스크 정정 알고리즘인 ‘주변 전경 픽셀 전파’는 8개 주변 픽셀 점검을 이용하는 데 알고리즘이 모폴로지 연산 이용 전경 마스크 정정 알고리즘에 비해 단순하여 계산량이 적다. 더구나, 8 개 주변 픽셀 점검은 연결 요소 레이블링 처리 루틴에서도 활용되므로, ‘주변 전경 픽셀 전파’ 가 연결 요소 레이블링 처리 루틴 과정에 포함되어 처리될 수 있게 된다. 따라서 전경 마스크 정정은 보다 간단한 알고리즘으로 연결 요소 레이블링 처리 과정에서 함께 처리되게 되므로, 모폴로지 연산을 이용한 전경 마스크 정정 과정을 먼저 처리하고 이후 연결 요소 레이블링 과정을 순차적으로 수행하는 기존 객체 검출 방법들에 비해 수행 시간의 큰 개선을 가져 온다. 실험을 통해 제안된 이동 객체 검출 방법이 기존 방법보다 정확하고 신속하게 처리됨이 확인되었다.The present invention provides a new real-time moving object detection technique and an implementation method different from those provided by the existing methods [
[문헌 1] T. Chen, H. Haussecker, A. Bovyrin, R. Belenov, K. Rodyushkin, A. Kuranov, V. Eruhimov, "Computer Vision Workload Analysis: Case Study of Video Surveillance Systems", Intel Technology Journal, May 2005.[1] T. Chen, H. Haussecker, A. Bovyrin, R. Belenov, K. Rodyushkin, A. Kuranov, V. Eruhimov, "Computer Vision Workload Analysis: Case Study of Video Surveillance Systems", Intel Technology Journal, May 2005.
- 논문 내용 ;-Paper content;
영상 감시 응용의 예를 통하여 구현되는 컴퓨터 비젼 알고리즘들의 실행 처리 계산량에 대해 분석을 수행하고 이에 대한 설명을 기술하였다.An analysis of the execution throughput of computer vision algorithms implemented through an example of a video surveillance application is described and described.
[문헌 2] C. Stauffer C, W.E.L Grimson, "Adaptive background mixture models for real-time tracking", IEEE CVPR, 1999, pp. 244 - 252.C. Stauffer C, W.E.L Grimson, "Adaptive background mixture models for real-time tracking", IEEE CVPR, 1999, pp. 244-252.
- 논문 내용 ;-Paper content;
지능형 영상 감시에서 배경차 기법에 의한 이동 객체 검출을 위해 혼합 가우시안 모델을 제안하고 혼합 가우시안 모델 기반 이동 객체 검출이 기존 방법 보다 개선한 방법임을 실험 결과를 통해 확인한 결과를 기술하였다.We propose a mixed Gaussian model for moving object detection based on background difference technique in intelligent video surveillance, and describe the results confirmed through experimental results that the detection of moving object based on mixed Gaussian model is an improvement over the existing method.
[문헌 3] P. Soille, Morphological Image Analysis: Principles and Applications, Springer-Verlag Telos, Berlin,2003.P. Soille, Morphological Image Analysis: Principles and Applications, Springer-Verlag Telos, Berlin, 2003.
- 논문 내용 ;-Paper content;
모폴로지 연산에 대해 자세한 설명을 한 책이다.This book provides a detailed explanation of morphology operations.
[문헌 3] R. C. Gonzalez, R. E. Woods, and S. L. Eddins, Digital Image Processing using MATLAB, PrenticeHall, UpperSaddleRiver, NewJersey, 2003.R. C. Gonzalez, R. E. Woods, and S. L. Eddins, Digital Image Processing using MATLAB, Prentice Hall, Upper Saddle River, New Jersey, 2003.
- 책 내용 ;-Book content;
영상 처리 이론 및 기법을 해설한 책으로 이 가운데 영상 처리에 있어서 모폴로지 연산의 활용에 대해서도 자세한 설명을 제공하였다.This book explains the theory and techniques of image processing, and provides a detailed explanation of the use of morphology computation in image processing.
[문헌 4] E. R. Dougherty and R. A. Lotufo, Hands-on Morphological Image Processing, SPIE Press, Bellingham, 2003.[4] E. R. Dougherty and R. A. Lotufo, Hands-on Morphological Image Processing, SPIE Press, Bellingham, 2003.
- 논문 내용 ;-Paper content;
영상 처리에 있어서 모폴로지 연산에 대해 자세한 설명을 기술하였다.A detailed description of the morphology computation in image processing has been provided.
[문헌 5] L. Shapiro and G. Stockman, Computer Vision, Prentice Hall, Upper Saddle River, New Jersey, 2001.L. Shapiro and G. Stockman, Computer Vision, Prentice Hall, Upper Saddle River, New Jersey, 2001.
- 책 내용 ; -Book content;
컴퓨터 비젼 이론 및 기법을 해설한 책으로 컴퓨터 비젼에서의 모폴로지 연산의 활용 및 연결 요소 레이블링에 대해서 자세한 설명이 제공되어 있다.An explanation of computer vision theory and techniques, this book provides a detailed description of the use of morphology operations and the labeling of connected elements in computer vision.
기존 이동 객체 검출 방법들 [문헌 1,2]에서는 전경 마스크 정정에 모폴로지 연산을 이용한다. 모폴로지 연산은 첫째, 계산량이 많으며, 둘째, 이동 객체 전처리 과정인 연결 요소 레이블링 처리 루틴에서 요구되는 연산들과 공통점이 없어 병렬 처리가 이루어 지지 못해 모폴로지 연산을 이용하는 기존의 이동 객체 검출 방법은 다채널 구현이나 임베디드 시스템에서의 실시간 구현이 힘들다. 본 발명에서는 이러한 기존의 모폴로지 이용 이동 객체 방법의 과도한 수행 시간 소요 문제를 해결하는 보다 신속하고 정확한 실시간 이동 객체 검출 방법을 제공하므로써, 현실적으로 현재의 데스크 탑 컴퓨터에서 다채널 지능형 영상 감시 시스템 개발, 임베디드 지능영 영상 감시 시스템 개발, 객체 기반 영상 압축 방법의 실시간 구현 등에서의 기술적 장애를 해결하고자 한다.Existing moving object detection methods [
현재 이동 객체 검출에 필요한 연결 요소 레이블링 과정은 2단계로 수행된다. 1단계에서는 이진 이미지를 행별로 왼쪽에서 오른쪽으로 스캐닝하면서 스캔중에 전경 픽셀을 만나면 이미 스캔된 픽셀들중에 주변 전경 픽셀이 있는 지를 점검하고 만일 없으면 해당 전경 픽셀에 이제까지 할당되었던 레이블(번호)중 가장 큰 레이블 다음의 레이블을 할당하고, 있으면 스캔된 주변 전경 픽셀들의 레이블중 가장 낮은 레이블을 할당한다. 이때, 주변 전경 픽셀들의 레이블들은 모두 같은 등가 클래스에 속하게 되고 발견된 등가 클래스는 기록된다. 2단계에서는 이진 이미지를 다시 스캐닝하고 기록된 등가 레이블 클래스를 이용하여 1단계에서 할당한 레이블을 최종 레이블로 고친다.Currently, the connection element labeling process required for moving object detection is performed in two steps.
연결 요소 레이블링의 1단계 과정에서 수행하는 주변 전경 픽셀 존재 유무 점검 절차 처리 과정중에 수행될 수있는 연산량이 적은 전경 마스크 정정 기법인 ‘전경 픽셀 전파’ 알고리즘을 개발하고 제공하여, 기존의 연결 요소 레이블링 처리 루틴 수행전에 순차적으로 수행하여야 했던 모폴로지 연산 과정을 대치하도록 한다. 이로써, 계산량이 많은 모폴로지 연산을 사용하지 않고 전경 마스크 정정 과정이 적은 연산량으로 연결 요소 레이블링 작업과 동시에 처리되도록 되어 이동 객체 검출의 신속한 실시간 처리가 가능해진다.Developing and providing 'foreground pixel propagation' algorithm, a foreground mask correction technique with a small amount of computation that can be performed during the process of checking the presence of surrounding foreground pixels in the first step of linking element labeling, Replace the morphology calculation process that had to be performed sequentially before executing the routine. As a result, the foreground mask correction process is processed simultaneously with the connection element labeling operation with a small amount of computation without using a large amount of computational morphology operations, thereby enabling rapid real-time processing of moving object detection.
본 발명의 효과를 명확히 기술하기 위해 실행한 실험 및 그 결과를 기술하고, 그 효과를 정리한다.Experiments and results performed to clearly describe the effects of the present invention are described and the effects are summarized.
가. 본 발명 제공 ‘전경 픽셀 전파’ 알고리즘과 기존 모폴로지 연산 이용 방법의 전경 마스크 정정 능력 비교end. Comparison of the foreground mask correction capability of the present invention 'foreground pixel propagation' algorithm and the conventional morphology calculation method
전경 마스크 정정 능력에 대해 기존 모포롤지 연산과 본 발명에서 제공한 ‘주변 전경 픽셀 전파’ 알고리즘과 비교하였다. [도 3]은 이 비교 결과를 보여 준다. [도 3] 은 ‘주변 전경 픽셀 전파’ 알고리즘이 모폴로지 연산 이용 방법 보다 간단하면서도 전경 마스크 정정 능력이 더 좋음을 보여 준다. [도 3]에서의 전 경 마스크는 혼합 가우시안 모델을 이용하여 구하였으며, 모폴로지 연산은 닫기와 열기로 3x3 사이즈의 정사각형 구조 요소를 사용하였다. 만일 더 적절한 구조 요소를 사용하면, 모폴로지 연산 이용의 경우도 ‘전경픽셀전파’ 기법 사용 경우와 같이 좀 더 분명한 전경 마스크 정정을 얻을 수있다. 그러나, 이 경우 더 많은 연산 계산량이 필요하다.The foreground mask correction capability is compared with the existing Morphoroll paper calculation and the 'peripheral foreground pixel propagation' algorithm provided by the present invention. 3 shows the results of this comparison. FIG. 3 shows that the 'peripheral foreground pixel propagation' algorithm is simpler than the morphology calculation method and has better foreground mask correction capability. The foreground mask in FIG. 3 was obtained using a mixed Gaussian model, and the morphology calculation used square structure elements of size 3x3 as close and open. If more appropriate structural elements are used, the use of morphology calculations can yield more explicit foreground mask corrections, as is the case with the 'foreground pixel propagation' technique. However, more computational computation is needed in this case.
나. 수행시간 시간 비교I. Execution time time comparison
기존 모폴로지 연산 이용 이동 객체 검출 알고리즘(이하 기존 방법)과 본 발명 제공 이동 객체 검출 알고리즘(이하 제공 방법) 을 이용한 각각의 경우의 수행시간을 비교하기 위해 2가지 실험을 시행하였다.Two experiments were performed to compare the execution time of each case using the existing morphology calculation using the moving object detection algorithm (hereinafter, referred to as an existing method) and the present invention.
첫 번째 실험에서는 [도 3]의 전경 마스크 한 프레임에 대해 이동 객체 검출 시간을 계산하였고, 2번째 실험에서는 영상 비디오에 대해 연속적인 이동 객체 검출 수행 시간을 계산하여 비교하였다. 2개 실험 환경은 3GHz 펜티엄 4 코어 및 3GB DDR2 메모리를 갖는 윈도우즈 PC 이다. 또한, 각 영상 이미지 프레임의 해상도 는 320x240 이며, 영상 비디오 1 과 2의 크기는 각각 4.67 MB(221 프레임) 과 245MB(1117 프레임)이다.In the first experiment, the moving object detection time was calculated for one frame of the foreground mask of FIG. 3, and in the second experiment, the execution time of continuous moving object detection was calculated and compared for the video image. Two experimental environments were Windows PCs with
본 논문의 실험에서 사용된 PC 사양은 인텔 펜티엄 4 (3GHz), 3GB DDR2 RAM 을 사용하였고, 사용한 프로그램 통합 환경은 visual studio 2008 이다.The PC specification used in this paper was Intel Pentium 4 (3GHz), 3GB DDR2 RAM, and the program integration environment used was visual studio 2008.
[도 4 (a)]과 [도 4 (b)]는 각각 첫번째와 2번째 실험 결과를 보여준다.4 (a) and 4 (b) show the results of the first and second experiments, respectively.
[도 4]의 결과는 제공 방법이 기존 방법 보다 신속히 수행됨을 확인해준다.The results of FIG. 4 confirm that the providing method is performed faster than the existing method.
다. 발명의 효과All. Effects of the Invention
본 발명에서는 기존의 모폴로지 연산을 이용한 이동 객체 검출 방법 보다 개선된 ‘전경 픽셀 전파’ 기법을 이용한 이동 객체 검출 방법을 제공하였다. 제공한 이동 객체 검출 방법은 기존 모폴로지 연산 기반 이동 객체 검출 방법 보다 수행 속도와 정확한 객체 검출 능력이 개선된 방법임을 실험을 통하여 확인하였다. 제공된 개선된 이동 객체 검출 방법으로 다채널 지능 영상 감시 시스템 개발, 임베디드 지능 영상 감시 시스템 개발, 객체 기반 영상 압축 방법의 수행속도 개선 등이 가능하다.The present invention provides a moving object detection method using a 'foreground pixel propagation' technique, which is an improvement over the moving object detection method using a conventional morphology calculation. Experimental results show that the proposed moving object detection method improves execution speed and accurate object detection capability over the existing morphology-based moving object detection method. With the improved moving object detection method provided, it is possible to develop a multi-channel intelligent video surveillance system, to develop an embedded intelligent video surveillance system, and to improve the performance of the object-based video compression method.
본 발명에서 제공하는 ‘주변 전경 픽셀 전파’ 기반 이동 객체 검출 방법’의 동작 구조가 도면 1 에 표시되어 있다. 본 발명은 ‘전경 마스크 정정을 위한 모폴로지 연산 + 블롭 분할을 위한 연결 요소 레이블링’ 의 순차적 처리 과정을 모폴로지 연산 보다 간단한 ‘주변 전경픽셀 전파’ 알고리즘을 제공하고 이를 활용하여 ‘전경 마스크 정정’ 과정 및 ‘연결 요소 레이블링’ 과정이 동시에 수행될 수있도록 하므로써 신속하고 정확한 실시간 객체 검출을 수행하는 방법을 제공 한다. 본 발명 내용의 이해를 위해 먼저 연결 요소 레이블링 과정에 대한 이해가 필요하다. 연결 요소 레이블링 과정에 대한 보다 자세한 내용에 대해서는 [문헌 5]을 참조하기로 하고, 여기서는 본 발명에 관련된 ‘유니온-파인드 구조 기반 연결 요소 레이블링’ 알고리즘에 대해 소개한 후에, 본 발명의 구체적인 내용에 대해 설명한다.The operation structure of the 'peripheral foreground pixel propagation' based moving object detection method provided by the present invention is shown in FIG. 1. The present invention provides a 'foreground foreground pixel propagation' algorithm, which is simpler than the morphology calculation, and employs the sequential processing of 'morphology calculation for foreground mask correction + connection element labeling for blob division' and utilizes the 'foreground mask correction' process and ' It provides a method to perform fast and accurate real-time object detection by allowing the connection element labeling 'process to be performed simultaneously. In order to understand the contents of the present invention, an understanding of the connection element labeling process is first required. For more information on the connection element labeling process, refer to [Reference 5], and after introducing the 'union-find structure based connection element labeling' algorithm related to the present invention, Explain.
가. ‘유니온-파인드 구조 기반 연결 요소 레이블링’ 알고리즘 소개end. Introduction to the Union-Find Structure-Based Linked Element Labeling Algorithm
연결 요소 레이블링 과정은 이미지를 스캔하여 이미지 픽셀들을 픽셀들의 연결에 기반하여 블롭들을 분할하는 작업을 수행한다. 블롭은 연결된 (전경) 픽셀 픽셀들의 모임이다. 전경 마스크 이미지에서 연결 요소는 전경 픽셀을 연결된 주변으로 갖는 전경 픽셀들의 집합이다. 본 발명에서 픽셀의 주변이란 해당 픽셀의 8개 주변을 의미한다 ([도 5 참조]).The connecting element labeling process scans an image and divides the blobs based on the concatenation of the pixel pixels. A blob is a collection of concatenated (foreground) pixel pixels. In the foreground mask image, the connecting element is a collection of foreground pixels with the foreground pixel connected to it. In the present invention, the periphery of a pixel means eight peripheries of the pixel (see FIG. 5).
일단 모든 연결 요소들이 추출되면, 각 픽셀은 소속되는 연결 요소의 레이블(번호)이 할당된다. 이미지에서 분리된 연결 요소들을 추출하고 이들에게 레이블을 할당하는 작업은 지능형 영상 감시를 포함한 많은 컴퓨터 비젼 응용에서 요구되는 중요한 작업의 하나이다.Once all connecting elements are extracted, each pixel is assigned a label (number) of the connecting element to which it belongs. Extracting separate connection elements from images and labeling them is one of the important tasks required in many computer vision applications, including intelligent video surveillance.
문헌들에서 제안된 많은 연결 요소 레이블링 문제 처리 알고리즘들중 [문헌 5의 참고 문헌 참조], 가장 유망하고 효율적인 연결 요소 레이블링 알고리즘들은 보통 유니온-파인드 구조(union-find structure)를 이용한 2단계 절차로 이루어진 다.Of the many connection element labeling problem handling algorithms proposed in the literature [see reference 5], the most promising and efficient connection element labeling algorithms usually consist of a two-step procedure using a union-find structure. All.
유니온-파인드 구조는 등가 클래스(equivalence class) 를 트리 구조로 효과적으로 구축하고 조작하기 위한 것으로, 서로소 집합(disjoint set)의 모임들을 저장하고 유니온(2개 집합을 하나로 합침)과 파인드(특정 원소가 어느 집합에 속하는 지를 결정)의 연산들을 지원한다. 각 집합은 트리구조로 저장된다. 트리의 노드는 각 집합의 레이블을 나타내고 노드의 값은 부모 노드를 가르킨다. 유니온-파인드의 트리 구조는 벡터 어레이 PARENT 를 통해 표현낸다. PARENT 의 색인(subscript) 는 가능한 레이블(노드)을 나타내고 그 값은 부모 노드의 레이블을 타낸다. 0 값을 갖는 노드는 최상위 노드 (root node) 를 의미한다.The union-find structure is used to effectively build and manipulate equivalence classes in a tree structure. It stores a collection of disjoint sets, combines two sets into one, and finds To determine which set belongs to). Each set is stored in a tree structure. The nodes in the tree represent the labels of each set, and their values point to the parent node. The union-find tree structure is represented by the vector array PARENT. The index of the PARENT represents a possible label (node) and its value represents the label of the parent node. A node with a value of zero means the root node.
파인드 연산은 레이블 X 와 PARENT 벡터 어레이가 주어질 때, 레이블 X 가 나타내는 노드의 부모 노드를 계속 쫓아 올라가 레이블 X 가 있는 트리의 루트 노드의 레이블을 찾는 작업을 수행한다. 유니온 연산은 2개의 레이블 X 와 Y , PARENT 벡터 어레이가 주어질 때, 트리 구조를 변형하여 X 와 Y 를 합하는 작업을 수행한다.The find operation, given a label X and a PARENT vector array, continues to traverse the parent node of the node represented by label X to find the label of the root node of the tree with label X. The union operation transforms the tree structure and adds X and Y when given two arrays of labels X and Y and a PARENT vector.
유니언 연산은 레이블 X 와 Y에서 각각 시작하여 각 레이블의 루트 노드를 찾고 만일 X 와 Y의 루트 노드가 다르면 하나(X 또는 Y)의 레이블을 다른 하나(Y 또는 X)의 부모 노드로 한다. [도 6]은 2개 레이블 세트에 대해 유니온-파인드 구조를 보여 준다.Union operations look for the root node of each label, starting at labels X and Y respectively, and if the root nodes of X and Y are different, make one label (X or Y) the parent node of the other (Y or X). Figure 6 shows the union-find structure for two label sets.
아래에 간단히 ‘유니언-파인드 구조를 이용한 2 단계 절차 연결 요소 레이 블링 알고리즘’을 설명한다.Below is a brief description of the two-step procedural linking element labeling algorithm using a union-find structure.
첫 번째 단계에서, 알고리즘은 이진 이미지를 행별로 왼쪽에서 오른쪽으로 차례로 스캔한다. 스캔중에 전경 픽셀을 만나면 이미 스캔된 픽셀들중에 주변 전경 픽셀이 있는 지를 점검하고 (주변 전경 픽셀 점검), 만일 없으면 해당 전경 픽셀에 이제까지 할당되었던 레이블중 가장 큰 레이블 다음 레이블을 할당하고, 있으면 스캔된 주변 전경 픽셀들의 레이블중 가장 낮은 레이블을 할당한다. 이때, 주변 전경 픽셀들의 레이블들은 모두 같은 등가 클래스에 속하게 된다. 발견된 등가 클래스는 유니온-파인드 구조에 기록된다. 첫 번째 단계의 절차의 마지막에 각 등가 클래스는 완전히 결정되고 유니온-파인드 구조의 트리의 루트로 결정되는 유일한 레이블을 갖게 된다.In the first step, the algorithm scans the binary image row by row from left to right. If it encounters a foreground pixel during scanning, it checks whether there is a surrounding foreground pixel among the already scanned pixels (check the surrounding foreground pixel), and if not, assigns the next label with the largest label ever assigned to that foreground pixel, Assign the lowest label among the labels of the surrounding foreground pixels. At this time, the labels of the surrounding foreground pixels all belong to the same equivalent class. The found equivalent class is recorded in the union-find structure. At the end of the first step procedure, each equivalence class has a unique label that is fully determined and determined by the root of the tree of the union-find structure.
2번째 단계 절차는 이미지를 스캔하여 임시 레이블들을 최종 레이블로 대치된다. 최종 레이블은 각 레이블의 루트 노드의 레이블로 된다.The second step procedure scans the image and replaces the temporary labels with the final labels. The final label is the label of the root node of each label.
[도 7]은 예제 입력 이진 이미지를 보여준다. [도 7]에서 f 는 전경 픽셀을 의미하며, 그밖의 픽셀은 배경 픽셀이다.Figure 7 shows an example input binary image. In FIG. 7, f denotes a foreground pixel, and other pixels are background pixels.
[도 8] 은 앞에서 소개한 ‘유니온-파인드 구조를 이용한 연결 요소 레이블링’ 알고리즘의 [도 7]에 대한 첫단계 절차 수행 결과를 보여준다.FIG. 8 shows the result of performing the first step procedure for [FIG. 7] of the 'connecting element labeling using union-find structure' algorithm.
[도 9] 는 앞에서 소개한 ‘유니온-파인드 구조를 이용한 연결 요소 레이블링’ 알고리즘의 [도 7]에 대한 2단계 절차후의 최종 레이블링 결과를 보여준다.FIG. 9 shows the final labeling result after the two-step procedure for [FIG. 7] of the 'connected element labeling using union-find structure' algorithm.
나. 주변 전경 픽셀 전파 알고리즘I. Surround foreground pixel propagation algorithm
자연 객체들은 구멍이 있기 힘들고, 삐져 나온 부분이 있기 힘들다. 또한 고립된 소수 픽셀 집합은 관심있는 객체일 가능성이 작다. 전경 마스크 이미지의 블롭들은 자연 객체의 블롭들이다. 따라서, 전경 마스크 이미지에 보이는 전경 영역에서의 구멍은 추출되지 못한 전경 픽셀일 가능성이 매우 높다. 또한 고립된 전경 픽셀이나 삐져 나온 전경 픽셀들은 전경 픽셀로 잘못 추출되었을 가능성이 높다. 그러므로, 전경 마스크 이미지의 구멍은 주변에 많은 전경 픽셀을 가질 확률이 높고 삐져 나온 전경 픽셀이나 고립된 전경 픽셀은 주변에 배경 픽셀을 가질 가능성이 높다.Natural objects are less likely to have holes and less protruding parts. Also, isolated fractional pixel sets are less likely to be objects of interest. The blobs of the foreground mask image are the blobs of the natural object. Thus, the hole in the foreground area visible in the foreground mask image is very likely a foreground pixel that has not been extracted. Also, isolated foreground pixels or protruding foreground pixels are most likely incorrectly extracted as foreground pixels. Therefore, holes in the foreground mask image are more likely to have many foreground pixels around, and protruding foreground or isolated foreground pixels are more likely to have background pixels around.
여기서, 픽셀 X 의 전경 주변 확률 P(X) 를 해당 픽셀 X 의 8 주변 ([도 5] 참조) 중 전경 픽셀일 비율로 정의한다.Here, the foreground periphery probability P (X) of the pixel X is defined as the ratio of the foreground pixel among the eight peripheries of the pixel X (see FIG. 5).
이러한 관찰로부터 본 발명에서는 전경 마스크 정정 방법인 ‘주변 전경 픽셀 전파’ 알고리즘을 제공한다.From this observation, the present invention provides an 'peripheral foreground pixel propagation' algorithm, which is a foreground mask correction method.
<주변 전경 픽셀 전파 알고리즘>Peripheral foreground pixel propagation algorithm
픽셀의 값이 2가지인 전경 마스크 이미지( 값 1은 전경 픽셀을, 값 0은 배경 픽셀을 의미)에서, 전경 마스크 정정은 다음과 같이 이루어 진다.In a foreground mask image with two pixel values (
전경 마스크 이미지를 행별로 왼쪽에서 오른쪽으로 스캐닝할 때, 해당 픽셀의 정정은 다음과 같이 전경 주변 확률이 0.5 이상이면, 전경 픽셀(값 1)로, 확률이 0.5 미만이면 배경 픽셀(값 0)로 한다. 즉,When scanning a foreground mask image row-by-row from left to right, the correction of that pixel is to the foreground pixel (value 1) if the foreground margin is greater than 0.5, and to the background pixel (value 0) if the probability is less than 0.5: do. In other words,
‘주변 전경 픽셀 전파 ’ 알고리즘 수행의 예가 [도 10]에 나타나 있다.An example of performing the 'peripheral foreground pixel propagation' algorithm is shown in FIG. 10.
[도 11]은 적응적 가우시안 혼합 모델[문헌 2]을 이용하여 얻어진 전경 마스크에 ‘주변 전경픽셀 전파’ 알고리즘을 적용한 결과 이미지의 예를 보여 준다. ‘주변 전경 픽셀 전파’ 알고리즘 적용후에 전경 마스크의 블롭들이 더 분명해지고 채워졌음을 볼 수있다.FIG. 11 shows an example of an image of the result of applying the 'peripheral foreground pixel propagation' algorithm to the foreground mask obtained using the adaptive Gaussian mixture model [Document 2]. We can see that the blobs in the foreground mask are more apparent and filled after the 'peripheral foreground pixel propagation' algorithm is applied.
‘주변 전경픽셀 전파’ 알고리즘은 간단하지만 좋은 전경 마스크 정정 결과를 보여 준다. 이러한 좋은 전경 마스크 정정 성질에 더하여 보다 중요한 특성은 연결 요소 레이블링 과정 루틴 처리중에 수행될 수있다는 점이다. 이는 ‘주변 전경 픽셀 전파’ 알고리즘과 ‘연결 요소 레이블링’ 알고리즘이 모두 주변 전경 픽셀 점검을 활용하기 때문이다.The Peripheral Foreground Pixel Propagation algorithm demonstrates a simple but good foreground mask correction. In addition to this good foreground mask correction property, a more important feature is that it can be performed during the connection element labeling process routine processing. This is because both the Peripheral Foreground Pixel Propagation algorithm and the Connected Element Labeling algorithm both utilize surrounding foreground pixel checks.
이러한 특성은 이동 개체 검출에 계산량을 많이 줄일 수있다. 이러한 특성에 기반하여, 본 논문에서는 새로운 이동 객체 검출 방법을 제공한다. 제공한 이동 객체 검출 방법은 기존 모폴로지 연산 기반 이동 객체 검출 알고리즘보다 더 빠르고 정확하다.These characteristics can reduce a lot of computation in moving object detection. Based on these characteristics, this paper provides a new moving object detection method. The proposed moving object detection method is faster and more accurate than the existing morphology calculation based moving object detection algorithm.
다. 주변 전경 픽셀 전파 기반 실시간 이동 객체 검출 방법All. Real-time moving object detection method based on surrounding foreground pixel propagation
본 발명에서 제공하는 주변 전경픽셀 전파 기반 이동 객체 검출 방법은 유니온-파인드 구조 기반 연결 요소 레이블링 방법과 주변 전경픽셀 전파 방법을 결합한 것으로 동작 구조는 [도 1] 과 같다.The surrounding foreground pixel propagation-based moving object detection method provided by the present invention combines a union-find structure-based connection element labeling method and a surrounding foreground pixel propagation method. The operation structure is as shown in FIG. 1.
제공된 주변 전경 픽셀 전파 기반 이동 객체 검출 방법은 기존 유니온-파인드 연결 요소 레이블링과 마찬가지로 2단계 절차로 수행된다. 다만, 모폴로지 연산 전처리후 유니온-파인드 연결 요소 레이블링이 수행되던 기존 방법과 달리 유니온-파인드 연결 요소 레이블링 수행중에 모폴로지 연산보다 더 간단한 전경 마스크 정정 방법인 ‘주변 전경 픽셀 전파’ 알고리즘이 1단계에서 동시에 수행되도록 되어 계산량이 줄어 든다. 1단계에서는 연결 요소 레이블링과 ‘주변 전경 픽셀 전파’를 이용한 전경 마스크 정정, 그리고 유니온-파인드 구조 가 구축되며 2단계에서 구축된 유니온-파인드 구조를 이용하여 임시로 할당된 블롭들의 레이블이 정정된다. 이후, 각 레이블의 블롭을 포함하는 최소 사각 영역이 계산된다.
라. 본 발명의 지능 영상 감시를 위한 이동 객체 실시간 검출 구현 방법
본 발명에서 제공하는 지능 영상 감시를 위한 이동 객체 실시간 검출 방법은 주변 전경픽셀 전파 기반 이동 객체 검출 방법으로 유니온-파인드 구조 기반 연결 요소 레이블링 방법과 주변 전경픽셀 전파 방법을 결합한 것이며 동작 구조는 [도 1] 과 같으며 2단계([도 1]의 20 과정 및 30 과정)로 구현된다.
먼저 적응 혼합 가우시안 모델링 등에 의하여 추출된 이진 전경 마스크 ([도 1]의 10)가 입력되면, 본 발명의 지능 영상 감시를 위한 이동 객체 실시간 검출 구현의 1단계([도 1]의 20 과정)에서는 8주변 픽셀을 점검하고([도 1]의 21 과정), 나)에서 설명한 ‘주변 전경 픽셀 전파 알고리즘’를 이용하여 전경 마스크를 정정한다([도 1]의 22 과정). 이때 동시에, 유니온-파인드 구조 기반 1차 연결 요소 레이블링이 수행된다 ([도 1]의 23 과정). 2단계([도 1]의 30 과정)에서 구축된 유니온-파인드 구조를 이용하여 임시로 할당된 블롭들의 레이블이 최종 확정된다([도 1]의 31 과정). 이후, 각 레이블의 블롭을 포함하는 최소 사각 영역이 계산된다([도 1]의 32 과정). 이 때, 이동 객체 리스트가 작성되어 출력된다 (([도 1]의 40 과정).The provided surrounding foreground pixel propagation based moving object detection method is performed in a two-step procedure as with the existing union-find connection element labeling. However, unlike the conventional method in which union-find connection element labeling is performed after preprocessing morphology calculation, 'peripheral foreground pixel propagation' algorithm, which is a simpler foreground mask correction method, is executed simultaneously in
la. Implementation method of real time detection of moving object for intelligent video surveillance of the present invention
The moving object real-time detection method for intelligent video surveillance provided by the present invention combines a union-find structure-based connection element labeling method and a surrounding foreground pixel propagation method as a moving object detection method based on surrounding foreground pixels. ] And is implemented in two steps (20 and 30 steps of [Fig. 1]).
First, if a binary foreground mask (10 of FIG. 1) extracted by adaptive mixed Gaussian modeling is input, in the first stage (20 of FIG. 1) of real-time detection of moving object for intelligent video surveillance of the present invention The pixels around 8 are checked (step 21 of FIG. 1), and the foreground mask is corrected using the 'peripheral foreground pixel propagation algorithm' described in step 2) (
본 발명은 다채널 지능 영상 감시 시스템 개발, 임베디드 지능 영상 감시 시스템 개발, 객체 기반 동영상 영상 압축, HCI 등 이동 객체 검출을 필요로 하는 영상 처리 및 컴퓨터 비젼 응용 소프트웨어 개발 및 시스템 개발에 적용될 수 있다.The present invention can be applied to the development of multi-channel intelligent video surveillance system, embedded intelligent video surveillance system, object-based video image compression, image processing and computer vision application software and system development requiring moving object detection such as HCI.
1) 도 1은 본 발명에서 제공하는 ‘주변 전경 픽셀 전파’ 기반 이동 객체 검출 방법’의 동작 구조1) FIG. 1 is a view illustrating an operation structure of a moving object detection method based on 'peripheral foreground pixel propagation' provided by the present invention.
2) 도 2는 이동 객체 검출 과정의 이미지들로 (a)는 원 이미지, (b)는 전경 마스크 이미지, (c)는 정정된 전경 마스크 이미지 , (d) 는 검출된 이동 객체 이미지2) FIG. 2 shows images of a moving object detection process, (a) an original image, (b) a foreground mask image, (c) a corrected foreground mask image, and (d) a detected moving object image
3) 도 3은 본 발명 제공 ‘전경 픽셀 전파’ 알고리즘과 기존 모폴로지 연산 이용 방법의 전경 마스크 정정 능력 비교 결과 이미지들3 is a comparison result image of the foreground mask correction ability of the present invention 'foreground pixel propagation' algorithm and the conventional morphology calculation method
4) 도 4는 본 발명 제공 이동 객체 검출 방법과 기존 모포롤지 기반 이동 객체 검출 방 법과의 수행 시간 비교 실험 결과로도 4(a) 는 첫 번째 실험 결과, 도 4(b)는 2번째 실험 결과4 is a comparison result of execution time between the present invention-provided moving object detection method and the existing Morphoroll paper-based moving object detection method. FIG. 4 (a) shows the first test result, and FIG.
5) 도 5는 해당 픽셀의 8개의 주변 픽셀5) 8 peripheral pixels of the pixel
6) 도 6은 2개 레이블 세트에 대해 유니온-파인드 구조6) Figure 6 shows a union-find structure for two label sets.
7) 도 7은 예제 입력 이진 이미지7) Figure 7 is an example input binary image
8) 도 8은 ‘유니온-파인드 구조를 이용한 연결 요소 레이블링’ 알고리즘의 [도 7]에 대한 첫단계 절차 수행 결과8) FIG. 8 shows the result of performing the first step procedure for [FIG. 7] of the 'connection element labeling using union-find structure' algorithm.
9) 도 9는 ‘유니온-파인드 구조를 이용한 연결 요소 레이블링’ 알고리즘의 [도 7]에 대한 2단계 절차 수행 후의 최종 레이블링 결과9) FIG. 9 shows the final labeling result after the two-step procedure for [FIG. 7] of the 'connecting element labeling using the union-find structure' algorithm.
10) 도 10은 [발명의 실시를 위한 구체적인 내용]의 나)항에서 설명한 본 발명이 제공하는 ‘주변 전경 픽셀 전파’ 알고리즘 수행의 예10) FIG. 10 shows an example of performing the 'peripheral foreground pixel propagation' algorithm provided by the present invention described in b) of [the detailed description of the invention].
11) 도 11은 적응적 가우시안 혼합 모델[문헌 2]을 이용하여 얻어진 전경 마스크에 ‘주변 전경 픽셀 전파’ 알고리즘을 적용한 결과 이미지의 예11) FIG. 11 shows an example of an image of the result of applying the 'peripheral foreground pixel propagation' algorithm to the foreground mask obtained using the adaptive Gaussian mixture model [Document 2].
Claims (3)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090067119A KR101106448B1 (en) | 2009-07-23 | 2009-07-23 | Real-Time Moving Object Detection For Intelligent Visual Surveillance |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090067119A KR101106448B1 (en) | 2009-07-23 | 2009-07-23 | Real-Time Moving Object Detection For Intelligent Visual Surveillance |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110009761A KR20110009761A (en) | 2011-01-31 |
KR101106448B1 true KR101106448B1 (en) | 2012-01-18 |
Family
ID=43615327
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090067119A KR101106448B1 (en) | 2009-07-23 | 2009-07-23 | Real-Time Moving Object Detection For Intelligent Visual Surveillance |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101106448B1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102161212B1 (en) * | 2013-11-25 | 2020-09-29 | 한화테크윈 주식회사 | System and method for motion detecting |
KR102357680B1 (en) * | 2014-11-17 | 2022-02-03 | 삼성전자주식회사 | Method and device to detect movement of object based on event |
KR20210008574A (en) | 2019-06-17 | 2021-01-25 | 포인드 주식회사 | A Real-Time Object Detection Method for Multiple Camera Images Using Frame Segmentation and Intelligent Detection POOL |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070003655A (en) * | 2005-07-01 | 2007-01-05 | 제이에스알 가부시끼가이샤 | Curable resin composition and cured film formed from same |
KR20090041554A (en) * | 2007-10-24 | 2009-04-29 | 아주대학교산학협력단 | Method for detecting skin region by grid-based approach |
-
2009
- 2009-07-23 KR KR1020090067119A patent/KR101106448B1/en not_active IP Right Cessation
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070003655A (en) * | 2005-07-01 | 2007-01-05 | 제이에스알 가부시끼가이샤 | Curable resin composition and cured film formed from same |
KR20090041554A (en) * | 2007-10-24 | 2009-04-29 | 아주대학교산학협력단 | Method for detecting skin region by grid-based approach |
Also Published As
Publication number | Publication date |
---|---|
KR20110009761A (en) | 2011-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108229490B (en) | Key point detection method, neural network training method, device and electronic equipment | |
KR101932009B1 (en) | Image processing apparatus and method for multiple object detection | |
JP5775225B2 (en) | Text detection using multi-layer connected components with histograms | |
CN105590319B (en) | A kind of saliency method for detecting area of deep learning | |
CN111681273B (en) | Image segmentation method and device, electronic equipment and readable storage medium | |
CN1875378A (en) | Object detection in images | |
CN109685045B (en) | Moving target video tracking method and system | |
US20220215656A1 (en) | Method, apparatus, device for image processing, and storage medium | |
CN110827312B (en) | Learning method based on cooperative visual attention neural network | |
CN113609896A (en) | Object-level remote sensing change detection method and system based on dual-correlation attention | |
WO2019197021A1 (en) | Device and method for instance-level segmentation of an image | |
CN111768415A (en) | Image instance segmentation method without quantization pooling | |
CN111461101A (en) | Method, device and equipment for identifying work clothes mark and storage medium | |
CN108229281B (en) | Neural network generation method, face detection device and electronic equipment | |
Kshirsagar et al. | Plant disease detection in image processing using MATLAB | |
KR101106448B1 (en) | Real-Time Moving Object Detection For Intelligent Visual Surveillance | |
Nguyen et al. | An improved real-time blob detection for visual surveillance | |
CN110363198B (en) | Neural network weight matrix splitting and combining method | |
KR20110009596A (en) | Real-time moving object detection for intelligent visual surveillance | |
Tan et al. | Enhanced “GrabCut” tool with blob analysis in segmentation of blooming flower images | |
KR20140138046A (en) | Method and device for processing a picture | |
CN112990076A (en) | Data arrangement method and device based on artificial intelligence | |
Chaczko et al. | A preliminary investigation on computer vision for telemedicine systems using OpenCV | |
KR20100009451A (en) | Method for determining ground line | |
Hussain et al. | Image Processing in Artificial Intelligence |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20141110 Year of fee payment: 4 |
|
LAPS | Lapse due to unpaid annual fee |