KR20090111207A - Mothed for classifying Surveillance object and Surveillance system thereof - Google Patents

Mothed for classifying Surveillance object and Surveillance system thereof Download PDF

Info

Publication number
KR20090111207A
KR20090111207A KR1020080036848A KR20080036848A KR20090111207A KR 20090111207 A KR20090111207 A KR 20090111207A KR 1020080036848 A KR1020080036848 A KR 1020080036848A KR 20080036848 A KR20080036848 A KR 20080036848A KR 20090111207 A KR20090111207 A KR 20090111207A
Authority
KR
South Korea
Prior art keywords
image
hilbert
representative
outline
input
Prior art date
Application number
KR1020080036848A
Other languages
Korean (ko)
Other versions
KR101299238B1 (en
Inventor
최정환
백영민
최진영
Original Assignee
삼성테크윈 주식회사
재단법인서울대학교산학협력재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성테크윈 주식회사, 재단법인서울대학교산학협력재단 filed Critical 삼성테크윈 주식회사
Priority to KR1020080036848A priority Critical patent/KR101299238B1/en
Publication of KR20090111207A publication Critical patent/KR20090111207A/en
Application granted granted Critical
Publication of KR101299238B1 publication Critical patent/KR101299238B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/14Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: A monitor distinguishing method and a monitoring system for detecting an object are provided to improve the performance of the monitoring system due to the quick search of the object. CONSTITUTION: A monitoring system for detecting an object is as follows. An input image about the monitoring region is input(S110). The detection image about the monitoring target area is detected the mobile object is detected with the monitoring object(S120). The detection image is converted to the Hilbert image(S130). The identification object is selected as an object of the target image.

Description

감시 물체 식별 방법 및 그 감시 시스템{Mothed for classifying Surveillance object and Surveillance system thereof}Surveillance object identification method and its monitoring system {Mothed for classifying Surveillance object and Surveillance system

본 발명은 감시 물체 식별 방법 및 그 감시 시스템에 관한 것으로서, 보다 상세하게는 카메라가 특정 지역에 설치되어 특정 영역을 감시 영역으로 하여 감시하고, 감시 영역 내의 움직이는 물체를 탐지하는 감시 물체 식별 방법 및 그 감시 시스템에 관한 것이다.The present invention relates to a method for identifying a surveillance object and a monitoring system thereof, and more particularly, to a surveillance object identification method for monitoring a specific area as a surveillance area and detecting a moving object within the surveillance area by installing a camera in a specific area. It relates to a surveillance system.

감시 시스템은 특정 장소에 또는 이동식으로 설치된 카메라를 통하여 입력되는 영상을 처리하여 대상을 인식하고, 특정 지역을 감시하는 시스템이다. 이러한 감시 시스템은 소수의 관리자로 하여금 원거리 현장에서 발생하는 각종 상황에 대하여 효율적인 관제 또는 관리를 가능하게 한다. Surveillance system is a system that recognizes the target by processing the image inputted through a camera installed in a specific place or a mobile, and monitors a specific area. Such a surveillance system enables a small number of managers to efficiently control or manage various situations occurring at remote sites.

이러한 감시 시스템은 현대 사회에서 날로 다양해지는 각종 반사회적인 범죄행위에 대해 소수의 인원으로 가장 효율적으로 대응하기 위한 수단으로의 역할을 수행하며, 각종 사고의 발생 유무를 판단할 수 있는 정보 매개체로서 활용할 수 있다. This surveillance system serves as a means to most effectively respond to various anti-social criminal acts in the modern society with a small number of persons and can be used as an information medium for judging the occurrence of various accidents. .

인간중심의 감시 시스템은 피로와 주의력 저하로 인한 문제가 발생할 수 있 고, 단순한 영상 장비 중심의 감시/경비 시스템은 감시범위에 한계가 있다. 따라서, 영상 감시 시스템이 주목받는다. Human-centered surveillance systems can cause problems due to fatigue and reduced attention, and simple video equipment-based surveillance and security systems have limited coverage. Thus, the video surveillance system attracts attention.

이러한 영상 감시 시스템을 효율적으로 운용할 수 있도록, 영상 감시 시스템에는 탐지된 물체의 형태 및 색상 정보 등을 바탕으로 탐지된 물체가 어떤 개체에 속하는 지를 알아낼 수 있다. 즉, 탐지된 물체에 대해 판단한 정보를 사용자에게 전달함으로서, 단순히 현재 영상만 전송하는 것이 아닌 지능적 감시 시스템을 구성할 수 있는 기반을 마련할 수 있다. In order to efficiently operate the video surveillance system, the video surveillance system can find out which object the detected object belongs to based on the shape and color information of the detected object. In other words, by transmitting the information determined about the detected object to the user, it is possible to provide a basis for configuring an intelligent surveillance system, not just transmitting the current image.

본 발명은, 사람 또는 차 등 구체적인 사물에 대한 대표 모델을 설정하고, 입력 영상에서 탐지된 물체를 대표 모델과 비교하여 물체를 효율적으로 식별할 수 있는 감시 물체 식별 방법 및 그 감시 시스템을 제공하는 것을 목적으로 한다. The present invention provides a monitoring object identification method and a monitoring system for establishing a representative model for a specific object such as a person or a car and comparing the detected object in the input image with the representative model to efficiently identify the object. The purpose.

본 발명은, (a) 입력 영상을 입력받는 단계; (b) 상기 입력 영상에서 움직이는 물체를 감시 대상으로 탐지하고, 상기 입력 영상에서 상기 감시 대상의 영역에 대한 검출 영상을 검출하는 단계; 및 (c) 상기 검출 영상을 힐버트 공간의 힐버트 영상으로 변환하고, 상기 힐버트 영상을 적어도 하나 이상의 대표 영상들과 비교하여 가장 유사한 대표 영상의 물체를 식별 물체로 선정하는 단계를 구비하는 감시 물체 식별 방법을 제공한다. The present invention, (a) receiving an input image; (b) detecting a moving object from the input image as a monitoring target, and detecting a detection image of the area of the monitoring target from the input image; And (c) converting the detected image into a Hilbert image in Hilbert space, comparing the Hilbert image with at least one representative image, and selecting an object of the representative image that is most similar as the identification object. To provide.

상기 (a) 단계에 상기 입력 영상이 설정된 시간 간격의 프레임 영상으로 입력되고, 상기 (b) 단계에서 2 이상의 프레임 영상을 비교하여, 배경 영상과 현재 영상을 추출하고, 상기 배경 영상과 상기 현재 영상의 차이로부터 상기 감시 대상을 탐지할 수 있다.In step (a), the input image is input as a frame image of a predetermined time interval, and in step (b), two or more frame images are compared to extract a background image and a current image, and the background image and the current image. The monitored object can be detected from the difference of.

상기 (c) 단계가, (c1) 상기 검출 영상을 힐버트 공간으로 변환하기 위하여 전처리하여 전처리 영상을 생성하는 단계, (c2) 상기 전처리 영상을 힐버트 공간으로 매핑하여 힐버트 영상을 생성하는 단계, (c3) 상기 힐버트 영상을 상기 대표 영상들과 비교하는 단계, 및 (c4) 상기 대표 영상들 중에서 상기 힐버트 영상과 가장 유사한 것으로 판단되는 영상의 물체를 식별 물체로 선정하는 단계를 구비할 수 있다. (C) step (c1) generating a preprocessed image by preprocessing the transformed image into a hilbert space, (c2) generating a hilbert image by mapping the preprocessed image to a hilbert space, (c3 Comparing the Hilbert image with the representative images, and (c4) selecting an object of an image determined to be the most similar to the Hilbert image among the representative images as the identification object.

상기 (c1) 단계가, 상기 검출 영상을 이진 영상으로 변환하여 상기 감시 대상의 물체 모양을 얻는 단계, 상기 물체 모양의 외곽선을 추출하는 단계, 및 상기 전처리 영상이 상기 외곽선을 가로 및 세로의 비를 유지하면서 포함하고, 상기 외곽선을 포함하는 영상을 정방형 형상이 되도록 변형하여 상기 전처리 영상을 생성하는 단계를 구비할 수 있다. The step (c1) may include converting the detected image into a binary image to obtain an object shape of the object to be monitored, extracting an outline of the object shape, and the pre-processing image may have a ratio of width and length to the outline. And maintaining and deforming the image including the outline to have a square shape to generate the preprocessed image.

상기 (c2) 단계가, 미리 설정된 힐버트 차수에 의하여 힐버트 커브를 생성하는 단계, 상기 전처리 영상을 상기 힐버트 차수에 따라 2차원으로 분할된 분할 영상을 생성하는 단계, 상기 분할 영상을 상기 힐버트 커브를 따라 1차원의 힐버트 영상으로 변환하는 단계를 구비할 수 있다. In the step (c2), generating a Hilbert curve according to a preset Hilbert order, generating a split image obtained by dividing the preprocessed image into two dimensions according to the Hilbert order, and splitting the divided image along the Hilbert curve. And converting the HD into a one-dimensional Hilbert image.

상기 힐버트 차수에 따라 각각의 상기 대표 영상들에 대하여 상기 힐버트 커브에 따른 1차원 힐버트 영상을 대표 영상으로 생성하는 단계를 더 구비할 수 있다.The method may further include generating a representative image of the one-dimensional Hilbert image according to the Hilbert curve for each of the representative images according to the Hilbert order.

상기 (c3) 단계가, 상기 힐버트 영상의 각각의 분할 영역과 상기 대표 영상의 각각의 분할 영역의 외곽선이 존재하는 분할 영역에 서로 다른 픽셀값을 할당하는 단계, 상기 힐버트 영상의 픽셀값과 상기 대표 영상의 픽셀값을 합하여 각각의 분할 영역에 대하여 가산 픽셀값을 구하는 단계, 상기 힐버트 영상으로부터 상기 대표 영상에 대하여 상기 가산 픽셀값으로부터 가까운 외곽선이 존재하는 상기 분할 영역의 제1 거리값들을 구하는 단계, 상기 대표 영상으로부터 상기 힐버트 영상 에 대하여 상기 가산 픽셀값으로부터 가까운 외곽선이 존재하는 상기 분할 영역의 제2 거리값들을 구하는 단계, 및 상기 제1 거리값들과 상기 제2 거리값들로부터 상기 힐버트 영상의 각각의 상기 대표 영상들에 대한 유사도를 측정하는 단계를 구비할 수 있다.The step (c3) may include assigning different pixel values to each divided region of the Hilbert image and a divided region having an outline of each divided region of the representative image, wherein the pixel value and the representative of the Hilbert image Adding the pixel values of the image to obtain an added pixel value for each divided region, obtaining first distance values of the divided region having an outline near the added pixel value from the Hilbert image for the representative image; Obtaining second distance values of the divided region in which the outline near the added pixel value exists from the representative image from the representative image, and from the first distance values and the second distance values, The method may further include measuring similarity with respect to each of the representative images.

상기 제1 거리값들과 상기 제2 거리값들의 합한 값을 상기 힐버트 영상을 구성하는 분할 영상의 수로 나누어 상기 유사도를 측정하고, 상기 유사도에 의하여, 상기 힐버트 영상과 상기 대표 영상이 유사한 정도를 비교할 수 있다.The similarity is measured by dividing the sum of the first distance values and the second distance values by the number of split images constituting the Hilbert image, and comparing the similarity between the Hilbert image and the representative image based on the similarity. Can be.

상기 힐버트 영상에 대하여 상기 유사도가 가장 작은 상기 대표 영상의 물체를 상기 식별 물체로 선정하고, 선정된 식별 물체에 대한 상기 대표 영상의 유사도가 설정된 기준값보다 큰 경우에 모르는 물체로 식별할 수 있다.The object of the representative image having the smallest similarity with respect to the Hilbert image may be selected as the identification object, and may be identified as an unknown object when the similarity of the representative image with respect to the selected identification object is larger than a predetermined reference value.

본 발명의 다른 측면은, 입력 영상을 입력받는 영상 입력부; 상기 입력 영상에서 움직이는 물체를 감시 대상으로 탐지하고, 상기 입력 영상에서 상기 감시 대상의 영역에 대한 검출 영상을 검출하고, 상기 검출 영상을 힐버트 공간의 힐버트 영상으로 변환하고, 상기 힐버트 영상을 적어도 하나 이상의 대표 영상들과 비교하여 가장 유사한 대표 영상의 물체를 식별 물체로 선정하는 제어부; 및 상기 대표 영상들이 저장되는 저장부를 구비하는 감시 시스템을 제공한다. Another aspect of the invention, the image input unit for receiving an input image; Detecting a moving object in the input image as a monitoring object, detecting a detection image of the area of the monitoring object in the input image, converting the detected image into a Hilbert image in Hilbert space, and converting the Hilbert image into at least one A controller configured to select an object of the representative image most similar to the representative images as the identification object; And a storage unit in which the representative images are stored.

각각의 상기 프레임 영상에서 상기 검출 영상이 배경 영상에 대하여 구분되어 표시되는 표시부를 더 구비할 수 있다.The display unit may further include a display unit in which the detected image is separately displayed with respect to a background image in each of the frame images.

본 발명에 따른 감시 물체 식별 방법 및 그 감시 시스템에 의하면, 영상 감 시에서 움직이는 물체의 탐지 및 식별을 빠르게 할 수 있도록 함으로써, 감시 시스템의 성능을 향상시킬 수 있다. According to the monitoring object identification method and the monitoring system according to the present invention, it is possible to quickly detect and identify the moving object in the video surveillance, it is possible to improve the performance of the monitoring system.

이하, 첨부된 도면을 참조하여 바람직한 실시예에 따른 본 발명을 상세히 설명하기로 한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 바람직한 실시예인 감시 물체 식별 방법(S100)의 흐름도가 도시되어 있다. 이때, 감시 물체 식별 방법(S100)은 도 7의 감시 시스템(70)에 의하여 구현될 수 있다. 이를 위하여, 본 발명에 따른 감시 물체 식별 방법(S100)이 도 7의 저장부(73)에 저장되는 소프트웨어(software) 또는 펌웨어(Firmware) 등의 프로그램 또는 알고리즘이 될 수 있다. 1 is a flowchart of a method S100 for identifying a monitored object, which is a preferred embodiment according to the present invention. In this case, the monitoring object identification method S100 may be implemented by the monitoring system 70 of FIG. 7. To this end, the monitoring object identification method S100 according to the present invention may be a program or algorithm such as software or firmware stored in the storage unit 73 of FIG. 7.

도면을 참조하면, 감시 물체 식별 방법(S100)은 입력영상 입력단계(S110); 움직이는 물체 탐지단계(S120); 및 대상물체 식별단계(S130 내지 S170)를 구비할 수 있다. Referring to the drawings, the monitoring object identification method (S100) includes an input image input step (S110); Moving object detection step (S120); And object identification steps S130 to S170.

입력영상 입력단계(S110)에는 감시 대상이 되는 감시 영역에 대한 입력 영상을 입력받는다. 움직이는 물체 탐지단계(S120)에는 입력 영상에서 움직이는 물체를 감시 대상으로 탐지하고, 입력 영상에서 감시 대상의 영역에 대한 검출 영상을 검출한다. In the input image input step S110, an input image of a surveillance region to be monitored is received. In the moving object detecting step (S120), a moving object is detected as a monitoring object in the input image, and a detection image of a region of the monitoring object is detected from the input image.

감시물체 식별단계(S130 내지 S170)에는 검출 영상을 힐버트 공간의 힐버트 영상으로 변환하고, 힐버트 영상을 복수개의 대표 영상들과 비교하여 가장 유사한 대표 영상의 물체를 식별 물체로 선정한다. In the monitoring object identification steps S130 to S170, the detected image is converted into a Hilbert image in the Hilbert space, and the object of the most representative representative image is selected as the identification object by comparing the Hilbert image with the plurality of representative images.

감시 물체 식별 방법(S100)은 사람 또는 차 등 구체적인 사물에 대한 대표 모델들을 설정하고, 입력 영상에서 탐지된 감시 대상 물체를 대표 모델들과 비교하여, 대표 모델들 중에서 감시 대상 물체와 가장 유사한 물체를 식별 물체로 식별한다. The method for identifying a monitored object (S100) sets representative models for a specific object such as a person or a car, compares the monitored object detected in the input image with the representative models, and selects the object most similar to the monitored object among the representative models. Identifies it as an identification object.

입력영상 입력단계(S110)에는 입력 영상이 설정된 시간 간격의 프레임 영상으로 입력될 수 있다. 이 경우, 움직이는 물체 탐지단계(S120)에 2 이상의 프레임 영상을 비교하여, 배경 영상과 현재 영상을 추출하고, 상기 배경 영상과 상기 현재 영상의 차이로부터 상기 감시 대상을 탐지할 수 있다. In the input image input step S110, the input image may be input as a frame image at a set time interval. In this case, the moving object detection step (S120) may compare two or more frame images, extract a background image and a current image, and detect the surveillance object from the difference between the background image and the current image.

움직이는 물체 탐지단계(S120)에는 입력 영상에서 움직이는 물체를 감시 대상으로 탐지하고, 입력 영상에서 감시 대상의 영역에 대한 검출 영상을 검출한다. 이때, 입력 영상에서 배경 영역을 추출하고, 해당 부분을 모델링하며, 모델링 된 연산과 비교를 통해 움직이는 영역을 검출하는 알고리즘에 의하여 검출 영상을 검출할 수 있다. In the moving object detecting step (S120), a moving object is detected as a monitoring object in the input image, and a detection image of a region of the monitoring object is detected from the input image. In this case, the detection image may be detected by an algorithm for extracting a background region from an input image, modeling a corresponding portion, and detecting a moving region through comparison with a modeled operation.

감시물체 식별단계(S130 내지 S170)는 전처리 단계(S130), 힐버트 영상 생성단계(S140, S150), 영상 비교단계(S160), 및 식별물체 선정단계(S170)를 구비할 수 있다. The monitoring object identification steps S130 to S170 may include a preprocessing step S130, a Hilbert image generation step S140 and S150, an image comparison step S160, and an identification object selection step S170.

전처리 단계(S130)에는 검출 영상을 힐버트 공간으로 변환하기 위하여 전처리하여 전처리 영상을 생성한다. 힐버트 영상 생성단계(S140, S150)에는 전처리 영상을 힐버트 공간으로 매핑하여 힐버트 영상을 생성한다. In the preprocessing step (S130), the preprocessed image is generated by preprocessing the transformed image into the Hilbert space. In the Hilbert image generation steps (S140 and S150), the Hilbert image is generated by mapping the preprocessed image into the Hilbert space.

영상 비교단계(S160)에는 힐버트 영상을 상기 대표 영상들과 비교한다. 식별 물체 선정단계(S170)에는 대표 영상들 중에서 힐버트 영상과 가장 유사한 것으로 판단되는 영상의 물체를 식별 물체로 선정한다. In the image comparison step (S160), the Hilbert image is compared with the representative images. In the identifying object selecting step (S170), the object of the image determined to be the most similar to the Hilbert image among the representative images is selected as the identifying object.

전처리 단계(S130)에는 검출된 검출 영상을 직접 대표 영상들과의 유사도를 측정할 수 없기 때문에, 유사도 측정이 용이하도록 검출 영상을 이진 영상으로 변환하고, 변환된 이진 영상을 외곽선 추출 및 크기 변화의 작업을 수행할 수 있다. In the preprocessing step (S130), since the similarity between the detected detection image and the representative images cannot be directly measured, the detected image is converted into a binary image to facilitate similarity measurement, and the converted binary image is converted into an outline and extracted from the size change. You can do it.

도 2에는 도 1의 감시 물체 식별 방법(S100)에서 힐버트 영상으로 변환하기 위한 전처리 단계(S130)가 도시되어 있다. FIG. 2 illustrates a preprocessing step S130 for converting to a Hilbert image in the monitoring object identification method S100 of FIG. 1.

도면을 참조하면, 전처리 단계(S130)는 이진영상 변환단계(S131), 외곽선 추출단계(S132), 및 영상 변형단계(S133)를 구비할 수 있다. Referring to the drawing, the preprocessing step S130 may include a binary image conversion step S131, an outline extraction step S132, and an image deformation step S133.

이진영상 변환단계(S131)에는 검출 영상(21)을 이진 영상(22)으로 변환하여 감시 대상의 물체 모양(22a)을 얻는다. 외곽선 추출단계(S132)에는 물체 모양의 외곽선(23a)을 추출한다. In the binary image conversion step S131, the detected image 21 is converted into a binary image 22 to obtain an object shape 22a to be monitored. In the outline extraction step (S132), an outline 23a of an object shape is extracted.

영상 변형단계(S133)에는 물체 모양의 외곽선이 포함된 영상(23)을 변환하여 정방형의 전처리 영상(24)을 생성한다. 이때, 정방형의 전처리 영상(24)에는 물체 모양의 외곽선(23a)이 가로 및 세로의 비를 유지하면서 포함될 수 있다. In the image deformation step S133, an image 23 including an object shape outline is converted to generate a square preprocessed image 24. In this case, the square pre-processing image 24 may include an object-shaped outline 23a while maintaining a horizontal and vertical ratio.

이진 영상(22)은 배경에 해당하는 부분은 '0'이 되고, 감시 대상의 물체 모양(22a)은 '1'이 되도록 함으로써 생성될 수 있다. 또한, 외곽선 추출단계(S132)에 외곽선 부분은 '1'이 되도록 하고, 배경 및 물체의 내부는 '0'이 되도록, 검출 영상을 변환하여 외곽선을 추출할 수 있다. The binary image 22 may be generated by setting the portion corresponding to the background to '0' and the shape of the object to be monitored 22a to be '1'. In addition, the outline may be extracted by converting the detected image so that the outline portion becomes '1' and the background and the inside of the object become '0' in the outline extraction step (S132).

이처럼, 변환된 전처리 영상(24)이 정방형 형상이 되도록 함으로써, 전처리 영상(24)이 힐버트 공간(Hilbert Space)에서 매핑(mapping)될 수 있도록 준비될 수 있다. As such, by converting the preprocessed image 24 into a square shape, the preprocessed image 24 may be prepared to be mapped in the Hilbert space.

도 3a 내지 도 3c에는 힐버트 차수에 따른 영상 분할 방법이 도시되어 있다. 도 4a에는 힐버트 공간으로 매핑하기 전의 2차원 분할 영상(40a)이 도시되어 있다. 도 4b에는 힐버트 공간에서 1차원으로 매핑된 힐버트 영상(40b)이 도시되어 있다. 3A to 3C illustrate an image segmentation method according to the Hilbert order. 4A shows a two-dimensional segmented image 40a before mapping to Hilbert space. 4B shows a Hilbert image 40b mapped in one dimension in Hilbert space.

힐버트 영상 생성단계(S140, S150)에는 전처리 영상을 힐버트 공간으로 매핑하여 힐버트 영상을 생성한다. 이를 위하여, 힐버트 영상 생성단계(S140, S150)는 힐버트 커브 생성단계, 분할영상 생성단계(S140), 및 힐버트 영상 변환단계(S150)를 구비할 수 있다. In the Hilbert image generation steps (S140 and S150), the Hilbert image is generated by mapping the preprocessed image into the Hilbert space. To this end, the Hilbert image generation steps S140 and S150 may include a Hilbert curve generation step, a split image generation step S140, and a Hilbert image conversion step S150.

힐버트 커브 생성단계에는 미리 설정된 힐버트 차수에 의하여 힐버트 커브를 생성한다. 분할영상 생성단계(S140)에는 전처리 영상(24)을 힐버트 차수에 따라 2차원으로 분할된 분할 영상(40a)을 생성한다. 힐버트 영상 변환단계(S150)에는 분할 영상(40a)을 힐버트 커브(41)를 따라 1차원의 힐버트 영상(40b)으로 변환한다. In the Hilbert curve generation step, a Hilbert curve is generated according to a preset Hilbert order. In the split image generation step (S140), the split image 40a is generated by dividing the preprocessed image 24 in two dimensions according to the Hilbert order. In the Hilbert image conversion step (S150), the divided image 40a is converted into a one-dimensional Hilbert image 40b along the Hilbert curve 41.

힐버트 커브 생성단계에는 미리 설정된 힐버트 차수에 의하여 힐버트 커브(41)가 생성되는데, 힐버트 차수에 따라 전처리 영상(24)이 분할되는 방법 및 힐버트 커브(41)가 달라진다. 힐버트 차수는 힐버트 커브가 생성되는 2차원 상의 크기를 정하는 인자로서, 힐버트 차수가 d일 경우 힐버트 공간의 크기는 2의 d승에 2의 d승을 곱한 값이 된다. In the Hilbert curve generation step, the Hilbert curve 41 is generated according to a preset Hilbert order, and the method of dividing the preprocessed image 24 and the Hilbert curve 41 vary according to the Hilbert order. The Hilbert order is a factor that determines the size of the two-dimensional image on which the Hilbert curve is generated. When the Hilbert order is d, the size of the Hilbert space is multiplied by the d power of 2 times the d power of 2.

설정된 힐버트 차수를 이용하여 힐버트 커브를 생성될 수 있는데, 힐버트 차수와 힐버트 커브의 크기와의 관계는 도 3a 내지 도 3c에 도시되어 있는 관계에 의 한다. 도 3a 내지 도 3c 각각은 차수가 1부터 3일 때의 힐버트 커브를 생성한 결과이다. A Hilbert curve can be generated using the set Hilbert order. The relationship between the Hilbert order and the size of the Hilbert curve is based on the relationship shown in FIGS. 3A to 3C. 3A to 3C are results of generating Hilbert curves when the orders are 1 to 3, respectively.

이때, 힐버트 커브가 커짐에 따라서 연산량은 증가하지만, 힐버트 커브가 너무 작은 경우 외곽선의 모양이 뚜렷하지 않으므로, 식별이 안 되는 경우가 발생할 수 있다.In this case, the amount of calculation increases as the Hilbert curve increases, but when the Hilbert curve is too small, the shape of the outline is not clear, and thus, the identification may occur.

분할영상 생성단계(도 4a)에는 전처리 영상(24)을 힐버트 차수에 따라 2차원으로 분할된 분할 영상(40a)을 생성하는데, 분할 영상(40a)의 분할 영역에 각각의 픽셀값이 할당될 수 있다. 이때, 외곽선이 존재하는 각각의 분할 영역에는 '1'의 픽셀값이 할당되고, 외곽선이 존재하지 아니하는 분할 영역에는 '0'의 픽셀값이 할당될 수 있다. In the divided image generation step (FIG. 4A), the divided image 40a is generated by dividing the preprocessed image 24 in two dimensions according to the Hilbert order. Each pixel value may be allocated to the divided region of the divided image 40a. have. In this case, a pixel value of '1' may be assigned to each divided region in which an outline exists, and a pixel value of '0' may be assigned to a divided region in which an outline does not exist.

도 4a 및 도 4b에 도시된 실시예에서는 힐버트 차수가 2이고 그에 따른 형상의 힐버트 커브(41)가 생성되고, 그 힐버트 커브(41)를 따라 전처리 영상이 분할되어 분할 영상(40a)이 생성되었다. 또한, 각각의 분할 영역에는 외곽선의 형상에 따라 0 또는 1의 픽셀값이 할당되어 있다. In the embodiment shown in FIGS. 4A and 4B, a Hilbert curve 41 having a Hilbert order of 2 and a shape corresponding thereto is generated, and a preprocessed image is divided along the Hilbert curve 41 to generate a divided image 40a. . In addition, each division area is assigned a pixel value of 0 or 1 depending on the shape of the outline.

힐버트 영상 변환단계(도 4b)에는 분할 영상(40a)을 힐버트 커브(41)를 따라 1차원의 힐버트 영상(40b)으로 변환하는데, 각각의 분할 영역별로 힐버트 커브(41)를 따라 할당된 픽셀값을 매핑하여, 2차원의 분할 영상(40a)으로부터 1차원의 힐버트 영상(40b)을 생성할 수 있다. 이때, 각각의 분할 영역은 대표 영상들과의 비교 단위가 되는 힐버트 픽셀이 될 수 있다. In the Hilbert image conversion step (FIG. 4B), the divided image 40a is converted into a one-dimensional Hilbert image 40b along the Hilbert curve 41, and pixel values assigned along the Hilbert curve 41 for each segmented area. By mapping, the one-dimensional Hilbert image 40b may be generated from the two-dimensional segmented image 40a. In this case, each segment may be a Hilbert pixel that is a comparison unit with representative images.

이 경우, 힐버트 영상과 대표 영상 사이의 유사도를 측정할 때, 2차원 공간 상이 아닌 1차원 상에서 거리값을 측정할 수 있도록 함으로써, 유사도 측정 시간을 단축시킬 수 있다. In this case, when measuring the similarity between the Hilbert image and the representative image, the similarity measurement time can be shortened by allowing the distance value to be measured in one dimension rather than in two-dimensional space.

영상 비교단계(S160)에는 힐버트 영상을 대표 영상들과 비교한다. 이를 위하여, 영상 비교단계(S160)에는 힐버트 영상을 각각의 대표 영상과 비교하여, 두 영상의 비교를 위한 힐버트 픽셀들 사이의 거리값을 측정하고, 그에 따라 힐버트 영상과 각각의 대표 영상들 사이의 유사한 정도를 산출할 수 있다. In the image comparison step (S160), the Hilbert image is compared with the representative images. To this end, in the image comparison step (S160), the Hilbert image is compared with each representative image, and the distance value between Hilbert pixels for comparison between the two images is measured, and accordingly, between the Hilbert image and each representative image. Similar degrees can be calculated.

이를 위하여, 힐버트 차수에 따라 각각의 대표 영상들에 대하여 힐버트 커브에 따른 1차원 힐버트 영상을 대표 영상으로 생성하는 단계를 더 구비할 수 있다. 이때. 적어도 하나 이상의 바람직하게는 복수개의 대표 모델들에 대한 각각의 대표 영상에 대한 데이터 베이스가 미리 생성되어 저장될 수 있다. 이때, 대표 영상을 미리 설정된 힐버트 커브에 따라 1차원으로 생성된 힐버트 공간에서 정의된 영상이 될 수 있다. To this end, the method may further include generating a representative image of the one-dimensional Hilbert image according to the Hilbert curve for each representative image according to the Hilbert order. At this time. At least one or more preferably, a database for each representative image of the plurality of representative models may be generated and stored in advance. In this case, the representative image may be an image defined in the Hilbert space generated in one dimension according to a preset Hilbert curve.

도 5a 내지 도 5c에는 힐버트 영상과 유사도를 비교할 대표 모델들의 실시예들이 도시되어 있다. 도 5a는 1 사람에 대한 대표 모델인 실시예이고, 도 5b는 2사람의 사람 그룹에 대한 대표 모델의 실시예이다. 도 5c의 (a), (b), (c) 각각은 동일한 차량에 대한 대표 모델에 대하여 서로 다른 각도 즉 각각 30도, 60도, 80도 회전된 경우의 실시예이다. 5A to 5C illustrate embodiments of representative models for comparing the similarity with the Hilbert image. 5A is an embodiment that is a representative model for one person, and FIG. 5B is an embodiment of a representative model for a two person group. Each of (a), (b), and (c) of FIG. 5C is an example in which different angles, that is, 30 degrees, 60 degrees, and 80 degrees are rotated with respect to the representative model of the same vehicle, respectively.

도 6에는 대표 모델의 영상과 힐버트 영상으로부터 힐버트 거리값을 측정하여, 대표 모델의 영상과 힐버트 영상 사이의 유사한 정도를 측정하는 방법이 도시되어 있다. FIG. 6 illustrates a method for measuring a similar degree between the image of the representative model and the Hilbert image by measuring the Hilbert distance value from the image of the representative model and the Hilbert image.

도면을 참조하면, 영상 비교단계(S160)는 힐버트 픽셀값 할당단계, 픽셀값 가산단계, 제1 거리값 산출단계, 제2 거리값 산출 단계, 및 유사도 측정단계를 구비할 수 있다. Referring to the drawings, the image comparison step S160 may include a Hilbert pixel value assignment step, a pixel value addition step, a first distance value calculation step, a second distance value calculation step, and a similarity measurement step.

힐버트 픽셀값 할당단계에는 힐버트 영상과 대표 영상 각각의 외곽선이 존재하는 힐버트 픽셀에 서로 다른 픽셀값을 할당한다. 즉, 도 6에 도시된 실시예에서와 같이, 힐버트 커브를 따라 1차원으로 배열된 힐버트 영상(61)의 외곽선이 존재하는 힐버트 픽셀에는 '1'이 할당되도록 하고, 힐버트 커브를 따라 1차원으로 배열된 대표 영상(62)의 외곽선이 존재하는 힐버트 픽셀에는 '2'가 할당되도록 할 수 있다. In the Hilbert pixel value assignment step, different pixel values are assigned to Hilbert pixels in which the respective outlines of the Hilbert image and the representative image exist. That is, as in the embodiment illustrated in FIG. 6, '1' is assigned to the Hilbert pixel in which the outline of the Hilbert image 61 is arranged in one dimension along the Hilbert curve, and in one dimension along the Hilbert curve. '2' may be allocated to the Hilbert pixel in which the outline of the arranged representative image 62 exists.

픽셀값 가산단계에는 힐버트 영상의 픽셀값과 대표 영상의 픽셀값을 합하여 각각의 힐버트 픽셀에 대하여 가산 픽셀값을 구할 수 있다. 이때, 픽셀값 가산단계에는 힐버트 영상의 픽셀값과 대표 영상의 픽셀값을 합하여 가산 영상(63)을 구하고, 가산 영상(63)의 각각의 힐버트 픽셀에 대하여 가산 픽셀값을 구할 수 있다. In the pixel value adding step, the pixel value of the Hilbert image and the pixel value of the representative image may be summed to obtain an added pixel value for each Hilbert pixel. In this case, in the pixel value adding step, the sum of the pixel values of the Hilbert image and the pixel values of the representative image may be obtained, and the addition pixel value may be obtained for each Hilbert pixel of the addition image 63.

도면에서 힐버트 영상과 대표 영상 각각의 힐버트 픽셀에 외곽선이 존재하는 경우, 가산 영상(63)의 해당 힐버트 픽셀은 힐버트 영상의 픽셀값 '1'과 대표 영상의 픽셀값 '2'를 더한 값 '3'이 할당될 수 있다. In the drawing, when an Hilbert pixel has an outline in each Hilbert image and the representative image, the corresponding Hilbert pixel of the addition image 63 is the pixel value '1' of the Hilbert image plus the pixel value '2' of the representative image, '3'. May be assigned.

제1 거리값 산출단계에는 힐버트 영상으로부터 대표 영상에 대하여 가산 픽셀값으로부터 가까운 외곽선이 존재하는 힐버트 픽셀의 제1 거리값(64)을 구할 수 있다. 이 경우, 제1 거리값(64)은 가산 영상에서 픽셀값이 '1'인 힐버트 픽셀로부터 픽셀값이 '2' 또는 '3'인 가장 가까이 위치되는 힐버트 픽셀까지 떨어진 힐버트 픽셀의 수가 될 수 있다. In the first distance value calculating step, the first distance value 64 of the Hilbert pixel having an outline near the added pixel value from the Hilbert image may be obtained. In this case, the first distance value 64 may be the number of Hilbert pixels dropped from the Hilbert pixel having the pixel value of '1' to the nearest Hilbert pixel having the pixel value of '2' or '3' in the added image. .

제2 거리값 산출단계에는 대표 영상으로부터 힐버트 영상에 대하여 가산 픽셀값으로부터 가까운 외곽선이 존재하는 힐버트 픽셀의 제2 거리값을 구할 수 있다. 이 경우, 제2 거리값은 가산 영상에서 픽셀값이 '3'인 힐버트 픽셀로부터 픽셀값이 '1'또는 '3'인 가장 가까이 위치되는 힐버트 픽셀까지 떨어진 힐버트 픽셀의 수가 될 수 있다. In the second distance value calculating step, a second distance value of the Hilbert pixel having an outline near the added pixel value with respect to the Hilbert image may be obtained from the representative image. In this case, the second distance value may be the number of Hilbert pixels dropped from the Hilbert pixel having the pixel value of '3' to the nearest Hilbert pixel having the pixel value of '1' or '3' in the added image.

이때, 가산 픽셀값이 '3'인 경우에는 동일한 위치의 힐버트 픽셀에 외곽선이 존재하므로, 제1 거리값 및 제2 거리값이 '0'이 될 수 있다. In this case, when the added pixel value is '3', since the outline exists at the Hilbert pixel at the same position, the first distance value and the second distance value may be '0'.

유사도 측정단계에는 제1 거리값들과 제2 거리값들로부터 힐버트 영상의 각각의 대표 영상들에 대한 유사도를 측정할 수 있다. 이때, 제1 거리값들과 제2 거리값들의 합한 값을 힐버트 영상을 구성하는 분할 영상의 수, 즉 힐버트 픽셀의 개수로 나누어 유사도를 측정할 수 있다. In the similarity measuring step, the similarity degree of each representative image of the Hilbert image may be measured from the first distance values and the second distance values. In this case, the similarity may be measured by dividing the sum of the first distance values and the second distance values by the number of split images constituting the Hilbert image, that is, the number of Hilbert pixels.

이때, 입력 영상에 대한 힐버트 영상의 각각의 대표 영상들에 대한 유사도에 의하여, 힐버트 영상이 각각의 대표 영상들에 대하여 유사한 정도를 비교할 수 있다. In this case, the degree of similarity of the Hilbert image to each representative image may be compared based on the similarity of the representative images of the Hilbert image with respect to the input image.

식별물체 선정단계(S170)에는 대표 영상들 중에서 힐버트 영상과 가장 유사한 것으로 판단되는 영상의 물체를 식별 물체로 선정한다. 이때, 힐버트 영상에 대하여 유사도가 가장 작은 대표 영상의 물체를 식별 물체로 선정할 수 있다. In the identifying object selecting step (S170), the object of the image determined to be the most similar to the Hilbert image among the representative images is selected as the identifying object. In this case, the object of the representative image having the smallest similarity with respect to the Hilbert image may be selected as the identification object.

한편, 선정된 식별 물체에 대한 대표 영상의 유사도가 설정된 기준값보다 큰 경우에 모르는 물체로 식별할 수 있다. Meanwhile, when the similarity of the representative image with respect to the selected identification object is larger than the set reference value, it may be identified as an unknown object.

본 발명에 따르면, 영상 감시에서 움직이는 물체의 탐지 및 식별을 빠르게 할 수 있도록 함으로써, 감시 시스템의 성능을 향상시킬 수 있다. According to the present invention, it is possible to quickly detect and identify moving objects in video surveillance, thereby improving the performance of the surveillance system.

본 발명에 따른 감시 물체 식별 방법(S100)은, 영상 감시에서 움직이는 물체의 탐지 및 탐지된 물체를 식별하는 시간을 단축함으로써, 탐지 및 식별을 실시간으로 할 수 있도록 할 수 있다. The monitoring object identification method S100 according to the present invention may reduce the time for detecting the moving object and identifying the detected object in the video surveillance, thereby enabling detection and identification in real time.

그에 따라, 감시 시스템의 성능을 높이고, 감시 시스템의 제품에 대한 사용자의 만족도를 높일 수 있다. 또한, 빠른 성능과 적은 량의 메모리 요구는 소형화-모듈화를 통해 소형 임베디드(embedded) 기기에도 적용이 용이하도록 설계할 수 있다. Accordingly, the performance of the monitoring system can be improved, and the user's satisfaction with the products of the monitoring system can be improved. In addition, fast performance and low memory requirements can be designed to be easily applied to small embedded devices through miniaturization and modularity.

도 7에는 본 발명에 따른 바람직한 다른 실시예인 감시 시스템(70)에 대한 개략적인 블록도가 도시되어 있다. 7 shows a schematic block diagram of another preferred embodiment of the monitoring system 70 according to the present invention.

도면을 참조하면, 감시 시스템(70)은 도 1에 도시된 감시 물체 식별 방법(S100)에 의하여 제어될 수 있다. 따라서, 도 1에 도시된 감시 물체 식별 방법(S100)에서와 동일한 사항에 대해서는 이를 참조하고, 자세한 설명이 생략될 수 있다. Referring to the drawings, the monitoring system 70 may be controlled by the monitoring object identification method (S100) shown in FIG. Therefore, the same matters as in the monitoring object identification method S100 illustrated in FIG. 1 are referred to this, and detailed description may be omitted.

감시 시스템(70)은 영상 입력부(71); 제어부(72); 저장부(73); 및 표시부(74)를 구비할 수 있다. Surveillance system 70 includes an image input unit 71; Control unit 72; Storage unit 73; And a display unit 74.

영상 입력부(71)는 감시 대상이 되는 감시 영역에 대한 입력 영상을 입력받는다. 제어부(72)는 입력 영상에서 움직이는 물체를 감시 대상으로 탐지하고, 입력 영상에서 감시 대상의 영역에 대한 검출 영상을 검출하고, 검출 영상을 힐버트 공 간의 힐버트 영상으로 변환하고, 힐버트 영상을 복수개의 대표 영상들과 비교하여 가장 유사한 대표 영상의 물체를 식별 물체로 선정한다. The image input unit 71 receives an input image of a surveillance area to be monitored. The controller 72 detects a moving object in the input image as a monitoring object, detects a detection image of a region to be monitored in the input image, converts the detected image into a Hilbert image in the Hilbert space, and converts the Hilbert image into a plurality of representative images. The object of the most representative representative image is selected as the identifying object by comparing with the images.

저장부(73)에는 입력 영상에 포함된 움직이는 물체인 감시 물체를 식별하기 위하여 비교 대상이 되는 대표 물체들에 대한 대표 영상이 저장된다. 표시부(74)는 입력 영상에서 감시 대상에 대한 영역인 검출 영역이 배경 영상에 대하여 구분되어 표시될 수 있다. The storage unit 73 stores representative images of representative objects to be compared in order to identify a monitoring object that is a moving object included in the input image. The display unit 74 may display a detection area, which is an area for the monitoring target, in the input image separately from the background image.

입력 영상이 설정된 시간 간격의 프레임 영상으로 입력되고, 2 이상의 프레임 영상을 비교하여, 배경 영상과 현재 영상을 추출하고, 배경 영상과 현재 영상의 차이로부터 감시 대상을 탐지하고, 입력 영상에서 감시 대상이 되는 물체의 영역에 대한 영상이 감시 영상으로 검출할 수 있다. The input image is input as a frame image of a set time interval, and compares two or more frame images, extracts a background image and a current image, detects a monitoring target from the difference between the background image and the current image, and monitors the input image in the input image. An image of the area of the object to be detected may be detected as a surveillance image.

또한, 검출 영상을 힐버트 공간으로 변환하기 위하여 전처리하여 전처리 영상을 생성하고, 전처리 영상을 힐버트 공간으로 매핑하여 힐버트 영상을 생성하고, 힐버트 영상을 대표 영상들과 비교하고, 대표 영상들 중에서 힐버트 영상과 가장 유사한 것으로 판단되는 영상의 물체를 식별 물체로 선정할 수 있다. In addition, in order to convert the detected image into a Hilbert space, a preprocessed image is generated, a preprocessed image is mapped to a Hilbert space, a Hilbert image is generated, a Hilbert image is compared with representative images, and among the representative images, The object of the image determined to be the most similar may be selected as the identification object.

검출 영상을 이진 영상으로 변환하여 감시 대상의 물체 모양을 얻고, 물체 모양의 외곽선을 추출하고, 전처리 영상이 외곽선을 가로 및 세로의 비를 유지하면서 포함하고, 외곽선을 포함하는 영상을 정방형 형상이 되도록 변형하여 전처리 영상을 생성할 수 있다. Convert the detected image into a binary image to obtain the object shape of the object to be monitored, extract the outline of the object shape, and include the preprocessed image while maintaining the ratio of the horizontal and vertical lines, and include the image including the outline in a square shape. The image may be modified to generate a preprocessed image.

미리 설정된 힐버트 차수에 의하여 힐버트 커브를 생성하고, 전처리 영상을 힐버트 차수에 따라 2차원으로 분할된 분할 영상을 생성하고, 분할 영상을 힐버트 커브를 따라 1차원의 힐버트 영상으로 변환할 수 있다. A Hilbert curve may be generated according to a preset Hilbert order, a pre-processed image may be generated by dividing the preprocessed image into two-dimensionally divided Hilbert orders, and the divided image may be converted into a one-dimensional Hilbert image along the Hilbert curve.

저장부(73)에는 대표 영상이 데이터 베이스의 형태로 저장될 수 있다. 대표 영상에 대한 데이터 베이스는 힐버트 차수에 따라 각각의 대표 영상들에 대하여 힐버트 커브에 따른 1차원 힐버트 영상으로 생성되어 저장될 수 있다. The storage unit 73 may store the representative image in the form of a database. The database for the representative image may be generated and stored as one-dimensional Hilbert image according to the Hilbert curve for each representative image according to the Hilbert order.

표시부(74)에는 입력 영상에서 검출 영역이 배경 영상에 대하여 구분되어 사각형 등의 별도의 표시에 의하여 표시되어, 사용자가 움직이는 물체에 대하여 용이하게 모니터링 할 수 있도록 할 수 있다. In the display unit 74, the detection area of the input image is divided with respect to the background image and displayed by a separate display such as a quadrangle, so that the user can easily monitor the moving object.

본 발명에 따르면, 영상 감시에서 움직이는 물체의 탐지 및 식별을 빠르게 할 수 있도록 함으로써, 감시 시스템의 성능을 향상시킬 수 있다. According to the present invention, it is possible to quickly detect and identify moving objects in video surveillance, thereby improving the performance of the surveillance system.

본 발명에 따른 감시 시스템(70)은, 영상 감시에서 움직이는 물체의 탐지 및 탐지된 물체를 식별하는 시간을 단축함으로써, 탐지 및 식별을 실시간으로 할 수 있도록 할 수 있다. Surveillance system 70 according to the present invention, by reducing the time to detect the moving object and the detected object in the video surveillance, it is possible to make detection and identification in real time.

그에 따라, 감시 시스템의 성능을 높이고, 감시 시스템의 제품에 대한 사용자의 만족도를 높일 수 있다. 또한, 빠른 성능과 적은 량의 메모리 요구는 소형화-모듈화를 통해 소형 임베디드(embedded) 기기에도 적용이 용이하도록 설계할 수 있다. Accordingly, the performance of the monitoring system can be improved, and the user's satisfaction with the products of the monitoring system can be improved. In addition, fast performance and low memory requirements can be designed to be easily applied to small embedded devices through miniaturization and modularity.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다. Although the present invention has been described with reference to the embodiments shown in the drawings, these are merely exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

도 1은 본 발명에 따른 바람직한 실시예로서, 감시 물체 식별 방법을 개략적으로 도시한 흐름도이다. 1 is a flowchart schematically illustrating a method for identifying a monitoring object as a preferred embodiment according to the present invention.

도 2는 도 1의 감시 물체 식별 방법에서 힐버트 영상 전처리 단계를 도시한 도면이다. FIG. 2 is a diagram illustrating a Hilbert image preprocessing step in the monitoring object identification method of FIG. 1.

도 3a 내지 도 3c는 힐버트 차수에 따른 영상 분할 방법을 도시한 도면들이다. 3A to 3C are diagrams illustrating an image segmentation method according to a Hilbert order.

도 4a는 힐버트 공간으로 매핑하기 전의 2차원 분할 영상을 도시한 도면이다. 4A is a diagram illustrating a two-dimensional segmented image before mapping to Hilbert space.

도 4b는 힐버트 공간에서 1차원으로 매핑된 힐버트 영상을 도시한 도면이다. 4B is a diagram illustrating a Hilbert image mapped in one dimension in Hilbert space.

도 5a 내지 도 5c는 힐버트 영상과 유사도를 비교할 대표 모델들의 실시예들을 도시한 도면들이다. 5A to 5C are diagrams illustrating embodiments of representative models for comparing a similarity with a Hilbert image.

도 6은 대표 모델의 영상과 힐버트 영상으로부터 힐버트 거리값을 측정하여, 대표 모델의 영상과 힐버트 영상 사이의 유사한 정도를 측정하는 방법을 도시한 도면이다. 6 is a diagram illustrating a method of measuring a similar degree between an image of a representative model and a Hilbert image by measuring a Hilbert distance value from an image of the representative model and a Hilbert image.

도 7은 본 발명에 따른 바람직한 다른 실시예로서, 감시 시스템을 개략적으로 도시한 블록도이다. 7 is a block diagram schematically showing a monitoring system as another preferred embodiment according to the present invention.

Claims (19)

(a) 입력 영상을 입력받는 단계; (a) receiving an input image; (b) 상기 입력 영상에서 움직이는 물체를 감시 대상으로 탐지하고, 상기 입력 영상에서 상기 감시 대상의 영역에 대한 검출 영상을 검출하는 단계; 및 (b) detecting a moving object from the input image as a monitoring target, and detecting a detection image of the area of the monitoring target from the input image; And (c) 상기 검출 영상을 힐버트 공간의 힐버트 영상으로 변환하고, 상기 힐버트 영상을 적어도 하나 이상의 대표 영상들과 비교하여 가장 유사한 대표 영상의 물체를 식별 물체로 선정하는 단계를 구비하는 감시 물체 식별 방법.(c) converting the detected image into a Hilbert image in Hilbert space, and comparing the Hilbert image with at least one representative image to select an object of the most representative representative image as an identification object. 제1항에 있어서, The method of claim 1, 상기 (a) 단계에 상기 입력 영상이 설정된 시간 간격의 프레임 영상으로 입력되고, In the step (a), the input image is input as a frame image of a set time interval, 상기 (b) 단계에서 2 이상의 프레임 영상을 비교하여, 배경 영상과 현재 영상을 추출하고, 상기 배경 영상과 상기 현재 영상의 차이로부터 상기 감시 대상을 탐지하는 감시 물체 식별 방법.And (b) comparing two or more frame images, extracting a background image and a current image, and detecting the surveillance object from a difference between the background image and the current image. 제1항에 있어서, The method of claim 1, 상기 (c) 단계가, In step (c), (c1) 상기 검출 영상을 힐버트 공간으로 변환하기 위하여 전처리하여 전처리 영상을 생성하는 단계, (c1) generating a preprocessed image by preprocessing the transformed image to convert to the Hilbert space; (c2) 상기 전처리 영상을 힐버트 공간으로 매핑하여 힐버트 영상을 생성하는 단계, (c2) generating the Hilbert image by mapping the preprocessed image to the Hilbert space; (c3) 상기 힐버트 영상을 상기 대표 영상들과 비교하는 단계, 및 (c3) comparing the Hilbert image with the representative images, and (c4) 상기 대표 영상들 중에서 상기 힐버트 영상과 가장 유사한 것으로 판단되는 영상의 물체를 식별 물체로 선정하는 단계를 구비하는 감시 물체 식별 방법.and (c4) selecting an object of an image determined to be the most similar to the Hilbert image among the representative images as an identification object. 제3항에 있어서, The method of claim 3, 상기 (c1) 단계가, In step (c1), 상기 검출 영상을 이진 영상으로 변환하여 상기 감시 대상의 물체 모양을 얻는 단계, Converting the detected image into a binary image to obtain a shape of an object to be monitored; 상기 물체 모양의 외곽선을 추출하는 단계, 및 Extracting the outline of the object shape, and 상기 전처리 영상이 상기 외곽선을 가로 및 세로의 비를 유지하면서 포함하고, 상기 외곽선을 포함하는 영상을 정방형 형상이 되도록 변형하여 상기 전처리 영상을 생성하는 단계를 구비하는 감시 물체 식별 방법.And the preprocessed image including the outline while maintaining a ratio of width and length, and generating the preprocessed image by modifying the image including the outline to have a square shape. 제4항에 있어서, The method of claim 4, wherein 상기 외곽선 부분은 '1'이 되도록 하고, 배경 및 상기 물체의 내부는 '0'이 되도록, 상기 검출 영상을 변환하여 상기 외곽선을 추출하는 감시 물체 식별 방법.And extracting the outline by converting the detected image such that the outline portion is '1' and the background and the inside of the object are '0'. 제4항에 있어서, The method of claim 4, wherein 상기 (c2) 단계가, In step (c2), 미리 설정된 힐버트 차수에 의하여 힐버트 커브를 생성하는 단계, Generating a Hilbert curve by a preset Hilbert order, 상기 전처리 영상을 상기 힐버트 차수에 따라 2차원으로 분할된 분할 영상을 생성하는 단계, Generating a divided image by dividing the preprocessed image into two dimensions according to the Hilbert order; 상기 분할 영상을 상기 힐버트 커브를 따라 1차원의 힐버트 영상으로 변환하는 단계를 구비하는 감시 물체 식별 방법.And converting the split image into a one-dimensional Hilbert image along the Hilbert curve. 제6항에 있어서, The method of claim 6, 상기 외곽선이 존재하는 상기 분할 영상의 각각의 분할 영역에는 '1'의 픽셀값이 할당되고, 상기 외곽선이 존재하지 아니하는 상기 분할 영역에는 '0'의 픽셀값이 할당되는 감시 물체 식별 방법.And a pixel value of '1' is assigned to each divided region of the divided image in which the outline exists, and a pixel value of '0' is assigned to the divided region in which the outline does not exist. 제6항에 있어서, The method of claim 6, 각각의 상기 분할 영역별로 상기 힐버트 커브를 따라 픽셀값을 매핑하여 2차원의 상기 분할 영상을 1차원의 상기 힐버트 영상을 생성하는 감시 물체 식별 방법.And mapping the pixel values along the Hilbert curve to each of the divided regions to generate the Hilbert image of the two-dimensional segmented image. 제8항에 있어서, The method of claim 8, 상기 힐버트 차수에 따라 각각의 상기 대표 영상들에 대하여 상기 힐버트 커브에 따른 1차원 힐버트 영상을 대표 영상으로 생성하는 단계를 더 구비하는 감시 물체 식별 방법.And generating a representative image of the one-dimensional Hilbert image according to the Hilbert curve for each of the representative images according to the Hilbert order. 제9항에 있어서, The method of claim 9, 상기 (c3) 단계가, In step (c3), 상기 힐버트 영상의 각각의 분할 영역과 상기 대표 영상의 각각의 분할 영역의 외곽선이 존재하는 분할 영역에 서로 다른 픽셀값을 할당하는 단계, Allocating different pixel values to each divided region of the Hilbert image and a divided region having an outline of each divided region of the representative image; 상기 힐버트 영상의 픽셀값과 상기 대표 영상의 픽셀값을 합하여 각각의 분할 영역에 대하여 가산 픽셀값을 구하는 단계, Obtaining an added pixel value for each divided region by adding the pixel value of the Hilbert image and the pixel value of the representative image; 상기 힐버트 영상으로부터 상기 대표 영상에 대하여 상기 가산 픽셀값으로부터 가까운 외곽선이 존재하는 상기 분할 영역의 제1 거리값들을 구하는 단계, Obtaining first distance values of the divided region where an outline close to the representative pixel value exists from the Hilbert image with respect to the representative image; 상기 대표 영상으로부터 상기 힐버트 영상에 대하여 상기 가산 픽셀값으로부터 가까운 외곽선이 존재하는 상기 분할 영역의 제2 거리값들을 구하는 단계, 및 Obtaining second distance values of the divided region in which an outline close to the Hilbert image exists from the representative image from the representative image; and 상기 제1 거리값들과 상기 제2 거리값들로부터 상기 힐버트 영상의 각각의 상기 대표 영상들에 대한 유사도를 측정하는 단계를 구비하는 감시 물체 식별 방법.And measuring similarity of the representative images of each of the Hilbert images from the first distance values and the second distance values. 제10항에 있어서, The method of claim 10, 상기 제1 거리값들과 상기 제2 거리값들의 합한 값을 상기 힐버트 영상을 구성하는 분할 영상의 수로 나누어 상기 유사도를 측정하고, The similarity is measured by dividing the sum of the first distance values and the second distance values by the number of split images constituting the Hilbert image, 상기 유사도에 의하여, 상기 힐버트 영상과 상기 대표 영상이 유사한 정도를 비교하는 감시 물체 식별 방법.And a degree of similarity between the Hilbert image and the representative image based on the similarity. 제11항에 있어서, The method of claim 11, 상기 힐버트 영상에 대하여 상기 유사도가 가장 작은 상기 대표 영상의 물체를 상기 식별 물체로 선정하고, The object of the representative image having the smallest similarity with respect to the Hilbert image is selected as the identification object, 선정된 식별 물체에 대한 상기 대표 영상의 유사도가 설정된 기준값보다 큰 경우에 모르는 물체로 식별하는 감시 물체 식별 방법.And identifying the unknown object when the similarity of the representative image with respect to the selected identification object is larger than a set reference value. 입력 영상을 입력받는 영상 입력부; An image input unit which receives an input image; 상기 입력 영상에서 움직이는 물체를 감시 대상으로 탐지하고, 상기 입력 영상에서 상기 감시 대상의 영역에 대한 검출 영상을 검출하고, 상기 검출 영상을 힐버트 공간의 힐버트 영상으로 변환하고, 상기 힐버트 영상을 적어도 하나 이상의 대표 영상들과 비교하여 가장 유사한 대표 영상의 물체를 식별 물체로 선정하는 제어부; 및 Detecting a moving object in the input image as a monitoring object, detecting a detection image of the area of the monitoring object in the input image, converting the detected image into a Hilbert image in Hilbert space, and converting the Hilbert image into at least one A controller configured to select an object of the representative image most similar to the representative images as the identification object; And 상기 대표 영상들이 저장되는 저장부를 구비하는 감시 시스템.Surveillance system having a storage unit for storing the representative image. 제13항에 있어서, The method of claim 13, 상기 입력 영상이 설정된 시간 간격의 프레임 영상으로 입력되고, 2 이상의 상기 프레임 영상을 비교하여, 배경 영상과 현재 영상을 추출하고, 상기 배경 영상과 상기 현재 영상의 차이로부터 상기 감시 대상을 탐지하는 감시 시스템.The monitoring system for inputting the input image as a frame image of a predetermined time interval, comparing two or more of the frame image, extracts a background image and the current image, and detects the monitoring target from the difference between the background image and the current image . 제13항에 있어서, The method of claim 13, 상기 검출 영상을 힐버트 공간으로 변환하기 위하여 전처리하여 전처리 영상을 생성하고, 상기 전처리 영상을 힐버트 공간으로 매핑하여 힐버트 영상을 생성하고, 상기 힐버트 영상을 상기 대표 영상들과 비교하고, 상기 대표 영상들 중에서 상기 힐버트 영상과 가장 유사한 것으로 판단되는 영상의 물체를 식별 물체로 선정하는 감시 시스템.In order to convert the detected image into a Hilbert space, a preprocessed image is generated, a preprocessed image is mapped into a Hilbert space, a Hilbert image is generated, the Hilbert image is compared with the representative images, and among the representative images. And selecting an object of an image determined to be the most similar to the Hilbert image as an identification object. 제15항에 있어서, The method of claim 15, 상기 검출 영상을 이진 영상으로 변환하여 상기 감시 대상의 물체 모양을 얻고, 상기 물체 모양의 외곽선을 추출하고, 상기 전처리 영상이 상기 외곽선을 가로 및 세로의 비를 유지하면서 포함하고, 상기 외곽선을 포함하는 영상을 정방형 형상이 되도록 변형하여 상기 전처리 영상을 생성하는 감시 시스템.Converting the detected image into a binary image to obtain an object shape of the object to be monitored, extracting the outline of the object shape, and including the preprocessed image while maintaining the horizontal and vertical ratios of the outline, and including the outline Surveillance system for generating the pre-processing image by transforming the image to a square shape. 제13항에 있어서, The method of claim 13, 미리 설정된 힐버트 차수에 의하여 힐버트 커브를 생성하고, 상기 전처리 영상을 상기 힐버트 차수에 따라 2차원으로 분할된 분할 영상을 생성하고, 상기 분할 영상을 상기 힐버트 커브를 따라 1차원의 힐버트 영상으로 변환하는 감시 시스템.Monitoring to generate a Hilbert curve according to a preset Hilbert order, to generate a split image divided into two dimensions according to the Hilbert order, and to convert the split image into a one-dimensional Hilbert image along the Hilbert curve. system. 제17항에 있어서, The method of claim 17, 상기 대표 영상이 상기 힐버트 차수에 따라 각각의 상기 대표 영상들에 대하여 상기 힐버트 커브에 따른 1차원 힐버트 영상으로 생성되는 감시 시스템.And the representative image is generated as a one-dimensional Hilbert image according to the Hilbert curve for each of the representative images according to the Hilbert order. 제14항에 있어서, The method of claim 14, 각각의 상기 프레임 영상에서 상기 검출 영상이 배경 영상에 대하여 구분되어 표시되는 표시부를 더 구비하는 감시 시스템.And a display unit which displays the detected image separately from the background image in each of the frame images.
KR1020080036848A 2008-04-21 2008-04-21 Method for classifying Surveillance object and Surveillance system thereof KR101299238B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080036848A KR101299238B1 (en) 2008-04-21 2008-04-21 Method for classifying Surveillance object and Surveillance system thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080036848A KR101299238B1 (en) 2008-04-21 2008-04-21 Method for classifying Surveillance object and Surveillance system thereof

Publications (2)

Publication Number Publication Date
KR20090111207A true KR20090111207A (en) 2009-10-26
KR101299238B1 KR101299238B1 (en) 2013-08-22

Family

ID=41538992

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080036848A KR101299238B1 (en) 2008-04-21 2008-04-21 Method for classifying Surveillance object and Surveillance system thereof

Country Status (1)

Country Link
KR (1) KR101299238B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101272645B1 (en) * 2013-04-24 2013-06-10 (주)나인정보시스템 Detection apparatus and method for objects in the image using spatio-temporal gaussian mixture background model
EP3719831A1 (en) * 2019-04-05 2020-10-07 ASML Netherlands B.V. Systems and methods for image enhancement for a multi-beam charged-particle inspection system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3883124B2 (en) 2003-12-05 2007-02-21 独立行政法人理化学研究所 Template matching processing method and processing apparatus in image processing
KR20060003321A (en) * 2005-11-17 2006-01-10 미래텔레콤(주) The method or device for the object recognition in the security system
KR100779858B1 (en) * 2006-05-11 2007-11-27 (주)태광이엔시 picture monitoring control system by object identification and the method thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101272645B1 (en) * 2013-04-24 2013-06-10 (주)나인정보시스템 Detection apparatus and method for objects in the image using spatio-temporal gaussian mixture background model
EP3719831A1 (en) * 2019-04-05 2020-10-07 ASML Netherlands B.V. Systems and methods for image enhancement for a multi-beam charged-particle inspection system
WO2020200958A1 (en) * 2019-04-05 2020-10-08 Asml Netherlands B.V. Systems and methods for image enhancement for a multi-beam charged-particle inspection system
CN113661557A (en) * 2019-04-05 2021-11-16 Asml荷兰有限公司 System and method for image enhancement for multi-beam charged particle inspection system
US11961700B2 (en) 2019-04-05 2024-04-16 Asml Netherlands B.V. Systems and methods for image enhancement for a multi-beam charged-particle inspection system

Also Published As

Publication number Publication date
KR101299238B1 (en) 2013-08-22

Similar Documents

Publication Publication Date Title
US10037466B2 (en) Video processing apparatus, video processing method, and video processing program
EP2959454B1 (en) Method, system and software module for foreground extraction
JP6554169B2 (en) Object recognition device and object recognition system
US8406470B2 (en) Object detection in depth images
TWI430186B (en) Image processing apparatus and image processing method
US6816184B1 (en) Method and apparatus for mapping a location from a video image to a map
US7778445B2 (en) Method and system for the detection of removed objects in video images
EP1868162A2 (en) Unusual action detection based on image analysis involving CHLAC feature extraction
US20180276810A1 (en) Structural health monitoring employing physics models
EP2309454B1 (en) Apparatus and method for detecting motion
CN101383005B (en) Method for separating passenger target image and background by auxiliary regular veins
KR101773127B1 (en) Image analysis system and integrated control system capable of performing effective image searching/analyzing and operating method thereof
JP2011008704A (en) Image processing apparatus, image processing method and program
KR102391853B1 (en) System and Method for Processing Image Informaion
JP2013206458A (en) Object classification based on external appearance and context in image
JP2013214143A (en) Vehicle abnormality management device, vehicle abnormality management system, vehicle abnormality management method, and program
US11470248B2 (en) Data compression apparatus, model generation apparatus, data compression method, model generation method and program recording medium
KR102665603B1 (en) Hardware disparity evaluation for stereo matching
JP2014048131A (en) Image processing device, method, and program
KR101299238B1 (en) Method for classifying Surveillance object and Surveillance system thereof
KR101350882B1 (en) Server for analysing video
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
KR101515308B1 (en) Apparatus for face pose estimation and method thereof
KR102366396B1 (en) RGB-D Data and Deep Learning Based 3D Instance Segmentation Method and System
KR101230567B1 (en) Object detection and tracking apparatus and method thereof, and intelligent surveillance vision system using the same

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160722

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170728

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180726

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190729

Year of fee payment: 7