KR100994418B1 - System For Processing Imaging For Detecting the Invasion Of Building and Method Thereof - Google Patents

System For Processing Imaging For Detecting the Invasion Of Building and Method Thereof Download PDF

Info

Publication number
KR100994418B1
KR100994418B1 KR1020080110305A KR20080110305A KR100994418B1 KR 100994418 B1 KR100994418 B1 KR 100994418B1 KR 1020080110305 A KR1020080110305 A KR 1020080110305A KR 20080110305 A KR20080110305 A KR 20080110305A KR 100994418 B1 KR100994418 B1 KR 100994418B1
Authority
KR
South Korea
Prior art keywords
image
building
photographed
intrusion
background
Prior art date
Application number
KR1020080110305A
Other languages
Korean (ko)
Other versions
KR20090119668A (en
Inventor
이재민
Original Assignee
주식회사 윈포넷
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 윈포넷 filed Critical 주식회사 윈포넷
Publication of KR20090119668A publication Critical patent/KR20090119668A/en
Application granted granted Critical
Publication of KR100994418B1 publication Critical patent/KR100994418B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19606Discriminating between target movement or movement in an area of interest and other non-signicative movements, e.g. target movements induced by camera shake or movements of pets, falling leaves, rotating fan
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

카메라로부터 제공받은 촬영 이미지로부터 배경 이미지를 분리하고, 촬영 이미지와 배경 이미지의 차이에 따라 감지 대상의 이동하는 물체를 식별하기 위한 참고 이미지를 생성하고 나서 생성한 참고 이미지에서 눈, 비, 새, 벌레 등과 같은 비특이적 물체를 제거한 이후에 참고 이미지에 남아 있는 물체 이미지의 경로를 추적하여 감시 영역에 침입 여부를 판단한다. 따라서 본 발명은 비특이적 물체로 인한 오동작을 줄임으로서 감지 성능에 대한 신뢰성을 향상시킬 수 있고, 촬영 이미지를 처리하는 과정에서 연산 속도를 높일 수 있다.Separates the background image from the captured image provided by the camera, generates a reference image to identify the moving object to be detected according to the difference between the captured image and the background image, and then generates snow, rain, birds and bugs from the reference image. After the removal of non-specific objects such as the like, the path of the object image remaining in the reference image is traced to determine whether or not the intrusion into the surveillance area. Therefore, the present invention can improve the reliability of the detection performance by reducing the malfunction due to the non-specific object, it is possible to increase the operation speed in the process of processing the photographed image.

침입감지, 물체 추출, 비특이적 물체Intrusion Detection, Object Extraction, Non-Specific Objects

Description

건물의 침입 감지를 위한 촬영 이미지 처리 시스템 및 방법{System For Processing Imaging For Detecting the Invasion Of Building and Method Thereof}System For Processing Imaging For Detecting the Invasion Of Building and Method Thereof}

본 발명은 건물의 침입 감지를 위한 촬영 이미지 처리 시스템 및 방법에 관한 것으로, 보다 상세하게는 카메라로부터 제공받은 촬영 이미지에서 비특이적 물체를 제거하는 건물의 침입 감지를 위한 촬영 이미지 처리 시스템 및 방법에 관한 것이다.The present invention relates to a photographing image processing system and method for detecting an intrusion of a building, and more particularly, to a photographing image processing system and method for detecting an intrusion of a building to remove a nonspecific object from a photographing image provided from a camera. .

일반적으로 침입 또는 화재감지 시스템은 개인 또는 회사의 안전이나 재산 또는 기밀을 보호하기 위해 아파트나 회사 빌딩 등의 내외부에 설치된다. 통상적으로 침입 감지 시스템은 카메라를 구비하고, 카메라를 통해 감시 영역을 지속적으로 촬영하는 방식과, 센서를 이용하여 이동물체의 감지 시 카메라를 통해 촬영한 이미지를 녹화하고 경보를 발생하는 방식이 있다.Intrusion or fire detection systems are typically installed inside or outside apartments or company buildings to protect the safety, property or confidentiality of individuals or companies. Intrusion detection systems typically include a camera, a method of continuously photographing a surveillance area through a camera, and a method of recording an image taken by the camera and generating an alarm when a moving object is detected using a sensor.

전자의 방식의 경우, 지속적으로 카메라를 통해 촬영하여 저장매체에 저장하고, 침입자에 의한 도난 발생 시 매체에 저장된 녹화 이미지를 검사하여 침입자를 찾아내는 방식이다. 그러나 상기 전자의 방식의 경우 경비원 또는 관리원이 촬영 이미지를 지속적으로 감시하여 침입자를 판단해야 하므로 침입을 미연에 방지하기는 어려운 측면이 있으며 또한 지속적인 촬영으로 많은 저장공간과 수시적인 저장매체의 관리를 필요로 한다. 따라서 침입 발생 후 해당 촬영 이미지를 찾기 어려운 문제점이 있으며, 많은 저장공간과 촬영된 이미지를 관리하기 위한 많은 시간과 비용이 소모되는 문제점이 있었다.In the former method, the intruder is continuously detected by the camera and stored in the storage medium, and the intruder is detected by examining the recorded image stored in the medium when the intruder is stolen. However, in the case of the former method, it is difficult to prevent an intrusion in advance because a security guard or a manager must continuously monitor the captured image, and also requires a lot of storage space and occasional storage media management by continuous shooting. Shall be. Therefore, there is a problem in that it is difficult to find the photographed image after the intrusion occurs, and a lot of storage space and time and cost for managing the photographed image was consumed.

후자의 방식의 경우, 센서에 의해 이동물체가 감지되는 경우에만 촬영하여 저장하므로 상기 전자의 방식에 비해 많은 저장공간을 요하지 않으며, 그 관리 또한 수월한 장점을 가진다. 그러나 센서의 동작이 원활하지 않거나 센서가 오동작하는 경우 또는 센서의 불량으로 인하여 동작하지 않는 경우 등이 발생하여 잘못된 촬영 및 외부로부터 침입자 발생 시 제대로 동작하지 않을 수 있는 문제점이 있었다.In the latter method, since only the moving object is detected by the sensor, only the moving object is photographed and stored, so that it does not require much storage space compared to the former method, and its management also has an easy advantage. However, when the operation of the sensor is not smooth or the sensor malfunctions or the sensor does not operate due to a defect, etc., there is a problem that may not operate properly when an incorrect intrusion and an intruder are generated from the outside.

한편, 이러한 문제점을 해결하기 위해 모션 검출에 의한 변화를 감지 또는 모션 검출 후 크기 판별에 의한 감지를 하는 방법이 소개되거나 또는 미리 배경 이미지를 저장하고 입력되는 촬영 이미지와 배경 이미지를 비교하여 그 이미지 변화 여부를 감지함으로써 침입 물체를 검출하는 방법이 소개되고 있다. 그러나, 이러한 방법은 침입을 감지하고자 하는 원하는 물체(침입자 등의 사람)가 아니라, 비특이적 물체 예를 들면 눈이나 비, 벌레 또는 카메라 앞을 순간적으로 지나치는 새나 벌레 등을 침입물체로 간주하여 오작동을 일으킬 수 있는 문제가 있다.In order to solve this problem, a method of detecting a change by motion detection or detecting a size after motion detection is introduced, or a background image is stored in advance, and the captured image is compared with the input image to change the image. A method of detecting an invasive object by detecting whether it is present has been introduced. However, this method is not intended to detect intrusions (persons such as intruders), but non-specific objects such as snow or rain, insects or birds or bugs that momentarily pass in front of the camera as intrusions to prevent malfunction. There is a problem that can be caused.

본 발명은 카메라로부터 제공받은 촬영 이미지에서 비특이적 물체를 제거하여 오동작을 줄임으로서 감지 성능에 대한 신뢰성을 향상시킬 수 있는 건물의 침입 감지를 위한 촬영 이미지 처리 시스템 및 방법을 제공하는데 그 목적이 있다.SUMMARY OF THE INVENTION An object of the present invention is to provide a photographing image processing system and method for detecting an intrusion of a building, which can improve reliability of detection performance by removing a non-specific object from a photographed image provided from a camera, thereby reducing malfunction.

본 발명은 촬영 이미지를 처리하는 과정에서 연산량을 줄여 연산 속도를 높일 수 있는 건물의 침입 감지를 위한 촬영 이미지 처리 시스템 및 방법을 제공하는 것이 다른 목적이다.Another object of the present invention is to provide a photographing image processing system and method for detecting an intrusion of a building, which can reduce the amount of computation in processing a photographed image, thereby increasing the computation speed.

상기 목적을 달성하기 위한 본 발명에 따른 건물의 침입 감지를 위한 촬영 이미지 처리 방법은, 건물의 침입 감지를 위한 촬영 이미지 처리 방법에 있어서, 상기 건물을 촬영하는 카메라로부터 촬영 이미지를 제공받는 단계; 상기 촬영 이미지로부터 배경 이미지를 분리하는 단계; 상기 촬영 이미지와 분리된 배경 이미지의 차이에 기초하여 이동하는 물체를 식별하기 위한 참고 이미지를 형성하는 단계; 상기 참고 이미지에서 물체 이미지를 추출하는 단계; 상기 참고 이미지에서 감지 대상에 속하지 않는 비특이적 물체 이미지를 제거하는 단계; 및 상기 비특이적 물체 이미지가 제거된 상기 참고 이미지에 남아 있는 물체 이미지가 지정된 감시 영역을 침범하는지 판단하는 단계를 포함하되, 상기 침범을 판단하는 단계는, 상기 남아 있는 물체의 이미지의 중심 좌표가 상기 지정된 감시 영역으로 침범하는 빈도에 따라 침입 여부를 판단하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a photographing image processing method for detecting an intrusion of a building, the method comprising: receiving a photographed image from a camera photographing the building; Separating a background image from the photographed image; Forming a reference image for identifying a moving object based on a difference between the photographed image and the separated background image; Extracting an object image from the reference image; Removing a non-specific object image which does not belong to a sensing object from the reference image; And determining whether an object image remaining in the reference image from which the non-specific object image has been removed invades a designated surveillance region, wherein the determining of the invasion comprises: specifying a center coordinate of the image of the remaining object in the designated image. It is characterized by determining whether the invasion according to the frequency of invading the surveillance area.

또한 본 발명에 따르면, 상기 촬영 이미지로부터 추출한 이미지 프레임들을 평균하여 상기 배경 이미지를 생성하고, 일정 주기 마다 오래된 이미지 프레임부터 새로운 이미지 프레임으로 교체하여 상기 배경 이미지를 업데이트 하는 단계를 더 포함한다.According to the present invention, the method may further include generating the background image by averaging the image frames extracted from the photographed image, and updating the background image by replacing the old image frame with a new image frame every predetermined period.

또한 본 발명에 따르면, 상기 배경 이미지를 생성하는 단계는 상기 추출한 이미지 프레임의 Y(밝기) 신호만을 사용하여 배경 이미지를 생성하는 경우와, 상기 추출한 이미지 프레임의 Y(밝기) 신호 및 색성분인 Cr, Cb를 모두 사용하여 배경 이미지를 생성하는 경우 중 어느 하나를 적용한다.According to the present invention, the generating of the background image may include generating a background image using only the Y (brightness) signal of the extracted image frame, Cr (Y) of the extracted image frame, and Cr, One of the cases in which the background image is generated using all of Cb is applied.

또한 본 발명에 따르면, 상기 참고 이미지를 생성하는 단계는, 상기 촬영 이미지를 블러링하고, 상기 블러링한 이미지의 Y 신호와 상기 배경 이미지의 Y 신호의 차이에 따라 흑색 또는 백색으로 변환시켜 상기 촬영 이미지와 배경 이미지의 차이가 흑백으로 나타나는 흑백 이미지를 생성하는 단계를 포함한다.According to the present invention, the generating of the reference image may include blurring the photographed image and converting the photographed image into black or white according to a difference between the Y signal of the blurred image and the Y signal of the background image. Generating a black and white image in which the difference between the image and the background image appears in black and white.

또한 본 발명에 따르면, 상기 참고 이미지를 형성하는 단계는, 상기 참고 이미지에서 작은 크기의 이미지를 제거하여 이미지 보정하고, 보정된 이미지를 논리 합 연산(OR)하여 참고 이미지의 크기를 줄이는 단계를 포함한다.According to the present invention, the forming of the reference image may include removing the small sized image from the reference image to correct the image, and reducing the size of the reference image by performing a logical sum operation (OR) on the corrected image. do.

또한 본 발명에 따르면, 상기 비특이적 물체 이미지를 제거하는 단계는, 상기 추출된 물체 이미지의 크기가 미리 설정된 최소 크기 보다 작거나 최대 크기 보다 크면 제거하는 단계를 포함한다.Further, according to the present invention, the step of removing the non-specific object image, if the size of the extracted object image is smaller than the predetermined minimum size or larger than the maximum size includes removing.

또한 본 발명에 따르면, 상기 비특이적 물체를 제거하는 단계는, 상기 추출된 물체 이미지의 가로 크기와 세로 크기의 비율이 미리 설정된 비율 보다 크면 제거하는 단계를 포함한다.According to the present invention, the removing of the non-specific object may include removing the ratio of the horizontal size and the vertical size of the extracted object image larger than a preset ratio.

또한 본 발명에 따르면, 상기 비특이적 물체를 제거하는 단계는, 상기 추출된 물체 이미지가 연속적으로 나타나는 이미지 프레임들에서 동일한 물체 이미지가 이동한 거리가 미리 설정된 거리보다 크면 제거하는 단계를 포함한다.Also, according to the present invention, the removing of the non-specific object may include removing if the distance traveled by the same object image is greater than a predetermined distance in image frames in which the extracted object image is continuously displayed.

상기 목적을 달성하기 위한 본 발명에 따른 건물의 침입 감지를 위한 촬영 이미지 처리 시스템은, 상기 건물을 촬영하는 카메라; 상기 카메라부터 제공받은 촬영 이미지로부터 배경 이미지를 분리하고, 상기 촬영 이미지와 분리된 배경 이미지의 차이에 기초하여 이동하는 물체를 식별하기 위한 참고 이미지를 형성하며, 상기 참고 이미지에서 물체 이미지를 추출하며, 추출된 물체 이미지 중 감지 대상에 속하지 않는 비특이적 물체 이미지를 제거한 다음 상기 참고 이미지에 남아 있는 물체 이미지가 지정된 감시 영역을 침범하는지 판단하는 이미지 처리부; 및 상기 이미지 처리부의 판단에 따라 침입 발생을 알리기 위하여 설정된 이벤트를 발생하는 이벤트 발생부를 포함하되, 상기 이미지 처리부는 상기 남아 있는 물체 이미지의 중심 좌표가 상기 지정된 감시 영역을 침범하는 빈도에 따라 침입 여부를 판단하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a photographing image processing system for detecting an intrusion of a building, the camera photographing the building; Separating the background image from the photographed image provided from the camera, forming a reference image for identifying a moving object based on a difference between the photographed image and the separated background image, extracting an object image from the reference image, An image processing unit for removing a non-specific object image that does not belong to the sensing object from the extracted object image and then determining whether the object image remaining in the reference image violates the designated surveillance region; And an event generating unit generating an event set to notify the occurrence of an invasion according to the determination of the image processing unit, wherein the image processing unit determines whether or not the intrusion is based on a frequency at which the center coordinates of the remaining object image invade the designated surveillance region. It is characterized by judging.

삭제delete

상기와 같은 본 발명에 의하면, 촬영 이미지에서 비특이적 물체를 제거하여 침입을 감지하고자 하는 물체를 정확하게 감지하여 오동작을 줄임으로서 감지 성능에 대한 신뢰성을 향상시킬 수 있다. 또한 본 발명은 촬영 이미지를 처리하는 과정 에서 연산량을 줄여 연산 속도를 높일 수 있다.According to the present invention as described above, by removing the non-specific object from the photographed image to accurately detect the object to detect the intrusion to reduce the malfunction can improve the reliability of the detection performance. In addition, the present invention can increase the operation speed by reducing the amount of computation in the process of processing the photographed image.

본 발명의 상기와 같은 목적, 특징 및 다른 장점들은 첨부도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명함으로써 더욱 명백해질 것이다. 이하 첨부된 도면을 참조하여 본 발명의 실시예에 따른 건물의 침입 감지를 위한 촬영 이미지 처리 시스템 및 방법에 대해 상세히 설명하기로 한다.The above objects, features and other advantages of the present invention will become more apparent by describing the preferred embodiments of the present invention in detail with reference to the accompanying drawings. Hereinafter, a photographing image processing system and method for detecting an intrusion of a building according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1을 참조하면 본 발명이 적용되는 촬영 이미지 처리 시스템은 건물을 촬영한 이미지를 제공하기 위한 카메라(110)와, 신호 변환부(120), 이미지 처리부(130), 이미지 저장부(140) 및 이벤트 발생부(150)를 포함한다.Referring to FIG. 1, a photographing image processing system to which the present invention is applied includes a camera 110, a signal converter 120, an image processor 130, an image storage unit 140, and a camera 110 for providing an image of a building. The event generator 150 is included.

카메라(110)는 감시 지역인 건물의 지정영역을 촬영하는 것으로, 일반 CCTV 카메라나 적외선 카메라 또는 Day & Night 카메라가 적용될 수 있다. 카메라는 효과적인 촬영을 위해 일반적으로 건물의 지정 영역으로부터 일정 거리 떨어진 위치에 설치된다. 카메라(110)는 하나 이상인 것이 가능하며, 복수개의 카메라를 설치하여 동시 촬영하는 경우 선택스위치(미도시)에 의해 어느 하나의 카메라를 통해 촬영한 신호를 선택하는 것도 가능하다.The camera 110 photographs a designated area of a building that is a surveillance area, and a general CCTV camera, an infrared camera, or a day & night camera may be applied. Cameras are usually installed at a distance from a designated area of the building for effective shooting. The camera 110 may be one or more, and when a plurality of cameras are installed at the same time, it is also possible to select a signal photographed through any one camera by a selection switch (not shown).

신호 변환부(120)는 카메라로부터 입력된 촬영 신호를 디지털 신호로 변환한다. 그리고 이 변환된 신호 중 Y신호 성분 값만 사용하여 해상도를 줄여 이미지의 크기를 줄인다. 즉, 일 예로 변환된 디지털 신호의 NTCT 720*480(PAL 720*576) 사이즈를 NTCT 352*240(PAL 352*288) 줄인 후 초당 30프레임(NTCT 기준)의 데이터 중 1/4인 7.5프레임을 사용하여 이미지 처리부(130)로 전송한다. 이미지 처리부(130) 는 전송 받은 데이터를 이용하여 신호 처리를 수행한다. The signal converter 120 converts the photographing signal input from the camera into a digital signal. And the size of the image is reduced by reducing the resolution by using only the Y signal component value of the converted signal. For example, after reducing the NTCT 720 * 480 (PAL 720 * 576) size of the converted digital signal to NTCT 352 * 240 (PAL 352 * 288), 7.5 frames, which is 1/4 of 30 frames per second (NTCT standard), are reduced. To the image processor 130. The image processor 130 performs signal processing using the received data.

이미지 처리부(130)는 전송 받은 데이터를 단계적으로 처리하는 과정을 통하여 물체 이미지와 배경 이미지를 분리해낸 후, 건물의 침입감지를 수행한다. 이미지 처리부(130)는 이미지 필터링부(132), 물체 추출부(134), 비특이적 물체 제거부(135), 침입 감지부(136)를 포함한다. 이미지 처리부(130)의 구체적인 동작은 후술하기로 한다.The image processor 130 separates the object image and the background image through a stepwise process of the received data and then performs intrusion detection of the building. The image processor 130 includes an image filter 132, an object extractor 134, a non-specific object remover 135, and an intrusion detector 136. Specific operations of the image processor 130 will be described later.

이미지 저장부(140)는 촬영 이미지, 배경 이미지 등을 저장한다. 상기 이미지 저장부(140)에 저장되는 촬영 이미지는 모든 촬영 이미지를 계속 녹화하는 것이 아니고, 침입을 감지하는 시점의 촬영 이미지만을 저장하도록 하여 프라이버시 문제나 용량의 문제를 해결할 수 있다.The image storage unit 140 stores a photographed image, a background image, and the like. The captured image stored in the image storage unit 140 may not record all the captured images continuously, but may store only the captured image at the time of detecting an intrusion, thereby solving a privacy problem or a capacity problem.

이벤트 발생부(140)는 이미지 처리부(130)의 신호를 받아 지정된 영역에서 침입 또는 화재가 감지된 경우, 설정된 방법 예를 들면 컴퓨터에 내장된 부저, 스피커를 이용한 경고음, 릴레이(Relay) 작동으로 인한 외부기기 동작, 인터넷을 이용한 메일 또는 문자를 전송하는 방법 등에 의해 이벤트를 전송하게 된다.The event generating unit 140 receives a signal from the image processing unit 130 and detects an intrusion or a fire in a specified area. For example, the event generator 140 may generate a buzzer, a warning sound using a speaker, and a relay operation. An event is transmitted by an external device operation, a method of transmitting an e-mail or a text using the Internet, and the like.

이하 도 2를 참조하여 본 발명에 따른 건물의 침입 감지를 위한 촬영 이미지 처리 시스템 및 방법에 대해 상세히 설명하기로 한다. Hereinafter, a photographing image processing system and method for detecting an intrusion of a building according to the present invention will be described in detail with reference to FIG. 2.

먼저 건물의 지정된 영역을 카메라(110)로 촬영한다(S210). 도 3에 도시된 바와 같이, 본 실시예에 따른 카메라(110)는 건물(BD)의 외부에 설치되어 감시가 필요한 건물의 지정된 영역을 촬영할 수 있도록 설치된다. 감시 영역이 건물의 내부일 경우 상기 카메라(110)는 건물의 내부에 설치될 수 있으나, 본 실시예에 의하 면 아파트나 고층빌딩, 공장 등 건물의 외부를 촬영할 수 있도록 설치되어, 건물의 외벽에 설치된 가스관 또는 기타 구조물을 통한 건물의 침입을 감지하거나 화재를 감지할수 있도록 하는 것이 바람직하다. 또한, 아파트나 빌딩처럼 전등에 의해 밝기가 수시로 변화하는 창문, 광고판 등은 감시영역에서 제외시키는 것이 바람직하다. 카메라에 의해 촬영된 이미지는 신호 변환부(120)로 제공되는데, 도 6a는 그러한 촬영 이미지의 예를 보인 것이다.First, the designated area of the building is photographed by the camera 110 (S210). As shown in FIG. 3, the camera 110 according to the present exemplary embodiment is installed outside the building BD so as to photograph a designated area of a building that requires monitoring. When the monitoring area is the interior of the building, the camera 110 may be installed inside the building. However, according to the present embodiment, the camera 110 may be installed to photograph the exterior of the building such as an apartment, a high-rise building, or a factory. It is desirable to be able to detect intrusions of buildings through fired gas lines or other structures or to detect fires. In addition, it is desirable to exclude windows, billboards, etc., whose brightness changes from time to time, such as apartments or buildings, from the surveillance area. The image captured by the camera is provided to the signal converter 120, and FIG. 6A shows an example of such a captured image.

그 후, 신호 변환부(120)는 카메라(110)로부터 입력된 촬영 신호를 디지털 신호로 변환한 후(S220), 이 변환된 신호 중 Y(밝기) 신호 성분 값만 사용하여 해상도를 줄여 이미지 크기를 줄인다(S230). 즉, 일 예로 신호 변환부(120)는 변환된 디지털 신호 중 Y 성분의 값만 사용하여 NTSC 720*480(PAL 720*576) 크기를 NTSC 352*240(PAL 352*288)로 줄인 후, 초당 30프레임(NTSC 기준)의 데이터 중 1/4인 7.5프레임을 추출하여 이미지 처리부(130)로 전송한다. 그러나 본 발명은 이에 한정되지 않으며, 초당 n개의 입력 이미지 프레임들 중 (1/2)n 내지 (1/4)n 개의 이미지 프레임들을 적절하게 이용할 수 있다. 이렇게 이미지 크기를 줄임으로써 이미지 처리부(130)에서의 처리 부하를 줄여 처리 속도를 높일 수 있다.Thereafter, the signal converter 120 converts the photographing signal input from the camera 110 into a digital signal (S220), and then reduces the resolution by using only the Y (brightness) signal component value among the converted signals to reduce the image size. Reduce (S230). That is, as an example, the signal converter 120 reduces the NTSC 720 * 480 (PAL 720 * 576) size to NTSC 352 * 240 (PAL 352 * 288) using only the Y component value of the converted digital signal, and then 30 per second. 7.5 frames, which are one-quarter of the frame (NTSC reference) data, are extracted and transmitted to the image processor 130. However, the present invention is not limited thereto, and (1/2) n to (1/4) n image frames of n input image frames per second may be appropriately used. By reducing the image size as described above, the processing speed of the image processor 130 may be reduced to increase the processing speed.

그 후, 이미지 필터링부(132)는 주변 화소를 이용하여 평균하는 이미지 필터를 사용하여 촬영 이미지를 블러링(blurring)한다(S240). 도 6b에 보인 이미지는 도 6a의 촬영 이미지를 블러링한 경우의 예이다. 촬영 이미지를 블러링하는 이유는, 카메라의 진동이나 카메라 자체에서 촬영 신호를 처리하는 과정에서 발생하는 노이즈 성분을 제거하기 위함이다. 이를 구체적으로 설명한다.Thereafter, the image filtering unit 132 blurs the captured image by using an image filter that averages using the surrounding pixels (S240). The image shown in FIG. 6B is an example of the blurring of the captured image of FIG. 6A. The reason for blurring the captured image is to remove noise components generated during the vibration of the camera or the processing of the captured signal by the camera itself. This will be described in detail.

기존에도 노이즈 제거를 위해 화소값의 평균을 구하는 방법이 소개되었는데, 기존의 방법은 도 4a에 도시된 바와 같이, 이미지 프레임을 2*2, 3*3, 5*5 크기의 영역으로 나누고, 나눗셈 연산하여 평균한다. 즉 첫 번째 표는 2*2 마스크를 사용하는 것으로서 이미지 프레임의 영역을 4등분하고 각 영역을 합친 것을 4로 나눈 평균값을 구한 것이다. 마찬가지로 두 번째 표는 3*3 마스크를 사용하는 것으로서 이미지 프레임의 영역을 9등분하고 각 영역을 합친 것을 9로 나눈 평균값을 구한 것이며, 세 번째 표는 3*3 가중치를 둔 마스크를 이용한 것이다. 이렇게 화소값들을 평균하면, 노이즈 성분이 서로 상쇄되어 노이즈 성분이 제거된 화소값을 얻을 수 있게 된다. 그러나, 기존의 방식처럼 연산하는 경우 나눗셈 연산으로 인해 연산속도의 저하가 발생하는 문제점이 있다.Previously, a method of calculating an average of pixel values for noise removal has been introduced. The conventional method divides and divides an image frame into 2 * 2, 3 * 3, and 5 * 5 sized regions as shown in FIG. 4A. Compute and average. In other words, the first table uses a 2 * 2 mask, which is obtained by dividing the area of the image frame into quarters and the sum of the areas divided by four. Similarly, the second table uses a 3 * 3 mask, which is obtained by averaging the area of the image frame into nine equal parts and the sum of the areas divided by nine. The third table uses a mask with 3 * 3 weights. When the pixel values are averaged in this way, the noise components cancel each other out to obtain a pixel value from which the noise components are removed. However, when the operation is performed as in the conventional method, there is a problem in that the operation speed is lowered due to the division operation.

도 4b는 본 발명에 의한 화소값을 평균하는 방법을 표로 나타낸 것이다. 먼저 좌측 표와 같이 9개의 영역 중 가운데 영역(z)을 제외하고 나머지 영역의 평균 화소값(s)을 구한다. 그리고 우측 표와 같이 가운데를 제외한 나머지 영역에는 s가 할당되고, 가운데 영역은 표 아래의 수식을 이용하여 값을 구한다. 도시된 바와 같이 좌측 표와 우측 표는 모두 2의 배수 값(8,4)으로 나눈 것을 나타낸다.4B is a table showing a method of averaging pixel values according to the present invention. First, as shown in the left table, the average pixel value s of the remaining areas except for the center area z is obtained. As shown in the table on the right, s is allocated to the remaining areas except the center, and the center area is calculated using the formula below the table. As shown, both the left and right tables represent the division by a multiple of two (8, 4).

이렇게 2의 배수 값으로 연산할 수 있도록 마스크 및 수식을 설정하고, 두 번으로 나누어서 연산하게 되면 고속으로 필터연산을 수행할 수 있게 된다. 왜냐하면 2의 배수로 나눗셈할 경우 쉬프트(shift) 연산으로 1클럭(clock)만에 연산할 수 있기 때문이다.In this way, the mask and the expression are set to operate with a multiple of 2, and the operation is performed by dividing into two so that the filter operation can be performed at high speed. Because dividing by a multiple of 2, the shift operation can be performed in only one clock.

한편, 이미지 필터링부(132)는 블러링한 이미지로부터 배경 이미지를 생성하 고, 일정 주기마다 배경 이미지를 업데이트하여 이미지 저장부(140)에 저장한다(S250). 도5를 참조하면, 설정된 시간(t) 마다 이미지 프레임을 설정된 N개의 이미지 버퍼에 각각 저장하고(S251), 그 N개의 이미지를 평균하여 구한 이미지를 배경 이미지로 저장한다(S253). 예를 들어 t가 4초이고, N이 16으로 설정한다면, 노이즈가 제거된 후 4초당 1개 프레임이 16개의 이미지 버퍼에 각각 순차적으로 저장(64초 동안 16개 이미지 프레임이 이미지 버퍼에 채워지게 된다)되고, 상기 16개의 이미지를 평균하여 구한 것이 배경 이미지로 저장된다. 또한 최초 배경 이미지를 생성한 이후부터 상기 N개의 이미지 버퍼에 오래된 이미지 프레임부터 순차적으로 교체하여 결국 상기 배경 이미지를 설정된 시간(t) 마다 업데이트 한다(S252)(S254). 위 예에서 4초 마다 오래된 이미지 프레임을 제외하는 대신 새로운 이미지 프레임을 포함하는 16개의 이미지를 평균하여 구한 것을 새로운 배경 이미지로 저장하는 것으로, 결국 4초마다 배경 이미지가 업데이트 되는 것이다. Meanwhile, the image filtering unit 132 generates a background image from the blurred image, updates the background image at regular intervals, and stores the background image in the image storage unit 140 (S250). Referring to FIG. 5, an image frame is stored in each of the set N image buffers at each set time t (S251), and an image obtained by averaging the N images is stored as a background image (S253). For example, if t is 4 seconds and N is set to 16, then 1 frame per 4 seconds is sequentially stored in each of 16 image buffers after the noise is removed (so that 16 image frames fill the image buffer for 64 seconds). The average of the sixteen images is stored as a background image. In addition, after generating the first background image, the old image frames are sequentially replaced in the N image buffers, and the background image is updated at each set time t (S252) (S254). In the above example, instead of excluding the old image frame every four seconds, the average of 16 images including the new image frame is stored as a new background image. The background image is updated every four seconds.

비나 눈 같은 물체는 동일한 위치에 찍히지 않으므로 이미지를 여러 장 찍어서 평균을 구해 배경 이미지로 사용하는 것이다. 이렇게 간단하게 처리하는 이유는 연산량을 줄여서 이미지 처리부(130)가 여러 채널의 데이터를 처리하기 위함이며, 배경 이미지의 지속적인 변경을 통해서 환경변화에 적응하도록 하여 물체 감지에 더욱 정확성을 높일 수 있는 이점이 있다. 다만 눈이나 비가 내릴 경우 배경 이미지 자체가 약간 뿌옇게 추출될 수 있다. 도 6c에 보인 이미지는 도 6b에서 블러링한 이미지들로부터 추출한 이미지로부터 만든 배경 이미지의 예이다. Objects such as rain or snow are not taken at the same location, so you take several images and use them as a background image. The reason for this simple process is to reduce the amount of computation so that the image processing unit 130 processes data of multiple channels, and has the advantage of increasing accuracy in object detection by adapting to environmental changes through continuous changes of the background image. have. However, in case of snow or rain, the background image itself may be slightly blurred. The image shown in FIG. 6C is an example of a background image made from an image extracted from the images blurred in FIG. 6B.

또한 이미지 필터링부(132)는 촬영 이미지를 블러링하고 배경 이미지를 생성 및 업데이트하는 기능 이외에 블러링한 이미지와 배경 이미지의 차이에 따라 이동 물체를 식별하기 위한 참고 이미지를 생성한다(S260). 배경 이미지에는 이동 물체의 이미지가 포함되지 않을 수 있으나 블러링한 이미지에는 이동 물체 이미지가 포함되어 있게 되므로, 이러한 이미지 특성을 고려하여 이동 물체를 용이하게 식별하기 위한 참고 이미지를 만들어 침입 대상을 인식하는데 활용할 수 있다.In addition, the image filtering unit 132 generates a reference image for identifying the moving object according to the difference between the blurred image and the background image in addition to the function of blurring the captured image and generating and updating the background image (S260). Although the background image may not include the moving object image, the blurred image includes the moving object image. Therefore, in order to recognize the intrusion target by creating a reference image to easily identify the moving object in consideration of the characteristics of the image. It can be utilized.

먼저 이미지 필터링부(132)는 블러링한 이미지와 배경 이미지에서 Y 신호의 크기 차이가 설정된 기준값보다 큰지에 따라 흑색 또는 백색으로 변환시켜 참고 이미지를 생성한다(S261). 일 예로 참고 이미지에는 물체 이미지에 해당하는 영역이 백색으로 물체 이미지가 아닌 영역이 흑색으로 나타나게 된다. 이러한 흑백의 참고 이미지의 예는 도 6d에 도시한 바와 같다.First, the image filtering unit 132 generates a reference image by converting the blurred image and the background image into black or white depending on whether the difference in magnitude of the Y signal is greater than the set reference value (S261). For example, in the reference image, an area corresponding to the object image is white and an area other than the object image is displayed in black. An example of such a black and white reference image is shown in Fig. 6D.

본 실시 예에서는 Y 신호의 크기에 따라 참고 이미지를 만드는 방법을 소개하고 있으나, 이에 한정하는 것은 아니다. 예를 들면 신호 변환부에서 Y 신호와 색성분인 Cr, Cb 신호를 모두 사용하여 이미지 프레임을 만들고 이 이미지 프레임을 선별하여 컬러 배경 이미지를 생성하는 경우, Y 신호의 크기가 비슷하더라도 이동 물체가 있을 수 있는 상황을 고려할 때 Y 신호의 크기 뿐 아니라 색성분인 Cr, Cb 신호의 크기를 기준으로 하여 흑색 또는 백색으로 변환시켜 촬영 이미지와 배경 이미지의 차이가 흑백으로 나타나는 참고 이미지를 생성할 수도 있다.The present embodiment introduces a method of making a reference image according to the magnitude of the Y signal, but is not limited thereto. For example, if the signal converter creates an image frame using both the Y signal and the Cr and Cb signals as color components, and selects the image frame to generate a color background image, there may be a moving object even though the Y signal is similar in size. In consideration of the present situation, the reference image may be generated in black or white based on the size of the Cr and Cb signals as color components, as well as the Y signal, to generate a reference image in which the difference between the photographed image and the background image is black and white.

이렇게 생성된 참고 이미지를 신호 처리하는 과정에서 연산량을 더욱 줄이기 위해, 이미지 필터링(132)가 참고 이미지에 대한 이미지 보정 및 크기를 조절한다. In order to further reduce the amount of computation in the signal processing of the generated reference image, the image filtering 132 adjusts the image correction and the size of the reference image.

도 6d와 같이 처음 생성한 참고 이미지에는 감지 대상에 속하는 물체와 관련 없는 작은 크기의 이미지가 포함되는데, 이를 제거하기 위한 이미지 보정을 한다. 이미지 보정 방법은 도 7에 도시한 바와 같이, 가운데 화소(k) 자신을 둘러싸고 있는 주변의 8 화소(j1-j8)가 모두 백색인 경우에만 그 화소를 포함하는 9 등분의 영역 전체를 백색 화소(w)로 정한다. 이러한 이미지 보정 방법을 적용하여 도 6d의 이미지를 보정하면 도 6e의 보정된 이미지가 얻어진다.As shown in FIG. 6D, the first generated reference image includes an image of a small size that is not related to an object belonging to a sensing object, and an image correction is performed to remove it. As shown in FIG. 7, the entire image of the nine equal regions including the pixel is entirely white when the surrounding eight pixels j1 to j8 surrounding the center pixel k are all white. set to w). By applying this image correction method to correct the image of FIG. 6D, the corrected image of FIG. 6E is obtained.

그런 다음 보정된 참고 이미지의 크기를 조절한다. 이미지 크기 조절 방법은 논리 합 연산(OR)을 이용하여 해상도를 줄여 크기를 축소한다. 도 8에 도시한 바와 같이, 4개 화소로 구성된 4개 블록(A1,A2,A3,A4)은 하나의 블록(B1)의 4개 화소(Ba, Bb, Bc, Bd)에 각각 대응시켜 축소 연산하는데, 일 예로 원래 이미지에 속하는 임의 블록(A1)의 4개 화소 중 어느 하나라도 백색이면 축소되는 이미지에 속하는 블록(B1)의 화소(Ba)는 백색으로 정한다. 이러한 이미지 크기 조절 방법을 적용하여 도 6e의 이미지로부터 도 6f의 이미지가 얻어지는데, 도 6f의 전체 이미지 중 좌측 상단의 1/4 영역을 제외한 나머지 3/4 영역에 대해서 연산하지 않는다. 이에 따라 참고 이미지의 크기가 줄어들어 4배 정도 연산량이 적어진다.Then adjust the size of the corrected reference image. The image resizing method uses a logical sum operation (OR) to reduce the resolution to reduce the size. As shown in FIG. 8, four blocks A1, A2, A3, and A4 composed of four pixels are reduced in correspondence with the four pixels Ba, Bb, Bc, and Bd of one block B1, respectively. For example, if any one of the four pixels of the arbitrary block A1 belonging to the original image is white, the pixel Ba of the block B1 belonging to the reduced image is determined to be white. The image of FIG. 6F is obtained from the image of FIG. 6E by applying the image resizing method, but does not operate on the remaining 3/4 region except for the 1/4 region of the upper left side of the entire image of FIG. 6F. As a result, the size of the reference image is reduced, which reduces the computation amount by about four times.

이렇게 이미지 필터링부(132)에서 이미지 보정되고 이미지 크기가 조절된 이후, 물체 추출부(134)는 그러한 참고 이미지에서 물체 이미지를 추출한다(S270). 이를 구체적으로 설명한다. After the image is corrected in the image filtering unit 132 and the image size is adjusted, the object extracting unit 134 extracts the object image from the reference image (S270). This will be described in detail.

물체 추출부(134)는 참고 이미지에서 백색 화소가 군집된 영역에 번호를 부여하는 라벨링(labeling) 하는데, 도 9a에 예시한 바와 같이 4개 물체 이미지(T1, T2, T3, T4)가 특정된다.The object extracting unit 134 may label a region in which white pixels are clustered in the reference image, and four object images T1, T2, T3, and T4 may be specified as illustrated in FIG. 9A. .

그런 다음 물체 추출부(134)는 각각의 물체 이미지에 대하여 그 물체 이미지를 포함하는 사각형을 설정한다. 예를 들어, 임의의 물체 이미지(T1)는 도 9b에 도시한 바와 같이, 동서남북 4방향의 끝단(P1, P2, P3, P4)의 좌표를 이용하여 사각형의 크기 즉 물체 이미지의 크기를 구한다. 도 9c에 예시한 바와 같이 물체 이미지에 대응하는 여러 사각형의 크기는 다를 수 있다.Then, the object extraction unit 134 sets a rectangle including the object image for each object image. For example, as shown in FIG. 9B, the arbitrary object image T1 obtains the size of the rectangle, that is, the size of the object image, using the coordinates of the ends P1, P2, P3, and P4 in the four directions. As illustrated in FIG. 9C, the sizes of the various rectangles corresponding to the object images may be different.

비특이적 물체 제거부(135)는 침입 감지의 신뢰성을 높이기 위해 물체 추출부(134)에 의해 추출된 물체 이미지에서 감지 대상에 속하지 않는 비특이적 물체를 제거한다(S280). The nonspecific object removing unit 135 removes nonspecific objects that do not belong to the sensing object from the object image extracted by the object extracting unit 134 in order to increase the reliability of intrusion detection (S280).

여기서 비특이적 물체란 건물의 침입 감지 또는 화재 감지를 하는데 있어서, 탐지하고자 하는 물체(예를 들어 침입의 경우 사람 등, 화재의 경우 연기, 불 등)와 실질적으로 관련 없는 물체를 말한다. 비특이적 물체의 제거 과정은 아래와 같이 단계적으로 수행된다.Here, the non-specific object refers to an object that is substantially unrelated to the object to be detected (for example, a person in case of intrusion, smoke, fire, etc. in case of fire) in detecting an intrusion or fire of a building. The removal process of the nonspecific object is performed step by step as follows.

먼저, 추출된 물체 이미지의 이미지 크기가 미리 설정된 최소 크기(MIN), 또는 최대 크기(MAX)를 넘어서는 경우 비특이적 물체로 인식하여 제외한다. 왜냐하면 벌레나 쥐와 같이 작은 동물은 촬영 이미지에서 작은 크기로 표시되는데, 이렇게 미리 설정된 최소 크기보다 작은 물체는 실질적으로 감지 대상에 속하지 않으므로 비특이적 물체로 간주하여 제외한다. 도10은 비특이적 물체가 포함된 촬영 이미지를 나타낸 것으로, 이 촬영 이미지에 오버랩(overap)한 작은 사각형은 감지 대상의 물체 이미지 보다 작은 비특이적 물체를 제거하기 위한 최소 필터(Min filter) 크기를 의미하며, 촬영 이미지에 오버랩한 큰 사각형은 감지 대상의 물체 이미지 보 다 큰 비특이적 물체를 제거하기 위한 최대 필터(Max filter) 크기를 의미한다. 그리고 우측에 표시된 물체 이미지 최소 필터 크기 보다 작아서 제거 대상이 되는 비특이적 물체에 해당한다.First, when an image size of the extracted object image exceeds a preset minimum size MIN or maximum size MAX, the image is recognized and excluded as a nonspecific object. Because small animals, such as bees and rats, are displayed in a small size in the captured image, objects smaller than the predetermined minimum size are not included in the sensing object and are considered as non-specific objects. FIG. 10 illustrates a photographing image including a non-specific object. A small square overlapping the photographing image represents a minimum filter size for removing a non-specific object smaller than an object image to be detected. The large rectangle overlapping the captured image means the maximum filter size for removing non-specific objects larger than the object image to be detected. It corresponds to a non-specific object to be removed because it is smaller than the object image minimum filter size shown on the right side.

또한 비특이적 물체 제거부(135)는 추출된 물체 이미지의 가로 크기와 세로 크기의 비율이 이상(異常)적인 경우 비특이적 물체로 간주하여 제거한다. 도 11에 도시된 바와 같이, 카메라 앞에서 내리는 눈이나 비의 경우 카메라에 의해 길게 찍히게 된다. 즉, 가로의 비율보다 세로의 비율이 월등하게 크게 된다. 이처럼 한쪽으로 너무 긴 물체는 감지 대상에 속하지 않는 비특이적 물체로 간주하여 제외시킨다.In addition, the nonspecific object removing unit 135 removes the non-specific object when the ratio of the horizontal size and the vertical size of the extracted object image is abnormal. As shown in FIG. 11, in the case of snow or rain falling in front of the camera, the camera is long taken by the camera. In other words, the vertical ratio is significantly larger than the horizontal ratio. Objects that are too long to one side are considered as nonspecific objects that do not belong to the detection object and are excluded.

또한 비특이적 물체 제거부(135)는 연속하는 이미지 프레임에서 물체 이미지의 크기 변화가 큰 경우 이를 비특이적 물체 이미지로 간주하여 제거한다. 다시 도 9c를 참고하면, 임의 물체 이미지(D3)는 첫 번째 이미지 프레임(F1)과 두 번째 이미지 프레임(F2)에서 나타나지만 세 번째 이미지 프레임에서 사라진다. 또한 첫 번째 이미지 프레임에서의 물체 이미지(D3)의 크기가 두 번째 이미지 프레임에서 급격하게 커진다. 이러한 물체 이미지(D3)는 비특이적 물체에 해당한다. 이는 눈, 비, 새와 같은 이동 물체는 카메라의 감시 영역에서 순간적으로 나타났다가 사라지는 특성이 있는데, 단위시간당 이동거리가 미리 설정된 거리보다 큰 경우 이를 비특이적 물체로 간주하여 제거하는 것이 가능하다. In addition, the nonspecific object removing unit 135 considers and removes the non-specific object image when the size change of the object image is large in successive image frames. Referring again to FIG. 9C, the random object image D3 appears in the first image frame F1 and the second image frame F2 but disappears in the third image frame. In addition, the size of the object image D3 in the first image frame increases rapidly in the second image frame. This object image D3 corresponds to a nonspecific object. This is because moving objects such as snow, rain and birds appear and disappear instantaneously in the surveillance area of the camera. If the moving distance per unit time is larger than the preset distance, it can be regarded as a non-specific object and can be removed.

전술한 바와 같이 본 실시 예에서 입력되는 촬영 이미지는 초당 30프레임(NTCT 기준) 중에서 1/4 인 7.5 프레임을 사용하게 되는데, 한 프레임에서 다음 프레임의 데이터가 들어오는 시간은 0.1333초(133ms)가 된다. 도 12에 도시한 바와 같이, 측정 대상의 물체 이미지가 0.133초 동안 이동하는 거리는 카메라가 설치되는 위치에 따라 다르지만 "A"와 같이 연속하는 3개 이미지 프레임에서 제한적으로 나타난다. 이런 조건을 이용하여 측정 대상의 물체 이미지가 연속하는 2개 이미지 프레임에서 "B"와 같이 긴 거리를 이동하는 것은 카메라 앞을 순간적으로 지나가는 눈, 비, 벌레, 새 등의 비특이적 물체로 간주하여 제거하게 된다.As described above, the captured image input in this embodiment uses 7.5 frames, which is 1/4 of 30 frames per second (NTCT basis), and the time for receiving data of the next frame from one frame is 0.1333 seconds (133 ms). . As shown in FIG. 12, the distance at which the object image to be measured moves for 0.133 seconds varies depending on the position where the camera is installed, but is limited in three consecutive image frames such as "A". Using this condition, moving a long distance such as "B" in two consecutive frames of the object's image under measurement is regarded as a non-specific object such as snow, rain, bugs, birds, etc., passing in front of the camera and removed. Done.

이와 같이 본 발명에 의하면 다양한 방법을 이용하여 단계적으로 촬영 이미지에서 비특이적 물체 이미지를 제거하면, 감지 대상의 물체 인식에 있어서 정확도가 높아지고 연산량이 줄어 연산 속도를 높일 수 있다.As described above, according to the present invention, if the non-specific object image is removed from the photographed image by using various methods, the accuracy of recognition of the object to be detected is increased and the amount of calculation is reduced, thereby increasing the computation speed.

비특이적 물체 제거부(135)가 비특이적 물체 이미지를 제거한 후 침입감지부(136)는 비특이적 물체 이미지가 제거되고 참고 이미지에 남아 있는 물체 이미지의 경로를 추적한다. 여기서 추출한 물체 이미지를 쉽게 인식할 수 있도록 물체 이미지의 외곽을 폐곡선으로 표시할 수 있다. 물체 이미지의 외곽을 폐곡선으로 표시하는 방법은 실체 물체의 외곽을 폐곡선으로 표시하는 방법과 물체 이미지를 둘러싸는 박스 형상으로 표시할 수 있으며, 본 발명은 어느 것에 한정되지 않는다. 후자의 방법에 따라 촬영 이미지에 오버랩하여 표시한 경우의 예가 도 6g에 도시되어 있다.After the nonspecific object removing unit 135 removes the nonspecific object image, the intrusion detecting unit 136 removes the nonspecific object image and tracks the path of the object image remaining in the reference image. In order to easily recognize the extracted object image, the outline of the object image may be displayed as a closed curve. The method of displaying the outline of the object image by the closed curve may be displayed by the method of displaying the outline of the real object by the closed curve and by the box shape surrounding the object image, and the present invention is not limited thereto. An example of the case where the captured image is displayed overlapped according to the latter method is shown in Fig. 6G.

침입 감지부(136)가 연속하는 이미지 프레임에서 그 물체 이미지의 이동을 추적하여 지정된 감시 영역으로 침범하였는지 판단한다(S290). 침범을 판단하는 방법은 추출된 물체 이미지의 중심점에 대응하는 좌표가 도 6g의 적색으로 표시된 지 정된 감시영역으로 진입하는 침범의 빈도를 가지고 판단하는데, 침범이 발생하는 이미지 프레임의 개수가 지정된 개수(예를 들면 3개)이상 검출되는 경우 상기 지정된 감시영역을 침범한 것으로 판단한다. 이에 따라 침입 감지부(136)는 침입 발생 신호를 이벤트 발생부(150)에 제공한다.The intrusion detecting unit 136 tracks the movement of the object image in successive image frames and determines whether the intrusion detection unit 136 has invaded the designated surveillance region (S290). In the method of determining an invasion, the coordinate corresponding to the center point of the extracted object image is determined with the incidence of invasion into the designated surveillance region, which is indicated by red in FIG. 6G. For example, if more than three) are detected, it is determined that the specified surveillance area is violated. Accordingly, the intrusion detection unit 136 provides an intrusion occurrence signal to the event generator 150.

물체 이미지가 감시영역을 침범한 것으로 판단되면, 이벤트 발생부(150)는 침입 발생을 알리기 위하여 설정된 방법 예를 들면 컴퓨터에 내장된 부저, 스피커를 이용한 경고음, 릴레이(Relay) 작동으로 인한 외부기기 동작, 인터넷을 이용한 메일 또는 문자를 전송하는 방법 등에 의해 이벤트를 전송하게 된다. 또한 이미지 저장부(140)는 침입을 감지하는 시점의 촬영 이미지를 저장한다(S300).If it is determined that the image of the object violates the surveillance area, the event generating unit 150 is set to notify the intrusion, for example, a buzzer built into a computer, a warning sound using a speaker, and an external device operation due to a relay operation. For example, an event may be transmitted by a method of transmitting a mail or a text using the Internet. In addition, the image storage unit 140 stores the captured image at the time of detecting the intrusion (S300).

한편, 상기 실시예는 건물의 침입 감지 위주로 설명되었으나, 화재의 경우 연기 발생 또는 화염 발생에 의한 건물 외부의 밝기 차이로 인해 감지가 가능하다. 여기서 화재 감지에 있어 화염이나 연기가 서서히 발생하는 경우 이러한 이미지 변화가 두드러지지 않아 배경 이미지로 취급될 수 있는 점을 고려한다고 하면 앞서 본 실시예에서 4초 간격으로 이미지 프레임을 선택하는 방식에서 1분 마다 이미지 프레임을 선별하여 배경 이미지를 생성함으로 변화 속도가 느린 화염이나 연기의 이미지 변화를 정화하게 감지할 수 있다.On the other hand, the embodiment has been described mainly for the detection of intrusion of the building, in the case of fire can be detected due to the difference in the brightness of the outside of the building by the generation of smoke or flame. In this case, if the fire or smoke occurs slowly in the detection of fire, considering that the image change is not noticeable and can be treated as a background image, the image frame is selected at the interval of 4 seconds in the present embodiment. By selecting an image frame every time, a background image is generated so that the image change of a flame or smoke that is slow to change can be detected.

이상에서 본 발명의 바람직한 실시예에 대하여 설명하였으나, 본 발명은 상술한 특정의 실시예에 한정되지 아니한다. 즉, 본 발명이 속하는 기술분야에서 통상의 지식을 가지는 자라면 첨부된 특허청구범위의 사상 및 범주를 일탈함이 없이 본 발명에 대한 다수의 변경 및 수정이 가능하며, 그러한 모든 적절한 변경 및 수 정의 균등물들도 본 발명의 범위에 속하는 것으로 간주되어야 할 것이다.While preferred embodiments of the present invention have been described above, the present invention is not limited to the above specific embodiments. That is, a person having ordinary skill in the art to which the present invention pertains can make many changes and modifications to the present invention without departing from the spirit and scope of the appended claims, and all such appropriate changes and modifications are possible. Equivalents should be considered to be within the scope of the present invention.

도 1은 본 발명이 적용된 건물의 침입감지를 위한 촬영 이미지 처리 시스템의 블록 구성도이다.1 is a block diagram of a photographing image processing system for detecting an intrusion of a building to which the present invention is applied.

도 2는 본 발명의 실시예에 따른 건물의 침입감지를 위한 촬영 이미지 처리 방법을 나타내는 순서도이다.2 is a flowchart illustrating a photographing image processing method for detecting an intrusion of a building according to an exemplary embodiment of the present invention.

도 3은 본 실시예에 따른 카메라가 설치되는 상태를 나타내는 도면이다.3 is a diagram illustrating a state in which a camera according to the present embodiment is installed.

도 4a는 기존의 노이즈를 제거 방법을 설명하기 위한 표이다.4A is a table for explaining a conventional method of removing noise.

도 4b는 본 발명에 따른 노이즈를 제거 방법을 설명하기 위한 표,4b is a table for explaining a method for removing noise according to the present invention;

도 5는 본 발명의 실시예에 따른 배경 이미지의 생성 방법을 설명하기 위한 도면, 5 is a view for explaining a method for generating a background image according to an embodiment of the present invention;

도 6a 내지 도 6g는 본 발명에 따른 촬영 이미지로부터 물체 이미지와 배경 이미지를 분리하여 침범 여부를 판단하기 위한 일련의 과정을 설명하기 위한 도면이다. 6A to 6G illustrate a series of processes for determining whether an object is invaded by separating an object image and a background image from a captured image according to the present invention.

도 7은 본 발명의 실시예에 따른 참고 이미지를 보정하는 방법을 설명하기 위한 도면이다.7 is a view for explaining a method of correcting a reference image according to an embodiment of the present invention.

도 8은 본 발명의 실시예에 따른 참고 이미지의 크기를 조절하는 방법을 설명하기 위한 도면이다.8 is a view for explaining a method of adjusting the size of a reference image according to an embodiment of the present invention.

도 9a 내지 도 9c는 본 발명의 실시예에 따른 물체 이미지를 추출하기 위한 방법을 설명하기 위한 도면이다.9A to 9C are diagrams for describing a method for extracting an object image according to an exemplary embodiment of the present invention.

도 10내지 도 12는 본 발명에 따른 촬영 이미지에 오버랩하여 표시한 비특이 적 물체를 제거하는 방법을 설명하기 위한 도면이다.10 to 12 are diagrams for explaining a method of removing a non-specific object displayed by overlapping a captured image according to the present invention.

*도면의 주요부분에 대한 부호의 설명* * Description of the symbols for the main parts of the drawings *

110 : 카메라 120 : 신호 변환부110: camera 120: signal conversion unit

130 : 이미지 처리부 140 : 이미지 저장부130: image processing unit 140: image storage unit

150 : 이벤트 발생부150: event generator

Claims (10)

건물의 침입 감지를 위한 촬영 이미지 처리 방법에 있어서,In the captured image processing method for intrusion detection of the building, 상기 건물을 촬영하는 카메라로부터 촬영 이미지를 제공받는 단계;Receiving a photographed image from a camera photographing the building; 상기 촬영 이미지로부터 배경 이미지를 분리하는 단계;Separating a background image from the photographed image; 상기 촬영 이미지와 분리된 배경 이미지의 차이에 기초하여 이동하는 물체를 식별하기 위한 참고 이미지를 형성하는 단계;Forming a reference image for identifying a moving object based on a difference between the photographed image and the separated background image; 상기 참고 이미지에서 물체 이미지를 추출하는 단계;Extracting an object image from the reference image; 상기 참고 이미지에서 감지 대상에 속하지 않는 비특이적 물체 이미지를 제거하는 단계; 및Removing a non-specific object image which does not belong to a sensing object from the reference image; And 상기 비특이적 물체 이미지가 제거된 상기 참고 이미지에 남아 있는 물체 이미지가 지정된 감시 영역을 침범하는지 판단하는 단계를 포함하되,Determining whether an object image remaining in the reference image from which the non-specific object image has been removed invades a designated surveillance region, 상기 침범을 판단하는 단계는, 상기 남아 있는 물체 이미지의 중심 좌표가 상기 지정된 감시 영역으로 침범하는 빈도에 따라 침입 여부를 판단하는 것을 특징으로 하는 건물의 침입감지를 위한 촬영 이미지 처리 방법.The determining of the invasion may include determining whether an invasion occurs according to a frequency at which the center coordinates of the remaining object image invade the designated surveillance region. 제1항에 있어서, The method of claim 1, 상기 촬영 이미지로부터 추출한 이미지 프레임들을 평균하여 상기 배경 이미지를 생성하고, 일정 주기 마다 오래된 이미지 프레임부터 새로운 이미지 프레임으로 교체하여 상기 배경 이미지를 업데이트 하는 단계를 더 포함하는 건물의 침입감지를 위한 촬영 이미지 처리 방법.Generating the background image by averaging the image frames extracted from the photographed image, and updating the background image by replacing the old image frame with a new image frame every predetermined period. Way. 제2항에 있어서, The method of claim 2, 상기 배경 이미지를 생성하는 단계는Generating the background image 상기 추출한 이미지 프레임의 Y(밝기) 신호만을 사용하여 배경 이미지를 생성하는 경우와, 상기 추출한 이미지 프레임의 Y(밝기) 신호 및 색성분인 Cr, Cb를 모두 사용하여 배경 이미지를 생성하는 경우 중 어느 하나를 적용하는 건물의 침입감지를 위한 촬영 이미지 처리 방법.Any one of generating a background image using only the Y (brightness) signal of the extracted image frame, and generating a background image using both the Y (brightness) signal of the extracted image frame and Cr, Cb as color components. Image processing method for intrusion detection of the building to apply the. 제1항에 있어서,The method of claim 1, 상기 참고 이미지를 생성하는 단계는, 상기 촬영 이미지를 블러링하고, 블러링된 이미지의 Y 신호와 상기 배경 이미지의 Y 신호의 차이에 따라 흑색 또는 백색으로 변환시켜 상기 촬영 이미지와 배경 이미지의 차이가 흑백으로 나타나는 흑백 이미지를 생성하는 단계를 포함하는 건물의 침입감지를 위한 촬영 이미지 처리 방법.The generating of the reference image may include blurring the photographed image and converting the photographed image into black or white according to a difference between the Y signal of the blurred image and the Y signal of the background image, thereby causing a difference between the photographed image and the background image. A photographing image processing method for detecting an intrusion of a building, the method comprising generating a black and white image appearing in black and white. 제1항에 있어서,The method of claim 1, 상기 참고 이미지를 형성하는 단계는, 상기 참고 이미지에서 작은 크기의 이미지를 제거하여 이미지 보정하고, 보정된 이미지를 논리 합 연산(OR)하여 참고 이미지의 크기를 줄이는 단계를 포함하는 건물의 침입감지를 위한 촬영 이미지 처리 방법.The forming of the reference image may include correcting an image by removing a small sized image from the reference image, and reducing the size of the reference image by performing a logical sum operation on the corrected image. For shooting image processing method. 제1항에 있어서,The method of claim 1, 상기 비특이적 물체 이미지를 제거하는 단계는, 상기 추출된 물체 이미지의 크기가 미리 설정된 최소 크기 보다 작거나 최대 크기 보다 크면 제거하는 단계를 포함하는 건물의 침입감지를 위한 촬영 이미지 처리 방법.And removing the non-specific object image, removing the extracted object image if the size of the extracted object image is smaller than the preset minimum size or larger than the maximum size. 제1항에 있어서, The method of claim 1, 상기 비특이적 물체를 제거하는 단계는, 상기 추출된 물체 이미지의 가로 크기와 세로 크기의 비율이 미리 설정된 비율 보다 크면 제거하는 단계를 포함하는 건물의 침입감지를 위한 촬영 이미지 처리 방법.The removing of the non-specific object may include removing if the ratio of the horizontal size and the vertical size of the extracted object image is greater than a preset ratio. 제1항에 있어서,The method of claim 1, 상기 비특이적 물체를 제거하는 단계는, 상기 추출된 물체 이미지가 연속적으로 나타나는 이미지 프레임들에서 동일한 물체 이미지가 이동한 거리가 미리 설정된 거리보다 크면 제거하는 단계를 포함하는 건물의 침입감지를 위한 촬영 이미지 처리 방법.The removing of the non-specific object may include removing the image when the distance of the same object image is greater than a preset distance in image frames in which the extracted object image is continuously displayed. Way. 삭제delete 건물의 침입 감지를 위한 촬영 이미지 처리 시스템에 있어서,In the shooting image processing system for detecting the intrusion of the building, 상기 건물을 촬영하는 카메라;A camera photographing the building; 상기 카메라부터 제공받은 촬영 이미지로부터 배경 이미지를 분리하고, 상기 촬영 이미지와 분리된 배경 이미지의 차이에 기초하여 이동하는 물체를 식별하기 위한 참고 이미지를 형성하며, 상기 참고 이미지에서 물체 이미지를 추출하며, 추출된 물체 이미지 중 감지 대상에 속하지 않는 비특이적 물체 이미지를 제거한 다음 상기 참고 이미지에 남아 있는 물체 이미지가 지정된 감시 영역을 침범하는지 판단하는 이미지 처리부; 및Separating the background image from the photographed image provided from the camera, forming a reference image for identifying a moving object based on a difference between the photographed image and the separated background image, extracting an object image from the reference image, An image processing unit for removing a non-specific object image that does not belong to the sensing object from the extracted object image and then determining whether the object image remaining in the reference image violates the designated surveillance region; And 상기 이미지 처리부의 판단에 따라 침입 발생을 알리기 위하여 설정된 이벤트를 발생하는 이벤트 발생부를 포함하되, Including the event generator for generating a set event to notify the occurrence of intrusion in accordance with the determination of the image processor, 상기 이미지 처리부는 상기 남아 있는 물체 이미지의 중심 좌표가 상기 지정된 감시 영역으로 침범하는 빈도에 따라 침입 여부를 판단하는 것을 특징으로 하는 건물의 침입감지를 위한 촬영 이미지 처리 시스템.And the image processor determines whether an invasion is made according to a frequency at which the center coordinates of the remaining object image invade the designated surveillance area.
KR1020080110305A 2008-05-16 2008-11-07 System For Processing Imaging For Detecting the Invasion Of Building and Method Thereof KR100994418B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20080045316 2008-05-16
KR1020080045316 2008-05-16

Publications (2)

Publication Number Publication Date
KR20090119668A KR20090119668A (en) 2009-11-19
KR100994418B1 true KR100994418B1 (en) 2010-11-15

Family

ID=41603344

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080110305A KR100994418B1 (en) 2008-05-16 2008-11-07 System For Processing Imaging For Detecting the Invasion Of Building and Method Thereof

Country Status (1)

Country Link
KR (1) KR100994418B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101029190B1 (en) * 2010-05-20 2011-04-12 이병호 Camera apparatus for fire sensing and image correction, and method therof
KR101640527B1 (en) * 2012-10-09 2016-07-18 에스케이 텔레콤주식회사 Method and Apparatus for Monitoring Video for Estimating Size of Single Object
KR102168645B1 (en) * 2013-10-29 2020-10-21 주식회사 케이티 Device for event extracting from the sports game video and method for event extracting using the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100572768B1 (en) 2004-06-02 2006-04-24 김상훈 Automatic detection method of human facial objects for the digital video surveillance
KR100822476B1 (en) * 2006-08-25 2008-04-16 브이앤아이 주식회사 Remote emergency monitoring system and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100572768B1 (en) 2004-06-02 2006-04-24 김상훈 Automatic detection method of human facial objects for the digital video surveillance
KR100822476B1 (en) * 2006-08-25 2008-04-16 브이앤아이 주식회사 Remote emergency monitoring system and method

Also Published As

Publication number Publication date
KR20090119668A (en) 2009-11-19

Similar Documents

Publication Publication Date Title
US10204275B2 (en) Image monitoring system and surveillance camera
JP4673849B2 (en) Computerized method and apparatus for determining a visual field relationship between a plurality of image sensors
CN106650584B (en) Flame detecting method and system
KR101168760B1 (en) Flame detecting method and device
JP4803376B2 (en) Camera tampering detection method
JP6469975B2 (en) Image monitoring apparatus, image monitoring system, and image monitoring method
JP4718253B2 (en) Image abnormality detection device for surveillance camera
US10032283B2 (en) Modification of at least one parameter used by a video processing algorithm for monitoring of a scene
JP2004021495A (en) Monitoring system and monitoring method
JP2009005198A (en) Image monitoring system
KR101512658B1 (en) A device and method for detecting for fire flame using stereo camera and fuzzy logic
EP2000998B1 (en) Flame detecting method and device
KR101454644B1 (en) Loitering Detection Using a Pedestrian Tracker
KR100994418B1 (en) System For Processing Imaging For Detecting the Invasion Of Building and Method Thereof
JP2012099940A (en) Photographic obstruction detection method, obstruction detection device, and monitoring camera system
JP4171310B2 (en) Intruder detection method and intruder detection apparatus
JP5710230B2 (en) Monitoring system and monitoring method
KR20120052864A (en) Tansmission apparatus and transmission method
JP2007102556A (en) Monitoring terminal device
JP5981015B1 (en) Shoplifting crime scene recording device
WO2020129176A1 (en) Image processing system, image processing method, and image processing program
KR101460440B1 (en) Camera with fire detection function, and fire detection method thereof
JP3736836B2 (en) Object detection method, object detection apparatus, and program
JP2011259324A (en) Surveillance device, surveillance program, and surveillance method
JP4617905B2 (en) Monitoring device and method, recording medium, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20131028

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140623

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20151103

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20161026

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20171025

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20181023

Year of fee payment: 9