WO2012081760A1 - 영상처리에 의한 배회정보 검출방법 - Google Patents

영상처리에 의한 배회정보 검출방법 Download PDF

Info

Publication number
WO2012081760A1
WO2012081760A1 PCT/KR2010/009472 KR2010009472W WO2012081760A1 WO 2012081760 A1 WO2012081760 A1 WO 2012081760A1 KR 2010009472 W KR2010009472 W KR 2010009472W WO 2012081760 A1 WO2012081760 A1 WO 2012081760A1
Authority
WO
WIPO (PCT)
Prior art keywords
frame
image
background frame
information
background
Prior art date
Application number
PCT/KR2010/009472
Other languages
English (en)
French (fr)
Inventor
이강석
Original Assignee
(주)리얼허브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)리얼허브 filed Critical (주)리얼허브
Publication of WO2012081760A1 publication Critical patent/WO2012081760A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Definitions

  • the present invention relates to a method for detecting roaming information by image processing, and more particularly, to a method for detecting roaming information by image processing for selecting roaming information for a reentrant object in a real time or stored image.
  • surveillance cameras are installed at homes, factories, department stores, banks, and exhibition halls in order to prevent accidents and crimes. It is operating.
  • Such a surveillance system can manage a surveillance region by photographing a plurality of surveillance regions to be managed by one or a plurality of image capturing apparatuses and displaying them through a monitor installed in a central management room.
  • each captured image data is stored, and when there is a need for reconfirmation of a scene in which a specific situation occurs later, the stored image data is reproduced and utilized.
  • the difference between the front and rear frames in a continuous frame of a real time or stored image may be known.
  • FIG. 1 (a) shows two consecutive frames in an image
  • FIG. 1 (b) shows values obtained by subtracting the two consecutive frames.
  • FIG. 2 is a conceptual diagram illustrating a conventional frame differential method.
  • FIG. 2 (a) shows a portion in which movement occurs in two frames divided into a certain lattice structure
  • FIG. 2 (b) shows a region in which the two consecutive frames are calmed.
  • the conventional differential method has a problem in that when the object color is similar to the background color, the difference in each pixel of the two frames is lower than a predetermined threshold so that the object is recognized as the background and thus the motion cannot be detected.
  • the present invention has been made to solve the above-mentioned problems, and accurately extracts the shape or size of an object in which movement occurs in a continuous frame of a real-time or stored image, and recognizes an object having a color similar to the background color in the image. It is an object of the present invention to provide a method for detecting roaming information by image processing, by which the roaming information on the object can be clearly grasped by detecting accurately.
  • a key technical aspect of the present invention for achieving the object as described above, in the roaming information detection method by the image processing for detecting the roaming information by extracting the moving object from the real-time or stored image, the continuous frame in the image and Selecting a basic background frame of a corresponding standard; A second step of updating a first background frame by differentially dividing a first frame of an image consecutive to the base background frame; A third step of updating a second background frame by sequentially dividing a second frame of an image that is continuous with the first background frame and sequentially performing the same; Extracting color and size information by separating a shape of a moving object from the updated background frame; A fifth step of accumulating and recording roaming information about the object by storing the extracted object information; And a sixth step of detecting and displaying the accumulated recorded roaming information according to a predetermined condition in real time or stored images.
  • the time when the object is recognized as the background is determined by the following conditional expression "if (motion_object [i] [j]> sec)". (Here is an if conditional statement, motion_object is the object where the motion occurred, i and j are the rows and columns of the frame divided into grids, and sec is the elapsed time of the image.)
  • the update variable period is defined by the following expression "back [i] [j] + (cur [i] [j]-back [i] [j]) * L x " Characterized in that it is determined. (Where back is the background frame, i and j are the rows and columns of the frame divided into grids, cur is the current frame in successive images, and L x is the concentration according to the sustained change in the number of updates.)
  • the present invention having the above-described configuration and method has an advantage of accurately extracting the shape or size of the object by preventing the shape of the object from which the movement occurs by overlapping the front and rear frames by using the update of the background frame. There is this.
  • 1 is an exemplary diagram for explaining a conventional video frame differential method.
  • FIG. 2 is a conceptual diagram illustrating a conventional video frame differential method.
  • FIG. 3 is a conceptual diagram illustrating a video background frame update method of the present invention.
  • FIG. 4 is another conceptual diagram for explaining a video background frame update method of the present invention.
  • FIG. 5 is an exemplary view for explaining a video background frame update method of the present invention.
  • 3 and 4 are conceptual diagrams for explaining the image background frame update method of the present invention.
  • FIG 5 is an exemplary view for explaining an image background frame update method of the present invention.
  • the first step is a step of selecting a basic background frame 10 of a standard corresponding to a continuous frame in a real-time or stored image, which is used only once and is extracted from the first frame 20 to be described later to extract a moving object. Do it.
  • the second step is to update the first background frame 30 by subtracting the first frame 20 of the image continuous with the base background frame 10, as shown in FIG. In contrast to 10), the objects of the first frame 20, which are differentiated, are separated and displayed at a density of a predetermined value or less.
  • all the displayed objects are the first difference value on the basic background frame 10. If there is no movement after a certain time, it can be recognized as the background. Even if the object is recognized as the background, it is changed back to the moving object through continuous background frame update. Can be recognized.
  • the object recognized as a background it is possible to easily detect the motion information of the object based on the various information stored in the future.
  • the third step is a step of updating the second background frame 50 by sequentially dividing the second frame 40 of the image continuous with the first background frame 30 and sequentially performing the updated second step.
  • the background frame 50 only the object in which the movement occurs is displayed separately, and the object recognized as the background after a predetermined time is not displayed.
  • the time when the object is recognized as the background is determined by the following conditional expression "if (motion_object [i] [j]> sec)", where the if conditional statement, motion_object is the object where the motion occurs, and i And j are the rows and columns of the frame divided into grids, and sec is the elapsed time of the image.
  • the update variable period is determined by the following expression "back [i] [j] + (cur [i] [j]-back [i] [j]) * L x ", where ( Where back is the background frame, i and j are the rows and columns of the frame divided into grids, cur is the current frame in successive images, and L x is the concentration according to the amount of change over time.
  • the equation of the update variable period determines the update rate for the object by adjusting the density value of the color upon pixel difference.
  • the object is updated with a fine density of a predetermined value or less within a predetermined time, and the afterimage before the movement occurs is thinned to a certain value or less to the background. It is recognized.
  • the present invention can be seen that the continuous operation of the object does not overlap as shown in Figure 5, through which the shape or size of the object can be accurately extracted It is possible to identify the roaming information for each object in the image more reliably.
  • the background color becomes thinner after a predetermined time, so that the object can be accurately detected without a recognition error.
  • the fourth step is to extract various types of information on the object by separating the shape of the moving object from the updated background frame, and extracts key height, color, license plate information, etc. of the object.
  • the height of the key may be obtained by height of the rectangle as information about the space occupied by the object itself, such as a person or an object.
  • the key height information may be calculated by a triangulation method with an environment setting standard, and the key height information illustrated in the present invention corresponds to a conventional technology in the art, and thus detailed description thereof will be omitted.
  • the color information is mainly composed of a YUV scheme.
  • the YUV scheme includes three pieces of information: a luminance signal (Y), a difference between the luminance signal and a blue component (U), and a difference between the luminance signal and a red component (V). Format for representing colors.
  • the Y element represents the gray shade, and the color is represented as the U and V elements.
  • two colors are sequentially stored as the main color information of the corresponding object in order of the color having the largest number from the color histogram. do.
  • the license plate information detects whether there is a license plate area in the object, and if the license plate area is detected, determines that it is a car and extracts number information.
  • the license plate information also corresponds to a conventional technology in the art, so detailed description thereof will be omitted.
  • the fifth step is to accumulate and record the roaming information for the object by storing the extracted object information, and counts and stores the information of the object extracted in the fourth step according to time for each item.
  • license plate information exists in the information item of the object, the vehicle is identified. If the license plate information does not exist, only key height and color information are maintained.
  • the sixth step detects and displays accumulated roaming information based on a predetermined condition in real time or stored images.
  • the time when the object appears first and last disappeared is displayed, and if it disappears and reappears in the image, if the same as the previous object information, the count is increased and the new object is not added.
  • a suspected object roams based on a certain standard, it is determined that a crime is likely to occur, and a warning message or attention information is provided within the video.
  • the present invention prevents an object in which a motion occurs in an image from overlapping shapes due to a frame difference or not recognizing a motion due to a similar color of surroundings, thereby correcting various kinds of information on the object. It can be extracted and extracted more reliable roaming information based on accurate information.
  • first background frame 40 second frame
  • the present invention can be used in a method for detecting roaming information by image processing, and more particularly, can be used in a method for detecting roaming information by image processing for selecting roaming information for a reentrant object in a real time or stored image. will be.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 실시간 또는 저장된 영상에서 지속 기간 내에 재진입한 물체에 대해 배회정보를 선정해내는 영상처리에 의한 배회정보 검출방법에 관한 것이다. 본 발명의 실시 예에 따르면, 실시간 또는 저장된 영상에서 움직임 객체를 추출하여 배회정보를 검출하는 영상처리에 의한 배회정보 검출방법에 있어서, 상기 영상에서 연속되는 프레임과 대응하는 규격의 기초배경프레임을 선정하는 제1단계와; 상기 기초배경프레임과 연속되는 영상의 제1프레임을 차분하여 제1배경프레임을 업데이트하는 제2단계와; 상기 제1배경프레임과 연속되는 영상의 제2프레임을 차분하여 제2배경프레임을 업데이트하고 이를 순차적으로 연속 수행하는 제3단계와; 상기 업데이트된 배경프레임에서 움직임 객체의 형상을 분리하여 색상 및 크기 정보를 추출하는 제4단계와; 상기 추출된 객체의 정보를 저장하여 상기 객체에 대한 배회정보를 누적 기록하는 제5단계; 및 상기 누적 기록된 배회정보를 실시간 또는 저장된 영상에서 일정 조건에 따라 검출하여 표시하는 제6단계;를 포함하여 구성되는 것을 기술적 요지로 한다. 이에 따른 본 발명은, 배경프레임의 업데이트를 이용하여 움짐임이 발생한 객체의 형상이 전후 프레임의 차분에 의해 겹치는 것을 방지함으로써 상기 객체의 형상이나 크기를 정확히 추출할 수 있는 장점이 있다.

Description

영상처리에 의한 배회정보 검출방법
본 발명은 영상처리에 의한 배회정보 검출방법에 관한 것으로, 더욱 상세하게는 실시간 또는 저장된 영상에서 지속 기간 내에 재진입한 물체에 대해 배회정보를 선정해내는 영상처리에 의한 배회정보 검출방법에 관한 것이다.
일반적으로 주택을 비롯하여 공장, 백화점, 은행, 전시장 등에는 안전사고나 범죄 등을 미연에 방지하기 위해 감시 카메라를 설치하여 카메라에 의해 촬영된 영상을 모니터를 통해 감시하고 때로는 영상을 저장하는 감시 시스템을 가동하고 있다.
이러한 감시 시스템은 관리하고자 하는 다수의 감시영역을 하나 또는 복수의 영상 촬영 장치로 촬영하고, 이를 중앙 관리실 등에 설치된 모니터를 통해 디스플레이함으로써 감시 영역을 관리할 수 있도록 한다. 또한 필요에 따라서는 촬영된 각 영상 데이터를 저장시켜 두었다가 추후 특정 상황 발생 장면에 대한 재확인이 필요한 경우 저장된 영상 데이터를 재생하여 활용하기도 한다.
이때 특정 상황에 대한 움직임 검출하는 종래의 방법으로는, 도 1에 도시된 바와 같이 실시간 또는 저장된 영상의 연속되는 프레임에서 전후 프레임의 차분을 통해 알 수 있다.
도 1의 (a)에서는 영상에서 연속된 두 개의 프레임을 도시하고 있으며, 도 1의 (b)에서는 상기 연속된 두 개의 프레임을 차분한 값을 도시하고 있다.
이와 같이 종래에는 연속된 프레임의 전후 프레임 차를 이용하여 움직임 발생 여부를 검출하게 된다.
도 1의 (b)를 살펴보면, 두 프레임에서 각 화소마다 값을 차분하여 그 차이가 일정 문턱값(threshold)를 넘는 화소만 표시된 것을 알 수 있다. 즉, 전후 프레임 간의 차분을 이용하면 전후 프레임에서 바뀌는 부분이 모두 표시되어 움직임을 유무를 판단하게 된다.
이를 더욱 상세히 설명하기 위해 도 2를 참조하면 다음과 같다. 도 2는 종래의 프레임 차분 방식을 설명하기 위한 개념도이다.
도 2의 (a)에서는 일정한 격자 구조로 나누어진 두 개 프레임에서 움직임이 발생한 부분을 도시하고 있으며, 도 2의 (b)에서는 상기 연속된 두 개의 프레임을 차분한 영역을 도시하고 있다. 이를 통해 영상 내에서 움직임 발생시 객체의 동선을 파악할 수 있게 된다.
그러나 상술한 바와 같은 종래의 프레임간 차분 방법은, 도 2의 (b)에 도시된 바와 같이 연속된 두 프레임을 차분하면 동일한 색상이 겹쳐 같은 성분을 가지는 값으로 인식되기 때문에 객체의 동선만 파악할 수 있을 뿐 객체의 형상이나 크기를 정확히 파악할 수 없는 문제점이 있었다.
즉, 연속된 프레임 간의 차분에 의해서는 객체를 정확히 분리해낼 수 없기 때문에 특정 객체가 실시간 카메라의 촬영 범위 안과 밖을 얼마만큼 배회했는지에 대한 정보를 알 수 없었다.
또한 종래의 차분 방식은 객체의 색상이 배경색과 유사할 경우 두 프레임의 각 화소 차이가 일정 문턱치보다 낮게 되므로 상기 객체가 배경으로 인식되어져 움직임을 검출하지 못하게 되는 문제점이 있었다.
본 발명은 상술한 바와 같은 문제점을 해결하기 위해 안출된 것으로서, 실시간 또는 저장된 영상의 연속된 프레임에서 움직임이 발생한 객체의 형상이나 크기를 정확히 추출하고, 영상 내의 배경색과 유사한 색상을 가지는 객체를 인식 오류 없이 정확히 검출함으로써, 상기 객체에 대한 배회정보를 명확히 파악할 수 있도록 하는 영상처리에 의한 배회정보 검출방법을 제공하는 것을 목적으로 한다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급한 과제로 제한되지 않으며, 여기에 언급되지 않은 본 발명이 해결하고자 하는 또 다른 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 핵심적 기술 요지는, 실시간 또는 저장된 영상에서 움직임 객체를 추출하여 배회정보를 검출하는 영상처리에 의한 배회정보 검출방법에 있어서, 상기 영상에서 연속되는 프레임과 대응하는 규격의 기초배경프레임을 선정하는 제1단계와; 상기 기초배경프레임과 연속되는 영상의 제1프레임을 차분하여 제1배경프레임을 업데이트하는 제2단계와; 상기 제1배경프레임과 연속되는 영상의 제2프레임을 차분하여 제2배경프레임을 업데이트하고 이를 순차적으로 연속 수행하는 제3단계와; 상기 업데이트된 배경프레임에서 움직임 객체의 형상을 분리하여 색상 및 크기 정보를 추출하는 제4단계와; 상기 추출된 객체의 정보를 저장하여 상기 객체에 대한 배회정보를 누적 기록하는 제5단계; 및 상기 누적 기록된 배회정보를 실시간 또는 저장된 영상에서 일정 조건에 따라 검출하여 표시하는 제6단계;를 포함하여 구성되는 것을 특징으로 한다.
바람직한 실시 예에 따르면, 상기 제3단계에서는, 다음의 조건식 "if (motion_object[i][j] > sec)"에 의해 객체가 배경으로 인식되는 시간이 결정되는 것을 특징으로 한다. (여기서 if 조건문이고, motion_object는 움직임이 발생한 객체이고, i와 j는 격자로 나누어진 프레임의 행과 열이고, sec는 영상의 경과 시간이다.)
바람직한 실시 예에 따르면, 상기 제3단계에서는, 다음 식 "back[i][j] + (cur[i][j] - back[i][j]) * Lx"에 의해 업데이트 가변주기가 결정되는 것을 특징으로 한다. (여기서 back은 배경프레임이고, i와 j는 격자로 나누어진 프레임의 행과 열이고, cur는 연속되는 영상에서 현재의 프레임이고, Lx는 업데이트된 회수에 지속 변화량에 따른 농도이다.)
상술한 바와 같은 구성과 방법으로 이루어지는 본 발명은, 배경프레임의 업데이트를 이용하여 움짐임이 발생한 객체의 형상이 전후 프레임의 차분에 의해 겹치는 것을 방지함으로써 상기 객체의 형상이나 크기를 정확히 추출할 수 있는 장점이 있다.
이에 따라. 영상 내의 배경색과 유사한 색상을 가지는 객체를 인식 오류 없이 정확히 검출함으로써 상기 객체에 대한 배회정보를 명확히 파악할 수 있게 된다.
도 1은 종래의 영상 프레임 차분 방식을 설명하기 위한 예시도.
도 2는 종래의 영상 프레임 차분 방식을 설명하기 위한 개념도.
도 3은 본 발명의 영상 배경프레임 업데이트 방식을 설명하기 위한 개념도.
도 4는 본 발명의 영상 배경프레임 업데이트 방식을 설명하기 위한 다른 개념도.
도 5는 본 발명의 영상 배경프레임 업데이트 방식을 설명하기 위한 예시도.
이하 첨부된 도면을 참조로 하여 본 발명의 바람직한 실시 예에 대해 보다 상세히 설명하도록 한다. 본 발명의 특징 및 이점들은 첨부된 도면에 의거한 다음의 바람직한 실시 예에 대한 상세한 설명으로 더욱 명백해질 것이다.
이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 발명자가 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.
또한, 하기 설명에서 구체적인 회로의 구성소자 등과 같은 특정 사항들 없이도, 본 발명이 실시될 수 있음은 이 기술분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다.
본 발명의 실시 예에 따르면, 기초배경프레임(10)을 선정하는 제1단계; 제1배경프레임(30)을 업데이트하는 제2단계; 제2배경프레임(50)을 업데이트하고 이를 순차적으로 수행하는 제3단계; 배경프레임에서 객체를 분리하여 정보를 추출하는 제4단계; 객체의 배회정보를 기록하는 제5단계; 배회정보를 검출하여 표시하는 제6단계를 포함하여 구성되며, 첨부된 도면을 참조하여 아래에서 더욱 상세히 설명하도록 한다.
도 3,4는 본 발명의 영상 배경프레임 업데이트 방식을 설명하기 위한 개념도이다.
도 5는 본 발명의 영상 배경프레임 업데이트 방식을 설명하기 위한 예시도이다.
먼저 제1단계에 대해 설명하도록 한다.
상기 제1단계는 실시간 또는 저장된 영상에서 연속되는 프레임과 대응하는 규격의 기초배경프레임(10)을 선정하는 단계로서, 최초 한 번만 사용되어 후술할 제1프레임(20)과 차분되어 움직임 객체를 추출할 수 있도록 한다.
다음으로 제2단계에 대해 설명하도록 한다.
상기 제2단계는 상기 기초배경프레임(10)과 연속되는 영상의 제1프레임(20)을 차분하여 제1배경프레임(30)을 업데이트하는 단계로서, 도 3에 도시된 바와 같이 기초배경프레임(10)과 대비하여 차분된 제1프레임(20)의 객체가 일정치 이하의 농도로 분리 표시된다.
이때 표시된 모든 객체는 기초배경프레임(10) 상에 최초로 차분되는 값으로 일정 시간이 지난 후에도 움직임이 없다면 배경으로 인식될 수 있으며, 배경으로 인식된 객체라 하더라도 지속적인 배경프레임 업데이트를 통해 다시 움직임 객체로 인식될 수 있다. 여기서 일정 시간이 지나 배경으로 인식된 객체의 각종 정보를 저장하여 둠으로써 추후 저장된 각종 정보를 바탕으로 상기 객체의 움직임 정보를 용이하게 검출할 수 있도록 한다.
다음으로 제3단계에 대해 설명하도록 한다.
상기 제3단계는 상기 제1배경프레임(30)과 연속되는 영상의 제2프레임(40)을 차분하여 제2배경프레임(50)을 업데이트하고 이를 순차적으로 연속 수행하는 단계로서, 업데이트된 제2배경프레임(50)에는 움직임이 발생한 객체만이 분리 표시되고 일정 시간이 지나 배경으로 인식된 객체는 표시되지 않는다.
즉, 도 4의 (a)에 도시된 바와 같이 제1배경프레임(30)에 표시된 객체에 움직임이 발생하여 제2프레임(40)에 표시된 영역으로 이동하게 되면, 이전에 있던 값은 점점 농도가 엷어져 배경으로 인식되고 움직임이 발생한 객체가 분리 표시된 새로운 제2배경프레임(50)이 업데이트되면서 도 4의 (b)와 같이 객체의 형상이나 크기가 변형되지 않은 깨끗한 차분 결과를 얻게 된다.
상기 제3단계에서는, 다음의 조건식 "if (motion_object[i][j] > sec)"에 의해 객체가 배경으로 인식되는 시간이 결정되는데, 여기서 if 조건문이고, motion_object는 움직임이 발생한 객체이고, i와 j는 격자로 나누어진 프레임의 행과 열이고, sec는 영상의 경과 시간이다.
그리고 상기 제3단계에서는, 다음 식 "back[i][j] + (cur[i][j] - back[i][j]) * Lx"에 의해 업데이트 가변주기가 결정되는데, 여기서 (여기서 back은 배경프레임이고, i와 j는 격자로 나누어진 프레임의 행과 열이고, cur는 연속되는 영상에서 현재의 프레임이고, Lx는 업데이트된 회수에 지속 변화량에 따른 농도이다.
다시 말해. 상기 업데이트 가변주기의 식은, 화소 차분시 색상의 농도 값을 조절하여 객체에 대한 업데이트 비율을 결정하게 된다.
상기한 배경프레임의 업데이트 방식을 좀 더 자세히 설명하면, 정해진 시간 내에서 일정치 이하의 미세한 농도로 객체를 업데이트하게 되는데, 움직임이 발생하기 이전의 잔상은 색 농도가 일정치 이하로 엷어져 배경으로 인식된다.
따라서, 도 1에 도시된 종래의 전후 프레임의 차분과는 달리, 본 발명은 도 5에서와 같이 객체의 연속적인 동작이 겹치지 않는 것을 알 수 있으며, 이를 통해 상기 객체의 형상이나 크기를 정확히 추출할 수 있게 되고 영상 내의 각 객체에 대한 배회정보를 보다 신뢰성 있게 파악할 수 있게 된다.
또한 상기 객체의 색상이 영상 내의 배경색과 유사하더라도, 상기 배경색은 일정 시간이 지난 뒤에 색 농도가 엷어지게 되므로 상기 객체를 인식 오류 없이 정확히 검출할 수 있게 된다.
다음으로 제4단계에 대해 설명하도록 한다.
상기 제4단계는 상기 업데이트된 배경프레임에서 움직임 객체의 형상을 분리하여 상기 객체에 대한 각종 정보를 추출하는 단계로서, 상기 객체의 키 높이나 색상 또는 번호판 정보 등을 추출한다.
상기 키 높이 정보는 사람이나 물체 등 객체 자체가 차지하는 공간에 대해서 사각형 정보로 키 높이를 얻을 수 있다. 상기 키 높이 정보는 환경설정 기준을 마련해두고 삼각법에 의해 계산될 수 있으며, 본 발명에서 예시하는 키 높이 정보는 해당 기술분야에서 통상의 기술에 해당하는 것으로 상세한 설명은 생략하도록 한다.
상기 색상 정보는 주로 YUV 방식으로 구성되는데, 통상적으로 상기 YUV 방식은 휘도 신호(Y), 상기 휘도 신호와 청색 성분의 차(U), 휘도 신호와 적색 성분의 차(V)의 3가지 정보로 색을 나타내는 형식이다. 본 발명에서는 Y 요소는 회색 명암을 나타내고, U와 V 요소로서 색상을 표현하게 되는데, 추출된 객체에서 색상 히스토그램으로부터 가장 많은 개수를 갖는 색상을 순서대로 2가지를 해당 객체의 주 색상 정보로 저장하게 된다.
상기 번호판 정보는 객체에서 번호판 영역이 있는지를 검출하고, 상기 번호판 영역이 검출되면 자동차인 것으로 판별하여 번호 정보를 추출하게 된다. 상기 번호판 정보 또한 해당 기술분야에서는 통상의 기술에 해당하는 것으로 상세한 설명은 생략하도록 한다.
다음으로 제5단계에 대해 설명하도록 한다.
상기 제5단계는 추출된 객체의 정보를 저장하여 상기 객체에 대한 배회정보를 누적 기록하는 단계로서, 상기 제4단계에서 추출한 객체의 정보를 항목별로 시간에 따라 카운트하여 저장하게 된다.
여기서 상기 객체의 정보 항목에서 번호판 정보가 존재할 경우에는 자동차로 식별하도록 하고, 상기 번호판 정보가 존재하지 않을 경우에는 키 높이와 색상 정보만 유지되도록 한다.
다음으로 제6단계에 대해 설명하도록 한다.
상기 제6단계는 누적 기록된 배회정보를 실시간 또는 저장된 영상에서 일정 조건에 따라 검출하여 표시하는 단계이다.
여기서 객체가 처음 나타난 시간과 마지막으로 사라진 시간을 유지하여 표시하도록 하고, 영상 내에서 사라졌다가 다시 나타났을 때 이전의 객체 정보와 동일하다면 카운트를 증가시키고 새로운 객체를 추가하지 않도록 한다.
특히 의심되는 객체가 일정 기준에 의거하여 배회할 경우 범죄 유발 가능성이 높다고 판별하여 영상 내에서 경고 메시지나 요주의 정보를 제공하도록 한다.
지금까지 상술한 바와 같이 본 발명은, 영상 내에서 움직임이 발생하는 객체가 프레임 차분에 의해 형상이 겹치거나 주변의 유사 색상에 의해 움직임이 인식되지 않는 것을 방지함으로써, 상기 객체에 대한 각종 정보를 정확하고 추출할 수 있도록 하고 정확한 정보를 바탕으로 보다 신뢰성 있는 배회정보를 검출할 수 있도록 한다.
전술한 내용은 후술할 발명의 청구범위를 더욱 잘 이해할 수 있도록 본 발명의 특징과 기술적 장점을 다소 폭넓게 상술하였다. 상술한 본 발명의 개념과 특정 실시 예는 본 발명과 유사 목적을 수행하기 위한 다른 형상의 설계나 수정의 기본으로서 즉시 사용될 수 있음이 해당 기술분야의 숙련된 사람들에 의해 인식되어야 한다.
또한 상기에서 기술된 실시 예는 본 발명에 따른 하나의 실시 예일 뿐이며, 해당 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술적 사상의 범위에서 다양한 수정 및 변경이 가능할 것이다. 이러한 다양한 수정 및 변경 또한 본 발명의 기술적 사상의 범위 내라면 하기에서 기술되는 본 발명의 청구범위에 속한다 할 것이다.
-부호의 설명-
10: 기초배경프레임 20: 제1프레임
30: 제1배경프레임 40: 제2프레임
50: 제2배경프레임
본 발명은 영상처리에 의한 배회정보 검출방법에 이용 가능한 것으로, 더욱 상세하게는 실시간 또는 저장된 영상에서 지속 기간 내에 재진입한 물체에 대해 배회정보를 선정해내는 영상처리에 의한 배회정보 검출방법에 이용 가능한 것이다.

Claims (3)

  1. 실시간 또는 저장된 영상에서 움직임 객체를 추출하여 배회정보를 검출하는 영상처리에 의한 배회정보 검출방법에 있어서,
    상기 영상에서 연속되는 프레임과 대응하는 규격의 기초배경프레임을 선정하는 제1단계;
    상기 기초배경프레임과 연속되는 영상의 제1프레임을 차분하여 제1배경프레임을 업데이트하는 제2단계;
    상기 제1배경프레임과 연속되는 영상의 제2프레임을 차분하여 제2배경프레임을 업데이트하고 이를 순차적으로 연속 수행하는 제3단계;
    상기 업데이트된 배경프레임에서 움직임 객체의 형상을 분리하여 색상 및 크기 정보를 추출하는 제4단계;
    상기 추출된 객체의 정보를 저장하여 상기 객체에 대한 배회정보를 누적 기록하는 제5단계; 및
    상기 누적 기록된 배회정보를 실시간 또는 저장된 영상에서 일정 조건에 따라 검출하여 표시하는 제6단계;
    를 포함하여 구성되는 것을 특징으로 하는 영상처리에 의한 배회정보 검출방법.
  2. 제 1항에 있어서,
    상기 제3단계에서는,
    다음의 조건식 "if (motion_object[i][j] > sec)"
    에 의해 객체가 배경으로 인식되는 시간이 결정되는 것을 특징으로 하는 영상처리에 의한 배회정보 검출방법. (여기서 if 조건문이고, motion_object는 움직임이 발생한 객체이고, i와 j는 격자로 나누어진 프레임의 행과 열이고, sec는 영상의 경과 시간이다.)
  3. 제 1항에 있어서,
    상기 제3단계에서는,
    다음 식 "back[i][j] + (cur[i][j] - back[i][j]) * Lx"
    에 의해 업데이트 가변주기가 결정되는 것을 특징으로 하는 영상처리에 의한 배회정보 검출방법. (여기서 back은 배경프레임이고, i와 j는 격자로 나누어진 프레임의 행과 열이고, cur는 연속되는 영상에서 현재의 프레임이고, Lx는 업데이트된 회수에 지속 변화량에 따른 농도이다.)
PCT/KR2010/009472 2010-12-13 2010-12-29 영상처리에 의한 배회정보 검출방법 WO2012081760A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20100126735 2010-12-13
KR10-2010-0126735 2010-12-13

Publications (1)

Publication Number Publication Date
WO2012081760A1 true WO2012081760A1 (ko) 2012-06-21

Family

ID=46244846

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2010/009472 WO2012081760A1 (ko) 2010-12-13 2010-12-29 영상처리에 의한 배회정보 검출방법

Country Status (1)

Country Link
WO (1) WO2012081760A1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100708884B1 (ko) * 2006-02-06 2007-04-18 주식회사 우주아이티 촬영 경로 정보에 따라 네트워크 카메라 촬영 영상을사용자 단말기로 순차적으로 제공하는 장치 및 방법
KR20080020441A (ko) * 2006-08-30 2008-03-05 (주)로직아이텍 객체식별이 가능한 영상처리 감시시스템 및 감시방법
KR20080103311A (ko) * 2007-05-23 2008-11-27 삼성전자주식회사 감시 카메라 시스템에서 움직임을 검출하기 위한 실시간움직임 영역 분할 방법 및 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100708884B1 (ko) * 2006-02-06 2007-04-18 주식회사 우주아이티 촬영 경로 정보에 따라 네트워크 카메라 촬영 영상을사용자 단말기로 순차적으로 제공하는 장치 및 방법
KR20080020441A (ko) * 2006-08-30 2008-03-05 (주)로직아이텍 객체식별이 가능한 영상처리 감시시스템 및 감시방법
KR20080103311A (ko) * 2007-05-23 2008-11-27 삼성전자주식회사 감시 카메라 시스템에서 움직임을 검출하기 위한 실시간움직임 영역 분할 방법 및 장치

Similar Documents

Publication Publication Date Title
WO2020235819A1 (ko) 인공지능을 이용한 영상 기반의 실시간 침입 감지 방법 및 감시카메라
JP4673849B2 (ja) 複数のイメージセンサ間における視野関係を決定するためのコンピュータ化された方法及び装置
KR101822924B1 (ko) 영상기반 화재 감지 시스템, 방법 및 프로그램
WO2012020856A1 (en) Region of interest based video synopsis
WO2014051262A1 (ko) 이벤트 룰 설정방법 및 이를 이용한 이벤트 감시장치
WO2019124635A1 (ko) 압축영상에 대한 신택스 기반의 객체 침입 감지 방법
WO2020027513A1 (ko) 압축영상에 대한 신택스 기반의 영상분석 시스템과 연동 처리 방법
WO2014061922A1 (ko) 에지 영상을 이용한 카메라 탬퍼링 검출장치 및 방법
WO2021020866A1 (ko) 원격 모니터링을 위한 영상 분석 시스템 및 방법
WO2016072625A1 (ko) 영상방식을 이용한 주차장의 차량 위치 확인 시스템 및 그 제어방법
CN101799928A (zh) 一种应用于图像处理的高效低复杂度运动侦测方法
WO2021261656A1 (ko) 엣지 컴퓨팅 기반 보안 감시 서비스 제공 장치, 시스템 및 그 동작 방법
CN103299344A (zh) 监视系统以及占用比例检测方法
KR100964726B1 (ko) 영상 카메라 시스템에서 이동 물체 특성을 이용한 이동물체 추적 방법
JP2923652B2 (ja) 監視システム
WO2016072627A1 (ko) 전방위 카메라를 이용한 1대 다면 주차장 관리 시스템 및 관리방법
WO2011043498A1 (ko) 지능형 영상 감시 장치
WO2018097384A1 (ko) 밀집도 알림 장치 및 방법
KR20160093253A (ko) 영상 기반 이상 흐름 감지 방법 및 그 시스템
WO2017034309A1 (ko) 미디어 데이터 분류 방법 및 그 장치
WO2019039661A1 (ko) 압축영상에 대한 신택스 기반의 이동객체 영역 추출 방법
WO2020027512A1 (ko) 압축영상에 대한 신택스 기반의 ptz 카메라의 객체 추적 제어 방법
WO2012081760A1 (ko) 영상처리에 의한 배회정보 검출방법
WO2019124634A1 (ko) 압축영상에 대한 신택스 기반의 객체 추적 방법
WO2019124636A1 (ko) 압축영상에 대한 신택스 기반의 도로 역주행 감지 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10860731

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 26-09-2013)

122 Ep: pct application non-entry in european phase

Ref document number: 10860731

Country of ref document: EP

Kind code of ref document: A1