KR101394242B1 - A method for monitoring a video and an apparatus using it - Google Patents

A method for monitoring a video and an apparatus using it Download PDF

Info

Publication number
KR101394242B1
KR101394242B1 KR1020120105963A KR20120105963A KR101394242B1 KR 101394242 B1 KR101394242 B1 KR 101394242B1 KR 1020120105963 A KR1020120105963 A KR 1020120105963A KR 20120105963 A KR20120105963 A KR 20120105963A KR 101394242 B1 KR101394242 B1 KR 101394242B1
Authority
KR
South Korea
Prior art keywords
background
moving object
video surveillance
risk
image
Prior art date
Application number
KR1020120105963A
Other languages
Korean (ko)
Other versions
KR20130032856A (en
Inventor
전문구
이수한
노승종
권언혜
Original Assignee
광주과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광주과학기술원 filed Critical 광주과학기술원
Publication of KR20130032856A publication Critical patent/KR20130032856A/en
Application granted granted Critical
Publication of KR101394242B1 publication Critical patent/KR101394242B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

본 발명의 실시 예에 따른 영상 감시 방법은 감시 대상인 영상을 수신하는 단계; 상기 수신된 영상의 배경을 획득하는 단계;
상기 획득된 영상의 배경을 복수의 배경 영역으로 분할하고, 상기 분할된 각 배경 영역에 대해 미리 설정된 의미 정보를 할당하는 단계;
상기 수신된 영상으로부터 이동 객체를 추출하는 단계;
상기 추출된 이동 객체의 종류를 판단하는 단계;
상기 판단된 이동 객체의 종류와, 상기 이동 객체가 위치한 배경 영역에 대응되는 의미 정보를 비교하여 위험도를 판단하는 단계; 및
상기 판단된 위험도에 따라 감시 처리를 수행하는 단계를 포함하는 영상 감시 장치의 영상 감시 방법.
A video surveillance method according to an embodiment of the present invention includes: receiving an image to be monitored; Obtaining a background of the received image;
Dividing the background of the acquired image into a plurality of background areas, and allocating predetermined semantic information to each of the divided background areas;
Extracting a moving object from the received image;
Determining a type of the extracted moving object;
Comparing the type of the determined moving object with semantic information corresponding to a background area in which the moving object is located to determine a risk level; And
And performing a monitoring process according to the determined risk.

Description

영상 감시 장치 및 영상 감시 방법{A METHOD FOR MONITORING A VIDEO AND AN APPARATUS USING IT}TECHNICAL FIELD [0001] The present invention relates to a video surveillance apparatus and a video surveillance method,

본 발명은 지능형 영상 감시 시스템에서 효율적으로 영상의 장면 인식을 수행할 수 있는 영상 감시 장치 및 영상 감시 방법에 관한 것이다BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an image surveillance apparatus and an image surveillance method capable of efficiently performing image scene recognition in an intelligent video surveillance system

사람이 눈으로 보는 것을 이해하는데 있어 맥락으로 인지하는 능력이 적용되는 것은 인간에겐 쉽게 해당하는 일이다. 어떠한 물체가 있을 만한 위치나 그럴듯한 풍경에 대해 경험적으로 많이 학습이 되어 있다고 할 수 있다. 가령 우리는, 호수 가운데 어떠한 움직이는 물체가 있다면, 물고기나 배 등으로 한정하여 가정할 것이고, 사람이라면 위험한 상황임을 인식할 것이다. 최근 이러한 개념을 적용 하는 것과 카메라 및 컴퓨터 하드웨어의 급속한 발달로 인해 컴퓨터 비전 및 패턴 인식 파트의 다양한 알고리즘을 이용한 시스템이 휴먼 컴퓨팅 인터페이스, 감시 영상, 의료 영상 분야 등과 접목되어 실제 이용되고 있다. It is easy for humans to apply the ability to perceive in context to understanding what a person sees. It can be said that there is a lot of experiential learning about the location and plausible scenery where there is an object. For example, we will assume that if there is any moving object in the lake, it will be limited to fish or ship, and people will recognize that it is a dangerous situation. Due to the recent application of these concepts and the rapid development of cameras and computer hardware, systems using various algorithms of computer vision and pattern recognition parts have been used in combination with human computing interfaces, surveillance images, and medical imaging.

기존에 제안된 기술보다 속도 및 정확도 면에서 향상된 얼굴 인식, 행동 인식을 비롯한 보행자 인식 기술은 현재 활발히 연구가 진행되고 있으며 일정 수준의 성과를 거두고 있다. 특히 감시 영상 시스템에서 보행자 인식 기술은 전체 시스템 성능의 평가를 좌우하는 매우 중요한 부분으로써 이를 위한 다양한 알고리즘이 제안되고 있다.Pedestrian recognition technologies including face recognition and behavior recognition, which are improved in terms of speed and accuracy, have been actively researched and achieved a certain level of performance. In particular, pedestrian recognition technology is a very important part of the overall system performance evaluation in the surveillance system.

특히 최근에 대두되는 지능형 영상 감시 시스템은 고정된 카메라를 통해 보이는 영상을 사람이 수작업으로 영역을 지정하거나, 대량의 학습된 데이터를 토대로 정지 영상에서 객체를 구분하여 인식하고 있다.Especially, the intelligent video surveillance system which recently emerged recognizes the images displayed by the fixed camera manually or by recognizing objects in still images based on a large amount of learned data.

그러나, 이와 같은 일반적인 영상 감시 시스템은 배경 정보 획득 과정이 불편하고 복잡할 뿐만 아니라, 많은 정보를 처리하지 못하는 문제점이 있다. 예를 들어, 종래의 영상 감시 시스템은 배경을 구분하기 위한 수동적인 배경의 경계선 지정이 필요하여 불편하고, 각 배경에 대한 의미 구분도 어려운 문제점이 있다.However, such a general video surveillance system is inconvenient and complicated to acquire background information, and has a problem that it can not process a lot of information. For example, in the conventional video surveillance system, it is inconvenient to specify a passive background boundary line for distinguishing the background, and it is difficult to classify the meaning for each background.

게다가, 일반적인 영상 감시 시스템은 배경을 분리하여 판단하는 것이 아니라, 단지 관심 영역을 지정하여 그 영역에 대한 정보 분석만을 수행하기 때문에 많은 정보를 처리하지 못하는 문제점이 있다.In addition, the general video surveillance system does not discriminate the background, but only analyzes the information on the area by designating the area of interest.

또한, 일반적인 영상 감시 시스템은 위험상황을 인식하는 정확도가 부족할 수 있다. 이동객체를 따로 추적해서 일반적인 패턴을 만드는 방법이나, 영상 전체에 대해서 정상적인 상황과 위험한 상황을 구분하여 패턴을 만드는 방법등이 있으나, 이는 카메라 설치 위치에 따라 엄청난 정보를 수집해야 하고, 특히 사람을 대상으로 할 경우에는 정확도가 매우 낮아서 현재 기술로는 적용 효율이 매우 떨어지며 효용성이 없을 수도 있다. 특히 현재 많이 사용되는 PTZ(pan, tilt, zoom)카메라를 이용한 영상 감시 방법의 경우에는 위와 같은 이유로 더욱 적용이 어려운 문제점이 있다.In addition, a typical video surveillance system may lack the accuracy to recognize danger situations. There is a way to create a general pattern by tracing a moving object separately, or a method of creating a pattern by distinguishing a normal situation from a dangerous situation with respect to the whole image. However, it is necessary to collect a huge amount of information according to the installation position of the camera, , The accuracy is very low, so the efficiency of the current technology is very low and may not be useful. In particular, in the case of a video surveillance method using a currently used PTZ (pan, tilt, zoom) camera, it is difficult to apply the method for the above reasons.

본 발명의 목적은 상기와 같은 문제점을 해결하기 위하여 위험상황 인식 정확도를 향상시키면서도 정보 처리량을 줄일 수 있는 영상 감시 장치 및 영상 감시 장치의 영상 감시 방법을 제공함에 있다.An object of the present invention is to provide a video surveillance apparatus and a video surveillance method of a video surveillance apparatus capable of reducing information throughput while improving the accuracy of recognizing a dangerous situation in order to solve the above problems.

상기 목적을 달성하기 위한 본 발명의 실시 예에 따른 영상 감시 장치의 영상 감시 방법은 감시 대상인 영상을 수신하는 단계; 상기 수신된 영상의 배경을 획득하는 단계; 상기 획득된 영상의 배경을 복수의 배경 영역으로 분할하고, 상기 분할된 각 배경 영역에 대해 미리 설정된 의미 정보를 할당하는 단계; 상기 수신된 영상으로부터 이동 객체를 추출하는 단계; 상기 추출된 이동 객체의 종류를 판단하는 단계; 상기 판단된 이동 객체의 종류와, 상기 이동 객체가 위치한 배경 영역에 대응되는 의미 정보를 비교하여 위험도를 판단하는 단계; 및 상기 판단된 위험도에 따라 감시 처리를 수행하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method for monitoring a video surveillance apparatus, the method comprising: receiving an image to be monitored; Obtaining a background of the received image; Dividing the background of the acquired image into a plurality of background areas, and allocating predetermined semantic information to each of the divided background areas; Extracting a moving object from the received image; Determining a type of the extracted moving object; Comparing the type of the determined moving object with semantic information corresponding to a background area in which the moving object is located to determine a risk level; And performing a monitoring process according to the determined risk.

또한, 상기 목적을 달성하기 위한 본 발명의 실시 예에 따른 영상 감시 장치는 감시 대상인 영상을 수신하는 수신부; 상기 수신된 영상의 배경을 획득하는 배경 획득부; 상기 획득된 영상의 배경을 복수의 배경 영역으로 분할하고, 상기 분할된 각 배경 영역에 대해 미리 설정된 의미 정보를 할당하는 의미 정보 설정부; 상기 수신된 영상으로부터 이동 객체를 추출하고, 상기 추출된 이동 객체의 종류를 판단하는 이동 객체 판별부; 상기 판단된 이동 객체의 종류와, 상기 이동 객체가 위치한 배경 영역에 대응되는 의미 정보를 비교하여 위험도를 판단하는 위험도 판단부; 및 상기 판단된 위험도에 따라 감시 처리를 수행하는 감시 처리부를 포함한다.According to another aspect of the present invention, there is provided a video surveillance apparatus including a reception unit for receiving a video to be monitored; A background acquiring unit acquiring a background of the received image; A semantic information setting unit for dividing the background of the obtained image into a plurality of background areas and allocating predetermined semantic information for each of the divided background areas; A moving object discrimination unit for extracting a moving object from the received image and determining a type of the extracted moving object; A risk judging unit for judging a risk by comparing semantic information corresponding to the type of the determined moving object and the background area in which the moving object is located; And a monitoring processor for performing a monitoring process according to the determined risk.

본 발명의 실시 예에 따르면 획득된 배경을 분할하여 분할된 영역에 대한 미리 설정된 의미가 할당될 수 있어 수동적인 배경의 경계선 지정 과정 없이도 효율적인 배경 영역 처리가 가능하게 된다.According to the embodiment of the present invention, the obtained background can be divided and a predetermined meaning can be assigned to the divided area, so that it is possible to process the background area efficiently without a passive background boundary designation process.

또한, 본 발명의 다른 실시 예에 따르면 이동 객체와 배경 영역의 의미 정보를 비교판단함으로써, 이동 객체가 지형지물과 겹치더라도 이동 객체의 종류를 정확하게 판단할 수 있게 된다.According to another embodiment of the present invention, even if the moving object overlaps with the feature, the type of the moving object can be accurately determined by comparing the semantic information between the moving object and the background area.

그리고, 본 발명의 다른 실시 예에 따르면 이동 객체의 종류와 배경 영역의 의미 정보에 따른 위험도를 판단할 수 있어, 복잡한 정보 처리 없이도 정확하면서도 빠른 위험도 판단이 가능하게 된다.According to another embodiment of the present invention, it is possible to determine the risk according to the kind of the moving object and the semantic information of the background area, and it is possible to accurately and quickly determine the risk without complicated information processing.

뿐만아니라, 본 발명의 다른 실시 예에 따르면, PTZ 카메라의 동작 영역에 따라 자동적으로 배경 분할 및 이동 객체 감지가 가능하게 되므로, PTZ 카메라를 이용한 매우 효율적인 감시 처리 및 위험도 판단을 가능하게 한다.In addition, according to another embodiment of the present invention, it is possible to automatically perform background segmentation and moving object detection according to the operation region of the PTZ camera, thereby enabling highly efficient monitoring processing and risk determination using the PTZ camera.

도 1은 본 발명의 실시 예에 따른 영상 감시 장치를 설명하기 위한 블록도이다.
도 2는 본 발명의 실시 예에 따른 영상 감시 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 실시 예에 따른 영상 감시 장치가 배경 정보에 의미 정보를 할당하는 과정을 설명하기 위한 흐름도이다.
도 4는 본 발명의 실시 예에 따른 영상 감시 장치가 위험도를 판단하는 과정을 설명하기 위한 흐름도이다.
도 5는 본 발명의 실시 예에 따른 영상 감시 장치가 감시 처리를 수행하는 것을 설명하기 위한 흐름도이다.
도 6 내지 도 7은 본 발명의 실시 예에 따라 컨텍스트로 의미 정보가 분류되는 배경 영역을 설명하기 위한 도면이다.
도 8은 본 발명의 실시 예에 따라 분할된 격자 구조의 배경 영역들을 나타내는 도면이다.
도 9는 본 발명의 실시 예에 따른 배경 영역의 모델링 방법을 설명하기 위한 도면이다.
도 10은 본 발명의 실시 예에 따라 이동 객체의 종류를 판단하기 위한 특성 정보 판단 과정을 설명하기 위한 도면이다.
도 11은 본 발명의 실시 예에 따라 배경이 분할된 영상을 나타내기 위한 도면이다.
도 12는 본 발명의 실시 예에 따라 영상으로부터 추출된 객체 이미지를 나타내는 도면이다.
도 13은 본 발명의 실시 예에 따른 객체 인식 성능을 비교하기 위한 비교도이다.
1 is a block diagram for explaining a video surveillance apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating a video surveillance method according to an embodiment of the present invention.
3 is a flowchart illustrating a process of assigning semantic information to background information by a video surveillance apparatus according to an embodiment of the present invention.
FIG. 4 is a flowchart illustrating a process of determining a risk by a video surveillance apparatus according to an exemplary embodiment of the present invention.
5 is a flowchart illustrating a monitoring process performed by a video surveillance apparatus according to an exemplary embodiment of the present invention.
6 to 7 are views for explaining a background area in which semantic information is classified into contexts according to an embodiment of the present invention.
8 is a diagram illustrating background regions of a divided grid structure according to an embodiment of the present invention.
9 is a diagram for explaining a modeling method of a background region according to an embodiment of the present invention.
10 is a diagram for explaining a characteristic information determination process for determining a type of a moving object according to an embodiment of the present invention.
11 is a diagram illustrating an image in which a background is divided according to an embodiment of the present invention.
12 is a view showing an object image extracted from an image according to an embodiment of the present invention.
13 is a comparative diagram for comparing object recognition performance according to an embodiment of the present invention.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following merely illustrates the principles of the invention. Thus, those skilled in the art will be able to devise various apparatuses which, although not explicitly described or shown herein, embody the principles of the invention and are included in the concept and scope of the invention. Furthermore, all of the conditional terms and embodiments listed herein are, in principle, only intended for the purpose of enabling understanding of the concepts of the present invention, and are not to be construed as limited to such specifically recited embodiments and conditions do.

또한, 본 발명의 원리, 관점 및 실시 예들뿐만 아니라 특정 실시 예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물 뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.It is also to be understood that the detailed description, as well as the principles, aspects and embodiments of the invention, as well as specific embodiments thereof, are intended to cover structural and functional equivalents thereof. It is also to be understood that such equivalents include all elements contemplated to perform the same function irrespective of the currently known equivalents as well as the equivalents to be developed in the future, i.e., the structure.

따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.Thus, for example, it should be understood that the block diagrams herein represent conceptual views of exemplary circuits embodying the principles of the invention. Similarly, all flowcharts, state transition diagrams, pseudo code, and the like are representative of various processes that may be substantially represented on a computer-readable medium and executed by a computer or processor, whether or not the computer or processor is explicitly shown .

프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.The functions of the various elements shown in the figures, including the functional blocks depicted in the processor or similar concept, may be provided by use of dedicated hardware as well as hardware capable of executing software in connection with appropriate software. When provided by a processor, the functions may be provided by a single dedicated processor, a single shared processor, or a plurality of individual processors, some of which may be shared.

또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니 되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.Also, the explicit use of terms such as processor, control, or similar concepts should not be interpreted exclusively as hardware capable of running software, and may be used without limitation as a digital signal processor (DSP) (ROM), random access memory (RAM), and non-volatile memory. Other hardware may also be included.

본 명세서의 청구범위에서, 상세한 설명에 기재된 기능을 수행하기 위한 수단으로 표현된 구성요소는 예를 들어 상기 기능을 수행하는 회로 소자의 조합 또는 펌웨어/마이크로 코드 등을 포함하는 모든 형식의 소프트웨어를 포함하는 기능을 수행하는 모든 방법을 포함하는 것으로 의도되었으며, 상기 기능을 수행하도록 상기 소프트웨어를 실행하기 위한 적절한 회로와 결합된다. 이러한 청구범위에 의해 정의되는 본 발명은 다양하게 열거된 수단에 의해 제공되는 기능들이 결합되고 청구항이 요구하는 방식과 결합되기 때문에 상기 기능을 제공할 수 있는 어떠한 수단도 본 명세서로부터 파악되는 것과 균등한 것으로 이해되어야 한다.In the claims hereof, the elements represented as means for performing the functions described in the detailed description include all types of software including, for example, a combination of circuit elements performing the function or firmware / microcode etc. , And is coupled with appropriate circuitry to execute the software to perform the function. It is to be understood that the invention defined by the appended claims is not to be construed as encompassing any means capable of providing such functionality, as the functions provided by the various listed means are combined and combined with the manner in which the claims require .

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, in which: There will be. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일 실시 예를 상세히 설명하기로 한다.Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시 예에 따른 영상 감시 장치를 설명하기 위한 블록도이다.1 is a block diagram for explaining a video surveillance apparatus according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시 예에 따른 영상 감시 장치(100)는 감시 대상 영상을 수신하는 영상 수신부(110), 수신된 영상에 대한 배경을 획득하는 배경 획득부(120), 획득된 배경을 분할하고, 분할된 영역에 의미를 설정하는 의미 설정부(130), 수신된 영상으로부터 이동 물체를 판별하는 이동 물체 판별부(140), 판별된 이동 물체의 종류 및 이동 물체가 위치한 배경 영역의 의미에 기초하여 위험도를 판단하는 위험도 판단부(150) 및 판단된 위험도에 따라 감시 처리를 수행하는 감시 처리부(160)를 포함한다.1, an image surveillance apparatus 100 according to an embodiment of the present invention includes an image receiving unit 110 for receiving a monitored image, a background obtaining unit 120 for obtaining a background for the received image, A moving object discrimination unit 140 for discriminating a moving object from the received image, a type of the moving object discriminated and a background region in which the moving object is located, A risk judging unit 150 for judging a risk based on the meaning of the risk, and a monitoring processing unit 160 for performing a monitoring process according to the determined risk.

영상 수신부(110)는 감시 대상인 영상을 수신할 수 있다. 감시 대상 영상은 감시 목표 지역에 설치되는 감시 카메라에 의해 촬영되어 전송된 영상일 수 있다. 감시 카메라는 예를 들어, 아파트 주차장, 시설의 외부 경계지역, 회사 사무실 내 출입구 등과 같이 보안 감시 또는 위험도 판단이 필요한 다양한 장소에 설치되어 해당 지역의 영상을 촬영할 수 있다. 여기서, 감시 대상 영상은 카메라로부터 네트워크 인터페이스를 통해 실시간으로 전송되는 영상일 수 있으며, 이미 녹화 처리된 디지털 영상 데이터일 수도 있다.The image receiving unit 110 can receive the image to be monitored. The surveillance target image may be an image captured and transmitted by a surveillance camera installed in the surveillance target area. Surveillance cameras can be installed in various places where security surveillance or risk judgment is required, such as apartment parking, outside boundary of facility, entrance in company office, etc., and can shoot images of the area. Here, the monitoring target image may be an image transmitted from the camera through the network interface in real time, or may be the digital image data already recorded.

특히 감시 대상 영상은 PTZ(pan, tilt, zoom)카메라로부터 촬영된 영상일 수 있다. PTZ 카메라는 렌즈를 구동하는 줌, 포커스 및 아이리스용 모터 이외에도 수평방향으로 회전 가능한 팬(PAN) 모커와, 수직 방향으로 회전 가능한 틸트(TILT) 모터를 포함하는 카메라로서, 패턴(Pattern), 그룹(Group), 스윙(Swing), 프라이버시 존 마스킹(Privacy Zone Masking), 오토 플립(Auto Flip), 모션 트래킹(Motion Tracking), 오토 파킹(Auto Parking), 스케줄(Schedule) 등의 다양한 지능형 동작을 수행할 수 있다. 따라서, 영상 감시 장치(100)는 영상 수신부(110)를 통해 이와 같은 PTZ 카메라로부터 촬영되는 영상을 수신할 수 있다. In particular, the monitored image may be an image taken from a PTZ (pan, tilt, zoom) camera. The PTZ camera is a camera that includes a pan mo rotator that can rotate in the horizontal direction in addition to a zoom, focus, and iris motors that drive the lens, and a tilt motor that can rotate in the vertical direction. A variety of intelligent actions such as Group, Swing, Privacy Zone Masking, Auto Flip, Motion Tracking, Auto Parking, Schedule, . Accordingly, the video surveillance apparatus 100 can receive an image photographed from such a PTZ camera through the image receiving unit 110. [

또한, 영상 감시 장치(100)는 다양한 인터페이스를 통해 PTZ 카메라와 연결되어 PTZ 카메라의 동작을 제어할 수도 있으며, 영상 감시 장치(100)의 일부로서 영상 수신부(110)와 연결되는 PTZ 카메라가 더 포함될 수도 있다.The video surveillance apparatus 100 may further include a PTZ camera connected to the video receiving unit 110 as a part of the video surveillance apparatus 100. The video surveillance apparatus 100 may be connected to the PTZ camera through various interfaces to control the operation of the PTZ camera 100 It is possible.

그리고, 영상 수신부(110)는 감시 대상 영상을 수신하기 위해 네트워크 인터페이스부(미도시)를 포함할 수 있다. 네트워크 인터페이스부는, 영상 수신부를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공할 수 있다. 네트워크 인터페이스부는, 유선 네트워크와의 접속을 위해, 예를 들어 이더넷(Ethernet) 단자 등을 구비할 수 있으며, 무선 네트워크와의 접속을 위해, 예를 들어 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 등을 이용할 수 있다.The image receiving unit 110 may include a network interface unit (not shown) to receive the monitored image. The network interface unit may provide an interface for connecting the image receiving unit to a wired / wireless network including the Internet network. The network interface unit may include an Ethernet terminal or the like for connection to a wired network and may be a WLAN (Wi-Fi), a WiBro (Wireless Broadband), Wimax (World Interoperability for Microwave Access), and HSDPA (High Speed Downlink Packet Access) communication standards.

또한, 영상 수신부(110)는 네트워크 인터페이스부를 통해, 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 이용하여, 다른 사용자 또는 다른 전자 기기와 데이터를 송신 또는 수신할 수 있다. 송신 또는 수신되는 데이터는 감시 대상 영상을 포함하는 디지털 영상 데이터를 포함할 수 있으며, 이외 영상 감시를 위한 다양한 어플리케이션 데이터를 더 포함할 수도 있다.In addition, the image receiving unit 110 can transmit or receive data with another user or another electronic device through the network interface unit using the connected network or another network linked to the connected network. The transmitted or received data may include digital image data including a monitoring target image, and may further include various application data for video surveillance.

배경 획득부(120)는 감시 대상 영상의 배경을 획득한다. 배경 획득부(120)는 영상 수신부(110)로 수신되는 감시 대상 영상을 분석하여, 감시 대상 지역에 대한 배경 데이터를 획득함으로써 배경을 획득할 수 있다. 또한, 예를 들어 배경 획득부(120)는 연속되는 감시 대상 영상에 대한 영역별 특성 정보의 변화량을 판단하고, 그 변화량에 따른 배경 결정 과정을 통해 배경을 획득할 수 있다. 상세한 배경 획득 방법의 실시 예에 대하여는 후술하도록 한다.The background obtaining unit 120 obtains the background of the monitored image. The background obtaining unit 120 may obtain the background by analyzing the monitoring target image received by the image receiving unit 110 and acquiring the background data of the monitored area. In addition, for example, the background obtaining unit 120 may determine the amount of change of the characteristic information for each continuous image to be monitored, and acquire the background through a background determination process according to the amount of change. An embodiment of the detailed background acquisition method will be described later.

한편, 의미 설정부(130)는 배경 획득부(120)에서 획득된 배경을 복수의 배경 영역으로 분할하고, 분할된 각각의 배경 영역에 대해 미리 설정된 의미 정보를 할당한다. 의미 설정부(130)는 각 배경 영역에 대한 특성 정보를 추출하고, 그 특성 정보에 대응되는 의미 정보를 각 배경 영역에 할당함으로써, 각 배경 영역에 대한 의미 정보를 할당 또는 설정할 수 있다. On the other hand, the meaning setting unit 130 divides the background obtained by the background obtaining unit 120 into a plurality of background regions, and assigns predetermined semantic information to each of the divided background regions. The meaning setting unit 130 may assign or set semantic information for each background area by extracting characteristic information for each background area and assigning semantic information corresponding to the characteristic information to each background area.

따라서, 의미 설정부(130)는 배경 획득부(120)에서 획득된 배경 데이터에 기초하여 의미 정보가 할당된 배경 데이터를 생성하고, 출력할 수 있다. 상세한 의미 정보 설정 방법의 실시 예는 앞서 설명한 배경 획득부(120)의 배경 획득 방법과 함께 후술하도록 한다.Therefore, the meaning setting unit 130 can generate and output the background data to which the semantic information is allocated, based on the background data obtained by the background obtaining unit 120. [ An embodiment of the detailed semantic information setting method will be described later along with the background acquisition method of the background acquisition unit 120 described above.

그리고, 의미 설정부(130)는 의미 정보가 할당된 배경 데이터를 이동 객체 판별부(140) 또는 위험도 판단부(150) 중 적어도 하나로 출력할 수 있다.The meaning setting unit 130 may output the background data to which the semantic information is allocated to at least one of the moving object determining unit 140 and the risk determining unit 150.

한편, 이동 객체 판별부(140)는 영상 수신부(110)로부터 수신되는 영상을 전달받아 수신된 영상의 이동 객체를 추출하고, 추출된 이동 객체의 종류를 판단한다. 이동 객체 판별부(140)는 예를 들어, 영상 수신부(110)로부터 감시 대상 영상을 수신할 수 있으며, 수신된 감시 대상 영상의 일부 프레임을 분석함으로써 이동 객체의 존재를 판별할 수 있다.Meanwhile, the moving object determining unit 140 extracts moving objects of the received image received from the image receiving unit 110, and determines the type of the extracted moving object. For example, the moving object discrimination unit 140 can receive the monitoring target image from the image receiving unit 110 and can analyze the presence of the moving object by analyzing some frames of the received monitoring target image.

또한, 이동 객체 판별부(140)는 판별된 이동 객체의 종류를 판단하여 소정 조건에 따라 위험도 판단부(150)로 출력할 수 있다. The moving object determination unit 140 may determine the type of the identified moving object and output the determined type to the risk determination unit 150 according to a predetermined condition.

이동 객체 판별부(140)는 의미 설정부(130)로부터 출력되는 의미 정보가 할당된 배경 데이터에 기초하여, 현재 판별된 이동 객체의 종류를 판단할 수 있다. 예를 들어, 이동 객체 판별부(140)는 이동 객체 자체의 특성 정보 뿐만아니라, 이동 객체가 위치한 배경의 의미 정보와 이동 객체의 특성 정보간의 관계 정보를 이용하여, 이동 객체가 사람, 동물 또는 자동차인지의 종류를 판단할 수 있다. 이를 위해, 이동 객체 판별부(140)는 미리 저장된 의미 정보와 이동 객체 간의 관계 테이블을 이용할 수도 있다.The moving object determining unit 140 can determine the type of the currently determined moving object based on the background data to which the semantic information output from the meaning setting unit 130 is allocated. For example, the moving object determination unit 140 may use not only the characteristic information of the moving object itself, but also the relationship information between the semantic information of the background where the moving object is located and the characteristic information of the moving object, The type of recognition can be determined. For this purpose, the moving object determination unit 140 may use a relation table between the stored semantic information and the moving object.

그리고, 이동 객체 판별부(140)는 판단된 이동 객체의 종류에 따라 위험도 판단부(150)로 이동 객체 정보를 출력할 수 있다. 이동 객체 정보는 판단된 이동 객체의 종류 정보 및 그 이동 객체의 위치 정보를 포함할 수 있다.The moving object determination unit 140 may output the moving object information to the risk determination unit 150 according to the type of the determined moving object. The moving object information may include type information of the determined moving object and position information of the moving object.

위험도 판단부(150)는 이동 객체 판별부(140)에서 출력되는 이동 객체 정보 및 의미 설정부(130)에서 출력되는 의미 정보가 할당된 배경 데이터에 기초하여, 위험도를 판단하고, 위험도 판단 결과를 감시 처리부(160)로 전달한다.The risk judging unit 150 judges the risk based on the moving object information outputted from the moving object judging unit 140 and the background data allocated with the semantic information outputted from the meaning setting unit 130, And transmits it to the monitoring processing unit 160.

위험도 판단부(150)는 이와 같은 위험도 판단을 위해, 이동 객체의 종류와 이동 객체가 위치한 배경 영역의 의미 정보를 비교할 수 있다. 이를 위해, 위험도 판단부(150)는 배경 영역의 의미 정보와 그 배경 영역에 위치한 이동 객체의 종류에 따른 위험도 정보를 포함하는 위험도 테이블 등을 이용할 수도 있다.The risk level determiner 150 may compare the type of the moving object and the semantic information of the background area in which the moving object is located in order to determine the risk. For this, the risk determination unit 150 may use a risk table including the semantic information of the background area and the risk information according to the type of the moving object located in the background area.

그리고, 감시 처리부(160)는 위험도 판단부(150)의 위험도 판단 결과에 따라 필요한 감시 처리를 수행한다. The monitoring processing unit 160 performs necessary monitoring processing according to the result of the risk determination of the risk determination unit 150. [

감시 처리부(160)는 예를 들어, 위험도가 임계치 이상인 경우 경보를 발생하고, 영상 감시 장치(100)의 사용자 또는 관계자가 인지할 수 있는 수단을 이용하여 알람을 수행할 수 있다.For example, the surveillance processing unit 160 may generate an alarm when the risk level is equal to or higher than a threshold value, and may perform an alarm using a means perceived by a user of the video surveillance apparatus 100 or a person concerned.

또한, 감시 처리부(160)는 위험도 판단 결과에 따른 실시간 위험도를 출력할 수도 있다. 이를 위해 감시 처리부(160)는 디스플레이부(미도시) 또는 음성 출력부(미도시)를 더 포함할 수 있다. 디스플레이부는 감시 처리부(160)에서 처리된 위험도 영상 신호, 데이터 신호, OSD 신호 또는 외부장치 인터페이스를 통해 수신되는 영상 신호, 데이터 신호 등을 각각 R,G,B 신호로 변환하여 구동 신호를 생성할 수 있으며, PDP, LCD, OLED, 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 등이 가능할 수 있다. 또한, 음성 출력부는, 감시 처리부(160)에서 음성 처리된 위험도 신호, 예를 들어, 스테레오 신호, 3.1 채널 신호 또는 5.1 채널 신호를 입력 받아 음성으로 출력할 수 있으며, 다양한 형태의 스피커로 구현될 수 있다.In addition, the monitoring processing unit 160 may output a real-time risk level according to a risk determination result. For this, the monitoring processor 160 may further include a display unit (not shown) or a voice output unit (not shown). The display unit may generate a driving signal by converting the hazardous video signal, the data signal, the OSD signal, or the video signal and the data signal received through the external device interface into the R, G, and B signals respectively processed by the monitoring processing unit 160 And may be a PDP, an LCD, an OLED, a flexible display, a 3D display, and the like. In addition, the sound output unit may receive a risk signal, for example, a stereo signal, a 3.1 channel signal, or a 5.1 channel signal, which has been processed in the monitoring processing unit 160, and output the sound. have.

그리고, 감시 처리부(160)는 위험도 판단 결과에 기초하여 미리 설정된 위험도 상황별 경보를 수행할 수 있다. 상황별 경보는 미리 설정된 이동 객체의 종류와, 그 이동 객체가 위치한 배경 영역에 따라 달라질 수 있다. 예를 들어, 감시 처리부(160)는 위험도 판단 결과에 포함된 이동 객체의 종류 정보가 사람을 나타내고, 이동 객체가 위치한 배경 영역 정보가 호수를 나타내는 경우, 익사 경보를 수행할 수 있다. 또한, 예를 들어 감시 처리부(160)는 위험도 판단 결과에 포함된 이동 객체의 종류가 사람 또는 자동차이고, 이동 객체가 위치한 배경 영역 정보가 보안 시설을 나타내는 경우에는 침입 경보를 수행할 수 있다. 그리고, 예를 들어 감시 처리부(160)는 위험도 판단 결과에 포함된 이동 객체의 종류가 사람 또는 자동차이고, 이동 객체가 위치한 배경 영역 정보가 귀중품 영역을 나타내는 경우에는 도난 경보를 수행할 수도 있다.Then, the monitoring processing unit 160 can perform alarms according to the predetermined risk situations based on the result of the risk determination. The alarm according to the situation can be changed according to the type of the preset moving object and the background area in which the moving object is located. For example, the surveillance processor 160 can perform a drowning alarm when the type information of the moving object included in the risk determination result indicates a person and the background area information in which the moving object is located indicates a lake. In addition, for example, the surveillance processor 160 may perform an intrusion alert when the type of the moving object included in the risk determination result is a person or an automobile, and the background area information in which the moving object is located indicates a security facility. For example, the surveillance processing unit 160 may perform a burglar alarm when the type of the moving object included in the risk determination result is a person or an automobile, and the background area information in which the moving object is located indicates a valuable area.

이와 같이, 본 발명의 실시 예에 따른 영상 감시 장치(100)는 배경 획득 과정을 통해 PTZ 카메라등으로부터 수신되는 영상으로부터 배경을 획득할 수 있게 되며, 획득된 배경에 대한 의미 정보 할당을 이용하여 이동 객체 종류 판별과 위험도 판단의 정확도를 향상시킬 수 있다. 뿐만 아니라 위험 종류별 감시 처리가 가능하게 되므로 다양한 상황에 맞추어 대응할 수 있게 되는 효과가 있다.As described above, the video surveillance apparatus 100 according to the embodiment of the present invention can acquire the background from the image received from the PTZ camera or the like through the background acquisition process, The accuracy of object type discrimination and risk judgment can be improved. In addition, since the monitoring process can be performed for each type of risk, it is possible to cope with various situations.

이하에서는 이와 같은 영상 감시 장치(100)의 영상 감시 방법을 흐름도와 영상 화면 등을 참조하여 설명하도록 한다.Hereinafter, a video surveillance method of the video surveillance apparatus 100 will be described with reference to flowcharts, video screens, and the like.

도 2는 본 발명의 실시 예에 따른 영상 감시 장치(100)의 영상 감시 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a video surveillance method of the video surveillance apparatus 100 according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 실시 예에 따른 영상 감시 장치(100)는 먼저 영상을 입력받는다(S101).Referring to FIG. 2, the video surveillance apparatus 100 according to the embodiment of the present invention first receives an image (S101).

영상 감시 장치(100)는 상술한 영상 수신부(110)를 통해 영상을 입력받을 수 있다. 입력되는 영상은 상술한 감시 대상 영상을 포함할 수 있으며, 감시 대상 영상은 감시 지역에 위치한 감시 카메라로부터 촬영된 영상일 수 있다. 감시 카메라는, 앞서 설명한 바와 같이 팬 회전 및 틸트 회전 동작이 가능한 PTZ 카메라를 포함할 수 있다.The video surveillance apparatus 100 can receive an image through the image receiving unit 110. [ The input image may include the above-described monitored image, and the monitored image may be an image captured from a surveillance camera located in the surveillance area. The surveillance camera may include a PTZ camera capable of pan rotation and tilt rotation operations as described above.

그리고, 영상 감시 장치(100)는 입력된 영상에 기초하여 배경을 획득하고, 배경을 분할하여 영역별 의미 정보를 설정한다(S103).Then, the video surveillance apparatus 100 obtains the background based on the input image, and divides the background to set the per-area semantic information (S103).

영상 감시 장치(100)는 배경 획득부(120)를 통해 입력된 영상의 배경을 획득할 수 있으며, 의미 설정부(130)를 통해 분할된 배경 영역별 의미 정보를 할당할 수 있다. The video surveillance apparatus 100 can acquire the background of the image input through the background obtaining unit 120 and can assign the divided information of the background region by the meaning setting unit 130. [

예를 들어, 배경 획득부(120)는 배경 모델링 알고리즘을 이용하여 입력된 영상의 배경을 획득할 수 있다. 배경 모델링 알고리즘은 예를 들어, 코드북(Codebook)방법이나, 혼합 가우시안 방법 또는 커널 방법등을 포함할 수 있다. 그리고, 바람직하게는 사용자의 설정에 따른 경계 값 조정이 수월하고, 메모리를 적게 차지하는 코드북(Codebook) 방식을 이용할 수 있다. 이는 영상으로부터 새롭게 배경으로 관찰된 픽셀값들을 그 전의 픽셀값들과 비교하는 방법으로서, 상세 알고리즘은 후술하도록 한다.For example, the background obtaining unit 120 may obtain the background of the input image using a background modeling algorithm. Background modeling algorithms may include, for example, a Codebook method, a mixed Gaussian method, or a kernel method. It is preferable to use a codebook method which can easily adjust the boundary value according to the setting of the user and occupy less memory. This is a method of comparing the pixel values observed from the image with the new background to the previous pixel values, and the detailed algorithm will be described later.

그리고, 영상 감시 장치(100)는 입력된 영상에 기초하여 이동 물체를 인식한다(S105). Then, the video surveillance apparatus 100 recognizes the moving object based on the input image (S105).

영상 감시 장치(100)는 앞서 설명한 바와 같이, 이동 객체 판별부(140)를 통해 이동 객체를 인식하고, 그 종류를 판단할 수 있다. 이동 객체를 추출하는 방법에는 다양한 알고리즘 방식이 있을 수 있으며, 예를 들어 HOG(Histogram of Gradient Orientations)를 이용한 특징 추출 방법이 사용될 수 있다. As described above, the video surveillance apparatus 100 can recognize the moving object through the moving object determining unit 140 and determine the type of the moving object. There are various algorithm methods for extracting moving objects. For example, a feature extraction method using Histogram of Gradient Orientations (HOG) can be used.

특히, 이동 객체 판별부(140)는 의미 정보가 할당된 배경 데이터를 이용하여 정확한 이동 객체 판별을 수행할 수 있다. 이동 객체 판별부(140)는 예를 들어, 장애물에 가려진 이동 객체에 대해서도, 배경 데이터와 이동 객체간의 관계 조건을 설정하고, 이에 따라 이동 객체의 종류를 판단함으로써 정확도를 향상시킬 수 있다. 예를 들어, 학교 안 잔디밭의 나무 뒤의 이동 객체는 사람일 확률이 높을 수 있다. 따라서, 이동 객체 판별부(140)는 배경이 학교 안 잔디밭으로 할당된 배경에 위치한 객체 사람 검출 알고리즘의 사람 검출 허용도를 높게 설정할 수 있으며, 따라서 그 영역에서의 이동 객체가 사람이라는 것을 쉽고 정확하게 검출할 수 있게 된다.In particular, the moving object discrimination unit 140 can perform accurate moving object discrimination using the background data to which the semantic information is allocated. For example, the moving object discrimination unit 140 can improve the accuracy of the moving object hidden by the obstacle by setting the relation condition between the background data and the moving object and determining the type of the moving object accordingly. For example, a moving object behind a tree in a school lawn can be more likely to be a person. Accordingly, the moving object discrimination unit 140 can set the human detection tolerance of the object person detection algorithm located in the background allocated to the school lawn area high, so that the moving object in the area can be easily and accurately detected .

그리고, 영상 감시 장치(100)는 인식된 이동 객체의 종류와 위치에 기초하여 위험도를 판단한다(S107).Then, the video surveillance apparatus 100 determines the risk level based on the type and position of the recognized moving object (S107).

영상 감시 장치(100)는 앞서 설명한 바와 같이 위험도 판단부(150)를 이용하여 위험도를 판단할 수 있다. 영상 감시 장치(100)는 이동 객체의 종류와 이동 객체가 위치한 배경 영역의 의미 정보를 비교함으로써 위험도를 판단하고, 출력할 수 있다. 예를 들어, 위험도 판단부(150)는 이동 객체가 위치한 배경 영역의 의미 정보가 호수를 나타내는 경우, 이동 객체가 사람이라면 소정 임계치보다 높은 위험도를 출력할 수 있다. 그리고, 배경 영역의 의미 정보가 인도를 나타내는 경우에는 이동 객체가 사람이 아니라 다른 이동물체가 존재할 때 소정 임계치보다 높은 위험도를 출력할 수 있다. 이와 같은 위험도 수치 및 임계치 값은 상황별로 미리 설정될 수 있으며, 후술할 영상 감시 장치(100)의 감시 처리 동작에 사용될 수 있다.The video surveillance apparatus 100 can determine the risk level using the risk determination unit 150 as described above. The video surveillance apparatus 100 can determine and output the risk by comparing the type of the moving object and the semantic information of the background area in which the moving object is located. For example, if the semantic information of the background area in which the moving object is located represents a lake, and the moving object is a person, the risk determination unit 150 may output a risk level higher than a predetermined threshold value. When the semantic information of the background area indicates delivery, when the moving object is not a person but another moving object, the risk level may be higher than a predetermined threshold value. The risk value and the threshold value can be set in advance for each situation, and can be used for the surveillance processing operation of the video surveillance apparatus 100, which will be described later.

그리고, 영상 감시 장치(100)는 판단된 위험도에 따라 감시 처리를 수행하고, 그 처리 결과를 출력한다(S109).Then, the video surveillance apparatus 100 performs surveillance processing in accordance with the determined risk, and outputs the processing result (S109).

영상 감시 장치(100)는 앞서 설명한 감시 처리부(160)를 이용하여 감시 처리를 수행하고, 처리 결과를 출력할 수 있다. 감시 처리는 앞서 설명한 바와 같이, 예를 들어 소정 조건에 따른 상황별 경보 발생 또는 사용자 인지 가능한 알람 수행 등이 있을 수 있다. The video surveillance apparatus 100 can perform monitoring processing using the monitoring processing unit 160 described above and output the processing result. As described above, the monitoring process may be, for example, generating an alarm for each situation according to a predetermined condition or performing a user-perceptible alarm.

이와 같은 감시 처리부(160)의 출력에 따라 영상 감시 장치(100)의 기기 운용자는 특별한 관찰 없이도 현재 감시 대상 지역의 위험도를 쉽게 판단할 수 있게 된다.According to the output of the surveillance processing unit 160, the device operator of the video surveillance apparatus 100 can easily determine the risk level of the current surveillance target area without any special observation.

도 3은 본 발명의 실시 예에 따른 배경 획득 및 의미 정보 할당 과정을 설명하기 위한 흐름도이다.3 is a flowchart illustrating background acquisition and semantic information allocation according to an embodiment of the present invention.

도 3을 참조하면, 먼저 영상 수신부(110)는 감시 대상 지역에서 촬영된 감시 대상 영상을 입력받는다(S201).Referring to FIG. 3, the image receiving unit 110 receives a surveillance target image photographed in a surveillance target area (S201).

그리고, 배경 획득부(120)는 수신된 감시 대상 영상을 분할하고, 특성 정보를 추출한다(S203).Then, the background obtaining unit 120 divides the received monitoring target image and extracts characteristic information (S203).

배경 획득부(120)는 예를 들어, 수신된 감시 대상 영상의 일부 프레임들을 기초로 각 프레임을 일정 크기의 격자 구조를 갖는 영역으로 구획하여, 구획된 각 영역들에 대한 특성 정보를 추출할 수 있다. 특성 정보는 예를 들어, 구획된 격자 구조 영역 각각에 대한 컬러 정보, 에지 정보, 히스토그램 정보 중 적어도 하나를 포함할 수 있다.For example, the background obtaining unit 120 may divide each frame into regions having a grid structure of a predetermined size based on some frames of the received monitoring object image, and extract characteristic information about the divided regions have. The characteristic information may include, for example, at least one of color information, edge information, and histogram information for each of the partitioned lattice structure regions.

그리고, 배경 획득부(120)는 구획된 격자 영역에 대해 프레임별로 특성 정보변화량을 판단하고(S205), 그 변화량에 따른 배경 학습을 수행한다(S207). 배경 학습은 구획된 복수의 영역 중 특성 정보의 경계에 속하는 영역들을 배경으로 분류하는 방식을 사용할 수 있다. 그리고, 배경 획득부(120)는 유사한 복수의 영역들을 그룹화하며, 학습 시간에서 일정 비율의 시간 동안 나타나지 않은 배경 그룹은 제거함으로써 배경 획득의 정확도를 향상시킬 수 있다.Then, the background acquiring unit 120 determines a characteristic information variation amount for each of the divided grid areas (S205), and performs background learning according to the variation amounts (S207). The background learning may use a method of classifying the areas belonging to the boundary of the characteristic information among the plurality of divided areas as the background. The background acquiring unit 120 groups the similar plurality of areas, and improves the accuracy of the background acquisition by removing background groups that have not appeared for a certain period of time in the learning time.

이후, 의미 설정부(130)는 배경 획득부(120)에서 획득된 배경에 대응하여 의미 정보를 할당한다(209).Then, the meaning setting unit 130 assigns semantic information corresponding to the background obtained in the background obtaining unit 120 (209).

의미 설정부(130)는 분할되고, 그룹화된 복수의 배경 영역에 대한 특성 정보게 기초하여 미리 설정된 의미 정보를 할당할 수 있다. 여기서, 그룹화된 복수의 배경 영역에 대한 특성 정보는 컬러 정보 및 에지 정보 중 적어도 하나를 포함할 수 있다. The meaning setting unit 130 may divide and allocate predetermined semantic information based on the property information of the plurality of grouped background areas. Here, the characteristic information for the plurality of grouped background areas may include at least one of color information and edge information.

각 배경 영역에 대한 의미 정보는 미리 설정될 수 있으며, 사용자에 의해 지정될 수도 있다. 의미 설정부(130)는 미리 설정된 조건에 따라 화면상에서 보이는 유사한 컬러와 에지를 갖는 영역에 대해 나무, 바위, 잔디 또는 물 등과 같이 의미 정보를 할당할 수 있다. 이와 같은 의미 정보는 이후 위험도 판단과 이동 객체 종류 판단 과정 등에서 사용될 수 있다.The semantic information for each background area may be preset and may be specified by the user. The meaning setting unit 130 may assign semantic information such as a tree, a rock, a lawn, or water to an area having similar colors and edges as seen on the screen according to preset conditions. Such semantic information can be used in the risk determination and the process of determining the type of the moving object.

도 4는 본 발명의 실시 예에 따른 영상 감시 장치가 위험도를 판단하는 과정을 설명하기 위한 흐름도이다.FIG. 4 is a flowchart illustrating a process of determining a risk by a video surveillance apparatus according to an exemplary embodiment of the present invention.

도 4를 참조하면, 먼저 이동 객체 판별부(140)는 영상 수신부(110)에서 수신되는 감시 대상 영상을 수신한다(S301).Referring to FIG. 4, first, the moving object determination unit 140 receives a monitoring target image received from the image receiving unit 110 (S301).

그리고, 이동 객체 판별부(140)는 수신된 감시 대상 영상으로부터 이동 객체를 감지한다(S303). 이동 객체 판별부(140)는 수신된 감시 대상 영상의 일정 프레임 구간 동안의 이미지 변화를 체크하여 이동 객체가 존재하는지를 판단할 수 있다.Then, the moving object determining unit 140 detects the moving object from the received monitoring target image (S303). The moving object discrimination unit 140 can check whether there is a moving object by checking the image change during a certain frame period of the received monitoring target image.

그리고, 이동 객체 판별부(140)는 이동 객체가 감지된 경우, 이동 객체가 위치한 배경 영역의 의미 정보를 획득한다(S305).When the moving object is detected, the moving object determining unit 140 obtains the semantic information of the background area in which the moving object is located (S305).

이동 객체 판별부(140)는 상술한 의미 설정부(130)의 의미 정보가 할당된 배경 데이터 출력에 기초하여 이동 객체가 위치한 배경 영역의 의미 정보를 획득할 수 있다.The moving object discrimination unit 140 may acquire semantic information of the background area in which the moving object is located based on the output of the background data to which the semantic information of the semantic setting unit 130 is allocated.

그리고, 이동 객체 판별부(140)는 배경 데이터와, 획득된 이동 정보 및 감지된 이동 객체의 특성에 따라 이동 객체의 종류를 판별한다(S307).Then, the moving object determining unit 140 determines the type of the moving object according to the background data, the obtained moving information, and the characteristics of the detected moving object (S307).

이동 객체 판별부(140)는 영상으로부터 배경 데이터로 분류된 부분을 제거함으로써, 전경 객체를 검출하고, 검출된 전경 객체의 특성 정보, 예를 들어 후술할 기울기 정보 등에 기초하여 전경 객체의 종류를 결정할 수 있다. The moving object discrimination unit 140 detects a foreground object by removing a part classified as background data from the image and determines the type of the foreground object based on the detected characteristic information of the foreground object, for example, tilt information to be described later .

또한, 이동 객체 판별부(140)는 앞서 설명한 바와 같이, 의미 정보와의 관계도를 비교함으로써 전경 객체의 종류를 판별하는 정확도를 향상시킬 수 있다. 예를 들어, 검출된 전경 객체가 위치한 배경 영역이 사람이 자주 다니면서도 가려짐 현상 발생이 가능한 지역(예를 들어 나무 등)인 경우에는, 그 전경 객체를 사람으로 판단할 확률이 높게 설정됨으로써 객체 추적 정확도가 향상될 수 있다.Also, as described above, the moving object determination unit 140 can improve the accuracy of determining the type of the foreground object by comparing the degree of relationship with the semantic information. For example, in a case where a background area in which a detected foreground object is located is an area (e.g., a tree, etc.) in which a person often travels but can be occluded, the probability of determining the foreground object as a person is set to be high, The accuracy can be improved.

한편, 이동 객체 판별부(140)는 이동 객체의 종류와 위치에 따라 위험도 판단이 필요한지 여부를 결정한다(S309).Meanwhile, the moving object determination unit 140 determines whether a risk determination is required according to the type and location of the moving object (S309).

예를 들어, 이동 객체 판별부(140)는 이동 객체의 종류가 사람이나 자동차가 아닌 일반 사물 또는 동물 등으로 결정되는 경우, 영상 감시 장치(100)는 위험도 판단 없이 다시 상술한 영상 입력(S301) 단계를 반복 수행하여 이후의 영상 데이터를 기초로 다시 판단할 수 있다.For example, if the moving object discrimination unit 140 determines that the type of the moving object is a general object or an animal rather than a person or an automobile, the video surveillance apparatus 100 re- It is possible to determine again based on the subsequent image data.

그러나, 위험도 판단이 필요하다고 결정된 경우, 영상 감시 장치(100)는 위험도 판단 및 이에 따른 감시 처리를 수행한다(S311). 이와 같은 결정 과정을 통해 영상 감시 장치(100)는 불필요한 위험도 판단 과정을 생략할 수 있으며, 연산 효율을 향상시킬 수 있다. 뿐만아니라, 영상 감시 장치(100)는 위험도 판단이 필요한 영상에 대해서는 자동적으로 저장을 수행하고, 장면 인식을 수행할 수 있다. However, if it is determined that the risk judgment is necessary, the video surveillance apparatus 100 performs the risk determination and the monitoring process accordingly (S311). Through this determination process, the video surveillance apparatus 100 can skip the unnecessary risk determination process and improve the calculation efficiency. In addition, the video surveillance apparatus 100 can automatically perform storage of images requiring risk determination, and perform scene recognition.

이를 위해, 영상 감시 장치(100)는 저장부를 더 포함할 수 있다. 저장부는 예를 들어 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬(EEPROM 등) 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. To this end, the video surveillance apparatus 100 may further include a storage unit. The storage unit may include, for example, a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (e.g., SD or XD memory), a RAM , ROM (EEPROM, etc.), and the like.

도 5는 본 발명의 실시 예에 따른 영상 감시 장치가 감시 처리를 수행하는 것을 설명하기 위한 흐름도이다.5 is a flowchart illustrating a monitoring process performed by a video surveillance apparatus according to an exemplary embodiment of the present invention.

도 5를 참조하면, 영상 감시 장치(100)는 수신된 영상을 저장한다(S401). 저장되는 영상은 감시 처리가 필요한 영상을 포함할 수 있다. 감시 처리가 필요한 영상은 예를 들어, 앞서 설명한 위험도 판단이 필요하다고 결정된 영상 데이터를 포함할 수 있다.Referring to FIG. 5, the video surveillance apparatus 100 stores the received video (S401). An image to be stored may include an image that requires monitoring processing. The image requiring monitoring processing may include, for example, image data determined to require the risk determination described above.

그리고, 영상 감시 장치(100)는 저장된 영상에 대한 장면 인식을 수행하여(S403), 인식된 장면에 대한 장면 정보를 획득하고(S405), 장면 정보와 상술한 배경 데이터의 의미 정보에 기초하여 위험도를 판단한다(S407). 장면 정보는 앞서 설명한 이동 객체에 대한 정보(이동 객체의 위치 정보 또는 이동 객체의 종류 정보)를 포함할 수 있다. 위험도 판단은 상술한 위험도 판단부(150)에서 수행될 수 있으며 앞서 설명한 바와 같이, 이동 객체가 위치함 배경 영역의 의미 정보와 이동 객체의 종류 정보에 따라 미리 설정된 위험도가 판단될 수 있다.Then, the video surveillance apparatus 100 performs scene recognition on the stored image (S403), acquires scene information on the recognized scene (S405), and based on the scene information and the semantic information of the background data described above, (S407). The scene information may include information on the moving object described above (position information of the moving object or type information of the moving object). The risk determination may be performed by the risk determination unit 150. As described above, the predetermined risk may be determined according to the semantic information of the background area in which the moving object is located and the type information of the moving object.

이후, 영상 감시 장치(100)는 판단된 위험도가 임계치 이상인지 여부를 판단한다(S409). 감시 처리부(160)는 판단된 위험도에 기초하여 임계치 이상인지 여부를 판단할 수 있으며, 이에 따라 경보 여부를 결정할 수 있다.Thereafter, the video surveillance apparatus 100 determines whether the determined risk level is equal to or greater than a threshold value (S409). The monitoring processing unit 160 can determine whether or not an alarm is generated based on the determined risk level.

그리고, 영상 감시 장치(100)는 판단된 위험도가 임계치 이상인 경우에는 경보를 수행한다(S411). 영상 감시 장치(100)는 감시 처리부(160)를 통해 경보를 출력할 수 있다. 앞서 설명한 바와 같이, 감시 처리부(160)는 다양한 방법으로 경보를 출력할 수 있으며, 위험도와 이동 객체의 위치 정보 및 이동 객체의 종류를 이용하여 상황에 따른 상황별 경고를 출력할 수도 있다.Then, the video surveillance apparatus 100 performs an alarm when the determined risk level is equal to or greater than the threshold value (S411). The video surveillance apparatus 100 may output an alarm through the surveillance processing unit 160. As described above, the surveillance processing unit 160 may output alarms in various manners, and may output a warning according to the situation using the risk level, the location information of the moving object, and the type of the moving object.

한편, 영상 감시 장치(100)는 판단된 위험도가 임계치 미만인 경우에는 경보를 수행하지 않고, 다음 영상을 획득하여 이후 영상에 대한 분석을 수행할 수 있다(S413).If the determined degree of risk is less than the threshold value, the video surveillance apparatus 100 may perform the analysis on the image after acquiring the next image without performing the alarm (S413).

도 6 내지 도 7은 본 발명의 실시 예에 따라 컨텍스트로 의미 정보가 분류되는 그룹화된 배경 영역을 설명하기 위한 도면이다.6 to 7 are views for explaining a grouped background area in which semantic information is classified into a context according to an embodiment of the present invention.

본 발명의 실시 예에 따른 영상 감시 장치(100)는 서포트 벡터 머신(Support Vector Machine, SVM) 방식을 이용하여 배경 영역을 획득할 수 있다. 이는 카테고리 학습 및 주석 분류 기법으로서, 기반으로 색상과 에지 특징 정보를 분류하여 배경을 영역별로 분할할 수 있다. The video surveillance apparatus 100 according to the embodiment of the present invention can acquire a background area using a support vector machine (SVM) scheme. This is a category learning and annotation classification technique, in which the color and edge feature information are classified based on the background.

또한, 본 발명의 실시 예에 따른 영상 감시 장치(100)는 배경을 모델링하고, 전경과 구분하기 위하여 YCrCb 컬러 기반으로 한 배경 픽셀을 학습을 사용할 수 있다.Also, the video surveillance apparatus 100 according to the embodiment of the present invention can use a background pixel learning based on a YCrCb color in order to model the background and distinguish it from the foreground.

SVM 방식은 영상 데이터에 대해 의미론적 분할 기법을 적용하는 것으로서, 영역 기준으로 장면을 분할하여 인지하는 방식을 의미할 수 있다. 이는 인식 대상 분류 항목들로부터 특징을 추출하고 이것을 Support Vector Machine 학습을 통해 분류기를 생성하고, 생성된 분류기를 이용해 분할 영역들을 각 카테고리로 분류 함으로써 적용될 수 있다.The SVM method is a method of applying a semantic dividing technique to image data, and may mean a method of dividing a scene into regions and recognizing the scene. This can be applied by extracting features from the classification items to be recognized, generating a classifier using Support Vector Machine learning, and classifying the divided regions into respective categories using the generated classifier.

이와 같은 SVM 방식은 영상의 패턴을 인식 하거나, 영상 데이터를 분석하는 것에 적용되는 기법일 수 있다. 비전(Vision) 알고리즘에 적용될 수 있으며, 특히 이미지 혹은 그 특징 벡터를 분류하는 것에 유용하게 사용될 수 있다. 분류를 위한 영상 데이터는 벡터 형식으로 나타낼 수 있으며, 분류를 위해 특징 벡터를 정의하는 과정이 필요할 수 있다. 따라서, 일 실시 예에 따르면, 영상 감시 장치(100)는 인식된 장면에서 나타날 수 있는 가능성 높은 영역의 카테고리들을 미리 지정하고, 이를 분류 하기 위해 선형 SVM을 수행할 수 있다. 이에 따라, 일 실시 예에 따른 영상 감시 장치(100)는 분류 벡터들의 최대 마진을 학습할 수 있게 되어, 미리 지정된 카테고리와 데이터를 분류하는데 있어 좋은 성능을 보여줄 수 있게 된다.Such an SVM method may be a technique applied to recognize a pattern of an image or analyze image data. It can be applied to vision algorithms and can be used particularly useful for classifying images or their feature vectors. Image data for classification can be expressed in vector format, and a process of defining a feature vector for classification may be required. Accordingly, according to one embodiment, the video surveillance apparatus 100 can perform a linear SVM to classify the categories of the possible regions that can appear in the recognized scene, and classify them. Accordingly, the video surveillance apparatus 100 according to an exemplary embodiment can learn the maximum margin of the classification vectors, and can show good performance in classifying predetermined categories and data.

이와 같은 미리 지정된 카테고리는 도 6 및 도 7과 같이 분류될 수 있다. 각 분할된 영역들은 특성 벡터에 따라 보행자 위치 가능 영역 또는 보행자를 가릴 수 있는 영역으로 구분될 수 있으며, 숲, 잔디, 땅, 물, 시설 건물 등의 다양한 방식으로 분류될 수 있다. 따라서, 영상 감시 장치(100)는 카테고리 분류에 따라 배경 영역에 대한 의미 정보를 할당할 수 있게 된다.Such a predetermined category can be classified as shown in Figs. 6 and 7. Fig. Each of the divided areas can be classified into a pedestrian-positionable area or an area capable of covering a pedestrian depending on a characteristic vector, and can be classified into various ways such as a forest, a lawn, a land, a water, and a building. Accordingly, the video surveillance apparatus 100 can allocate semantic information on the background region according to the category classification.

도 8은 본 발명의 실시 예에 따라 분할된 격자 구조의 배경 영역들을 나타내는 도면이다.8 is a diagram illustrating background regions of a divided grid structure according to an embodiment of the present invention.

도 8에 도시된 바와 같이, 각 영역들은 복수의 배경 영역으로 분할될 수 있으며, 복수의 배경 영역은 그 특성에 따라 그룹화 될 수 있고, 앞서 설명한 카테고리로 분류될 수 있다.As shown in Fig. 8, each of the areas may be divided into a plurality of background areas, and a plurality of background areas may be grouped according to their characteristics and classified into the categories described above.

그리고, 영상 감시 장치(100)는 분할 및 카테고리 분류를 위해 각 영역들의 컬러와 에지 정보들을 이용할 수 있다. 컬러의 경우 HSV 공간의 컬러 벡터를 이용하였다. 여러 컬러 공간에 대하여 학습 데이터들의 분포를 볼 때, 밝기 값에 크게 좌우하지 않고 주로 색상 정보에 의해 더 명확하게 분류될 수 있다. 따라서, 영상 감시 장치(100)는 에지 탐지 필터로 필터링 된 이미지의 경우 무늬의 표현 정도의 여부를 파악할 수 있다. 영상 감시 장치(100)는 N x N 사이즈의 각 영역에 대하여 필터링 후 정사 히스토그램을 구함으로써, 사이즈 N 의 2배가 되는 벡터를 구할 수 있다. 이와 같이 영상 감시 장치(100)는 패턴을 모델링 하는 것만으로도 유사한 무늬 특징의 영역을 분류할 수 있다.Then, the video surveillance apparatus 100 can use the color and edge information of each area for segmentation and category classification. For color, the color vector of HSV space is used. When the distribution of learning data is observed with respect to various color spaces, it can be classified more clearly by color information, not largely depending on the brightness value. Accordingly, the video surveillance apparatus 100 can determine whether or not the degree of expression of the pattern is in the case of the image filtered by the edge detection filter. The video surveillance apparatus 100 can obtain a vector that is twice as large as the size N by obtaining an ortho histogram after filtering for each region of N x N size. In this way, the video surveillance apparatus 100 can classify regions having similar pattern characteristics by simply modeling the patterns.

도 9는 본 발명의 실시 예에 따른 배경 영역의 모델링 방법을 설명하기 위한 도면이다.9 is a diagram for explaining a modeling method of a background region according to an embodiment of the present invention.

배경 영역 모델링 방법은 앞서 설명한 코드북(CODEBOOK) 방법이사용될 수 있다. 이를 위해 영상 감시 장치(100)는 새롭게 배경으로 관찰되는 픽셀값을 그 전의 픽셀값들과 비교할 수 있다.As the background region modeling method, the code book method described above can be used. To this end, the video surveillance apparatus 100 may compare the pixel values observed in the background with the pixel values of the previous pixel values.

그리고, 영상 감시 장치(100)는 픽셀이 학습 경계 안에 있을 때 배경 경계를 늘리고 학습 경계 밖에 있을 때 새로운 코드북 박스를 생성시킬 수 있다. 영상 감시 장치(100)는 이러한 학습 과정을 통해 배경 경계를 정하고 감시 과정에서 경계에 속하는 픽셀값을 배경으로 분류할 수 있다. 영상 감시 장치(100)는 허용되는 출현 빈도를 일정 값을 추정하여 학습 시간에서 일정 비율의 시간 동안 나타나지 않은 배경 그룹은 제거할 수 있다.Then, the video surveillance apparatus 100 can increase the background boundary when the pixel is within the learning boundary, and generate a new codebook box when the pixel is outside the learning boundary. The video surveillance apparatus 100 can determine a background boundary through the learning process and classify the pixel values belonging to the boundary as a background in the monitoring process. The video surveillance apparatus 100 estimates a predetermined value of the permitted occurrence frequency and removes a background group that has not appeared for a certain period of time in the learning time.

도 9와 같이, YCrCb 공간에서 명도는 Y 성분으로 근사화될 수 있고, 나머지 성분은 색조와 채도를 표현할 수 있다. 배경을 모델링하는 과정에서 영상의 밝기가 자주 변할지라도 이것은 배경으로 분류하는 과정에서 크게 고려되지 않을 수 있다. 따라서 Cr, Cb 성분은 밝기에 대해 독립적이기에 영상 감시 장치(100)는 이 성분들 만을 이용해 모델링 하여 성능을 향상할 수 있다. 비슷한 케이스로서 HSV 공간의 경우에는 색조값이 너무 밝거나 어두운 영상에서 분류가 잘 안되기에 영상 감시 장치(100)는 YCrCb를 사용할 수 있다. 또한 영상 감시 장치(100)는 오류를 줄이기 위하여 하이브리드 콘-실린더 모델을 사용할 수 있다. 콘 모델은 어두운 영상에서 색상 차이가 적은 것에 대한 문제를 해결할 수 있다. 실린더 모델은 너무 밝은 영상에서 경계가 너무 커지는 것을 막을 수 있다.As shown in FIG. 9, in the YCrCb space, the brightness can be approximated to the Y component, and the remaining components can express the hue and saturation. Although the brightness of the image changes frequently in the process of modeling the background, this may not be considered in the process of classification as background. Therefore, since the Cr and Cb components are independent of brightness, the video surveillance apparatus 100 can improve performance by modeling only using these components. As a similar case, in the case of the HSV space, the image monitoring apparatus 100 can use the YCrCb because the hue value is not well classified in the bright or dark image. The video surveillance apparatus 100 may also use a hybrid cone-cylinder model to reduce errors. The cone model solves the problem of less color difference in dark images. The cylinder model can prevent the boundaries from becoming too large for too bright images.

도 10은 본 발명의 실시 예에 따라 이동 객체의 종류를 판단하기 위한 특성 정보 판단 과정을 설명하기 위한 도면이다.10 is a diagram for explaining a characteristic information determination process for determining a type of a moving object according to an embodiment of the present invention.

도 10의 (a)는 원본 영상이며, (b)는 기울기 영상이고, (c)는 각 셀에서 방향성 히스토그램을 도식화한 영상을 나타낸다.10A is an original image, FIG. 10B is a slope image, and FIG. 10C is a schematic diagram of a directional histogram in each cell.

이와 같이, 이동 객체 종류 판단을 위해, 영상 감시 장치(100)는 HOG(Histogram of Gradient Orientations) 특징 추출을 이용하여 보행자를 탐지 할 수 있다. 영상 감시 장치(100)는 영상의 기울기를 계산할 수 있으며, 예를 들어 이산 미분 마스크인 가우시안 필터를 통해 수행할 수 있다. In this manner, the video surveillance apparatus 100 can detect the pedestrian using the Histogram of Gradient Orientations (HOG) feature extraction for the determination of the moving object type. The video surveillance apparatus 100 may calculate the slope of the image, and may be performed through a Gaussian filter, for example, a discrete differential mask.

영상 감시 장치(100)는 기울기의 영상을 이용하여, 셀을 벡터화할 수 있다.예를 들어, 영상 감시 장치(100)는 먼저 입력 영상에서 66 픽셀을 묶어서 그 단위를 셀로 정의할 수 있다. 그리고 33 셀을 묶어서 블록으로 정의할 수 있다. 그리고, 0~180 기준으로 20씩 분할하여 9개 방향에 대한 히스토그램을 작성하여 이를 9차원의 벡터화를 수행할 수 있다. For example, the video surveillance apparatus 100 can group 66 pixels in an input image and define the unit as a cell. And you can group 33 cells together and define them as blocks. Then, a histogram for 9 directions can be created by dividing 20 by 20 from 0 to 180, and 9-dimensional vectorization can be performed.

이와 같은 본 발명의 실시 예에 따르면, 영상 감시 장치(100)는 코드북을 이용한 배경 모델링의 차분 결과와 전경들을 이용하여, L2-norm 방식으로 블록 디스크립터를 정규화 시킨 결과 데이터를 다시 한 번 같은 방식인 L2-Hys 방법을 이용해 블록을 정규화 함으로써 보행자를 탐지할 수 있게 된다.According to the embodiment of the present invention, the video surveillance apparatus 100 uses the difference results and foregrounds of the background modeling using the codebook to normalize the block descriptors in the L2-norm method, By normalizing the block using the L2-Hys method, the pedestrian can be detected.

도 11은 본 발명의 실시 예에 따라 배경이 분할된 영상을 나타내기 위한 도면이며, 도 12는 본 발명의 실시 예에 따라 영상으로부터 추출된 객체 이미지를 나타내는 도면이고, 도 13은 본 발명의 실시 예에 따른 객체 인식 성능을 비교하기 위한 비교도이다.FIG. 11 is a diagram illustrating an image in which a background is divided according to an embodiment of the present invention. FIG. 12 is a view showing an object image extracted from an image according to an embodiment of the present invention, and FIG. FIG. 7 is a comparison diagram for comparing object recognition performance according to an example.

본 발명의 실시 예를 텍스트 배경 모델링 결과와 함께 보행자를 인식 하는데 사용하여 보았으며, Intel core i5 3.3GHz 컴퓨터 환경에서 실험하였다. 입력 영상의 크기는 1280*720 픽셀이며 C언어를 기반으로 시스템을 구현하였다. 입력 영상은 건물 외부에서 보행자의 전신이 나올 수 있도록 촬영하였다.The embodiment of the present invention has been used to recognize pedestrians along with text background modeling results, and has been tested in an Intel core i5 3.3GHz computer environment. The input image size is 1280 * 720 pixels and the system is implemented based on C language. The input image was photographed so that the whole body of the pedestrian could come out from the outside of the building.

먼저, 컬러특징만을 기준으로 하여, 장면의 영역들을 땅, 잔디, 물 등의 영역으로 의미 정보를 설정하여 보았으나, 나무가 있는 지역이 잔디로 인식이 되는 문제가 발생 하였다. 이에, 본 발명의 실시 예를 이용하여, 에지 특징을 추가적으로 활용하였으며, 나무영역과 잔디 영역에서 드러나는 에지 특성이 다름을 파악하여 분류 하도록 하였다. First, the meaning of scene information is set to the area of land, grass, water, etc., based on color characteristics only. However, there is a problem that the area with trees is recognized as grass. Thus, by using the embodiment of the present invention, the edge characteristic is additionally utilized, and the edge characteristics revealed in the wood area and the grass area are distinguished and classified.

이러한 기법을 통해, 화면상에서 보이는 같은 색상의 특징인 나무와 잔지, 물과 바위 등을 분류 하도록 하였다. 그리고, 전경 검출 후 가려짐 현상이 있는 영역 주변에 어떠한 물체가 있다고 가정하면, 이는 보행자일 확률이 높게 설정 하였다. 가령, 나무나 바위 등과 같은 여역에 사람이 지날 때, 가려짐 현상이 발생 하더라도 계속적으로 추적하도록 추정하였다.Through this technique, we have classified trees, sediments, water and rocks, which are the same color characteristics seen on the screen. Then, assuming that there is an object in the vicinity of the area where the obstacle is present after foreground detection, the probability of pedestrians is set high. For example, when a person passes through a region such as a tree or a rock, it is estimated to be continuously tracked even if the phenomenon occurs.

최종적으로 색상과 에지 정보를 함께 이용하여, 땅(길), 잔디, 물 지형을 분류 하였고 나무, 바위와 같은 가림 현상이 있는 영역 또한 의미 정보를 설정하여 분류 하였다. 이러한 배경 장면 분할 정보를 통해 이후 배경 학습 후 전경으로 검출된 보행자의 결과에 정보를 주기 위해 밝기 값으로 주석된 결과를 제공하여 실험 하도록 하였다.Finally, we used the color and edge information to classify the land, grass, and water terrain, and the areas with occlusion such as trees and rocks were also classified by semantic information. In order to give information to the result of the pedestrian detected as the foreground after the background learning through the background scene segmentation information, the result annotated with the brightness value was provided and the experiment was performed.

한편, 전경에 대해서는 Cr, Cb 채널에서 픽셀 값이 동시에 최소 경계와 최대 경계 사이에 속하게 될 경우 배경으로 분류하고, 학습된 경계가 나타내는 박스에 속하는 픽셀들은 0값을, 나머지 픽셀들에는 255값을 부여하여 영상에서 구분 지었다. 그림자는 색상 차이는 적고 명도가 주변에 비해 낮은 픽셀로 이루어져 있으므로 이를 제거하여 객체를 획득할 수 있다.On the other hand, for the foreground, if the pixel values in the Cr and Cb channels are included between the minimum boundary and the maximum boundary at the same time, the background is classified as a background. Pixels belonging to the box indicated by the learned boundary have a value of 0, And classified them into images. Since the shadows are made up of pixels with less color difference and lower brightness than the surrounding pixels, it is possible to obtain objects by removing them.

이에 따른 보행자 인식 결과 성능은 하기의 표1과 같다The performance of the pedestrian recognition result is shown in Table 1 below

HOG+SVMHOG + SVM 배경 모델링 +
HOG 특징 + SVM
Background modeling +
HOG Features + SVM
연산 시간Operation time 5 sec5 sec 180 msec180 msec

입력 영상에서 배경이 모델링되지 않아 관심 영역이 지정되지 않은 상태에서 보행자를 인식하는데 걸리는 시간은 한 프레임에 약 5초 정도로 실시간 시스템으로의 활용이 불가능하다. 하지만 배경을 모델링하여 전경 영역만을 검출해 관심 영역을 지정한 다음 보행자를 인식하게 되면 같은 장면에서 한 프레임을 처리하는데 약 180ms 정도의 시간이 걸린다. 또한 검출된 전경 영역에 한하여 보행자 인식 모듈을 적용하므로 배경에서의 거짓 긍정의 경우가 나타나지 않으므로 거짓 긍정률 또한 확연하게 저하되었음을 확인할 수 있었다.  Since the background is not modeled in the input image, it takes about 5 seconds per frame to recognize the pedestrian without specifying the ROI. However, it takes about 180ms to process one frame in the same scene if the pedestrian is recognized after modeling the background to detect only the foreground region, designating the region of interest, and so on. In addition, since the pedestrian recognition module is applied only to the detected foreground region, false positives are not displayed in the background, and the false positives are also significantly reduced.

배경 모델링만을 이용한 보행자 감지 시스템에서는 전경으로 검출되는 부분의 보행자 여부까지는 인식할 수 없지만 우리가 제안하는 시스템은 배경 모델링을 이용해 관심 영역을 지정하고 그 내부에서 보행자 인식 모듈이 동작하므로 더욱 섬세한 보행자 인식이 가능하게 된다. 이와 같은 본 발명의 실시 예에 따른 거짓 부정률 성능은 다음과 같다.  In the pedestrian detection system using only the background modeling, it is not possible to recognize whether or not the pedestrian is detected in the foreground part. However, our proposed system uses the background modeling to specify the area of interest and the pedestrian recognition module operates within it. . The false negation rate performance according to the embodiment of the present invention is as follows.

HOG + SVMHOG + SVM 컨텍스트 정보 +
HOG + SVM
Context information +
HOG + SVM
거짓 부정률False negativity 15.5%15.5% 8%8%

HOG 특징으로 학습된 SVM 분류기는 학습되어 있는 보행자의 형태에는 강인하지만 자세의 변화에 취약하고 보행자가 어떤 다른 물체에 의해 부분적으로 가려져 있을 때도 인식률이 크게 저하 될 수 있다. 따라서, 이를 극복하기 위해 장면의 콘텍스트 정보를 보행자 인식 모듈과 접목 시킬 수 있다. The SVM classifier learned by the HOG feature is robust to the shape of the pedestrian being learned but is vulnerable to the change of the posture and the recognition rate may be greatly reduced even when the pedestrian is partially obscured by some other object. Therefore, in order to overcome this, context information of the scene can be combined with the pedestrian recognition module.

콘텍스트 정보에서 전경이 검출되어 있는 부분이 보행자일 확률이 높은 물체들에 대해 보행자를 가릴 수 있는 물체로 미리 설정하게 되고, 만약 정의된 부분에서 전경이 검출된다면 이는 보행자일 확률이 매우 높으므로 보행자로 인식을 하도록 하므로 거짓 부정 확률이 줄어들게 된다. 도 13의 (a)는 일반적인 인식 방법을 나타내며, (b)는 본 발명의 실시 예에 따른 감시 방법에 의해 왼쪽의 사람도 인식되는 것을 나타내고 있다.In the context information, the part where the foreground is detected is set in advance as an object which can hide the pedestrian for objects having a high probability of being a pedestrian. If the foreground is detected in the defined part, the probability of pedestrians is very high. By doing so, the false negative probability is reduced. FIG. 13A shows a general recognition method, and FIG. 13B shows that the left person is recognized by the monitoring method according to the embodiment of the present invention.

이와 같은 본 발명의 실시 예에 따르면, 평균 인식률은 90%~95%까지도 향상시킬 수 있으며, 상황에 따라 70%~100%의 인식률을 보일 수 있다. 특히, PTZ 카메라에서 커버 가능한 배경에 대해 의미 정보를 학습 및 활용함으로써, 카메라가 회전하여 다른 곳을 다른 배율로 보더라도 기존 학습된 배경의 의미 정보가 활용 가능하게 되어 처리 성능 증가와 설치 비용 감소를 동시에 가져올 수 있게 되는 효과가 있다.According to the embodiment of the present invention, the average recognition rate can be improved to 90% ~ 95%, and the recognition rate can be 70 ~ 100% depending on the situation. In particular, by learning and using semantic information about the background that can be covered by the PTZ camera, the semantic information of the already learned background can be utilized even if the camera rotates and the other is viewed at a different magnification, There is an effect that can be imported.

상술한 본 발명에 따른 영상 감시 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.The video surveillance method according to the present invention may be implemented as a program to be executed by a computer and stored in a computer-readable recording medium. Examples of the computer readable recording medium include a ROM, a RAM, a CD- A magnetic tape, a floppy disk, an optical data storage device, and the like, and may also be implemented in the form of a carrier wave (for example, transmission over the Internet).

컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The computer readable recording medium may be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner. And, functional programs, codes and code segments for implementing the above method can be easily inferred by programmers of the technical field to which the present invention belongs.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해 되어서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It should be understood that various modifications may be made by those skilled in the art without departing from the spirit and scope of the present invention.

Claims (14)

영상 감시 장치의 영상 감시 방법에 있어서,
감시 대상인 영상을 수신하는 단계;
상기 수신된 영상에서 특성 정보를 추출하여, 상기 추출된 특성 정보를 기초로 배경을 획득하는 단계;
상기 획득된 영상의 배경을 복수의 배경 영역으로 분할하고, 상기 분할된 각 배경 영역에 대한 상기 특성 정보에 따라서 미리 설정된 의미 정보를 할당하는 단계;
상기 수신된 영상으로부터 이동 객체를 추출하는 단계;
상기 이동 객체가 위치한 배경 영역의 의미 정보를 획득한 후, 상기 배경 영역의 의미 정보를 이용하여 상기 추출된 이동 객체의 종류를 판단하여 위험도 판단이 필요한지 결정하는 단계;
상기 판단된 이동 객체의 종류와, 상기 이동 객체가 위치한 배경 영역에 대응되는 의미 정보를 비교하여 위험도를 판단하는 단계; 및
상기 판단된 위험도에 따라 감시 처리를 수행하는 단계; 를 포함하는 영상 감시 장치의 영상 감시 방법.
A video surveillance method for a video surveillance apparatus,
Receiving an image to be monitored;
Extracting characteristic information from the received image and obtaining a background based on the extracted characteristic information;
Dividing a background of the obtained image into a plurality of background areas, and allocating preset semantic information according to the characteristic information for each of the divided background areas;
Extracting a moving object from the received image;
Obtaining semantic information of a background area in which the moving object is located, and determining whether the risk is required by determining the type of the extracted moving object using the semantic information of the background area;
Comparing the type of the determined moving object with semantic information corresponding to a background area in which the moving object is located to determine a risk level; And
Performing a monitoring process according to the determined risk; The method comprising the steps of:
제1항에 있어서,
상기 배경을 획득하는 단계는,
상기 수신된 영상의 일부 프레임들을 추출하는 단계;
상기 일부 프레임들 각각을 일정 크기의 복수의 영역으로 구획하는 단계;
상기 일부 프레임별로 상기 구획된 영역들에 대한 컬러 정보, 에지 정보, 히스토그램 정보 중 적어도 하나를 포함하는 상기 특성 정보를 추출하는 단계; 및
상기 추출된 일부 프레임들간 상기 추출된 특성 정보의 변화량을 판단하는 단계;
상기 특성 정보의 변화량에 따른 배경 학습을 수행하여 상기 수신된 영상의 배경을 결정하는 단계; 를 포함하는 영상 감시 장치의 영상 감시 방법.
The method according to claim 1,
The acquiring of the background may comprise:
Extracting some frames of the received image;
Dividing each of the plurality of frames into a plurality of regions of a predetermined size;
Extracting the characteristic information including at least one of color information, edge information, and histogram information for the divided regions for each of the plurality of frames; And
Determining a change amount of the extracted characteristic information between the extracted partial frames;
Performing background learning according to a change amount of the characteristic information to determine a background of the received image; The method comprising the steps of:
제2항에 있어서,
상기 구획된 일정 크기의 복수의 영역들은 격자 구조로 구획되며,
상기 특성 정보는 상기 구획된 격자 구조 각각에 대한 컬러 정보 및 에지 히스토그램 정보 중 적어도 하나를 포함하는
영상 감시 장치의 영상 감시 방법.
3. The method of claim 2,
A plurality of regions of the partitioned predetermined size are partitioned into a lattice structure,
Wherein the characteristic information includes at least one of color information and edge histogram information for each of the partitioned lattice structures
Video surveillance method of video surveillance apparatus.
제1항에 있어서,
상기 의미 정보를 할당하는 단계는,
영상 특성에 따른 의미 정보 테이블을 생성하는 단계;
상기 획득된 영상의 배경을 복수의 배경 영역으로 분할하는 단계;
상기 복수의 배경 영역에 대한 특성 정보를 추출하고, 유사한 특성 정보를 가지는 배경 영역에 대해 그룹화하는 단계; 및
상기 의미 정보 테이블 및 상기 추출된 특성 정보에 따라 상기 그룹화된 복수의 배경 영역 각각에 의미 정보를 할당하는 단계를 포함하는
영상 감시 장치의 영상 감시 방법.
The method according to claim 1,
Wherein the assigning of the semantic information comprises:
Generating a semantic information table according to image characteristics;
Dividing a background of the obtained image into a plurality of background areas;
Extracting characteristic information about the plurality of background areas and grouping the background areas having similar characteristic information; And
And assigning semantic information to each of the grouped plurality of background areas according to the semantic information table and the extracted characteristic information
Video surveillance method of video surveillance apparatus.
제1항에 있어서,
상기 추출된 이동 객체의 종류를 판단하는 단계는,
상기 추출된 이동 객체가 위치한 배경 영역을 판단하는 단계; 및
상기 배경 영역에 대응되는 의미 정보에 기초하여 상기 추출된 이동 객체의 종류를 판단하는 단계를 포함하는
영상 감시 장치의 영상 감시 방법.
The method according to claim 1,
Wherein the step of determining the type of the extracted moving object comprises:
Determining a background area in which the extracted moving object is located; And
And determining the type of the extracted moving object based on semantic information corresponding to the background area
Video surveillance method of video surveillance apparatus.
제1항에 있어서,
상기 위험도를 판단하는 단계는,
상기 이동 객체의 종류와 위치에 따라 위험도 판단 여부를 결정하는 단계; 및
상기 판단 결과 위험도 판단이 필요한 경우에만 상기 이동 객체가 위치한 배경 영역에 대응되는 의미 정보를 비교하여 위험도를 판단하는 단계를 포함하는
영상 감시 장치의 영상 감시 방법.
The method according to claim 1,
The step of determining the risk includes:
Determining whether the risk level is determined according to the type and location of the moving object; And
And comparing the semantic information corresponding to the background area in which the moving object is located only when the risk determination is required, to determine the risk level
Video surveillance method of video surveillance apparatus.
제1항에 있어서,
상기 위험도를 판단하는 단계는,
미리 설정된 위험도 테이블을 이용하여, 상기 이동 객체의 종류 및 상기 이동 객체가 위치한 배경 영역의 의미 정보에 따른 위험도를 판단하는 단계를 포함하는
영상 감시 장치의 영상 감시 방법.
The method according to claim 1,
The step of determining the risk includes:
Determining a risk according to the kind of the moving object and the semantic information of the background area in which the moving object is located using a preset risk table
Video surveillance method of video surveillance apparatus.
제1항에 있어서,
상기 감시 처리를 수행하는 단계는,
상기 위험도가 임계치 이상인지 판단하는 단계; 및
상기 위험도가 상기 임계치 이상인 경우 경보를 발생하는 단계를 포함하는
영상 감시 장치의 영상 감시 방법.
The method according to claim 1,
The step of performing the monitoring process includes:
Determining whether the risk is above a threshold; And
And generating an alert if the risk level is equal to or greater than the threshold value
Video surveillance method of video surveillance apparatus.
제1항에 있어서,
상기 감시 대상인 영상은 PTZ(Pan Tilt Zoom)카메라로부터 촬영된 영상을 포함하고,
상기 영상의 배경을 획득하는 단계는
상기 PTZ 카메라로부터 촬영된 영상으로부터 상기 PTZ 카메라의 동작 영역에 대응되는 확대된 배경을 획득하는 단계를 포함하는
영상 감시 장치의 영상 감시 방법.
The method according to claim 1,
The video to be monitored includes an image photographed from a PTZ (Pan Tilt Zoom) camera,
The step of acquiring the background of the image
Obtaining an enlarged background corresponding to an operation region of the PTZ camera from an image captured by the PTZ camera
Video surveillance method of video surveillance apparatus.
영상 감시 장치에 있어서,
감시 대상인 영상을 수신하는 수신부;
상기 수신된 영상에서 특성 정보를 추출하여, 상기 추출된 특성 정보를 기초로 배경을 획득하는 배경 획득부;
상기 획득된 영상의 배경을 복수의 배경 영역으로 분할하고, 상기 분할된 각 배경 영역에 대해 상기 특성 정보에 따라서 미리 설정된 의미 정보를 할당하는 의미 정보 설정부;
상기 수신된 영상으로부터 이동 객체를 추출하고, 상기 이동 객체 위치의 배경 영역에 대한 의미 정보를 이용하여 상기 추출된 이동 객체의 종류를 판단하여 위험도 판단이 필요한지 여부를 결정하는 이동 객체 판별부;
상기 판단된 이동 객체의 종류와, 상기 이동 객체가 위치한 배경 영역에 대응되는 의미 정보를 비교하여 위험도를 판단하는 위험도 판단부; 및
상기 판단된 위험도에 따라 감시 처리를 수행하는 감시 처리부;를 포함하는 영상 감시 장치.
A video surveillance apparatus comprising:
A receiving unit for receiving a video to be monitored;
A background obtaining unit for extracting characteristic information from the received image and obtaining a background based on the extracted characteristic information;
A semantic information setting unit for dividing the background of the obtained image into a plurality of background regions and allocating predetermined semantic information according to the characteristic information to each of the divided background regions;
A moving object discrimination unit for extracting a moving object from the received image, determining a type of the extracted moving object by using semantic information about a background area of the moving object location, and determining whether a risk determination is necessary;
A risk judging unit for judging a risk by comparing semantic information corresponding to the type of the determined moving object and the background area in which the moving object is located; And
And a monitoring processing unit for performing monitoring processing according to the determined risk.
제10항에 있어서,
상기 배경 획득부는 상기 수신된 영상의 일부 프레임들을 추출하고, 상기 일부 프레임들 각각을 격자 구조를 갖는 일정 크기의 복수의 영역으로 구획하며, 상기 일부 프레임별로 상기 구획된 영역들에 대한 특성 정보를 추출하고, 상기 추출된 일부 프레임들간 상기 추출된 특성 정보의 변화량에 기초하여 상기 수신된 영상의 배경을 결정하며,
상기 특성 정보는 상기 구획된 격자 구조 각각에 대한 컬러 정보 및 에지 히스토그램 정보 중 적어도 하나를 포함하는
영상 감시 장치.
11. The method of claim 10,
The background obtaining unit extracts some frames of the received image, and divides each of the plurality of frames into a plurality of regions of a predetermined size having a lattice structure, and extracts characteristic information about the divided regions for each of the plurality of frames Determines a background of the received image based on a variation amount of the extracted characteristic information between the extracted frames,
Wherein the characteristic information includes at least one of color information and edge histogram information for each of the partitioned lattice structures
Video monitoring device.
제10항에 있어서,
상기 위험도 판단부는 상기 이동 객체의 종류와 위치에 따라 위험도 판단 여부를 결정하고, 상기 판단 결과 위험도 판단이 필요한 경우에만 상기 이동 객체가 위치한 배경 영역에 대응되는 의미 정보를 비교하여 위험도를 판단하는
영상 감시 장치.
11. The method of claim 10,
The risk determining unit determines whether or not a risk is determined according to the type and location of the moving object, and compares the semantic information corresponding to the background area in which the moving object is located only when the risk determination is required,
Video monitoring device.
제10항에 있어서,
상기 감시 대상인 영상을 촬영하기 위한 PTZ(Pan Tilt Zoom)카메라부를 더 포함하고,
상기 배경 획득부는 상기 PTZ 카메라로부터 촬영된 영상으로부터 상기 PTZ 카메라의 동작 영역에 대응되는 확대된 배경을 획득하는
영상 감시 장치.
11. The method of claim 10,
Further comprising a PTZ (Pan Tilt Zoom) camera unit for capturing the image to be monitored,
The background obtaining unit obtains an enlarged background corresponding to an operation region of the PTZ camera from the image photographed by the PTZ camera
Video monitoring device.
제1항 내지 제9항 중 어느 한 항에 기재된 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.

A computer-readable recording medium storing a program for causing a computer to execute the method according to any one of claims 1 to 9.

KR1020120105963A 2011-09-23 2012-09-24 A method for monitoring a video and an apparatus using it KR101394242B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20110096579 2011-09-23
KR1020110096579 2011-09-23

Publications (2)

Publication Number Publication Date
KR20130032856A KR20130032856A (en) 2013-04-02
KR101394242B1 true KR101394242B1 (en) 2014-05-27

Family

ID=48435519

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120105963A KR101394242B1 (en) 2011-09-23 2012-09-24 A method for monitoring a video and an apparatus using it

Country Status (1)

Country Link
KR (1) KR101394242B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101825045B1 (en) * 2015-10-28 2018-02-02 시아오미 아이엔씨. Alarm method and device
US9953506B2 (en) 2015-10-28 2018-04-24 Xiaomi Inc. Alarming method and device
KR102139524B1 (en) * 2019-04-04 2020-07-29 주식회사 언빈 Intelligent selection monitoring system based on recogniting situation
KR102591118B1 (en) 2023-03-27 2023-10-19 주식회사 아라(Ara) Method for safety management of working robot

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101461316B1 (en) * 2013-04-30 2014-11-13 공주대학교 산학협력단 System and method for controling Automatic Guided Vehicles based on color maker using dual camera
KR102259207B1 (en) * 2013-12-31 2021-05-31 주식회사 케이티 Automatic taging system and method thereof
KR101470315B1 (en) * 2014-08-11 2014-12-09 (주)엔토스정보통신 Closed-circuit television system of sensing risk by moving of object and method thereof
KR101470316B1 (en) * 2014-08-11 2014-12-09 (주)엔토스정보통신 Closed-circuit television system of sensing risk according to the characteristic of sensing area and method thereof
KR101858651B1 (en) 2014-12-05 2018-05-16 한화테크윈 주식회사 Method and Imaging device for providing smart search
KR102419136B1 (en) * 2017-06-15 2022-07-08 삼성전자주식회사 Image processing apparatus and method using multiple-channel feature map
US10679351B2 (en) * 2017-08-18 2020-06-09 Samsung Electronics Co., Ltd. System and method for semantic segmentation of images
KR102481883B1 (en) * 2017-09-27 2022-12-27 삼성전자주식회사 Method and apparatus for detecting a dangerous situation
KR102051032B1 (en) 2018-08-01 2019-12-02 경북대학교 산학협력단 Object detection apparatus and controlling method thereof
KR102159052B1 (en) 2020-05-12 2020-09-23 주식회사 폴라리스쓰리디 Method and apparatus for classifying image
KR102237131B1 (en) * 2020-05-13 2021-04-09 주식회사 파이리코 Appratus and method for processing image including at least one object
KR102243466B1 (en) * 2020-05-13 2021-04-22 주식회사 파이리코 Method and apparatus for detecting eye of animal in image
KR102336480B1 (en) * 2021-03-04 2021-12-07 주식회사 스누아이랩 Image Processing Apparatus for Automatic Segment Classification and Driving Method Thereof
KR102513075B1 (en) * 2021-05-07 2023-03-22 주식회사 카카오뱅크 Identity card theft monitoring server and method using neural network
KR102343056B1 (en) * 2021-07-08 2021-12-24 주식회사 인피닉 A method of reducing data load of images for annotation, and computer program recorded on record-medium for executing method thereof
KR102604710B1 (en) * 2023-05-04 2023-11-22 김병준 Methods and electronic devices for providing edge AI-based building fire safety solutions
KR102604716B1 (en) * 2023-05-04 2023-11-23 김병준 Edge AI-based industrial safety management system
KR102654135B1 (en) * 2023-09-20 2024-04-04 주식회사 파인브이티 Safety management system apparatus to ensure worker safety within the workplace

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09282455A (en) * 1996-04-16 1997-10-31 Hitachi Ltd Image monitoring method, image monitoring device, and road monitoring device
JP2005129003A (en) * 2003-06-09 2005-05-19 Hitachi Kokusai Electric Inc Device for detecting change
KR20100107649A (en) * 2009-03-26 2010-10-06 고려대학교 산학협력단 Apparatus and method for processing image using gaussian model

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09282455A (en) * 1996-04-16 1997-10-31 Hitachi Ltd Image monitoring method, image monitoring device, and road monitoring device
JP2005129003A (en) * 2003-06-09 2005-05-19 Hitachi Kokusai Electric Inc Device for detecting change
KR20100107649A (en) * 2009-03-26 2010-10-06 고려대학교 산학협력단 Apparatus and method for processing image using gaussian model

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101825045B1 (en) * 2015-10-28 2018-02-02 시아오미 아이엔씨. Alarm method and device
US9953506B2 (en) 2015-10-28 2018-04-24 Xiaomi Inc. Alarming method and device
KR101852284B1 (en) * 2015-10-28 2018-04-25 시아오미 아이엔씨. Alarming method and device
US10147288B2 (en) 2015-10-28 2018-12-04 Xiaomi Inc. Alarm method and device
KR102139524B1 (en) * 2019-04-04 2020-07-29 주식회사 언빈 Intelligent selection monitoring system based on recogniting situation
KR102591118B1 (en) 2023-03-27 2023-10-19 주식회사 아라(Ara) Method for safety management of working robot

Also Published As

Publication number Publication date
KR20130032856A (en) 2013-04-02

Similar Documents

Publication Publication Date Title
KR101394242B1 (en) A method for monitoring a video and an apparatus using it
AU2017233723B2 (en) System and method for training object classifier by machine learning
CN108053427B (en) Improved multi-target tracking method, system and device based on KCF and Kalman
CN106203274B (en) Real-time pedestrian detection system and method in video monitoring
CN108052859B (en) Abnormal behavior detection method, system and device based on clustering optical flow characteristics
KR101716646B1 (en) Method for detecting and recogniting object using local binary patterns and apparatus thereof
CN103824070B (en) A kind of rapid pedestrian detection method based on computer vision
CN112016414A (en) Method and device for detecting high-altitude parabolic event and intelligent floor monitoring system
CN109918971B (en) Method and device for detecting number of people in monitoring video
Chen et al. An enhanced segmentation on vision-based shadow removal for vehicle detection
KR100918436B1 (en) Fire detection system and method basedon visual data
CN101344922B (en) Human face detection method and device
KR20140081254A (en) Human detecting apparatus and method
CN105046719B (en) A kind of video frequency monitoring method and system
KR101868103B1 (en) A video surveillance apparatus for identification and tracking multiple moving objects and method thereof
KR20140095333A (en) Method and apparratus of tracing object on image
KR101646000B1 (en) Surveillance System And Method To Object And Area
Dahmane et al. Real-time video surveillance with self-organizing maps
KR101985869B1 (en) A livestock theft surveillance apparatus using morphological feature-based model and method thereof
KR20200060868A (en) multi-view monitoring system using object-oriented auto-tracking function
CN117475353A (en) Video-based abnormal smoke identification method and system
Jin et al. Fusing Canny operator with vibe algorithm for target detection
CN111460916A (en) Airport scene target segmentation method and system based on hidden Markov model
Ozer et al. A train station surveillance system: Challenges and solutions
Romic et al. Real-time multiresolution crosswalk detection with walk light recognition for the blind

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190401

Year of fee payment: 6