KR101578030B1 - Apparatus and method for generating event - Google Patents

Apparatus and method for generating event Download PDF

Info

Publication number
KR101578030B1
KR101578030B1 KR1020120140544A KR20120140544A KR101578030B1 KR 101578030 B1 KR101578030 B1 KR 101578030B1 KR 1020120140544 A KR1020120140544 A KR 1020120140544A KR 20120140544 A KR20120140544 A KR 20120140544A KR 101578030 B1 KR101578030 B1 KR 101578030B1
Authority
KR
South Korea
Prior art keywords
camera
user area
area
dimensional absolute
image
Prior art date
Application number
KR1020120140544A
Other languages
Korean (ko)
Other versions
KR20140072713A (en
Inventor
장일권
유한주
변문섭
허병호
Original Assignee
한화테크윈 주식회사
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사, 서울대학교산학협력단 filed Critical 한화테크윈 주식회사
Priority to KR1020120140544A priority Critical patent/KR101578030B1/en
Publication of KR20140072713A publication Critical patent/KR20140072713A/en
Application granted granted Critical
Publication of KR101578030B1 publication Critical patent/KR101578030B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 영상 감시 장치 및 방법에 관한 것으로, 보다 상세하게는 카메라의 팬/틸트/줌 이동 시에도 설정된 영역을 정확하게 검출하여 설정 영역에 물체 침범 시 정확하게 이벤트를 발생시키는 이벤트 발생 장치 및 방법에 관한 것이다. 이벤트 발생 방법은 제1 카메라에 의해 촬영된 제1 영상의 특징점 및 제2 카메라에 의해 촬영된 제2 영상의 특징점 매칭을 통하여 제1 카메라 대비 제2 카메라의 위치를 추정하는 단계, 제1 및 제2 영상에 대한 특징점의 삼차원 절대 좌표계를 이용하여 지평면을 추정하는 단계, 디스플레이된 제1 또는 제2 영상 중 어느 한 영상에서 사용자에 의해 설정된 사용자 영역에 대한 삼차원 절대 좌표를 계산하는 단계, 사용자 영역의 삼차원 절대 좌표 및 팬/틸트/줌 정보를 통해 제1 카메라 또는 제2 카메라의 팬/틸트/줌 이동 시 사용자 영역의 변환을 검출하는 단계 및 변환된 사용자 영역에 물체가 침범하는 경우 이벤트를 발생하는 단계를 포함하는 것을 특징으로 한다.The present invention relates to an image monitoring apparatus and method, and more particularly, to an apparatus and method for generating an event that accurately detects a set area even when a camera is moved in a pan / tilt / will be. The method of generating an event includes estimating a position of a second camera relative to a first camera through a feature point matching of a first image captured by a first camera and a second image captured by a second camera, Estimating a horizon plane using a three-dimensional absolute coordinate system of minutiae for two images, calculating three-dimensional absolute coordinates for a user area set by a user in one of the displayed first or second images, Tilt / zoom movement of the first camera or the second camera through three-dimensional absolute coordinates and pan / tilt / zoom information, and generating an event when an object enters the converted user area The method comprising the steps of:

Description

이벤트 발생 장치 및 방법{Apparatus and method for generating event}[0001] Apparatus and method for generating event [0002]

본 발명은 영상 감시 장치 및 방법에 관한 것으로, 보다 상세하게는 카메라의 팬/틸트/줌 이동 시에도 설정된 영역을 정확하게 검출하여 설정 영역에 물체 침범 시 정확하게 이벤트를 발생시키는 이벤트 발생 장치 및 방법에 관한 것이다.The present invention relates to an image monitoring apparatus and method, and more particularly, to an apparatus and method for generating an event that accurately detects a set area even when a camera is moved in a pan / tilt / will be.

PTZ(pan, tilt zoom) 카메라는 상하좌우 회전이 가능한 팬/틸트 구동 장치에 전동 줌 렌즈가 장착된 비디오 카메라가 결합되어 있는 구조이며, 외부 제어를 통해 카메라의 회전 및 렌즈의 줌 인(zoom in) 및 줌 아웃(zoom out)이 가능하다. 따라서 고정식 카메라와 비교해 볼 때, 비록 고가이긴 하지만 카메라의 회전을 통해 카메라 주위의 넓은 지역을 감시하고, 줌 렌즈를 통해 원거리/근거리 감시 및 관심 대상을 확대해서 볼 수 있도록 해주는 장점을 가지고 있다.PTZ (pan, tilt zoom) camera is a structure in which a video camera equipped with a motorized zoom lens is combined with a pan / tilt driving device capable of rotating up and down and left and right. The camera is rotated and zoom in ) And zoom out are possible. Thus, compared to fixed cameras, it has the advantage of monitoring a large area around the camera through rotation of the camera, though it is expensive, and allowing zoom / distance monitoring and an enlargement of interest through zoom lens.

이벤트 영역 검출은 PTZ 카메라를 이용한 광역 감시 시스템에서, 카메라의 PTZ 위치에 따라 해당 카메라 영상에서 이벤트 영역이 어떻게 존재하는지 찾아내는 기술로, 고정되어 있지 않고 움직임이 가정되는 PTZ 카메라에서의 영역 기반 이벤트 탐지를 위해서 필수적인 기술이다.In the wide area monitoring system using PTZ camera, event area detection is a technique for detecting how the event area exists in the corresponding camera image according to the PTZ position of the camera. It is a technique for detecting area based event in the PTZ camera, It is an indispensable technology.

종래의 이벤트 영역 검출은 카메라가 미리 기 지정된 PTZ 위치에 도달하였을 경우, 역시 미리 기 지정된 위치에 이벤트 영역을 상정하는 방법을 사용하기 때문에 실제적으로 검출이라기 보다는 저장 및 불러오기의 개념이다. 이러한 기술은 카메라가 지정된 위치로 이동하는 중에는 이벤트를 탐지할 수 없어 감시 공백이 생기는 문제점이 있다.Conventional event area detection is a concept of storing and retrieving, rather than actually detecting, because it uses a method of assuming an event area at a previously designated position when the camera reaches a pre-designated PTZ position in advance. This technique has a problem in that the camera can not detect an event while moving to a designated position, resulting in a monitoring blank.

일본 공개 특허 제2010-193170호Japanese Patent Laid-Open No. 2010-193170

본 발명이 해결하고자 하는 기술적인 과제는 카메라의 팬/틸트/줌 이동 시에도 설정된 영역을 정확하게 검출하여 설정 영역에 물체 침범 시 정확하게 이벤트를 발생시키는 이벤트 발생 장치 및 방법을 제공하는데 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide an apparatus and method for generating an event that precisely detects a set area even when a camera is panning, tilting, or zooming,

본 발명이 이루고자 하는 기술적인 과제를 해결하기 위한 일 실시 예에 따른 이벤트 발생 방법은 제1 카메라에 의해 촬영된 제1 영상의 특징점 및 제2 카메라에 의해 촬영된 제2 영상의 특징점 매칭을 통하여 상기 제1 카메라 대비 상기 제2 카메라의 위치를 추정하는 단계; 상기 제1 및 제2 영상에 대한 특징점의 삼차원 절대 좌표계를 이용하여 지평면을 추정하는 단계; 디스플레이된 상기 제1 또는 제2 영상 중 어느 한 영상에서 사용자에 의해 설정된 사용자 영역에 대한 삼차원 절대 좌표를 계산하는 단계; 상기 사용자 영역의 삼차원 절대 좌표 및 팬/틸트/줌 정보를 통해 상기 제1 카메라 또는 제2 카메라의 팬/틸트/줌 이동 시 상기 사용자 영역의 변환을 검출하는 단계; 및 상기 변환된 사용자 영역에 물체가 침범하는 경우 이벤트를 발생하는 단계;를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided an event generating method comprising: a first step of generating a first feature point of a first image captured by a first camera and a second feature point of a second image captured by a second camera, Estimating a position of the second camera with respect to the first camera; Estimating a horizon plane using a three-dimensional absolute coordinate system of minutiae for the first and second images; Calculating three-dimensional absolute coordinates of a user area set by a user in one of the displayed first or second images; Detecting transformation of the user area when pan / tilt / zoom movement of the first camera or the second camera is performed through three-dimensional absolute coordinates of the user area and pan / tilt / zoom information; And generating an event when an object enters the converted user area.

본 발명에 있어서, 상기 카메라의 위치를 추정하는 단계는, 상기 제1 영상을 기준으로 상기 제2 영상과 겹치는 부분의 특징점 매칭을 통해 제1 카메라 및 제2 카메라 사이의 호모그래피 매트릭스를 구하는 단계; 및 상기 호모그래피 매트릭스의 해체를 통해 상기 제1 카메라 대비 제2 카메라의 회전정보를 검출하는 단계;를 포함하는 것을 특징으로 한다.In the present invention, the step of estimating the position of the camera may include: obtaining a homography matrix between the first camera and the second camera through feature point matching of a portion overlapping the second image with reference to the first image; And detecting rotational information of the second camera relative to the first camera through disassembly of the homography matrix.

본 발명에 있어서, 상기 지평면을 추정하는 단계는, 특징점의 삼차원 절대 좌표계로부터 MSER을 통해 화면 영역을 분류하는 단계; 상기 분류된 화면 영역 중 화면 절반 아래에서 주된 영역을 선택하여 지평면 영역으로 지정하는 단계; 상기 지평면 영역에 포함된 특징점들을 지평면 특징점으로 지정하는 단계; 및 상기 지평면 특징점들의 삼차원 절대 좌표들을 PCA 방법으로 평면 피팅하여 지평면을 추정하는 단계;를 포함하는 것을 특징으로 한다.In the present invention, the step of estimating the horizon plane may include classifying a screen region through an MSER from a three-dimensional absolute coordinate system of minutiae points; Selecting a main area below a half of the screen area and designating the main area as a horizon area; Designating minutiae included in the horizon area as minutiae minutiae; And estimating a horizon plane by performing a flat fitting of the 3D absolute coordinates of the zenith surface feature points by a PCA method.

본 발명에 있어서, 상기 삼차원 절대 좌표를 계산하는 단계는, 디스플레이된 상기 제1 또는 제2 영상 중 어느 한 영상에서 설정된 상기 사용자에 영역의 모서리 정보를 수신하는 단계; 상기 지평면에 대한 호모그래피 매트릭스를 이용하여 상기 사용자 영역이 설정되지 않은 다른 영상에서 상기 사용자 영역의 모서리 위치를 추정하는 단계; 및 상기 수신한 모서리 정보 및 상기 추정한 모서리 정보를 지평면에 대한 호모그래피 매트릭스로 매핑한 점으로 삼각법을 적용하여 상기 사용자 영역에 대한 삼차원 절대 좌표를 추정하는 단계;를 포함하는 것을 특징으로 한다.In the present invention, the step of calculating the three-dimensional absolute coordinates may include: receiving edge information of the region set by the user on one of the displayed first or second images; Estimating a corner position of the user area in another image in which the user area is not set using a homography matrix for the horizon plane; And estimating a three-dimensional absolute coordinate of the user area by applying a triangular method to the received corner information and the estimated corner information as a homography matrix for the horizon plane.

본 발명에 있어서, 상기 사용자 영역의 변환을 검출하는 단계는, 상기 제1 및 제2 카메라로부터의 팬/틸트/줌 정보, 미리 설정된 줌 스케일 함수, PTZ 이동하는 제1 카메라 또는 제2 카메라의 회전 중심과 카메라 중심과의 거리를 이용하여 PTZ 이동전 제1 카메라 또는 제2 카메라의 위치 대비 현재 제1 카메라 또는 제2 카메라의 위치를 계산하는 단계; 및 상기 계산된 위치를 바탕으로 상기 삼차원 절대 좌표계에 대한 카메라의 투영 영상을 생성하는 단계;를 포함하는 것을 특징으로 한다.In the present invention, the step of detecting the conversion of the user area may include detecting pan / tilt / zoom information from the first and second cameras, a preset zoom scale function, rotating the first camera or the second camera Calculating a position of the first camera or the second camera with respect to a position of the first camera or the second camera before moving the PTZ using the distance between the center and the center of the camera; And generating a projection image of the camera with respect to the three-dimensional absolute coordinate system based on the calculated position.

본 발명이 이루고자 하는 기술적인 과제를 해결하기 위한 일 실시 예에 따른 이벤트 발생 방법은 제1 카메라에 의해 촬영된 제1 영상의 특징점 및 제2 카메라에 의해 촬영된 제2 영상의 특징점 매칭을 통하여 상기 제1 카메라 대비 상기 제2 카메라의 위치를 추정하는 위치정보 추정부; 상기 제1 및 제2 영상에 대한 특징점의 삼차원 절대 좌표계를 이용하여 지평면을 추정하는 지평면 추정부; 디스플레이된 상기 제1 또는 제2 영상 중 어느 한 영상에서 사용자에 의해 설정된 사용자 영역에 대한 삼차원 절대 좌표를 계산하는 영역 설정부; 상기 사용자 영역의 삼차원 절대 좌표 및 팬/틸트/줌 정보를 통해 상기 제1 카메라 또는 제2 카메라의 팬/틸트/줌 이동 시 상기 사용자 영역의 변환을 검출하는 영역 검출부; 및 상기 변환된 사용자 영역에 물체가 침범하는 경우 이벤트 발생을 감지하는 이벤트 발생 감지부;를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided an event generating method comprising: a first step of generating a first feature point of a first image captured by a first camera and a second feature point of a second image captured by a second camera, A position information estimating unit estimating a position of the second camera with respect to the first camera; A horizontal plane estimating unit estimating a horizontal plane using a three-dimensional absolute coordinate system of minutiae points of the first and second images; An area setting unit for calculating three-dimensional absolute coordinates of a user area set by a user in any one of the displayed first or second images; An area detecting unit for detecting a change of the user area when the first camera or the second camera performs the pan / tilt / zoom movement through the three-dimensional absolute coordinates of the user area and the pan / tilt / zoom information; And an event occurrence detection unit for detecting an occurrence of an event when an object enters the converted user area.

상술한 바와 같이 본 발명에 따르면, 카메라의 팬/틸트/줌 이동 시에도 설정된 영역을 정확하게 검출하여 설정 영역에 물체 침범 시 정확하게 이벤트를 발생시킬 수 있다.As described above, according to the present invention, even when the camera is panning, tilting, or zooming, it is possible to accurately detect a set area and accurately generate an event when an object is touched in the setting area.

도 1은 본 발명의 일 실시 예에 따른 이벤트 발생 장치의 구성을 보이는 블록도 이다.
도 2는 도 1 중 호모그래피 매트릭스의 해체 과정을 설명하기 위한 도면이다.
도 3은 도 1 중 MSER을 이용한 지평면 검출 결과를 보이는 도면이다.
도 4는 도 1 중 특징점을 이용한 지평면 피팅 결과에 따른 지평면 생성을 보이는 도면이다.
도 5는 도 1 중 카메라의 PTZ 이동시 사용자 영역의 변환을 설명하기 위한 도면이다.
도 6은 도 1 중 카메라의 PTZ 이동시 사용자 영역의 변환을 보이는 도면이다.
도 7은 도 1 중 사용자 영역에서 이벤트 발생을 보이는 도면이다.
도 8은 본 발명의 일 실시 예에 따른 이벤트 발생 방법의 동작을 보이는 흐름도 이다.
1 is a block diagram illustrating a configuration of an event generator according to an embodiment of the present invention.
FIG. 2 is a view for explaining a disassembling process of the homography matrix in FIG.
FIG. 3 is a view showing a result of detecting a horizontal plane using the MSER in FIG. 1. FIG.
FIG. 4 is a view showing generation of a horizontal plane according to a result of a horizontal plane fitting using a feature point in FIG.
FIG. 5 is a diagram for explaining the conversion of a user area when the PTZ camera is moved in FIG. 1;
FIG. 6 is a view showing the conversion of the user area when the PTZ of the camera is moved in FIG.
FIG. 7 is a diagram showing an event occurrence in the user area in FIG.
8 is a flowchart illustrating an operation of an event generating method according to an embodiment of the present invention.

이하, 본 발명의 실시 예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Referring to the accompanying drawings, the same or corresponding components are denoted by the same reference numerals, do.

도 1은 본 발명의 일 실시 예에 따른 이벤트 발생 장치의 구성을 보이는 블록도 이다.1 is a block diagram illustrating a configuration of an event generator according to an embodiment of the present invention.

도 1을 참조하면, 이벤트 발생 장치(10)는 제1 카메라(100), 제2 카메라(200), 영상 처리부(300), 위치 정보 추정부(400), 지평면 추정부(500), 영역 설정부(600), 영역 검출부(700) 및 이벤트 발생 감지부(800)를 포함한다.Referring to FIG. 1, the event generating apparatus 10 includes a first camera 100, a second camera 200, an image processing unit 300, a position information estimating unit 400, a horizontal plane estimating unit 500, An area detection unit 700, and an event occurrence detection unit 800. [0033]

제1 카메라(100) 및 제2 카메라(200)는, 예컨대 COMS(complementary metal-oxide semiconductor) 모듈 또는 CCD(charge coupled device) 모듈 등을 이용하여 피사체를 촬영하는 좌측 카메라 및 우측 카메라를 의미하는 것으로, 입력되는 제1 및 제2 이미지(또는 동영상)는 렌즈를 통해 COMS 모듈 또는 CCD 모듈로 제공되고, COMS 모듈 또는 CCD 모듈은 렌즈를 통과한 피사체의 광신호를 전기적 신호(촬영 신호)로 변환하여 출력한다. The first camera 100 and the second camera 200 refer to a left camera and a right camera that photograph a subject using, for example, a COMS (Complementary Metal-Oxide Semiconductor) module or a CCD (charge coupled device) , The input first and second images (or moving images) are provided to the COMS module or the CCD module through the lens, and the COMS module or the CCD module converts the optical signal of the subject passing through the lens into an electrical signal Output.

본 실시 예에서 제1 카메라(100) 및 제2 카메라(200)는 상하좌우 회전이 가능한 팬/틸트 구동 장치에 전동 줌 렌즈가 장착된 PTZ(pan, tilt zoom) 카메라일 수 있다. 또한 제1 카메라(100) 및 제2 카메라(200) 중 어느 한 카메라가 PTZ 카메라 일 수 있다.In this embodiment, the first camera 100 and the second camera 200 may be a PTZ (pan, tilt zoom) camera equipped with a motorized zoom lens in a pan / tilt driving device capable of rotating up and down and left and right. Also, any one of the first camera 100 and the second camera 200 may be a PTZ camera.

영상 처리부(300)는 제1 카메라(100) 및 제2 카메라(200)로부터 출력되는 제1 및 제2 영상 신호에 대해 노이즈를 저감하고, 감마 보정(Gamma Correction), 색필터 배열보간(color filter array interpolation), 색 매트릭스(color matrix), 색보정(color correction), 색 향상(color enhancement) 등의 화질 개선을 위한 영상 신호 처리를 수행한다. The image processor 300 reduces noise of the first and second image signals output from the first camera 100 and the second camera 200 and generates gamma correction and color filter array filter and performs image signal processing for image quality improvement such as array interpolation, color matrix, color correction, and color enhancement.

또한, 영상 처리부(300)는 화질 개선을 위한 영상 신호 처리를 하여 생성한 영상 데이터를 압축 처리하여 영상 파일을 생성할 수 있으며, 또는 상기 영상 파일로부터 영상 데이터를 복원할 수 있다. 영상의 압축형식은 가역 형식 또는 비가역 형식을 포함한다. In addition, the image processing unit 300 may generate image files by compressing the image data generated by the image signal processing for improving image quality, or may restore the image data from the image files. The compression format of the image includes reversible format or irreversible format.

또한, 영상 처리부(300)에서는 기능적으로 색채 처리, 블러 처리, 에지 강조 처리, 영상 해석 처리, 영상 인식 처리, 영상 이펙트 처리 등도 행할 수 있다. 영상 인식 처리로 얼굴 인식, 장면 인식 처리 등을 행할 수 있다. 예를 들어, 휘도 레벨 조정, 색 보정, 콘트라스트 조정, 윤곽 강조 조정, 화면 분할 처리, 캐릭터 영상 등 생성 및 영상의 합성 처리 등을 행할 수 있다.Also, the image processing unit 300 can functionally perform color processing, blur processing, edge emphasis processing, image analysis processing, image recognition processing, image effect processing, and the like. The face recognizing process, the scene recognizing process, and the like can be performed by the image recognizing process. For example, brightness level adjustment, color correction, contrast adjustment, contour enhancement adjustment, screen division processing, character image generation, and image synthesis processing can be performed.

위치 정보 추정부(400)는 제1 카메라(100)에 의해 촬영된 제1 영상의 특징점 및 제2 카메라(200)에 의해 촬영된 제2 영상의 특징점 매칭을 통하여 제1 카메라(100) 대비 제2 카메라(200)의 위치를 추정한다.The position information estimating unit 400 estimates the position of the first camera 100 based on the feature point of the first image captured by the first camera 100 and the feature point of the second image captured by the second camera 200 2 The position of the camera 200 is estimated.

여기서, 카메라의 위치란, 어떠한 기준 좌표계 상에서 카메라 중심의 위치, 그리고 카메라가 촬영하는 방향이 어느 정도 틀어졌는지에 대한 회전 정보를 통칭하는 개념이며, 보통 카메라가 바라보는 방향에 대한 회전각은 기준 좌표계의 Z축에서부터 카메라 시야 방향까지의 회전을 의미한다. 본 실시 예에서는 편의상 기준 좌표계를 삼차원 절대 좌표계로 설정하기로 한다.Here, the position of the camera is a concept that collectively refers to the rotation information about the position of the center of the camera on the reference coordinate system and the direction in which the camera is rotated. In general, the rotation angle with respect to the direction in which the camera is viewed, Quot; refers to rotation from the Z axis of the camera to the camera viewing direction. In this embodiment, the reference coordinate system is set as a three-dimensional absolute coordinate system for convenience.

본 실시 예에서는 삼차원 절대 좌표계의 기준을 제1 카메라(100)로 하기로 한다. 즉, 제1 카메라(100)의 중심 위치를 삼차원 절대 좌표계의 원점(origin)으로 삼고, 제1 카메라(100)가 바라보는 방향을 삼차원 절대 좌표계의 Z축으로 삼았으며, 제1 카메라(100)의 영상 평면의 X, Y축(즉, 수평축과 수직축)을 삼차원 절대 좌표계의 X, Y축으로 삼았다. 또한 본 실시 예에서는 제1 카메라(100)를 기준 카메라로 설정하기로 한다.In the present embodiment, the reference of the three-dimensional absolute coordinate system will be referred to as the first camera 100. That is, the center of the first camera 100 is the origin of the three-dimensional absolute coordinate system, and the direction of the first camera 100 is the Z axis of the three-dimensional absolute coordinate system. The X and Y axes (i.e., the horizontal axis and the vertical axis) of the image plane of the three-dimensional absolute coordinate system were taken as the X and Y axes. In this embodiment, the first camera 100 is set as a reference camera.

위치 정보 추정부(400)의 위치 추정은 제1 카메라(100)를 제외한 제2 카메라(200)가 삼차원 절대 좌표계 상에서 어떠한 위치를 갖고 있는지를 추정하는 것이다. 이를 위해 제2 카메라(200)는 제1 카메라(100)와 겹치는 FOV(field of view)를 갖고 있어야 한다.The position estimation of the position information estimation unit 400 estimates the position of the second camera 200 excluding the first camera 100 on the three-dimensional absolute coordinate system. To this end, the second camera 200 must have a field of view (FOV) that overlaps the first camera 100.

위치 정보 추정부(400)는 기준 카메라로서의 제1 카메라(100)가 촬영한 제1와 제2 영상과 카메라(200)가 촬영한 제2 영상이 겹치는 FOV에서 특징점 매칭을 통해 호모그래피 매트릭스(homography matrix)를 구하고, 이 호모그래피 매트릭스의 해체 과정을 통해 제2 카메라(200)의 중심 위치와 시야를 찾아낸다.The position information estimating unit 400 estimates the position of the first camera 100 by comparing the first and second images captured by the first camera 100 and the second image captured by the camera 200 with a homography matrix and finds the center position and field of view of the second camera 200 through the disassembly process of the homography matrix.

본 실시 예에서는 호모그래피 매트릭스를 구하기 위해 예를 들어, SURF(speed up robust features) 알고리즘을 이용한다. SURF 알고리즘은 여러 영상으로부터 크기(scale), 조명(illumination), 시점(viewpoint) 등 환경 변화를 고려하여 환경 변화에 불변하는 특징을 찾는 알고리즘을 나타낸다. SURF 알고리즘은 입력된 영상의 특징 추출, 특징의 기준 방향과 크기 설정 및 서술자 생성의 순서로 이루어지며, SURF 알고리즘과 관련된 내용은 이미 공지 되어 있으므로 상세한 설명은 생략하기로 한다.In this embodiment, for example, a speed up robust features (SURF) algorithm is used to obtain a homography matrix. The SURF algorithm represents an algorithm that finds features that are invariant to environmental changes, taking into account environmental changes such as scale, illumination, and viewpoint from multiple images. The SURF algorithm consists of the feature extraction of the input image, the setting of the reference direction and the size of the feature, and the generation of the descriptor. The contents related to the SURF algorithm are already known, and thus the detailed description will be omitted.

다음에, 도 2를 참조하여 호모그래피 매트릭스의 해체 과정을 설명하기로 한다. 도 2를 참조하면, C1은 제1 카메라(100)의 중심 위치이고, C2는 제2 카메라(200)의 중심 위치이다. z1은 제1 카메라(100)의 시야 방향을 나타내며, z2는 제2 카메라(200)의 시야 방향을 나타낸다. R은 z1에서 z2로의 회전을 나타내며, t는 C1에서 C2로의 평행 이동을 의미한다. 호모그래피 매트릭스 해체 과정의 목적은 호모그래피 매트릭스로부터 R과 t를 추출해 내는 것이다. 호모그래피 매트릭스를 H라고 하면 특이값 분해(SVD: singular value decomposition)에 의해 수학식 1과 같은 수식을 구할 수 있다.Next, the process of disassembling the homography matrix will be described with reference to FIG. Referring to FIG. 2, C1 is the center position of the first camera 100 and C2 is the center position of the second camera 200. FIG. z1 represents the view direction of the first camera 100, and z2 represents the view direction of the second camera 200. [ R represents the rotation from z1 to z2, and t represents the parallel movement from C1 to C2. The goal of the homography matrix disassembly process is to extract R and t from the homography matrix. Assuming that the homography matrix is H, an equation such as Equation 1 can be obtained by singular value decomposition (SVD).

Figure 112012101066416-pat00001
Figure 112012101066416-pat00001

D, U', V'라는 새로운 행렬을 제안하고 수학식 2와 같이 정의한다.D, U ', V' and defines it as shown in Equation (2).

Figure 112012101066416-pat00002
Figure 112012101066416-pat00002

Figure 112012101066416-pat00003
Figure 112012101066416-pat00003

수학식 2를 이용하여 R과 t의 후보를 구하면 수학식 3과 같다.Using the equation (2), the candidates of R and t can be obtained as in equation (3).

Figure 112012101066416-pat00004
Figure 112012101066416-pat00004

수학식 3에서 s는 스케일 팩터이다. 구해진 R과 t의 후보를 이용하여 구할 수 있는 제2 카메라(200)의 위치 후보는 총 4개 이며 이는 다음 수학식 4와 같다.In Equation (3), s is a scale factor. A total of four position candidates of the second camera 200, which can be obtained using the obtained R and t candidates, are shown in Equation (4).

Figure 112012101066416-pat00005
Figure 112012101066416-pat00005

이 중 실제 제2 카메라(200)의 위치에 해당하는 것을 고르기 위해서는 각각의 위치에서 특징점들을 삼각법(triangulation)을 통해 깊이 정보를 구하고, 제1 카메라(100)와 제2 카메라(200)의 깊이(depth)가 모두 양수인지 확인하면 된다.In order to select the position corresponding to the position of the second camera 200, depth information is obtained through triangulation of the feature points at each position, and the depth information of the first camera 100 and the second camera 200 depth) are both positive.

지평면 추정부(500)는 제1 영상 및 제2 영상에 대한 특징점의 삼차원 절대 좌표계를 이용하여 지평면을 추정한다.The horizontal plane estimating unit 500 estimates the horizontal plane using the three-dimensional absolute coordinate system of the minutiae for the first image and the second image.

지평면을 찾기 위해서는 지평면에 대한 특징점들을 찾아야 한다. 따라서, 지평면 정보 생성부(500)는 위치 정보 추정부(400)에서 알아낸 특징점들의 삼차원 절대 좌표를 이용하여 MSER(maximally stable extremal regions)을 통해 화면 영역을 분류하고, 그 중 화면 절반 아래에서 가장 주가 되는 영역을 선택하여 지평면 영역으로 지정한다. 지정된 지평면 영역에 포함되는 특징점들을 지평면 특징점으로 지정한다. 이후 지평면 특징점들의 삼차원 절대 좌표들을 예를 들어, PCA(principle component analysis) 방법으로 평면 피팅하여 최종적으로 지평면을 추정한다. 이후 추정된 지평면에 대해서는 호모그래피 매트릭스(HGP)를 생성한다.To find the plane, you must find the characteristic points of the plane. Therefore, the horizon plane information generating unit 500 classifies the screen area through maximally stable extremal regions (MSER) using the three-dimensional absolute coordinates of the minutiae obtained from the position information estimator 400, Select the area to be the main area and designate it as the horizon area. The minutiae points included in the designated surface area are designated as minutiae minutiae points. Thereafter, the three-dimensional absolute coordinates of the zenith surface feature points are subjected to plane fitting using, for example, a principle component analysis (PCA) method to finally estimate the horizon plane. Then, a homography matrix (H GP ) is generated for the estimated horizontal plane.

본 실시 예에서는 지평면을 찾아내기 위해 우선적으로 MSER을 이용한다. MSER 기법은 극대 영역(extremal region)으로 불리는 구분 영역(distinguished region)을 지정하는 것으로, 여기서 구분 영역은 연속적인 닫힌 영역(Closed region)이다. 구분 영역이 국부적 최소값(local minimum)을 가지면, 상기 구분 영역은 최대로 안정적이 되어, 상기 구분 영역은 MSER(Maximally Stable Extremal Region)으로 될 수 있다. MSER 기법에 대하여는 'J. Matas, O. Chun, M. Urban, T. Pajdla, "Robust Wide Baseline Stereo from Maximally Stable Extremal Regions," British Machine Vision Conference, BMVC 2002'에 자세히 개시되어 있으므로 상세한 설명은 생략하기로 한다. 도 3은 도 1 중 MSER을 이용한 지평면 검출 결과를 보이는 도면이다. 도 3a 내지 도 3f에는 입력 영상에 대한 MSER 결과가 도시되어 있다. 도 3c 및 도 3f와 같이 붉은색으로 표시된 영역은 비교적 정확하게 지평면을 나타내고 있다. 이렇게 추출된 영역을 기반으로 특징점을 분류하고, 분류된 특징점들을 PCA로 평면 피팅하면 원하는 지평면에 대한 결과를 얻을 수 있다.In the present embodiment, MSER is preferentially used to find the horizon. The MSER technique specifies a distinguished region called the extremal region, where the segment region is a closed region. If the segmentation region has a local minimum, the segmentation region is maximally stable, and the segmentation region may be a Maximal Stable Extremal Region (MSER). For the MSER technique, see 'J. The detailed description will be omitted because it is disclosed in detail in Matas, O. Chun, M. Urban, T. Pajdla, "Robust Wide Baseline Stereo from Maximally Stable Extremal Regions," British Machine Vision Conference, BMVC 2002 ". FIG. 3 is a view showing a result of detecting a horizontal plane using the MSER in FIG. 1. FIG. 3A to 3F show MSER results for an input image. As shown in FIG. 3C and FIG. 3F, the area indicated in red indicates the horizon plane relatively accurately. If the feature points are classified based on the extracted region and the classified feature points are flat-fitted to the PCA, the result of the desired plane can be obtained.

도 4에는 삼차원 절대 좌표계에 특징점을 위치시키고, 지평면에 해당하는 특징점을 분류하여 해당 특징점에 맞는 평면을 피팅하여 지평면이 생성되었음을 보여주고 있다.FIG. 4 shows that the feature points are located in the three-dimensional absolute coordinate system, the feature points corresponding to the horizon planes are classified, and the planes corresponding to the feature points are fitted to generate the horizon planes.

영역 설정부(600)는 디스플레이된 제1 또는 제2 영상 중 어느 한 영상으로부터 사용자를 통해 설정된 사용자 영역을 지정하고, 에 대한 삼차원 절대 좌표를 계산한다. 사용자 영역의 설정은 기본적으로 다각형에 기반하여 지정하도록 한다. 즉, 사용자는 제1 또는 제2 영상 중 어느 한 영상이 디스플레이된 화면 상에 점을 찍어 사용자 영역을 설정할 수 있다.The area setting unit 600 specifies a user area set through the user from any one of the displayed first and second images, and calculates the three-dimensional absolute coordinates for the user area. The setting of the user area is basically based on polygons. That is, the user can set a user area by taking a point on a screen on which one of the first and second images is displayed.

영역 설정부(600)는 제1 또는 제2 영상 중 어느 한 영상이 디스플레이된 화면 상에 사용자가 입력한 모서리를 사용자 영역으로 지정하고, 지평면 추정부(500)에서 생성한 지평면에 대해서는 호모그래피 매트릭스(HGP)를 이용하여 사용자 영역이 설정되지 않은 다른 영상에서 사용자 영역의 모서리 위치를 추정한다. 이후 모서리 정보 및 모서리 정보를 지평면에 대한 호모그래피 매트릭스로 매핑한 점으로 삼각법을 적용하여 사용자 영역에 대한 삼차원 절대 좌표를 추정한다.The area setting unit 600 designates a user area on the screen on which one of the first and second images is displayed as a user area, and the horizon plane generated by the horizon plane estimating unit 500 includes a homography matrix (H GP ) is used to estimate the edge position of the user area in another image in which the user area is not set. Then, the three-dimensional absolute coordinates of the user area are estimated by applying the triangular method to the corner information and the edge information mapped to the homography matrix for the horizon plane.

사용자가 제1 카메라(100) 및 제2 카메라(200) 중 어느 한 카메라가 촬영한 영상 화면에 지정한 특징점의 좌표를 x라고 하면, 다른 카메라 화면상에서 해당 점의 위치를 x'는 다음 수학식 5와 같이 표현될 수 있다.If the coordinates of the feature point designated by the user on the image screen captured by any one of the first camera 100 and the second camera 200 is x, the position of the corresponding point on another camera screen is represented by x ' Can be expressed as

Figure 112012101066416-pat00006
Figure 112012101066416-pat00006

본 실시 예에서는 x 및 x'를 이용하여 삼각법을 적용하고 이를 통해 최종적으로 삼차원 절대 좌표 X를 구하며, 이러한 과정은 사용자 영역의 모든 모서리에 적용된다.In this embodiment, the trigonometry is applied using x and x ', and finally the three-dimensional absolute coordinate X is obtained. This process is applied to all the corners of the user area.

영역 검출부(700)는 사용자 영역의 삼차원 절대 좌표 및 팬/틸트/줌 정보를 통해 제1 카메라(100) 또는 제2 카메라(200)의 팬/틸트/줌 이동 시 사용자 영역의 변환을 검출을 검출한다.The area detecting unit 700 detects the conversion of the user area when the first camera 100 or the second camera 200 pan / tilt / zoom moves through the three-dimensional absolute coordinates of the user area and the pan / tilt / zoom information do.

영역 검출부(700)는 제1 카메라(100) 및 제2 카메라(200)의 팬/틸트/줌 정보와 미리 설정된 줌 스케일 함수, PTZ 이동하는 제1 카메라(100) 또는 제2 카메라(200)의 회전 중심과 카메라 중심과의 거리를 이용하여 PTZ 이동전 제1 카메라(100) 또는 제2 카메라(200)의 위치 대비 현재 제1 카메라(100) 또는 제2 카메라(200)의 위치를 계산하고, 계산된 위치를 바탕으로 삼차원 절대 좌표계에 대한 카메라의 투영 영상을 생성하여 디스플레이 한다.The area detecting unit 700 detects the pan / tilt / zoom information of the first camera 100 and the second camera 200 and the zoom scale function of the first camera 100 or the second camera 200, The position of the first camera 100 or the second camera 200 is calculated with respect to the position of the first camera 100 or the second camera 200 before the PTZ movement using the distance between the center of rotation and the center of the camera, And generates and displays a projection image of the camera with respect to the three-dimensional absolute coordinate system based on the calculated position.

삼차원 절대 좌표 상의 임의의 점 XWC가 제1 카메라(100) 또는 제2 카메라(200)의 영상에 투영되는 좌표 Ximg는 다음 수학식 6과 같이 표현될 수 있다.The coordinate X img at which an arbitrary point X WC on the three-dimensional absolute coordinate is projected onto the image of the first camera 100 or the second camera 200 can be expressed as Equation (6).

Figure 112012101066416-pat00007
Figure 112012101066416-pat00007

여기서, RWC 및 tWC는 각각 삼차원 절대 좌표계 상에서 카메라 시선과 카메라 중심을 나타내는 행렬과 벡터이다. 여기서, K, R, t는 카메라로부터 들어오는 팬/틸트/줌 정보를 통해 구해지는 것으로, K는 줌 스케일에 따른 스칼라 값이고, R은 카메라 시선의 회전을 나타내는 행렬, t는 카메라 중심의 평행이동을 나타내는 벡터를 의미한다. Here, R WC and t WC are vectors and matrices representing the camera line and the camera center on the three-dimensional absolute coordinate system, respectively. Where K is a scalar value according to the zoom scale, R is a matrix representing the rotation of the camera line of sight, t is a parallel movement of the camera center, K, R, and t are obtained through pan / tilt / &Quot;

도 5는 도 1 중 카메라의 PTZ 이동시 사용자 영역의 변환을 설명하기 위한 도면이다. 도 5a에 개시된 줌 스케일 보간(zoom scale interpolation)이 K를 나타내는 것이고, 도 5b에서 회전(rotation)은 R을 나타내고, 평행이동(translation)은 t를 의미한다.FIG. 5 is a diagram for explaining the conversion of a user area when the PTZ camera is moved in FIG. 1; The zoom scale interpolation disclosed in FIG. 5A represents K, the rotation in FIG. 5B represents R, and the translation represents t.

영역 검출부(700)는 상기 매핑을 모든 사용자 영역 모서리에 대해 수행하여 각각의 카메라에 해당 모서리들의 위치를 디스플레이 하게 된다.The area detecting unit 700 performs the mapping on all user area corners and displays the positions of corresponding corners in each camera.

도 6은 도 1 중 카메라의 PTZ 이동시 사용자 영역의 변환을 보이는 도면이다. 도 6을 참조하면, 도 6a는 설정된 사용자 영역(흰색 박스)을 보이고 있다. 도 6b는 제1 카메라(100) 또는 제2 카메라(200)가 우측으로 15도 팬 이동한 상태에서 검출된 사용자 영역을 보이고 있다. 도 6c는 도 6b로부터 제1 카메라(100) 또는 제2 카메라(200)가 우측으로 15도 더 팬 이동한 상태에서 검출된 사용자 영역을 보이고 있다. 도 6d는 도 6c로부터 제1 카메라(100) 또는 제2 카메라(200)가 우측으로 15도 더 팬 이동한 상태에서 검출된 사용자 영역을 보이고 있다. 도 6e는 도 6d로부터 제1 카메라(100) 또는 제2 카메라(200)가 줌 인 한 상태에서 검출된 사용자 영역을 보이고 있다. 도 6f는 도 6e로부터 제1 카메라(100) 또는 제2 카메라(200)가 좌로 15도 팬 이동한 상태에서 검출된 사용자 영역을 보이고 있다.FIG. 6 is a view showing the conversion of the user area when the PTZ of the camera is moved in FIG. Referring to FIG. 6, FIG. 6A shows a set user area (white box). 6B shows the detected user area when the first camera 100 or the second camera 200 is moved to the right by 15 degrees. FIG. 6C shows the detected user area from the state in which the first camera 100 or the second camera 200 is further moved by 15 degrees to the right from FIG. 6B. FIG. 6D shows the detected user area from the state in which the first camera 100 or the second camera 200 is further moved by 15 degrees to the right from FIG. 6C. FIG. 6E shows the detected user area from the state in which the first camera 100 or the second camera 200 zooms in from FIG. 6D. FIG. 6F shows the detected user area in a state where the first camera 100 or the second camera 200 is moved to the left by 15 degrees from FIG. 6E.

이벤트 발생 감지부(800)은 변환된 사용자 영역에 물체가 침범하는 경우 이벤트를 발생을 감지한다. 도 7에는 사용자 영역에 움직이는 물체가 침범하여 해당 물체에 알람(반투명 붉은 박스)를 표시하여 이벤트 발생을 알리는 것을 보이고 있다.The event occurrence detection unit 800 detects occurrence of an event when an object enters the converted user area. FIG. 7 shows that an object moving in the user area is intruded and an alarm (translucent red box) is displayed on the object to inform the occurrence of an event.

이벤트 발생 장치(10)는 PTZ 카메라가 PTZ 이동시, 사용자가 기 지정한 사용자 영역을 정확히 매핑하고 있다. 즉, 감시 영역 내에 사용자가 기 지정한 사용자 영역을, 카메라가 PTZ 이동을 하여도 마치 해당 지면 위에 고정된 것과 같은 효과를 내어, 카메라 PTZ 이동 시에도 움직이는 물체들이 해당 영역을 침범하였는지 여부를 판단할 수 있도록 한다.The event generator 10 maps the user area previously designated by the user when the PTZ camera moves the PTZ. That is, even if the camera moves the PTZ, the user area designated by the user in the surveillance area can be judged whether or not the moving object has invaded the corresponding area even when the camera PTZ is moved .

도 8은 본 발명의 일 실시 예에 따른 이벤트 발생 방법의 동작을 보이는 흐름도 이다. 이하의 설명에서 도 1 내지 도 8에 대한 설명과 중복되는 부분은 그 설명을 생략하기로 한다.8 is a flowchart illustrating an operation of an event generating method according to an embodiment of the present invention. In the following description, the description of the parts overlapping with those of FIGS. 1 to 8 will be omitted.

이벤트 발생 장치(10)는 제1 카메라에 의해 촬영된 제1 영상의 특징점 및 제2 카메라에 의해 촬영된 제2 영상의 특징점 매칭을 통하여 제1 카메라 대비 제2 카메라의 위치를 추정하는 단계(S10)를 수행한다. 이벤트 발생 장치(10)는 제1 영상을 기준으로 제2 영상과 겹치는 부분의 특징점 매칭을 통해 제1 카메라 및 제2 카메라 사이의 호모그래피 매트릭스를 구한 후, 호모그래피 매트릭스의 해체를 통해 제1 카메라 대비 제2 카메라의 회전정보를 검출한다.The event generating apparatus 10 estimates the position of the second camera with respect to the first camera through the feature point matching of the first image captured by the first camera and the second image captured by the second camera S10 ). The event generator 10 obtains a homography matrix between the first camera and the second camera through the feature point matching of a portion overlapping the second image with reference to the first image, And detects rotation information of the second contrast camera.

제1 카메라 대비 제2 카메라의 위치를 추정이 완료되면, 이벤트 발생 장치(10)는 제1 영상 및 제2 영상에 대한 특징점의 삼차원 절대 좌표계를 이용하여 지평면을 추정하는 단계(S20)를 수행한다. 이벤트 발생 장치(10)는 특징점의 삼차원 절대 좌표계로부터 MSER을 통해 화면 영역을 분류하고, 분류된 화면 영역 중 화면 절반 아래에서 주된 영역을 선택하여 지평면 영역으로 지정한다. 이후, 지평면 영역에 포함된 특징점들을 지평면 특징점으로 지정하고, 지평면 특징점들의 삼차원 절대 좌표들을 PCA 방법으로 평면 피팅하여 지평면을 추정한다.When the estimation of the position of the second camera relative to the first camera is completed, the event generator 10 performs step S20 of estimating the horizon plane using the three-dimensional absolute coordinate system of the minutiae for the first and second images . The event generating apparatus 10 classifies the screen area through the MSER from the three-dimensional absolute coordinate system of the minutiae, and selects a main area below the screen half of the classified screen area to designate it as a horizontal plane area. Then, the minutiae points included in the horizon plane area are designated as zenith surface feature points, and the 3D plane absolute coordinates of the zenith surface feature points are flattened by the PCA method to estimate the horizon plane.

지평면 추정이 완료되면, 이벤트 발생 장치(10)는 디스플레이된 상기 제1 영상 또는 제2 영상 중 어느 한 영상에서 사용자에 의해 설정된 사용자 영역에 대한 삼차원 절대 좌표를 계산하는 단계(S30)를 수행한다. 이벤트 발생 장치(10)는 디스플레이된 제1 또는 제2 영상 중 어느 한 영상에서 설정된 상기 사용자에 영역의 모서리 정보를 수신하고, 지평면에 대한 호모그래피 매트릭스를 이용하여 사용자 영역이 설정되지 않은 다른 영상에서 사용자 영역의 모서리 위치를 추정한다. 이후, 이벤트 발생 장치(10)는 수신한 모서리 정보 및 추정한 모서리 정보를 지평면에 대한 호모그래피 매트릭스로 매핑한 점으로 삼각법을 적용하여 사용자 영역에 대한 삼차원 절대 좌표를 추정한다.When the horizon plane estimation is completed, the event generator 10 calculates a three-dimensional absolute coordinate for the user area set by the user in any one of the first image or the second image displayed (S30). The event generating apparatus 10 receives the edge information of the area set by the user from one of the displayed first or second images and displays the edge information of the user on the other image in which the user area is not set using the homography matrix for the ground plane And estimates the corner position of the user area. Then, the event generating device 10 maps the received edge information and the estimated edge information to a homography matrix for the terrain surface, and estimates the three-dimensional absolute coordinates of the user area by applying the trigonometry.

사용자 영역에 대한 삼차원 절대 좌표를 계산이 완료되면, 이벤트 발생 장치(10)는 사용자 영역의 삼차원 절대 좌표 및 팬/틸트/줌 정보를 통해 제1 카메라 또는 제2 카메라의 팬/틸트/줌 이동 시 사용자 영역의 변환을 검출하는 단계(S40)를 수행한다. 이벤트 발생 장치(10)는 제1 및 제2 카메라로부터의 팬/틸트/줌 정보, 미리 설정된 줌 스케일 함수, PTZ 이동하는 제1 카메라 또는 제2 카메라의 회전 중심과 카메라 중심과의 거리를 이용하여 PTZ 이동전 제1 카메라 또는 제2 카메라의 위치 대비 현재 제1 카메라 또는 제2 카메라의 위치를 계산한다. 다음에, 이벤트 발생 장치(10)는 계산된 위치를 바탕으로 삼차원 절대 좌표계에 대한 카메라의 투영 영상을 생성한다.When the calculation of the three-dimensional absolute coordinates of the user area is completed, the event generating device 10 generates the three-dimensional absolute coordinates of the user area, and the pan / tilt / zoom information of the first camera or the second camera A step S40 of detecting the conversion of the user area is performed. The event generating apparatus 10 uses the pan / tilt / zoom information from the first and second cameras, a preset zoom scale function, the distance between the rotation center of the first camera or the second camera moving in PTZ and the center of the camera The position of the first camera or the second camera is calculated with respect to the position of the first camera or the second camera before the PTZ movement. Next, the event generating apparatus 10 generates a projection image of the camera with respect to the three-dimensional absolute coordinate system based on the calculated position.

이후, 이벤트 발생 장치(10)는 변환된 사용자 영역에 물체가 침범하는 경우 이벤트를 발생하는 단계(S50)를 수행한다.Thereafter, the event generator 10 performs a step S50 of generating an event when an object enters the converted user area.

한편, 본 발명은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.Meanwhile, the present invention can be embodied in computer readable code on a computer readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored.

컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device and the like, and also a carrier wave (for example, transmission via the Internet) . In addition, the computer-readable recording medium may be distributed over network-connected computer systems so that computer readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily deduced by programmers skilled in the art to which the present invention belongs.

이제까지 본 발명에 대하여 바람직한 실시 예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다. 그러므로 상기 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 한다.The present invention has been described above with reference to preferred embodiments. It will be understood by those skilled in the art that the present invention may be embodied in various other forms without departing from the spirit or essential characteristics thereof. Therefore, the above-described embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

100: 제1 카메라
200: 제2 카메라
300: 영상 처리부
400: 위치 정보 추정부
500: 지평면 정보 생성부
600: 영역 설정부
700: 영역 검출부
800: 이벤트 발생 감지부
100: First camera
200: Second camera
300:
400:
500: Horizontal plane information generating unit
600: area setting unit
700:
800: Event occurrence detection unit

Claims (6)

제1 카메라에 의해 촬영된 제1 영상의 특징점 및 제2 카메라에 의해 촬영된 제2 영상의 특징점 매칭을 통하여 상기 제1 카메라 대비 상기 제2 카메라의 위치를 추정하는 단계;
상기 제1 및 제2 영상에 대한 특징점의 삼차원 절대 좌표계를 이용하여 지평면을 추정하는 단계;
디스플레이된 상기 제1 또는 제2 영상 중 어느 한 영상에서 사용자에 의해 설정된 사용자 영역에 대한 삼차원 절대 좌표를 계산하는 단계;
상기 사용자 영역의 삼차원 절대 좌표 및 팬/틸트/줌 정보를 통해 상기 제1 카메라 또는 제2 카메라의 팬/틸트/줌 이동 시 상기 사용자 영역의 변환을 검출하는 단계; 및
상기 변환된 사용자 영역에 물체가 침범하는 경우 이벤트를 발생하는 단계;를 포함하고,
상기 사용자 영역의 변환을 검출하는 단계는,
상기 제1 및 제2 카메라로부터의 팬/틸트/줌 정보, 미리 설정된 줌 스케일 함수, PTZ 이동하는 제1 카메라 또는 제2 카메라의 회전 중심과 카메라 중심과의 거리를 이용하여 PTZ 이동전 제1 카메라 또는 제2 카메라의 위치 대비 현재 제1 카메라 또는 제2 카메라의 위치를 계산하는 단계; 및
상기 계산된 위치를 바탕으로 상기 삼차원 절대 좌표계에 대한 카메라의 투영 영상을 생성하는 단계;를 포함하는 것을 특징으로 하는 이벤트 발생 방법.
Estimating a position of the second camera with respect to the first camera through a feature point matching of a first image captured by the first camera and a second image captured by the second camera;
Estimating a horizon plane using a three-dimensional absolute coordinate system of minutiae for the first and second images;
Calculating three-dimensional absolute coordinates of a user area set by a user in one of the displayed first or second images;
Detecting transformation of the user area when pan / tilt / zoom movement of the first camera or the second camera is performed through three-dimensional absolute coordinates of the user area and pan / tilt / zoom information; And
And generating an event when an object is invaded in the converted user area,
Wherein the step of detecting the conversion of the user area comprises:
The first camera and the second camera are located on the same plane as the first camera and the second camera, respectively, using the pan / tilt / zoom information from the first and second cameras, a preset zoom scale function, Or calculating the position of the first camera or the second camera with respect to the position of the second camera; And
And generating a projection image of the camera with respect to the three-dimensional absolute coordinate system based on the calculated position.
삭제delete 삭제delete 청구항 4은(는) 설정등록료 납부시 포기되었습니다.Claim 4 has been abandoned due to the setting registration fee. 제 1항에 있어서, 상기 삼차원 절대 좌표를 계산하는 단계는,
디스플레이된 상기 제1 또는 제2 영상 중 어느 한 영상에서 설정된 상기 사용자 영역의 모서리 정보를 수신하는 단계;
상기 지평면에 대한 호모그래피 매트릭스를 이용하여 상기 사용자 영역이 설정되지 않은 다른 영상에서 상기 사용자 영역의 모서리 위치를 추정하는 단계; 및
상기 사용자 영역의 모서리 정보 및 상기 사용자 영역의 모서리 위치를 지평면에 대한 호모그래피 매트릭스로 매핑한 점으로 삼각법을 적용하여 상기 사용자 영역에 대한 삼차원 절대 좌표를 추정하는 단계;를 포함하는 것을 특징으로 하는 이벤트 발생 방법.
2. The method of claim 1, wherein calculating the three-
Receiving corner information of the user area set in any one of the displayed first or second images;
Estimating a corner position of the user area in another image in which the user area is not set using a homography matrix for the horizon plane; And
And estimating a three-dimensional absolute coordinate of the user area by applying a triangular method to the corner area information of the user area and the edge position of the user area as a homography matrix for the horizon plane. Generation method.
삭제delete 삭제delete
KR1020120140544A 2012-12-05 2012-12-05 Apparatus and method for generating event KR101578030B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120140544A KR101578030B1 (en) 2012-12-05 2012-12-05 Apparatus and method for generating event

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120140544A KR101578030B1 (en) 2012-12-05 2012-12-05 Apparatus and method for generating event

Publications (2)

Publication Number Publication Date
KR20140072713A KR20140072713A (en) 2014-06-13
KR101578030B1 true KR101578030B1 (en) 2015-12-18

Family

ID=51126506

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120140544A KR101578030B1 (en) 2012-12-05 2012-12-05 Apparatus and method for generating event

Country Status (1)

Country Link
KR (1) KR101578030B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007233919A (en) 2006-03-03 2007-09-13 Meidensha Corp Intruder detection apparatus by imaging processing
JP2009124204A (en) 2007-11-12 2009-06-04 Nippon Hoso Kyokai <Nhk> Apparatus and program for estimating camera parameter

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007233919A (en) 2006-03-03 2007-09-13 Meidensha Corp Intruder detection apparatus by imaging processing
JP2009124204A (en) 2007-11-12 2009-06-04 Nippon Hoso Kyokai <Nhk> Apparatus and program for estimating camera parameter

Also Published As

Publication number Publication date
KR20140072713A (en) 2014-06-13

Similar Documents

Publication Publication Date Title
US12034906B2 (en) Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
US11727626B2 (en) Damage detection from multi-view visual data
JP4938861B2 (en) Complex adaptive 2D-to-3D video sequence conversion
US10339386B2 (en) Unusual event detection in wide-angle video (based on moving object trajectories)
US8508580B2 (en) Methods, systems, and computer-readable storage media for creating three-dimensional (3D) images of a scene
JP6184271B2 (en) Imaging management apparatus, imaging management system control method, and program
JP5070213B2 (en) Vision processing device for network-based intelligent service robot, processing method thereof, and system using the same
JP4692371B2 (en) Image processing apparatus, image processing method, image processing program, recording medium recording image processing program, and moving object detection system
US20210312702A1 (en) Damage detection from multi-view visual data
KR20160062880A (en) road traffic information management system for g using camera and radar
US20110187703A1 (en) Method and system for object tracking using appearance model
US20210225038A1 (en) Visual object history
US11972556B2 (en) Mobile multi-camera multi-view capture
JP6617150B2 (en) Object detection method and object detection apparatus
KR101726692B1 (en) Apparatus and method for extracting object
US20220254008A1 (en) Multi-view interactive digital media representation capture
JP2009077022A (en) Driving support system and vehicle
KR101578030B1 (en) Apparatus and method for generating event
KR20160101762A (en) The method of auto stitching and panoramic image genertation using color histogram
US20240364856A1 (en) Methods, systems, and computer-readable storage media for generating three-dimensional (3d) images of a scene
YasirSalih et al. Distance and Size Measurements of Objects in the Scene from a Single 2D Image
Duffner et al. On-Line Ego-Motion Video Stabilisation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20181126

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20191126

Year of fee payment: 5