KR101347450B1 - Image sensing method using dual camera and apparatus thereof - Google Patents

Image sensing method using dual camera and apparatus thereof Download PDF

Info

Publication number
KR101347450B1
KR101347450B1 KR1020120037315A KR20120037315A KR101347450B1 KR 101347450 B1 KR101347450 B1 KR 101347450B1 KR 1020120037315 A KR1020120037315 A KR 1020120037315A KR 20120037315 A KR20120037315 A KR 20120037315A KR 101347450 B1 KR101347450 B1 KR 101347450B1
Authority
KR
South Korea
Prior art keywords
camera
mobile camera
mobile
image
coordinates
Prior art date
Application number
KR1020120037315A
Other languages
Korean (ko)
Other versions
KR20130114899A (en
Inventor
김기석
조재수
이삭
박종섭
Original Assignee
한국기술교육대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국기술교육대학교 산학협력단 filed Critical 한국기술교육대학교 산학협력단
Priority to KR1020120037315A priority Critical patent/KR101347450B1/en
Publication of KR20130114899A publication Critical patent/KR20130114899A/en
Application granted granted Critical
Publication of KR101347450B1 publication Critical patent/KR101347450B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 듀얼 카메라를 이용한 화상 감지 방법 및 장치에 관한 것이다. 본 발명에 따르면, 실내에 설치된 고정형 카메라 및 이동형 카메라를 포함하는 듀얼 카메라를 이용한 화상 감지 방법에 있어서, 상기 이동형 카메라의 각도를 제어하면서, 상기 고정형 카메라 및 이동형 카메라의 촬상 화면으로부터 각각의 특징점들을 추출하고, 상기 추출된 특징점들 간의 정합 과정을 통해, 상기 고정형 카메라에 대한 상기 이동형 카메라의 기본 위치를 지정하는 단계와, 상기 고정형 카메라에서 감지된 이동 물체에 대한 영상 좌표를 상기 이동형 카메라의 영상 좌표로 변환하는 단계, 및 상기 변환된 좌표 값을 이용하여 상기 이동형 카메라가 상기 이동 물체를 추적하도록 상기 이동형 카메라의 팬 각도, 틸트 각도 및 줌 배율 중 적어도 하나를 제어하는 단계를 포함하는 듀얼 카메라를 이용한 화상 감지 방법을 제공한다.
상기 듀얼 카메라를 이용한 화상 감지 장치에 따르면, 고정형 카메라와 이동형 카메라의 감시 영역을 서로 매칭시켜서 두 카메라의 기본 위치를 설정한 다음, 고정형 카메라에서 감지된 이동 물체의 좌표 값을 이동형 카메라의 좌표 값으로 변환하여 이동형 카메라가 이동 물체를 계속해서 추적할 수 있도록 하여 이동형 카메라를 효과적으로 제어하며 감시 효율을 높일 수 있는 이점이 있다.
The present invention relates to an image sensing method and apparatus using a dual camera. According to the present invention, in the image detection method using a dual camera including a fixed camera and a mobile camera installed indoors, while extracting the respective feature points from the image pickup screen of the fixed camera and the mobile camera, while controlling the angle of the mobile camera And designating a basic position of the mobile camera with respect to the fixed camera through a matching process between the extracted feature points, and converting image coordinates of the moving object detected by the fixed camera into image coordinates of the mobile camera. And converting at least one of a pan angle, a tilt angle, and a zoom ratio of the mobile camera so that the mobile camera tracks the moving object using the converted coordinate values. Provide a detection method.
According to the image sensing apparatus using the dual camera, the basic position of the two cameras is set by matching the surveillance areas of the fixed camera and the mobile camera with each other, and then the coordinate value of the moving object detected by the fixed camera is converted into the coordinate value of the mobile camera. By converting, the mobile camera can keep track of the moving object, thereby effectively controlling the moving camera and increasing surveillance efficiency.

Description

듀얼 카메라를 이용한 화상 감지 방법 및 장치{Image sensing method using dual camera and apparatus thereof}Image sensing method using dual camera and apparatus

본 발명은 듀얼 카메라를 이용한 화상 감지 방법 및 장치에 관한 것으로서, 보다 상세하게는 고정형 카메라와 이동형 카메라를 이용하여 이동 물체에 대한 감시 효율을 높일 수 있는 듀얼 카메라를 이용한 화상 감지 방법 및 장치에 관한 것이다.The present invention relates to an image sensing method and apparatus using a dual camera, and more particularly, to an image sensing method and apparatus using a dual camera that can increase the monitoring efficiency for moving objects using a fixed camera and a mobile camera. .

지능형 영상감시 분야에서 듀얼 카메라를 활용한 감시 시스템의 연구는 다양하게 진행되고 있다. 한 대의 고정형 카메라만을 이용해서 넓은 영역을 감시하는 경우, 매우 먼 거리에서 감시하게 되어 실제 감시 대상 물체에 대한 변별력이 떨어지는 문제점이 있다. 한 대의 이동형 카메라만을 이용하는 경우, 하나의 물체를 추적하는 동안 다른 영역을 감시할 수 없어 감시 영역이 순간적으로 너무 좁혀지고, 물체 추적에 대한 정확도도 떨어지는 문제점이 있다. 또한, 이동형 카메라만을 이용할 경우에는 움직이는 물체 추적에 대한 추적 알고리즘의 성능이 아직까지 실용적으로 사용할 수준이 되지 못하며, 특히 확대(zooming) 제어가 어렵기 때문에 고정형 카메라만을 이용하는 경우보다 감시 성능이 떨어지는 문제점이 있다.In the field of intelligent video surveillance, research of surveillance systems using dual cameras has been conducted in various ways. In the case of monitoring a large area using only one fixed camera, there is a problem in that it is monitored at a very long distance so that the discriminating power of the actual monitoring object falls. In case of using only one mobile camera, it is impossible to monitor the other area while tracking one object, so that the monitoring area is momentarily too narrow, and the accuracy of object tracking is also poor. In addition, when using only a moving camera, the performance of the tracking algorithm for tracking a moving object has not yet been practically used. In particular, since zooming control is difficult, surveillance performance is lower than that of using only a fixed camera. have.

고정형 카메라와 이동형 카메라를 동시에 활용할 경우 영역 전체에 대한 감시와 특정 위험 요소에 대한 정밀 감시가 동시에 이뤄질 수 있어, 감시 목적에 있어서 매우 효율적인 이점이 있다. 이러한 이유로 최근에는 듀얼 카메라를 이용한 감시 시스템에 대한 연구가 활발히 진행되고 있다.The use of fixed cameras and mobile cameras at the same time can be used to monitor the entire area at the same time and precisely monitor specific risks, which is very efficient for surveillance purposes. For this reason, researches on surveillance systems using dual cameras have been actively conducted in recent years.

이와 관련하여 특허공개 제2010-0132739호에는 듀얼 카메라를 이용한 모니터링 시스템 및 그 방법에 관하여 개시되어 있다. 이는 두 대의 카메라를 이용하여 넓은 영역과 좁은 영역에 대한 동시 모니터링이 가능하도록 한다. In this regard, Korean Patent Publication No. 2010-0132739 discloses a monitoring system using a dual camera and a method thereof. This allows two cameras to simultaneously monitor large and narrow areas.

기존의 시스템의 경우 두 대의 카메라의 감시 영역이 일치하도록 조절하는데에 한계가 따른다. 이는 실질적으로 두 대의 카메라가 똑같은 위치에 있지 않고 이동형 카메라의 제어로는 보정할 수 없는 회전까지 고려하여야 하기 때문이다. 따라서 종래에는 두 대의 카메라의 시점(view)을 서로 일치시키는 데에 한계가 있으며 두 카메라 영상 간의 위치 정합이 효과적으로 이루어질 수 없는 문제점이 있다.In the existing system, there is a limit to adjusting the surveillance area of two cameras to coincide. This is because the two cameras are not substantially in the same position and must take into account rotations that cannot be compensated by the control of the mobile camera. Therefore, in the related art, there is a limitation in matching views of two cameras with each other, and there is a problem in that position registration between two camera images cannot be effectively performed.

본 발명은 고정형 카메라와 이동형 카메라의 감시 영역을 서로 매칭시켜서 두 카메라의 기본 위치를 설정한 다음 고정형 카메라에서 감지된 이동 물체의 좌표 값을 이동형 카메라의 좌표 값으로 변환하여 이동형 카메라가 이동 물체를 계속해서 추적할 수 있도록 하는 듀얼 카메라를 이용한 화상 감지 방법 및 장치를 제공하는데 목적이 있다.The present invention sets the basic position of the two cameras by matching the surveillance areas of the fixed camera and the mobile camera with each other, and then converts the coordinate value of the moving object detected by the fixed camera into the coordinate value of the mobile camera, and the mobile camera continues the moving object. It is an object of the present invention to provide a method and apparatus for detecting an image using a dual camera that can be tracked.

본 발명은, 실내에 설치된 고정형 카메라 및 이동형 카메라를 포함하는 듀얼 카메라를 이용한 화상 감지 방법에 있어서, 상기 이동형 카메라의 각도를 제어하면서, 상기 고정형 카메라 및 이동형 카메라의 촬상 화면으로부터 각각의 특징점들을 추출하고, 상기 추출된 특징점들 간의 정합 과정을 통해, 상기 고정형 카메라에 대한 상기 이동형 카메라의 기본 위치를 지정하는 단계와, 상기 고정형 카메라에서 감지된 이동 물체에 대한 영상 좌표를 상기 이동형 카메라의 영상 좌표로 변환하는 단계, 및 상기 변환된 좌표 값을 이용하여 상기 이동형 카메라가 상기 이동 물체를 추적하도록 상기 이동형 카메라의 팬 각도, 틸트 각도 및 줌 배율 중 적어도 하나를 제어하는 단계를 포함하는 듀얼 카메라를 이용한 화상 감지 방법을 제공한다.The present invention, in the image detection method using a dual camera including a fixed camera and a mobile camera installed in the room, while extracting the respective feature points from the image pickup screen of the fixed camera and the mobile camera, while controlling the angle of the mobile camera Specifying a basic position of the mobile camera with respect to the fixed camera through a matching process between the extracted feature points, and converting image coordinates of the moving object detected by the fixed camera into image coordinates of the mobile camera. And controlling at least one of a pan angle, a tilt angle, and a zoom magnification of the movable camera so that the movable camera tracks the moving object by using the converted coordinate values. Provide a method.

여기서, 상기 이동형 카메라의 기본 위치를 지정하는 단계는, 상기 이동형 카메라의 각도를 제어하면서 상기 고정형 카메라와 이동형 카메라의 촬상 화면으로부터 각각의 특징점들을 추출한 다음 상기 추출된 특징점들 간을 서로 정합시켜서, 특징점 매칭도가 가장 높은 해당 각도로 상기 이동형 카메라의 초기 위치를 지정하는 단계와, 상기 매칭도가 가장 높은 해당 각도에서의 특징점 정합쌍들 사이의 호모그래피 변환 행렬을 연산하는 단계, 및 상기 호모그래피 변환 행렬로부터 상기 고정형 카메라 상의 좌표와 상기 이동형 카메라 상의 좌표 간의 차이값을 계산하고, 상기 차이값이 임계치 미만이 될 때까지 상기 이동형 카메라의 각도를 움직여서 상기 특징점 정합을 재수행한 다음 특징점 정합쌍들 사이의 호모그래피 변환 행렬을 재연산하는 과정을 반복하여 상기 이동형 카메라의 기본 위치를 지정하는 단계를 포함할 수 있다.Here, the step of designating the basic position of the mobile camera, extracting the respective feature points from the image pickup screen of the fixed camera and the mobile camera while controlling the angle of the mobile camera, and then match the extracted feature points with each other, Designating an initial position of the mobile camera at the corresponding angle with the highest matching degree, calculating a homography transformation matrix between feature point matching pairs at the corresponding angle with the highest matching degree, and the homography transformation Compute a difference value between the coordinates on the fixed camera and the coordinates on the mobile camera from a matrix, re-implement the feature point matching by moving the angle of the mobile camera until the difference is less than a threshold, and then between the feature match pairs. Recomputation of the homography transformation matrix A may be repeated, including the step of specifying the default location of the mobile camera.

또한, 상기 이동형 카메라의 초기 위치를 지정하는 단계는, 상기 이동형 카메라의 팬 각도 또는 틸트 각도를 조절하면서, 상기 팬 각도 또는 틸트 각도 별로 추출되는 상기 고정형 카메라의 촬상 영상에 대한 제1 특징점들과 상기 이동형 카메라의 촬상 영상에 대한 제2 특징점들을 서로 정합하는 단계와, 상기 팬 각도 또는 틸트 각도 별로, 상기 서로 정합되는 특징점 쌍들의 개수를 파악하고, 상기 정합되는 특징점 쌍들의 개수가 가장 많이 출력되는 팬 또는 틸트 각도를 선정하는 단계, 및 상기 선정된 팬 또는 틸트 각도로 상기 이동형 카메라를 제어하여 상기 이동형 카메라의 초기 위치를 지정하는 단계를 포함할 수 있다.The specifying of the initial position of the mobile camera may include: first feature points for the captured image of the fixed camera extracted by the pan angle or the tilt angle while adjusting the pan angle or the tilt angle of the mobile camera; Matching the second feature points with respect to the captured image of the mobile camera, and determining the number of pairs of feature points matched with each other by the pan angle or the tilt angle, and outputting the largest number of matched feature point pairs. Or selecting a tilt angle, and controlling the movable camera by the selected pan or tilt angle to designate an initial position of the movable camera.

그리고, 상기 호모그래피 변환 행렬을 연산하는 단계는, 상기 호모그래피 변환 행렬을 아래의 수학식으로 연산할 수 있다.In the calculating of the homography transformation matrix, the homography transformation matrix may be calculated by the following equation.

Figure 112012028621400-pat00001
,
Figure 112012028621400-pat00001
,

여기서, Hij는 상기 변환 파라미터, ω는 좌표 간 스케일, i는 1부터 N 사이의 정수,

Figure 112012028621400-pat00002
는 상기 고정형 카메라에서 검출된 N개의 제1 특징점 좌표들,
Figure 112012028621400-pat00003
는 상기 이동형 카메라에서 상기 제1 특징점 좌표들과 매칭된 N개의 제2 특징점 좌표들을 나타낸다.Where H ij is the conversion parameter, ω is the inter-scale scale, i is an integer from 1 to N,
Figure 112012028621400-pat00002
Are N first feature point coordinates detected by the fixed camera,
Figure 112012028621400-pat00003
Denotes N second feature point coordinates matched with the first feature point coordinates in the mobile camera.

또한, 상기 고정형 카메라 상의 좌표와 상기 이동형 카메라 상의 좌표 간의 차이값은, 상기 고정형 카메라의 촬상 화면에서의 중심 좌표와, 상기 호모그래피 변환 행렬에 상기 중심 좌표를 대입하여 획득되는 대응점 좌표 사이의 차이값일 수 있다.The difference value between the coordinate on the fixed camera and the coordinate on the mobile camera is a difference value between a center coordinate on an image captured by the fixed camera and a corresponding point coordinate obtained by substituting the center coordinate in the homography transformation matrix. Can be.

또한, 상기 고정형 카메라에서 감지된 이동 물체에 대한 영상 좌표를 상기 이동형 카메라의 영상 좌표로 변환하는 단계는, 상기 좌표 변환 시 상기 호모그래피 변환 행렬 또는 들로네 삼각화 기법을 사용할 수 있다.The method may further include converting the image coordinates of the moving object detected by the fixed camera into the image coordinates of the mobile camera, using the homography transformation matrix or the Delaunay triangulation technique.

또한, 상기 이동형 카메라의 팬 각도, 틸트 각도 및 줌 배율 중 적어도 하나를 제어하는 단계는, 상기 이동형 카메라의 전체 영상의 가로 크기(w)에 대비한 상기 추적된 이동 물체의 가로 크기(w0)의 비율 값(rw=w0/w), 그리고 상기 이동형 카메라의 전체 영상의 세로 크기(h)에 대비한 상기 추적된 이동 물체의 세로 크기(h0)의 비율 값(rh=h0/h)을 비교한 다음, 그 중 더 작은 비율 값을 현재 이동 물체에 대한 이동형 카메라의 배율(r0)에 곱하여 최종적인 줌 배율 r을 아래의 수학식으로 결정할 수 있다.The controlling of at least one of the pan angle, the tilt angle and the zoom magnification of the mobile camera may include: the horizontal size w 0 of the tracked moving object in relation to the horizontal size w of the entire image of the mobile camera. The ratio value (r w = w 0 / w) of, and the ratio value (r h = h 0 of the vertical size (h 0 ) of the tracked moving object relative to the vertical size (h) of the entire image of the mobile camera. / h) and then multiply the smaller ratio value by the magnification r 0 of the movable camera for the current moving object to determine the final zoom magnification r with the following equation.

Figure 112012028621400-pat00004
Figure 112012028621400-pat00004

여기서, min()은 최소값 연산을 나타낸다.Where min () represents the minimum value operation.

그리고, 본 발명은 실내에 설치된 고정형 카메라 및 이동형 카메라를 포함하는 듀얼 카메라를 이용한 화상 감지 장치에 있어서, 상기 이동형 카메라의 각도를 제어하면서, 상기 고정형 카메라 및 이동형 카메라의 촬상 화면으로부터 각각의 특징점들을 추출하고, 상기 추출된 특징점들 간의 정합 과정을 통해, 상기 고정형 카메라에 대한 상기 이동형 카메라의 기본 위치를 지정하는 감시영역 정합부와, 상기 고정형 카메라에서 감지된 이동 물체에 대한 영상 좌표를 상기 이동형 카메라의 영상 좌표로 변환하는 좌표 변환부, 및 상기 변환된 좌표 값을 이용하여 상기 이동형 카메라가 상기 이동 물체를 추적하도록 상기 이동형 카메라의 팬 각도, 틸트 각도 및 줌 배율 중 적어도 하나를 제어하는 카메라 제어부를 포함하는 듀얼 카메라를 이용한 화상 감지 장치를 제공한다.In addition, the present invention is an image sensing device using a dual camera including a fixed camera and a mobile camera installed in the room, while extracting the respective feature points from the image pickup screen of the fixed camera and the mobile camera, while controlling the angle of the mobile camera And, through the matching process between the extracted feature points, the surveillance region matching unit for designating the basic position of the mobile camera relative to the fixed camera, and the image coordinates of the moving object detected by the fixed camera of the mobile camera And a camera controller for controlling at least one of a pan angle, a tilt angle, and a zoom ratio of the mobile camera so that the mobile camera tracks the moving object by using the converted coordinate value. Image detection with dual camera Provide a device.

여기서, 상기 감시영역 정합부는, 상기 이동형 카메라의 각도를 제어하면서 상기 고정형 카메라와 이동형 카메라의 촬상 화면으로부터 각각의 특징점들을 추출한 다음 상기 추출된 특징점들 간을 서로 정합시켜서, 특징점 매칭도가 가장 높은 해당 각도로 상기 이동형 카메라의 초기 위치를 지정하는 초기위치 지정부와, 상기 매칭도가 가장 높은 해당 각도에서의 특징점 정합쌍들 사이의 호모그래피 변환 행렬을 연산하는 변환행렬 연산부, 및 상기 호모그래피 변환 행렬로부터 상기 고정형 카메라 상의 좌표와 상기 이동형 카메라 상의 좌표 간의 차이값을 계산하고, 상기 차이값이 임계치 미만이 될 때까지 상기 이동형 카메라의 각도를 움직여서 상기 특징점 정합을 재수행한 다음 특징점 정합쌍들 사이의 호모그래피 변환 행렬을 재연산하는 과정을 반복하여 상기 이동형 카메라의 기본 위치를 지정하는 기본위치 지정부를 포함할 수 있다.Here, the surveillance region matching unit extracts the respective feature points from the image pickup screens of the fixed camera and the mobile camera while controlling the angle of the mobile camera, and then matches the extracted feature points with each other, so that the feature point matching is highest. An initial position designation unit for designating an initial position of the mobile camera by an angle, a transformation matrix computing unit for computing a homography transformation matrix between feature point matching pairs at the corresponding angle with the highest matching degree, and the homography transformation matrix Calculates a difference value between the coordinates on the fixed camera and the coordinates on the mobile camera, re-implements the feature point matching by moving the angle of the mobile camera until the difference is less than a threshold, and then homogeneous between feature match pairs. To recompute the graph transformation matrix Repeatedly may include a basic position designator for designating the basic position of the mobile camera.

본 발명에 따른 듀얼 카메라를 이용한 화상 감지 장치에 따르면, 고정형 카메라와 이동형 카메라의 감시 영역을 서로 매칭시켜서 두 카메라의 기본 위치를 설정한 다음, 고정형 카메라에서 감지된 이동 물체의 좌표 값을 이동형 카메라의 좌표 값으로 변환하여 이동형 카메라가 이동 물체를 계속해서 추적할 수 있도록 하여 이동형 카메라를 효과적으로 제어하며 감시 효율을 높일 수 있는 이점이 있다.According to the image sensing apparatus using the dual camera according to the present invention, by setting the basic position of the two cameras by matching the surveillance area of the fixed camera and the mobile camera with each other, the coordinate value of the moving object detected by the fixed camera is By converting to coordinate values, the mobile camera can keep track of the moving object, thereby effectively controlling the moving camera and increasing surveillance efficiency.

도 1은 본 발명의 실시예에 따른 듀얼 카메라를 이용한 화상 감지 장치의 구성도이다.
도 2는 도 1의 감시영역 정합부의 구성도이다.
도 3은 도 1을 이용한 듀얼 카메라를 이용한 화상 감지 방법의 흐름도이다.
도 4는 본 발명의 실시예를 위해 이동형 카메라의 위치를 수동으로 조정하여 이동형 카메라의 뷰가 최대한 고정형 카메라의 뷰와 일치하도록 조작한 모습의 예를 나타낸다.
도 5는 도 3의 S310 단계에서 특징점 정합 결과의 예이다.
도 6은 본 발명의 실시예를 위해 이동형 카메라 영상 내의 특징점들을 들로네 삼각화 한 결과 예를 나타낸다.
도 7은 본 발명의 성능 테스트에 사용된 두 카메라의 설치 모습을 나타낸다.
도 8은 본 발명의 실시예를 위한 실험에 사용된 고정형 카메라의 레퍼런스 영상을 나타낸다.
도 9는 도 8의 레퍼런스 영상에 대한 이동형 카메라의 자동 위치 설정에 따른 중심 이동의 결과이다.
도 10은 본 발명의 실시예에서 좌표 변환의 성능을 알아보기 위해 고정형 카메라에서 선택한 지점들을 나타낸다.
도 11은 본 발명의 실시예에서 좌표 변환의 성능을 알아보기 위해, 두 개의 좌표 변환 알고리즘으로 각각 좌표 변환된 점들을 나타낸다.
도 12는 도 11의 들로네 삼각화를 통한 방법과 호모그래피 행렬을 이용한 방법에 대한 변환 오차를 3차원으로 표현한 것이다.
도 13 및 도 14는 본 발명의 방법을 통해 최종적으로 이동형 카메라에 의해 제어된 결과를 나타낸다.
1 is a block diagram of an image sensing device using a dual camera according to an embodiment of the present invention.
FIG. 2 is a configuration diagram of the monitoring area matching unit of FIG. 1.
3 is a flowchart of an image sensing method using a dual camera using FIG. 1.
4 illustrates an example of a state in which the position of the movable camera is manually adjusted for the embodiment of the present invention and the view of the movable camera is manipulated to match the view of the fixed camera as much as possible.
5 is an example of a feature point matching result in step S310 of FIG. 3.
6 illustrates an example of Delaunay triangulation of feature points in a mobile camera image for an embodiment of the present invention.
Figure 7 shows the installation of the two cameras used in the performance test of the present invention.
8 shows a reference image of a fixed camera used in an experiment for an embodiment of the present invention.
9 is a result of the center of movement according to the automatic positioning of the mobile camera with respect to the reference image of FIG.
10 illustrates points selected by the fixed camera in order to find out the performance of the coordinate transformation in the embodiment of the present invention.
FIG. 11 illustrates points coordinated by two coordinate transformation algorithms in order to determine the performance of coordinate transformation in an embodiment of the present invention.
FIG. 12 is a three-dimensional representation of a transformation error between the Delaunay triangulation method of FIG. 11 and the method using a homography matrix.
13 and 14 show the results finally controlled by the mobile camera through the method of the present invention.

그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention.

도 1은 본 발명의 실시예에 따른 듀얼 카메라를 이용한 화상 감지 장치의 구성도이다. 본 발명은 실내에 설치된 고정형 카메라(10) 및 이동형 카메라(20)를 포함하는 듀얼 카메라를 이용한 화상 감지 장치(100)에 관한 것이다.1 is a block diagram of an image sensing device using a dual camera according to an embodiment of the present invention. The present invention relates to an image sensing device 100 using a dual camera including a fixed camera 10 and a mobile camera 20 installed indoors.

두 대의 카메라(10,20)로 감시기능을 높이기 위해서는 먼저 각각의 카메라의 역할 정의가 필요하다. 고정형 카메라(10)는 감시영역의 전체를 관할한다는 의미로 글로벌(Grobal) 카메라로 정의할 수 있으며, 이동형 카메라(20)는 움직이는 물체의 세세한 부분을 감시한다는 의미로 로컬(Local) 카메라로 정의할 수 있다.In order to enhance the surveillance function with the two cameras 10 and 20, a role definition of each camera is required. The fixed camera 10 may be defined as a global camera in the sense of jurisdiction of the entire surveillance area, and the movable camera 20 may be defined as a local camera in the sense of monitoring a small part of a moving object. Can be.

고정형 카메라(10)는 일반적인 화상 감시 시스템의 카메라 역할을 수행하면서 입력 영상을 통하여 움직이는 이동 물체 정보(중심좌표(x,y)와 크기정보(s))를 획득하는 역할을 한다. 고정형 카메라(10)에서 획득된 움직이는 물체 정보(G(x,y,s))는 이동형 카메라(20)의 영상 좌표로 변환되며 이동형 카메라(20)에서 움직이는 물체를 계속해서 추적하기 위해 팬 및 틸트 제어를 수행하고, 이동하는 물체의 변별력을 높이기 위해 배율을 높이는 줌(zoom) 제어를 수행하게 된다.The fixed camera 10 serves as a camera of a general video surveillance system and acquires moving object information (center coordinates (x, y) and size information (s)) moving through an input image. The moving object information G (x, y, s) obtained from the fixed camera 10 is converted into the image coordinates of the moving camera 20 and pan and tilt to continuously track the moving object from the moving camera 20. The control is performed, and a zoom control is performed to increase the magnification to increase the discriminating power of the moving object.

이동형 카메라(20)의 제어 목적은 최대한 움직이는 물체를 추적하면서, 추적 물체의 변별력을 높이기 위해 최대한 감시화면에 적당한 배율로 확대하여 모니터링하는 것이다. The control purpose of the mobile camera 20 is to monitor the moving object as much as possible, while increasing the discrimination power of the tracking object to monitor the magnification at a suitable magnification as much as possible.

이러한 감시 시스템을 위해서는 먼저 두 카메라(10,20)의 영상을 물리적인 방법으로 비슷하게 정합시키기 위한 두 카메라(10,20)의 기본 위치 자동 설정 과정과, 두 카메라(10,20) 간의 영상 좌표를 소프트웨어적인 방법으로 정밀하기 일치시키기 위한 두 카메라(10,20) 간의 영상 좌표 변환 과정, 그리고 이동형 카메라(20)를 팬(Pan)/틸트(Tilt)/줌(Zoom) 제어하는 과정이 요구된다. For such a surveillance system, first of all, the process of automatically setting the basic positions of the two cameras 10 and 20 to similarly match the images of the two cameras 10 and 20 in a physical manner, and the image coordinates between the two cameras 10 and 20 A process of converting image coordinates between the two cameras 10 and 20 and a process of pan / tilt / zoom control of the mobile camera 20 for precise matching by a software method are required.

이를 위해, 상기 화상 감지 장치(100)는 감시영역 정합부(110), 좌표 변환부(120), 카메라 제어부(130)를 포함한다.To this end, the image sensing apparatus 100 includes a surveillance area matching unit 110, a coordinate converter 120, and a camera controller 130.

우선, 상기 감시영역 정합부(110)는 상기 고정형 카메라(10) 및 이동형 카메라(20)의 촬상 화면을 이용하여 상기 고정형 카메라(10) 및 이동형 카메라(20)의 감시 영역을 서로 정합시키는 부분으로서, 두 카메라(10,20) 간의 영상을 비슷하게 맞추기 위하여 이동형 카메라(20)의 기본 위치를 지정한다.First, the surveillance region matching unit 110 is a portion for matching the surveillance region of the fixed camera 10 and the mobile camera 20 with each other by using an image captured by the fixed camera 10 and the mobile camera 20. In order to fit the image between the two cameras 10 and 20 similarly, the basic position of the mobile camera 20 is designated.

구체적으로는, 상기 감시영역 정합부(110)는 이동형 카메라(20)의 각도를 제어하면서, 상기 고정형 카메라(10) 및 이동형 카메라(20)의 촬상 화면으로부터 각각의 특징점들을 추출하고, 상기 추출된 특징점들 간의 정합 과정을 통해, 상기 고정형 카메라(10)에 대한 상기 이동형 카메라(20)의 기본 위치를 지정한다. 이를 통해 두 카메라(10,20) 간의 감시 영역에 관한 기본 정합이 가능해진다.Specifically, the surveillance area matching unit 110 extracts respective feature points from the captured screens of the fixed camera 10 and the mobile camera 20, while controlling the angle of the mobile camera 20. Through the matching process between the feature points, the basic position of the mobile camera 20 with respect to the fixed camera 10 is specified. This enables basic matching of the surveillance area between the two cameras 10 and 20.

도 2는 도 1의 감시영역 정합부의 구성도이다. 도 2와 같이, 감시영역 정합부(110)는 초기위치 지정부(111), 변환행렬 연산부(112), 기본위치 지정부(113)를 포함한다.FIG. 2 is a configuration diagram of the monitoring area matching unit of FIG. 1. As illustrated in FIG. 2, the surveillance area matching unit 110 includes an initial position designation unit 111, a transformation matrix operation unit 112, and a basic position designation unit 113.

상기 초기위치 지정부(111)는 이동형 카메라(20)의 각도를 제어하면서 상기 고정형 카메라(10)와 이동형 카메라(20)의 촬상 화면으로부터 각각의 특징점들을 추출한 다음 상기 추출된 특징점들 간을 서로 정합시켜서, 특징점 매칭도가 가장 높은 해당 각도로 상기 이동형 카메라(20)의 '초기 위치'를 대략적으로 지정하는 부분이다.The initial position designation unit 111 extracts each feature point from an image captured by the fixed camera 10 and the mobile camera 20 while controlling the angle of the mobile camera 20, and then matches the extracted feature points with each other. In this case, the initial position of the mobile camera 20 is approximately designated at the corresponding angle having the highest feature point matching degree.

상기 변환행렬 연산부(112)는 상기 매칭도가 가장 높은 해당 각도에서의 특징점 정합쌍들 사이의 호모그래피 변환 행렬을 연산하는 부분이다.The transformation matrix operation unit 112 is a part for calculating a homography transformation matrix between feature point matching pairs at the corresponding angle having the highest matching degree.

상기 기본위치 지정부(113)는 상기 호모그래피 변환 행렬로부터 상기 고정형 카메라(10) 상의 좌표와 상기 이동형 카메라(20) 상의 좌표 간의 차이값을 계산하고, 상기 차이값이 임계치 미만이 될 때까지 상기 이동형 카메라(20)의 각도를 움직여서 상기 특징점 정합을 재수행한 다음 특징점 정합쌍들 사이의 호모그래피 변환 행렬을 재연산하는 과정을 반복하여, 상기 이동형 카메라(20)의 '기본 위치'를 지정하는 부분이다. The basic position designation unit 113 calculates a difference value between the coordinates on the fixed camera 10 and the coordinates on the mobile camera 20 from the homography transformation matrix, until the difference is less than a threshold. By repeating the feature point matching by moving the angle of the mobile camera 20, and repeating the recomputation of the homography transformation matrix between the pairs of feature points, the portion specifying the 'base position' of the mobile camera 20 to be.

즉, 이러한 이동형 카메라(20)의 기본 위치는 앞서의 초기 위치에 비하여 보다 정밀한 보정을 통해 얻어진 위치를 의미하는 것이다. 이상과 같은 감시영역 정합부(110)는 이동형 카메라(20)를 물리적으로 이동시켜서 두 카메라(10,20) 간의 영상을 비슷하게 맞추기 위한 것으로서, 이에 관한 보다 구체적인 설명은 후술할 것이다.That is, the basic position of the mobile camera 20 refers to a position obtained through more accurate correction than the initial position. The surveillance area matching unit 110 as described above is to physically move the mobile camera 20 to fit the image between the two cameras 10 and 20 similarly, which will be described later in more detail.

상기 이동형 카메라(20)의 기본 위치의 지정에 따르면, 두 카메라(10,20) 사이의 중심 위치는 서로 일치하게 되지만, 두 카메라(10,20) 간의 회전 등에 대한 보정은 반영되지 않다. According to the designation of the basic position of the movable camera 20, the center positions between the two cameras 10 and 20 are coincident with each other, but corrections for the rotation between the two cameras 10 and 20 are not reflected.

상기 좌표 변환부(120)는 이를 보정하기 위한 것으로서, 실제로 고정형 카메라(10)에서 감지된 이동 물체에 대한 영상 좌표 값을 이동형 카메라(20)의 영상 좌표 값으로 변환한다. 좌표 변환 알고리즘으로는 호모그래피 변환 행렬을 이용한 파라미터적 방법 또는 들로네 삼각화(Delaunay Triangulation)를 이용한 비파라미터적 방법을 사용할 수 있다. 이러한 좌표 변환 과정은 두 카메라(10,20) 간의 영상 좌표를 소프트웨어적으로 일치시키기 위한 것이다.The coordinate conversion unit 120 is for correcting this, and actually converts the image coordinate value of the moving object detected by the fixed camera 10 into the image coordinate value of the mobile camera 20. As a coordinate transformation algorithm, a parametric method using a homography transformation matrix or a nonparametric method using Delaunay triangulation may be used. This coordinate conversion process is for software matching the image coordinates between the two cameras (10,20).

카메라 제어부(130)는 상기 변환된 좌표 값을 이용하여 상기 이동형 카메라(20)가 상기 이동 물체를 추적하도록, 이동형 카메라(20)의 팬 각도, 틸트 각도 및 줌 배율 중 적어도 하나를 실질적으로 제어한다. 이에 따르면, 고정형 카메라(10)에서 감지된 이동 물체를 이동형 카메라(20)를 통해 실시간 추적할 수 있게 하고 이동 물체를 확대 표시하여 감시 변별력 및 감시 효율을 높이도록 한다.The camera controller 130 substantially controls at least one of a pan angle, a tilt angle and a zoom ratio of the movable camera 20 so that the movable camera 20 tracks the moving object using the converted coordinate value. . According to this, the moving object detected by the fixed camera 10 can be tracked in real time through the moving camera 20 and the moving object is enlarged and displayed to increase the monitoring discrimination power and the monitoring efficiency.

이하에서는 본 발명의 실시예에 따른 듀얼 카메라를 이용한 화상 감지 방법에 관하여 상세히 설명한다. 도 3은 도 1을 이용한 듀얼 카메라를 이용한 화상 감지 방법의 흐름도이다.Hereinafter, an image detection method using a dual camera according to an embodiment of the present invention will be described in detail. 3 is a flowchart of an image sensing method using a dual camera using FIG. 1.

우선 감시 영역의 정합이 용이하도록 사전에 두 카메라(10,20)는 미리 최대한 가까운 위치에 설치되도록 한다. 도 4는 본 발명의 실시예를 위해 이동형 카메라를 수동으로 조정하여 이동형 카메라(20)의 뷰가 최대한 고정형 카메라(10)의 뷰와 일치하도록 조작한 모습의 예를 나타낸다. First, the two cameras 10 and 20 are installed in advance as close as possible to facilitate matching of the surveillance area. 4 shows an example of a state in which the mobile camera 20 is manually adjusted for the embodiment of the present invention so that the view of the mobile camera 20 is operated to match the view of the fixed camera 10 as much as possible.

도 4의 (a)는 고정형 카메라(10)에 의한 촬상 영역인 레퍼런스 영역을 나타내고, (b)는 그에 대응되는 이동형 카메라(20)의 촬상 영역을 나타낸다. 즉, 도 4와 같이 S210 단계의 실행 전에 두 카메라(10,20)의 뷰가 최대한 같도록 사용자가 이동형 카메라(20)를 임의로 수동 조작해두는 것이 바람직하다.FIG. 4A illustrates a reference region which is an imaging region by the fixed camera 10, and FIG. 4B illustrates an imaging region of the mobile camera 20 corresponding thereto. That is, as shown in FIG. 4, it is preferable that the user arbitrarily manually manipulates the movable camera 20 so that the views of the two cameras 10 and 20 are the same as before the execution of step S210.

다음, 감시영역 정합부(110)에서는 고정형 카메라(10) 및 이동형 카메라(20)의 촬상 화면을 이용하여 상기 고정형 카메라(10) 및 이동형 카메라(20)의 감시 영역을 서로 정합시킨다(S310). 이러한 정합 과정은 카메라의 위치를 물리적으로 이동시켜서 두 카메라(10,20)가 최대한 비슷한 뷰를 이루도록 하는 두 카메라의 초기 위치 지정 과정이다.Next, in the surveillance area matching unit 110, the surveillance areas of the fixed camera 10 and the mobile camera 20 are matched with each other by using the captured screens of the fixed camera 10 and the mobile camera 20 (S310). This registration process is an initial positioning process of the two cameras to physically move the position of the camera so that the two cameras 10 and 20 achieve a similar view as much as possible.

즉, S310 단계는 상기 이동형 카메라(20)의 각도를 제어하면서, 상기 고정형 카메라(10) 및 이동형 카메라(20)의 촬상 화면으로부터 각각의 특징점들을 추출하고, 상기 추출된 특징점들 간의 정합 과정을 통해, 상기 고정형 카메라(10)에 대한 상기 이동형 카메라의 기본 위치를 지정하는 과정이다.That is, the step S310 extracts the respective feature points from the image capturing screens of the fixed camera 10 and the mobile camera 20 while controlling the angle of the mobile camera 20, and performs matching between the extracted feature points. The process of designating a basic position of the mobile camera with respect to the fixed camera 10.

상기 S310 단계는 이동형 카메라(20)의 초기 위치 지정 과정(S311), 호모그래피 변환 행렬 연산 과정(S312), 그리고 이동형 카메라(20)의 기본 위치 지정 과정(S313)을 포함하는 세 가지 과정으로 세분화될 수 있다. The step S310 is subdivided into three processes including an initial positioning process S311 of the mobile camera 20, a homography transformation matrix operation S312, and a basic positioning process S313 of the mobile camera 20. Can be.

먼저, 상기 S311 단계를 설명하면 다음과 같다. 초기위치 지정부(111)에서는 상기 이동형 카메라(20)의 팬 각도 또는 틸트 각도를 조절하면서, 상기 팬 각도 또는 틸트 각도 별로 추출되는 상기 고정형 카메라(10)의 촬상 영상에 대한 제1 특징점들과, 상기 이동형 카메라(20)의 촬상 영상에 대한 제2 특징점들을 서로 정합한다(S311a).First, the step S311 will be described. The initial position designation unit 111 adjusts the pan angle or the tilt angle of the movable camera 20, and first feature points for the captured image of the fixed camera 10 extracted for each pan angle or tilt angle, The second feature points of the captured image of the mobile camera 20 are matched with each other (S311a).

즉, 앞서와 같이 미리 세팅된 고정형 카메라(10)의 촬상 영상으로부터 복수 개의 제1 특징점을 추출하고, 또한 이동형 카메라(20)의 촬상 영상으로부터 복수 개의 제2 특징점을 추출하되, 이러한 특징점들을 상기 이동형 카메라(20)의 각도 별로 추출한다.That is, a plurality of first feature points are extracted from the captured image of the fixed camera 10 preset as described above, and a plurality of second feature points are extracted from the captured image of the mobile camera 20, but the feature points are moved. It extracts for each angle of the camera 20.

상기 특징점이란 촬상 영상 내에 존재하는 물체의 모서리들 또는 그 밖의 다양한 특징점에 해당될 수 있다. 본 실시예에서는 SURF(Speeded Up Robus Features) 특징점 검출 방법을 사용할 수 있는데, 본 발명이 반드시 이에 한정되는 것은 아니다.  The feature point may correspond to corners of an object existing in the captured image or various other feature points. In this embodiment, a method of detecting a speeded up robus features (SURF) may be used, but the present invention is not necessarily limited thereto.

도 5는 도 3의 S310 단계에서 특징점 정합 결과의 예이다. 즉, 각 카메라(10,20)에서 제1 특징점들과 제2 특징점들이 검출되면, 상기 제1 특징점들과 제2 특징점들을 정합하는 과정을 거친다. 정합 결과는 도 5와 같이 매칭된 특징점 쌍들을 서로 연결한 라인들을 통해 파악할 수 있다. 따라서 도 5의 (a)는 성공적인 특징점 정합 결과를 나타내고, (b)는 두 촬상 영상의 차이로 인해 특징점 정합이 실패한 경우를 나타낸다. 5 is an example of a feature point matching result in step S310 of FIG. 3. That is, when the first feature points and the second feature points are detected by the cameras 10 and 20, the first feature points and the second feature points are matched with each other. The matching result may be identified through lines connecting the matched pairs of feature points as shown in FIG. 5. Accordingly, FIG. 5A illustrates a successful feature point matching result, and FIG. 5B illustrates a case where feature point matching fails due to a difference between two captured images.

여기서, 특징점의 정합 원리는 기존에 공지된 다양한 방법이 사용될 수 있으며, 그 예로서 특징점 부근의 영상이 가지고 있는 밝기 분포 특성 또는 그래디언트(gradient; 1차 미분영상)의 분포 특성을 이용할 수 있다. 상기 SURF 알고리즘은 특징점의 추출 방법과 특징점의 정합 방법을 모두 포함하는 방식이다.Here, as the matching principle of the feature points, various methods known in the art may be used. For example, the brightness distribution characteristic of the image near the feature point or the distribution characteristic of the gradient (first differential image) may be used. The SURF algorithm includes both a method of extracting feature points and a method of matching feature points.

본 실시예에서 제1 특징점들과 제2 특징점들의 정합 과정은 이동형 카메라(20)의 팬 각도 또는 틸트 각도 별로 수행하며, 이러한 과정을 통해 추후 이동형 카메라(20)의 초기 위치를 결정할 수 있게 된다.In this embodiment, the matching process of the first feature points and the second feature points is performed for each pan angle or tilt angle of the mobile camera 20, and through this process, an initial position of the mobile camera 20 can be determined later.

따라서, 초기위치 지정부(111)는 상기 팬 각도 또는 틸트 각도 별로, 상기 서로 정합되는 특징점 쌍들의 개수를 파악하고, 상기 정합되는 특징점 쌍들의 개수가 가장 많이 출력되는 팬 또는 틸트 각도를 선정한 다음(S311b), 선정된 팬 또는 틸트 각도로 상기 이동형 카메라(20)의 각도를 제어하여 상기 이동형 카메라(20)의 초기 위치를 지정한다(S311c).Therefore, the initial position designation unit 111 determines the number of pairs of feature points that are matched with each other by the pan angle or tilt angle, and selects the pan or tilt angle at which the number of pairs of feature points is most output. S311b), the angle of the mobile camera 20 is controlled by the selected pan or tilt angle to designate an initial position of the mobile camera 20 (S311c).

다시 말해서, 초기위치 지정부(111)는 상기 이동형 카메라(20)의 위치를 바꾸어 가면서 정합 과정을 거쳐, 가장 정합이 잘 이루어지는 이동형 카메라(20)의 위치를 보정을 실시할 초기 위치로 지정한다. 이를 위해, 이동형 카메라(20)의 각도 별로, 제1 특징점들과 제2 특징점들 사이에 서로 매칭되는 특징점 쌍들이 몇 개인지 파악하고, 가장 매칭도가 높은 특징점 쌍들을 출력하는 해당 팬 또는 틸트 각도를 선정하고, 이 선정된 각도로 상기 이동형 카메라(20)의 각도를 제어하여 감시 영역 정합을 시작하기 위한 초기 위치를 결정하게 된다.In other words, the initial position designation unit 111 performs a matching process while changing the position of the mobile camera 20, and designates the position of the mobile camera 20 that is most well matched as an initial position to be corrected. To this end, for each angle of the movable camera 20, the corresponding pan or tilt angle for identifying how many pairs of feature points match each other between the first feature points and the second feature points, and outputting the most matching feature point pairs Then, by controlling the angle of the mobile camera 20 by the selected angle to determine the initial position for starting the surveillance area registration.

그 예는 다음과 같다. 이동형 카메라(20)의 배율을 낮게 조절하여 대상을 멀리서 바라보도록 한 다음 일정 간격(ex, 30도 간격)으로 팬 각도(또는 틸트 각도)를 조절하면서 각 각도별로 제2 특징점들을 추출한다. 그런 다음, 각 각도별 정합 결과로부터, 초기 위치 설정을 위한 이동형 카메라(20)의 팬 각도 또는 틸트 각도를 결정한다. 즉, 고정형 카메라(10)에 의한 레퍼런스 영상에서의 제1 특징점들과 이동형 카메라(20)에서의 제2 특징점들 사이의 매칭 개수가 가장 많은 경우에 해당되는 이동형 카메라(20)의 특정 각도를 탐색하고, 탐색된 특정 각도로 이동형 카메라(20)의 초기 위치를 지정한다. An example is as follows. The magnification of the mobile camera 20 is adjusted to be low to look at the object from a distance, and then the second feature points are extracted for each angle while adjusting the pan angle (or tilt angle) at a predetermined interval (eg, 30 degree interval). Then, the pan angle or the tilt angle of the mobile camera 20 for initial position setting is determined from the matching result for each angle. That is, the specific angle of the mobile camera 20 corresponding to the case where the number of matching between the first feature points in the reference image by the fixed camera 10 and the second feature points in the mobile camera 20 is the largest is searched. Then, the initial position of the mobile camera 20 is designated at the found specific angle.

앞서 S311 단계와 같이 정합을 위한 초기 위치가 지정되면, 상기 변환행렬 연산부(112)에서는 보다 정밀한 정합을 위하여 매칭된 특징점 간의 변환 행렬, 즉 호모그래피 행렬을 연산한다(S312). 이는 앞서 매칭도가 가장 높은 해당 각도에서의 특징점 정합쌍들 사이의 호모그래피 변환 행렬을 연산하는 과정이다.When the initial position for matching is specified in step S311, the transformation matrix operation unit 112 calculates a transformation matrix between the matched feature points, that is, a homography matrix, for more accurate matching (S312). This is a process of calculating a homography transformation matrix between feature point matching pairs at the corresponding angle having the highest matching degree.

상기 호모그래피 변환 행렬은 아래의 수학식 1과 같다.The homography transformation matrix is represented by Equation 1 below.

Figure 112012028621400-pat00005
Figure 112012028621400-pat00005

여기서, H는 상기 변환 파라미터, ω는 좌표 간 스케일, i는 1부터 N 사이의 정수이다. 상기 좌표 간 스케일이란 각 카메라(10,20)의 초점 거리 등에 의해 결정되는 것으로서 두 카메라(10,20)의 확대나 축소에 따른 크기 차에 대응된다.

Figure 112012028621400-pat00006
는 상기 고정형 카메라(10)에서 검출된 N개의 제1 특징점 좌표들이다.
Figure 112012028621400-pat00007
는 상기 이동형 카메라(20)에서 상기 제1 특징점 좌표들과 매칭된 N개의 제2 특징점 좌표들을 나타낸다. 이에 따라,
Figure 112012028621400-pat00008
Figure 112012028621400-pat00009
는 i번째 대응되는 특징점 정합쌍을 나타낸다. Where H is the transformation parameter, ω is the inter-scale scale, and i is an integer between 1 and N. The scale between the coordinates is determined by the focal length of the cameras 10 and 20, and corresponds to the size difference according to the enlargement or reduction of the two cameras 10 and 20.
Figure 112012028621400-pat00006
Are N first feature point coordinates detected by the fixed camera 10.
Figure 112012028621400-pat00007
Denotes N second feature point coordinates matched with the first feature point coordinates in the mobile camera 20. Accordingly,
Figure 112012028621400-pat00008
Wow
Figure 112012028621400-pat00009
Denotes the i-th corresponding feature point matching pair.

수학식 1의 호모그래피 행렬의 파라미터는 N개의 매칭된 특징점을 활용하여 수학식 2의 방식을 통해 계산할 수 있다.The parameter of the homography matrix of Equation 1 may be calculated by using Equation 2 using N matched feature points.

Figure 112012028621400-pat00010
Figure 112012028621400-pat00010

여기서, 고정형 카메라(10)의 촬상 화면에서의 중심 좌표 C(x,y)와, 수학식 1의 호모그래피 행렬 H에 상기 중심 좌표 C(x,y)를 대입하여 획득되는 대응점 좌표 C'(x,y) 사이의 차이값 즉, ΔC(x,y)가 곧 두 카메라(10,20)의 영상 간의 차이가 된다. 따라서, 해당 차이를 상쇄할 수 있도록 이동형 카메라(20)의 위치를 움직여서 다시 특징점 매칭을 통해 호모그래피 행렬을 구하고 이를 통해 재차 얻어지는 영상 차이만큼 이동형 카메라(20)를 움직이는 과정을 반복하여 정밀한 정합을 수행하게 된다.Here, the center coordinates C (x, y) on the captured screen of the fixed camera 10 and the corresponding point coordinates C 'obtained by substituting the center coordinates C (x, y) into the homography matrix H of Equation (1). The difference between x and y, that is, ΔC (x, y), is the difference between the images of the two cameras 10 and 20. Therefore, the homogeneous matrix is obtained by moving the position of the mobile camera 20 again to match the difference so as to offset the difference, and then repeats the process of moving the mobile camera 20 by the image difference obtained again. Done.

즉, 상기 기본위치 지정부(113)에서는 상기 호모그래피 변환 행렬로부터 상기 고정형 카메라(10) 상의 좌표와 상기 이동형 카메라(20) 상의 좌표 간의 상기 차이값 C'(x,y)을 계산하고, 상기 차이값이 임계치 미만이 될 때까지 상기 이동형 카메라(20)의 각도를 움직여서 상기 특징점 정합을 재수행한 다음 특징점 정합쌍들 사이의 호모그래피 변환 행렬을 재연산하는 과정을 반복하여, 앞서 '초기 위치'보다 정밀한 상기 이동형 카메라(20)의 '기본 위치'를 지정한다(S313).That is, the basic position designation unit 113 calculates the difference value C '(x, y) between the coordinates on the fixed camera 10 and the coordinates on the mobile camera 20 from the homography transformation matrix. By repeating the feature point matching by moving the angle of the movable camera 20 until the difference value is less than the threshold value, the process of recomputing the homography transformation matrix between the feature point matching pairs is repeated. Designate the 'basic position' of the more accurate mobile camera 20 (S313).

상기 차이값이 임계치 미만이 될 때까지 이동형 카메라(20)의 각도를 움직인다는 것은, 현재로부터 과거 특정 시점까지 산출된 총 N개의 차이 값들의 표준편차가 가장 적은 시점에서의 움직임 각도로 이동형 카메라(20)의 기본 위치를 지정한다는 것을 의미할 수 있다. 물론, 본 발명이 반드시 이에 한정되는 것은 아니며 단순 차이값, 표준 편차 등 다양한 요소로부터 각도를 결정할 수 있다.Moving the angle of the movable camera 20 until the difference value is less than the threshold means that the movable camera (the moving angle at the time when the standard deviation of the total N difference values calculated from the present to the specific point in time in the past is the least) is used. 20) can be specified. Of course, the present invention is not necessarily limited thereto, and the angle may be determined from various factors such as a simple difference value and a standard deviation.

여기서, 고정형 카메라(10)와 이동형 카메라(20)의 영상 간의 차이 ΔC(x,y)에 대응하는 이동형 카메라(20)의 움직임을 구하기 위해서는 카메라 제어부(130)에서 얻어진 팬, 틸트 각도 연산을 이용하여 구한다. 카메라의 팬, 틸트 각도 등의 제어 방식은 기존에 공지되어 있으므로 상세한 설명은 생략한다. 즉, 이러한 S313 단계에서 이동형 카메라(20)를 움직이는 등의 과정을 반복하면서 카메라 간의 평행 이동, 스케일을 상쇄시킬 수 있게 한다.Here, in order to obtain the movement of the mobile camera 20 corresponding to the difference ΔC (x, y) between the fixed camera 10 and the mobile camera 20, the pan and tilt angle calculations obtained by the camera controller 130 are used. Obtain it by Control methods such as pan, tilt angle, etc. of the camera are known in the art, so detailed description thereof will be omitted. That is, while repeating the process such as moving the movable camera 20 in step S313 it is possible to cancel the parallel movement between the camera, the scale.

이상과 같은 과정을 통해 이동형 카메라(20)의 뷰가 고정형 카메라(10)와 거의 일치하게 되면 그때부터는 도 9와 같이 일정한 평균을 중심으로 수렴하게 된다. 시간에 대한 제어 입력값 xt가 주어졌을 때, xt가 수렴할 때의 시간 tc는 이전 N개의 입력 동안의 표준 편차가 가장 적을 때로 한다. 이는 수학식 3으로 표현될 수 있고, 수학식 3의 수렴된 값 xc는 수렴 시점으로부터 N 기간 동안의 평균 E으로 수학식 4와 같이 표현할 수 있다.When the view of the mobile camera 20 is substantially coincident with the fixed camera 10 through the above process, it converges around a constant average as shown in FIG. Given a control input x t over time, the time t c at which x t converges is when the standard deviation for the previous N inputs is the least. This may be represented by Equation 3, and the converged value x c of Equation 3 may be expressed by Equation 4 as an average E for N periods from the time of convergence.

Figure 112012028621400-pat00011
Figure 112012028621400-pat00011

Figure 112012028621400-pat00012
Figure 112012028621400-pat00012

이상과 같이, 이동형 카메라(20)의 위치를 이동해 가면서 이동형 카메라(20)의 위치가 수렴할 때까지 이동형 카메라(20)의 초기 위치를 자동으로 제어하여 두 카메라를 자동 위치시킨다. 즉 고정형 카메라(10)의 영상을 레퍼런스로 하여 이동형 카메라(20)에서의 호모그래피 행렬을 구하고, 그 결과를 토대로 이동형 카메라(20)를 직접 움직이고 고정형 카메라(10)와 중심이 맞도록 이동하는 과정을 반복 수행하면, 두 특징점 쌍의 좌표가 거의 일치하는 방향으로 수렴하게 되어, 고정형 카메라(10)와 이동형 카메라(20)의 중심이 서로 일치하는 결과를 얻을 수 있다. 도 5는 이를 바탕으로 두 영상 간의 성공적인 정합이 이루어진 경우와, 실패한 경우를 나타내고 있다.As described above, the two cameras are automatically positioned by automatically controlling the initial position of the movable camera 20 until the position of the movable camera 20 converges while moving the position of the movable camera 20. That is, a process of obtaining a homography matrix in the mobile camera 20 by using the image of the fixed camera 10 as a reference, and directly moving the mobile camera 20 and centering the fixed camera 10 based on the result. Repeatedly, the coordinates of the pair of two feature points converge in a substantially coinciding direction, whereby the centers of the fixed camera 10 and the mobile camera 20 coincide with each other. FIG. 5 illustrates a case where a successful registration between two images is made and a case where the image fails.

여기서, 카메라 간의 평행 이동과 스케일 조절은 이동형 카메라(20)의 물리적 이동(팬, 틸트, 줌)으로 상쇄시킬 수 있다. 그런데 회전의 경우에는 입력 영상에 대한 회전 변환으로 보정이 가능한데, 본 발명에서는 영상을 직접 회전시키지 않고 좌표 변환 과정(S320)을 통해 보정하도록 한다.Here, parallel movement and scale adjustment between the cameras may be offset by physical movement (pan, tilt, zoom) of the mobile camera 20. By the way, in the case of rotation can be corrected by the rotation conversion for the input image, in the present invention to correct through the coordinate transformation process (S320) without rotating the image directly.

고정형 카메라(10)에 대해 감시 대상이 되는 이동 물체가 선정되면, 그 물체에 대한 정보는 고정형 카메라(10)의 영상 좌표계에 속하는 사각형이나 타원, 그리고 그 물체의 중심좌표 R(x,y)로 나타낼 수 있다. 이를 이동형 카메라(20)의 좌표로 옮기는 것이 상기 좌표 변환부(120)에서의 역할이다.When a moving object to be monitored for the fixed camera 10 is selected, information about the object is determined by a rectangle or an ellipse belonging to the image coordinate system of the fixed camera 10 and the center coordinates R (x, y) of the object. Can be represented. Moving this to the coordinates of the mobile camera 20 is a role in the coordinate conversion unit 120.

두 카메라(10,20) 간의 좌표는 앞서 감시영역 정합부(110)를 이용한 S310 단계의 동작에 따라 대체로 일치하는 수준에 도달하였다. 그러나, 이는 화면의 중심 위치를 일치시키는 것으로서 평행 이동과 스케일에 따른 보정은 이루어졌고 회전에 대한 보정이 이루어지지 않은 것이다. 또한, 두 카메라(10,20) 간의 위치가 실제로 완전히 동일하지 않기 때문에 물체와 각 카메라 간의 거리에서 오는 오차(disparity)가 존재한다. The coordinates between the two cameras 10 and 20 have generally reached a level consistent with the operation of step S310 using the surveillance area matching unit 110. However, this coincides with the center position of the screen, and the parallel movement and the correction are made according to the scale, and the rotation is not corrected. In addition, since the position between the two cameras 10 and 20 is not really exactly the same, there is a disparity coming from the distance between the object and each camera.

이를 보정하기 위한 방법으로 호모그래피 행렬을 이용한 파라미터적 방법과, 선형 보간을 이용한 비파라미터적 방법을 사용한다.As a method for correcting this, a parametric method using a homography matrix and a non-parametric method using linear interpolation are used.

호모그래피 행렬을 이용한 방법은 앞서 감시영역 정합 단계(S310;S313)에서 최종적으로 얻어낸 호모그래피 행렬을 이용할 수 있다. 호모그래피 행렬은 정합된 특징점 쌍들을 통해 얻어진 것으로서 평행 이동, 스케일, 회전 정보까지 모두 포함된 것이다. 따라서, 상기 호모그래피 행렬을 그대로 사용하여 좌표 변환을 한다면 두 카메라(10,20) 간의 회전에 따른 좌표 보정까지 수행할 수 있게 된다.The method using the homography matrix may use the homography matrix finally obtained in the surveillance region matching step (S310; S313). The homography matrix is obtained through matched feature point pairs and includes all the translation, scale, and rotation information. Therefore, if coordinate transformation is performed using the homography matrix as it is, coordinate correction according to rotation between two cameras 10 and 20 can be performed.

즉, S313 단계에서 최종 얻어진 호모그래피 행렬의 우변에 고정형 카메라(10) 상의 물체의 좌표 정보 R(x,y)를 대입하면, 그에 대응되는 이동형 카메라(20)의 대응 좌표 R'(x,y)를 얻을 수 있다. 호모그래피 행렬은 회전 및 스케일의 미세한 차이를 보정하는 역할을 하고, 특징점 매칭의 실패와 관련된 노이즈 성분에 대해 강인한 특성을 보인다.That is, when the coordinate information R (x, y) of the object on the fixed camera 10 is substituted into the right side of the homography matrix finally obtained in step S313, the corresponding coordinate R '(x, y) of the mobile camera 20 corresponding thereto is substituted. ) Can be obtained. The homography matrix serves to correct fine differences in rotation and scale, and is robust against noise components associated with the failure of feature point matching.

물론, 본 발명에서는 상기 S313 단계를 통해 최종 얻어낸 호모그래피 형렬에 대해 특징점 매칭 내지 호모그래피 행렬 획득의 과정을 한번 또는 수회 더 반복한 것을 상기 S320 단계 시에 적용하여 좌표 변환에 사용할 수 있음은 물론이다.Of course, the present invention can be used for the coordinate transformation by applying the repeated process of feature point matching or homography matrix acquisition once or several times to the homography matrix finally obtained through the step S313. .

상기 S320 단계는 호모그래피 변환 행렬을 이용하는 방법 대신 선형 보간을 이용한 비파라미터적 방법을 사용할 수 있다. 선형 보간을 이용한 비파라미터적 방법이란 특징점 매칭 결과를 그대로 좌표 변환에 활용하는 것이다. In step S320, a nonparametric method using linear interpolation may be used instead of a method using a homography transformation matrix. The nonparametric method using linear interpolation is to use the feature point matching result for coordinate transformation.

예를 들어, 고정형 카메라(10) 영상 내의 임의 제1 특징점 (xi,yi)이 이동형 카메라(20) 영상 내의 제2 특징점 (xi',yi')에 대응되고, 정밀 확대하고자 하는 고정형 카메라(10) 상의 물체 R(x,y)가 상기 제1 특징점 부근에 있을 경우, R(x,y)에 대한 이동형 카메라(20) 상의 좌표는 해당 부근의 특징점의 좌표 이동을 그대로 적용하는 것이다. 또한, 정밀 확대하고자 하는 고정형 카메라(10) 상의 물체의 좌표가 특징점의 좌표와 정확하게 일치하지 않으면서, 상기 물체의 좌표 주변에 여러 특징점들이 분포하는 경우에는, 각각의 특징점들이 서로 다른 좌표 변환을 보여주기 때문에, 추적 대상 물체 주변의 특징점들의 좌표 변환 특성을 모두 취합하여 좌표 변환을 수행할 필요가 있다. 이를 위해서 들로네 삼각화를 이용한 선형 보간을 사용한다.For example, an arbitrary first feature point (x i , y i ) in the fixed camera 10 image corresponds to the second feature point (x i ', y i ') in the image of the mobile camera 20, and is intended to be precisely enlarged. When the object R (x, y) on the fixed camera 10 is near the first feature point, the coordinate on the movable camera 20 with respect to R (x, y) applies the coordinate movement of the feature point in the vicinity as it is. will be. In addition, when the coordinates of an object on the fixed camera 10 to be precisely enlarged do not exactly match the coordinates of the feature point, and the feature points are distributed around the object coordinates, the feature points show different coordinate transformations. Because of the cycle, it is necessary to perform coordinate transformation by collecting all the coordinate transformation characteristics of the feature points around the object to be tracked. To do this, we use linear interpolation using Delaunay triangulation.

들로네 삼각화란 공간상의 점들을 연결하여 삼각형들의 집합으로 구성하는 삼각화 기법 중 하나로써, 삼각형들의 최소 내각의 크기가 최대가 되도록 삼각형을 구성한다. 하나의 삼각형에 외접하는 외접원 내부에는 다른 점들이 포함되지 않는다. 각각의 고정형 카메라(10)의 특징점에 대해 맵핑되는 이동형 카메라(20)의 특징점들을 들로네 삼각화하여 삼각화된 영역별로 평면 방정식을 구함으로써, 맵핑이 이루어지지 않은 영역에 대해서 어느 정도 체계화된 좌표변환 값을 얻을 수 있게 된다. 도 5는 본 발명의 실시예를 위해 이동형 카메라 영상 내의 특징점들을 들로네 삼각화 한 결과 예를 나타낸다.Delaunay triangulation is a triangulation technique that consists of a set of triangles by connecting points in space, and configures triangles to maximize the size of the minimum internal angle of the triangles. Other points are not included inside the circumscribed circle that circumscribes one triangle. Coordinate transformation to some degree for the unmapped area by obtaining a plane equation for each triangulated area by Delaunay triangulation of the feature points of the mobile camera 20 mapped to the feature points of each fixed camera 10. You can get the value. FIG. 5 shows an example of Delaunay triangulation of feature points in a mobile camera image for an embodiment of the present invention.

상술한 호모그래피 행렬 또는 들로네 삼각화 방법 모두 영상에서의 특징점을 이용한 좌표 변환 방식이라는 점에서는 유사성이 있다. 이상과 같이, 고정형 카메라(10)에서 검출되는 움직이는 물체의 좌표 정보는 앞서 S320 단계와 같은 호모그래피 행렬 또는 들로네 삼각화 방법을 이용하여 두 카메라 간의 기하학적 차이를 인식하여 이동형 카메라(20)의 좌표 정보로 보정(변환)된다. Both the homography matrix and the Delaunay triangulation method described above have similarities in that they are coordinate transformation methods using feature points in an image. As described above, the coordinate information of the moving object detected by the fixed camera 10 recognizes the geometric difference between the two cameras by using a homography matrix or a Delaunay triangulation method as in step S320, and thus coordinate information of the mobile camera 20. Is corrected (converted).

상기 S320 단계를 거친 이후에는, 고정형 카메라(10)에서 이동 물체에 대한 추적을 수행하도록 한다. 영상 내에서 이동 물체의 추적은 영상의 배경으로부터 움직이는 물체를 감지할 수 있는 기 공지된 다양한 방법이 사용될 수 있으므로 그 구체적인 설명은 생략한다.After the step S320, the fixed camera 10 performs tracking on a moving object. The tracking of the moving object in the image may be various known methods for detecting a moving object from the background of the image, so a detailed description thereof will be omitted.

즉, 카메라 제어부(130)에서는 상기 S3230 단계를 통해 변환된 좌표 값을 이용하여 상기 이동형 카메라(20)가 상기 이동 물체를 추적하도록, 상기 이동형 카메라(20)의 팬 각도, 틸트 각도 및 줌 배율 중 적어도 하나를 제어한다(S330). 이에 따라, 이동형 카메라(20)를 통해 확대된 형태의 이동 물체를 화면의 중앙에서 획득하여 계속해서 추적할 수 있게 된다. 이러한 과정들은 다른 움직이는 물체가 없을 때까지 반복 수행한다.In other words, the camera control unit 130 of the pan angle, tilt angle and zoom magnification of the mobile camera 20 to track the moving object by using the coordinate value converted in step S3230. At least one is controlled (S330). Accordingly, the moving object in the enlarged form can be acquired through the movable camera 20 at the center of the screen and continuously tracked. These processes are repeated until there are no moving objects.

이러한 이동형 카메라(20)의 제어 목적은 최대한 움직이는 물체를 오래도록 추적하면서, 추적하고자 하는 이동 물체의 변별력을 높이기 위하여, 이동 물체가 이동형 카메라(20) 영상의 중심에 오도록 하고, 추적 중인 이동 물체의 크기를 줌(zoom) 신호를 통해 확대하여, 최대한 감시화면에 적당한 배율로 모니터링하면서 변별력 있는 감시 물체를 HDD에 저장하는 것이다.The purpose of the control of the mobile camera 20 is to keep the moving object as long as possible and to increase the discriminating power of the moving object to be tracked, so that the moving object is at the center of the moving camera 20 image, and the size of the moving object being tracked. Is zoomed through the zoom signal, and the discernible monitoring object is stored in the HDD while monitoring at the proper magnification on the monitoring screen as much as possible.

고정형 카메라(10)의 데이터는 기존 화상감시 시스템처럼 별도의 DB에 동영상으로 저장되고, 이동형 카메라(20)의 데이터는 변별력 있는 장면(ex, 사람의 얼굴, 자동차의 번호판)만 DB에 저장하도록 한다.The data of the fixed camera 10 is stored as a video in a separate DB like the existing video surveillance system, the data of the mobile camera 20 to store only the discriminating scene (ex, human face, license plate of the car) in the DB .

상기 카메라 제어부(130)에서 이동 물체를 추적하기 위해서는 앞서와 같이 좌표 변환 과정을 거친 이동형 카메라(20) 상의 좌표 정보를 참조하게 된다. 여기서, 이동형 카메라(20) 상의 물체의 좌표 값을 참조하여 상기 이동형 카메라(20)의 팬 각도 또는 틸트 각도를 계산하고 이를 통해 이동형 카메라(20)의 각도를 제어하는 방법은 기존에 다양하게 공지되어 있으므로 이에 관한 상세한 설명은 생략한다. In order to track the moving object in the camera controller 130, the coordinate information on the mobile camera 20 which has undergone the coordinate conversion process as described above is referred to. Here, a method of calculating a pan angle or a tilt angle of the mobile camera 20 with reference to the coordinate values of the object on the mobile camera 20 and controlling the angle of the mobile camera 20 through this is known in various ways. Therefore, detailed description thereof will be omitted.

한편, 상기 S230 단계에서 카메라 제어부(130)는 이동형 카메라(20)의 줌 배율을 조절하여 이동 물체의 변별력을 높이도록 한다. 줌 제어의 경우, 전체 영상의 화면 크기에 비해서 추적 중인 이동 물체의 크기가 차지하는 비율을 통해 적용할 줌 배율을 결정한다.On the other hand, in step S230 the camera controller 130 to adjust the zoom magnification of the movable camera 20 to increase the discriminating power of the moving object. In the case of zoom control, the zoom factor to be applied is determined based on the ratio of the size of the moving object being tracked to the screen size of the entire image.

추적 물체의 가로, 세로의 비율과, 영상의 가로, 세로의 비율이 다르기 때문에, 그 중에서 더 적은 배율을 결정한다. 이것을 식으로 표현하면 수학식 5와 같다.Since the ratio of the horizontal and vertical of the tracking object and the ratio of the horizontal and vertical of the image are different, the smaller magnification is determined among them. If this is expressed as an equation, it is the same as Equation 5.

Figure 112012028621400-pat00013
Figure 112012028621400-pat00013

여기서, rw는 상기 이동형 카메라(20)의 전체 영상의 가로 크기(w)에 대비한 상기 추적된 이동 물체의 가로 크기(w0)의 비율 값으로서 rw=w0/w으로 정의된다. 그리고, rh는 상기 이동형 카메라(20)의 전체 영상의 세로 크기(h)에 대비한 상기 추적된 이동 물체의 세로 크기(h0)의 비율 값으로서 rh=h0/h로 정의한다. 또한, r0는 현재 이동 물체에 대한 이동형 카메라(20)의 배율이다. Here, r w is a ratio value of the horizontal size (w 0 ) of the tracked moving object to the horizontal size (w) of the entire image of the mobile camera 20 is defined as r w = w 0 / w. In addition, r h is defined as r h = h 0 / h as a ratio value of the vertical size h 0 of the tracked moving object to the vertical size h of the entire image of the mobile camera 20. Also, r 0 is the magnification of the mobile camera 20 with respect to the current moving object.

수학식 5에 따르면, rw와 rh 값 중에서 더 적은 값을 선택하고, 선택된 값을 r0와 곱함으로써 최종적인 줌 배율 r을 결정한다.According to Equation 5, r w and r h The final zoom factor r is determined by selecting a smaller value among the values and multiplying the selected value by r 0 .

여기서, rw와 rh 값 중에서 더 적은 배율 값을 선택하는 이유는 더 큰 배율 값의 선택 시에는 해당 줌 배율 적용 시 이동 물체가 이동형 카메라(20)의 촬상 영역에서 벗어날 수 있기 때문이다.Where r w and r h The reason why the smaller magnification value is selected among the values is that when a larger magnification value is selected, the moving object may be out of the imaging area of the mobile camera 20 when the corresponding zoom magnification is applied.

이상의 과정에서는 이동형 카메라(20)의 제어 방법에 관하여 알아보았다. 이하에서는 고정형 카메라(10)의 물체 추적 과정을 나타낸다.In the above process, the control method of the mobile camera 20 was examined. Hereinafter, an object tracking process of the fixed camera 10 will be described.

이동 물체에 대한 테스트를 위해 기존에 알려진 배경 분리 알고리즘을 응용하였다. 이동형 카메라(20)의 영상으로부터 배경 분리 이후, 열림과 닫힘 연산을 이용해 노이즈를 제거하고, 라벨링을 통해 특정 물체 영역을 얻어낸다. 본 발명에서는 기존의 영상 노이즈 제거 개념을 추가하였고, 연산 시간을 단축하기 위한 근사 방법을 새로 제안한다.In order to test moving objects, we apply the background separation algorithm. After the background separation from the image of the mobile camera 20, noise is removed by using the open and close operations, and a specific object region is obtained by labeling. In the present invention, an existing concept of image noise removal has been added, and an approximation method for shortening the computation time is newly proposed.

영상 내에서 특정 픽셀 위치 x에 대해, 입력 영상 I(x)에 대한 배경 판정 함수 F(x)는 수학식 6과 같다.For a specific pixel position x in the image, the background determination function F (x) for the input image I (x) is given by Equation 6.

Figure 112012028621400-pat00014
Figure 112012028621400-pat00014

여기서, d(x)는 특정 화소의 배경 변화에 대한 노이즈이며 일정 기간 동안의 분산으로 구한다. 상수 b는 일종의 바이어스로서 영상 노이즈가 가지는 분산이다. m(x)는 일정 기간 동안의 I(x)에 대한 최소값, n(x)는 최대값으로서, 일정 기간 동안의 각 화소 값에 대한 통계로 구한다. I(x)는 x 좌표의 밝기값을 나타낸다.Here, d (x) is noise for the background change of a specific pixel and is obtained by variance over a period of time. The constant b is a kind of bias, which is the variance of image noise. m (x) is a minimum value for I (x) for a certain period, and n (x) is a maximum value, and is obtained by statistics on each pixel value for a certain period. I (x) represents the brightness value of the x coordinate.

매 프레임마다 모든 화소에 대한 m(x)와 n(x)의 통계를 내기 위해서는 정해진 기간 전체의 영상을 모두 저장하고 있어야 하고, 통계에 대한 연산과정이 오래 걸리기 때문에, m(x)와 n(x)는 가중치 합의 방법을 통해 근사적으로 다음 수학식 7과 같이 구한다.In order to output m (x) and n (x) statistics for every pixel every frame, all images must be stored for a certain period of time. Since the calculation process for statistics takes a long time, m (x) and n ( x) is approximated by Equation 7 through a weighted sum method.

Figure 112012028621400-pat00015
Figure 112012028621400-pat00015

여기서 α는 (0, 1)사이의 상수 값으로 배경을 학습하는 속도를 결정한다. average 식에서 좌측의 average는 현재의 신규 값, 우측의 average는 이전의 과거 값을 나타낸다.Where α is a constant value between (0, 1) that determines the speed of learning the background. In the average equation, the average on the left represents the new value and the average on the right represents the previous historical value.

이하에서는 본 발명에 따른 듀얼 카메라를 이용한 화상 감지 방법에 대한 성능 실험 결과에 대하여 설명한다. Hereinafter will be described the performance test results for the image detection method using a dual camera according to the present invention.

도 7은 본 발명의 성능 테스트에 사용된 두 카메라의 설치 모습을 나타낸다. 두 카메라는 20평 내외의 실내 천정 부근에 설치되고 위치적으로 최대한 가까이 배치된다. 좌측의 카메라는 이동형 카메라(20), 우측의 카메라는 고정형 카메라(10)를 나타낸다. 실험을 위해서 이동형 카메라(20)는 AXIS 232D+를 사용하였다. Figure 7 shows the installation of the two cameras used in the performance test of the present invention. The two cameras are installed near the indoor ceiling of about 20 pyeong and are positioned as close as possible to position. The camera on the left represents the movable camera 20, and the camera on the right represents the stationary camera 10. For the experiment, the mobile camera 20 used AXIS 232D +.

먼저, S310 단계에 따른 두 카메라 간의 자동 설정 알고리즘의 성능 실험을 설명한다.First, the performance experiment of the automatic setup algorithm between the two cameras according to step S310 will be described.

이동형 카메라(20)는 무작위의 위치에서 시작했으며 고정형 카메라(10)는 특징점이 많은 곳과 특징점이 거의 없는 벽면에 대해 각각 큰 배율(렌즈로 조정)을 적용한 두 장면에 대해서 각각 20회 실험했다. The mobile camera 20 started at a random position and the fixed camera 10 experimented 20 times on two scenes where a large magnification (adjusted with a lens) was applied to a wall where many feature points and few feature points were applied.

각 카메라의 입력 영상에 대해서는 카메라 왜곡 보정(internal calibration)을 수행한 뒤 본 발명에서 제시한 방법을 적용했다. 도 8은 본 발명의 실시예를 위한 실험에 사용된 고정형 카메라(10)의 레퍼런스 영상을 나타낸다. 좌측의 (a) 그림은 복잡한 특징의 영상, 즉 특징점이 많은 레퍼런스 영상이고, 우측의 (b) 그림은 특징점이 매우 적은 레피런스 영상을 나탄내다.For the input image of each camera, the method proposed in the present invention was applied after performing an internal calibration. 8 shows a reference image of the fixed camera 10 used in the experiment for the embodiment of the present invention. Figure (a) on the left shows a complex feature image, that is, a reference image with many feature points. Figure (b) on the right shows a reference image with very few feature points.

도 9는 도 8의 레퍼런스 영상에 대한 이동형 카메라의 자동 위치 설정에 따른 중심 이동의 결과이다. 실험 결과는 도 9와 아래의 표 1을 참조한다. 9 is a result of the center of movement according to the automatic positioning of the mobile camera with respect to the reference image of FIG. The experimental results refer to FIG. 9 and Table 1 below.

그림8 (a)의 실험Experiment of Figure 8 (a) 그림 8 (b)의 실험Experiment of Figure 8 (b) 평균 반복 횟수(tc)Average number of iterations (t c ) 9.249.24 13.2013.20 평균 매칭 특징점 수/
총 매칭된 특징점 수
Average Matching Feature Points /
Total Matched Feature Points
173.7/1732.4173.7 / 1732.4 39.2/373.039.2 / 373.0

평균 반복 횟수 결과, 특징점이 적은 레퍼런스의 경우 수렴하는데 더 오랜 시간이 걸리는 것으로 나타났다. 실질적인 수렴 지점까지 이동형 카메라(20)가 이동하는 데는 3, 4회로 모두 동일했지만, 매칭되는 특징점의 수가 적은 경우 최소값으로 도달하는데 더 많은 반복이 필요했다. 수학식 3에서의 N값을 5로 설정했기 때문에 최대 4~8번의 반복 사이에 수렴 지점에 도달한 것으로 분석된다. 평균 매칭 특징점 수 부분은, 레퍼런스가 되는 고정형 카메라(10)와 이동형 카메라(20)의 SURF 특징점 매칭에 대해, 매칭된 특징점 개수/고정형 카메라의 총 특징점 개수를 나타낸 것이다. 이는 N 프레임의 수렴 기간에 포함되는 영상만을 통계로 하였다.The average number of iterations showed that the reference with less feature points takes longer to converge. The movement of the mobile camera 20 to the actual convergence point was the same for both 3 and 4 times, but more iterations were needed to reach the minimum value when the number of matching feature points was small. Since the N value in Equation 3 is set to 5, it is analyzed that the convergence point is reached between 4 to 8 iterations at the maximum. The average number of matching feature points indicates the number of matching feature points / total feature points of the fixed camera for SURF feature point matching between the fixed camera 10 and the mobile camera 20 as reference. This is only a statistical image included in the convergence period of the N frame.

실험 결과 총 40회 모두 성공적인 보정 결과를 보여주었다. 특히 도 8의 (b)와 같이 제한된 특징점을 가지는 환경에서도 이동형 카메라(20)가 수렴하는 좋은 결과를 나타낸 것을 확인할 수 있다.Experimental results showed that all 40 successful calibration results. In particular, it can be seen that the mobile camera 20 shows a good result of convergence even in an environment having limited feature points as shown in FIG.

다음, S320 단계에 따른 좌표 변환에 관한 성능을 설명한다. 두 카메라 좌표변환 알고리즘의 성능 실험을 위해, 고정형 카메라(10)의 좌표를 이동형 카메라(20)의 좌표로 변환한 다음, 그 오차가 어느 정도인지를 파악해 본다. 여기서, 오차(error)란 실제 변환되어야 하는 점(true pixel point;(x,y))과 좌표 변환 알고리즘을 통해 예측된 점(estimated pixel point;

Figure 112012028621400-pat00016
) 사이의 유클리드 거리를 의미한다. 두 점의 오차는 아래의 수학식 7과 같이 정의될 수 있다.Next, the performance of the coordinate transformation according to step S320 will be described. For the performance experiment of the two camera coordinate conversion algorithm, the coordinates of the fixed camera 10 is converted to the coordinates of the mobile camera 20, and then the degree of the error is examined. Here, the error is an actual pixel point (true pixel point; (x, y)) and a point predicted through a coordinate transformation algorithm (estimated pixel point;
Figure 112012028621400-pat00016
Means the Euclidean distance between). The error of the two points may be defined as shown in Equation 7 below.

Figure 112012028621400-pat00017
Figure 112012028621400-pat00017

본 실험에서, 실제 변환되어야 하는 점의 좌표는 직접 사람이 육안으로 확인하여 결정하였다. 눈으로 확인된 지점과 알고리즘으로 예측된 지점 간의 오차를 통해, 본 발명에 사용된 좌표 변환 알고리즘의 정확도를 판단할 수 있다. 실험은 전역 카메라의 입력 영상 평면에 대해 임의의 위치 100곳을 선택하여 수행하였다. 실제 매핑되어야 하는 위치는 육안으로 확인하였을 때 고정형 카메라(10)의 영상 좌표와 이동형 카메라(20)의 영상 좌표가 동일한 물체를 표시하는 것으로 보이는 좌표를 직접 선택하였다. In this experiment, the coordinates of the point to be actually converted were determined by human visual confirmation. Through the error between the visually confirmed point and the algorithm predicted point, it is possible to determine the accuracy of the coordinate transformation algorithm used in the present invention. The experiment was performed by selecting 100 arbitrary positions with respect to the input image plane of the global camera. The position to be actually mapped is directly selected by the naked eye when the image coordinates of the fixed camera 10 and the image coordinates of the mobile camera 20 appear to represent the same object.

도 10은 본 발명의 실시예에서 좌표 변환의 성능을 알아보기 위해 고정형 카메라에서 선택한 지점들을 나타낸다. 여기서, 파란색 점은 사용자가 눈으로 확인하여 직접 선택한 지점을 나타낸다.10 illustrates points selected by the fixed camera in order to find out the performance of the coordinate transformation in the embodiment of the present invention. In this case, the blue dot indicates a point selected by the user by visual confirmation.

도 11은 본 발명의 실시예에서 좌표 변환의 성능을 알아보기 위해, 두 개의 좌표 변환 알고리즘으로 각각 좌표 변환된 점들을 나타낸다. 여기서, 빨간색 점은 들로네 삼각화 방법에 의한 좌표 변환 점이고, 초록색 점은 호모그래피 행렬 방법에 의한 좌표 변환 점을 나타낸다.11 illustrates points coordinated by two coordinate transformation algorithms in order to determine the performance of coordinate transformation in an embodiment of the present invention. Here, the red point represents the coordinate transformation point by the Delaunay triangulation method, and the green point represents the coordinate transformation point by the homography matrix method.

도 12는 도 11의 들로네 삼각화를 통한 방법과 호모그래피 행렬을 이용한 방법에 대한 변환 오차를 3차원으로 표현한 것이다. 도 12의 (a)는 들로네 삼각화를 이용한 경우의 좌표 변환 오차이고, 도 12의 (b)는 호모그래피 행렬을 이용한 경우의 좌표 변환 오차이다. 그래프 바닥 부분의 X축과 Y축은 각각 맵핑된 점의 X좌표와 Y좌표를 나타내며, Z축은 오차를 의미한다. 즉 바닥 평면이 영상 평면이며 높이는 오차를 나타낸다.FIG. 12 is a three-dimensional representation of a transformation error between the Delaunay triangulation method of FIG. 11 and the method using a homography matrix. FIG. 12A illustrates coordinate transformation errors when Delaunay triangulation is used, and FIG. 12B illustrates coordinate transformation errors when a homography matrix is used. The X and Y axes of the bottom of the graph represent the X and Y coordinates of the mapped points, respectively, and the Z axis represents error. That is, the floor plane is the image plane and the height represents an error.

실험 결과를 보면, 두 가지 방법 모두 실제 맵핑되어야 할 좌표에 근사한 결과를 보였으나, 전체적으로 호모그래피 행렬보다 들로네 삼각화를 사용한 경우에 오차가 더 작게 나타나는 경향을 보인다. 또한 해당 좌표가 영상의 모서리 부분일 경우에는 오차가 상당히 증가하는 것을 관찰할 수 있는데, 이는 두 카메라 간의 영상 차에 따른 영향이 크다. 이러한 오차는 화면 외각 부분이 아니더라도 물체와 카메라 간의 거리가 달라짐에 따라 발생할 수 있다. The experimental results show that the two methods are close to the coordinates that should be mapped, but the error tends to be smaller when using Delaunay triangulation than homography matrix. In addition, when the corresponding coordinate is the edge of the image, it can be observed that the error increases considerably, which is largely influenced by the image difference between the two cameras. Such an error may occur even if the distance between the object and the camera is different even if it is not the outer portion of the screen.

아래의 표 2는 두 가지 좌표변환 방법에 대한 영상의 영역별 성능비교 결과를 정리한 것이다. 여기서, 표 2의 수치는 수학식 8에 나타난 오차를 의미하며, 단위는 pixel이다. Table 2 below summarizes the performance comparison results for each of the two coordinate transformation methods. Here, the numerical value of Table 2 means the error shown in Equation 8, and the unit is pixel.

들로네 삼각화
방법
Delaunay triangulation
Way
호모그래피
행렬 방법
Homography
Matrix method
안쪽 영역Inner zone 3.353.35 5.145.14 바깥쪽 영역Outer area 6.216.21 6.056.05 전체 영역Whole area 4.764.76 5.515.51

안쪽 영역은 영상 전체 면적의 1/2를 차지하는 중심 영역이며, 바깥쪽 영역은 이를 제외한 영역이다. 전체 640×480 크기의 실험 영상의 내부 영역의 크기는 452×339이다. 이 결과에서 알 수 있듯이 들로네 삼각화를 이용한 선형 보간의 경우 특히 안쪽 영역에서 더 좋은 성능을 보이는 것을 알 수 있다. The inner region is the central region that occupies 1/2 of the entire area of the image, and the outer region is the region except for this. The internal area of the entire 640 × 480 test image is 452 × 339. As can be seen from this result, linear interpolation using Delaunay triangulation shows better performance, especially in the inner region.

물론 실제 응용에 있어서는 두 알고리즘 모두 실용적인 수준의 오차를 나타냈다. 따라서 적용시키려는 환경에 따라 두 알고리즘 중에서 적절한 알고리즘을 선택할 수 있다.Of course, in practical applications, both algorithms showed a practical level of error. Therefore, you can select the appropriate one from the two algorithms according to the environment you want to apply.

도 13과 도 14는 본 발명의 방법을 통해 최종적으로 이동형 카메라에 의해 제어된 결과를 나타낸다. 이러한 도 13 및 도 14는 카메라 추적의 예로서, 도 11은 실내 실험이고 도 12는 실외 실험이다. 또한 도 13 및 도 14의 (a)는 고정형 카메라(10)의 촬영 영상을 나타내고, (b)는 이동형 카메라(20)에 의하여 제어된 영상을 나타낸다. 도 13 및 도 14의 (b)로부터 이동 물체가 화면 중앙에 확대되어 표시 및 추적되는 것을 확인할 수 있다. 또한, 고정형 카메라(10)의 영상에 비하여 이동형 카메라(20)의 영상의 경우 물체의 변별력이 매우 높아짐을 확인할 수 있다.13 and 14 show the results finally controlled by the mobile camera through the method of the present invention. 13 and 14 are examples of camera tracking, where FIG. 11 is an indoor experiment and FIG. 12 is an outdoor experiment. 13 and 14 (a) show the captured image of the fixed camera 10, (b) shows the image controlled by the mobile camera 20. It can be seen from FIG. 13 and FIG. 14B that the moving object is enlarged and displayed and tracked in the center of the screen. In addition, it can be seen that the discriminating power of the object is very high in the case of the image of the mobile camera 20 compared to the image of the fixed camera 10.

이상과 같은 본 발명에 따르면, 고정형 카메라(10)와 이동형 카메라(20)의 감시 영역을 서로 매칭시켜서 두 카메라의 기본 위치를 설정한 다음, 고정형 카메라(10)에서 감지된 이동 물체의 좌표 값을 이동형 카메라(20)의 좌표 값으로 변환하여 이동형 카메라(20)가 이동 물체를 중심으로 계속해서 추적할 수 있도록 하여, 이동형 카메라(20)를 효과적으로 제어할 수 있고 이동 물체의 감시 변별력 및 감시 효율을 높일 수 있는 이점이 있다.According to the present invention as described above, by setting the basic position of the two cameras by matching the monitoring area of the fixed camera 10 and the mobile camera 20 with each other, and then the coordinate value of the moving object detected by the fixed camera 10 By converting the coordinates of the moving camera 20 to the moving camera 20 to continuously track the moving object, the moving camera 20 can be effectively controlled and the monitoring discrimination power and the monitoring efficiency of the moving object can be controlled. There is an advantage to increase.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

10: 고정형 카메라 20: 이동형 카메라
100: 듀얼 카메라를 이용한 화상 감지 장치
110: 감시영역 정합부 111: 초기위치 지정부
112: 변환행렬 연산부 113: 기본위치 지정부
120: 좌표 변환부 130: 카메라 제어부
10: stationary camera 20: mobile camera
100: image sensing device using a dual camera
110: monitoring area matching section 111: initial position designation section
112: transformation matrix calculation unit 113: basic position designation unit
120: coordinate conversion unit 130: camera control unit

Claims (12)

실내에 설치된 고정형 카메라 및 이동형 카메라를 포함하는 듀얼 카메라를 이용한 화상 감지 방법에 있어서,
상기 이동형 카메라의 각도를 제어하면서, 상기 고정형 카메라 및 이동형 카메라의 촬상 화면으로부터 각각의 특징점들을 추출하고, 상기 추출된 특징점들 간의 정합 과정을 통해, 상기 고정형 카메라에 대한 상기 이동형 카메라의 기본 위치를 지정하는 단계;
상기 고정형 카메라에서 감지된 이동 물체에 대한 영상 좌표를 상기 이동형 카메라의 영상 좌표로 변환하는 단계; 및
상기 변환된 좌표 값을 이용하여 상기 이동형 카메라가 상기 이동 물체를 추적하도록 상기 이동형 카메라의 팬 각도, 틸트 각도 및 줌 배율 중 적어도 하나를 제어하는 단계를 포함하며,
상기 줌 배율 제어 시에는, 상기 이동형 카메라의 전체 영상의 가로 크기(w)에 대비한 상기 추적된 이동 물체의 가로 크기(w0)의 비율 값(rw=w0/w), 그리고 상기 이동형 카메라의 전체 영상의 세로 크기(h)에 대비한 상기 추적된 이동 물체의 세로 크기(h0)의 비율 값(rh=h0/h)을 비교한 다음, 그 중 더 작은 비율 값을 현재 이동 물체에 대한 이동형 카메라의 배율(r0)에 곱하여 최종적인 줌 배율 r을 아래의 수학식으로 결정하는 듀얼 카메라를 이용한 화상 감지 방법:
Figure 112013088693923-pat00040

여기서, min()은 최소값 연산을 나타낸다.
In the image detection method using a dual camera including a fixed camera and a mobile camera installed in the room,
While controlling the angles of the movable camera, the respective feature points are extracted from the image pickup screens of the fixed camera and the mobile camera, and a basic position of the mobile camera with respect to the fixed camera is designated through a matching process between the extracted feature points. Making;
Converting image coordinates of the moving object detected by the fixed camera into image coordinates of the mobile camera; And
Controlling at least one of a pan angle, a tilt angle and a zoom magnification of the movable camera so that the movable camera tracks the moving object using the converted coordinate values,
In the zoom magnification control, a ratio value (r w = w 0 / w) of the horizontal size (w 0 ) of the tracked moving object to the horizontal size (w) of the entire image of the mobile camera, and the movable type Compare the ratio value (r h = h 0 / h) of the vertical size (h 0 ) of the tracked moving object to the vertical size (h) of the entire image of the camera, and then use the smaller ratio value The image detection method using the dual camera which multiplies the magnification ratio (r 0 ) of the movable camera with respect to the moving object to determine the final zoom magnification r by the following equation:
Figure 112013088693923-pat00040

Where min () represents the minimum value operation.
청구항 1에 있어서,
상기 이동형 카메라의 기본 위치를 지정하는 단계는,
상기 이동형 카메라의 각도를 제어하면서 상기 고정형 카메라와 이동형 카메라의 촬상 화면으로부터 각각의 특징점들을 추출한 다음 상기 추출된 특징점들 간을 서로 정합시켜서, 특징점 매칭도가 가장 높은 해당 각도로 상기 이동형 카메라의 초기 위치를 지정하는 단계;
상기 매칭도가 가장 높은 해당 각도에서의 특징점 정합쌍들 사이의 호모그래피 변환 행렬을 연산하는 단계; 및
상기 호모그래피 변환 행렬로부터 상기 고정형 카메라 상의 좌표와 상기 이동형 카메라 상의 좌표 간의 차이값을 계산하고, 상기 차이값이 임계치 미만이 될 때까지 상기 이동형 카메라의 각도를 움직여서 상기 특징점 정합을 재수행한 다음 특징점 정합쌍들 사이의 호모그래피 변환 행렬을 재연산하는 과정을 반복하여 상기 이동형 카메라의 기본 위치를 지정하는 단계를 포함하는 듀얼 카메라를 이용한 화상 감지 방법.
The method according to claim 1,
Specifying a basic position of the mobile camera,
While controlling the angles of the mobile camera, the respective feature points are extracted from the image pickup screens of the fixed camera and the mobile camera, and then the extracted feature points are matched with each other, and the initial position of the mobile camera at the corresponding angle having the highest feature point matching degree. Specifying a;
Calculating a homography transformation matrix between feature point matching pairs at the corresponding angle with the highest matching degree; And
The difference value between the coordinates on the fixed camera and the coordinates on the mobile camera is calculated from the homography transformation matrix, and the feature point registration is performed again by moving the angle of the mobile camera until the difference is less than a threshold value. Repeating the process of recomputing the homography transformation matrix between the pairs to designate the basic position of the mobile camera.
청구항 2에 있어서,
상기 이동형 카메라의 초기 위치를 지정하는 단계는,
상기 이동형 카메라의 팬 각도 또는 틸트 각도를 조절하면서, 상기 팬 각도 또는 틸트 각도 별로 추출되는 상기 고정형 카메라의 촬상 영상에 대한 제1 특징점들과 상기 이동형 카메라의 촬상 영상에 대한 제2 특징점들을 서로 정합하는 단계;
상기 팬 각도 또는 틸트 각도 별로, 상기 서로 정합되는 특징점 쌍들의 개수를 파악하고, 상기 정합되는 특징점 쌍들의 개수가 가장 많이 출력되는 팬 또는 틸트 각도를 선정하는 단계; 및
상기 선정된 팬 또는 틸트 각도로 상기 이동형 카메라를 제어하여 상기 이동형 카메라의 초기 위치를 지정하는 단계를 포함하는 듀얼 카메라를 이용한 화상 감지 방법.
The method according to claim 2,
Specifying an initial position of the mobile camera,
While adjusting the pan angle or tilt angle of the mobile camera, the first feature points for the captured image of the fixed camera extracted for each pan angle or tilt angle and the second feature points for the captured image of the mobile camera are matched with each other. step;
Determining the number of feature point pairs matched with each other by the pan angle or tilt angle, and selecting a pan or tilt angle at which the number of matched feature point pairs is output the most; And
And controlling the mobile camera at the selected pan or tilt angle to designate an initial position of the mobile camera.
청구항 2에 있어서,
상기 호모그래피 변환 행렬을 연산하는 단계는,
상기 호모그래피 변환 행렬을 아래의 수학식으로 연산하는 듀얼 카메라를 이용한 화상 감지 방법:
Figure 112012028621400-pat00018
,
여기서, Hij는 상기 변환 파라미터, ω는 좌표 간 스케일, i는 1부터 N 사이의 정수,
Figure 112012028621400-pat00019
는 상기 고정형 카메라에서 검출된 N개의 제1 특징점 좌표들,
Figure 112012028621400-pat00020
는 상기 이동형 카메라에서 상기 제1 특징점 좌표들과 매칭된 N개의 제2 특징점 좌표들을 나타낸다.
The method according to claim 2,
Computing the homography transformation matrix,
An image sensing method using a dual camera that calculates the homography transformation matrix by the following equation:
Figure 112012028621400-pat00018
,
Where H ij is the conversion parameter, ω is the inter-scale scale, i is an integer from 1 to N,
Figure 112012028621400-pat00019
Are N first feature point coordinates detected by the fixed camera,
Figure 112012028621400-pat00020
Denotes N second feature point coordinates matched with the first feature point coordinates in the mobile camera.
청구항 4에 있어서,
상기 고정형 카메라 상의 좌표와 상기 이동형 카메라 상의 좌표 간의 차이값은,
상기 고정형 카메라의 촬상 화면에서의 중심 좌표와, 상기 호모그래피 변환 행렬에 상기 중심 좌표를 대입하여 획득되는 대응점 좌표 사이의 차이값인 듀얼 카메라를 이용한 화상 감지 방법.
The method of claim 4,
The difference between the coordinates on the fixed camera and the coordinates on the mobile camera is
And a difference value between a center coordinate on an image captured screen of the fixed camera and a corresponding point coordinate obtained by substituting the center coordinates into the homography transformation matrix.
청구항 4에 있어서,
상기 고정형 카메라에서 감지된 이동 물체에 대한 영상 좌표를 상기 이동형 카메라의 영상 좌표로 변환하는 단계는,
상기 좌표 변환 시 상기 호모그래피 변환 행렬 또는 들로네 삼각화 기법을 사용하는 듀얼 카메라를 이용한 화상 감지 방법.
The method of claim 4,
Converting the image coordinates for the moving object detected by the fixed camera to the image coordinates of the mobile camera,
And a dual camera using the homography transformation matrix or the Delaunay triangulation technique.
삭제delete 실내에 설치된 고정형 카메라 및 이동형 카메라를 포함하는 듀얼 카메라를 이용한 화상 감지 장치에 있어서,
상기 이동형 카메라의 각도를 제어하면서, 상기 고정형 카메라 및 이동형 카메라의 촬상 화면으로부터 각각의 특징점들을 추출하고, 상기 추출된 특징점들 간의 정합 과정을 통해, 상기 고정형 카메라에 대한 상기 이동형 카메라의 기본 위치를 지정하는 감시영역 정합부;
상기 고정형 카메라에서 감지된 이동 물체에 대한 영상 좌표를 상기 이동형 카메라의 영상 좌표로 변환하는 좌표 변환부; 및
상기 변환된 좌표 값을 이용하여 상기 이동형 카메라가 상기 이동 물체를 추적하도록 상기 이동형 카메라의 팬 각도, 틸트 각도 및 줌 배율 중 적어도 하나를 제어하는 카메라 제어부를 포함하며,
상기 카메라 제어부는,
상기 줌 배율 제어 시, 상기 이동형 카메라의 전체 영상의 가로 크기(w)에 대비한 상기 추적된 이동 물체의 가로 크기(w0)의 비율 값(rw=w0/w), 그리고 상기 이동형 카메라의 전체 영상의 세로 크기(h)에 대비한 상기 추적된 이동 물체의 세로 크기(h0)의 비율 값(rh=h0/h)을 비교한 다음, 그 중 더 작은 비율 값을 현재 이동 물체에 대한 이동형 카메라의 배율(r0)에 곱하여 최종적인 줌 배율 r을 아래의 수학식으로 결정하는 듀얼 카메라를 이용한 화상 감지 장치:
Figure 112013088693923-pat00041

여기서, min()은 최소값 연산을 나타낸다.
In the image detection device using a dual camera including a fixed camera and a mobile camera installed in the room,
While controlling the angles of the movable camera, the respective feature points are extracted from the image pickup screens of the fixed camera and the mobile camera, and a basic position of the mobile camera with respect to the fixed camera is designated through a matching process between the extracted feature points. Monitoring area matching unit;
A coordinate converter configured to convert image coordinates of the moving object detected by the fixed camera into image coordinates of the mobile camera; And
A camera controller for controlling at least one of a pan angle, a tilt angle, and a zoom ratio of the mobile camera so that the mobile camera tracks the moving object using the converted coordinate values,
The camera control unit,
In the zoom magnification control, a ratio value (r w = w 0 / w) of the horizontal size (w 0 ) of the tracked moving object to the horizontal size (w) of the entire image of the mobile camera, and the mobile camera Compare the ratio value (r h = h 0 / h) of the vertical size (h 0 ) of the tracked moving object to the vertical size (h) of the entire image of, and then move the smaller ratio value among them An image sensing device using a dual camera that multiplies the magnification (r 0 ) of the movable camera with respect to an object to determine the final zoom magnification r by the following equation:
Figure 112013088693923-pat00041

Where min () represents the minimum value operation.
청구항 8에 있어서,
상기 감시영역 정합부는,
상기 이동형 카메라의 각도를 제어하면서 상기 고정형 카메라와 이동형 카메라의 촬상 화면으로부터 각각의 특징점들을 추출한 다음 상기 추출된 특징점들 간을 서로 정합시켜서, 특징점 매칭도가 가장 높은 해당 각도로 상기 이동형 카메라의 초기 위치를 지정하는 초기위치 지정부;
상기 매칭도가 가장 높은 해당 각도에서의 특징점 정합쌍들 사이의 호모그래피 변환 행렬을 연산하는 변환행렬 연산부; 및
상기 호모그래피 변환 행렬로부터 상기 고정형 카메라 상의 좌표와 상기 이동형 카메라 상의 좌표 간의 차이값을 계산하고, 상기 차이값이 임계치 미만이 될 때까지 상기 이동형 카메라의 각도를 움직여서 상기 특징점 정합을 재수행한 다음 특징점 정합쌍들 사이의 호모그래피 변환 행렬을 재연산하는 과정을 반복하여 상기 이동형 카메라의 기본 위치를 지정하는 기본위치 지정부를 포함하는 듀얼 카메라를 이용한 화상 감지 장치.
The method according to claim 8,
The monitoring area matching unit,
While controlling the angles of the mobile camera, the respective feature points are extracted from the image pickup screens of the fixed camera and the mobile camera, and then the extracted feature points are matched with each other, and the initial position of the mobile camera at the corresponding angle having the highest feature point matching degree. Initial position designation to specify;
A transformation matrix calculator for calculating a homography transformation matrix between feature point matching pairs at the corresponding angle with the highest matching degree; And
The difference value between the coordinates on the fixed camera and the coordinates on the mobile camera is calculated from the homography transformation matrix, and the feature point registration is performed again by moving the angle of the mobile camera until the difference is less than a threshold value. And a basic position designation unit for designating a basic position of the mobile camera by repeating a process of recomputing a homography transformation matrix between pairs.
청구항 9에 있어서,
상기 변환행렬 연산부는,
상기 호모그래피 변환 행렬을 아래의 수학식으로 연산하는 듀얼 카메라를 이용한 화상 감지 장치:
Figure 112012028621400-pat00022
,
여기서, Hij는 상기 변환 파라미터, ω는 좌표 간 스케일, i는 1부터 N 사이의 정수,
Figure 112012028621400-pat00023
는 상기 고정형 카메라에서 검출된 N개의 제1 특징점 좌표들,
Figure 112012028621400-pat00024
는 상기 이동형 카메라에서 상기 제1 특징점 좌표들과 매칭된 N개의 제2 특징점 좌표들을 나타낸다.
The method of claim 9,
The transformation matrix operation unit,
An image sensing device using a dual camera that calculates the homography transformation matrix by the following equation:
Figure 112012028621400-pat00022
,
Where H ij is the conversion parameter, ω is the inter-scale scale, i is an integer from 1 to N,
Figure 112012028621400-pat00023
Are N first feature point coordinates detected by the fixed camera,
Figure 112012028621400-pat00024
Denotes N second feature point coordinates matched with the first feature point coordinates in the mobile camera.
청구항 10에 있어서,
상기 좌표 변환부는,
상기 좌표 변환 시 상기 호모그래피 변환 행렬 또는 들로네 삼각화 기법을 사용하는 듀얼 카메라를 이용한 화상 감지 장치.
The method of claim 10,
Wherein the coordinate conversion unit comprises:
And a dual camera using the homography transformation matrix or the Delaunay triangulation technique.
삭제delete
KR1020120037315A 2012-04-10 2012-04-10 Image sensing method using dual camera and apparatus thereof KR101347450B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120037315A KR101347450B1 (en) 2012-04-10 2012-04-10 Image sensing method using dual camera and apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120037315A KR101347450B1 (en) 2012-04-10 2012-04-10 Image sensing method using dual camera and apparatus thereof

Publications (2)

Publication Number Publication Date
KR20130114899A KR20130114899A (en) 2013-10-21
KR101347450B1 true KR101347450B1 (en) 2014-01-09

Family

ID=49634702

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120037315A KR101347450B1 (en) 2012-04-10 2012-04-10 Image sensing method using dual camera and apparatus thereof

Country Status (1)

Country Link
KR (1) KR101347450B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10979645B2 (en) 2018-11-01 2021-04-13 Hanwha Techwin Co., Ltd. Video capturing device including cameras and video capturing system including the same
US11361543B2 (en) 2019-12-10 2022-06-14 Caterpillar Inc. System and method for detecting objects

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101530131B1 (en) * 2013-12-04 2015-06-18 한국기술교육대학교 산학협력단 Image sensing method using dual camera and apparatus thereof
KR102457265B1 (en) * 2016-05-25 2022-10-20 현대모비스 주식회사 Apparatus for generating top-view image and method thereof
KR102315525B1 (en) * 2017-07-31 2021-10-21 한화테크윈 주식회사 Surveillance system and operation method thereof
KR101996907B1 (en) * 2018-07-27 2019-07-08 비티에스 유한회사 Apparatus for tracking object
KR102188721B1 (en) * 2020-04-27 2020-12-08 현대모비스 주식회사 Apparatus for generating top-view image and method thereof
KR102362695B1 (en) * 2020-07-30 2022-02-14 주식회사 영국전자 PTZ Camera Control Method for obtaining precise images in connection with Omnidirectional Panoramic Camera
CN114463401A (en) * 2020-11-09 2022-05-10 Oppo广东移动通信有限公司 Image processing method, image processing device, storage medium and electronic equipment
KR102608447B1 (en) * 2021-04-08 2023-12-01 에이원(주) System for Vehicle Number Recognition Control Using Artificial Intelligence and Method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005057592A (en) * 2003-08-06 2005-03-03 Matsushita Electric Ind Co Ltd Monitor system
KR20090044791A (en) * 2007-11-01 2009-05-07 삼성테크윈 주식회사 Surveillance camera system and method for controlling thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005057592A (en) * 2003-08-06 2005-03-03 Matsushita Electric Ind Co Ltd Monitor system
KR20090044791A (en) * 2007-11-01 2009-05-07 삼성테크윈 주식회사 Surveillance camera system and method for controlling thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10979645B2 (en) 2018-11-01 2021-04-13 Hanwha Techwin Co., Ltd. Video capturing device including cameras and video capturing system including the same
US11361543B2 (en) 2019-12-10 2022-06-14 Caterpillar Inc. System and method for detecting objects

Also Published As

Publication number Publication date
KR20130114899A (en) 2013-10-21

Similar Documents

Publication Publication Date Title
KR101347450B1 (en) Image sensing method using dual camera and apparatus thereof
KR101666397B1 (en) Apparatus and method for capturing object image
EP2895986B1 (en) Methods, devices and systems for detecting objects in a video
US20150116502A1 (en) Apparatus and method for dynamically selecting multiple cameras to track target object
CN110910460B (en) Method and device for acquiring position information and calibration equipment
CN103198488A (en) PTZ surveillance camera realtime posture rapid estimation method
CN110084842B (en) Servo secondary alignment method and device for robot holder
WO2017163688A1 (en) Monitoring system and monitoring method
WO2021035891A1 (en) Augmented reality technology-based projection method and projection device
CN112714287A (en) Pan-tilt target conversion control method, device, equipment and storage medium
US10122984B2 (en) Pan/tilt/zoom camera based video playing method and apparatus
KR101469099B1 (en) Auto-Camera Calibration Method Based on Human Object Tracking
CN112017210A (en) Target object tracking method and device
CN109543496B (en) Image acquisition method and device, electronic equipment and system
KR101983586B1 (en) Method of stitching depth maps for stereo images
KR101916093B1 (en) Method for tracking object
CN107633537B (en) Camera calibration method based on projection
KR20170133666A (en) Method and apparatus for camera calibration using image analysis
CN111325790A (en) Target tracking method, device and system
CN112702513B (en) Double-optical-pan-tilt cooperative control method, device, equipment and storage medium
KR101996907B1 (en) Apparatus for tracking object
KR20160043484A (en) Method and Apparatus for Detecting Event by Using Pan-Tilt-Zoom Camera
CN112085799A (en) Power equipment autonomous registration method and system
Liao et al. A new calibration method and its application for the cooperation of wide-angle and pan-tilt-zoom cameras
KR20190110369A (en) Intelligent camera system for automatic tracking of specified subject and image capturing method using the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160928

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee