KR100933304B1 - An object information estimator using the single camera, a method thereof, a multimedia device and a computer device including the estimator, and a computer-readable recording medium storing a program for performing the method. - Google Patents

An object information estimator using the single camera, a method thereof, a multimedia device and a computer device including the estimator, and a computer-readable recording medium storing a program for performing the method. Download PDF

Info

Publication number
KR100933304B1
KR100933304B1 KR1020070087854A KR20070087854A KR100933304B1 KR 100933304 B1 KR100933304 B1 KR 100933304B1 KR 1020070087854 A KR1020070087854 A KR 1020070087854A KR 20070087854 A KR20070087854 A KR 20070087854A KR 100933304 B1 KR100933304 B1 KR 100933304B1
Authority
KR
South Korea
Prior art keywords
image
reference plane
camera
object information
height
Prior art date
Application number
KR1020070087854A
Other languages
Korean (ko)
Other versions
KR20090022486A (en
Inventor
이석한
최종수
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020070087854A priority Critical patent/KR100933304B1/en
Publication of KR20090022486A publication Critical patent/KR20090022486A/en
Application granted granted Critical
Publication of KR100933304B1 publication Critical patent/KR100933304B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models

Abstract

단일 카메라를 이용한 객체 정보 추정기 및 그 방법이 개시된다. 상기 객체 정보 추정 방법은 카메라로부터 입력된 입력 영상으로부터 객체의 영상을 분리하는 단계; 및 상기 객체의 영상을 3차원 공간상으로 역사영시키고 역사영된 결과에 기초하여 상기 객체의 위치 및 높이 중에서 적어도 어느 하나를 계산하고 계산결과를 출력하는 단계를 포함하여 단일 카메라만을 이용하여 객체의 정보(객체의 높이 및 위치 중에서 적어도 어느 하나)를 정확하게 추정할 수 있는 효과가 있다. An object information estimator using a single camera and a method thereof are disclosed. The method for estimating object information may include separating an image of an object from an input image input from a camera; And calculating the image of the object in three-dimensional space and calculating at least one of the position and the height of the object based on the result of the history and outputting the calculation result. There is an effect of accurately estimating the information (at least one of the height and position of the object).

카메라, 객체, 사영 Camera, object, projective

Description

단일 카메라를 이용한 객체 정보 추정기, 그 방법, 상기 추정기를 포함하는 멀티미디어 기기 및 컴퓨터 기기, 및 상기 방법을 수행하기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체{Object information estimator using single camera, method thereof, multimedia apparatus including said estimator and computer apparatus, and computer-readable record medium recording program for performing said method} An object information estimator using a single camera, a method thereof, a multimedia device and a computer device including the estimator, and a computer-readable recording medium recording a program for performing the method. apparatus including said estimator and computer apparatus, and computer-readable record medium recording program for performing said method}

본 발명은 객체 정보 추정기술에 관한 것으로, 보다 상세하게는 단일 카메라를 이용하여 객체 정보를 추정할 수 있는 객체 정보 추정기 및 그 방법에 관한 것이다. The present invention relates to an object information estimating technique, and more particularly, to an object information estimator and a method for estimating object information using a single camera.

단일 카메라만으로 객체의 위치 또는 높이 등의 객체정보를 검출하는 기술은 최근 각광받고 있는 직관적 인터페이스(perceptual interface), 지능형 비디오 감시 장치(smart video surveillance system), 및 유비쿼터스 컴퓨팅 등에 대한 응용 가능성으로 그 중요성이 날로 강조되고 있다.The technology of detecting object information such as the position or height of an object with only a single camera is important because of its applicability to recently received perceptual interface, smart video surveillance system, and ubiquitous computing. It is emphasized day by day.

예컨대, 상기 지능형 비디오 감시 장치는 RFID, GPS 등과 같은 부가적인 장비 없이 원거리에서도 사용자의 키 높이, 위치, 보행 특성 등의 객체정보를 검출하고 검출된 객체정보에 기초하여 상기 사용자의 인식 및 추적을 할 수 있다.For example, the intelligent video surveillance apparatus detects object information such as key height, location, and walking characteristics of a user even at a distance without additional equipment such as RFID and GPS, and recognizes and tracks the user based on the detected object information. Can be.

일반적으로 영상을 기반으로 한 사용자의 객체정보는 2차원 영상으로부터의 3차원 기하학 정보에 기초하여 검출될 수 있다. 따라서, 상기 객체정보의 검출을 위해서 2차원 영상과 3차원 공간 사이의 사영 관계를 이용한 3차원 좌표값의 정확 한 계산 과정이 필수적이다. In general, object information of a user based on an image may be detected based on three-dimensional geometric information from a two-dimensional image. Therefore, in order to detect the object information, an accurate calculation process of three-dimensional coordinate values using a projection relationship between a two-dimensional image and a three-dimensional space is essential.

하지만 일반적으로 사영 카메라(projective camera) 모델에 의해서 정의되는 사영관계에서는 영상의 2차원 좌표계 상의 한 점이 3차원 공간으로 역사영(back-projection) 될 때 적용되는 스케일 값이 정의되지 않아 객체정보가 왜곡될 수 있다.However, in the projective relationship defined by the projective camera model, the object information is distorted because a scale value applied when a point on the 2D coordinate system of the image is back-projected into 3D space is not defined. Can be.

관련기술에 따른 단일 영상 기반의 3차원 정보 복원 기법은 영상 내에 존재하는 환경 구조물들의 수직-수평 관계, 또는 소실점 및 소실선 등과 같은 기하학적인 단서들을 병용함으로써 구현된다.The single image-based three-dimensional information reconstruction technique according to the related art is implemented by using geometric clues such as the vertical-horizontal relationship of the environmental structures existing in the image, or the vanishing point and the vanishing line.

이와 같은 방법들은 영상으로부터 취득한 수평, 수직 성분을 이용하여 영상 내의 소실점 및 소실선을 추정하고, 이들을 무한대 상의 원래의 위치로 복원시키는 변환을 계산한 다음 이를 기반으로 기하학 정보의 복원을 수행한다. These methods estimate the vanishing point and the vanishing line in the image using the horizontal and vertical components obtained from the image, calculate the transforms to restore them to their original positions on infinity, and then perform the restoration of the geometric information based on this.

상기 과정이 수행되기 위해서는 영상으로 사영된 3차원 공간에서의 수직, 수평 성분 등에 대한 기하학적 조건이 미리 취득되어야 한다.In order to perform the above process, geometric conditions for vertical and horizontal components in a 3D space projected as an image must be acquired in advance.

관련기술에 따른 논문들(D. Leibowitz, A. Criminisi, and A. Zisserman, "Creating Architectural Models from Images,"  Proc. EuroGraphics'99 vol.18, No.3, Sep. 1999, A. Criminisi, I. Reid, and A. Zisserman, "Single View Metrology," Int'l J. Computer Vision, vol. 40, no. 2, pp. 123-148, 2000)에는 영상으로 사영된 소실점 및 소실선을 이용하여 영상 내의 객체의 상대적인 높이를 추정하기 위한 기법이 개시되어있다.Papers related to related technologies (D. Leibowitz, A. Criminisi, and A. Zisserman, "Creating Architectural Models from Images," Proc. EuroGraphics'99 vol. 18, No. 3, Sep. 1999, A. Criminisi, I Reid, and A. Zisserman, "Single View Metrology," Int'l J. Computer Vision, vol. 40, no. 2, pp. 123-148, 2000). Techniques for estimating relative heights of objects in an image are disclosed.

상기 논문에 개시된 객체의 상대적인 높이 추정은 영상 내의 소실점 및 소실 선의 좌표를 3차원 공간의 원래의 위치로 복원하기 위한 변환을 계산한 다음 이를 이용하여 3차원 공간의 아핀 구조(affine structure)를 복원한다.The relative height estimation of the object disclosed in this paper is to calculate the transform to restore the vanishing point and the coordinates of the vanishing line in the image to the original position of the three-dimensional space, and then use it to restore the affine structure of the three-dimensional space. .

그리고 상기 대상 객체의 상대적인 높이는 상기 아핀 구조의 공간에서 길이의 상대적인 비(ratio)가 보존되는 특성을 이용하여 계산된다.And the relative height of the target object is calculated using the property that the relative ratio of the length is preserved in the space of the affine structure.

상기 대상 객체의 상대적인 높이 측정방법은 별도의 카메라 교정(camera calibration) 과정이 필요하지 않으며, 구현이 비교적 간단하다는 장점이 있다.The relative height measurement method of the target object does not require a separate camera calibration process, and has an advantage of relatively simple implementation.

그러나 상기 대상 객체의 상대적인 높이 측정방법은 영상 내의 잡음의 영향 및 영상 해상도 자체의 한계 등으로 인하여 소실점 및 소실선의 정확한 추정이 어려울 수 있다. However, in the method of measuring the relative height of the target object, it may be difficult to accurately estimate the vanishing point and the vanishing line due to the influence of noise in the image and the limitation of the image resolution itself.

기준면 상에 위치한 객체의 위치 정보는 영상과 기준면 사이의 사영관계를 이용하여 구할수 있다. 하지만 이는 영상과 기준면 사이의 2차원 사영관계에 기반한 방법이므로 기준면 상에 존재하지 않는 점의 3차원 좌표는 일반적으로 복원이 불가능한 문제가 있다.Location information of the object located on the reference plane can be obtained by using the projective relationship between the image and the reference plane. However, since this method is based on the two-dimensional projective relationship between the image and the reference plane, the three-dimensional coordinates of points that do not exist on the reference plane generally cannot be restored.

이에 대한 대안으로서 영상으로부터 다수의 카메라를 이용하여 3차원 공간상의 기하학 정보를 복원하는 방법이 있으나 상기 방법은 다수의 영상 간의 대응 관계 계산의 복잡성, 3차원 공간에서의 대응점 계산시 발생하는 모호성, 및 균일하지 못한 영상 품질 및 특성 등으로 인하여 상기 기하학 정보의 복원에 어려움이 발생할 수 있다.As an alternative to this, there is a method of restoring geometric information in three-dimensional space by using a plurality of cameras from the image, but the method includes the complexity of calculating the correspondence relationship between the plurality of images, the ambiguity generated when calculating the correspondence point in the three-dimensional space, and Difficulties in restoring the geometric information may occur due to uneven image quality and characteristics.

또한, 상기 방법은 복수의 카메라를 모두 정확히 교정시켜야 하는 어려움이 존재한다.In addition, the method has a difficulty in correcting all the plurality of cameras accurately.

따라서 본 발명이 이루고자 하는 기술적인 과제는 단일 카메라를 이용하여 객체의 정보를 추정할 수 있는 객체 정보 추정기 및 그 방법을 제공하는 것이다.Accordingly, the technical problem to be achieved by the present invention is to provide an object information estimator and a method for estimating object information using a single camera.

또한, 본 발명이 이루고자 하는 기술적인 과제는 부정확한 카메라 교정으로 인하여 발생하는 객체 정보의 오류를 교정할 수 있는 객체 정보 추정기 및 그 방법을 제공하는 것이다.In addition, the technical problem to be achieved by the present invention is to provide an object information estimator and a method for correcting the error of the object information caused by inaccurate camera calibration.

상기 기술적 과제를 달성하기 위한 객체 정보 추정 방법은 카메라로부터 입력된 입력 영상으로부터 객체의 영상을 분리하는 단계; 및 상기 객체의 영상을 3차원 공간상으로 역사영시키고 역사영된 결과에 기초하여 상기 객체의 위치 및 높이 중에서 적어도 어느 하나를 계산하고 계산결과를 출력하는 단계를 포함할 수 있다.The object information estimation method for achieving the technical problem comprises the steps of separating the image of the object from the input image input from the camera; And inverting the image of the object in a three-dimensional space and calculating at least one of a position and a height of the object based on the inverted result and outputting a calculation result.

상기 객체 정보 추정 방법은, 상기 객체의 영상을 분리하는 단계 전에, 상기 카메라를 교정하는 단계를 더 포함할 수 있다.The method for estimating object information may further include calibrating the camera before separating an image of the object.

상기 카메라를 교정하는 단계는, 상기 카메라의 내부 파라미터를 원소로 갖는 카메라 교정행렬과 상응하는 정칙행렬인

Figure 112009031309593-pat00001
(여기서, 상기 K는 상기 정칙행렬, 상기 fx는 상기 입력 영상의 x축 방향의 스케일 값, 상기 fy는 상기 입력 영상의 y축 방향의 스케일 값, 상기 s는 상기 입력 영상에 대한 비틀림 파라미터(skew parameter), 및 상기 (x0, y0)는 상기 입력 영상의 주점(principal point))를 계산하는 단계를 포함 할 수 있다.The calibrating the camera may be a regular matrix corresponding to a camera calibration matrix having an internal parameter of the camera as an element.
Figure 112009031309593-pat00001
Where K is the regular matrix, f x is the scale value in the x-axis direction of the input image, f y is the scale value in the y-axis direction of the input image, and s is a torsion parameter for the input image. (skew parameter) and (x 0 , y 0 ) may include calculating a principal point of the input image.

상기 객체의 영상을 분리하는 단계는, 상기 객체가 포함된 영상과 상기 객체가 포함되지 않은 기준영상과의 차이에 상응하는 차분 영상을 생성하는 단계; 및 상기 차분 영상을 이진화시켜 이진화된 영상을 분리된 객체의 영상으로서 출력하는 단계를 포함할 수 있다.The separating of the image of the object may include: generating a difference image corresponding to a difference between an image including the object and a reference image not including the object; And binarizing the difference image to output the binarized image as an image of a separated object.

상기 이진화된 영상을 분리된 객체의 영상으로서 출력하는 단계는, 상기 차분 영상을 구성하는 각각의 픽셀 값들과 기준 값을 비교하고 비교결과에 기초하여 상기 이진화된 영상을 출력하는 단계를 포함할 수 있다.The outputting of the binarized image as an image of the separated object may include comparing the pixel values of the difference image with a reference value and outputting the binarized image based on a comparison result. .

상기 객체의 상기 위치 및 상기 높이 중에서 적어도 어느 하나를 계산하는 단계는, 상기 역사영된 결과와 상응하는 역사영 광선을 생성하는 단계를 포함하며, Calculating at least one of the position and the height of the object includes generating an inverted ray corresponding to the inverted result,

상기 역사영 광선은,

Figure 112007063401768-pat00002
,
Figure 112007063401768-pat00003
(여기서, 상기 L은 상기 역사영 광선, 상기 P는 N*N(N은 자연수)부분행렬, 상기
Figure 112007063401768-pat00004
는 상기 카메라의 사영행렬로서 상기
Figure 112007063401768-pat00005
, 상기 λ는 상기
Figure 112007063401768-pat00006
에 대한 스케일 변수, 상기 C는 상기 카메라의 중심 좌표로서 상기
Figure 112007063401768-pat00007
, 상기
Figure 112007063401768-pat00008
는 상기 L과 상기 객체의 영상이 교차하는 어느 하나의 교점, 및 상기 D는 상기 역사영 광선에 대한 무한 원점)와 상응하고,The history zero rays,
Figure 112007063401768-pat00002
,
Figure 112007063401768-pat00003
Where L is the inverse light ray, P is N * N (N is a natural number) partial matrix, and
Figure 112007063401768-pat00004
Is a projection matrix of the camera
Figure 112007063401768-pat00005
, Wherein λ is
Figure 112007063401768-pat00006
For the scale variable, wherein C is the center coordinate of the camera
Figure 112007063401768-pat00007
, remind
Figure 112007063401768-pat00008
Is an intersection of the L and the image of the object, and D is an infinite origin for the inverse light ray),

상기 객체의 상기 위치 및 상기 높이 중에서 적어도 어느 하나는 상기 역사영 광선에 기초하여 계산될 수 있다.At least one of the position and the height of the object may be calculated based on the inverse light ray.

상기 역사영 광선은, 적어도 하나의 직선과 상응할 수 있다.The inversion beam may correspond to at least one straight line.

상기 객체의 상기 위치는, 상기 역사영 광선과 상기 3차원 공간상의 기준면이 교차하는 제1 교점과 상응하고, 상기 제1 교점은,

Figure 112007063401768-pat00009
(여기서, 상기 M0 The position of the object corresponds to a first intersection point at which the inverse light ray and the reference plane in the three-dimensional space intersect, and the first intersection point is
Figure 112007063401768-pat00009
Where M 0

는 상기 제1 교점, 상기 λ0는 상기 M0에 대한 스케일 변수, 및 상기

Figure 112007063401768-pat00010
는 상기 L과 상기 객체의 영상이 교차하는 어느 하나의 교점)일 수 있다.Is the first intersection point, λ 0 is a scale variable for M 0 , and
Figure 112007063401768-pat00010
May be any one intersection point at which L and the image of the object intersect each other.

상기

Figure 112007063401768-pat00011
(여기서, 상기 π0는 상기 기준면으로서 상기
Figure 112007063401768-pat00012
는 상기 π0상의 좌표들 중에서 상기
Figure 112007063401768-pat00013
과 대응되는 좌표)일 수 있다.remind
Figure 112007063401768-pat00011
(Wherein π 0 is the reference plane
Figure 112007063401768-pat00012
Is among the coordinates on the π 0
Figure 112007063401768-pat00013
And coordinates corresponding to "

상기 객체의 상기 높이는, 상기 객체의 상기 위치와 상기 객체의 높이지점 사이의 거리에 상응하며, 상기 높이지점은, 상기 3차원 공간상의 기준면에 수직인 직선과 상기 역사영 광선이 교차할 수 있다.The height of the object corresponds to a distance between the position of the object and the height point of the object, wherein the height point may intersect the straight line perpendicular to the reference plane in the three-dimensional space and the inverse zero ray.

상기 기준면에 수직인 직선은,

Figure 112007063401768-pat00014
(여기서, 상기
Figure 112007063401768-pat00015
는 상기 기준면에 수직인 직선, 상기
Figure 112007063401768-pat00016
는 상기 역사영 광선과 상기 3차원 공간상의 기준면이 교차하는 교점, 상기 Dv는 상기
Figure 112007063401768-pat00017
에 대한 무한 원점, 상기 μ는 Mh(단, Mh는 상기
Figure 112007063401768-pat00018
와 상기 L과의 교점)에 대한 스케일 변수)와 상응할 수 있다.The straight line perpendicular to the reference plane is
Figure 112007063401768-pat00014
Where
Figure 112007063401768-pat00015
Is a straight line perpendicular to the reference plane, the
Figure 112007063401768-pat00016
Is an intersection point at which the historical zero ray and the reference plane in the three-dimensional space intersect, and D v is the
Figure 112007063401768-pat00017
For the infinite origin, where μ is M h , where M h is
Figure 112007063401768-pat00018
And an intersection point with L).

상기 객체 정보 추정 방법은, 상기 3차원 공간상에 역사영되는 기준면과 이상적인 기준면에 기초하여 상기 기준면과 상기 이상적인 기준면 사이의 제1 호모그래피를 검출하는 단계; 및 상기 제1 호모그래피에 기초하여 상기 위치 및 상기 높이 중에서 적어도 어느 하나를 교정하고 교정결과 교정된 위치 및 교정된 높이 중에서 적어도 어느 하나를 계산하고 계산결과를 출력하는 단계를 더 포함할 수 있다.The method for estimating object information may include detecting a first homography between the reference plane and the ideal reference plane based on a reference plane and an ideal reference plane inverted on the three-dimensional space; And correcting at least one of the position and the height based on the first homography, calculating at least one of the corrected position and the corrected height, and outputting a calculation result.

상기 교정된 위치는,

Figure 112007063401768-pat00019
(여기서, 상기
Figure 112007063401768-pat00020
는 상기 교정된 위치, 및 상기
Figure 112007063401768-pat00021
는 상기 제1 호모그래피, 및 상기
Figure 112007063401768-pat00022
는 교정되기 전의 위치)일 수 있다.The corrected position is,
Figure 112007063401768-pat00019
Where
Figure 112007063401768-pat00020
Is the calibrated position, and
Figure 112007063401768-pat00021
Is the first homography, and
Figure 112007063401768-pat00022
May be a position before calibration).

상기 교정된 높이는, 상기 교정된 위치와 상기 객체의 교정된 높이지점 사이의 거리에 상응하며, 상기 교정된 높이지점은, 제1 직선과 제2 직선이 교차하는 제1 교점에 상응하며, 상기 제1 직선은, 상기 객체의 영상이 상기 기준면에 역사영된 결과와 상응하는 역사영 광선과 상기 기준면이 교차되는 제1 교점이 상기 제1 호모그래피에 기초하여 상기 이상적인 기준면 상의 어느 하나의 점으로 변환된 제2교점과 상기 카메라의 중심을 지나는 직선이고, 상기 제2 직선은, 상기

Figure 112007063401768-pat00023
를 지나고 상기 이상적인 기준면에 수직인 직선일 수 있다.The calibrated height corresponds to a distance between the calibrated position and a calibrated height point of the object, wherein the calibrated height point corresponds to a first intersection point at which a first straight line and a second straight line intersect each other. The first straight line converts a first intersection point at which the inverse light ray corresponding to the result of the image of the object being inverted on the reference plane and the reference plane to any one point on the ideal reference plane based on the first homography. The second intersection and the straight line passing through the center of the camera, the second straight line,
Figure 112007063401768-pat00023
It may be a straight line passing through and perpendicular to the ideal reference plane.

상기 기술적 과제를 달성하기 위한 객체 정보 추정기는 카메라로부터 입력된 입력 영상으로부터 객체의 영상을 분리하는 객체 영상 분리부; 및 상기 객체의 영상을 3차원 공간상으로 역사영시키고 역사영된 결과에 기초하여 상기 객체의 위치 및 높이 중에서 적어도 어느 하나를 계산하고 계산결과를 출력하는 객체 정보 추정부를 포함할 수 있다.The object information estimator for achieving the technical problem is an object image separation unit for separating the image of the object from the input image input from the camera; And an object information estimator configured to invert the image of the object in a three-dimensional space and calculate at least one of a position and a height of the object based on the inverted result and output a calculation result.

상기 객체 정보 추정기는, 상기 카메라를 교정하여 교정된 영상을 상기 입력 영상으로서 출력하는 카메라 교정부를 더 포함할 수 있다.The object information estimator may further include a camera calibrator configured to calibrate the camera and output a calibrated image as the input image.

상기 카메라 교정부는, 상기 카메라의 내부 파라미터를 원소로 갖는 카메라 교정행렬과 상응하는 정칙행렬인

Figure 112007063401768-pat00024
(여기서, 상기 K는 상기 정칙행 렬, 상기 fx는 상기 입력 영상의 x축 방향의 스케일 값, 상기 fy는 상기 입력 영상의 y축 방향의 스케일 값, 상기 s는 상기 입력 영상에 대한 비틀림 파라미터(skew parameter), 및 상기 (x0, y0)는 상기 입력 영상의 주점(principal point))를 계산하여 출력할 수 있다.The camera calibration unit is a regular matrix corresponding to a camera calibration matrix having an internal parameter of the camera as an element.
Figure 112007063401768-pat00024
Where K is the regular matrix, f x is a scale value in the x-axis direction of the input image, f y is a scale value in the y-axis direction of the input image, and s is a twist with respect to the input image A skew parameter and (x 0 , y 0 ) may be calculated by outputting a principal point of the input image.

상기 객체 영상 분리부는, 상기 객체가 포함된 영상과 상기 객체가 포함되지 않은 기준영상과의 차이에 상응하는 차분 영상을 생성하는 차분 영상 생성부; 및 상기 차분 영상을 이진화시켜 이진화된 영상을 분리된 객체의 영상으로서 출력하는 객체 영상 출력부를 포함할 수 있다.The object image separator may include: a difference image generator configured to generate a difference image corresponding to a difference between an image including the object and a reference image not including the object; And an object image output unit configured to binarize the difference image to output the binarized image as an image of a separated object.

상기 객체 영상 출력부는, 상기 차분 영상을 구성하는 각각의 픽셀 값들과 기준 값을 비교하고 비교결과에 기초하여 상기 이진화된 영상을 출력할 수 있다.The object image output unit may compare the pixel values constituting the difference image with a reference value and output the binarized image based on a comparison result.

상기 객체 정보 추정부는, 상기 역사영된 결과와 상응하는 역사영 광선을 생성하며, 상기 역사영 광선은,

Figure 112007063401768-pat00025
,
Figure 112007063401768-pat00026
(여기서, 상기 L은 상기 역사영 광선, 상기 P는 N*N(N은 자연수)부분행렬, 상기
Figure 112007063401768-pat00027
는 상기 카메라의 사영행렬로서 상기
Figure 112007063401768-pat00028
, 상기 λ는 상기
Figure 112007063401768-pat00029
에 대한 스케일 변수, 상기 C는 상기 카메라의 중심 좌표로서 상기
Figure 112007063401768-pat00030
, 상기
Figure 112007063401768-pat00031
는 상기 L과 상기 객체의 영상이 교차하는 어느 하나의 교점, 및 상기 D는 상기 역사영 광선에 대한 무한 원점)와 상응하고,The object information estimator generates an inverse light ray corresponding to the inversed light, and the inverse light is
Figure 112007063401768-pat00025
,
Figure 112007063401768-pat00026
Where L is the inverse light ray, P is N * N (N is a natural number) partial matrix, and
Figure 112007063401768-pat00027
Is a projection matrix of the camera
Figure 112007063401768-pat00028
, Wherein λ is
Figure 112007063401768-pat00029
For the scale variable, wherein C is the center coordinate of the camera
Figure 112007063401768-pat00030
, remind
Figure 112007063401768-pat00031
Is an intersection of the L and the image of the object, and D is an infinite origin for the inverse light ray),

상기 객체 정보 추정부는, 상기 역사영 광선에 기초하여 상기 객체의 상기 위치 및 상기 높이 중에서 적어도 어느 하나를 계산하고 계산결과를 출력할 수 있다.The object information estimating unit may calculate at least one of the position and the height of the object based on the historical zero ray and output a calculation result.

상기 역사영 광선은, 적어도 하나의 직선과 상응할 수 있다.The inversion beam may correspond to at least one straight line.

상기 객체의 상기 위치는, 상기 역사영 광선과 상기 3차원 공간상의 기준면이 교차하는 제1 교점과 상응하고, 상기 제1 교점은,

Figure 112007063401768-pat00032
(여기서, 상기 M0는 상기 제1 교점, 상기 λ0는 상기 M0에 대한 스케일 변수, 및 상기
Figure 112007063401768-pat00033
는 상기 L과 상기 객체의 영상이 교차하는 어느 하나의 교점)일 수 있다.The position of the object corresponds to a first intersection point at which the inverse light ray and the reference plane in the three-dimensional space intersect, and the first intersection point is
Figure 112007063401768-pat00032
(Wherein M 0 is the first intersection point, λ 0 is a scale variable for M 0 , and
Figure 112007063401768-pat00033
May be any one intersection point at which L and the image of the object intersect each other.

상기

Figure 112007063401768-pat00034
(여기서, 상기 π0는 상기 기준면으로서 상기
Figure 112007063401768-pat00035
는 상기 π0상의 좌표들 중에서 상기
Figure 112007063401768-pat00036
과 대응되는 좌표)일 수 있다.remind
Figure 112007063401768-pat00034
(Wherein π 0 is the reference plane
Figure 112007063401768-pat00035
Is among the coordinates on the π 0
Figure 112007063401768-pat00036
And coordinates corresponding to "

상기 객체의 상기 높이는, 상기 객체의 상기 위치와 상기 객체의 높이지점 사이의 거리에 상응하며, 상기 높이지점은, 상기 3차원 공간상의 기준면에 수직인 직선과 상기 역사영 광선이 교차하는 제2 교점과 상응할 수 있다.The height of the object corresponds to a distance between the position of the object and the height point of the object, wherein the height point is a second intersection point at which the straight line perpendicular to the reference plane in the three-dimensional space and the inverse zero ray intersect. May correspond to

상기 기준면에 상기 수직인 직선은,

Figure 112007063401768-pat00037
(여기서, 상기
Figure 112007063401768-pat00038
는 상기 기준면에 수직인 직선, 상기
Figure 112007063401768-pat00039
는 상기 호모그래피와 상기 3차원 공간상의 기준면이 교차하는 교점, 상기 Dv는 상기
Figure 112007063401768-pat00040
에 대한 무한 원점, 상기 μ는 Mh(단, Mh는 상기
Figure 112007063401768-pat00041
와 상기 L과의 교점)에 대한 스케일 변수)와 상응할 수 있다.The straight line perpendicular to the reference plane,
Figure 112007063401768-pat00037
Where
Figure 112007063401768-pat00038
Is a straight line perpendicular to the reference plane, the
Figure 112007063401768-pat00039
Is an intersection where the homography and the reference plane in the three-dimensional space intersect, and D v is the
Figure 112007063401768-pat00040
For the infinite origin, where μ is M h , where M h is
Figure 112007063401768-pat00041
And an intersection point with L).

상기 객체 정보 추정부는, 상기 3차원 공간상에 역사영되는 기준면과 이상적인 기준면에 기초하여 상기 기준면과 상기 이상적인 기준면 사이의 제1 호모그래피를 검출하고 검출된 제1 호모그래피에 기초하여 상기 위치 및 상기 높이 중에서 적어도 어느 하나를 교정하고 교정결과 교정된 위치 및 교정된 높이 중에서 적어도 어느 하나를 계산하고 계산결과를 출력할 수 있다.The object information estimating unit detects a first homography between the reference plane and the ideal reference plane based on the reference plane and the ideal reference plane inverted on the three-dimensional space and based on the detected first homography, the position and the At least one of the heights may be calibrated and at least one of the calibrated position and the calibrated height may be calculated and the calculation result may be output.

상기 객체 정보 추정기는 멀티미디어 기기에 구현될 수 있다.The object information estimator may be implemented in a multimedia device.

상기 객체 정보 추정기는 컴퓨터 기기에 구현될 수 있다.The object information estimator may be implemented in a computer device.

상술한 바와 같이 본 발명에 따른 객체 정보 추정기 및 그 방법은 단일 카메라만을 이용하여 객체의 정보(객체의 높이 및 위치 중에서 적어도 어느 하나)를 추정할 수 있는 효과가 있다.As described above, the object information estimator and the method according to the present invention have the effect of estimating the information (at least one of the height and the position of the object) of the object using only a single camera.

본 발명에 따른 객체 정보 추정기 및 그 방법은 부정확한 카메라 교정으로 인하여 발생하는 객체 정보의 오류를 교정하여 보다 정확하게 객체의 정보를 추정할 수 있는 효과가 있다. The object information estimator and the method according to the present invention have the effect of estimating the information of the object more accurately by correcting the error of the object information caused by the incorrect camera calibration.

또한, 본 발명에 따른 객체 정보 추정기 및 그 방법은 단일 카메라 기반의 감시, 통제, 또는 보안 시스템 등에 이용되어 정확한 객체의 정보를 제공할 수 있는 효과가 있다.In addition, the object information estimator and method according to the present invention has an effect that can be used to provide accurate object information by using a single camera-based monitoring, control, or security system.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시 예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다. 이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.In order to fully understand the present invention, the operational advantages of the present invention, and the objects achieved by the practice of the present invention, reference should be made to the accompanying drawings which illustrate preferred embodiments of the present invention and the contents described in the accompanying drawings. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Like reference numerals in the drawings denote like elements.

도 1은 본 발명의 실시 예에 따른 객체 정보 추정기를 나타내고, 도 2는 도 1의 객체 정보 추정기에서 출력되는 객체정보를 설명하기 위한 도면이고, 도 3은 도 1의 객체 정보 추정기에서 객체정보가 출력되는 과정을 설명하기 위한 도면이다.1 is a diagram illustrating an object information estimator according to an embodiment of the present invention, FIG. 2 is a diagram for describing object information output from the object information estimator of FIG. 1, and FIG. 3 is a diagram illustrating object information of the object information estimator of FIG. 1. It is a figure for explaining the output process.

도 4는 도 1의 객체 영상 출력부에 의해서 객체 영상이 출력되는 과정을 설 명하기 위한 도면이고, 도 5는 도 1의 객체 영상 출력부에서 생성되는 마커와 입력 영상 사이의 기하학적 관계를 설명하기 위한 도면이다. 도 1 내지 도 5를 참조하면, 상기 객체 정보 추정기(10)는 카메라(5)로부터 입력된 입력 영상으로부터 객체의 영상(BI)을 분리하고 분리된 객체영상(BI)을 3차원 공간상으로 역사영시키고 역사영된 결과에 기초하여 상기 객체의 위치(LO) 및 높이(HG) 중에서 적어도 어느 하나를 계산하고 계산결과를 출력할 수 있다.FIG. 4 is a diagram for describing a process of outputting an object image by the object image output unit of FIG. 1, and FIG. 5 is a diagram for describing a geometric relationship between a marker generated in the object image output unit of FIG. 1 and an input image. It is for the drawing. 1 to 5, the object information estimator 10 separates an image BI of an object from an input image input from the camera 5 and history the separated object image BI in three-dimensional space. Based on the zeroed and inverted results, at least one of the position LO and the height HG of the object may be calculated and a calculation result may be output.

상기 카메라(5)는 CCD (Charge Coupled Device)형 이미지 센서 또는 CMOS형 이미지 센서(CMOS Image Sensor; CIS)로 구현된 렌즈를 구비하여 피사체를 촬영하여 상기 입력 영상을 출력할 수 있다.The camera 5 may include a lens implemented as a CCD (Charge Coupled Device) image sensor or a CMOS image sensor (CIS) to photograph the subject and output the input image.

상기 카메라(5)는 디지털 카메라 또는 비디오 카메라일 수 있으며 휴대용 단말기, 노트북, 데스크톱 컴퓨터, 또는 휴대용 멀티미디어 컴퓨터(PMP) 등의 멀티미디어 장치에 구현되는 카메라일 수 있다.The camera 5 may be a digital camera or a video camera, and may be a camera implemented in a multimedia device such as a portable terminal, a notebook computer, a desktop computer, or a portable multimedia computer (PMP).

상기 카메라(5)의 내부에 구현될 수도 있는 상기 객체 정보 추정기(10)는 카메라 교정부(12), 객체 영상 분리부(14), 및 객체 정보 추정부(20)를 포함할 수 있다.The object information estimator 10, which may be implemented inside the camera 5, may include a camera calibrator 12, an object image separator 14, and an object information estimator 20.

상기 객체 정보 추정기(10)는 노트북, PDA, 핸드폰, 또는 디지털 카메라 등과 같은 멀티미디어 기기 내에 구현될 수 있으며, 컴퓨터 기기 내부에 구현될 수도 있다.The object information estimator 10 may be implemented in a multimedia device such as a notebook computer, a PDA, a mobile phone, or a digital camera, or may be implemented in a computer device.

상기 객체 정보 추정기(10) 또는 상기 객체 정보 추정기(10)를 구성하는 각 구성요소들(12 내지 20)은 하드웨어(H/W) 및/ 또는 소프트웨어(S/W)적으로 구현될 수 있다.Each of the components 12 to 20 constituting the object information estimator 10 or the object information estimator 10 may be implemented in hardware (H / W) and / or software (S / W).

상기 카메라 교정부(12)는 상기 카메라를 교정하여 교정된 영상을 상기 입력 영상으로서 출력할 수 있다.The camera calibrator 12 may output the calibrated image as the input image by calibrating the camera.

예컨대, 상기 카메라 교정부(12)는 수학식 1에 기초하여 상기 카메라(5)의 내부 파라미터를 원소로 갖는 카메라 교정행렬과 상응하는 정칙행렬을 계산할 수 있다.For example, the camera calibration unit 12 may calculate a regular matrix corresponding to a camera calibration matrix having an internal parameter of the camera 5 as an element based on Equation 1.

Figure 112007063401768-pat00042
(여기서, 상기 K는 상기 정칙행렬, 상기 fx는 상기 입력 영상의 x축 방향의 스케일 값, 상기 fy는 상기 입력 영상의 y축 방향의 스케일 값, 상기 s는 상기 입력 영상에 대한 비틀림 파라미터(skew parameter), 및 상기 (x0, y0)는 상기 입력 영상의 주점(principal point)이다.)
Figure 112007063401768-pat00042
Where K is the regular matrix, f x is the scale value in the x-axis direction of the input image, f y is the scale value in the y-axis direction of the input image, and s is a torsion parameter for the input image. (skew parameter), and (x 0 , y 0 ) are principal points of the input image.)

상기 카메라 교정부(12)는 상기 K를 구하기 위하여 Zhang이 제안한 카메라 교정 기법(Z. Zhang, "Flexible New Technique for Camera Calibration," IEEE Trans. Pattern Analysis and Machine Intelligence, vol. 19, no. 7, pp. 1330-1334, Nov. 2000. )을 이용할 수 있다.The camera calibration unit 12 is a camera calibration technique proposed by Zhang (Z. Zhang, "Flexible New Technique for Camera Calibration," IEEE Trans.Pattern Analysis and Machine Intelligence, vol. 19, no. 7, pp. 1330-1334, Nov. 2000.

상기 Zhang의 카메라 교정 기법은 무한 평면 상의 절대점(absolute points)이 갖는 특징 중 하나인 등거리 변환(isometric transformation)에 대한 불변 성(invariance)을 이용하여 영상으로 사영되는 IAC(image of absolute conic) w를 계산한 다음, w-1= kkT의 관계로부터 상기 K를 구할 수 있는바 이에 대한 상세한 설명은 생략하도록 한다.Zhang's camera calibration technique is an image of absolute conic (IAC) w projected using an invariance to isometric transformation, one of the features of absolute points on an infinite plane. After calculating, the K can be obtained from the relationship of w −1 = kk T , and thus a detailed description thereof will be omitted.

상기 카메라 교정부(12)에 의해서 계산된 정칙행렬(K)은 객체 정보 추정부(20)에서 객체 정보(예컨대, 상기 객체의 위치(LO) 및 높이(HG) 중에서 적어도 어느 하나) 계산시 사용되어 상기 카메라(5)로 인해 발생된 교정 오차는 보상될 수 있는바 이에 대한 상세한 설명은 후술하도록 한다.The regular matrix K calculated by the camera calibrating unit 12 is used when the object information estimating unit 20 calculates object information (eg, at least one of the position LO and the height HG of the object). The calibration error generated by the camera 5 can be compensated, which will be described later.

상기 카메라 교정부(12)는 차분 영상 생성부(16)에서 차분영상(DI)을 생성하는데 기초가 되는 기준영상(RI, 도 3의 (a))을 출력할 수 있다.The camera calibrator 12 may output a reference image RI (FIG. 3A) as a basis for generating the difference image DI by the difference image generator 16.

상기 기준영상(RI)은 상기 카메라(5)를 통하여 입력된 입력 영상 중에서 객체(BI)가 포함되지 않은 영상으로서 차분 영상 생성부(16)는 객체(BI)가 포함된 영상(도 3의 (b), SI)과 상기 객체(BI)가 포함되지 않은 기준영상(RI)과의 차이에 상응하는 차분 영상(DI, 도 3의 (c)을 생성할 수 있다.The reference image RI is an image in which the object BI is not included among the input images input through the camera 5, and the difference image generating unit 16 includes an image in which the object BI is included (FIG. b), a differential image DI corresponding to a difference between the SI) and the reference image RI that does not include the object BI may be generated (c) of FIG. 3.

또한, 상기 카메라 교정부(12)는 상기 3차원 공간상에 마커(MK)를 생성하고 생성된 마커(MK)를 3차원 공간을 구성하는 다수의 면들 중에서 상기 객체 정보를 검출하기 위한 기준이 되는 기준면(π0) 위에 배치시킬 수 있다.In addition, the camera calibrator 12 generates a marker MK on the three-dimensional space and serves as a reference for detecting the object information among a plurality of planes constituting the three-dimensional space. It may be disposed on the reference plane π 0 .

상기 마커(MK)는 상기 기준면(π0) 상에서의 기준 좌표계의 설정 또는 카메라의 오차 보정 행렬의 계산을 하는데 기준이 되는 좌표계 또는 상기 좌표계의 방향일 수 있다.The marker MK may be a coordinate system or a direction of the coordinate system which is a reference for setting a reference coordinate system on the reference plane π 0 or calculating an error correction matrix of a camera.

상기 객체 영상 분리부(14)는 카메라(5)로부터 입력된 입력 영상으로부터 객체의 영상을 분리한다.The object image separator 14 separates an image of an object from an input image input from the camera 5.

상기 객체 영상 분리부(14)는 차분 영상 생성부(16)과 객체 영상 출력부(18)을 포함할 수 있다. 상기 차분 영상 생성부(16)는 상기 객체(BI)가 포함된 영상(SI)과 상기 객체가 포함되지 않은 기준영상(RI)과의 차이에 상응하는 차분 영상(DI) 생성할 수 있다.The object image separator 14 may include a difference image generator 16 and an object image output unit 18. The difference image generator 16 may generate a difference image DI corresponding to a difference between the image SI including the object BI and the reference image RI without the object BI.

상기 객체 영상 출력부(18)는 상기 차분 영상(DI)을 이진화시켜 이진화된 영상(CI)을 분리된 객체의 영상으로서 출력할 수 있다.The object image output unit 18 may binarize the difference image DI to output the binarized image CI as an image of a separated object.

보다 상세하게는 상기 객체 영상 출력부(18)는 상기 차분 영상(DI)을 구성하는 각각의 픽셀 값들과 기준 값을 비교하고 비교결과에 기초하여 상기 이진화된 영상(CI)을 출력할 수 있다.In more detail, the object image output unit 18 may compare the pixel values constituting the difference image DI with a reference value and output the binary image CI based on a comparison result.

예컨대, 상기 객체 영상 출력부(18)는 수학식 2에 기초하여 상기 이진화된 영상(CI)을 출력할 수 있다.For example, the object image output unit 18 may output the binarized image CI based on Equation 2.

Figure 112007063401768-pat00043
Figure 112007063401768-pat00043

(여기서, 상기 ID(x,y)는 이진화된 영상(CI)을 구성하는 픽셀들 중에서 어느 하나의 픽셀이고,

Figure 112007063401768-pat00044
는 차분 영상(DI)을 구성하는 픽 셀들 중에서 상기 ID(x,y)에 대응되는 픽셀의 값으로, 상기 IR(x,y)는 객체(BI)가 포함된 영상(SI)에서의 픽셀 값이고, ICi(x,y)는 상기 객체(BI)가 포함되지 않은 기준영상(RI)에서의 픽셀 값이고, 상기 Rth는 미리 정해진 기준 값이다.)Here, I D (x, y) is any one pixel among pixels constituting the binarized image CI,
Figure 112007063401768-pat00044
Is a value of a pixel corresponding to the I D (x, y) among the pixels constituting the differential image DI, and the I R (x, y) is an image SI including the object BI. A pixel value, I Ci (x, y) is a pixel value in the reference image RI without the object BI, and R th is a predetermined reference value.)

즉, 상기 객체 영상 출력부(18)는 상기 차분 영상(DI)을 구성하는 픽셀들 중에서 대응되는 픽셀 값(

Figure 112007063401768-pat00045
)이 상기 기준 값(Rth)보다 큰 경우 제1 픽셀 값(예컨대, 255)을 상기 픽셀의 값으로서 출력하고, 상기 대응되는 픽셀 값(
Figure 112007063401768-pat00046
)이 상기 기준 값(Rth)보다 작은 경우 제2 픽셀 값(예컨대, 0)을 상기 픽셀의 값으로서 출력할 수 있다.That is, the object image output unit 18 may have a corresponding pixel value among pixels constituting the difference image DI.
Figure 112007063401768-pat00045
Is greater than the reference value Rth, a first pixel value (eg, 255) is output as the pixel value, and the corresponding pixel value (
Figure 112007063401768-pat00046
) Is smaller than the reference value Rth, a second pixel value (eg, 0) may be output as the pixel value.

또한, 상기 객체 영상 출력부(18)는 이진화된 영상(CI)에 대한 모폴로지(morphology) 연산을 수행한 다음 최종 객체 영상을 구할 수 있다.In addition, the object image output unit 18 may obtain a final object image after performing a morphology operation on the binarized image CI.

상기 객체 영상 출력부(18)는 모폴로지 연산에서 추출된 객체의 영상을 구성하는 픽셀들 중에서 픽셀의 크기가 일정 값 이하인 영역은 잡음으로 간주하여 제거할 수 있다.The object image output unit 18 may remove an area of a pixel having a predetermined size or less from among pixels constituting the image of the object extracted by the morphology operation as noise.

예컨대, 객체 영상 출력부(18)에 의해서 출력된 이진화된 영상(CI)은 도 4와 같이 이진화된 객체(CK)를 포함하며, 객체(CK)의 정보추정을 위하여 상기 이진화된 객체의 좌표값은 객체 영역의 가로 폭(w) 및 세로 폭(h)을 2 등분한 좌표들(예컨대, 제1 좌표는

Figure 112007063401768-pat00047
, 제2 좌표는
Figure 112007063401768-pat00048
)로 각각 계산될 수 있다.For example, the binarized image CI output by the object image output unit 18 includes a binarized object CK, as shown in FIG. 4, and coordinate values of the binarized object for information estimation of the object CK. Are coordinates obtained by dividing the horizontal width (w) and the vertical width (h) of the object area by two (eg, the first coordinate is
Figure 112007063401768-pat00047
, The second coordinate is
Figure 112007063401768-pat00048
Can be calculated respectively.

상기 객체 정보 추정부(20)는 객체 영상 출력부(18)에서 출력된 이진 객체의 영상(CI)을 3차원 공간상으로 역사영시키고 역사영된 결과에 기초하여 상기 객체(CK)의 위치(LO) 및 높이(HG) 중에서 적어도 어느 하나를 계산하고 계산결과를 출력할 수 있다.The object information estimator 20 inverts the image CI of the binary object output from the object image output unit 18 in a three-dimensional space, and positions the object CK based on the result of the inversion. At least one of LO) and height HG may be calculated and a calculation result may be output.

상기 객체 정보 추정부(20)는 상기 역사영된 결과와 상응하는 다음의 수학식 3과 같이 역사영 광선을 생성할 수 있으며 상기 객체 정보 추정부(20)는 상기 역사영 광선에 기초하여 상기 객체(CK)의 상기 위치(LO) 및 상기 높이(HG) 중에서 적어도 어느 하나를 계산하고 계산결과를 출력할 수 있다.The object information estimating unit 20 may generate an inverted ray of light as shown in Equation 3 corresponding to the result of the inversion of the object, and the object information estimator 20 may generate the object based on the inversion ray of light. At least one of the position LO and the height HG of CK may be calculated and a calculation result may be output.

Figure 112007063401768-pat00049
Figure 112007063401768-pat00050
Figure 112007063401768-pat00051
Figure 112007063401768-pat00052
Figure 112007063401768-pat00053
Figure 112007063401768-pat00054
Figure 112007063401768-pat00055
, (여기서, 상기 L은 상기 역사영 광선, 상기 P는 N*N(N은 자연수)부분행렬, 상기 는 상기 카메라의 사영행렬로서 상기 , 상기 λ는 상기 에 대한 스케일 변수, 상기 C는 상기 카메라의 중심 좌표로서 상기 , 상기 는 상기 L과 상기 객체(CK)의 영상이 교차하는 어느 하나의 교점, 및 상기 D는 상기 역사영 광선에 대한 무한 원점)와 상응할 수 있다.
Figure 112007063401768-pat00049
Figure 112007063401768-pat00050
Figure 112007063401768-pat00051
Figure 112007063401768-pat00052
Figure 112007063401768-pat00053
Figure 112007063401768-pat00054
Figure 112007063401768-pat00055
Where L is the inverse light beam, P is an N * N (N is a natural number) submatrix, is a projection matrix of the camera, λ is a scale variable for the C, and C is the camera As the center coordinates of the, may be any one intersection point of the L and the image of the object (CK), and the D may correspond to the infinite origin for the inverse light ray.

상기 객체 정보 추정부(20)가 객체 영상 출력부(18)에서 출력된 상기 객체의 영상(CI)을 3차원 공간상으로 역사영시키는 과정을 상세히 설명하면 다음과 같다.When the object information estimator 20 inverts the image CI of the object output from the object image output unit 18 in a three-dimensional space in detail as follows.

3차원 공간 내의 한점 M=(X, Y, Z)와 영상의 한점 m=(x, y)에 대한 동차좌표계(homogeneous coordinate system) 좌표를 각각

Figure 112007063401768-pat00056
,
Figure 112007063401768-pat00057
라고 할 때, 상기
Figure 112007063401768-pat00058
과 상기
Figure 112007063401768-pat00059
의 사영 관계는 p*q(예컨대, 3 X 4) 카메라 행렬에 의해서 다음의 수학식 4와 같이 정의될 수 있다.Homogeneous coordinate system coordinates for one point M = (X, Y, Z) and one point m = (x, y) in the three-dimensional space, respectively
Figure 112007063401768-pat00056
,
Figure 112007063401768-pat00057
When said,
Figure 112007063401768-pat00058
And said
Figure 112007063401768-pat00059
The projective relationship of may be defined as Equation 4 by p * q (eg, 3 × 4) camera matrix.

Figure 112007063401768-pat00060
Figure 112007063401768-pat00060

(여기서, 상기

Figure 112007063401768-pat00061
는 사영행렬이고, 상기 λ는 상기
Figure 112007063401768-pat00062
에 대한 스케일 변수이고, 상기 R은 카메라(5)의 회전변위에 의한 행렬(예컨대, 3*3 행렬)이고, 상기 ri는 상기 R의 i번째 열(column)을 나타내고, 상기 t는 카메라(5)의 이동을 의미하는 이동 벡터 (translation vector, 예컨대, 3*1 행렬)이고, 상기 K는 카메라의 내부 파라미터(intrinsic parameter)를 원소로 갖는 카메라 교정 행렬(camera calibration matrix)을 나타내는 정칙 행렬 (non-singular matrix, 예컨대,(3*3 행 렬), 수학식 1)이고, 상기 수학식 4에서 첨자 "~ "는 동차 좌표계 좌표를 의미한다.)Where
Figure 112007063401768-pat00061
Is a projective matrix, and λ is
Figure 112007063401768-pat00062
Is a scale variable with respect to R, wherein R is a matrix (e.g., a 3 * 3 matrix) by rotational displacement of the camera 5, wherein r i represents an i-th column of R, and t is a camera ( 5) is a translation vector (e.g., a 3 * 1 matrix), which means the movement of K, and K is a regular matrix representing a camera calibration matrix having an intrinsic parameter of the camera as an element. non-singular matrix, e.g., (3 * 3 matrix), Equation 1), and the subscript "~" in Equation 4 means homogeneous coordinates.)

상기 객체 정보 추정부(20)는 상기 수학식 4에 의해서 2차원의 객체의 영상(CI)를 3차원 공간 내에 존재하는 기준면(π0)으로 역사영시킬 수 있으며, 역사영된 결과는 2차원의 영상과 기준면 사이의 호모그래피(homography)로 정의될 수 있다.The object information estimator 20 may map the image CI of the two-dimensional object to the reference plane π 0 existing in the three-dimensional space according to Equation 4, and the result of the inversion is two-dimensional. It can be defined as a homography (homography) between the image and the reference plane.

상기 객체 정보 추정부(20)는 상기 역사영된 결과와 상응하는 역사영 광선을 생성하기 위하여 기준면(π0) 상에 존재하는 서로 다른 4개의 점과 이들에 대한 객체의 영상(CI) 사이의 호모그래피를 이용하여 상기 2차원의 객체의 영상(BI)의 역사영 관계를 나타내는

Figure 112007063401768-pat00063
를 계산할 수 있다.The object information estimator 20 is provided between the four different points existing on the reference plane π 0 and an image CI of the object for them to generate the inverse light beam corresponding to the inversed result. Represents the history of the image BI of the two-dimensional object using homography
Figure 112007063401768-pat00063
Can be calculated.

예컨대, 도 4와 같이 상기 기준면(π0)이 3차원 공간(또는 3차원 기준 좌표계) 상의 XY평면이라고 가정하고, 상기 기준면(π0) 상의 네 점

Figure 112007063401768-pat00064
이 상기 객체의 영상(BI)의
Figure 112007063401768-pat00065
로 사영되었다고 할 때,
Figure 112007063401768-pat00066
Figure 112007063401768-pat00067
로 구성된 행렬
Figure 112007063401768-pat00068
Figure 112007063401768-pat00069
사이의 사영관계는 수학식 5와 같다.For example, the reference surface is also assumed that an XY plane, and on the plane (π 0) is a three-dimensional (or three-dimensional reference coordinate system), such as 4, four points on the (π 0)
Figure 112007063401768-pat00064
Of the image BI of this object
Figure 112007063401768-pat00065
When projected to
Figure 112007063401768-pat00066
And
Figure 112007063401768-pat00067
Matrix
Figure 112007063401768-pat00068
Wow
Figure 112007063401768-pat00069
The projective relationship therebetween is shown in Equation 5.

Figure 112007063401768-pat00070
Figure 112007063401768-pat00071
(여기서, 상기 p1는 사영행렬( )의 각각의 열 벡터이다.)
Figure 112007063401768-pat00070
Figure 112007063401768-pat00071
(Where p 1 is each column vector of the projection matrix ().)

상기 객체 정보 추정부(20)는 상기

Figure 112007063401768-pat00072
의 좌표 지정시 상기 기준면(π0) 상에 위치한 마커(MK)의 네 꼭지점을 이용하여 지정할 수 있다.The object information estimating unit 20
Figure 112007063401768-pat00072
When designating the coordinates of, may be specified using the four vertices of the marker (MK) located on the reference plane (π 0 ).

상기 객체 정보 추정부(20)가 상기

Figure 112007063401768-pat00073
의 좌표를 상기 기준면(π0) 상에 위치한 마커(MK)의 네 꼭지점으로 지정한 경우 상기 수학식 5는 수학식 6과 같이 정리될 수 있다.The object information estimating unit 20
Figure 112007063401768-pat00073
When the coordinate of is specified as four vertices of the marker MK located on the reference plane π 0 , Equation 5 may be summarized as in Equation 6.

Figure 112007063401768-pat00074
Figure 112007063401768-pat00074

(여기서, (xi, yi)는 객체 영상(CK) 내에서의 i번째 꼭지점 좌표를 나타내고, rij는 회전 행렬의 i행 j열의 원소를 나타내고, tx, ty, 및 tz 각각은 이동벡터 t의 원소이다.)(Where (x i , y i ) represents the i th vertex coordinate in the object image CK, r ij represents the elements of the i row j columns of the rotation matrix, t x , t y , and t z Each is an element of the motion vector t)

상기 객체 정보 추정부(20)는 상기 수학식 5와 상기 마커(MK)의 네 개의 꼭 지점(도 4의

Figure 112007063401768-pat00075
)를 이용하여 상기 rij 및 t를 계산하고 계산결과를 출력할 수 있다.The object information estimating unit 20 has four vertices of the equation (5) and the marker (MK) (Fig. 4).
Figure 112007063401768-pat00075
R ij using And t and output the calculation result.

또한, 상기 객체 정보 추정부(20)는 회전 행렬의 직교 조건(orthogonal condition)으로부터 R의 세 번째 열 벡터를 r1과 r2의 외적인 r3 = r1 x r2(여기서, r3는 R의 세 번째 열 벡터)로서 계산할 수 있다.In addition, the object information estimator 20 converts the third column vector of R from the orthogonal condition of the rotation matrix to the external r 3 of r 1 and r 2 . = r 1 xr 2 , where r 3 is the third column vector of R.

상기 객체 정보 추정부(20)는 상기 수학식 6을 통하여 회전 행렬(R)을 계산하여 출력할 수 있으며, 상기 회전 행렬(R)이 직교 조건을 만족하지 않는 경우, 논문(G. Golub and C. Loan, "Matrix Computations: 3rd ed.," Johns Hopkins Univ. Press, 1996.)에 개시된 바와 같이 상기 회전 행렬(R)을 SVD(singular value decomposition)를 이용하여 로

Figure 112007063401768-pat00076
분해한 다음, 회전 행렬을 최적의 근사값인
Figure 112007063401768-pat00077
로 근사화시킬 수도 있다.The object information estimating unit 20 may calculate and output a rotation matrix R through Equation 6, and when the rotation matrix R does not satisfy an orthogonal condition, the paper G. Golub and C Loan, "Matrix Computations: 3rd ed.," Johns Hopkins Univ. Press, 1996.), converts the rotation matrix (R) using SVD (singular value decomposition) to
Figure 112007063401768-pat00076
After decomposition, the rotation matrix is approximated
Figure 112007063401768-pat00077
It can also be approximated by

따라서, 상기 객체 정보 추정부(20)는, 상기 마커(MK)의 한 변의 길이가 wm이라고 가정할 때,

Figure 112007063401768-pat00078
를 수학식 7과 같이 계산할 수 있다.Therefore, when the object information estimating unit 20 assumes that the length of one side of the marker MK is w m ,
Figure 112007063401768-pat00078
Can be calculated as in Equation 7.

Figure 112007063401768-pat00079
Figure 112007063401768-pat00079

즉, 상기 객체 정보 추정부(20)가

Figure 112007063401768-pat00080
를 수학식 7과 같이 계산함으로써, 3차원 기준 좌표계의 원점은 한 변의 길이가 wm인 정사각형의 중심, 즉, 마커(MK)의 중심에 위치할 수 있으며, 상기 wm은 역사영될 3차원 기준 좌표계에 대한 스케일을 결정짓는 역할을 할 수 있다.That is, the object information estimating unit 20
Figure 112007063401768-pat00080
By calculating as in Equation 7, the origin of the three-dimensional reference coordinate system can be located at the center of the square, that is, the length of one side of w m , that is, the center of the marker (MK), wherein w m is the three-dimensional to be mapped It may serve to determine the scale with respect to the reference coordinate system.

즉, 상기 객체 정보 추정부(20)는 도 5와 같이 이진화된 영상(CI)에 위치하는 적어도 하나의 점(예컨대, mh, m0)을 3차원 공간상에서 역사영 광선(L1, L2)로 역사영시킬 수 있다.That is, the object information estimation unit (20) has at least one point (e.g., m h, m 0), the history spirit beams (L 1, in the three-dimensional space L which is located in the image (CI) binarization as shown in FIG. 5 2 ) history can be done.

도 5와 같이 상기 역사영 광선(L1, L2)는 카메라(5)의 중심 좌표(C)와 이진화된 영상(CI)에 위치하는 적어도 하나의 점(예컨대, mh, m0)을 지난다.As shown in FIG. 5, the inversion light rays L 1 and L 2 include at least one point (eg, m h , m 0 ) positioned at the center coordinate C of the camera 5 and the binarized image CI. Passing.

3 * 3 부분행렬 P를 이용하여 카메라 행렬을

Figure 112007063401768-pat00081
라고 정의하면, 상기 카메라(5)의 중심의 좌표 C는 다음의 수학식 8과 같다.Camera matrix using 3 * 3 submatrix P
Figure 112007063401768-pat00081
In this case, the coordinate C of the center of the camera 5 is expressed by the following expression (8).

Figure 112007063401768-pat00082
Figure 112007063401768-pat00082

상기 객체 정보 추정부(20)는 상기 카메라의 중심(C)과 이진화된 영상(CI)에 위치하는 적어도 하나의 점(예컨대, mh, m0) 각각을 잇는 역사영 광선(L1, L2)의 방향을 상기 역사영 광선(L1, L2) 각각의 무한 원점(point at infinity)으로부터 구할 수 있다.The object information estimator 20 may include the inverse zero rays L 1 and L connecting the center C of the camera and each of at least one point (eg, m h , m 0 ) positioned in the binarized image CI. 2) the history of zero light (L 1, L 2) can be determined from the orientation of each of the point at infinity (point at infinity).

또한, 상기 객체 정보 추정부(20)는 3차원 공간으로 역사영되는 2차원 평면(π0) 상의 적어도 하나의 점은 중심 좌표(C)와 이진화된 영상(CI)에 위치하는 적어도 하나의 점(m, 예컨대, mh, m0)과 직선을 이루므로, 호모그래피(L1, L2)에 대한 무한 원점(

Figure 112007063401768-pat00083
) 를 수학식 9를 이용하여 계산할 수 있다.In addition, the object information estimating unit 20 is at least one point on the two-dimensional plane (π 0 ) that is mapped to the three-dimensional space is located at the center coordinate (C) and the binarized image (CI) Since it forms a straight line with (m, e.g., m h , m 0 ), the infinite zero point for the homography (L 1 , L 2 )
Figure 112007063401768-pat00083
) Can be calculated using Equation 9.

Figure 112007063401768-pat00084
Figure 112007063401768-pat00084

즉, 상기 객체 정보 추정부(20)는 상기 수학식 8과 9를 이용하여 상기 점 m에 대한 역사영 결과인 역사영 광선(수학식 3의 L, 예컨대, 도 6의 L1, L2)를 생성할 수 있다.That is, the object information estimating unit 20 uses the inverse zero light beam (L in Equation 3, for example, L 1 and L 2 in FIG. 6), which is a zeroing result of the point m using Equations 8 and 9. Can be generated.

상기 객체 정보 추정부(20)가 객체 영상 출력부(18)에서 출력된 상기 객체의 영상(CI)을 3차원 공간상으로 역사영된 결과에 기초하여 상기 객체의 상기 위 치(LO) 및 상기 객체의 높이(HG) 중에서 적어도 어느 하나를 검출할 수 있다.The location LO and the object of the object based on a result of the object information estimator 20 inverting the image CI of the object output from the object image output unit 18 in three-dimensional space. At least one of the height HG of the object may be detected.

상기 객체 정보 추정부(20)는 역사영 광선(예컨대, 도 6의 L1)와 상기 3차원 공간상의 기준면(π0)이 교차하는 제2 교점(M0)을 검출하고 검출된 제2 교점(M0)을 상기 객체(CK)의 위치(LO)로서 출력할 수 있다.The object information estimator 20 detects a second intersection M 0 at which an inverse light ray (eg, L1 of FIG. 6) and the reference plane π 0 on the three-dimensional space intersect and detect the detected second intersection point ( M 0 ) may be output as the location LO of the object CK.

상기 객체 정보 추정부(20)는 상기 제2 교점(M0)을 수학식 10과 같이 계산하여 계산결과를 출력할 수 있다.The object information estimator 20 may calculate the second intersection point M 0 as shown in Equation 10 and output a calculation result.

Figure 112007063401768-pat00085
Figure 112007063401768-pat00085

(여기서, 상기 M0 는 상기 제2 교점, 상기 λ0는 상기 M0에 대한 스케일 변수, 및 상기

Figure 112007063401768-pat00086
는 상기 L과 상기 객체의 영상이 교차하는 어느 하나의 교점)Where M 0 Is the second intersection point, λ 0 is a scale variable for M 0 , and
Figure 112007063401768-pat00086
Is the intersection of any one of the L and the image of the object)

상기 객체 정보 추정부(20)는 상기 λ0를 수학식 11과 같이 계산하여 계산결과를 출력할 수 있다. The object information estimator 20 may calculate the λ 0 as shown in Equation 11 and output a calculation result.

Figure 112007063401768-pat00087
Figure 112007063401768-pat00087

(여기서, 상기 π0는 상기 기준면으로서 상기

Figure 112007063401768-pat00088
는 상기 π0상의 좌표들 중에서 상기
Figure 112007063401768-pat00089
과 대응되는 좌표)(Wherein π 0 is the reference plane
Figure 112007063401768-pat00088
Is among the coordinates on the π 0
Figure 112007063401768-pat00089
And corresponding coordinates)

상기 객체 정보 추정부(20)가 상기 객체(CK)의 위치(LO)를 검출하는 과정을 도 6을 통하여 상세히 설명하면 다음과 같다.The process of the object information estimator 20 detecting the location LO of the object CK will be described in detail with reference to FIG. 6 as follows.

상기 객체 정보 추정부(20)는 도 6과 같이 객체(CK, 직선 momh)를 3차원 공간의 직선 MoMh로 역사영시키고 역사영결과에 기초하여 기준면(π0) 상의 Mo를 계산함으로서 상기 객체(CK)의 위치(LO)를 검출할 수 있다.Said by the object information estimation unit 20 is history as a linear MoMh of three-dimensional objects (CK, a straight line m o m h) as shown in FIG zero and calculate the Mo on the reference plane (π 0) on the basis of the history of zero results The location LO of the object CK may be detected.

예컨대, 상기 객체 정보 추정부(20)는 제1 역사영 광선(L1)와 월드좌표계(WC) 상의 기준면(π0)인 XY 평면의 교점인 Mo의 좌표 값(수학식 10)을 상기 객체(CK)의 위치(LO)로서 출력할 수 있다.For example, the object information estimating unit 20 calculates the coordinate value of the Mo (Equation 10), which is the intersection point of the first inverse light ray L 1 and the XY plane that is the reference plane π 0 on the world coordinate system WC, to the object. It can output as the position LO of (CK).

상기 제1 교점(Mo)이 상기 기준면(π0)에 항상 위치한다고 가정하는 경우 수학식 12을 만족시킨다.If it is assumed that the first intersection point Mo is always located on the reference plane π 0 , Equation 12 is satisfied.

Figure 112007063401768-pat00090
Figure 112007063401768-pat00090

상기 수학식 12로부터 상기 수학식 11이 계산되며, 상기 객체 정보 추정부(20)는 상기 수학식 11의 계산결과인 λ0와 상기 수학식 10으로부터 상기 제1 역 사영 광선(L1)와 상기 기준면(π0)의 제1 교점(Mo)을 객체(CK)의 위치로서 검출할 수 있다.Equation 11 is calculated from Equation 12, and the object information estimating unit 20 calculates λ 0 , which is a calculation result of Equation 11, and Equation 10 from the first inverse projected light beam L 1 and The first intersection Mo of the reference plane π 0 can be detected as the position of the object CK.

또한, 상기 객체 정보 추정부(20)는 상기 객체(CK)의 상기 위치(Mo)와 상기 객체(CK)의 높이지점 사이의 거리를 상기 객체(CK)의 높이(HG)로서 출력할 수 있다. 상기 높이지점은 상기 3차원 공간상의 기준면(π0)에 수직인 직선(Lh)과 상기 제2 역사영 광선(L2)가 교차하는 제2 교점(Mh)일 수 있다.In addition, the object information estimating unit 20 may output the distance between the position Mo of the object CK and the height point of the object CK as the height HG of the object CK. . The height point may be a second intersection point (Mh) where a straight line (Lh) perpendicular to the reference plane (π 0 ) on the three-dimensional space and the second inversion zero light beam (L 2 ) intersect.

예컨대, 상기 객체 정보 추정부(20)는 수학식 13을 통하여 상기 기준면(π0)에 수직인 직선(Lh)을 검출할 수 있다.For example, the object information estimator 20 may detect a straight line Lh perpendicular to the reference plane π 0 through Equation 13.

Figure 112007063401768-pat00091
Figure 112007063401768-pat00092
Figure 112007063401768-pat00093
Figure 112007063401768-pat00094
Figure 112007063401768-pat00095
(여기서, 상기 는 상기 기준면에 수직인 직선, 상기 는 상기 제1 역사영 광선(L1)와 상기 3차원 공간상의 기준면이 교차하는 교점, 상기 Dv는 상기 에 대한 무한 원점, 상기 μ는 Mh(여기서, Mh는 상기 와 제2 역사영 광선(L2)와의 교점)에 대한 스케일 변수, 및 첨자 "~ "는 동차 좌표계 좌표)
Figure 112007063401768-pat00091
Figure 112007063401768-pat00092
Figure 112007063401768-pat00093
Figure 112007063401768-pat00094
Figure 112007063401768-pat00095
(Wherein, is a straight line perpendicular to the reference plane, the is the intersection point of the first inversion zero light beam L1 and the reference plane in the three-dimensional space, D v is the infinite origin for the, μ is M h Where M h is the intersection of the second inverse light ray L2 and the subscript "~" is the coordinate of the homogeneous coordinate system)

상기 객체 정보 추정부(20)가 상기 객체(CK)의 높이(HG)를 검출하는 과정을 도 6을 통하여 상세히 설명하면 다음과 같다.The process of the object information estimator 20 detecting the height HG of the object CK will be described in detail with reference to FIG. 6 as follows.

도 6에서 객체(CK)의 3차원 공간상에서의 높이(HG)는 제1 교점(Mo)과 제2 교점(Mh) 사이의 거리이다.In FIG. 6, the height HG in the three-dimensional space of the object CK is a distance between the first intersection Mo and the second intersection Mh.

상기 제2 교점(Mh)은 기준면(π0)에 수직인 직선(Lh)과 제2 역사영 광선(L2)의 교점이며, L 2 L h 는 각각 수학식 14와 같다.The second intersection point Mh is an intersection point of a straight line Lh perpendicular to the reference plane π 0 and the second inversion zero light beam L2, and L 2 and L h are each represented by Equation 14.

Figure 112007063401768-pat00096
Figure 112007063401768-pat00096

상기 객체 정보 추정부(20)는 상기 수학식 14와 수학식 15로부터 상기 기준면(π0)에 수직인 직선(Lh)과 상기 제2 역사영 광선(L2)의 교점인 제2 교점(Mh)을 검출할 수 있다.The object information estimating unit 20 has a second intersection point Mh which is an intersection point of the straight line Lh perpendicular to the reference plane π 0 from the equations 14 and 15 and the second inverse light ray L2. Can be detected.

Figure 112007063401768-pat00097
Figure 112007063401768-pat00097

또한, 상기 객체 정보 추정부(20)는 상기 수학식 15를 수학식 16와 같이 정리하여, λ와 μ의 값을 산출하고 산출된 λ와 μ를 상기 수학식 14에 대입하여 계 산함으로서 객체(CK)의 높이(HG)를 계산할 수 있다.In addition, the object information estimator 20 arranges Equation 15 as shown in Equation 16, calculates values of λ and μ, and calculates the calculated λ and μ by substituting the calculated Equation 14 into an object ( CK) height HG can be calculated.

Figure 112007063401768-pat00098
Figure 112007063401768-pat00098

(여기서, 상기 mi, ci, dhi, 및 dvi는 각각 Mo, C, Dh, 및 Dv의 i번째 행의 원소이다.)(Wherein m i , c i , d hi , and d vi are elements of the i th row of Mo, C, D h , and D v , respectively.)

또한, 상기 객체 정보 추정부(20)는 상기 3차원 공간상에 역사영되는 기준면(예컨대, 도 7의 π')과 이상적인 기준면(예컨대, 도 7의 π0)에 기초하여 상기 기준면(π')과 상기 이상적인 기준면(π0) 사이의 제1 호모그래피를 검출하고 검출된 제1 호모그래피에 기초하여 상기 위치(LO) 및 상기 높이(HG) 중에서 적어도 어느 하나를 교정하고 교정결과 교정된 위치 및 교정된 높이 중에서 적어도 어느 하나를 계산하고 계산결과를 출력할 수 있다.In addition, the object information estimator 20 is based on the reference plane (eg, π in FIG. 7) and the ideal reference plane (eg, π 0 in FIG. 7) that is mapped on the three-dimensional space. ) Detects a first homography between the ideal reference plane (π 0 ) and corrects at least one of the position (LO) and the height (HG) based on the detected first homography, and the corrected position And at least one of the corrected heights and output the calculation result.

예컨대, 상기 객체 정보 추정부(20)는 수학식 17을 연산하여 교정된 위치를 출력할 수 있다.For example, the object information estimator 20 may output the corrected position by calculating Equation 17.

Figure 112007063401768-pat00099
Figure 112007063401768-pat00100
Figure 112007063401768-pat00101
Figure 112007063401768-pat00102
(여기서, 상기 는 상기 교정된 위치, 및 상기 는 제1 호모그래피, 및 상기 는 교정되기 전의 위치)
Figure 112007063401768-pat00099
Figure 112007063401768-pat00100
Figure 112007063401768-pat00101
Figure 112007063401768-pat00102
(Wherein the is the corrected position, and is the first homography, and is the position before being corrected)

상기 객체 정보 추정부(20)가 상기 교정된 위치(

Figure 112007063401768-pat00103
)를 검출하는 과정을 도 7과 도 8을 통하여 상세히 설명하면 다음과 같다.The corrected position of the object information estimator 20
Figure 112007063401768-pat00103
) Will be described in detail with reference to FIGS. 7 and 8 as follows.

카메라 교정이 정확하게 수행되지 않을 경우 객체 영상(CI)의 역사영 과정에서 심각한 재사영 오차(reprojection error)가 발생 될 수 있다.If the camera calibration is not performed correctly, serious reprojection errors may occur during the history of the object image (CI).

예컨대, 정확하지 않은 카메라 행렬로 인하여 기준좌표계가 왜곡되어 객체(CK)의 위치 및 높이의 계산 결과는 왜곡될 수 있다.For example, an incorrect camera matrix may distort the reference coordinate system, which may distort the calculation result of the position and height of the object CK.

도 7은 부정확한 카메라 교정으로 인해 발생되는 객체정보의 오차를 설명하기 위한 도면이다. 도 7을 참조하면, 도 7의 (a)에서 π0는 카메라에 대한 정확한 기준면(즉, 이상적인 기준면)이며, π'은 카메라 교정 오차로 인하여 잘못 검출된 기준면(즉, 실제 검출된 기준면)으로서 기준면과 카메라 사이의 상대적인 위치 검출에 오차가 발생한 경우를 나타낸다.FIG. 7 is a diagram for explaining an error of object information generated due to incorrect camera calibration. Referring to FIG. 7, in FIG. 7A, π 0 is an accurate reference plane (ie, an ideal reference plane) for the camera, and π 'is an incorrectly detected reference plane (ie, an actually detected reference plane) due to camera calibration errors. The case where an error occurs in the relative position detection between the reference plane and the camera.

도 7의 (b)는 도 7의 (a)에 대한 측면도의 예이며, 동일한 영상이 서로 다른 기준면에 역사영되었을 때 객체의 위치 및 높이의 계산에 심각한 오차가 발생할 수 있음을 보여준다.FIG. 7B is an example of a side view of FIG. 7A, and shows that serious errors may occur in calculating the position and height of an object when the same image is inverted on different reference planes.

즉, 객체(CK)의 실제 높이는 객체(CK)의 위치에 관계없이 항상 일정한 값이 되어야 한다. 그러나 도 7의 (b)와 같이 기준면의 기하학적 관계가 왜곡된 경우, 객체(CK)의 위치가 카메라로부터 멀어질수록 계산된 높이 값이 점차 감소하는 문제 가 발생할 수 있으며, 객체(CK)의 위치 또한 부정확해질 수 있다.That is, the actual height of the object CK should always be a constant value regardless of the position of the object CK. However, when the geometric relationship of the reference plane is distorted as shown in FIG. 7B, as the position of the object CK moves away from the camera, the calculated height value may gradually decrease, and the position of the object CK may occur. It can also be inaccurate.

도 8은 도 1의 객체 정보 추정기가 객체정보의 오차를 교정하는 과정을 설명하기 위한 도면이다. 도 8을 참조하면, 객체영상(CI)의 2차원 좌표계에서 취득한 마커의 꼭지점 좌표 x1 내지 x4가 3차원 공간상으로 역사영 될 때 오차가 존재하지 않는 이상적인 경우를 가정하면 기준면과의 교점은 도 8의 (a)의 X1 내지 X4가 되어야 한다.FIG. 8 is a diagram for describing a process of correcting an error of object information by the object information estimator of FIG. 1. Referring to FIG. 8, assuming an ideal case where no error exists when vertex coordinates x 1 to x 4 of the marker acquired in the two-dimensional coordinate system of the object image CI are mapped in three-dimensional space, an intersection with a reference plane Should be X 1 to X 4 in FIG.

그러나 카메라 교정 오차가 발생한 경우 계산된 교점은 검출된 기준면(π') 상의 네 점, 즉  X1' 내지 X4'으로 검출될 수 있다. However, if a camera calibration error occurs, the calculated intersection point is the detected reference plane (π '). Can be detected in four points, that is, X 1 'to X 4' on.

상기 X1' 내지 상기 X4' 각각의 좌표는 카메라의 중심(C) 및 x1 내지 x4를 지나는 직선들과 검출된 기준면(π')의 교점이다.The coordinates of each of X 1 'to X 4 이다 are the intersections of the center C of the camera and the straight lines passing through x 1 to x 4 and the detected reference plane π'.

상기 객체 정보 추정부(20)는 마커(MK)를 이용하여 지정되는 이상적인 꼭지점 좌표값(X1 내지 X4)에 기초하여 한 변의 길이가 wm인 마커(MK)의 4개의 꼭지점의 좌표로 구성된 행렬(

Figure 112007063401768-pat00104
,
Figure 112007063401768-pat00105
)을 수학식 18과 같이 계산할 수 있다.The object information estimating unit 20 uses coordinates of four vertices of the marker MK having a length w m of one side based on the ideal vertex coordinate values X 1 to X 4 specified using the marker MK. Constructed matrix (
Figure 112007063401768-pat00104
,
Figure 112007063401768-pat00105
) Can be calculated as shown in Equation 18.

Figure 112007063401768-pat00106
Figure 112007063401768-pat00106

상기 객체 정보 추정부(20)는 상기

Figure 112007063401768-pat00107
에 기초하여 계산된 마커(MK)의 꼭지점 좌표와 이상적인 좌표 값 사이의 제1 호모그래피(Hp)를 수학식 19를 통하여 계산할 수 있다.The object information estimating unit 20
Figure 112007063401768-pat00107
The first homography Hp between the vertex coordinate and the ideal coordinate value of the marker MK calculated based on may be calculated through Equation 19.

Figure 112007063401768-pat00108
Figure 112007063401768-pat00108

(여기서, 상기

Figure 112007063401768-pat00109
는 상기 X1' 내지 상기 X4'로 구성된 행렬이며, 상기 Hp는 제3 호모그래피이다.)Where
Figure 112007063401768-pat00109
Is a matrix composed of X 1 ′ to X 4 ′ and Hp is a third homography.)

따라서, 상기 객체 정보 추정부(20)는 검출된 기준면(π') 상의 위치(

Figure 112007063401768-pat00110
)가
Figure 112007063401768-pat00111
인 경우 제1 호모그래피(Hp)에 기초하여 교정된 위치(
Figure 112007063401768-pat00112
)를
Figure 112007063401768-pat00113
과 같이 계산하여 출력할 수 있다.Therefore, the object information estimating unit 20 detects the position on the detected reference plane π '.
Figure 112007063401768-pat00110
)end
Figure 112007063401768-pat00111
If the corrected position based on the first homography (Hp) (
Figure 112007063401768-pat00112
)
Figure 112007063401768-pat00113
It can be calculated and printed as follows.

또한, 상기 객체 정보 추정부(20)는 상기 교정된 위치와 상기 객체의 교정된 높이지점 사이의 거리를 교정된 객체(CK)의 높이로서 출력할 수 있다.In addition, the object information estimator 20 may output the distance between the calibrated position and the calibrated height point of the object as the height of the calibrated object CK.

상기 교정된 높이지점은 상기 객체의 영상(CK)이 검출된 기준면(도 8 (b)의 π')에 역사영된 결과와 상응하는 제3 역사영 광선(도 8 (b)의 L2')와 상기 기준면(π')이 교차하는 제1 교점(M'c)이 상기 제1 호모그래피(Hp)에 기초하여 상기 이상적인 기준면(πo) 상의 제2 교점(Mc)으로 변환된 제2 교점(Mc)과 상기 카메라의 중심(C)을 지나는 직선(L2)과 상기

Figure 112007063401768-pat00114
를 지나고 상기 이상적인 기준면(πo)에 수직인 직선(Lh)과 교차하는 제3 교점(Mh)과 상응한다.The corrected height point is a third inverse light beam (L 2 'in FIG. 8 (b)) corresponding to the result inverted on the reference plane (π' in FIG. 8 (b)) in which the image CK of the object is detected. ) And a second intersection point M'c at which the reference plane π 'intersects is converted to a second intersection point Mc on the ideal reference plane π o based on the first homography Hp. The intersection L 2 and the straight line L 2 passing through the center C of the camera and the
Figure 112007063401768-pat00114
Corresponds to a third intersection point M h passing through and intersecting a straight line L h perpendicular to the ideal reference plane π o .

상기 객체 정보 추정부(20)의 교정된 객체(CK)의 높이 출력과정을 도 8을 통하여 상세히 설명하면 다음과 같다.The height output process of the calibrated object CK of the object information estimator 20 will now be described in detail with reference to FIG. 8.

상기 객체 정보 추정부(20)는 제3 역사영 광선(L2')와 상기 기준면(π')이 교차하는 제1 교점(M'c)을 수학식 20을 통하여 계산하고 계산결과를 출력한다.The object information estimating unit 20 calculates the first intersection point M'c where the third inverse light ray L 2 와 intersects with the reference plane π 을 through Equation 20 and outputs a calculation result. .

Figure 112007063401768-pat00115
Figure 112007063401768-pat00116
,
Figure 112007063401768-pat00115
Figure 112007063401768-pat00116
,

(여기서, λC는 상기 M'C에 대한 스케일 변수)Where λ C is the scale variable for M ' C

상기 객체 정보 추정부(20)는 상기 제1 교점(M'c)을 수학식 21을 이용하여 이상적인 기준면(π0)상의 제2교점(Mc)으로 변환할 수 있다.The object information estimator 20 may convert the first intersection point M'c into a second intersection point McC on the ideal reference plane π 0 using Equation 21.

Figure 112007063401768-pat00117
Figure 112007063401768-pat00117

상기 객체 정보 추정부(20)는 카메라의 중심(C) 및 상기 제2교점(Mc)을 지나는 직선 L2와 객체(CK)의 위치(M0)를 지나고 이상적인 기준면(πo)에 수직인 직선(Lh)와의 교점을 수학식 15와 16을 이용하여 계산하고 계산결과로부터 Mh의 좌표를 계산하고 상기 Mh 와 M0의 차이 값(

Figure 112007063401768-pat00118
)에 상응하는 객체의 교정된 높이를 검출할 수 있다.The object information estimating unit 20 is the center of the camera (C) And an intersection of the straight line L 2 passing through the second intersection Mc and the straight line L h passing through the position M 0 of the object CK and perpendicular to the ideal reference plane π o using Equations 15 and 16: calculating calculates the coordinates of the calculation result and the M M h from h Difference between and M 0 (
Figure 112007063401768-pat00118
The corrected height of the object corresponding to

도 9a와 도 9b는 도 1의 객체 정보 추정기에 의해서 객체정보의 오차가 개선되는 효과를 나타내는 그래프로서, 조명 및 배경 정보에 대한 조건이 제한적인 실험실 환경 하에서, 객체의 위치 변화에 대해서 본 발명의 실시 예에 따른 객체 정보 추정 방법의 정확도 분석 및 오차 교정 과정의 적용 여부에 대한 결과 비교를 나타내는 그래프이다.9A and 9B are graphs illustrating an effect of improving the error of object information by the object information estimator of FIG. 1. FIG. 9A and 9B illustrate changes in the position of an object in a laboratory environment in which conditions for lighting and background information are limited. A graph showing a result comparison between an accuracy analysis and an error correction process of an object information estimation method according to an embodiment.

도 1 내지 도 9b를 참조하면, 객체 정보 추정(10)의 실험은 30cm의 길이를 갖는 막대를 카메라(5)의 전방에 위치시킨 다음, 카메라(5)의 전후 방향으로 10cm, 좌우의 수평 방향으로 25cm씩 위치를 변화시키면서 객체(CK)의 실제의 위치(LO) 및 높이(HG)와 측정된 값 사이의 오차를 계산하여 수행되었다.1 to 9B, in the experiment of the object information estimation 10, a bar having a length of 30 cm is positioned in front of the camera 5, and then 10 cm in the front and rear directions of the camera 5, and the horizontal direction of the left and right sides. It was performed by calculating the error between the actual position (LO) and height (HG) of the object (CK) and the measured value while changing the position by 25cm.

또한 기준좌표계의 설정을 위해서 한 변의 길이가 wm = 30cm 인 정사각형의 마커가 사용되었다. 도 9a와 도 9b의 각 그래프의 x축은 카메라(5)와 객체(CK) 사이의 전후 방향의 거리를 의미하며, 각각의 곡선은 카메라(5)와 객체(CK) 사이의 좌우 방향으로의 거리 변화에 대한 실제 높이 및 위치와의 오차의 절대값을 나타낸다.Also, for setting the reference coordinate system, the length of one side is w m A square marker of = 30 cm was used. The x- axis of each graph of FIGS. 9A and 9B means the distance in the front-rear direction between the camera 5 and the object CK, and each curve is the distance in the left-right direction between the camera 5 and the object CK. The absolute value of the error from the actual height and position for the change is shown.

도 9a의 (a)와 (b)는 오차 교정 과정이 수행되지 않은 경우에 객체 정보 추정기(10)의 출력을 나타내는 그래프이고, 도 9b의 (a)와 (b)는 오차 교정 과정이 수행된 경우에 객체 정보 추정기(10)의 출력을 나타내는 그래프이다.9A and 9B are graphs showing the output of the object information estimator 10 when the error correction process is not performed, and FIGS. 9B and 9B show the error correction process. In this case, it is a graph showing the output of the object information estimator 10.

오차 교정이 수행되지 않은 경우(도 9a의 (a)와 (b)), 매우 큰 값의 오차가 발생하지만, 오차 보정과정을 통해서 오차 발생이 현저히 감소하는 것을 확인할 수 있다. If the error correction is not performed (Fig. 9a (a) and (b)), a very large error occurs, but it can be seen that the error occurrence is significantly reduced through the error correction process.

또한 객체와 카메라 사이의 거리가 증가할수록 오차가 증가하는 것을 알 수 있으며, 특히 카메라로부터의 좌우 방향의 거리 또한 계산 결과에 영향을 미친다는 것을 확인 할 수 있다. In addition, it can be seen that the error increases as the distance between the object and the camera increases. In particular, it can be seen that the distance in the left and right directions from the camera also affects the calculation result.

오차 발생의 원인은 영상 해상도 자체의 한계 및 영상 내에 존재하는 잡음에 의한 역사영 좌표 계산 과정의 오차 성분으로 인한 것으로 추정된다. The cause of the error is presumed to be due to the limitation of the image resolution itself and the error component of the process of calculating the zero-coordinate due to the noise present in the image.

하지만 오차 교정이 수행된 경우(도 9b의 (a)와 (b)) 측정된 오차의 범위는 카메라(5)와 객체(CK) 사이의 거리 및 객체의 높이를 고려할 때 상대적으로 매우 작은 값이라고 간주될 수 있다. However, when the error correction is performed ((a) and (b) of FIG. 9B), the range of the measured error is relatively small considering the distance between the camera 5 and the object CK and the height of the object. Can be considered.

즉, 본 발명의 실시 예에 따른 객체 정보 추정 방법은 카메라와 객체 사이의 거리 및 객체의 위치변화에 다소의 영향을 받기는 하지만, 결과에 심각한 오차를 발생시키지 않는 것을 확인할 수 있다.That is, the method for estimating object information according to an embodiment of the present invention is somewhat affected by the distance between the camera and the object and the position of the object, but it can be confirmed that no serious error occurs in the result.

도 11은 도 1의 객체 정보 추정기에서 출력된 객체정보의 정확도를 평가하는 제1 실험과정을 설명하기 위한 도면이고, 도 12는 도 11의 제1 실험의 결과를 나타내는 그래프이다. FIG. 11 is a diagram for describing a first experiment process of evaluating the accuracy of object information output from the object information estimator of FIG. 1, and FIG. 12 is a graph showing the results of the first experiment of FIG. 11.

도 13은 도 1의 객체 정보 추정기에서 출력된 객체정보의 정확도를 평가하는 제2 실험과정을 설명하기 위한 도면이고, 도 14는 도 13의 제2 실험의 결과를 나타내는 그래프이다.FIG. 13 is a diagram for describing a second experiment process of evaluating the accuracy of the object information output from the object information estimator of FIG. 1, and FIG. 14 is a graph showing the results of the second experiment of FIG. 13.

도 15는 도 1의 객체 정보 추정기에서 출력된 객체정보의 정확도를 평가하는 제3 실험과정을 설명하기 위한 도면이고, 도 16는 도 15의 제3 실험의 결과를 나타내는 그래프이고, 도 17은 도 11, 도 13, 및 도 15 각각의 실험 결과를 분석하기 위한 표이다.FIG. 15 is a diagram for describing a third experiment process of evaluating the accuracy of the object information output from the object information estimator of FIG. 1, FIG. 16 is a graph showing a result of the third experiment, and FIG. 17 is a diagram. 11, 13, and 15 are tables for analyzing the experimental results of each.

도 1 내지 도 17을 참조하면, 도 10의 실험에서는 실제 환경에서 이동 중인 보행자의 위치 변화에 대한 객체 정보 추정 방법의 정확도 및 오차 분석을 실행하였다.1 to 17, in the experiment of FIG. 10, the accuracy and error analysis of the object information estimation method for the change of the position of the pedestrian moving in the real environment was performed.

도 10의 (a)와 같이 기준면 상에 보행자의 이동 경로(경로 1 내지 경로 3)를 설정한 다음, 이를 따라 이동하는 보행자의 키 높이 및 이동 궤적을 산출하고 이로부터 제안된 기법의 정확도를 평가한다. 도 10의 (b)는 도 (a)의 실험과정을 상면에서 관찰한 상면도(bird's eye view)이다.After setting the moving paths (paths 1 to 3) of the pedestrians on the reference plane as shown in FIG. 10 (a), the height and the moving trajectory of the pedestrians moving along them are calculated and the accuracy of the proposed technique is evaluated therefrom. do. Figure 10 (b) is a top view (bird's eye view) observed from the top of the experimental process of Figure (a).

실험과정에서 보행자의 이동 경로는 280cm X 270cm의 크기를 갖는 직사각형의 구역마다 경로 지정을 위한 표식자를 부착하여 지정하며, 보행자는 지정된 경로를 따라 왕복으로 이동한다. 실험을 위해서 한 변의 길이가 wm = 60cm인 정사각형의 마커를 이용하였으며 영상 내에 존재하는 보행자는 마커가 위치한 기준면과 항상 동일 평면상에 위치한다고 가정한다. In the course of the experiment, the pedestrian's moving path is designated by attaching markers for the path designation in each rectangular area having a size of 280cm X 270cm, and the pedestrian moves back and forth along the designated path. For the experiment, a square marker with a length of w m = 60cm was used and it is assumed that the pedestrian in the image is always coplanar with the reference plane on which the marker is located.

도 11의 (a) 내지 (c)는 각각이 도 10의 실험에 따라 정해진 경로(경로 1 내지 경로 3)를 따라서 이동 중인 보행자의 위치 및 키 높이 계산 결과, 마커로부터 계산된 기준좌표계, 보행자의 위치를 가리키는 벡터를 보여준다.(A) to (c) of FIG. 11 show a reference coordinate system and a pedestrian calculated from a marker as a result of calculating the position and key height of each pedestrian moving along the path (paths 1 to 3) determined according to the experiment of FIG. Show a vector pointing to a location.

도 12의 (a)는 객체 정보 추정기(10)의 높이 계산 결과를 나타내고, (b)는 상기 객체 정보 추정기(10)의 위치 계산 결과, 상면도(bird's eye view)이고, 보행자의 이동 경로, 카메라의 위치 및 주선(principal ray)을 보여준다.12 (a) shows the result of the height calculation of the object information estimator 10, (b) is a position calculation result of the object information estimator 10, a bird's eye view, the movement path of the pedestrian, It shows the position and principal ray of the camera.

일반적으로 보행자의 높이는 보폭과 보행 형태 등에 의한 영향으로 인하여 주기적인 형태로 변화하는 특성을 갖게 되며, 보행자의 보폭의 길이가 최대일 때 최소값, 보폭의 길이가 최소일 때 최대의 값을 갖는바 실험에서 보행 중 계산된 높이의 평균값을 보행자의 높이로 간주한다.In general, the height of a pedestrian has a characteristic of changing periodically due to the influence of the length of the pedestrian and the shape of the pedestrian, and the minimum value when the length of the pedestrian is the maximum and the maximum value when the length of the pedestrian is the minimum. The average value of the heights calculated during walking is regarded as the height of the pedestrian.

실험에 참여한 보행자의 실제 키높이는 185cm이고, 계산된 높이의 평균 값은 약 186cm이며, 2.15cm ~ 2.56cm의 표준편차를 갖는다.The actual height of the pedestrians participating in the experiment was 185cm, the average height of the calculated height was about 186cm, and the standard deviation was 2.15cm ~ 2.56cm.

또한, 정확한 오차 분석을 위하여, 계산된 보행자의 이동 경로를 원점을 중심으로 -1도만큼 회전 이동시켜서 마커로부터 계산된 기준 좌표계에 정합시켰으며, 카메라의 위치 및 주선의 방향은 역사영 오차 보정에 사용된 호모그래피를 이용하여 보정된 결과이다.In addition, for accurate error analysis, the calculated pedestrian's movement path was rotated by -1 degrees around the origin to match the reference coordinate system calculated from the marker. Results are corrected using the homography used.

상기 도 12 및 도 17의 실험 1의 결과를 나타내는 표를 참조하면, 본 발명의 실시 예에 따른 객체 정보 추정방법은 카메라와 보행자 사이의 거리 및 상대적인 위치변화에 다소의 영향을 받기는 하지만 높이 및 위치 계산 결과에 심각한 오차를 발생시키지 않는다는 것을 확인할 수 있다.12 and 17, the object information estimation method according to the embodiment of the present invention is affected by the distance and the relative position change between the camera and the pedestrian, but the height and It can be confirmed that the position calculation results do not cause serious errors.

도 13의 제2 실험 및 도 15의 제3 실험은 임의의 방향으로 이동하는 보행자에 대한 실험 과정 및 결과를 나타내는 도면으로 각각의 결과(도 14의 (a)와 (b), 도 16의 (a)와 (b), 및 도 17의 표)로부터 보행자의 높이 및 보행자의 위치, 이동 거리등을 확인할 수 있으며, 실험에 참여한 보행자의 실제 키 높이 및 이동 경로 등에 심각한 오차가 발생하지 않음을 알 수 있다.The second experiment of FIG. 13 and the third experiment of FIG. 15 are diagrams showing an experimental process and results for a pedestrian moving in an arbitrary direction, and the results of FIG. 14 (a) and (b) and FIG. The height of the pedestrian, the position of the pedestrian, the distance of the pedestrian, etc. can be confirmed from a) and (b), and the table of FIG. Can be.

도 18은 본 발명의 실시 예에 따른 객체 정보 추정 방법을 나타내는 흐름도이다. 도 1 내지 도 7 및 도 18을 참조하면, 카메라 교정부(12)는 상기 카메라(5)를 교정하고(S10), 객체 영상 분리부(14)는 상기 카메라(5)로부터 입력된 입력 영상으로부터 객체의 영상(BI)을 분리한다(S12).18 is a flowchart illustrating a method of estimating object information according to an embodiment of the present invention. 1 to 7 and 18, the camera calibrating unit 12 calibrates the camera 5 (S10), and the object image separating unit 14 is configured from an input image input from the camera 5. The image BI of the object is separated (S12).

객체 정보 추정부(20)는 상기 객체의 영상(BI)을 3차원 공간상으로 역사영시키고 역사영된 결과에 기초하여 상기 객체의 위치(LO) 및 높이(HG) 중에서 적어도 어느 하나를 계산하고 계산결과를 출력한다(S14).The object information estimator 20 inverts the image BI of the object in a three-dimensional space and calculates at least one of the position LO and the height HG of the object based on the inverted result. The calculation result is output (S14).

상기 객체 정보 추정부(20)는 3차원 공간상에 역사영되는 기준면(π')과 이 상적인 기준면(π0)에 기초하여 상기 기준면(π')과 상기 이상적인 기준면(π0) 사이의 제1 호모그래피(Hp)를 검출하고 검출된 제1 호모그래피(Hp)에 기초하여 상기 위치(LO) 및 상기 높이(HG) 중에서 적어도 어느 하나를 교정하고 교정결과 교정된 위치 및 교정된 높이 중에서 적어도 어느 하나를 계산하고 계산결과를 출력한다(S16).Between the object information estimation unit 20 is the reference plane which is history reflected in the three-dimensional space (π ') and the ideal reference plane (π 0) and the reference plane (π based on ") and the ideal reference plane (π 0) Detects a first homography Hp and corrects at least one of the position LO and the height HG based on the detected first homography Hp, and among the corrected positions and corrected heights as a result of the calibration. At least one is calculated and a calculation result is output (S16).

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다.The invention can also be embodied as computer readable code on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored.

컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 본 발명에 따른 객체 정보 추정 방법을 수행하기 위한 프로그램 코드는 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 전송될 수도 있다. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like. The program code for performing the object information estimation method according to the present invention may be a carrier wave. It may also be transmitted in the form of (for example, transmission via the Internet).

또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. And functional programs, codes and code segments for implementing the present invention can be easily inferred by programmers in the art to which the present invention belongs.

본 발명은 도면에 도시된 일 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to one embodiment shown in the drawings, this is merely exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

   본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다. BRIEF DESCRIPTION OF THE DRAWINGS In order to better understand the drawings cited in the detailed description of the invention, a brief description of each drawing is provided.

도 1은 본 발명의 실시 예에 따른 객체 정보 추정기를 나타낸다.1 illustrates an object information estimator according to an embodiment of the present invention.

도 2는 도 1의 객체 정보 추정기에서 출력되는 객체정보를 설명하기 위한 도면이다.FIG. 2 is a diagram for describing object information output from the object information estimator of FIG. 1.

도 3은 도 1의 객체 정보 추정기에서 객체정보가 출력되는 과정을 설명하기 위한 도면이다.3 is a diagram for describing a process of outputting object information in the object information estimator of FIG. 1.

도 4는 도 1의 객체 영상 출력부에 의해서 객체 영상이 출력되는 과정을 설명하기 위한 도면이다. FIG. 4 is a diagram for describing a process of outputting an object image by the object image output unit of FIG. 1.

도 5는 도 1의 객체 영상 출력부에서 생성되는 마커와 입력 영상 사이의 기하학적 관계를 설명하기 위한 도면이다.FIG. 5 is a diagram for describing a geometric relationship between a marker generated in the object image output unit of FIG. 1 and an input image.

도 6은 도 1의 객체 정보 추정부가 상기 객체의 영상을 3차원 공간상으로 역사영시키는 과정을 설명하기 위한 도면이다.FIG. 6 is a diagram for describing a process of the object information estimator of FIG. 1 performing a history of an image of the object in a three-dimensional space.

도 7은 부정확한 카메라 교정으로 인해 발생되는 객체정보의 오차를 설명하기 위한 도면이다.FIG. 7 is a diagram for explaining an error of object information generated due to incorrect camera calibration.

도 8은 도 1의 객체 정보 추정기가 객체정보의 오차를 교정하는 과정을 설명하기 위한 도면이다.FIG. 8 is a diagram for describing a process of correcting an error of object information by the object information estimator of FIG. 1.

도 9a와 도 9b는 도 1의 객체 정보 추정기에 의해서 객체정보의 오차가 개선되는 효과를 나타내는 그래프이다.9A and 9B are graphs illustrating an effect of improving the error of object information by the object information estimator of FIG. 1.

도 10은 도 1의 객체 정보 추정기에서 출력된 객체정보의 정확도를 설명하기 위한 도면이다.FIG. 10 is a diagram for describing the accuracy of object information output from the object information estimator of FIG. 1.

도 11은 도 1의 객체 정보 추정기에서 출력된 객체정보의 정확도를 평가하는 제1 실험과정을 설명하기 위한 도면이다.FIG. 11 is a diagram for describing a first experimental process of evaluating the accuracy of object information output from the object information estimator of FIG. 1.

도 12는 도 11의 제1 실험의 결과를 나타내는 그래프이다.FIG. 12 is a graph showing the results of the first experiment of FIG. 11.

도 13은 도 1의 객체 정보 추정기에서 출력된 객체정보의 정확도를 평가하는 제2 실험과정을 설명하기 위한 도면이다.FIG. 13 is a diagram for describing a second experimental process of evaluating the accuracy of object information output from the object information estimator of FIG. 1.

도 14는 도 13의 제2 실험의 결과를 나타내는 그래프이다.FIG. 14 is a graph showing the results of the second experiment of FIG. 13.

도 15는 도 1의 객체 정보 추정기에서 출력된 객체 정보의 정확도를 평가하는 제3 실험과정을 설명하기 위한 도면이다.FIG. 15 is a diagram for describing a third experimental process of evaluating the accuracy of object information output from the object information estimator of FIG. 1.

도 16은 도 15의 제3 실험의 결과를 나타내는 그래프이다.FIG. 16 is a graph showing the results of the third experiment of FIG. 15.

도 17은 도 11, 도 13, 및 도 15 각각의 실험 결과를 분석하기 위한 표이다.17 is a table for analyzing the experimental results of each of FIGS. 11, 13, and 15.

도 18은 본 발명의 실시 예에 따른 객체 정보 추정 방법을 나타내는 흐름도이다.18 is a flowchart illustrating a method of estimating object information according to an embodiment of the present invention.

Claims (27)

카메라로부터 입력된 입력 영상으로부터 객체의 영상을 분리하는 단계; 및Separating an image of an object from an input image input from a camera; And 상기 객체의 영상을 3차원 공간상으로 역사영시키고 상기 3차원 공간상의 기준 좌표계를 이용하여 역사영된 상기 객체의 위치 및 높이 중에서 적어도 어느 하나를 계산 하고 계산결과를 출력하는 단계를 포함하는 객체 정보 추정 방법.Inverting the image of the object in three-dimensional space and calculating at least one of the position and height of the object inverted using the reference coordinate system in the three-dimensional space and outputting a calculation result Estimation method. 제1항에 있어서, 상기 객체 정보 추정 방법은,The method of claim 1, wherein the object information estimation method comprises: 상기 객체의 영상을 분리하는 단계 전에,Before the step of separating the image of the object, 상기 카메라를 교정하는 단계를 더 포함하는 객체 정보 추정 방법.And calibrating the camera. 제2항에 있어서, 상기 카메라를 교정하는 단계는,The method of claim 2, wherein calibrating the camera, 상기 카메라의 내부 파라미터를 원소로 갖는 카메라 교정행렬과 상응하는 정칙행렬인A regular matrix corresponding to a camera calibration matrix having the internal parameters of the camera as an element
Figure 112007063401768-pat00119
(여기서, 상기 K는 상기 정칙행렬, 상기 fx는 상기 입력 영상의 x축 방향의 스케일 값, 상기 fy는 상기 입력 영상의 y축 방향의 스케일 값, 상기 s는 상기 입력 영상에 대한 비틀림 파라미터(skew parameter), 및 상기 (x0, y0)는 상기 입력 영상의 주점(principal point))를 계산하는 단계를 포함하는 객체 정보 추정 방법.
Figure 112007063401768-pat00119
Where K is the regular matrix, f x is the scale value in the x-axis direction of the input image, f y is the scale value in the y-axis direction of the input image, and s is a torsion parameter for the input image. (skew parameter), and (x 0 , y 0 ) is a principal point (pricipal point) of the input image.
제1항에 있어서, 상기 객체의 영상을 분리하는 단계는,The method of claim 1, wherein the separating of the image of the object comprises: 상기 객체가 포함된 영상과 상기 객체가 포함되지 않은 기준영상과의 차이에 상응하는 차분 영상을 생성하는 단계; 및 Generating a difference image corresponding to a difference between an image including the object and a reference image not including the object; And 상기 차분 영상을 이진화시켜 이진화된 영상을 분리된 객체의 영상으로서 출력하는 단계를 포함하는 객체 정보 추정 방법.Binarizing the difference image and outputting the binarized image as an image of a separated object. 제4항에 있어서, 상기 이진화된 영상을 분리된 객체의 영상으로서 출력하는 단계는,The method of claim 4, wherein the outputting of the binarized image as an image of a separated object comprises: 상기 차분 영상을 구성하는 각각의 픽셀 값들과 기준 값을 비교하여, 상기 픽셀 값이 상기 기준 값보다 큰 경우 제1픽셀 값을 출력하고 상기 픽셀 값이 상기 기준값보다 작은 경우 제2픽셀 값을 출력하여 상기 이진화된 영상을 출력하는 단계를 포함하는 객체 정보 추정 방법 . Comparing each pixel value constituting the difference image with a reference value, if the pixel value is larger than the reference value, a first pixel value is output; and if the pixel value is smaller than the reference value, a second pixel value is output. And outputting the binarized image . 제1항에 있어서, 상기 객체의 상기 위치 및 상기 높이 중에서 적어도 어느 하나를 계산하는 단계는,The method of claim 1, wherein calculating at least one of the position and the height of the object comprises: 상기 역사영된 결과와 상응하는 역사영 광선을 생성하는 단계를 포함하며,Generating an inverse beam of light corresponding to the inversed result; 상기 역사영 광선은,The history zero rays,
Figure 112009031309593-pat00179
,
Figure 112009031309593-pat00180
(여기서, 상기 L은 상기 역사영 광선, 상기 P는 N*N(N은 자연수)부분행렬, 상기
Figure 112009031309593-pat00181
는 상기 카메라의 사영행렬로서 상기
Figure 112009031309593-pat00182
, 상기 λ는 상기
Figure 112009031309593-pat00183
에 대한 스케일 변수, 상기 C는 상기 카메라의 중심 좌표로서 상기
Figure 112009031309593-pat00184
, 상기
Figure 112009031309593-pat00185
는 상기 L과 상기 객체의 영상이 교차하는 어느 하나의 교점, 및 상기 D는 상기 역사영 광선에 대한 무한 원점)와 상응하고,
Figure 112009031309593-pat00179
,
Figure 112009031309593-pat00180
Where L is the inverse light ray, P is N * N (N is a natural number) partial matrix, and
Figure 112009031309593-pat00181
Is a projection matrix of the camera
Figure 112009031309593-pat00182
, Wherein λ is
Figure 112009031309593-pat00183
For the scale variable, wherein C is the center coordinate of the camera
Figure 112009031309593-pat00184
, remind
Figure 112009031309593-pat00185
Is an intersection of the L and the image of the object, and D is an infinite origin for the inverse light ray),
상기 객체의 상기 위치는 상기 역사영 광선과 상기 3차원 공간상의 기준면이 교차하는 제1교점과 상응하고, 상기 객체의 상기 높이는 상기 객체의 상기 위치와 상기 객체의 높이지점 사이의 거리에 상응하는 객체 정보 추정 방법 . The location of the object corresponds to a first intersection of the inverse light ray and the reference plane in three-dimensional space, and the height of the object corresponds to a distance between the location of the object and the height point of the object Information estimation method .
제6항에 있어서, The method of claim 6, 상기 제1 교점은,The first intersection point,
Figure 112009031309593-pat00186
(여기서, 상기 M0
Figure 112009031309593-pat00186
Where M 0
는 상기 제1 교점, 상기 λ0는 상기 M0에 대한 스케일 변수, 및 상기
Figure 112009031309593-pat00187
는 상기 L과 상기 객체의 영상이 교차하는 어느 하나의 교점)인 객체 정보 추정 방법.
Is the first intersection point, λ 0 is a scale variable for M 0 , and
Figure 112009031309593-pat00187
Is an intersection of the intersection of the L and the image of the object.
제7항에 있어서, 상기
Figure 112009031309593-pat00188
(여기서, 상기 π0는 상기 3차원 공간상의 기준면 으로서 상기
Figure 112009031309593-pat00189
는 상기 π0상의 좌표들 중에서 상기
Figure 112009031309593-pat00190
과 대응되는 좌표)인 객체 정보 추정 방법.
8. The method of claim 7, wherein
Figure 112009031309593-pat00188
(Wherein π 0 is the reference plane on the three-dimensional space
Figure 112009031309593-pat00189
Is among the coordinates on the π 0
Figure 112009031309593-pat00190
And coordinates corresponding to the object information estimation method.
제6항에 있어서, The method of claim 6, 상기 높이지점은,The height point, 상기 3차원 공간상의 기준면에 수직인 직선과 상기 역사영 광선이 교차하는 제2 교점과 상응하는 객체 정보 추정 방법.And a second intersection point at which a straight line perpendicular to the reference plane in the three-dimensional space intersects the inverse light ray. 제9항에 있어서, 상기 3차원 공간상의 기준면 에 수직인 직선은,The method of claim 9, wherein the straight line perpendicular to the reference plane on the three-dimensional space ,
Figure 112009031309593-pat00191
(여기서, 상기
Figure 112009031309593-pat00192
는 상기 3차원 공간상의 기준면 에 수직인 직선, 상기
Figure 112009031309593-pat00193
는 상기 역사영 광선과 상기 3차원 공간상의 기준면이 교차하는 교점, 상기 Dv는 상기
Figure 112009031309593-pat00194
에 대한 무한 원점, 상기 μ는 Mh(단, Mh는 상기
Figure 112009031309593-pat00195
와 상기 L과의 교점)에 대한 스케일 변수)와 상응하는 객체 정보 추정 방법.
Figure 112009031309593-pat00191
Where
Figure 112009031309593-pat00192
Is a straight line perpendicular to the reference plane in the three-dimensional space ,
Figure 112009031309593-pat00193
Is an intersection point at which the historical zero ray and the reference plane in the three-dimensional space intersect, and D v is the
Figure 112009031309593-pat00194
For the infinite origin, where μ is M h , where M h is
Figure 112009031309593-pat00195
And a scale variable for the intersection with L).
제1항에 있어서, 상기 객체 정보 추정 방법은,The method of claim 1, wherein the object information estimation method comprises: 상기 3차원 공간상에 역사영되는 제1기준면과 제2기준면 사이의 제1 호모그래피를 검출하는 단계 ; 및 Detecting a first homography between a first reference plane and a second reference plane on the three-dimensional space ; And 상기 제1 호모그래피를 이용하여 얻은 상기 제2기준면 상의 객체의 위치좌표 및 상기 위치좌표와 수직인 높이좌표를 통해, 상기 위치 및 상기 높이 중에서 적어도 어느 하나를 교정하고 교정된 위치 및 교정된 높이 중에서 적어도 어느 하나를 계산하고 계산결과를 출력하는 단계를 더 포함하는 객체 정보 추정 방법. At least one of the position and the height is corrected by using the position coordinates of the object on the second reference plane obtained by using the first homography and the height coordinates perpendicular to the position coordinates, and among the corrected positions and corrected heights. Calculating at least one of the at least one and outputting a result of the calculation. 제11항에 있어서, 상기 교정된 위치는,The method of claim 11, wherein the corrected position,
Figure 112007063401768-pat00137
(여기서, 상기
Figure 112007063401768-pat00138
는 상기 교정된 위치, 및 상기
Figure 112007063401768-pat00139
는 상기 제1 호모그래피, 및 상기
Figure 112007063401768-pat00140
는 교정되기 전의 위치)인 객체 정 보 추정 방법.
Figure 112007063401768-pat00137
Where
Figure 112007063401768-pat00138
Is the calibrated position, and
Figure 112007063401768-pat00139
Is the first homography, and
Figure 112007063401768-pat00140
Where is the position before correction).
제12항에 있어서, 상기 교정된 높이는,The method of claim 12, wherein the corrected height is, 상기 교정된 위치와 상기 객체의 교정된 높이지점 사이의 거리에 상응하며,Corresponds to the distance between the calibrated position and the calibrated height point of the object, 상기 교정된 높이지점은,The corrected height point is, 제1 직선과 제2 직선이 교차하는 제1 교점에 상응하며,Corresponds to a first intersection point at which the first and second straight lines intersect, 상기 제1 직선은,The first straight line, 상기 객체의 영상이 상기 제1기준면 에 역사영된 결과와 상응하는 제1 역사영 광선과 상기 제1기준면 이 교차되는 제1 교점이 상기 제1 호모그래피에 기초하여 상기 제2기준면 상의 어느 하나의 점으로 변환된 제2교점과 상기 카메라의 중심을 지나는 직선이고,A first intersection point at which the first inverse light beam corresponding to the result of the image of the object being inverted on the first reference plane and the first reference plane intersects any one on the second reference plane based on the first homography. A second intersection converted into a point and a straight line passing through the center of the camera, 상기 제2 직선은,The second straight line, 상기
Figure 112009031309593-pat00196
를 지나고 상기 제2기준면 에 수직인 직선인 객체 정보 추정 방법.
remind
Figure 112009031309593-pat00196
And a straight line perpendicular to the second reference plane .
제1항에 기재된 객체 정보 추정 방법을 수행하기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체.A computer-readable recording medium having recorded thereon a program for performing the object information estimating method according to claim 1. 카메라로부터 입력된 입력 영상으로부터 객체의 영상을 분리하는 객체 영상 분리부; 및An object image separator to separate an image of an object from an input image input from a camera; And 상기 객체의 영상을 3차원 공간상으로 역사영시키고 3차원 공간상의 기준 좌표계를 이용하여 역사영된 상기 객체의 위치 및 높이 중에서 적어도 어느 하나를 계산 하고 계산결과를 출력하는 객체 정보 추정부를 포함하는 객체 정보 추정기.An object including an object information estimator for rewriting the image of the object in three-dimensional space and calculating at least one of the position and height of the object, which is inverted using the reference coordinate system in three-dimensional space, and outputting a calculation result. Information estimator. 제15항에 있어서, 상기 객체 정보 추정기는,The method of claim 15, wherein the object information estimator, 상기 카메라를 교정하여 교정된 영상을 상기 입력 영상으로서 출력하는 카메라 교정부를 더 포함하는 객체 정보 추정기.And a camera calibrator configured to calibrate the camera and output the calibrated image as the input image. 제16항 에 있어서, 상기 카메라 교정부는, The method of claim 16 , wherein the camera calibration unit, 상기 카메라의 내부 파라미터를 원소로 갖는 카메라 교정행렬과 상응하는 정칙행렬인A regular matrix corresponding to a camera calibration matrix having the internal parameters of the camera as an element
Figure 112009031309593-pat00197
(여기서, 상기 K는 상기 정칙행렬, 상기 fx는 상기 입력 영상의 x축 방향의 스케일 값, 상기 fy는 상기 입력 영상의 y축 방향의 스케일 값, 상기 s는 상기 입력 영상에 대한 비틀림 파라미터(skew parameter), 및 상기 (x0, y0)는 상기 입력 영상의 주점(principal point))를 계산하여 출력하는 객체 정보 추정기.
Figure 112009031309593-pat00197
Where K is the regular matrix, f x is the scale value in the x-axis direction of the input image, f y is the scale value in the y-axis direction of the input image, and s is a torsion parameter for the input image. (skew parameter) and (x 0 , y 0 ) is an object information estimator for calculating and outputting a principal point of the input image.
제15항에 있어서, 상기 객체 영상 분리부는,The method of claim 15, wherein the object image separator, 상기 객체가 포함된 영상과 상기 객체가 포함되지 않은 기준영상과의 차이에 상응하는 차분 영상을 생성하는 차분 영상 생성부; 및 A difference image generation unit configured to generate a difference image corresponding to a difference between an image including the object and a reference image not including the object; And 상기 차분 영상을 이진화시켜 이진화된 영상을 분리된 객체의 영상으로서 출력하는 객체 영상 출력부를 포함하는 객체 정보 추정기.And an object image output unit configured to binarize the difference image to output the binarized image as an image of a separated object. 제18항에 있어서, 상기 객체 영상 출력부는,The method of claim 18, wherein the object image output unit, 상기 차분 영상을 구성하는 각각의 픽셀 값들과 기준 값을 비교하여, 상기 픽셀 값이 상기 기준 값보다 큰 경우 제1픽셀 값을 출력하고 상기 픽셀 값이 상기 기준값보다 작은 경우 제2픽셀 값을 출력하여 상기 이진화된 영상을 출력하는 객체 정보 추정기 . Comparing each pixel value constituting the difference image with a reference value, if the pixel value is larger than the reference value, a first pixel value is output; and if the pixel value is smaller than the reference value, a second pixel value is output. An object information estimator for outputting the binarized image . 제15항에 있어서, 상기 객체 정보 추정부는,The method of claim 15, wherein the object information estimating unit, 상기 역사영된 결과와 상응하는 역사영 광선을 생성하며,To generate an inverse light beam corresponding to the inversed result, 상기 역사영 광선은,The history zero rays,
Figure 112009031309593-pat00198
,
Figure 112009031309593-pat00199
(여기서, 상기 L은 상기 역사영 광선, 상기 P는 N*N(N은 자연수)부분행렬, 상기
Figure 112009031309593-pat00200
는 상기 카메라의 사영행렬로서 상기
Figure 112009031309593-pat00201
, 상기 λ는 상기
Figure 112009031309593-pat00202
에 대한 스케일 변수, 상기 C는 상기 카메라의 중심 좌표로서 상기
Figure 112009031309593-pat00203
, 상기
Figure 112009031309593-pat00204
는 상기 L과 상기 객체의 영상이 교차하는 어느 하나의 교점, 및 상기 D는 상기 역사영 광선에 대한 무한 원점)와 상응하고,
Figure 112009031309593-pat00198
,
Figure 112009031309593-pat00199
Where L is the inverse light ray, P is N * N (N is a natural number) partial matrix, and
Figure 112009031309593-pat00200
Is a projection matrix of the camera
Figure 112009031309593-pat00201
, Wherein λ is
Figure 112009031309593-pat00202
For the scale variable, wherein C is the center coordinate of the camera
Figure 112009031309593-pat00203
, remind
Figure 112009031309593-pat00204
Is an intersection point of the L and the image of the object, and D is an infinite origin for the inverse light ray),
상기 객체의 상기 위치는 상기 역사영 광선과 상기 3차원 공간상의 기준면이 교차하는 제1교점과 상응하고, 상기 객체의 상기 높이는 상기 객체의 상기 위치와 상기 객체의 높이지점 사이의 거리에 상응하는 객체 정보 추정기 . The location of the object corresponds to a first intersection of the inverse light ray and the reference plane in three-dimensional space, and the height of the object corresponds to a distance between the location of the object and the height point of the object Information estimator .
제20항에 있어서, The method of claim 20, 상기 제1 교점은,The first intersection point,
Figure 112009031309593-pat00205
(여기서, 상기 M0
Figure 112009031309593-pat00205
Where M 0
는 상기 제1 교점, 상기 λ0는 상기 M0에 대한 스케일 변수, 및 상기
Figure 112009031309593-pat00206
는 상기 L과 상기 객체의 영상이 교차하는 어느 하나의 교점)인 객체 정보 추정기.
Is the first intersection point, λ 0 is a scale variable for M 0 , and
Figure 112009031309593-pat00206
Is an intersection of the intersection of the L and the image of the object.
제21항에 있어서, 상기
Figure 112009031309593-pat00207
(여기서, 상기 π0는 상기 3차원 공간상의 기준면 으로서 상기
Figure 112009031309593-pat00208
는 상기 π0상의 좌표들 중에서 상기
Figure 112009031309593-pat00209
과 대응되는 좌표)인 객체 정보 추정기.
The method of claim 21, wherein
Figure 112009031309593-pat00207
(Wherein π 0 is the reference plane on the three-dimensional space
Figure 112009031309593-pat00208
Is among the coordinates on the π 0
Figure 112009031309593-pat00209
Object information estimator.
제21항에 있어서, The method of claim 21, 상기 높이지점은,The height point, 상기 3차원 공간상의 기준면에 수직인 직선과 상기 역사영 광선이 교차하는 제2 교점과 상응하는 객체 정보 추정기.An object information estimator corresponding to a second intersection point at which a straight line perpendicular to the reference plane in the three-dimensional space intersects the inverse light ray. 제23항에 있어서, 상기 3차원 공간상의 기준면 에 상기 수직인 직선은,The method of claim 23, wherein the straight line perpendicular to the reference plane on the three-dimensional space ,
Figure 112009031309593-pat00210
(여기서, 상기
Figure 112009031309593-pat00211
는 상기 3차원 공간상의 기준면 에 수직인 직선, 상기
Figure 112009031309593-pat00212
는 상기 역사영 광선과 상기 3차원 공간상의 기준면이 교차하는 교점, 상기 Dv는 상기
Figure 112009031309593-pat00213
에 대한 무한 원점, 상기 μ는 Mh(단, Mh는 상기
Figure 112009031309593-pat00214
와 상기 L과의 교점)에 대한 스케일 변수)와 상응하는 객체 정보 추정기.
Figure 112009031309593-pat00210
Where
Figure 112009031309593-pat00211
Is a straight line perpendicular to the reference plane in the three-dimensional space ,
Figure 112009031309593-pat00212
Is an intersection point at which the historical zero ray and the reference plane in the three-dimensional space intersect, and D v is the
Figure 112009031309593-pat00213
For the infinite origin, where μ is M h , where M h is
Figure 112009031309593-pat00214
And a scale variable for the intersection with L).
제15항에 있어서, 상기 객체 정보 추정부는,The method of claim 15, wherein the object information estimating unit, 상기 3차원 공간상에 역사영되는 제1기준면과 제2기준면 사이의 제1 호모그래피를 검출하고 검출된 제1 호모그래피를 이용하여 얻은 상기 제2기준면 상의 객체의 위치좌표 및 상기 위치좌표와 수직인 높이좌표를 통해, 상기 위치 및 상기 높이 중에서 적어도 어느 하나를 교정하고 교정된 위치 및 교정된 높이 중에서 적어도 어느 하나를 계산하고 계산결과를 출력하는 객체 정보 추정기. Detecting a first homography between a first reference plane and a second reference plane mapped on the three-dimensional space and using the detected first homography, the position coordinates of the object on the second reference plane and the position coordinates perpendicular to the position coordinates An object information estimator for correcting at least one of the position and the height, calculating at least one of the corrected position and the corrected height, and outputting a calculation result through a height coordinate . 제15항에 기재된 객체 정보 추정기를 포함하는 멀티미디어 기기.A multimedia device comprising the object information estimator according to claim 15. 제15항에 기재된 객체 정보 추정기를 포함하는 컴퓨터 기기.A computer device comprising the object information estimator of claim 15.
KR1020070087854A 2007-08-30 2007-08-30 An object information estimator using the single camera, a method thereof, a multimedia device and a computer device including the estimator, and a computer-readable recording medium storing a program for performing the method. KR100933304B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070087854A KR100933304B1 (en) 2007-08-30 2007-08-30 An object information estimator using the single camera, a method thereof, a multimedia device and a computer device including the estimator, and a computer-readable recording medium storing a program for performing the method.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070087854A KR100933304B1 (en) 2007-08-30 2007-08-30 An object information estimator using the single camera, a method thereof, a multimedia device and a computer device including the estimator, and a computer-readable recording medium storing a program for performing the method.

Publications (2)

Publication Number Publication Date
KR20090022486A KR20090022486A (en) 2009-03-04
KR100933304B1 true KR100933304B1 (en) 2009-12-22

Family

ID=40692352

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070087854A KR100933304B1 (en) 2007-08-30 2007-08-30 An object information estimator using the single camera, a method thereof, a multimedia device and a computer device including the estimator, and a computer-readable recording medium storing a program for performing the method.

Country Status (1)

Country Link
KR (1) KR100933304B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101317839B1 (en) 2011-12-19 2013-10-15 경북대학교 산학협력단 An image object detection apparatus and method of the same
KR20140105694A (en) * 2013-02-22 2014-09-02 삼성테크윈 주식회사 Method and Apparatus for multiple ground plane extimation

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101043450B1 (en) 2009-07-31 2011-06-21 삼성전기주식회사 Location and distance mesuring appratus its method usnig camera
KR101776702B1 (en) 2011-03-25 2017-09-08 한화테크윈 주식회사 Monitoring camera for generating 3 dimensional scene and method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050066400A (en) * 2003-12-26 2005-06-30 한국전자통신연구원 Apparatus and method for the 3d object tracking using multi-view and depth cameras
KR20060004678A (en) * 2003-04-21 2006-01-12 닛본 덴끼 가부시끼가이샤 Video object recognition device and recognition method, video annotation giving device and giving method, and program
KR20070010306A (en) * 2005-07-18 2007-01-24 삼성에스디아이 주식회사 Device taking a picture and method to generating the image with depth information
JP2007213561A (en) 2006-01-16 2007-08-23 Honda Motor Co Ltd Vehicle periphery supervisory unit

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060004678A (en) * 2003-04-21 2006-01-12 닛본 덴끼 가부시끼가이샤 Video object recognition device and recognition method, video annotation giving device and giving method, and program
KR20050066400A (en) * 2003-12-26 2005-06-30 한국전자통신연구원 Apparatus and method for the 3d object tracking using multi-view and depth cameras
KR20070010306A (en) * 2005-07-18 2007-01-24 삼성에스디아이 주식회사 Device taking a picture and method to generating the image with depth information
JP2007213561A (en) 2006-01-16 2007-08-23 Honda Motor Co Ltd Vehicle periphery supervisory unit

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101317839B1 (en) 2011-12-19 2013-10-15 경북대학교 산학협력단 An image object detection apparatus and method of the same
KR20140105694A (en) * 2013-02-22 2014-09-02 삼성테크윈 주식회사 Method and Apparatus for multiple ground plane extimation
KR102145959B1 (en) * 2013-02-22 2020-08-31 한화테크윈 주식회사 Method and Apparatus for multiple ground plane extimation

Also Published As

Publication number Publication date
KR20090022486A (en) 2009-03-04

Similar Documents

Publication Publication Date Title
CN102472609B (en) Position and orientation calibration method and apparatus
Wöhler 3D computer vision: efficient methods and applications
CN107993263B (en) Automatic calibration method for panoramic system, automobile, calibration device and storage medium
US9787960B2 (en) Image processing apparatus, image processing system, image processing method, and computer program
US9883163B2 (en) Method and system for determining camera parameters from a long range gradient based on alignment differences in non-point image landmarks
JP5713159B2 (en) Three-dimensional position / orientation measurement apparatus, method and program using stereo images
Takimoto et al. 3D reconstruction and multiple point cloud registration using a low precision RGB-D sensor
Ricolfe-Viala et al. Correcting non-linear lens distortion in cameras without using a model
KR20140027468A (en) Depth measurement quality enhancement
Kim et al. A camera calibration method using concentric circles for vision applications
Barath et al. A minimal solution for two-view focal-length estimation using two affine correspondences
AU2008296518A1 (en) System and method for three-dimensional measurement of the shape of material objects
CN111123242B (en) Combined calibration method based on laser radar and camera and computer readable storage medium
KR20180105875A (en) Camera calibration method using single image and apparatus therefor
KR100951309B1 (en) New Calibration Method of Multi-view Camera for a Optical Motion Capture System
Furukawa et al. One-shot entire shape acquisition method using multiple projectors and cameras
KR100933304B1 (en) An object information estimator using the single camera, a method thereof, a multimedia device and a computer device including the estimator, and a computer-readable recording medium storing a program for performing the method.
CN114299156A (en) Method for calibrating and unifying coordinates of multiple cameras in non-overlapping area
KR20050061115A (en) Apparatus and method for separating object motion from camera motion
CN112184793B (en) Depth data processing method and device and readable storage medium
Pless et al. Extrinsic calibration of a camera and laser range finder
Claus et al. A Plumbline Constraint for the Rational Function Lens Distortion Model.
Slossberg et al. Freehand Laser Scanning Using Mobile Phone.
KR20120069429A (en) System and method for radial distortion compensation of camera based on projector and epipolar geometry
CN111145268A (en) Video registration method and device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121214

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20131129

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20151028

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee