KR101846390B1 - Apparatus and method of camera network calibration with a small calibration pattern - Google Patents

Apparatus and method of camera network calibration with a small calibration pattern Download PDF

Info

Publication number
KR101846390B1
KR101846390B1 KR1020120038466A KR20120038466A KR101846390B1 KR 101846390 B1 KR101846390 B1 KR 101846390B1 KR 1020120038466 A KR1020120038466 A KR 1020120038466A KR 20120038466 A KR20120038466 A KR 20120038466A KR 101846390 B1 KR101846390 B1 KR 101846390B1
Authority
KR
South Korea
Prior art keywords
sub
matrix
camera
correction
correction pattern
Prior art date
Application number
KR1020120038466A
Other languages
Korean (ko)
Other versions
KR20130009603A (en
Inventor
김재헌
강현
이지형
구본기
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US13/549,323 priority Critical patent/US9185401B2/en
Publication of KR20130009603A publication Critical patent/KR20130009603A/en
Application granted granted Critical
Publication of KR101846390B1 publication Critical patent/KR101846390B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 소형 보정 패턴을 이용한 카메라 네트웍 보정에 있어서, 3차원 복원하고자 대상 물체의 주변에 소형 보정 패턴을 설치하고, 이와 같이 배치된 소형 보정 패턴에 대해 카메라 네트웍에 구비되는 다수의 카메라로부터 생성되는 행렬값을 이용하여 임의의 물체 및 사람의 3차원 복원을 하기 위해 대상 물체의 둘레에 배치되어 있는 카메라 네트웍의 카메라 보정을 보다 용이하게 수행할 수 있다.In the camera network correction using a small correction pattern, a small correction pattern is installed around a target object to be reconstructed in three dimensions, and a small correction pattern is generated from a plurality of cameras provided in the camera network It is possible to more easily perform camera correction of the camera network disposed around the object in order to perform 3D reconstruction of arbitrary objects and persons using the matrix values.

Description

소형 보정 패턴을 이용한 카메라 네트웍 보정 방법 및 장치{APPARATUS AND METHOD OF CAMERA NETWORK CALIBRATION WITH A SMALL CALIBRATION PATTERN}[0001] CAMERA NETWORK CALIBRATION WITH A SMALL CALIBRATION PATTERN [0002]

본 발명은 카메라 보정 방법에 관한 것으로, 특히 카메라 네트웍(camera network) 보정에 있어서 3차원 복원하고자 대상 물체의 주변에 소형 보정 패턴(pattern)을 설치하고, 이와 같이 배치된 소형 보정 패턴에 대해 카메라 네트웍에 구비되는 다수의 카메라로부터 생성되는 행렬값을 이용하여 임의의 물체 및 사람의 3차원 복원을 하기 위해 대상 물체의 둘레에 배치되어 있는 카메라 네트웍의 카메라 보정을 수행할 수 있도록 하는 소형 보정 패턴을 이용한 카메라 네트웍 보정 방법 및 장치에 관한 것이다.
The present invention relates to a camera correction method, and more particularly to a camera correction method in which a small correction pattern is installed in the vicinity of a target object for three-dimensional restoration in camera network correction, Dimensional correction of a camera network disposed around a target object in order to reconstruct an object and a person using a matrix value generated by a plurality of cameras provided in the camera network And a camera network correction method and apparatus.

카메라의 내부변수 및 외부 변수를 구하는 카메라 보정 작업은 카메라를 이용하여 3차원의 정보를 구하는 모든 작업을 위해 선행되어야 하는 작업이다.The camera calibration process for obtaining internal variables and external variables of a camera is a task that must be preceded for all operations for obtaining three-dimensional information using a camera.

카메라 보정 방식의 종류는 그동안 많이 존재하였으나 보정패턴을 이용하여 카메라 보정을 하는 방식이 가장 안정적이고 정밀한 결과를 보장할 수 있다. 그러나 3차원 복원하고자 하는 대상 물체의 크기가 클 경우 이러한 보정패턴의 크기도 비례해서 같이 커야하는 문제가 있다. 이러한 큰 보정패턴은 유지, 보수, 관리의 문제가 있을 뿐 아니라 큰 보정 패턴의 제작에 들어가는 비용과 정밀도는 반비례 관계가 있으므로 이 또한 시스템 구축에 있어서 문제가 된다.Although there are many types of camera correction methods, the method of correcting the camera using the correction pattern can guarantee the most stable and accurate result. However, when the size of the object to be reconstructed is large, the size of the correction pattern is also proportional to the size of the object. Such a large correction pattern has a problem of maintenance, maintenance, and management. In addition, there is an inverse relationship between the cost and precision for manufacturing a large correction pattern, which is also a problem in system construction.

이러한 문제를 해결하기 위해 광 포인트를 손으로 움직여 이러한 점을 여러 카메라에서 동시에 찍고 자기보정(self-calibration) 방식으로 보정하는 방식이 있으나 이것은 카메라의 촬영 시간 동기가 유지되어야 한다는 한계가 있다. 3차원 구조의 보정 패턴 제작의 문제를 극복하기 위해 2차원 구조의 보정 패턴을 이용하는 방식이 있으나 이 또한 촬영 대상의 크기에 비례해서 패턴의 크기가 커야 하는 문재를 여전히 가지고 있으며 촬영 대상의 둘레에 있는 카메라의 상대적 위치를 측정하는데 있어서 정밀도가 떨어진다.
In order to solve such a problem, there is a method of moving a light point by hand and taking a picture of this point at a plurality of cameras at the same time and correcting it by a self-calibration method. In order to overcome the problem of making a correction pattern of a three-dimensional structure, there is a method of using a correction pattern of a two-dimensional structure. However, this method has a drawback that the size of the pattern must be large in proportion to the size of the object to be imaged. The accuracy of measuring the relative position of the camera is reduced.

대한민국 공개특허공보 10-2007-0101580호 공개일자 2007년 10월 17일에는 카메라 보정 행렬 추정 방법에 관한 기술이 개시되어 있다.Korean Patent Laid-Open Publication No. 10-2007-0101580 discloses a technique for estimating a camera correction matrix on October 17, 2007.

따라서 본 발명에서는 카메라 네트웍을 이용하여 물체의 3차원 복원 시, 대상 물체가 큰 경우, 복원을 위한 보정패턴이 커야 한다는 필요성을 제거하기 위한 방법을 제안하고자 한다. 이러한 방법을 위해 보정 패턴을 물체가 차지하는 체적내의 임의의 여러 위치에 두고 촬영하는 방법을 제시한다. 이때 각 보정패턴의 위치를 모르므로 카메라의 보정뿐만 아니라 패턴의 위치를 동시에 계산해 내야 하는 것이 필요하다.Accordingly, the present invention proposes a method for eliminating the necessity of a large correction pattern for restoration when the object is large when the object is three-dimensionally reconstructed using a camera network. For this method, we propose a method of capturing a correction pattern at several arbitrary positions within the volume occupied by the object. Since the position of each correction pattern is not known at this time, it is necessary to simultaneously calculate the position of the pattern as well as the correction of the camera.

따라서, 본 발명은 카메라 네트웍 보정에 있어서 3차원 복원하고자 대상 물체의 주변에 소형 보정 패턴을 설치하고, 이와 같이 배치된 소형 보정 패턴에 대해 카메라 네트웍에 구비되는 다수의 카메라로부터 생성되는 행렬값을 이용하여 임의의 물체 및 사람의 3차원 복원을 하기 위해 대상 물체의 둘레에 배치되어 있는 카메라 네트웍의 카메라 보정을 수행할 수 있도록 하는 소형 보정 패턴을 이용한 카메라 네트웍 보정 방법 및 장치를 제공하고자 한다.
Therefore, in the camera network correction, a small correction pattern is installed in the vicinity of an object to be subjected to three-dimensional reconstruction, and a matrix value generated from a plurality of cameras provided in the camera network is used And to provide a camera network correction method and apparatus using a small correction pattern that can perform camera correction of a camera network disposed around a target object for three-dimensional reconstruction of an object and a person.

본 발명은 소형 보정 패턴을 이용한 카메라 네트웍 보정 방법으로서, 다수의 보정 패턴에 대해 각각의 카메라로부터 생성되는 투영행렬을 입력받아 상기 투영행렬의 일부분을 부투영행렬로 생성하는 단계와, 상기 부투영행렬을 가로 세로로 연결하여 하나의 부측정행렬을 생성하는 단계와, 상기 부측정행렬에 대해 SVD(singular value decomposition)을 수행하고 이러한 SVD의 결과를 기반으로 상기 부측정행렬을 랭크가 3인 행렬로 변환시키는 단계와, 상기 변환된 부측정행렬에 대해 다시 상기 SVD를 수행하는 단계와, 상기 SVD 수행 결과에 따라 상기 소형 보정 패턴의 회전값과 카메라의 내부인자, 회전값을 추출하여 상기 카메라의 네트웍 보정을 수행하는 단계를 포함한다.There is provided a camera network correction method using a small correction pattern, comprising the steps of: receiving a projection matrix generated from each camera for a plurality of correction patterns and generating a portion of the projection matrix as a sub-projection matrix; (SVD) on the sub-measurement matrix, and based on the result of the SVD, the sub-measurement matrix is transformed into a matrix of rank 3 Performing a SVD on the transformed sub-measurement matrix; extracting a rotation value of the small correction pattern and an internal factor and a rotation value of the camera according to a result of the SVD; And performing a correction.

또한, 상기 부투영행렬은, 상기 투영행렬 앞쪽의 기설정된 3X3 부분으로 생성되는 것을 특징으로 한다.In addition, the sub-projection matrix is generated as a predetermined 3X3 part in front of the projection matrix.

또한, 상기 부투영행렬은, 하나의 보정 패턴에 대해 카메라의 수만큼 생성되는 것을 특징으로 한다.In addition, the sub-projection matrix is generated by the number of cameras for one correction pattern.

또한, 상기 보정 수행 단계에서, 상기 추출된 소형 보정 패턴의 회전값, 카메라의 내부인자, 회전값과 상기 투영행렬을 이용하여 상기 카메라의 병진 이동값과 상기 소형 보정 패턴의 병진 이동값을 산출하는 것을 특징으로 한다.Further, in the performing of the correction, the translational movement value of the camera and the translational movement value of the small correction pattern are calculated using the rotation value of the extracted small correction pattern, the internal factor of the camera, the rotation value and the projection matrix .

또한, 본 발명은 카메라 네트웍 보정장치로서, 다수의 보정 패턴에 대해 각각의 카메라로부터 생성되는 투영행렬을 입력받아 상기 투영행렬의 일부분을 부투영행렬로 생성하는 부투영행렬 생성부와, 상기 부투영행렬 생성부로부터 생성된 부투영행렬을 가로 세로로 연결하여 하나의 부측정행렬을 생성하는 부측정 행렬 생성부와, 상기 부측정행렬에 대해 SVD(singular value decomposition)을 수행하고 이러한 SVD의 결과를 기반으로 상기 부측정행렬을 랭크가 3인 행렬로 변환시키는 최적화부와, 상기 변환된 부측정행렬에 대해 다시 상기 SVD를 수행하고 상기 소형 보정 패턴의 회전값과 카메라의 내부인자, 회전값을 추출하여 상기 카메라의 네트웍 보정을 수행하는 보정부를 포함한다.According to another aspect of the present invention, there is provided a camera network correction apparatus comprising: a sub-projection matrix generation unit for receiving a projection matrix generated from each camera for a plurality of correction patterns and generating a sub-projection matrix of a part of the projection matrix; A sub-measurement matrix generation unit for generating a sub-measurement matrix by vertically connecting the sub-projection matrices generated from the matrix generation unit, and performing a singular value decomposition (SVD) on the sub- And an SVD is performed on the transformed sub-measurement matrix, and a rotation value of the small correction pattern and an internal factor and a rotation value of the camera are extracted And a correction unit for performing network correction of the camera.

또한, 상기 부투영행렬 생성부는, 상기 투영행렬 앞쪽의 기설정된 3X3 부분을 부투영행렬로 생성하는 것을 특징으로 한다.The sub-projection matrix generation unit may generate a sub-projection matrix of a predetermined 3X3 portion in front of the projection matrix.

또한, 상기 부투영행렬은, 하나의 보정 패턴에 대해 카메라의 수만큼 생성되는 것을 특징으로 한다.In addition, the sub-projection matrix is generated by the number of cameras for one correction pattern.

또한, 상기 보정부는, 상기 소형 보정 패턴의 회전값, 카메라의 내부인자, 회전값과 상기 투영행렬을 이용하여 상기 카메라의 병진 이동값과 상기 소형 보정 패턴의 병진 이동값을 산출하는 것을 특징으로 한다.
The correction unit may calculate the translational movement value of the camera and the translational movement value of the small correction pattern using the rotation value of the small correction pattern, the internal factor of the camera, the rotation value, and the projection matrix .

본 발명은 소형 보정 패턴을 이용한 카메라 네트웍 보정에 있어서, 3차원 복원하고자 대상 물체의 주변에 소형 보정 패턴을 설치하고, 이와 같이 배치된 소형 보정 패턴에 대해 카메라 네트웍에 구비되는 다수의 카메라로부터 생성되는 행렬값을 이용하여 임의의 물체 및 사람의 3차원 복원을 하기 위해 대상 물체의 둘레에 배치되어 있는 카메라 네트웍의 카메라 보정을 보다 용이하게 수행할 수 있는 이점이 있다.In the camera network correction using a small correction pattern, a small correction pattern is installed around a target object to be reconstructed in three dimensions, and a small correction pattern is generated from a plurality of cameras provided in the camera network There is an advantage that camera correction of a camera network disposed around a target object can be more easily performed in order to reconstruct an arbitrary object and a person using the matrix value.

또한, 본 발명을 통해 카메라 네트웍의 보정을 수행하게 되면 촬영 대상이 큰 경우에도 큰 크기의 보정패턴을 사용하지 않아도 되므로 보정패턴의 유지, 보수, 관리에 들어가는 비용 및 수고를 줄일 수 있으며 또한 큰 패턴의 제작 시에 문제가 되는 정밀도 및 비용의 한계를 극복 할 수 있어, 시스템의 구축비용 절감 및 작업자의 작업 효율 향상에 기여 할 수 있는 이점이 있다.
In addition, when the correction of the camera network is performed through the present invention, it is not necessary to use a large-sized correction pattern even when the object to be photographed is large, so that it is possible to reduce the cost and labor for maintenance, It is possible to overcome the limitations of precision and cost which are problematic in manufacturing the semiconductor integrated circuit device, thereby contributing to the reduction of the construction cost of the system and the improvement of the work efficiency of the operator.

도 1은 본 발명의 실시예에 따른 카메라 네트웍 보정장치의 블록 구성도,
도 2는 본 발명의 적용 대상이 되는 카메라 네트웍 시스템의 예시도,
도 3은 본 발명의 실시예에 따른 카메라 보정패턴 형태의 예시도,
도 4는 본 발명의 실시예에 따른 촬영 상황 개념도,
도 5는 본 발명의 실시예에 따른 카메라 네트웍 내에서의 보정 패턴 촬영 결과 예시도,
도 6은 본 발명의 실시예에 따른 카메라 네트웍 보정의 구성 및 원리를 설명하기 위한 개념도,
도 7은 본 발명의 실시예에 따른 보정 패턴 제작 오차를 보정하는 원리를 설명하기 위한 개념도.
1 is a block diagram of a camera network correction apparatus according to an embodiment of the present invention;
2 is an exemplary view of a camera network system to which the present invention is applied,
3 is an exemplary view of a camera correction pattern according to an exemplary embodiment of the present invention.
4 is a conceptual view of a photographing situation according to an embodiment of the present invention,
5 is a diagram illustrating an example of a correction pattern photographing result in a camera network according to an embodiment of the present invention.
FIG. 6 is a conceptual diagram illustrating a configuration and principle of a camera network correction according to an exemplary embodiment of the present invention;
7 is a conceptual diagram for explaining a principle of correcting a correction pattern production error according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 동작 원리를 상세히 설명한다. 하기에서 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, the operation principle of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions of the present invention, and these may be changed according to the intention of the user, the operator, or the like. Therefore, the definition should be based on the contents throughout this specification.

도 1은 본 발명의 실시예에 따른 소형 보정 패턴을 이용한 카메라 네트웍 보정장치의 블록 구성을 도시한 것으로, 도 2에서와 같이 중앙에 위치한 사람 및 물체의 3차원 복원을 하기위한 카메라 네트웍 시스템의 카메라 보정을 수행하기 위한 것이다. FIG. 1 is a block diagram of a camera network correction apparatus using a small correction pattern according to an embodiment of the present invention. As shown in FIG. 2, a camera network system for three- To perform correction.

3차원 구조로 설계 제작된 소형 보정 패턴을 촬영 공간내의 임의의 여러 위치에 배치하고 이것을 주변에 배치된 카메라를 이용하여 촬영한다. 이때 하나의 패턴 위치에 대응하여 각 카메라는 하나의 투영행렬을 계산할 수 있다. 따라서 여러 위치에 패턴을 둘 경우 각 카메라는 해당 개수의 투영행렬이 만들어 진다. 부투영행렬 생성부(100)는 이러한 투영행렬의 앞 3x3부분으로 부투영행렬을 생성한다. A small correction pattern designed and fabricated in a three-dimensional structure is placed at arbitrary positions in the photographing space and photographed using a camera disposed in the vicinity. At this time, each camera can calculate one projection matrix corresponding to one pattern position. Therefore, when a pattern is placed at several positions, each camera produces a corresponding number of projection matrices. The sub-projection matrix generation unit 100 generates a sub-projection matrix at the 3x3 portion of the projection matrix.

부측정행렬 생성부(102)에서는 위와같이 측정된 여러 부투영행렬을 가로 세로로 이어 붙여 하나의 행렬 즉, 부측정행렬을 생성한다. 이러한 부측정행렬의 인자에 해당하는 각각의 부투영행렬을 행렬식이 1이 되도록 조절하면 부측정행렬은 랭크가 3인 행렬이 되어야 한다. In the sub-measurement matrix generation unit 102, a plurality of sub-projection matrices measured in the above manner are connected in the horizontal and vertical directions to generate one matrix, i.e., a sub-measurement matrix. If the sub-projection matrices corresponding to the factors of the sub-metric matrix are adjusted to have a matrix of 1, the sub-metric matrix must be a matrix of rank 3.

그러나 이미지 잡음에 의해 랭크가 3이 되지 않으므로 최적화부에서는 다음의 최적화 과정을 수행한다. 부측정행렬에 대해 SVD(Singular Value Decomposition)를 수행하고 이러한 SVD의 결과를 바탕으로 부측정행렬에 가장 가까운 랭크가 3인 행렬을 만든다. 이어, 보정부에서는 위와 같은 최적화 과정의 결과로 획득한 랭크가 3인 부측정행렬에 대해 다시 SVD를 수행하고, 이를 바탕으로 카메라의 내부인자, 회전값, 각 임의의 위치에 배치된 보정패턴의 회전 값을 추출 할 수 있다. 이때, 이 결과와 투영행렬을 이용하여 카메라의 병진 이동값과 보정패턴의 병진 이동값을 계산할 수 있다.However, since the rank is not 3 due to image noise, the optimizer performs the following optimization process. SVD (Singular Value Decomposition) is performed on the sub-measure matrix and based on the result of this SVD, a matrix with rank 3 closest to the sub-measure matrix is created. Next, SVD is performed on the sub-measurement matrix of rank 3 obtained as a result of the above optimization process, and based on the SVD, the internal parameters of the camera, the rotation value, and the correction pattern The rotation value can be extracted. At this time, the translational movement value of the camera and the translational movement value of the correction pattern can be calculated using the result and the projection matrix.

이하에서는 도 2 내지 도 7을 참조하여 본 발명의 카메라 네트웍 보정에 대해 보다 상세히 설명하기로 한다.Hereinafter, the camera network correction of the present invention will be described in more detail with reference to FIG. 2 to FIG.

본 발명은 우선 도 2에서와 같은 3차원 구조의 보정 패턴을 필요로 한다. 이러한 보정 패턴의 형태는 어떠한 형태여도 상관없으나 카메라가 어떠한 방향에서 바라보아도 한 평면에 있지 않은 6개 이상의 기준점을 관측할 수 있어야 한다. 도 3에서의 보정패턴의 형태는 어떠한 방향에서 보아도 두 개 이상의 평면이 보이므로 한 평면에 4개 이상의 기준점이 있으면 이러한 조건을 만족할 수 있다. The present invention first requires a correction pattern of a three-dimensional structure as shown in Fig. The shape of the correction pattern may be of any form, but the camera must be able to observe at least six reference points that are not in one plane when viewed from any direction. The shape of the correction pattern in FIG. 3 can satisfy two or more planes in any direction, so that the condition can be satisfied if there are four or more reference points on one plane.

이러한 보정패턴을 도 4에서와 같이 촬영 대상이 되는 공간의 임의의 여러 위치에 두고 촬영을 한다. 이 때 보정패턴이 놓인 위치의 합은 촬영 공간 전체를 덮을 수 있도록 할수록 좋은 보정결과를 얻을 수 있다. 이러한 촬영 결과의 예가 도 5와 같다.The correction pattern is photographed at various arbitrary positions in the space to be photographed as shown in FIG. At this time, as the sum of the positions where the correction patterns are placed covers the whole photographing space, a good correction result can be obtained. An example of such a photographing result is shown in Fig.

x를 이미지 상에서 위치가 추출된 보정패턴상의 기준점이라 하고, X는 보정패턴 상의 기준점의 임의의 월드좌표계에 대한 3차원 위치를 나타낸다고 하면 도 6에서와 같이 다음의 [수학식 1]과 같이 쓸 수 있다. Assuming that x is a reference point on a correction pattern where a position is extracted on the image and X is a three-dimensional position of a reference point on a correction pattern in an arbitrary world coordinate system, as shown in FIG. 6, have.

Figure 112012029446811-pat00001
Figure 112012029446811-pat00001

K는 카메라의 내부인자, R과 t는 각각 카메라의 위치에 해당하는 회전행렬과 위치벡터이고, 이를 합쳐 카메라의 외부인자라고 부른다. 지금부터

Figure 112012029446811-pat00002
기호는 행렬의 인자들의 상대적 크기 까지만 같다는 의미로 사용한다.K is the internal factor of the camera, R and t are the rotation matrix and the position vector corresponding to the position of the camera, respectively, and are collectively called the outsider of the camera. From now on
Figure 112012029446811-pat00002
The symbol is used to mean that it is equal to the relative size of the parameters of the matrix.

위 식에서 X는 도 6에서와 같이 다음의 [수학식 2]와 같이 나타낼 수 있다.In the above equation, X can be expressed by the following equation (2) as shown in FIG.

Figure 112012029446811-pat00003
Figure 112012029446811-pat00003

여기서 Xref는 보정패턴상에 붙어있는 기준 좌표계에 대해 기준점들의 3차원 좌표이고 S와 V는 각각 보정패턴의 위치에 해당하는 회전행렬과 위치벡터이다.Where Xref is the three-dimensional coordinates of the reference points relative to the reference coordinate system on the correction pattern, and S and V are the rotation matrix and position vector corresponding to the position of the correction pattern, respectively.

이제 도 6에서와 같이 각각의 보정패턴의 위치에서 각각의 카메라에 대해 다음의 [수학식 3]과 같은 관계식을 만족하는 카메라 투영행렬을 구할 수 있다.As shown in FIG. 6, a camera projection matrix satisfying the following expression (3) can be obtained for each camera at the position of each correction pattern.

Figure 112012029446811-pat00004
Figure 112012029446811-pat00004

이 때 M과 N의 행렬의 곱으로 이루어진 행렬 P를 투영행렬이라고 부른다. 이러한 투영 행렬은 컴퓨터 비전 문야의 DLT(Direct Linear Transform) 방법을 이용하여 구할 수 있다. 이제부터 i번째 카메라와 j번째 패턴에 대해 구한 투영행렬을

Figure 112012029446811-pat00005
라 둔다.The matrix P, which is the product of the matrix of M and N, is called the projection matrix. This projection matrix can be obtained by using the DLT (Direct Linear Transform) method of the computer vision field. Now, let us consider the projection matrix obtained for the i-th camera and the j-th pattern
Figure 112012029446811-pat00005
I will.

투영 행렬의 앞 3x3 부분을

Figure 112012029446811-pat00006
라 두고 이를 부투영행렬라 한다. 이 행렬의 행렬식이 1이 되도록 다음의 [수학식 4]와 같은 상수
Figure 112012029446811-pat00007
를 곱한다.The 3x3 portion of the projection matrix
Figure 112012029446811-pat00006
Which is called the inferior projection matrix. And the matrix equation of this matrix is 1, the following equation (4)
Figure 112012029446811-pat00007
Lt; / RTI >

Figure 112012029446811-pat00008
Figure 112012029446811-pat00008

그 후 이러한 부투영행렬을 가로세로로 다음의 [수학식 5]과 같이 이어 붙이고 이러한 행렬을 부측정행렬이라 한다.Subsequently, this sub-projection matrix is added in the horizontal and vertical directions as shown in the following equation (5), and this matrix is called a sub-measurement matrix.

Figure 112012029446811-pat00009
Figure 112012029446811-pat00009

여기서 카메라의 개수는 m, 패턴의 위치 개수는 n이라 둔다. 만약 특정 카메라 위치 i에서 특정 위치 j의 보정패턴이 보이지 않으면 다음의 [수학식 6]과 같은 수식에 의해 구할 수 있다.Here, the number of cameras is m and the number of positions of the pattern is n. If the correction pattern of the specific position j is not seen at the specific camera position i, it can be obtained by the following equation (6).

Figure 112012029446811-pat00010
Figure 112012029446811-pat00010

여기서

Figure 112012029446811-pat00011
,
Figure 112012029446811-pat00012
,
Figure 112012029446811-pat00013
는 각각 구할 수 있다고 가정한다.here
Figure 112012029446811-pat00011
,
Figure 112012029446811-pat00012
,
Figure 112012029446811-pat00013
Respectively.

이러한 부측정행렬은 다음의 [수학식 7]과 같은 관계식에 의해 랭크가 3이어야 한다.The sub-measurement matrix should have a rank of 3 according to the following expression (7).

Figure 112012029446811-pat00014
Figure 112012029446811-pat00014

여기서 ai,i=1...m 은 임의의 상수에 해당한다. 그러나 이미지에서 기준점의 측정시 잡음에 의해 정확히 랭크가 3이 될 수 없으며 다음과 같이 최적화를 거친다. 부측정행렬의 SVD(Singular Value Decomposition)를 수행하고 이러한 SVD의 결과를 아래의 [수학식 8]과 같다고 하면 Where ai, i = 1 ... m corresponds to an arbitrary constant. However, in the measurement of the reference point in the image, the noise can not be exactly 3 due to the noise, and it is optimized as follows. Assuming that SVD (Singular Value Decomposition) of the sub-measurement matrix is performed and the result of this SVD is as shown in the following equation (8)

Figure 112012029446811-pat00015
Figure 112012029446811-pat00015

이러한 행렬에 가장 가까운 랭크 3인 행렬은 다음의 [수학식 9]와 같이 구할 수 있다.The matrix with the rank 3 closest to this matrix can be obtained by the following equation (9).

Figure 112012029446811-pat00016
Figure 112012029446811-pat00016

여기서

Figure 112012029446811-pat00017
이며
Figure 112012029446811-pat00018
Figure 112012029446811-pat00019
는 각각
Figure 112012029446811-pat00020
Figure 112012029446811-pat00021
의 앞 3열만을 남김 행렬이다. 이때 이와 같이 부측정행렬을 두 매트릭스의 곱으로 표현 할 때 이러한 형태는 다음의 [수학식 10]과 같이 임의의 행렬 T의 존재에 의해 무수히 많이 존재할 수 있다.here
Figure 112012029446811-pat00017
And
Figure 112012029446811-pat00018
Wow
Figure 112012029446811-pat00019
Respectively
Figure 112012029446811-pat00020
Wow
Figure 112012029446811-pat00021
The first three columns are left. In this case, when the sub-measurement matrix is expressed by the product of two matrices, this form can exist in a large number by the presence of an arbitrary matrix T as shown in the following Equation (10).

Figure 112012029446811-pat00022
Figure 112012029446811-pat00022

그러나 이러한 행렬 T는

Figure 112012029446811-pat00023
의 수학식에 의해 구할 수 있다. 여기서 Rw는 임의의 월드좌표계의 설정과 관련되므로 임의로 단위행렬도 두어도 무방하다. 이제
Figure 112012029446811-pat00024
라 두고
Figure 112012029446811-pat00025
라 두면 Ki와 Ri는
Figure 112012029446811-pat00026
의 RQ-decomposition으로 구할 수 있고
Figure 112012029446811-pat00027
Figure 112012029446811-pat00028
에 가장 가까운 회전행렬을 구함으로써 계산할 수 있다.However, this matrix T
Figure 112012029446811-pat00023
Can be obtained by the following equation. Here, since Rw is related to the setting of any world coordinate system, an arbitrary unit matrix may be set. now
Figure 112012029446811-pat00024
La
Figure 112012029446811-pat00025
Ki and Ri
Figure 112012029446811-pat00026
Can be obtained by RQ-decomposition of
Figure 112012029446811-pat00027
The
Figure 112012029446811-pat00028
Can be calculated.

이때,

Figure 112012029446811-pat00029
를 투영행렬
Figure 112012029446811-pat00030
의 4번째 열이라고 하면 다음의 [수학식 11]에서와 같은 관계식이 구해진다.At this time,
Figure 112012029446811-pat00029
A projection matrix
Figure 112012029446811-pat00030
The following relation is obtained as in the following equation (11).

Figure 112012029446811-pat00031
Figure 112012029446811-pat00031

이 때

Figure 112012029446811-pat00032
로 구할 수 있다. 이 관계식을 통해
Figure 112012029446811-pat00033
Figure 112012029446811-pat00034
도 구 할 수 있다. 이로써 원하는 모든 인자를 다 구하였다. 이제 이러한 대수적 관계에 의해 구한 결과를 기하학적 최적화를 통해 보다 더 정밀하게 인자를 구한다. 우선 최적화 대상이 되는 비용함수는 다음의 [수학식 12]와 같이 재 투영 오차로 정한다.At this time
Figure 112012029446811-pat00032
. Through this relationship
Figure 112012029446811-pat00033
And
Figure 112012029446811-pat00034
You can do it. All the desired parameters were obtained. Now, the geometric optimization of the results obtained by this algebraic relationship yields more precise parameters. First, the cost function to be optimized is determined by the re-projection error as shown in the following equation (12).

Figure 112012029446811-pat00035
Figure 112012029446811-pat00035

여기서

Figure 112012029446811-pat00036
는 i번째 카메라에서 j번째 위치의 보정패턴을 볼 때, 보정패턴상에 보이는 기준점의 인덱스에 해당한다.
Figure 112012029446811-pat00037
는 이미지 상에서 잠음을 내포한 채 측정한 기준점의 좌표이고,
Figure 112012029446811-pat00038
는 주어진 인자에 의해 계산된 보정패턴상의 특정 기준점의 재투영 좌표이다. 대수적 관계에 의해 구한 결과를 초기값으로 하고, 첫번째 보정패턴의 위치를 상수로 고정시키고, 이러한 비용함수에 대해 Levenberg-Marquardt 방식의 최적화 과정을 수행하면 보다 정밀한 결과를 얻게 된다.here
Figure 112012029446811-pat00036
Corresponds to the index of the reference point on the correction pattern when the correction pattern of the j-th position is viewed in the i-th camera.
Figure 112012029446811-pat00037
Is the coordinates of the reference point measured with the latent sound on the image,
Figure 112012029446811-pat00038
Is the re-projection coordinate of a specific reference point on the correction pattern calculated by the given factor. The result obtained by the algebraic relation is set as the initial value, the position of the first correction pattern is fixed as a constant, and the optimization process of the Levenberg-Marquardt method is performed on the cost function to obtain more accurate results.

그러나 보정패턴의 제작시 미세한 오차가 있을 수 있는데 이러한 오차는 대부분 보정 패턴을 이루는 각 평면의 위치 오차에 기인한다. 이러한 오차를 보정하는 방법은 다음과 같다.However, there may be a slight error in the fabrication of the correction pattern. This error is mostly caused by the position error of each plane forming the correction pattern. The method of correcting this error is as follows.

우선 도 7과 같이 보정패턴에 붙어 있는 기준 좌표에 대해 각 평면 k의 위치를 나타내는 회전행렬 Rk, 위치벡터 tk를 정의한다. 그러면 이러한 인자들을 포함한 비용함수를 정의할 수 있다. 이 인자의 초기치는 각각 단위행렬과 영벡터로 두고, 역시 Levenberg-Marquardt 방식의 최적화 과정을 수행하면 Rk, tk도 구할 수 있다. 이 때 추가적으로 카메라가 렌즈왜곡이 있으면 렌즈왜곡 인자를 위의 비용함수에 추가로 넣고, 이 인자의 초기치는 0으로 두고, 역시 같은 최적화 과정을 거치면 렌즈왜곡 인자도 구할 수 있다.First, as shown in Fig. 7, a rotation matrix Rk indicating a position of each plane k with respect to reference coordinates attached to the correction pattern and a position vector tk are defined. You can then define a cost function that includes these factors. Rk, tk can be obtained by optimizing the Levenberg-Marquardt method with the initial values of these factors as the unit matrix and the zero vector, respectively. In this case, if the lens is further distorted by the lens, the lens distortion factor can be obtained by adding the lens distortion factor to the above cost function, setting the initial value of this factor to 0, and performing the same optimization process.

상기한 바와 같이, 본 발명에서는 소형 보정 패턴을 이용한 카메라 네트웍 보정에 있어서, 3차원 복원하고자 대상 물체의 주변에 소형 보정 패턴을 설치하고, 이와 같이 배치된 소형 보정 패턴에 대해 카메라 네트웍에 구비되는 다수의 카메라로부터 생성되는 행렬값을 이용하여 임의의 물체 및 사람의 3차원 복원을 하기 위해 대상 물체의 둘레에 배치되어 있는 카메라 네트웍의 카메라 보정을 보다 용이하게 수행할 수 있다.As described above, in the present invention, in the camera network correction using the small correction pattern, a small correction pattern is provided around the object to be reconstructed in three dimensions, and a plurality It is possible to more easily perform the camera correction of the camera network disposed around the object in order to perform three-dimensional reconstruction of an arbitrary object and a person using the matrix value generated from the camera of the camera.

또한, 본 발명을 통해 카메라 네트웍의 보정을 수행하게 되면 촬영 대상이 큰 경우에도 큰 크기의 보정패턴을 사용하지 않아도 되므로 보정패턴의 유지, 보수, 관리에 들어가는 비용 및 수고를 줄일 수 있으며 또한 큰 패턴의 제작 시에 문제가 되는 정밀도 및 비용의 한계를 극복 할 수 있어, 시스템의 구축비용 절감 및 작업자의 작업 효율 향상에 기여 할 수 있다.In addition, when the correction of the camera network is performed through the present invention, it is not necessary to use a large-sized correction pattern even when the object to be photographed is large, so that it is possible to reduce the cost and labor for maintenance, It is possible to overcome the limitations of accuracy and cost which are a problem in manufacturing the system, thereby contributing to reduction of the system construction cost and improvement of the work efficiency of the operator.

한편 상술한 본 발명의 설명에서는 구체적인 실시예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시될 수 있다. 따라서 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위에 의해 정하여져야 한다.
While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the invention. Accordingly, the scope of the invention should not be limited by the described embodiments but should be defined by the appended claims.

100 : 부투영행렬 생성부 102 : 부측정행렬 생성부
104 : 최적화부 106 : 보정부
100: sub-projection matrix generation unit 102: sub-measurement matrix generation unit
104: Optimization unit 106:

Claims (8)

다수의 보정 패턴에 대해 각각의 카메라로부터 생성되는 투영행렬을 입력받아 상기 투영행렬의 일부분을 부투영행렬로 생성하는 단계와,
상기 부투영행렬을 가로 세로로 연결하여 하나의 부측정행렬을 생성하는 단계와,
상기 부측정행렬에 대해 SVD(singular value decomposition)을 수행하고 이러한 SVD의 결과를 기반으로 상기 부측정행렬을 랭크가 3인 행렬로 변환시키는 단계와,
상기 변환된 부측정행렬에 대해 다시 상기 SVD를 수행하는 단계와,
상기 SVD 수행 결과에 따라 상기 보정 패턴의 회전값과 카메라의 내부인자, 회전값을 추출하여 상기 카메라의 네트웍 보정을 수행하는 단계
를 포함하고,
상기 보정 패턴은
3차원 구조를 가지며, 임의의 방향에서 바라보아도 한 평면에 있지 않은 6개 이상의 기준점을 관측할 수 있는 것을 특징으로 하는 카메라 네트웍 보정방법.
Generating a sub-projection matrix of a part of the projection matrix by receiving a projection matrix generated from each camera with respect to a plurality of correction patterns;
Generating a sub-measurement matrix by vertically connecting the sub-projection matrices;
Performing singular value decomposition (SVD) on the sub-measure matrix and transforming the sub-measure matrix into a matrix of rank 3 based on the result of the SVD;
Performing the SVD again on the transformed sub-measurement matrix,
Performing a network correction of the camera by extracting a rotation value of the correction pattern and an internal factor and a rotation value of the camera according to a result of the SVD;
Lt; / RTI >
The correction pattern
Wherein the camera network correction method has a three-dimensional structure and is capable of observing at least six reference points that are not in one plane even when viewed from an arbitrary direction.
제 1 항에 있어서,
상기 부투영행렬은,
상기 투영행렬 앞쪽의 기설정된 3X3 부분으로 생성되는 카메라 네트웍 보정방법.
The method according to claim 1,
Wherein the sub-
And generating a predetermined 3X3 portion in front of the projection matrix.
제 1 항에 있어서,
상기 부투영행렬은,
하나의 보정 패턴에 대해 카메라의 수만큼 생성되는 카메라 네트웍 보정방법.
The method according to claim 1,
Wherein the sub-
A method for calibrating a camera network as many as a number of cameras for a calibration pattern.
제 1 항에 있어서,
상기 보정 수행 단계에서,
상기 추출된 보정 패턴의 회전값, 카메라의 내부인자, 회전값과 상기 투영행렬을 이용하여 상기 카메라의 병진 이동값과 상기 보정 패턴의 병진 이동값을 산출하는 카메라 네트웍 보정방법.
The method according to claim 1,
In the performing of the correction,
Calculating a translation value of the camera and a translation value of the correction pattern using the rotation value of the extracted correction pattern, the internal factor of the camera, the rotation value, and the projection matrix.
다수의 보정 패턴에 대해 각각의 카메라로부터 생성되는 투영행렬을 입력받아 상기 투영행렬의 일부분을 부투영행렬로 생성하는 부투영행렬 생성부와,
상기 부투영행렬 생성부로부터 생성된 부투영행렬을 가로 세로로 연결하여 하나의 부측정행렬을 생성하는 부측정 행렬 생성부와,
상기 부측정행렬에 대해 SVD(singular value decomposition)을 수행하고 이러한 SVD의 결과를 기반으로 상기 부측정행렬을 랭크가 3인 행렬로 변환시키는 최적화부와,
상기 변환된 부측정행렬에 대해 다시 상기 SVD를 수행하고 상기 보정 패턴의 회전값과 카메라의 내부인자, 회전값을 추출하여 상기 카메라의 네트웍 보정을 수행하는 보정부
를 포함하고,
상기 보정 패턴은
3차원 구조를 가지며, 임의의 방향에서 바라보아도 한 평면에 있지 않은 6개 이상의 기준점을 관측할 수 있는 것을 특징으로 하는 카메라 네트웍 보정장치.
A sub-projection matrix generator for receiving a projection matrix generated from each camera for a plurality of correction patterns and generating a sub-projection matrix of the projection matrix;
A sub-metric matrix generator for vertically connecting the sub-projection matrices generated from the sub-projection matrix generator to generate a sub-metric matrix;
An optimization unit that performs singular value decomposition (SVD) on the sub-measurement matrix and transforms the sub-metric matrix into a matrix having rank 3 based on the result of the SVD;
Performing a SVD again on the transformed sub-measurement matrix, extracting an internal factor and a rotation value of the camera and a rotation value of the correction pattern,
Lt; / RTI >
The correction pattern
Wherein the camera network correction device has a three-dimensional structure and can observe at least six reference points that are not in one plane even when viewed from an arbitrary direction.
제 5 항에 있어서,
상기 부투영행렬 생성부는,
상기 투영행렬 앞쪽의 기설정된 3X3 부분을 부투영행렬로 생성하는 카메라 네트웍 보정장치.
6. The method of claim 5,
Wherein the sub-
And generating a predetermined 3X3 portion in front of the projection matrix as a sub-projection matrix.
제 5 항에 있어서,
상기 부투영행렬은,
하나의 보정 패턴에 대해 카메라의 수만큼 생성되는 카메라 네트웍 보정장치.
6. The method of claim 5,
Wherein the sub-
A camera network correction device as many as the number of cameras for one correction pattern.
제 5 항에 있어서,
상기 보정부는,
상기 보정 패턴의 회전값, 카메라의 내부인자, 회전값과 상기 투영행렬을 이용하여 상기 카메라의 병진 이동값과 상기 보정 패턴의 병진 이동값을 산출하는 카메라 네트웍 보정장치.
6. The method of claim 5,
Wherein,
Wherein the translational movement value of the camera and the translational movement value of the correction pattern are calculated using the rotation value of the correction pattern, the internal factor of the camera, the rotation value, and the projection matrix.
KR1020120038466A 2011-07-15 2012-04-13 Apparatus and method of camera network calibration with a small calibration pattern KR101846390B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/549,323 US9185401B2 (en) 2011-07-15 2012-07-13 Method and apparatus for camera network calibration with small calibration pattern

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20110070354 2011-07-15
KR1020110070354 2011-07-15

Publications (2)

Publication Number Publication Date
KR20130009603A KR20130009603A (en) 2013-01-23
KR101846390B1 true KR101846390B1 (en) 2018-04-09

Family

ID=47839340

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120038466A KR101846390B1 (en) 2011-07-15 2012-04-13 Apparatus and method of camera network calibration with a small calibration pattern

Country Status (1)

Country Link
KR (1) KR101846390B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102248459B1 (en) 2015-02-03 2021-05-06 한국전자통신연구원 Apparatus and methdo for calibrating a camera
PL233219B1 (en) * 2017-11-17 2019-09-30 Politechnika Warszawska Method for creation of a calibration grid using the high-resolution display unit

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030156189A1 (en) * 2002-01-16 2003-08-21 Akira Utsumi Automatic camera calibration method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030156189A1 (en) * 2002-01-16 2003-08-21 Akira Utsumi Automatic camera calibration method

Also Published As

Publication number Publication date
KR20130009603A (en) 2013-01-23

Similar Documents

Publication Publication Date Title
CN104537707B (en) Image space type stereoscopic vision moves real-time measurement system online
JP6465789B2 (en) Program, apparatus and method for calculating internal parameters of depth camera
Balcaen et al. Stereo-DIC uncertainty quantification based on simulated images
US10771776B2 (en) Apparatus and method for generating a camera model for an imaging system
CN112308963B (en) Non-inductive three-dimensional face reconstruction method and acquisition reconstruction system
WO2018201677A1 (en) Bundle adjustment-based calibration method and device for telecentric lens-containing three-dimensional imaging system
US9185401B2 (en) Method and apparatus for camera network calibration with small calibration pattern
JP6282098B2 (en) Calibration apparatus and method
KR20080051184A (en) Artifact mitigation in three-dimensional imaging
CN109859272A (en) A kind of auto-focusing binocular camera scaling method and device
CN110969665B (en) External parameter calibration method, device, system and robot
JP7151879B2 (en) Camera calibration device, camera calibration method, and program
CN109373912A (en) A kind of non-contact six-freedom displacement measurement method based on binocular vision
CN116030202B (en) Three-dimensional image reconstruction method and device, electronic equipment and storage medium
JP2024052755A (en) Three-dimensional displacement measuring method and three-dimensional displacement measuring device
CN113658270B (en) Method, device, medium and system for multi-vision calibration based on workpiece hole center
JP2018179577A (en) Position measuring device
KR101846390B1 (en) Apparatus and method of camera network calibration with a small calibration pattern
Tushev et al. Photogrammetric system accuracy estimation by simulation modelling
KR101923373B1 (en) Method for 3d-scanning a subject using a calibration object
Bonacina et al. A low-cost solution to 3D pinna modeling for HRTF prediction
Yang et al. Error model for scene reconstruction from motion and stereo
JP6560159B2 (en) Position measuring device
CN116228889B (en) Mobile calibration device, camera array system calibration device and method
Godding et al. 4D Surface matching for high-speed stereo sequences

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant