KR100805802B1 - Apparatus and method for camera auto-calibration in motion blurred sequence, Augmented reality system using it - Google Patents

Apparatus and method for camera auto-calibration in motion blurred sequence, Augmented reality system using it Download PDF

Info

Publication number
KR100805802B1
KR100805802B1 KR1020060052758A KR20060052758A KR100805802B1 KR 100805802 B1 KR100805802 B1 KR 100805802B1 KR 1020060052758 A KR1020060052758 A KR 1020060052758A KR 20060052758 A KR20060052758 A KR 20060052758A KR 100805802 B1 KR100805802 B1 KR 100805802B1
Authority
KR
South Korea
Prior art keywords
camera
image
motion blur
motion
information
Prior art date
Application number
KR1020060052758A
Other languages
Korean (ko)
Other versions
KR20070061157A (en
Inventor
유정재
박창준
이인호
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20070061157A publication Critical patent/KR20070061157A/en
Application granted granted Critical
Publication of KR100805802B1 publication Critical patent/KR100805802B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

1. 청구범위에 기재된 발명이 속한 기술분야1. TECHNICAL FIELD OF THE INVENTION

본 발명은 모션 블러가 심한 영상의 카메라 자동보정 장치 및 그 방법과, 그를 이용한 증강현실 시스템에 관한 것임.The present invention relates to an apparatus and method for automatically correcting a camera having a severe motion blur and an augmented reality system using the same.

2. 발명이 해결하려고 하는 기술적 과제2. The technical problem to be solved by the invention

본 발명은 영화 제작이나 컴퓨터 그래픽스(CG: Computer Graphics) 광고 등의 영상물 제작시에 사용되는 증강현실에 이용하기 위해 모션 블러(Motion Blur)가 심한 영상에서 카메라의 정확한 외부변수(카메라의 움직임정보) 및 내부변수(카메라의 상태정보)의 값을 획득하기 위한, 모션 블러(Motion Blur)가 심한 영상의 카메라 자동보정 장치 및 그 방법과, 그를 이용한 증강현실 시스템을 제공하는데 그 목적이 있음.The present invention provides accurate external variables (camera motion information) of a camera in an image with severe motion blur for use in augmented reality, which is used in film production or video production such as computer graphics (CG) advertisement. And an automatic camera correction apparatus and method thereof for obtaining a video with severe motion blur, and an augmented reality system using the same, to obtain a value of an internal variable (camera state information).

3. 발명의 해결방법의 요지3. Summary of Solution to Invention

본 발명은, 카메라 자동보정 장치에 있어서, 영상 입력수단을 통해 입력된 모션 블러(Motion Blur)가 심한 영상을 가우시안 스무딩시켜 카메라 모션(이동)에 의해 명암도(Intensity)가 번지는 현상을 제거하기 위한 가우시안 스무딩수단; 상기 가우시안 스무딩된 영상에서 카메라 모션의 외부변수 및 내부변수를 획득하기 위한 카메라 정보 획득수단; 및 상기 획득된 외부변수 및 내부변수의 값을 바탕으로, 모션 블러 현상이 발생한 영상을 복원 필터를 이용하여 필터링하기 위한 복원 필터링 수단을 포함하되, 복원된 영상의 모션 블러 정도에 따라 상기 가우시안 스무딩 수단 및 상기 카메라 정보 획득수단에서 가우시안 스무딩 과정 및 내/외부변수 획득 과정을 반복 수행하는 것을 특징으로 한다.The present invention provides a camera automatic correction apparatus for removing a phenomenon in which intensity is spread by camera motion by moving a Gaussian smoothing of a severe motion blur input through an image input means. Gaussian smoothing means; Camera information acquisition means for acquiring external and internal variables of camera motion in the Gaussian smoothed image; And reconstruction filtering means for filtering an image in which a motion blur phenomenon occurs using a reconstruction filter based on the obtained values of the external variable and the internal variable, wherein the Gaussian smoothing means according to the degree of motion blur of the reconstructed image. And a Gaussian smoothing process and an internal / external variable acquiring process in the camera information acquiring means.

4. 발명의 중요한 용도4. Important uses of the invention

본 발명은 모션 블러 현상이 발생한 영상에서의 증강현실 등에 이용됨.The present invention is used for augmented reality in an image in which a motion blur occurs.

모션 블러, 가우시안 스무딩, 카메라 자동보정, 특징점, 외부변수, 내부변수, 증강현실 Motion Blur, Gaussian Smoothing, Camera Auto Correction, Feature Point, External Variable, Internal Variable, Augmented Reality

Description

모션 블러가 심한 영상의 카메라 자동보정 장치 및 그 방법과, 그를 이용한 증강현실 시스템{Apparatus and method for camera auto-calibration in motion blurred sequence, Augmented reality system using it} Apparatus and method for camera auto-calibration in motion blurred sequence, Augmented reality system using it}

도 1 은 종래의 카메라 보정에 사용되는 직육면체 보정물체의 형상을 보여주는 설명도,1 is an explanatory diagram showing the shape of a rectangular parallelepiped correcting object used for conventional camera calibration;

도 2 는 종래의 모션 블러(Motion Blur) 현상으로 인하여 시스템 성능의 저하를 초래하는 특징점(Natural Feature Point)들이 검출되는 영상을 보여주는 설명도,FIG. 2 is an explanatory diagram showing an image in which natural feature points are detected that cause a decrease in system performance due to a conventional motion blur phenomenon; FIG.

도 3 은 본 발명에 따른 모션 블러(Motion Blur)가 심한 영상의 카메라 자동보정 장치 및 그를 이용한 증강현실 시스템에 대한 일실시예 구성도,3 is a diagram illustrating an embodiment of a camera automatic correction apparatus for an image having severe motion blur and an augmented reality system using the same according to the present invention;

도 4 는 본 발명에 따라 가우시안 스무딩(Gaussian Smoothing)으로 인하여 모션 블러(Motion Blur) 현상이 제거된 영상을 보여주는 일실시예 설명도,4 is a view illustrating an image in which a motion blur phenomenon is removed due to Gaussian smoothing according to the present invention;

도 5 는 본 발명에 따른 모션 블러(Motion Blur)가 심한 영상의 카메라 자동보정 방법에 대한 일실시예 흐름도이다.FIG. 5 is a flowchart illustrating an embodiment of a method for automatically correcting a camera of an image having severe motion blur according to the present invention.

* 도면의 주요 부분에 대한 부호 설명* Explanation of symbols on the main parts of the drawing

10 : 카메라 자동보정 장치 11 : 영상 입력부10: camera automatic correction device 11: video input unit

12 : 가우시안 스무딩부 13 : 카메라 정보 획득부 12: Gaussian smoothing unit 13: Camera information acquisition unit

14 : 복원 필터링부 20 : 증강현실 시스템14: reconstruction filtering unit 20: augmented reality system

본 발명은 모션 블러(Motion Blur)가 심한 영상의 카메라 자동보정 장치 및 그 방법과, 그를 이용한 증강현실 시스템에 관한 것으로, 더욱 상세하게는 영화 제작이나 컴퓨터 그래픽스(CG: Computer Graphics) 광고 등의 영상물 제작시에 사용되는 증강현실에 이용하기 위해 모션 블러(Motion Blur)가 심한 영상에서 카메라의 정확한 외부변수 및 내부변수의 값을 획득하는, 모션 블러(Motion Blur)가 심한 영상의 카메라 자동보정 장치 및 그 방법과, 그를 이용한 증강현실 시스템에 관한 것이다.The present invention relates to an apparatus for automatically correcting a camera having a severe motion blur and a method thereof, and an augmented reality system using the same. More particularly, the present invention relates to a movie production or a computer graphics (CG) advertisement. Camera auto-correction device of high motion blur image which acquires the exact value of external and internal variables of the camera from the image with high motion blur for use in augmented reality used in production, and The method and an augmented reality system using the same.

본 발명에서 '증강현실'이란, 실사영상에 그래픽 객체를 삽입하는 기술을 의미하고, '외부변수'는 카메라의 움직임정보를 나타내며, '내부변수'는 카메라의 초점거리(Focal Length), 빗살무늬(Skew), 영상비(Aspect Ratio), 주점(Principal Point)을 포함하는 카메라의 상태정보를 나타낸다.In the present invention, 'augmented reality' refers to a technology of inserting a graphic object into the live-action image, 'external variable' represents the motion information of the camera, 'internal variable' is the focal length of the camera, comb (Skew), an aspect ratio, and a state point of a camera including a principal point.

일반적으로, 카메라를 통해 획득한 동영상으로부터 피사체의 기하학적인 정보와 촬영시 카메라의 움직임정보(외부변수) 및 상태정보(내부변수)의 값을 획득하 고자 할 경우에는, 카메라로부터 획득한 영상정보 및 피사체의 실질적인 기하학정보 사이의 변수를 추정하는 카메라 보정과정이 필수적으로 요구된다. 영상 촬영시 카메라의 외부변수(카메라의 움직임정보) 및 내부변수(카메라의 상태정보)의 값을 획득하고자 할 경우, 가장 쉽고 정확하게 사용될 수 있는 방법은 움직임 제어 카메라(Motion Control Camera)를 이용하여 하드웨어적으로 카메라의 정보를 얻는 방법인데, 이 방법은 기 촬영된 영상에 대해서는 적용이 불가능하고, 움직임 제어 카메라(MCC)의 장비가 매우 고가라는 문제점이 있다. 따라서, 영상처리 기법에 기반해서 소프트웨어적으로 카메라 자동보정을 수행하는 방법들이 연구되어 왔는데, 이들은 크게 '인공보정 물체를 이용하는 방법'과 '특징점(Natural Feature)을 이용하는 자율보정 방법'으로 구분되어 진다.In general, in order to obtain geometric information of a subject and values of camera motion information (external variable) and state information (internal variable) from a video obtained through a camera, image information obtained from a camera and A camera calibration process for estimating the parameters between the actual geometric information of the subject is required. If you want to acquire values of camera's external variables (camera's motion information) and internal variables (camera's status information) during video shooting, the easiest and most accurate method can be used by using a motion control camera. In general, a method of obtaining information of a camera is not applicable to a pre-recorded image, and there is a problem that equipment of a motion control camera (MCC) is very expensive. Therefore, methods for performing camera automatic correction based on image processing techniques have been studied. These are largely divided into 'method using artificial correction object' and 'self-correction method using natural feature'. .

여기서, '인공보정 물체를 이용하는 방법'은, 도 1과 같은 3차원 직육면체 모양의 보정기구를 촬영하여 그 직육면체의 기하학적인 관계를 풀어냄으로써, 자동보정을 수행하는 방법이다. 이 방법은 현재까지 가장 널리 사용되어 왔으며, 비교적 정확한 결과를 배출하는 장점이 있지만, 보정 물체가 전형적인 직육면체의 특성을 갖고 있어야 하며, 자동보정을 수행하려는 영상 시퀀스(sequence)에 반드시 보정 물체의 모습이 잡혀야 한다는 한계가 있어, 실사 합성을 위한 카메라 자동보정 방법으로는 적합하지 않다.Here, the method using the artificial correction object is a method of performing automatic correction by photographing a three-dimensional cuboid-shaped correction mechanism as shown in FIG. 1 and solving the geometric relationship of the rectangular parallelepiped. This method has been the most widely used to date, and has the advantage of producing relatively accurate results, but the correction object must have the characteristics of a typical cuboid, and the image of the correction object must appear in the image sequence to perform automatic correction. There is a limitation that it should be caught, which is not suitable as an automatic camera calibration method for photo-realistic compositing.

한편, '자율보정 방법'은, 여러 각도에서 촬영된 영상으로부터 특징점(Natural Feature Point)을 추출하고 각각의 대응점의 정보만을 이용하여 보정을 수행하는 방법으로, 일단 각각의 프레임에서 대응점들의 위치가 확인되면 모든 프 레임을 두 장씩 짝을 지어 기초행렬(Fundamental Matrix) 또는 필수행렬(Essential Matrix)을 이용하거나, 세 장씩 짝을 지어 삼중텐서(Trifocal Tensor)를 이용하여 사영복원(Projective Reconstruction)을 수행한 후, "Richard Hartley"가 제안한 방법인 "IAC(Image of Absolute Conic)"에 대한 가정을 두고, 이를 바탕으로 카메라 내부변수 행렬을 구하고 카메라 사영행렬(Projection Matrix)을 사영공간(Projective Space)에서 거리공간(Metric Space)으로 변형시켜 주는 변환 행렬을 구하는 방법이다. 이 방법은, 상기 '인공보정 물체를 이용하는 방법'에서와 같이 인공보정 물체를 사용하지 않기 때문에 실사 합성을 위해서 유용하게 이용될 수 있지만, 각각의 프레임에서 대응점들간의 연결관계를 찾는 과정에서 노이즈가 첨가되어 성능의 열화를 초래할 위험이 크며, 실제로 노이즈에 강한(robust) 시스템을 만들기 위해 많은 부분에 LM(Levenberg Marquardt)알고리즘이 삽입되어야 한다. 한편, 특징점 추출 단계에서는 현재까지 KLT 특징 트래커(Kanade-Lucas-Tomasi Feature Tracker)가 대응점들의 관계를 일관성 있게 추출하는데 가장 우수한 성능을 보이는 것으로 알려졌지만, 이 방법 역시 카메라의 빠른 움직임으로 인해 모션 블러(Motion Blur)가 발생하는 경우, 도 2와 같이 성능 열화를 초래할 수 있는 잘못된 특징점들을 상당수 추출하여, 이 방법 또한 실사 합성을 위한 카메라 자동보정 방법으로는 적합하지 않다.On the other hand, the 'autonomous correction method' is a method of extracting a natural feature point from an image photographed from various angles and performing correction using only information of each corresponding point. When all the frames are paired by two, use the fundamental matrix or the essential matrix, or three pairs to perform the Projective Reconstruction using the Trifucal Tensor. Later, based on the assumption of "IAC (Image of Absolute Conic)" proposed by "Richard Hartley", the camera internal variable matrix is obtained and the camera projection matrix is distanced from the projective space. This is a method of obtaining a transformation matrix transformed into metric space. This method can be useful for real-world synthesis because it doesn't use artificial correction objects as in the method of using artificial correction objects.However, in the process of finding a connection relationship between corresponding points in each frame, noise There is a high risk of added performance resulting in deterioration of performance, and in many cases the LM (Levenberg Marquardt) algorithm must be inserted in order to create a robust system. Meanwhile, in the feature point extraction step, the KLT feature tracker (Kanade-Lucas-Tomasi Feature Tracker) has been known to be the best performing consistently extracting the relationship of the correspondence points, but this method also has a motion blur ( When a motion blur occurs, a large number of erroneous feature points that may cause performance deterioration are extracted as shown in FIG. 2, and this method is also not suitable as a camera automatic correction method for real-world synthesis.

본 발명은 상기 문제점을 해결하기 위하여 제안된 것으로, 영화 제작이나 컴 퓨터 그래픽스(CG: Computer Graphics) 광고 등의 영상물 제작시에 사용되는 증강현실에 이용하기 위해 모션 블러(Motion Blur)가 심한 영상에서 카메라의 정확한 외부변수(카메라의 움직임정보) 및 내부변수(카메라의 상태정보)의 값을 획득하기 위한, 모션 블러(Motion Blur)가 심한 영상의 카메라 자동보정 장치 및 그 방법과, 그를 이용한 증강현실 시스템을 제공하는데 그 목적이 있다.The present invention has been proposed to solve the above problems, and in the case of an image having a heavy motion blur for use in augmented reality used in producing a movie or a computer graphics (CG) advertisement Camera auto-correction apparatus and its method for aggravating motion blur, and augmented reality using the same for acquiring the values of the external variables (camera motion information) and internal variables (camera status information) of the camera The purpose is to provide a system.

본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Other objects and advantages of the present invention can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. Also, it will be readily appreciated that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the claims.

상기 목적을 달성하기 위한 본 발명의 장치는, 카메라 자동보정 장치에 있어서, 영상 입력수단을 통해 입력된 모션 블러(Motion Blur)가 심한 영상을 가우시안 스무딩시켜 카메라 모션(이동)에 의해 명암도(Intensity)가 번지는 현상을 제거하기 위한 가우시안 스무딩수단; 상기 가우시안 스무딩된 영상에서 카메라 모션의 외부변수 및 내부변수를 획득하기 위한 카메라 정보 획득수단; 및 상기 획득된 외부변수 및 내부변수의 값을 바탕으로, 모션 블러 현상이 발생한 영상을 복원 필터를 이용하여 필터링하기 위한 복원 필터링 수단을 포함하되, 복원된 영상의 모션 블러 정도에 따라 상기 가우시안 스무딩 수단 및 상기 카메라 정보 획득수단에서 가우시안 스무딩 과정 및 내/외부변수 획득 과정을 반복 수행하는 것을 특징으로 한다.In the apparatus of the present invention for achieving the above object, in the camera automatic correction device, the intensity of the motion blur (Motion) by the camera motion (movement) by Gaussian smoothing the image with a heavy motion blur input through the image input means (Intensity) Gaussian smoothing means for removing the phenomenon of smearing; Camera information acquisition means for acquiring external and internal variables of camera motion in the Gaussian smoothed image; And reconstruction filtering means for filtering an image in which a motion blur phenomenon occurs using a reconstruction filter based on the obtained values of the external variable and the internal variable, wherein the Gaussian smoothing means according to the degree of motion blur of the reconstructed image. And a Gaussian smoothing process and an internal / external variable acquiring process in the camera information acquiring means.

그리고, 본 발명은, 상기 카메라 자동 보정 장치에 의해 획득된 내/외부변수를 이용하여 영상을 제작하는 증강 현실 시스템에 있어서, 상기 카메라 자동 보정 장치를 통해 획득된 카메라의 움직임 정보를 나타내는 외부변수와 카메라의 상태정보를 나타내는 내부변수를 바탕으로, 모션 블러가 심한 영상에 그래픽 객체를 삽입하는 것을 특징으로 한다.In addition, the present invention, in the augmented reality system for producing an image using the internal / external variables obtained by the camera automatic correction device, the external variable representing the motion information of the camera obtained through the camera automatic correction device and Based on an internal variable representing the state information of the camera, the graphic object is inserted into an image having severe motion blur.

한편, 본 발명은, 카메라 자동보정 방법에 있어서, 영상 입력수단을 통해 입력된 모션 블러가 심한 영상을 가우시안 스무딩시켜 카메라 모션(이동)에 의해 명암도(Intensity)가 번지는 현상을 제거하는 가우시안 스무딩 단계; 상기 가우시안 스무딩된 영상에서 카메라의 외부변수 및 내부변수를 획득하는 카메라 정보 획득 단계; 상기 획득된 외부변수 및 내부변수의 값을 바탕으로, 모션 블러 현상이 발생된 영상을 복원 필터를 이용하여 필터링하는 복원 필터링 단계; 및 복원된 영상의 모션 블러 정도에 따라, 상기 가우시안 스무딩 단계 및 상기 카메라 정보 획득 단계를 반복 수행하는 단계를 포함하여 이루어진 것을 특징으로 한다.On the other hand, the present invention, in the automatic camera correction method, the Gaussian smoothing step of removing the phenomenon that the intensity (Intensity) is spread by the camera motion (movement) by Gaussian smoothing the severe motion blur input through the image input means ; Camera information obtaining step of obtaining external and internal variables of the camera from the Gaussian smoothed image; A reconstruction filtering step of filtering an image in which a motion blur phenomenon occurs using a reconstruction filter based on the obtained values of the external variable and the internal variable; And repeatedly performing the Gaussian smoothing step and the camera information acquiring step according to the degree of motion blur of the reconstructed image.

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.The above objects, features and advantages will become more apparent from the following detailed description taken in conjunction with the accompanying drawings, whereby those skilled in the art may easily implement the technical idea of the present invention. There will be. In addition, in describing the present invention, when it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 3 은 본 발명에 따른 모션 블러(Motion Blur)가 심한 영상의 카메라 자동보정 장치 및 그를 이용한 증강현실 시스템에 대한 일실시예 구성도이다.FIG. 3 is a diagram illustrating an embodiment of a camera automatic correction apparatus for an image having severe motion blur and an augmented reality system using the same.

도 3에 도시된 바와 같이, 모션 블러(Motion Blur)가 심한 영상의 카메라 자동보정 장치(10)는, 영상을 입력받기 위한 영상 입력부(11)와, 영상 입력부(11)에 입력된 영상을 가우시안 스무딩(Gaussian Smoothing)시켜 카메라 모션(이동)에 의한 명암도(Intensity)가 번지는 현상을 제거하기 위한 가우시안 스무딩부(12)와, 가우시안 스무딩부(12)에 의해 가우시안 스무딩(Gaussian Smoothing)된 영상으로부터 카메라 모션의 외부변수(카메라의 움직임정보) 및 내부변수(카메라 상태정보)를 획득하기 위한 카메라 정보 획득부(13)와, 카메라 정보 획득부(13)에 의해 획득된 외부변수(카메라의 움직임정보) 및 내부변수(카메라의 상태정보)의 값을 바탕으로, 모션 블러(Motion Blur)가 심한 원 영상으로부터 모션 블러(Motion Blur) 현상을 제거하기 위해 복원 필터(Restoration Filter)를 이용하여 필터링하기 위한 복원 필터링부(14)를 포함하되, 복원된 영상의 모션 블러 정도에 따라 가우시안 스무딩부(12) 및 카메라 정보 획득부(13)에서 가우시안 스무딩 과정 및 내/외부변수 획득과정을 반복 수행한다.As shown in FIG. 3, the camera automatic correction apparatus 10 for an image having severe motion blur includes a Gaussian image input unit 11 for receiving an image and an image input to the image input unit 11. From the Gaussian smoothing image by Gaussian smoothing portion 12 and Gaussian smoothing portion 12 by Gaussian smoothing to remove the blurring of intensity due to camera motion (movement) by Gaussian smoothing Camera information acquisition unit 13 for acquiring the external variables (camera motion information) and internal variables (camera state information) of the camera motion, and external variables (motion information of the camera) acquired by camera information acquisition unit 13 ), And a filter using a restoration filter to remove the motion blur from the original image with heavy motion blur based on the values of the internal variable (camera state information). And a reconstruction filtering unit 14 for ringing, the Gaussian smoothing unit 12 and the camera information acquisition unit 13 repeatedly performing the Gaussian smoothing process and the internal / external variable acquiring process according to the degree of motion blur of the reconstructed image. do.

한편, 증강현실 시스템(20)은 카메라 자동보정 장치(10)에 의해 획득된 카메라의 외부변수(카메라의 움직임정보) 및 내부변수(카메라의 상태정보)를 이용하여, 모션 블러(Motion Blur)가 심한 영상에 그래픽 객체를 삽입한다.On the other hand, the augmented reality system 20 is a motion blur by using an external variable (camera motion information) and an internal variable (camera status information) of the camera obtained by the camera automatic correction device 10, Insert graphic objects into severe images.

여기서, 가우시안 스무딩부(12)는 하기의 [수학식 1]과 같은 필터를 사용하여 입력된 영상을 가우시안 스무딩(Gaussian Smoothing)시킨다. 하기의 [수학식 1]은 가우시안 함수를 이용한 일종의 저대역 통과 필터(Low Pass Filter)를 나타낸다. 이때,

Figure 112007075897355-pat00055
는 특정 영상을 가우시안 스무딩시킨 주파수 응답을 나타낸다.Here, the Gaussian smoothing unit 12 performs Gaussian smoothing on the input image using a filter as shown in Equation 1 below. Equation 1 below represents a kind of low pass filter using a Gaussian function. At this time,
Figure 112007075897355-pat00055
Denotes a frequency response obtained by Gaussian smoothing a specific image.

Figure 112007075897355-pat00056
Figure 112007075897355-pat00056

상기 [수학식 1]에서,

Figure 112006041142484-pat00002
는 2차원 영상에 대응되는 주파수 영역의 2차원 공간에서의 좌표를 나타내고,
Figure 112006041142484-pat00003
는 해당 주파수 위치에서의 명암도(Intensity)를 나타낸다. 그리고,
Figure 112006041142484-pat00004
는 가우시안 함수의 폭을 조절하는 파라미터로서, 스무딩(Smoothing)되는 정도를 조절하는데, 이때
Figure 112006041142484-pat00005
는 입력 영상의 모션 블러(Motion Blur)의 정도에 따라 적절하게 설정한다. 다만, 도 4에서는 5 픽셀(pixel)로 설정하였다.In [Equation 1],
Figure 112006041142484-pat00002
Represents coordinates in the two-dimensional space of the frequency domain corresponding to the two-dimensional image,
Figure 112006041142484-pat00003
Denotes the intensity at the frequency position. And,
Figure 112006041142484-pat00004
Is a parameter to adjust the width of Gaussian function, and it controls the degree of smoothing.
Figure 112006041142484-pat00005
Is appropriately set according to the degree of motion blur of the input image. In FIG. 4, however, it is set to 5 pixels.

상기 [수학식 1]의 가우시안 함수를 이용한 저대역 통과 필터(Low Pass Filter)에 영상 입력부(11)에 입력된 영상을 통과시킴으로써, 빗살무늬로 나타나던 모션 블러 현상(Motion Blur Artifact)이 제거됨을 확인할 수 있다(하기의 도 4 참조).By passing the image input to the image input unit 11 through a low pass filter using the Gaussian function of Equation 1, it is confirmed that the motion blur phenomenon, which was shown as a comb pattern, is removed. (See FIG. 4 below).

한편, 카메라 정보 획득부(13)는 기본적으로 "Richard Hartley"가 제안한 "Metric Reconstruction" 방법을 이용하여 가우시안 스무딩(Gaussian Smoothing)된 영상에서 카메라의 외부변수(카메라의 움직임정보)와 내부변수(카메라의 상태정보) 의 값을 획득한다. 하지만, "Richard Hartley"가 제안한 "Metric Reconstruction" 방법 대신, "Marc Polleyfeys"가 제안한 방법 등의 다른 보정 방법을 사용하여 카메라의 외부변수(카메라의 움직임정보)와 내부변수(카메라의 상태정보)의 값을 획득할 수 있다(하기의 도 5 참조).On the other hand, the camera information acquisition unit 13 basically uses the "Metric Reconstruction" method proposed by "Richard Hartley" in the Gaussian Smoothing image of the camera external variables (camera motion information) and internal variables (camera Get the value of). However, instead of the "Metric Reconstruction" method suggested by Richard Hartley, the camera's external variables (camera motion information) and internal variables (camera status information) can be changed using other correction methods, such as the method suggested by "Marc Polleyfeys". A value can be obtained (see FIG. 5 below).

이하, 카메라 정보 획득부(13)의 동작 과정에 대해 더욱 상세하게 살펴보기로 한다.Hereinafter, an operation process of the camera information acquisition unit 13 will be described in more detail.

하기 [수학식 2]는 본 발명에서 가정하고 있는 카메라 사영행렬(Projection Matrix)을 나타낸다. Equation 2 shows a camera projection matrix assumed in the present invention.

Figure 112006041142484-pat00006
Figure 112006041142484-pat00006

상기 [수학식 2]에서,

Figure 112006041142484-pat00007
는 카메라 내부변수를 나타내는 3 * 3 행렬이고,
Figure 112006041142484-pat00008
는 카메라의 회전을 나타내는 3 * 3 행렬이고,
Figure 112006041142484-pat00009
는 단위행렬(Identity Matrix)이며,
Figure 112006041142484-pat00010
는 카메라의 초점 위치를 나타내는 벡터이다. In [Equation 2],
Figure 112006041142484-pat00007
Is a 3 * 3 matrix representing camera internal variables,
Figure 112006041142484-pat00008
Is a 3 * 3 matrix representing the rotation of the camera,
Figure 112006041142484-pat00009
Is the identity matrix,
Figure 112006041142484-pat00010
Is a vector representing the focus position of the camera.

카메라 정보 획득부(13)는 KLT 특징 트래커(Kanade-Lucas-Tomasi Feature Tracker)를 사용하여 각각의 프레임에서 특징점들의 대응관계를 추출한 후, 추출된 특징점들의 대응관계에 따라 프레임 간격으로 두 장씩 추출해서 8-포인트(point) 알고리즘을 통해 기초행렬(Fundamental Matrix)을 계산한다. 그리고, 이 기초행 렬(Fundamental Matrix)로부터 하기의 [수학식 3]과 같이 사영공간(Projective Space)에서 사영행렬(Projection Matrix)을 계산한다. The camera information acquisition unit 13 extracts the correspondence of the feature points from each frame using a KLT feature tracker (Kanade-Lucas-Tomasi Feature Tracker), and extracts two sheets at frame intervals according to the correspondence of the extracted feature points. The 8-point algorithm is used to calculate the fundamental matrix. Then, the projection matrix is calculated in the projective space as shown in Equation 3 below from the fundamental matrix.

Figure 112006041142484-pat00011
Figure 112006041142484-pat00011

상기 [수학식 3]에서, 기초행렬(Fundamental Matrix)을 나타내는

Figure 112006041142484-pat00012
는 두 영상 위의 특징점들 간의 대응관계로부터 사영공간(Projective Space)상의 기하학적인 관계를 설정해주는 3 * 3 행렬로서, 공간상의 한 점이 영상 1, 영상 2 위에서 좌표
Figure 112006041142484-pat00013
를 갖는 경우에
Figure 112006041142484-pat00014
Figure 112006041142484-pat00015
Figure 112006041142484-pat00016
Figure 112006041142484-pat00017
으로 성립된다. 또한,
Figure 112006041142484-pat00018
는 한 영상 위의 특징점 좌표를 다른 영상 위의 단일 직선(Epipolar Line)으로 매핑(mapping)시키는 것을 나타낼 수도 있다. 또한,
Figure 112006041142484-pat00019
는 한 쪽의 카메라 초점을 다른 쪽의 카메라 영상 위로 사영시켰을 경우의 좌표(epipole)를 나타내는 벡터이고,
Figure 112006041142484-pat00020
Figure 112006041142484-pat00021
Figure 112006041142484-pat00022
를 외적시키는 연산이며,
Figure 112006041142484-pat00023
는 도 5의 카메라 정보 획득 단계(103)에서 양정부호(Positive Definite) 문제를 해결하기 위해서 행렬의 계수(rank)를 늘려주기 위한 3 * 1 임의의 값을 갖는 벡터이고,
Figure 112006041142484-pat00024
은 임의의 상수(스칼라)이다.In Equation 3, a fundamental matrix is represented.
Figure 112006041142484-pat00012
Is a 3 * 3 matrix that sets the geometric relationship in the projective space from the correspondence between the feature points on the two images.
Figure 112006041142484-pat00013
If you have
Figure 112006041142484-pat00014
Figure 112006041142484-pat00015
Figure 112006041142484-pat00016
Figure 112006041142484-pat00017
Is established. Also,
Figure 112006041142484-pat00018
May represent mapping of feature point coordinates on one image to a single straight line (Epipolar Line) on another image. Also,
Figure 112006041142484-pat00019
Is a vector representing the coordinates (pipipole) when one camera focuses over the other camera image,
Figure 112006041142484-pat00020
Is
Figure 112006041142484-pat00021
Wow
Figure 112006041142484-pat00022
Is an operation that crosses
Figure 112006041142484-pat00023
Is a vector having a 3 * 1 random value to increase the rank of the matrix to solve the positive definite problem in the camera information acquisition step 103 of FIG.
Figure 112006041142484-pat00024
Is any constant (scalar).

이러한 방식으로 두 프레임씩 짝을 지어 사영복원(Projective Reconstruction)을 수행한 결과로부터 각각 특징점의 사영공간(Projective Space) 상에서의 3D 좌표인

Figure 112006041142484-pat00025
를 계산하고, 이렇게 구한
Figure 112006041142484-pat00026
들의 집합(set)이 일관되게 위치하도록 사영공간(Projective Space)의 축을 맞추어준다. 이때, 사영복원(Projective Reconstruction)된 결과에서는 도형의 직선성만 보존되고, 평행성, 길이비율 및 크기는 보존되지 않는다.In this way, two-frame pairing is used to project 3D coordinates on the projective space of the feature points.
Figure 112006041142484-pat00025
And calculate this
Figure 112006041142484-pat00026
Align the axis of the projective space so that the set of fields is consistent. In this case, only the linearity of the figure is preserved in the result of projective reconstruction, and the parallelism, length ratio, and size are not preserved.

하기의 [수학식 4]를 SVD(Singular Value Decomposition)를 이용하여 절대 2차 곡면(Absolute Quadric) Q를 구하고, 이로부터 사영공간(Projective Space)에서의 사영행렬(Projection Matrix)을 거리공간(Metric Space)에서의 사영행렬(Projection Matrix)로 변환해 주는 사영변환(Projective Transform)

Figure 112006041142484-pat00027
를 하기의 [수학식 5]에 따라 구한다.Equation 4 below is used to obtain Absolute Quadric Q using SVD (Singular Value Decomposition), and from this, Projection Matrix in Projective Space is calculated from Distance Space. Projective Transform Converts to Projection Matrix in Space
Figure 112006041142484-pat00027
Obtained according to Equation 5 below.

Figure 112006041142484-pat00028
Figure 112006041142484-pat00028

Figure 112006041142484-pat00029
Figure 112006041142484-pat00029

상기 [수학식 4]에서,

Figure 112007075897355-pat00030
는 i번째 카메라의 내부변수를 나타내는 행렬이며,
Figure 112007075897355-pat00031
는 i번째 카메라의 사영행렬(Projection Matrix)을 나타낸다. 사영변환(Projective Transform)
Figure 112007075897355-pat00032
Figure 112007075897355-pat00033
에 곱하면 직선성뿐만 아니라 평행성, 길이비율까지 보존되는 거리복원(Metric Reconstruction)이 수행된다. 이때, 크기는 보존되지 않으므로 대상물체의 모양은 알 수 있지만 실제 길이의 척도는 알 수 없다.In [Equation 4],
Figure 112007075897355-pat00030
Is a matrix representing the internal variables of the i-th camera,
Figure 112007075897355-pat00031
Denotes the projection matrix of the i-th camera. Projective Transform
Figure 112007075897355-pat00032
To
Figure 112007075897355-pat00033
When multiplying by, the Metric Reconstruction is performed, which preserves not only linearity but also parallelism and length ratio. At this time, since the size is not preserved, the shape of the object may be known, but the actual length may not be measured.

카메라 정보 획득부(13)는 이와 같은 과정([수학식 2] 내지 [수학식 5])을 통해 카메라의 외부변수(카메라의 움직임정보)와 내부변수(카메라의 상태정보)의 값을 획득한다.The camera information acquisition unit 13 obtains values of an external variable (camera motion information) and an internal variable (camera state information) of the camera through the above processes ([Equation 2] to [Equation 5]). .

한편, 복원 필터링부(14)는 카메라의 빠른 움직임으로 인하여 모션 블러(Motion Blur) 현상이 발생된 영상을 하기의 [수학식 6]과 같이 모델링한다.Meanwhile, the reconstruction filtering unit 14 models an image in which a motion blur phenomenon occurs due to a rapid movement of the camera as shown in Equation 6 below.

Figure 112006041142484-pat00034
Figure 112006041142484-pat00034

상기 [수학식 6]에서

Figure 112007075897355-pat00057
는 모션 블러링을 거친 영상을 나타내고,
Figure 112007075897355-pat00058
는 모션 블러링을 거친 영상의 주파수 성분을 나타낸다. 그리고
Figure 112007075897355-pat00059
는 모션 블러(Motion Blur) 현상으로 인한 필터효과(즉, 모션 블러링에 의한 주파수 응답)를 나타내고,
Figure 112007075897355-pat00036
값은 현재부터 과거
Figure 112007075897355-pat00037
시간까지 카메라 평면상에서 고정된 사물의 위치점 (x, y)가 이동한 값이며, 이는
Figure 112007075897355-pat00038
시간동안 카메라의 움직임에 의해 결정되므로 (
Figure 112007075897355-pat00039
)에 대한 정보는 상기 카메라 정보 획득부(13)에 의해 획득한 카메라의 움직임에 대한 근사값(카메라의 움직임정보(외부변수))을 이용하여 획득한다. 이렇게 모션 블러링(Motion Blurring), 가우시안 스무딩(Gaussian Smoothing) 과정을 거친 영상의 주파수 응답을 하기의 [수학식 7]과 같이 모델링한다.In Equation 6 above
Figure 112007075897355-pat00057
Represents the motion blurred image,
Figure 112007075897355-pat00058
Denotes the frequency component of the image which has undergone the motion blur. And
Figure 112007075897355-pat00059
Denotes the filter effect (ie, the frequency response due to motion blur) due to the motion blur phenomenon,
Figure 112007075897355-pat00036
Values are from now to past
Figure 112007075897355-pat00037
This is the value by which the location point (x, y) of a fixed object moved on the camera plane by time, which is
Figure 112007075897355-pat00038
Is determined by the camera's movement over time
Figure 112007075897355-pat00039
) Is obtained by using an approximation value (motion information of the camera (external variable) of the camera) obtained by the camera information acquisition unit 13. The frequency response of the image that has undergone Motion Blurring and Gaussian Smoothing is modeled as shown in Equation 7 below.

Figure 112006041142484-pat00040
Figure 112006041142484-pat00040

상기 [수학식 7]에서,

Figure 112007075897355-pat00060
는 모션 블러링(Motion Blurring)과 가우시안 스무딩(Gaussian Smoothing)을 모두 거쳤을 경우의 주파수 응답을 나타내고,
Figure 112007075897355-pat00042
는 모션 블러링(Motion Blurring)과 가우시안 스무딩(Gaussian Smoothing)을 하나로 묶은 필터로 보았을 경우의 주파수 응답을 나타낸다.In [Equation 7],
Figure 112007075897355-pat00060
Shows the frequency response when both Motion Blurring and Gaussian Smoothing are performed.
Figure 112007075897355-pat00042
Shows the frequency response when viewed with a filter that combines Motion Blurring and Gaussian Smoothing.

상기 [수학식 7]로부터 하기의 [수학식 8]과 같이 간략화된 최소 평균 제곱 오차(Minimum Mean Square Error)의 응답을 구한다. 여기서, 최소 평균 제곱 오차(Minimum Mean Square Error)는 위너필터(Wiener Filter)를 나타내지만, 이때 위너필터(Wiener Filter)가 아닌 다른 복원 필터(Restoration Filter)를 사용할 수도 있다.From Equation 7, the response of the simplified minimum mean square error is obtained as shown in Equation 8 below. Here, the minimum mean square error represents a Wiener filter, but at this time, a restoration filter other than the Wiener filter may be used.

Figure 112006041142484-pat00043
Figure 112006041142484-pat00043

복원 필터링부(14)에 의해 복원 필터링된 영상에 여전히 남아있는 모션 블러(Motion Blur) 현상을 제거하기 위해 가우시안 스무딩부(12)는 복원 필터링된 영상을 다시 가우시안 스무딩(Gaussian Smoothing)시킨다. 이때,

Figure 112006041142484-pat00044
는 더 작은 값으로 설정한다. The Gaussian smoothing unit 12 performs Gaussian smoothing on the reconstructed filtered image in order to remove a motion blur phenomenon still remaining in the reconstructed filtered image by the reconstruction filtering unit 14. At this time,
Figure 112006041142484-pat00044
Sets to a smaller value.

도 5 는 본 발명에 따른 모션 블러(Motion Blur)가 심한 영상의 카메라 자동보정 방법에 대한 일실시예 흐름도이다.FIG. 5 is a flowchart illustrating an embodiment of a method for automatically correcting a camera of an image having severe motion blur according to the present invention.

먼저, 카메라 자동보정 장치(10)의 영상 입력부(11)를 통해 카메라로부터 모션 블러(Motion Blur)가 심한 영상을 입력받아(101), 가우시안 스무딩부(12)에서 영상 입력부(11)에 입력된 영상을 가우시안 함수를 이용한 저대역 통과 필터(Low Pass Filter)에 통과시킴으로써, 가우시안 스무딩(Gaussian Smoothing)을 수행한다(102).First, an image of severe motion blur is input from the camera through the image input unit 11 of the camera automatic correction apparatus 10 (101), and the Gaussian smoothing unit 12 is input to the image input unit 11. Gaussian smoothing is performed by passing an image through a low pass filter using a Gaussian function (102).

이후, 카메라 정보 획득부(13)에서 가우시안 스무딩부(12)에 의해 가우시안 스무딩(Gaussian Smoothing)된 영상을 "Richard Hartley"가 제안한 "Metric Reconstruction" 방법을 이용하여 카메라의 외부변수(카메라의 움직임정보) 및 내부변수(카메라의 상태정보)의 초기값을 획득한다(103).Subsequently, an external variable (camera motion information of the camera) is obtained by using the "Metric Reconstruction" method proposed by "Richard Hartley" of the Gaussian smoothing image by the Gaussian smoothing unit 12 in the camera information acquisition unit 13. ) And initial values of internal variables (state information of the camera) are obtained (103).

그리고, 복원 필터링부(14)는 카메라 정보 획득부(13)에 의해 획득된 카메라 의 외부변수(카메라의 움직임정보) 및 내부변수(카메라의 상태정보)의 값을 바탕으로 모션 블러(Motion Blur)가 심한 영상을 복원 필터(Restoration Filter)를 이용하여 필터링한다(104). The reconstruction filtering unit 14 may perform a motion blur based on values of an external variable (camera motion information) and an internal variable (camera state information) of the camera acquired by the camera information acquisition unit 13. The severe image is filtered using a restoration filter (104).

다음으로, 가우시안 스무딩부(12)가 복원 필터링부(14)에 의해 필터링된 영상에 가우시안 스무딩(Gaussian Smoothing)을 재수행하고(105), 카메라 정보 획득부(13)가 가우시안 스무딩(Gaussian Smoothing)된 영상으로부터 카메라의 외부변수(카메라의 움직임정보) 및 내부변수(카메라의 상태정보)의 값을 획득한 후(106), 사용자는 가우시안 스무딩(Gaussian Smoothing)된 영상에서 모션 블러(Motion Blur) 현상이 충분히 제거되었는지 판단한다(107).Next, the Gaussian smoothing unit 12 performs Gaussian smoothing on the image filtered by the reconstruction filtering unit 14 (105), and the camera information acquisition unit 13 performs Gaussian smoothing. After obtaining values of the external variables (camera motion information) and the internal variables (camera status information) of the camera from the image (106), the user has a motion blur phenomenon in the Gaussian smoothing image. It is determined whether it has been sufficiently removed (107).

상기 판단 결과(107), 모션 블러(Motion Blur) 현상이 충분히 제거되지 않은 경우에는 상기“104”단계로 진행하여, 가우시안 스무딩(Gaussian Smoothing) 단계(105) 및 카메라 정보 획득 단계(106)를 반복 수행한다.As a result of the determination 107, if the motion blur phenomenon is not sufficiently removed, the process proceeds to step 104, where the Gaussian Smoothing step 105 and the camera information obtaining step 106 are repeated. Perform.

이와 같이 함으로써, 모션 블러(Motion Blur) 현상이 충분히 제거되었을 경우에는 증강현실 시스템(20)으로 카메라 정보 획득 단계(106)에서 획득된 카메라의 외부변수(카메라의 움직임정보) 및 내부변수(카메라의 상태정보)를 전달한다(108).In this way, when the motion blur phenomenon is sufficiently removed, the external variables (camera motion information) and the internal variables (camera motion of the camera) acquired in the camera information acquisition step 106 by the augmented reality system 20 State information) (108).

그러면, 증강현실 시스템(20)에서는 영화 제작이나 컴퓨터 그래픽스(GC) 광고 등의 영상물 제작시, 카메라 정보 획득 단계(106)에서 획득된 카메라의 외부변수(카메라의 움직임정보) 및 내부변수(카메라의 상태정보)를 바탕으로 모션 블러(Motion Blur)가 심한 영상에 그래픽 객체를 삽입한다.Then, in the augmented reality system 20, the external variables (camera motion information) and the internal variables (camera movement of the camera) obtained in the camera information acquisition step 106 when producing a movie, a computer graphics (GC) advertisement, etc. Based on the state information), the graphic object is inserted into the image with severe motion blur.

이와 같이 본 발명에서는 비록 모션 블러(Motion Blur)가 심한 영상에서 정 확한 카메라의 외부변수(카메라의 움직임정보) 및 내부변수(카메라의 상태정보)를 획득하여 증강현실에 이용하는 일예를 들었지만, 이에 한정하지 않고 다른 영상 분야에도 응용될 수 있음을 밝혀둔다.As described above, although the present invention has taken an example of acquiring an external variable (camera motion information) and an internal variable (camera state information) of a correct camera in an image with severe motion blur, the present invention is used for augmented reality. It can be applied to other imaging fields.

상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다. 이러한 과정은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있으므로 더 이상 상세히 설명하지 않기로 한다.As described above, the method of the present invention may be implemented as a program and stored in a recording medium (CD-ROM, RAM, ROM, floppy disk, hard disk, magneto-optical disk, etc.) in a computer-readable form. Since this process can be easily implemented by those skilled in the art will not be described in more detail.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the technical spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited by the drawings.

상기와 같은 본 발명은, 모션 블러(Motion Blur)가 심한 영상에서 카메라의 정확한 외부변수 및 내부변수의 값을 획득함으로써, 액션 장면 등의 실사영상과 그래픽 객체의 합성 작업을 하는데 있어서 영상 배경의 변화 및 어색함이 없는 증강현실을 적용시킬 수 있는 효과가 있다. The present invention as described above, by acquiring the values of the correct external and internal variables of the camera in the image with severe motion blur, the change of the image background in the synthesis of photorealistic images and graphic objects such as action scenes And there is an effect that can be applied to augmented reality without awkwardness.

Claims (9)

카메라 자동보정 장치에 있어서, In the camera automatic correction device, 영상 입력수단을 통해 입력된 모션 블러(Motion Blur)가 심한 영상을 가우시안 스무딩시켜 카메라 모션(이동)에 의해 명암도(Intensity)가 번지는 현상을 제거하기 위한 가우시안 스무딩수단;Gaussian smoothing means for removing a phenomenon in which intensity is spread by camera motion (movement) by Gaussian smoothing an image having a heavy motion blur input through the image input means; 상기 가우시안 스무딩된 영상에서 카메라 모션의 외부변수 및 내부변수를 획득하기 위한 카메라 정보 획득수단; 및Camera information acquisition means for acquiring external and internal variables of camera motion in the Gaussian smoothed image; And 상기 획득된 외부변수 및 내부변수의 값을 바탕으로, 모션 블러 현상이 발생한 영상을 복원 필터를 이용하여 필터링하기 위한 복원 필터링 수단Restoration filtering means for filtering an image in which a motion blur phenomenon occurs using a restoration filter based on the obtained values of the external variable and the internal variable 을 포함하되, 복원된 영상의 모션 블러 정도에 따라 상기 가우시안 스무딩 수단 및 상기 카메라 정보 획득수단에서 가우시안 스무딩 과정 및 내/외부변수 획득 과정을 반복 수행하는 것을 특징으로 하는 모션 블러가 심한 영상의 카메라 자동보정 장치.Including, but according to the degree of motion blur of the reconstructed image, the Gaussian smoothing means and the camera information obtaining means repeats the Gaussian smoothing process and the internal / external variable acquisition process, characterized in that the automatic camera of the motion blur severe image Correction device. 제 1 항에 있어서,The method of claim 1, 상기 카메라 정보 획득수단은,The camera information obtaining means, 상기 가우시안 스무딩된 영상에 "Richard Hartley"가 제안한 메트릭 리컨스트럭션(Metric Reconstruction) 방법을 이용하여 상기 외부변수 및 상기 내부변수의 값을 계산하는 것을 특징으로 하는 모션 블러가 심한 영상의 카메라 자동보정 장치.The apparatus of claim 1, wherein the values of the external variable and the internal variable are calculated by using a metric reconstruction method proposed by Richard Hartley on the Gaussian smoothed image. 제 1 항에 있어서, The method of claim 1, 상기 복원 필터는,The reconstruction filter, 상기 획득된 외부변수를 활용하여 하기의 [수학식]의 (
Figure 112007075897355-pat00045
)를 결정하는 것을 특징으로 하는 모션 블러가 심한 영상의 카메라 자동보정 장치.
By using the obtained external variable of [Equation] of (
Figure 112007075897355-pat00045
Camera auto-correction apparatus of the image with severe motion blur characterized in that it is determined.
[수학식][Equation]
Figure 112007075897355-pat00046
Figure 112007075897355-pat00046
(여기서,
Figure 112007075897355-pat00061
는 모션 블러링을 거친 영상을 나타내고,
Figure 112007075897355-pat00062
는 모션 블러링을 거친 영상의 주파수 성분을 나타내며,
Figure 112007075897355-pat00063
는 모션 블러(Motion Blur) 현상으로 인한 필터효과(즉, 모션 블러링에 의한 주파수 응답)를 나타내고,
Figure 112007075897355-pat00048
값은 현재부터 과거
Figure 112007075897355-pat00049
시간까지 카메라 평면상에서 고정된 사물의 위치점 (x, y)가 이동한 값이다.)
(here,
Figure 112007075897355-pat00061
Represents the motion blurred image,
Figure 112007075897355-pat00062
Represents the frequency components of the image after motion blurring,
Figure 112007075897355-pat00063
Denotes the filter effect (ie, the frequency response due to motion blur) due to the motion blur phenomenon,
Figure 112007075897355-pat00048
Values are from now to past
Figure 112007075897355-pat00049
The position (x, y) of the fixed object on the camera plane is moved by time.)
제 1 항 내지 제 3 항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 3, 상기 외부변수는 카메라의 움직임정보를 나타내고, 상기 내부변수는 카메라의 상태정보를 나타내는 것을 특징으로 하는 모션 블러가 심한 영상의 카메라 자동 보정 장치.And the external variable represents motion information of the camera, and the internal variable represents state information of the camera. 제 4 항에 있어서,The method of claim 4, wherein 상기 카메라의 상태정보는,Status information of the camera, 카메라의 초점거리, 빗살무늬, 영상비, 주점정보 중 적어도 하나를 포함하는 것을 특징으로 하는 모션 블러가 심한 영상의 카메라 자동보정 장치.Camera automatic correction device for a severe motion blur image, characterized in that it comprises at least one of the focal length, comb pattern, aspect ratio, pub information of the camera. 제 1 항의 카메라 자동 보정 장치에 의해 획득된 내/외부변수를 이용하여 영상을 제작하는 증강 현실 시스템에 있어서,In the augmented reality system for producing an image using the internal / external variables obtained by the camera automatic correction device of claim 1, 상기 카메라 자동 보정 장치를 통해 획득된 카메라의 움직임 정보를 나타내는 외부변수와 카메라의 상태정보를 나타내는 내부변수를 바탕으로, 모션 블러가 심한 영상에 그래픽 객체를 삽입하는 것을 특징으로 하는 증강 현실 시스템.And a graphic object is inserted into an image having severe motion blur based on an external variable indicating camera motion information acquired by the camera automatic correction device and an internal variable indicating camera state information. 카메라 자동보정 방법에 있어서,In the automatic camera calibration method, 영상 입력수단을 통해 입력된 모션 블러가 심한 영상을 가우시안 스무딩시켜 카메라 모션(이동)에 의해 명암도(Intensity)가 번지는 현상을 제거하는 가우시안 스무딩 단계;A Gaussian smoothing step of removing a phenomenon in which intensity is spread by camera motion (movement) by Gaussian smoothing an image having a heavy motion blur input through the image input means; 상기 가우시안 스무딩된 영상에서 카메라의 외부변수 및 내부변수를 획득하는 카메라 정보 획득 단계;Camera information obtaining step of obtaining external and internal variables of the camera from the Gaussian smoothed image; 상기 획득된 외부변수 및 내부변수의 값을 바탕으로, 모션 블러 현상이 발생된 영상을 복원 필터를 이용하여 필터링하는 복원 필터링 단계; 및A reconstruction filtering step of filtering an image in which a motion blur phenomenon occurs using a reconstruction filter based on the obtained values of the external variable and the internal variable; And 복원된 영상의 모션 블러 정도에 따라, 상기 가우시안 스무딩 단계 및 상기 카메라 정보 획득 단계를 반복 수행하는 단계Repeatedly performing the Gaussian smoothing step and acquiring the camera information according to the motion blur of the reconstructed image 를 포함하는 모션 블러가 심한 영상의 카메라 자동보정 방법.Camera auto-correction method of a severe motion blur including a. 제 7 항에 있어서,The method of claim 7, wherein 상기 외부변수는 카메라의 움직임정보를 나타내고, 상기 내부변수는 카메라의 상태정보를 나타내는 것을 특징으로 하는 모션 블러가 심한 영상의 카메라 자동보정 방법.The external variable represents the motion information of the camera, and the internal variable represents the state information of the camera. 제 8 항에 있어서,The method of claim 8, 상기 카메라의 상태정보는,Status information of the camera, 카메라의 초점거리, 빗살무늬, 영상비, 주점 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 모션 블러가 심한 영상의 카메라 자동보정 방법.Camera auto-correction method of the image with a severe motion blur, characterized in that it comprises at least one of the focal length, comb pattern, aspect ratio, pub information of the camera.
KR1020060052758A 2005-12-09 2006-06-12 Apparatus and method for camera auto-calibration in motion blurred sequence, Augmented reality system using it KR100805802B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020050121115 2005-12-09
KR20050121115 2005-12-09

Publications (2)

Publication Number Publication Date
KR20070061157A KR20070061157A (en) 2007-06-13
KR100805802B1 true KR100805802B1 (en) 2008-02-21

Family

ID=38357093

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060052758A KR100805802B1 (en) 2005-12-09 2006-06-12 Apparatus and method for camera auto-calibration in motion blurred sequence, Augmented reality system using it

Country Status (1)

Country Link
KR (1) KR100805802B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100954776B1 (en) * 2008-01-03 2010-04-28 상명대학교 산학협력단 Method for personal identification using finger-vein
KR101265667B1 (en) * 2011-06-21 2013-05-22 ㈜베이다스 Device for 3d image composition for visualizing image of vehicle around and method therefor
KR101705605B1 (en) 2011-11-14 2017-02-23 삼성전자주식회사 Photographing apparatus and image processing apparatus using a coded light, and methods thereof
KR101844332B1 (en) 2012-03-13 2018-04-03 삼성전자주식회사 A method and an apparatus for debluring non-uniform motion blur usign multiframe comprises of a blur image and a noise image

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05142615A (en) * 1991-11-22 1993-06-11 Canon Inc Image blurring preventing device
JPH07288719A (en) * 1994-04-18 1995-10-31 Kokusai Denshin Denwa Co Ltd <Kdd> Movement adaptive noise elimination filter and inter movement compensated frame encoder using this filter
KR20020085669A (en) * 2001-05-09 2002-11-16 (주)하니존 The Apparatus and Method for Abstracting Peculiarity of Two-Dimensional Image & The Apparatus and Method for Creating Three-Dimensional Image Using Them
KR20050117173A (en) * 2004-06-10 2005-12-14 엘지전자 주식회사 Adaptive image compenstaion method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05142615A (en) * 1991-11-22 1993-06-11 Canon Inc Image blurring preventing device
JPH07288719A (en) * 1994-04-18 1995-10-31 Kokusai Denshin Denwa Co Ltd <Kdd> Movement adaptive noise elimination filter and inter movement compensated frame encoder using this filter
KR20020085669A (en) * 2001-05-09 2002-11-16 (주)하니존 The Apparatus and Method for Abstracting Peculiarity of Two-Dimensional Image & The Apparatus and Method for Creating Three-Dimensional Image Using Them
KR20050117173A (en) * 2004-06-10 2005-12-14 엘지전자 주식회사 Adaptive image compenstaion method

Also Published As

Publication number Publication date
KR20070061157A (en) 2007-06-13

Similar Documents

Publication Publication Date Title
Abdelhamed et al. A high-quality denoising dataset for smartphone cameras
Ha et al. High-quality depth from uncalibrated small motion clip
US8754963B2 (en) Processing images having different focus
KR102563750B1 (en) Method and Device of Image Deblurring
Shimizu et al. Super-resolution from image sequence under influence of hot-air optical turbulence
Paramanand et al. Depth from motion and optical blur with an unscented Kalman filter
WO2007087405A2 (en) Capturing scene images and depth geometry and generating a compensation image
CN107517346B (en) Photographing method and device based on structured light and mobile device
CN111080776B (en) Human body action three-dimensional data acquisition and reproduction processing method and system
KR20130112311A (en) Apparatus and method for reconstructing dense three dimension image
KR20110136016A (en) Apparatus and method for depth unfolding based on multiple depth images
CN110505398B (en) Image processing method and device, electronic equipment and storage medium
JP4631973B2 (en) Image processing apparatus, image processing apparatus control method, and image processing apparatus control program
Kim et al. Dynamic scene deblurring using a locally adaptive linear blur model
KR100805802B1 (en) Apparatus and method for camera auto-calibration in motion blurred sequence, Augmented reality system using it
CN115205346A (en) Method for pixel-by-pixel registration of event camera to frame camera
KR101921608B1 (en) Apparatus and method for generating depth information
Tseng et al. Depth image super-resolution via multi-frame registration and deep learning
KR101825218B1 (en) Apparatus and method for generaing depth information
CN117173232A (en) Depth image acquisition method, device and equipment
KR101803139B1 (en) Method and apparatus for correcting distortion of 3d hologram
Ghita et al. A video-rate range sensor based on depth from defocus
KR20110133677A (en) Method and apparatus for processing 3d image
KR101124878B1 (en) Method of de-blurring image based on estimated blur radius and apparatus for de-blurring image based on estimated blur radius
CN114494445A (en) Video synthesis method and device and electronic equipment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110131

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20111208

Year of fee payment: 20