KR100447778B1 - Apparatus for Embodying Stereo/Multiview Realistic Mixed Reality using Pose Estimation and Method Thereof - Google Patents

Apparatus for Embodying Stereo/Multiview Realistic Mixed Reality using Pose Estimation and Method Thereof Download PDF

Info

Publication number
KR100447778B1
KR100447778B1 KR10-2002-0042094A KR20020042094A KR100447778B1 KR 100447778 B1 KR100447778 B1 KR 100447778B1 KR 20020042094 A KR20020042094 A KR 20020042094A KR 100447778 B1 KR100447778 B1 KR 100447778B1
Authority
KR
South Korea
Prior art keywords
camera
image
pose estimation
pose
feature point
Prior art date
Application number
KR10-2002-0042094A
Other languages
Korean (ko)
Other versions
KR20040008456A (en
Inventor
손광훈
김장헌
Original Assignee
김장헌
손광훈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김장헌, 손광훈 filed Critical 김장헌
Priority to KR10-2002-0042094A priority Critical patent/KR100447778B1/en
Publication of KR20040008456A publication Critical patent/KR20040008456A/en
Application granted granted Critical
Publication of KR100447778B1 publication Critical patent/KR100447778B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 장치 및 그 방법과 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다. 본 발명의 혼합현실 구현 장치는, 상기 다수의 카메라로부터 영상을 수신하여, 각각의 카메라에 대한 내부/외부 파라미터를 연산하고, 기준 카메라 및 특징점의 탐색범위를 결정하기 위한 캘리브레이션 수단; 상기 캘리브레이션 수단에 의하여 정해진 기준 카메라의 영상에 대하여, 상기 탐색범위를 기준으로 특징점을 추적하기 위한 추적 수단; 상기 특징점을 이용하여 상기 가상 영상의 포즈를 추정하기 위한 포즈추정 수단; 및 상기 포즈추정 수단에 의하여 추정된 포즈를 이용하여, 상기 실영상과 상기 가상영상을 실시간으로 정합하기 위한 정합 수단을 포함한다.The present invention relates to a stereo / multi-view realistic mixed reality implementation apparatus using pose estimation and a method thereof and a computer-readable recording medium recording a program for realizing the method. The mixed reality implementation apparatus of the present invention comprises: calibration means for receiving images from the plurality of cameras, calculating internal / external parameters for each camera, and determining a search range of a reference camera and a feature point; Tracking means for tracking a feature point based on the search range with respect to an image of a reference camera determined by the calibration means; Pose estimation means for estimating a pose of the virtual image using the feature point; And matching means for matching the real image with the virtual image in real time using the pose estimated by the pose estimating means.

Description

포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 장치 및 그 방법{Apparatus for Embodying Stereo/Multiview Realistic Mixed Reality using Pose Estimation and Method Thereof}Apparatus for Embodying Stereo / Multiview Realistic Mixed Reality using Pose Estimation and Method Thereof}

본 발명은 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 장치 및 그 방법과 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것으로서, 특히 디지털 영상 분야에서 사용되는 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 장치 및 그 방법과 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a stereo / multi-view realistic mixed reality implementation apparatus using pose estimation and a method thereof, and to a computer readable recording medium recording a program for realizing the method. The present invention relates to a stereo / multi-view realistic mixed reality realization apparatus and a method thereof, and a computer-readable recording medium recording a program for realizing the method.

영상 기술의 발달에 따라, 영상의 보다 현장감 있는 전달 수단으로서 가상 물체를 영상에 기반하여 혼합하는 실감 미디어 정보에 대한 수요가 급격히 증가하고 있다.With the development of imaging technology, the demand for sensory media information for mixing virtual objects based on images as a means of delivering images more realistically is increasing rapidly.

상기 실감 미디어란, 가상의 환경에서 공간과 시간의 제약을 극복하기 위한 다양한 요소 정보를 의미한다.The sensational media refers to various element information for overcoming space and time constraints in a virtual environment.

이러한 실감 미디어의 구현을 위해서는 입체 디지털 비디오, 그래픽 합성 물체, 문자 , 애니메이션 등의 다양한 정보들이 서로의 상관관계로부터 부자연스러움 없이 결합할 수 있어야 하며, 다양한 인터페이스에 의해서 사용자와 융합될 수 있어야 한다.In order to realize such a sensational media, various information such as stereoscopic digital video, graphic composite object, character, animation, etc. should be able to be combined without any unnaturalness from the correlation with each other, and should be able to be fused with the user through various interfaces.

이에 대한 종래의 기술로서, 컴퓨터에 의해 인위적으로 합성된 또 하나의 세계인 가상현실(Virtual Reality)과 현실에 기반하여 인위적으로 합성된 부가정보를 결합한 증강현실(AR:Augmented Reality)기술이 연구가 되어왔다.As a related art, AR (Augmented Reality) technology, which combines another world artificially synthesized by a computer and additional information artificially synthesized based on reality, has been studied. come.

상기와 같은 시스템에서는 융합된 환경의 상호작용을 위해 영상과의 상관관계를 분석하고 이를 추적하여 얻은 위치(location)와 방위(orientation)에 가상물체를 결합하여, HMD(Head mounted display)나 HTD(Head Tracked display)등의 안경식 디스플레이장치를 통해 출력하며, 인간이 양쪽 눈으로 물체를 바라봄으로써 물체들 사이의 거리를 판별하고, 물체를 사실적으로 인식할 수 있는 원리를 사용하여, HMD등의 안경식 디스플레이 장치에 두 대의 카메라를 달아 각각의 영상을 각 눈에 나누어 보여주어 입체를 구현한다.In such a system, a virtual object is combined with a location and orientation obtained by analyzing and tracking correlation with an image for the interaction of a converged environment, and using a head mounted display (HMD) or a HTD ( It outputs through a spectacle display device such as a head tracked display, and by using the principle that a human can see the object with both eyes to determine the distance between the objects and recognize the object realistically, the spectacle type such as HMD Two cameras are attached to the display device, and each image is divided and shown to each eye to realize stereoscopic vision.

그러나, 상기와 같은 종래의 기술은, 입체 시점이 단 하나로 제한되며, 카메라 설정과 관찰자의 인체 구조의 차이(눈 사이의 거리차 등)에 따라 인식되는 거리감에도 차이가 발생하는 문제점이 있으며, 경우에 따라서는 거리감 인식이 불가능하거나 심한 피로감을 느끼게 되는 문제점이 있었다.However, the conventional technology as described above is limited to a single stereoscopic viewpoint, and there is a problem that a difference occurs in the perceived distance according to the difference between the camera setting and the observer's human body structure (distance difference between eyes, etc.). In some cases, there was a problem in that it is impossible to recognize the distance or feel severe fatigue.

상기와 같은 문제점을 해결하기 위하여, 다시점 카메라로 획득한 영상(다시점 영상)을 이용함으로써 시점을 확장하는 동시에 관찰자에 적절한 영상을 제공할 수 있는 다시점 영상 기술이 등장하였다.In order to solve the above problems, multi-view image technology has been introduced that can provide an appropriate image to an observer while expanding the viewpoint by using an image (multi-view image) acquired by a multi-view camera.

그러나, 상기 다시점 영상은 단일 시점 영상에 비해 시점 수에 비례하게 정보량이 증가하기 때문에, 이러한 영상을 분석하고 추적하여 각각의 가상물체를 정합시키기 위한 각 시점 영상의 특징추출이나, 트래킹, 정합위치 추정을 위한 연산량도 비례적으로 증가할 수밖에 없는 심각한 문제점이 있다.However, since the amount of information increases in proportion to the number of viewpoints compared to the single viewpoint image, the feature extraction, tracking, and registration position of each viewpoint image for analyzing and tracking such images to match each virtual object is increased. There is a serious problem that the amount of computation for estimation also increases proportionally.

본 발명은 상기한 바와 같은 종래 기술의 제반 문제점을 해결하기 위해 제안된 것으로, 동일 평면상의 4점에 대한 포즈추정을 수행함으로써, 다시점간의 연산량을 효율적으로 줄일 수 있도록 하는 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 장치를 제공하는데 그 목적이 있다.The present invention has been proposed to solve the problems of the prior art as described above, by performing a pose estimation for four points on the same plane, stereo / using a pose estimation to efficiently reduce the amount of calculation between multiple points It is an object of the present invention to provide a multi-view realistic mixed reality implementation apparatus.

또한, 본 발명은 동일 평면상의 4점에 대한 포즈추정을 수행함으로써, 다시점간의 연산량을 효율적으로 줄일 수 있도록 하는 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 방법을 제공하는데 또 다른 목적이 있다.In addition, another object of the present invention is to provide a stereo / multi-view mixed reality implementation method using a pose estimation to efficiently reduce the amount of computation between multi-points by performing pose estimation for four points on the same plane. .

또한, 본 발명은 동일 평면상의 4점에 대한 포즈추정을 수행함으로써, 다시점간의 연산량을 효율적으로 줄일 수 있도록 하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는데 또 다른 목적이 있다.Another object of the present invention is to provide a computer-readable recording medium having recorded thereon a program for efficiently reducing the amount of computation between multi-points by performing pose estimation for four points on the same plane.

도 1은 본 발명에 따른 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 장치의 일실시예 구조도,1 is a structural diagram of an embodiment of a stereo / multi-view mixed reality implementation apparatus using a pose estimation according to the present invention;

도 2는 상기 도 1의 포즈추정부의 일실시예 상세 구조도,2 is a detailed structural diagram of an embodiment of the posing unit of FIG. 1;

도 3은 상기 도 2의 추정기가 추정하는 평면과 방향성분을 설명하기 위한 일예시도,3 is an exemplary view for explaining a plane and a direction component estimated by the estimator of FIG. 2;

도 4는 본 발명에 따른 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 방법을 설명하기 위한 일실시예 흐름도,4 is a flowchart illustrating a method of implementing a stereo / multi-view realistic mixed reality using a pose estimation according to the present invention;

도 5a 및 도 5b는 본 발명에 따른 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 방법에 따라 구현한 혼합현실을 나타내기 위한 일예시도.5a and 5b is an exemplary view for showing a mixed reality implemented according to the stereo / multi-view realistic mixed reality implementation method using the pose estimation in accordance with the present invention.

*도면의 주요 부분에 대한 부호의 설명* Explanation of symbols for the main parts of the drawings

110 : 카메라 120 : 캘리브레이션부110: camera 120: calibration unit

130 : 추적부 140 : 포즈추정부130: tracking unit 140: posing

150 : 정합부 160 : 가상영상 처리부150: matching unit 160: virtual image processing unit

141 : 선택기 143 : 보정기141: selector 143: compensator

145 : 추정기145: estimator

상기 목적을 달성하기 위한 본 발명은, 다수의 카메라로부터 수신한 실영상과 미리 모델링된 가상영상의 실시간 합성을 위한 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 장치에 있어서, 상기 다수의 카메라로부터 영상을 수신하여, 각각의 카메라에 대한 내부/외부 파라미터를 연산하고, 기준 카메라 및 특징점의 탐색범위를 결정하기 위한 캘리브레이션 수단; 상기 캘리브레이션 수단에 의하여 정해진 기준 카메라의 영상에 대하여, 상기 탐색범위를 기준으로 특징점을 추적하기 위한 추적 수단; 상기 특징점을 이용하여 상기 가상 영상의 포즈를 추정하기 위한 포즈추정 수단; 및 상기 포즈추정 수단에 의하여 추정된 포즈를 이용하여, 상기 실영상과 상기 가상영상을 실시간으로 정합하기 위한 정합 수단을 포함한다.In order to achieve the above object, the present invention provides a stereo / multi-view realistic mixed reality implementation apparatus using pose estimation for real-time synthesis of real images received from a plurality of cameras and pre-modeled virtual images, from the plurality of cameras. Calibration means for receiving an image, calculating internal / external parameters for each camera, and determining a search range of the reference camera and the feature point; Tracking means for tracking a feature point based on the search range with respect to an image of a reference camera determined by the calibration means; Pose estimation means for estimating a pose of the virtual image using the feature point; And matching means for matching the real image with the virtual image in real time using the pose estimated by the pose estimating means.

또한, 본 발명은 다수의 카메라로부터 수신한 실영상과 미리 모델링된 가상영상의 실시간 합성을 위한 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 방법에 있어서, 상기 다수의 카메라로부터 수신한 영상에 대하여 각각의 카메라에 대한 내부/외부 파라미터를 연산하고, 기준 카메라 및 특징점의 탐색범위를 결정하는 제 1단계; 상기 캘리브레이션 수단에 의하여 정해진 기준 카메라의 영상에 대하여, 상기 탐색범위를 기준으로 특징점 추적을 수행하는 제 2단계; 상기 특징점을 이용하여 상기 가상 영상의 포즈추정을 수행하는 제 3단계; 및 상기 포즈를 이용하여, 상기 실영상과 상기 가상영상의 실시간 정합을 수행하는 제 4단계를 포함한다.The present invention also provides a stereo / multi-view mixed reality implementation method using pose estimation for real-time synthesis of real images received from a plurality of cameras and pre-modeled virtual images. A first step of calculating internal / external parameters for each camera and determining a search range of the reference camera and the feature point; A second step of performing feature point tracking on an image of a reference camera determined by the calibration means based on the search range; Performing pose estimation of the virtual image using the feature point; And a fourth step of performing real-time registration of the real image and the virtual image using the pose.

또한, 본 발명은 다수의 카메라로부터 수신한 실영상과 미리 모델링된 가상영상의 실시간 합성을 위한 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 방법을 제공하기 위하여 마이크로프로세서를 구비한 혼합현실 구현 장치에, 상기 다수의 카메라로부터 수신한 영상에 대하여 각각의 카메라에 대한 내부/외부 파라미터를 연산하고, 기준 카메라 및 특징점의 탐색범위를 결정하는 제 1기능; 상기 캘리브레이션 수단에 의하여 정해진 기준 카메라의 영상에 대하여, 상기 탐색범위를 기준으로 특징점 추적을 수행하는 제 2기능; 상기 특징점을 이용하여 상기 가상 영상의 포즈추정을 수행하는 제 3기능; 및 상기 포즈를 이용하여, 상기 실영상과 상기 가상영상의 실시간 정합을 수행하는 제 4기능을 실현시키시기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 포함한다.In addition, the present invention is a mixed reality implementation apparatus having a microprocessor to provide a stereo / multi-view realistic mixed reality implementation method using a pose estimation for real-time synthesis of the real image and the pre-modeled virtual image received from a plurality of cameras A first function of calculating internal / external parameters for each camera with respect to images received from the plurality of cameras, and determining a search range of a reference camera and a feature point; A second function of performing feature point tracking on an image of a reference camera determined by the calibration means based on the search range; A third function of performing pose estimation of the virtual image using the feature point; And a computer-readable recording medium having recorded thereon a program for realizing a fourth function of performing real-time matching between the real image and the virtual image using the pose.

본 발명은 소수의 사용자와의 상호작용이나 혼합된 환경의 공동작업(Collaboration) 형태로 발전하고 있는 증강현실 시스템의 안경식 한계를 넘어서, 기존의 영상을 기반으로 각종 방송이나, 컨텐츠의 가상영상과의 혼합환경 제작을 위한 방식인 혼합현실(MR:Mixed Reality)라는 총괄적 범위를 함축하는 용어를 사용하기로 한다.The present invention overcomes the spectacle limitations of augmented reality systems, which are evolving into a form of collaboration with a small number of users or in a mixed environment. We will use the terminology that implies the overall scope of mixed reality (MR), a method for creating mixed environments.

본 발명의 혼합현실 구현 장치는 기존의 영상매체와의 자연스러운 결합을 통한 합성 시스템으로, 다시점으로 확장되었을 때 부가정보를 부호화할 수 있는 다시점 CODEC과의 호환성 있는 구조를 가질 수 있다.The apparatus for implementing mixed reality according to the present invention is a synthesis system through natural combining with an existing image medium, and may have a structure compatible with a multiview codec capable of encoding additional information when extended to a multiview.

상술한 목적, 특징들 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이다. 우선 각 도면의 구성요소들에 참조 번호를 부가함에 있어서, 동일한 구성요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명한다.The above objects, features and advantages will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. First of all, in adding reference numerals to the components of each drawing, it should be noted that the same components have the same number as much as possible even if displayed on different drawings. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 장치의 일실시예 구조도이다.1 is a structural diagram of an embodiment of a stereo / multi-view mixed reality implementation apparatus using a pose estimation in accordance with the present invention.

도면에 도시된 바와 같이, 본 발명의 혼합현실 구현 장치는, 다수의카메라(110), 캘리브레이션부(120), 추적부(130), 포즈추정부(140), 정합부(150) 및 가상영상 처리부(160)를 포함하고 있다.As shown in the figure, the mixed reality implementation apparatus of the present invention, a plurality of cameras 110, the calibration unit 120, the tracking unit 130, the pose estimation unit 140, the matching unit 150 and the virtual image The processing unit 160 is included.

상기 다수의 카메라(110)는 동일한 영상을 여러 시점에서 획득하는 기능을 담당한다.The plurality of cameras 110 is responsible for obtaining the same image at various points in time.

상기 캘리브레이션부(120)는 상기 다수의 카메라(110)의 내부 및 외부 파라미터를 연산하고, 추적(Tracking)을 수행할 기준 카메라 및 특징점의 탐색 범위를 결정하는 기능을 담당한다.The calibration unit 120 is responsible for calculating internal and external parameters of the plurality of cameras 110 and determining a search range of a reference camera and a feature point to perform tracking.

상기 특징점은, 일반적으로 컴퓨터 비젼(Vision)에서 사용되는 것으로, 특정한 영상의 처리, 특히 기하학적 처리를 하기 위한 기반이 되는 점을 말하는데, 본 발명에서는 가상물체를 올릴 위치를 연산하기 위해 사용되는 점을 의미하는 것으로 한다.The feature point is generally used in computer vision, and refers to a point for processing a particular image, particularly a geometric process. In the present invention, the feature point is used to calculate a position to raise a virtual object. I mean it.

상기 내부 파라미터(Initial Parameter)란, 투영행렬 P와 관련된 초점거리(Focus Length), 왜곡 요소(Distortion Factor) 및 카메라 중심 등을 포함하는 것으로서, 상기 다수의 카메라(110) 자체에서 발생하는 왜곡에 대한 파라미터이다.The internal parameter includes a focal length associated with the projection matrix P, a distortion factor, a camera center, and the like, and corresponds to distortions generated by the plurality of cameras 110 itself. Parameter.

이와 같은 카메라의 내부 파라미터를 연산함으로써 제반 왜곡 요소를 제거할 수 있어, 포즈추정의 오류를 줄일 수 있다.By calculating the internal parameters of the camera, it is possible to remove all distortion elements, thereby reducing the error of the pose estimation.

한편, 외부 파라미터(External Parameter)란, 기준 카메라에 대하여 상기 다수의 카메라(110) 간의 상대적인 이동과 회전에 관한 파라미터로서, 주로 포즈추정 및 내부 파라미터의 연산에 사용되는 파라미터이다. 그러나, 이에 대한 연산을 위하여 8개 이상의 공간상의 점이 필요하여, 그 연산이 매우 복잡하므로 실시간으로는 연산이 불가능한 문제점이 있다.On the other hand, an external parameter is a parameter related to relative movement and rotation between the plurality of cameras 110 with respect to a reference camera, and is mainly a parameter used for calculating a pose estimation and an internal parameter. However, since more than eight spatial points are required for the calculation, the calculation is very complicated, and thus there is a problem that the calculation is impossible in real time.

따라서, 본 발명에서 실시하는 상기 외부 파라미터의 연산은 상기 내부 파라미터의 정확한 연산을 위하여 수행되며, 이로 인해 본 발명의 포즈추정은 캘리브레이션에 비의존적일 수 있다.Therefore, the calculation of the external parameter implemented in the present invention is performed for accurate calculation of the internal parameter, and thus the pose estimation of the present invention may be independent of calibration.

상기 추적부(130)는 상기 캘리브레이션부(120)에 의해 기준 카메라의 영상에 대하여, 정해진 탐색범위를 기준으로 특징점을 추적하는 기능을 담당한다.The tracking unit 130 is responsible for tracking a feature point based on a predetermined search range of the image of the reference camera by the calibration unit 120.

상기 포즈추정부(140)는 도 2에서 보다 상세히 설명하기로 한다.The posing unit 140 will be described in more detail with reference to FIG. 2.

도 2는 상기 도 1의 포즈추정부의 일실시예 상세 구조도이다.FIG. 2 is a detailed structural diagram of an embodiment of the posing unit of FIG.

도면에 도시된 바와 같이, 본 발명의 포즈추정부는, 선택기(141), 보정기(143) 및 추정기(145)를 포함하고 있다.As shown in the figure, the pose estimator of the present invention includes a selector 141, a corrector 143, and an estimator 145.

상기 선택기(141)는 상기 추적부(130)에서 추적한 특징점 중에서 동일평면(Coplanar) 상의 4점을 선택하는 기능을 담당한다.The selector 141 is responsible for selecting four points on the same plane (Coplanar) among the feature points tracked by the tracking unit 130.

상기 보정기(143)는 상기 캘리브레이션부(120)가 연산한 내부 파라미터를 이용하여 투영의 왜곡을 보정하여 상기 기준 카메라 이외의 카메라의 영상에서의 특징점의 위치를 바로잡는 기능을 담당한다.The corrector 143 is responsible for correcting the position of a feature point in an image of a camera other than the reference camera by correcting the distortion of the projection by using the internal parameter calculated by the calibration unit 120.

또한, 상기 보정기(143)는 외부 파라미터 및 다시점 카메라간의 관계를 이용하여 추적하지 않는 카메라의 영상에 대한 포즈를 보정하는 기능을 담당한다.In addition, the corrector 143 is responsible for correcting a pose of an image of a camera not tracked by using a relationship between an external parameter and a multi-view camera.

본 발명은 상기 보정기(143)에 의하여 특징점의 위치를 보정함으로써, 포즈추정의 에러를 줄일 수 있다.The present invention can reduce the error of the pose estimation by correcting the position of the feature point by the corrector 143.

상기 추정기(145)는 동일평면상의 4점의 포즈를 추정하는 기능을 담당한다.The estimator 145 is responsible for estimating the pose of four points on the same plane.

본 발명에서는 복잡한 외부 파라미터에 대한 캘리브레이션 방식을 포즈추정에 사용하지 않음으로써 적은 특징점의 개수를 바탕으로 실시간 정합을 수행할 수 있다.In the present invention, since the calibration method for complex external parameters is not used for pose estimation, real-time matching can be performed based on a small number of feature points.

이하, 상기 포즈추정에 대하여 도 3을 참고로 상세히 설명하기로 한다.Hereinafter, the pose estimation will be described in detail with reference to FIG. 3.

본 발명에서는 유사 공간(Affine Space)에서의 방향 벡터를 구함으로써, 4개의 모서리를 특징점으로 하는 사각평면 마커의 회전 및 이동을 추정하여, 이를 이용하여 기준 카메라에 대하여 사각평면 마커의 포즈추정을 수행한다.In the present invention, by obtaining a direction vector in the similar space (Affine Space), it estimates the rotation and movement of the rectangular plane marker with four corners as a feature point, and performs the pose estimation of the rectangular plane marker with respect to the reference camera using the same do.

도 3은 상기 도 2의 추정기가 추정하는 평면과 방향성분을 설명하기 위한 일예시도이다.FIG. 3 is an exemplary diagram for describing a plane and a direction component estimated by the estimator of FIG. 2.

도면에 도시된 B1, B2및 B3는 상기에서 추적한 4점이 구성하는 평면 S1의 이동 방향을 나타내는 것으로서 서로 수직임을 알 수 있다.B 1 , B 2 and B 3 shown in the drawings indicate the moving direction of the plane S 1 constituting the four points tracked above, and can be seen that they are perpendicular to each other.

본 발명에서는 추정되는 면의 기본벡터인 B1, B2및 B3를 하기 수학식 1에 의해 구할 수 있다.In the present invention, B 1 , B 2, and B 3 , which are basic vectors of the estimated surface, can be obtained by Equation 1 below.

이때, amn(m, n은 정수)은 기준점, λL, λW, λH는 각각 스케일(scale)을 나타내며, 또한, bmn(m, n은 정수)은 노말(normal) 벡터를 나타낸다.Where a mn (m, n is an integer) represents a reference point, λ L , λ W , and λ H represent a scale, respectively, and b mn (m, n is an integer) represents a normal vector. .

4점을 이루는 사각형의 방향성분 벡터의 회전과 이동으로부터, 기준 카메라의 시점에서의 한 평면의 모서리로부터 사각형 마커의 회전과 이동을 갖는 포즈를 추정할 수 있다.From the rotation and the movement of the quadrangle direction component vector forming four points, a pose having the rotation and movement of the rectangular marker from the corner of one plane at the viewpoint of the reference camera can be estimated.

상기 가상영상 처리부(160)는 혼합현실을 구성할 가상영상을 모델링하는 기능을 담당한다.The virtual image processor 160 is responsible for modeling a virtual image that will constitute a mixed reality.

상기 정합부(150)는 상기 가상영상 처리부(160)로부터 수신한 가상영상을 상기 포즈추정부(140)로부터 수신한 포즈로 변환하여, 실영상과 가상영상을 실시간으로 정합하는 기능을 담당한다.The matching unit 150 converts the virtual image received from the virtual image processing unit 160 into a pose received from the pose estimating unit 140 and performs a function of matching the real image and the virtual image in real time.

이때, 기준 카메라로부터 수신한 영상 및 나머지 다른 카메라로부터 수신한 영상과 가상 영상을 하기 수학식 2를 이용하여 정합할 수 있다.In this case, the image received from the reference camera, the image received from the other camera and the virtual image may be matched using Equation 2 below.

이때, TCC'은 기준 카메라(C)의 좌표계에서 다른 카메라(C')의 좌표계로의 변환, TCP는 기준 카메라(C)의 좌표계에서 실영상물체(P)의 좌표계로의 변환, TC'P는 다른 카메라(C')의 좌표계에서 물체(P)의 좌표계로의 변환을 의미하며, RCP는 기준 카메라(C)의 좌표계에서 물체(P)의 좌표계로의 회전, RC'P는 다른 카메라(C')의 좌표계에서 물체(P)의 좌표계로의 회전을 의미한다. 또한, tCP는 기준 카메라(C)의 좌표계에서 물체(P)의 좌표계로의 이동을 의미하며, tC'P는 다른 카메라(C')의 좌표계에서 물체(P)의 좌표계로의 이동을 의미한다.In this case, T CC ' is a transformation from the coordinate system of the reference camera C to a coordinate system of another camera C', T CP is a transformation from the coordinate system of the reference camera C to the coordinate system of the real image object P, T C'P means the transformation from the coordinate system of another camera C 'to the coordinate system of the object P, R CP is the rotation of the object P from the coordinate system of the reference camera C, R C' P means rotation of the object P from the coordinate system of another camera C '. In addition, t CP means the movement of the object P from the coordinate system of the reference camera (C), t C'P represents the movement of the object (P) from the coordinate system of the other camera (C ') it means.

도 4는 본 발명에 따른 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 방법을 설명하기 위한 일실시예 흐름도이다.4 is a flowchart illustrating a method of implementing a stereo / multi-view realistic mixed reality using a pose estimation according to the present invention.

도면에 도시된 바와 같이, 본 발명의 혼합현실 구현 방법은, 상기 다수의 카메라(110)로부터 동일물체에 대한 영상을 수신하여(S401), 이에 대한 내부 및 외부 파라미터를 연산하고, 기준 카메라를 설정하고, 특징점의 탐색범위를 결정하는 등의 캘리브레이션을 수행한다(S403).As shown in the drawings, the mixed reality implementation method of the present invention receives images of the same object from the plurality of cameras 110 (S401), calculates internal and external parameters thereof, and sets a reference camera. Then, calibration such as determining a search range of the feature point is performed (S403).

이후, 상기에서 결정한 탐색범위에 따라 특징점을 탐색하고(S405), 특징점을 추적한 경우에는 검색된 특징점 중에서 동일평면상의 4점을 선택한다(S411). 만약,특징점을 추적하는데 실패한 경우에는(S407), 외부 파라미터를 사용하여 특징점을 추적하여(S409), 동일평면상의 4점을 선택한다(S411).Thereafter, the feature points are searched according to the search range determined above (S405). When the feature points are traced, four points on the same plane are selected from the searched feature points (S411). If it fails to track the feature point (S407), the feature point is tracked using external parameters (S409), and four points on the same plane are selected (S411).

이후, 카메라의 투영 왜곡을 보정하여(S413) 특징점의 위치를 바로잡고, 이에 대하여 포즈추정을 수행한다(S415).Subsequently, the projection distortion of the camera is corrected (S413) to correct the position of the feature point, and a pose estimation is performed (S415).

마지막으로, 상기에서 추정된 포즈를 이용하여 미리 모델링된 가상영상과 실영상의 정합을 수행한다(S417).Finally, matching of the pre-modeled virtual image and the real image is performed using the estimated pose at step S417.

도 5a 및 도 5b는 본 발명에 따른 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 방법에 따라 구현한 혼합현실을 나타내기 위한 일예시도로서, 도 5a는 기준 카메라의 영상에 대하여 구현한 것이고, 도 5b는 기준 카메라 외의 카메라의 영상에 대하여 상기 기준 카메라에 대한 캘리브레이션 파라미터를 이용하여 포즈추정한 후 구현한 것이다.5a and 5b is an exemplary view for showing the mixed reality implemented according to the stereo / multi-view realistic mixed reality implementation method using the pose estimation in accordance with the present invention, Figure 5a is implemented for the image of the reference camera FIG. 5B illustrates a pose estimation using calibration parameters for the reference camera for images of cameras other than the reference camera.

기준 카메라에 대한 캘리브레이션 파라미터를 통해 얻은 다시점 관계를 포즈추정에 사용한 본 발명에 따른 정합 결과의 영상은 각각의 카메라로부터의 영상에 대하여 포즈추정한 영상과 거의 차이가 없다할 수 있다.The image of the matching result according to the present invention using the multi-view relationship obtained through the calibration parameters for the reference camera in the pose estimation may have little difference from the image estimated in the pose from the respective cameras.

상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다.The method of the present invention as described above may be implemented as a program and stored in a computer-readable recording medium (CD-ROM, RAM, ROM, floppy disk, hard disk, magneto-optical disk, etc.).

이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited to the drawing.

상기와 같은 본 발명은, 포즈추정에서의 카메라간의 상대적인 이동과 회전을 미리 캘리브레이션의 파라미터로부터 얻어내어, 다시점으로의 정합시 포즈추정 연산을 각각 수행하지 않게 함으로써, 빠른 실시간 다시점 혼합현실을 가능하게 할 수 있도록 하는 효과가 있다.As described above, the present invention obtains the relative movement and rotation between cameras in the pose estimation from the calibration parameters in advance, and does not perform the pose estimation operation when matching to a multiview, thereby enabling fast real-time multiview mixing reality. It has the effect of making it work.

또한, 본 발명은 추적시에 사라지는 특징점의 경우 카메라간의 관계를 이용하여 추정, 복원하므로, 모든 특징점이 소실되지 않는 이상 강인한 시점간의 추적을 유지할 수 있도록 하는 효과가 있다.In addition, since the present invention estimates and restores feature points that disappear during tracking by using the relationship between cameras, there is an effect of maintaining a robust tracking between time points unless all feature points are lost.

또한, 본 발명은 동일평면상의 4점의 포즈추정을 사용함으로써, 빠른 연산을 가능하게 하고, 한장의 마커나 동일한 면을 이루는 어떠한 물체의 경우에도 4개의 특징점이 있다면 정합할 수 있도록 할 수 있는 효과가 있다.In addition, the present invention by using the four-point pose estimation on the same plane, it is possible to perform a fast operation, and to be able to match if the four feature points in the case of a single marker or any object forming the same plane There is.

또한, 본 발명은 동일평면상의 4점의 포즈추정시에 미리 계산된 캘리브레이션의 내부 파라미터를 사용하여 에러를 보정함으로써, 포즈의 잘못된 추정을 방지하고 에러를 줄일 수 있도록 하는 효과가 있다.In addition, the present invention has the effect of preventing the false estimation of the pose and reducing the error by correcting the error by using the internal parameters of the pre-calculated calibration at the time of the four point pose estimation on the same plane.

Claims (9)

다수의 카메라로부터 수신한 실영상과 미리 모델링된 가상영상의 실시간 합성을 위한 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 장치에 있어서,In the apparatus for implementing stereo / multi-view realistic mixed reality using pose estimation for real-time synthesis of real images received from multiple cameras and pre-modeled virtual images, 상기 다수의 카메라로부터 영상을 수신하여, 각각의 카메라에 대한 내부/외부 파라미터를 연산하고, 기준 카메라 및 특징점의 탐색범위를 결정하기 위한 캘리브레이션 수단;Calibration means for receiving images from the plurality of cameras, calculating internal / external parameters for each camera, and determining a search range of a reference camera and a feature point; 상기 캘리브레이션 수단에 의하여 정해진 기준 카메라의 영상에 대하여, 상기 탐색범위를 기준으로 특징점을 추적하기 위한 추적 수단;Tracking means for tracking a feature point based on the search range with respect to an image of a reference camera determined by the calibration means; 상기 특징점을 이용하여 상기 가상 영상의 포즈를 추정하기 위한 포즈추정 수단; 및Pose estimation means for estimating a pose of the virtual image using the feature point; And 상기 포즈추정 수단에 의하여 추정된 포즈를 이용하여, 상기 실영상과 상기 가상영상을 실시간으로 정합하기 위한 정합 수단Matching means for matching the real image and the virtual image in real time using the pose estimated by the pose estimating means. 을 포함하는 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 장치.Stereo / multi-view realistic mixed reality implementation apparatus using a pose estimation including a. 제 1항에 있어서,The method of claim 1, 상기 내부 파라미터는,The internal parameter is 투영행렬과 관련된 초점거리, 왜곡 요소 및 카메라 중심을 포함하는 것을 특징으로 하는 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 장치.An apparatus for implementing stereo / multi-view realistic mixed reality using pose estimation, comprising a focal length, a distortion element, and a camera center associated with a projection matrix. 제 1항에 있어서,The method of claim 1, 상기 외부 파라미터는,The external parameter is, 상기 기준 카메라에 대하여 나머지 다른 카메라의 상대적인 이동과 회전에 관한 파라미터인 것을 특징으로 하는 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 장치.And stereo / multi-view realistic mixed reality implementation apparatus using pose estimation, wherein the parameter is a parameter relating to relative movement and rotation of the other camera with respect to the reference camera. 제 1항에 있어서,The method of claim 1, 상기 포즈추정부는,The posing unit, 상기 추적 수단에 의하여 선택된 특징점 중에서 동일평면상의 4점을 선택하기 위한 선택 수단;Selection means for selecting four points on the same plane among the feature points selected by the tracking means; 상기 내부 파라미터를 이용하여 기준 카메라 이외의 카메라의 영상에서의 특징점의 위치를 바로잡기 위한 보정 수단; 및Correction means for correcting the position of a feature point in an image of a camera other than a reference camera using the internal parameter; And 상기 동일평면상의 4점에 대하여 포즈를 추정하기 위한 추정 수단Estimating means for estimating a pose with respect to four points on the same plane 을 포함하는 것을 특징으로 하는 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 장치.Stereo / multi-view realistic mixed reality implementation apparatus using a pose estimation, characterized in that it comprises a. 제 4항에 있어서,The method of claim 4, wherein 상기 추정 수단은,The estimating means, 추정되는 평면의 방향벡터를 하기의 식에 의하여 결정하는 것을 특징으로 하는 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 장치.An apparatus for implementing stereo / multi-view realistic mixed reality using a pose estimation, wherein the direction vector of the estimated plane is determined by the following equation. (이때, amn(m, n은 정수)은 기준점, λL, λW, λH는 각각 스케일(scale)을 나타내며, 또한, bmn(m, n은 정수)은 노말(normal) 벡터를 나타냄)Where a mn (m, n is an integer) represents a reference point, λ L , λ W , and λ H each represent a scale, and b mn (m, n is an integer) represents a normal vector. Indicates) 제 1항에 있어서,The method of claim 1, 상기 정합 수단은,The matching means, 상기 기준 카메라로부터 수신한 영상 또는 기준 카메라 이외의 다른 카메라로부터 수신한 영상과, 상기 가상영상을 하기의 식에 의하여 정합하는 것을 특징으로 하는 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 장치.And an image received from the reference camera or an image received from another camera other than the reference camera and the virtual image according to the following equation. 3. (이때, TCC'은 기준 카메라(C)의 좌표계에서 다른 카메라(C')의 좌표계로의 변환, TCP는 기준 카메라(C)의 좌표계에서 실영상물체(P)의 좌표계로의 변환, TC'P는 다른 카메라(C')의 좌표계에서 물체(P)의 좌표계로의 변환을 의미하며, RCP는 기준 카메라(C)의 좌표계에서 물체(P)의 좌표계로의 회전, RC'P는 다른 카메라(C')의 좌표계에서 물체(P)의 좌표계로의 회전을 의미함. 또한, tCP는 기준 카메라(C)의 좌표계에서 물체(P)의 좌표계로의 이동을 의미하며, tC'P는 다른 카메라(C')의 좌표계에서 물체(P)의 좌표계로의 이동을 의미함)(At this time, T CC ' is a transformation from the coordinate system of the reference camera (C) to the coordinate system of another camera (C'), T CP is a transformation from the coordinate system of the reference camera (C) to the coordinate system of the real image object (P), T C'P means the transformation from the coordinate system of another camera (C ') to the coordinate system of the object (P), R CP is the rotation of the object (P) from the coordinate system of the reference camera (C), R C 'P ' refers to the rotation of the object P from the coordinate system of another camera C. In addition, t CP means the movement of the object P from the coordinate system of the reference camera C. , t C'P refers to the movement of the object P from the coordinate system of another camera C ') 다수의 카메라로부터 수신한 실영상과 미리 모델링된 가상영상의 실시간 합성을 위한 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 방법에 있어서,A stereo / multi-view mixed reality implementation method using pose estimation for real-time synthesis of real images received from multiple cameras and pre-modeled virtual images, 상기 다수의 카메라로부터 수신한 영상에 대하여 각각의 카메라에 대한 내부/외부 파라미터를 연산하고, 기준 카메라 및 특징점의 탐색범위를 결정하는 제 1단계;A first step of calculating an internal / external parameter for each camera based on images received from the plurality of cameras, and determining a search range of a reference camera and a feature point; 상기 캘리브레이션 수단에 의하여 정해진 기준 카메라의 영상에 대하여, 상기 탐색범위를 기준으로 특징점 추적을 수행하는 제 2단계;A second step of performing feature point tracking on an image of a reference camera determined by the calibration means based on the search range; 상기 특징점을 이용하여 상기 가상 영상의 포즈추정을 수행하는 제 3단계; 및Performing pose estimation of the virtual image using the feature point; And 상기 포즈를 이용하여, 상기 실영상과 상기 가상영상의 실시간 정합을 수행하는 제 4단계A fourth step of performing real-time matching between the real image and the virtual image using the pose 를 포함하는 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 방법.Stereo / multi-view realistic mixed reality implementation method using a pose estimation comprising a. 제 7항에 있어서,The method of claim 7, wherein 특징점 추적을 실패한 경우에는, 상기 외부 파라미터를 사용하여 특징점을 추적하는 제 5단계If the feature point tracking fails, the fifth step of tracking the feature point using the external parameter 를 더 포함하는 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 방법.Stereo / multi-view realistic mixed reality implementation method using a pose estimation further comprising. 다수의 카메라로부터 수신한 실영상과 미리 모델링된 가상영상의 실시간 합성을 위한 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현 방법을 제공하기 위하여 마이크로프로세서를 구비한 혼합현실 구현 장치에,In a mixed reality implementation apparatus having a microprocessor to provide a stereo / multi-view realistic mixed reality implementation method using a pose estimation for real-time synthesis of real images received from a plurality of cameras and a pre-modeled virtual image, 상기 다수의 카메라로부터 수신한 영상에 대하여 각각의 카메라에 대한 내부/외부 파라미터를 연산하고, 기준 카메라 및 특징점의 탐색범위를 결정하는 제 1기능;A first function of calculating internal / external parameters for each camera based on images received from the plurality of cameras, and determining a search range of a reference camera and a feature point; 상기 캘리브레이션 수단에 의하여 정해진 기준 카메라의 영상에 대하여, 상기 탐색범위를 기준으로 특징점 추적을 수행하는 제 2기능;A second function of performing feature point tracking on an image of a reference camera determined by the calibration means based on the search range; 상기 특징점을 이용하여 상기 가상 영상의 포즈추정을 수행하는 제 3기능; 및A third function of performing pose estimation of the virtual image using the feature point; And 상기 포즈를 이용하여, 상기 실영상과 상기 가상영상의 실시간 정합을 수행하는 제 4기능A fourth function of performing real-time matching between the real image and the virtual image using the pose 을 실현시키시기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium that records a program for realizing the problem.
KR10-2002-0042094A 2002-07-18 2002-07-18 Apparatus for Embodying Stereo/Multiview Realistic Mixed Reality using Pose Estimation and Method Thereof KR100447778B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2002-0042094A KR100447778B1 (en) 2002-07-18 2002-07-18 Apparatus for Embodying Stereo/Multiview Realistic Mixed Reality using Pose Estimation and Method Thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0042094A KR100447778B1 (en) 2002-07-18 2002-07-18 Apparatus for Embodying Stereo/Multiview Realistic Mixed Reality using Pose Estimation and Method Thereof

Publications (2)

Publication Number Publication Date
KR20040008456A KR20040008456A (en) 2004-01-31
KR100447778B1 true KR100447778B1 (en) 2004-09-08

Family

ID=37317517

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0042094A KR100447778B1 (en) 2002-07-18 2002-07-18 Apparatus for Embodying Stereo/Multiview Realistic Mixed Reality using Pose Estimation and Method Thereof

Country Status (1)

Country Link
KR (1) KR100447778B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040041297A (en) * 2002-11-11 2004-05-17 (주) 에이치비전 Method for tracing and displaying multiple object movement using multiple camera videos
KR101244911B1 (en) 2005-10-11 2013-03-18 삼성전자주식회사 Apparatus for encoding and decoding muti-view image by using camera parameter, and method thereof, a recording medium having a program to implement thereof
KR100786351B1 (en) * 2006-08-29 2007-12-14 울산대학교 산학협력단 System and method for teaching work-robot based on ar
KR100825859B1 (en) * 2007-02-15 2008-04-28 한국과학기술연구원 Indirect object pose estimation method with respect to user-wearable camera using multi-view camera system
KR100943719B1 (en) * 2008-11-04 2010-02-23 광주과학기술원 System and apparatus of geometrical compensation for multi-view video

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11232483A (en) * 1998-02-10 1999-08-27 Square Co Ltd Information processor and information recording medium
JP2002159019A (en) * 2000-11-16 2002-05-31 Canon Inc Display control device, imaging position estimating device, display system, image pickup system, image positioning method, imaging position estimating method, and recording medium recorded with process program
JP2002157603A (en) * 2000-11-21 2002-05-31 Mixed Reality Systems Laboratory Inc Device and method for image processing, and storage medium
JP2002228442A (en) * 2000-11-30 2002-08-14 Mixed Reality Systems Laboratory Inc Positioning attitude determining method and device, and recording media

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11232483A (en) * 1998-02-10 1999-08-27 Square Co Ltd Information processor and information recording medium
JP2002159019A (en) * 2000-11-16 2002-05-31 Canon Inc Display control device, imaging position estimating device, display system, image pickup system, image positioning method, imaging position estimating method, and recording medium recorded with process program
JP2002157603A (en) * 2000-11-21 2002-05-31 Mixed Reality Systems Laboratory Inc Device and method for image processing, and storage medium
JP2002228442A (en) * 2000-11-30 2002-08-14 Mixed Reality Systems Laboratory Inc Positioning attitude determining method and device, and recording media

Also Published As

Publication number Publication date
KR20040008456A (en) 2004-01-31

Similar Documents

Publication Publication Date Title
JP5818773B2 (en) Image processing apparatus, image processing method, and program
US10269177B2 (en) Headset removal in virtual, augmented, and mixed reality using an eye gaze database
JP3745117B2 (en) Image processing apparatus and image processing method
US8144238B2 (en) Image processing apparatus and method
US9100537B2 (en) Object tracking using graphics engine derived vectors in a motion estimation system
State et al. Superior augmented reality registration by integrating landmark tracking and magnetic tracking
US9679415B2 (en) Image synthesis method and image synthesis apparatus
JP2003187261A (en) Device and method for generating three-dimensional image, three-dimensional image processing apparatus, three-dimensional image photographing display system, three-dimensional image processing method and storage medium
EP3446283B1 (en) Image stitching method and device
EP3935602B1 (en) Processing of depth maps for images
JP2003284093A (en) Stereoscopic image processing method and apparatus therefor
JP6061334B2 (en) AR system using optical see-through HMD
CN110969706B (en) Augmented reality device, image processing method, system and storage medium thereof
JP2000341721A (en) Depth image measuring instrument and method, parallax image measuring instrument, composite reality presentation system and method, and program storage medium
KR100447778B1 (en) Apparatus for Embodying Stereo/Multiview Realistic Mixed Reality using Pose Estimation and Method Thereof
JP3352454B2 (en) Image processing apparatus and method, and storage medium
JP2003284095A (en) Stereoscopic image processing method and apparatus therefor
EP4315253A1 (en) Surface texturing from multiple cameras
JP2023093170A (en) Portable terminal device, and its program
Yu et al. Projective Bisector Mirror (PBM): Concept and Rationale
JP2003284094A (en) Stereoscopic image processing method and apparatus therefor
JP2023026244A (en) Image generation apparatus, image generation method, and program
LaRose A fast, affordable system for augmented reality
CN116456068A (en) Three-dimensional display method and device for image, display module and readable storage medium
KR20000001039A (en) Stereophonic method of image expressed by vrml(virtual reality modeling language) and device thereof

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee