KR101421442B1 - Method and system tracking position of stereo camera - Google Patents

Method and system tracking position of stereo camera Download PDF

Info

Publication number
KR101421442B1
KR101421442B1 KR1020130051077A KR20130051077A KR101421442B1 KR 101421442 B1 KR101421442 B1 KR 101421442B1 KR 1020130051077 A KR1020130051077 A KR 1020130051077A KR 20130051077 A KR20130051077 A KR 20130051077A KR 101421442 B1 KR101421442 B1 KR 101421442B1
Authority
KR
South Korea
Prior art keywords
camera
eye image
angle
marker
stereoscopic
Prior art date
Application number
KR1020130051077A
Other languages
Korean (ko)
Inventor
최재광
Original Assignee
주식회사 레드로버
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 레드로버 filed Critical 주식회사 레드로버
Priority to KR1020130051077A priority Critical patent/KR101421442B1/en
Application granted granted Critical
Publication of KR101421442B1 publication Critical patent/KR101421442B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

The present invention relates to a method and a system for tracking the position of a stereoscopic camera and, more specifically, to a method for tracking the position of a stereoscopic camera, capable of rapidly and easily synthesizing a background image without checking the angle and depth of a shooting object by a producer when processing computer graphics (CG) by providing the shooting position and the shooting angle of the stereoscopic camera from a blue screen background set for processing the computer graphics (CG).

Description

입체카메라 촬영위치 추적방법 및 그 시스템{Method and system tracking position of stereo camera}TECHNICAL FIELD [0001] The present invention relates to a method and system for tracking a stereoscopic camera,

본 발명은 입체카메라 촬영위치 추적방법 및 그 시스템에 관한 것으로, 보다 구체적으로는 컴퓨터 그래픽(CG:Computer Graphics) 처리를 위한 블루 스크린 배경 세트로부터 입체카메라가 위치하는 촬영위치 및 촬영각도를 제공함으로써 컴퓨터 그래픽 처리시 제작자가 직접 눈으로 촬영대상에 대한 배경의 각도 및 깊이를 확인하지 않고도 빠르고 간편하게 배경 이미지를 합성할 수 있게 하는 입체카메라 촬영위치 추적방법에 관한 것이다.
The present invention relates to a stereoscopic camera photographing position tracking method and system, and more particularly, to a stereoscopic camera photographing position tracking method and system, The present invention relates to a stereoscopic camera photographing position tracking method which allows a manufacturer to quickly and easily synthesize a background image without having to confirm the angle and depth of the background of the photographer with his / her eyes.

블루 스크린(blue screen)이란 파랑색으로 된 배경 부분을 추출하기 위해 설치되는 파랑색 배경 세트로서, 주로 실제 촬영대상의 배경을 컴퓨터 그래픽으로 합성하기 위해 사용된다.A blue screen is a set of blue backgrounds that are used to extract the background part of a blue background.

또한, 블루 스크린과 동일한 개념으로 그린 스크린(green screen), 레드 스크린(red screen) 등이 있으며, 본 발명에서 블루 스크린이란 컴퓨터 그래픽을 합성하기 위한 배경 세트인 그린 스크린 및 레드 스크린을 포함하는 광의의 개념으로 정의한다.In addition, the same concept as a blue screen includes a green screen, a red screen, and the like. In the present invention, a blue screen refers to a wide range of backgrounds including a green screen and a red screen, .

최근, 입체영상에 대한 관심이 커지면서, 블루 스크린 영상을 입체영상으로 촬영하는 입체 블루 스크린 영상 촬영도 빈번하게 이루어지고 있는데, 입체 블루 스크린 영상 촬영과정은 먼저, 블루 스크린에 사람과 같은 촬영대상을 위치시키고, 입체 카메라가 블루 스크린을 촬영한 후, 좌안 영상 및 우안 영상에 포함된 파랑색 배경에 서로 양안시차(binocular disparity)를 갖는 컴퓨터 그래픽을 합성함으로써 컴퓨터 그래픽과 합성된 촬영대상을 하나의 입체영상으로 제공하게 된다.Recently, interest in stereoscopic images has increased, and stereoscopic blue screen image capturing of a blue screen image as a stereoscopic image has been frequently performed. In the stereoscopic blue screen image capturing process, first, After the stereoscopic camera captures the blue screen, the computer graphics having binocular disparity are synthesized on the blue background included in the left eye image and the right eye image, .

여기서 컴퓨터 그래픽을 합성하기 위해서는 먼저, 제작자가 좌안 영상 및 우안 영상에 각각 배경인 컴퓨터 그래픽을 합성하고, 다음, 입체영상 디스플레이를 통해 촬영대상과 배경의 각도나 깊이에 따른 입체감을 직접 눈으로 확인하면서 배경이 촬영대상과 어울리도록 배경의 각도나 깊이를 바꾸며 합성을 완성한다.In order to synthesize a computer graphic, a computer synthesizes a background computer graphic to a left eye image and a right eye image, and then, by using a stereoscopic image display, the stereoscopic effect according to an angle and a depth Complete the synthesis by changing the angle or depth of the background so that the background matches the object being shot.

이러한 종래의 입체 블루 스크린 영상의 컴퓨터 그래픽 합성 방법은 제작자가 직접 눈으로 배경의 각도 및 깊이를 확인하면서 합성을 수행하므로 시간이 매우 오래 걸리고, 2D 블루 스크린 영상과 달리 배경의 각도나 깊이가 조금만 잘못 설정되더라도 시청자로 하여금 눈의 피로나 어지러움 현상을 유발할 수 있고, 합성된 배경이 촬영대상과 어울리지 않아 영상시청의 몰입도가 떨어지는 문제가 있다.
This conventional method of synthesizing a stereoscopic blue screen image takes a very long time because the synthesizer performs synthesis while confirming the angle and depth of the background with the eyes of the manufacturer, and unlike the 2D blue screen image, the angle or depth of the background is slightly The viewer can cause eye fatigue or dizziness, and the synthesized background does not match with the object to be photographed, so that there is a problem that the degree of immersion of the image is lowered.

본 발명자들은 입체 블루 스크린 영상에 컴퓨터 그래픽을 합성할 때, 양안시차를 갖는 컴퓨터 그래픽을 서로 정확한 각도 및 깊이로 합성할 수 있게 함으로써, 입체영상 관람시 시청자의 눈의 피로나 어지러움 현상을 방지하고, 자연스러운 영상의 제공으로 시청의 몰입도를 향상시키고자 연구 노력한 결과, 블루 스크린에 대한 입체 카메라의 촬영위치 및 촬영각도를 계산하여 제공함으로써 제작자가 입체 영상 디스플레이를 통해 직접 눈으로 배경과 촬영 대상 간의 입체감을 확인하지 않고도 정확한 각도 및 깊이로 배경을 촬영대상에 합성할 수 있게 하여 입체감이 매우 우수한 입체 블루 스크린 영상을 제공할 수 있게 하는 입체 카메라 촬영위치 추적방법 및 그 시스템의 기술적 구성을 개발하게 되어 본 발명을 완성하게 되었다.The present inventors have made it possible to synthesize computer graphics having binocular disparity at precise angles and depths when synthesizing computer graphics on a stereoscopic blue screen image, thereby preventing fatigue or dizziness of the viewer's eyes in stereoscopic viewing, As a result of research efforts to improve the immersion of the audience with the provision of natural images, the photographing position and the photographing angle of the stereoscopic camera on the blue screen are calculated and provided so that the stereoscopic image display A stereoscopic camera image capturing method capable of providing a three-dimensional blue screen image having a very good stereoscopic effect by allowing the background to be synthesized with a precise angle and depth without confirming a stereoscopic image, and a technical configuration of the system Thereby completing the invention.

따라서, 본 발명의 목적은 블루 스크린에 대한 입체 카메라의 촬영 위치 및 촬영 각도를 추적하여 제공함으로써 정확한 각도와 깊이의 배경을 촬영대상에 합성할 수 있게 함으로써 입체감이 매우 우수한 입체 블루 스크린 영상을 제공할 수 있게 하는 입체 카메라 촬영위치 추적방법 및 그 시스템을 제공하는 것이다.
Therefore, an object of the present invention is to provide a stereoscopic blue screen image with excellent stereoscopic effect by allowing the stereoscopic camera to photograph and capture the position and angle of the stereoscopic camera on the blue screen, And to provide a method for tracking a three-dimensional camera photographing position and a system thereof.

본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
The objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

상기의 목적을 달성하기 위하여 본 발명은 좌안 영상 카메라 및 우안 영상 카메라를 포함하는 입체카메라와 상기 입체카메라에서 획득된 영상을 처리하는 영상 처리장치를 포함하는 입체영상 촬영시스템에서 상기 입체카메라의 촬영위치를 검출하여 추적하는 입체카메라 촬영위치 추적방법으로서, 컴퓨터 그래픽(CG:Computer Graphics) 처리를 위한 배경 세트인 블루스크린(blue screen)의 바닥면에 적어도 서로 이격된 세 개의 마커를 표시하는 단계; 상기 입체카메라를 임의의 위치에 위치시키는 단계; 상기 영상처리장치가 상기 입체카메라로부터 상기 좌안 영상 카메라와 상기 우안 영상 카메라 간의 거리인 카메라거리(IOD:intraocular distance)와 상기 좌안 영상 카메라와 상기 우안 영상 카메라의 주시각(convergence)을 입력받는 단계; 상기 영상처리장치가 상기 카메라거리 및 상기 주시각으로부터 상기 좌안 영상 카메라와 상기 우안 영상 카메라 사이의 중심인 카메라 중심과 상기 좌안 영상 카메라와 상기 우안 영상 카메라의 광축 교차점까지의 거리인 기준 z축 거리를 계산하는 단계; 상기 입체카메라가 상기 마커들을 촬영하고, 상기 영상처리장치로 촬영된 좌안 영상 및 우안 영상을 전송하는 단계; 상기 영상처리장치가 상기 좌안 영상 및 상기 우안 영상으로부터 각 마커의 깊이 값을 구하고, 상기 기준 z거리에 구한 깊이 값을 더하거나 감하여 상기 각 마커의 상기 카메라 중심과의 거리인 마커 z축 거리를 계산하는 단계; 상기 영상처리장치가 상기 좌안 영상 카메라 및 상기 우안 영상 카메라의 화각정보(angle of view)를 이용하여 상기 각 마커가 기준 z축으로부터 x축 및 y축 방향으로 이격된 각도인 마커각도를 계산하는 단계; 상기 영상처리장치가 상기 마커 z축 거리 및 상기 마커각도로부터 상기 카메라 중심을 중심으로 한 상기 각 마커의 xyz좌표를 계산하는 단계; 상기 영상처리장치가 상기 각 마커의 xyz좌표로부터 상기 마커들이 이루는 평면의 중심인 마커중심의 xyz좌표를 계산하는 단계; 상기 영상처리장치가 상기 마커중심을 원점으로 좌표변환하여 상기 카메라 중심의 xyz좌표를 계산하고, 계산된 카메라 중심의 좌표를 초기촬영위치로 획득하는 단계; 및 촬영을 위해 상기 입체 카메라 이동시 상기 영상처리장치가 상기 입체 카메라의 이동 방향 및 거리를 상기 초기촬영위치에 더하여 상기 입체 카메라의 좌표를 갱신함으로써, 상기 입체 카메라의 촬영위치를 추적하는 것을 특징으로 하는 입체카메라 촬영위치 추적방법을 제공한다.In order to accomplish the above object, the present invention provides a stereoscopic image capturing system including a stereoscopic camera including a left eye image camera and a right eye image camera, and an image processing apparatus for processing an image obtained from the stereoscopic camera, A method for tracking a stereoscopic camera photographing position, comprising the steps of: displaying at least three spaced apart markers on a bottom surface of a blue screen as a background set for computer graphics processing; Positioning the stereoscopic camera at an arbitrary position; The image processing apparatus receiving a camera distance (IOD), which is a distance between the left eye image camera and the right eye image camera, from the stereoscopic camera, and a convergence of the left eye image camera and the right eye image camera; Wherein the image processing apparatus calculates a reference z-axis distance, which is a distance from a center of the camera, which is the center between the left eye image camera and the right eye image camera, to an optical axis intersection point of the left eye image camera and the right eye image camera, Calculating; Capturing the markers by the stereoscopic camera, and transmitting the left eye image and the right eye image photographed by the image processing apparatus; The image processing apparatus obtains the depth value of each marker from the left eye image and the right eye image and adds or subtracts the depth value obtained at the reference z distance to calculate a marker z axis distance which is a distance between the center of the respective markers and the camera step; Wherein the image processing apparatus calculates a marker angle, which is an angle that the respective markers are spaced apart from the reference z-axis in the x-axis and y-axis directions using the angle of view of the left eye image camera and the right eye image camera ; Calculating xyz coordinates of each marker centered on the camera center from the marker z-axis distance and the marker angle; Calculating xyz coordinates of the center of the marker, which is the center of the plane formed by the markers, from the xyz coordinates of the respective markers; Calculating a xyz coordinate of the center of the camera by converting the center of the marker to an origin by the image processing apparatus and acquiring the coordinates of the center of the camera as an initial photographing position; And when the stereoscopic camera is moved for photographing, the image processing device updates the coordinate of the stereoscopic camera by adding the moving direction and the distance of the stereoscopic camera to the initial photographing position, thereby tracking the photographing position of the stereoscopic camera And provides a stereoscopic camera photographing position tracking method.

바람직한 실시예에 있어서, 상기 마커중심의 xyz좌표를 계산하는 단계 이후에, 상기 영상처리장치가 상기 기준 z축 상의 임의의 점을 상기 마커중심을 원점으로 좌표변환하여 좌표값을 계산하는 단계; 및 상기 마커중심인 원점, 상기 초기촬영위치의 카메라 좌표 및 좌표변환된 상기 임의의 점의 좌표가 이루는 사잇각을 계산하고, 상기 사잇각을 상기 입체 카메라의 초기촬영각도로 획득하는 단계;를 더 포함하고, 상기 입체 카메라의 위치를 추적하는 단계에서, 상기 입체 카메라 이동시 상기 입체 카메라의 회전각도를 상기 입체 카메라의 초기촬영각도에 더하여 상기 초기촬영각도를 갱신함으로써, 상기 입체 카메라의 촬영각도를 추적한다.In a preferred embodiment, after the step of calculating the xyz coordinates of the center of the marker, the image processing apparatus performs coordinate transformation of an arbitrary point on the reference z-axis to the origin, thereby calculating coordinate values; And calculating an angle formed by the origin of the marker, the camera coordinates of the initial photographing position, and the coordinates of the arbitrary point, and acquiring the angle as an initial photographing angle of the stereoscopic camera And tracking the position of the stereoscopic camera by updating the initial photographing angle by adding the rotation angle of the stereoscopic camera to the initial photographing angle of the stereoscopic camera when moving the stereoscopic camera.

또한, 본 발명은 바닥면에 적어도 세 개의 마커가 표시된 블루 스크린; 좌안 영상 카메라 및 우안 영상 카메라를 포함하고, 상기 블루 스크린을 촬영하는 입체카메라; 및 상기 입체카메라와 연결되고, 상기 입체카메라의 카메라거리(IOD:intraocular distance), 주시각(convergence) 및 영상을 입력받아 제 2 항 내지 제 3 항의 입체카메라 촬영위치 추적방법을 수행하는 영상 처리장치;를 포함하는 것을 특징으로 하는 입체카메라 촬영위치 추적시스템을 더 제공한다.
The present invention also provides a blue screen having at least three markers on its bottom surface; A stereoscopic camera which includes a left eye image camera and a right eye image camera and photographs the blue screen; And an image processing apparatus connected to the stereoscopic camera and configured to receive the intraocular distance (IOD), main convergence and image of the stereoscopic camera and perform the stereoscopic camera photographing position tracking method according to any one of claims 2 to 3, And a camera for photographing the three-dimensional camera.

본 발명은 다음과 같은 우수한 효과를 가진다.The present invention has the following excellent effects.

먼저, 본 발명의 입체카메라 촬영위치 추적방법 및 그 시스템에 의하면 블루 스크린을 촬영하는 입체 카메라의 촬영위치 및 촬영각도를 추적하여 제공할 수 있으므로 제작자가 입체 영상 디스플레이를 통해 배경과 촬영대상의 깊이 및 각도에 따른 입체감을 확인하지 않고도 정확한 각도와 깊이의 배경을 촬영대상에 합성할 수 있으므로, 배경의 합성에 걸리는 시간을 매우 단축할 수 있고, 입체감이 매우 뛰어난 입체 블루 스크린 영상을 제공할 수 있는 효과가 있다.
According to the stereoscopic camera photographing position tracking method and system of the present invention, the photographing position and photographing angle of a stereoscopic camera for photographing a blue screen can be tracked and provided. Therefore, It is possible to synthesize the background of the accurate angle and depth to the object to be shot without checking the stereoscopic effect according to the angle, so that it is possible to provide a stereoscopic blue screen image that can greatly shorten the time required for synthesizing the background, .

도 1은 본 발명의 일 실시예에 따른 입체 카메라 촬영위치 추적 시스템을 보여주는 도면,
도 2는 본 발명의 일 실시예에 따른 입체 카메라 촬영위치 추적방법에서 기준 z축 거리를 계산하는 과정을 설명하기 위한 도면,
도 3은 본 발명의 일 실시예에 따른 입체 카메라 촬영위치 추적방법에서 각 마커의 깊이 값을 설명하기 위한 도면,
도 4는 본 발명의 일 실시예에 따른 입체 카메라 촬영위치 추적방법에서 각 마커의 z축 거리를 계산하는 과정을 설명하기 위한 도면,
도 5는 본 발명의 일 실시예에 따른 입체 카메라 촬영위치 추적방법에서 각 마커의 xyz좌표를 계산하는 과정을 설명하기 위한 도면,
도 6은 본 발명의 일 실시예에 따른 입체 카메라 촬영위치 추적방법에서 입체 카메라의 촬영위치 및 촬영각도의 계산과정을 설명하기 위한 도면이다.
1 is a view showing a stereoscopic camera photographing position tracking system according to an embodiment of the present invention;
2 is a diagram for explaining a process of calculating a reference z-axis distance in a stereoscopic camera photographing position tracking method according to an embodiment of the present invention;
3 is a view for explaining a depth value of each marker in the stereoscopic camera photographing position tracking method according to an embodiment of the present invention;
FIG. 4 is a diagram for explaining a process of calculating a z-axis distance of each marker in the stereoscopic camera photographing position tracking method according to an embodiment of the present invention;
5 is a view for explaining a process of calculating xyz coordinates of each marker in the stereoscopic camera photographing position tracking method according to an embodiment of the present invention;
FIG. 6 is a view for explaining a process of calculating a photographing position and a photographing angle of a stereoscopic camera in a stereoscopic camera photographing position tracking method according to an embodiment of the present invention.

본 발명에서 사용되는 용어는 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 특정한 경우는 출원인이 임의로 선정한 용어도 있는데 이 경우에는 단순한 용어의 명칭이 아닌 발명의 상세한 설명 부분에 기재되거나 사용된 의미를 고려하여 그 의미가 파악되어야 할 것이다.Although the terms used in the present invention have been selected as general terms that are widely used at present, there are some terms selected arbitrarily by the applicant in a specific case. In this case, the meaning described or used in the detailed description part of the invention The meaning must be grasped.

이하, 첨부한 도면에 도시된 바람직한 실시예들을 참조하여 본 발명의 기술적 구성을 상세하게 설명한다.Hereinafter, the technical structure of the present invention will be described in detail with reference to preferred embodiments shown in the accompanying drawings.

그러나, 본 발명은 여기서 설명되는 실시예에 한정되지 않고 다른 형태로 구체화 될 수도 있다. 명세서 전체에 걸쳐 동일한 참조번호는 동일한 구성요소를 나타낸다.
However, the present invention is not limited to the embodiments described herein but may be embodied in other forms. Like reference numerals designate like elements throughout the specification.

도 1은 본 발명의 일 실시예에 따른 입체 카메라 촬영위치 추적시스템을 보여주는 도면이다.1 is a view showing a stereoscopic camera photographing position tracking system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 입체 카메라 촬영위치 추적시스템은 블루 스크린(300), 입체 카메라(100) 및 영상 처리장치(200)를 포함하여 이루어지고, 본 발명의 입체 카메라 촬영위치 추적방법을 수행한다.Referring to FIG. 1, the stereoscopic camera photographing position tracking system of the present invention includes a blue screen 300, a stereoscopic camera 100, and an image processing apparatus 200, .

상기 블루 스크린(300)은 배경에 컴퓨터 그래픽 처리를 위한 배경 세트로서, 촬영대상이 위치하게 되고, 상기 입체 카메라(100)에 의해 촬영된다.The blue screen 300 is a background set for computer graphics processing in the background, in which a subject to be photographed is located and photographed by the stereoscopic camera 100.

또한, 상기 블루 스크린(300)에는 바닥면에 서로 이격되어 표시되는 적어도 세 개의 마커(m1, m2, m3)가 표시되고, 상기 마커들(m1, m2, m3)이 놓이는 평면은 바닥면으로 규정된다.At least three markers m1, m2, and m3 are displayed on the bottom surface of the blue screen 300. The markers m1, m2, and m3 are positioned on the bottom surface do.

그러나 상기 마커들(m1, m2, m3)은 세 개를 초과하는 복수 개의 마커들로 표시될 수 있다.However, the markers m1, m2, and m3 may be represented by a plurality of markers exceeding three.

또한, 상기 마커들(m1, m2, m3)은 아래에서 설명할 좌표계산의 편의를 위해 서로 직각 삼각형을 이루도록 표시될 수 있다.In addition, the markers m1, m2, and m3 may be displayed so as to form a right triangle with respect to each other for ease of coordinate calculation described below.

또한, 상기 입체 카메라(100)는 사람이 좌안으로 보게 될 좌안영상을 획득하는 좌안 영상 카메라(110), 상기 좌안 영상 카메라(110)와 일정한 각도 및 일정한 거리 이격되며 사람의 우안으로 보게 될 우안영상을 획득하는 우안 영상 카메라(120) 및 상기 좌안 영상 카메라(110)와 상기 우안 영상 카메라(120)를 지지하는 카메라 리그(130)를 포함한다.In addition, the stereoscopic camera 100 includes a left eye image camera 110 for acquiring a left eye image to be viewed by a person as a left eye, a left eye image camera 110 which is spaced apart from the left eye image camera 110 by a predetermined angle and a predetermined distance, And a camera rig 130 for supporting the left and right eye images 110 and 120. The left eye image camera 110 and the right eye image camera 120 are connected to each other.

또한, 상기 카메라 리그(130)에는 상기 좌안 영상 카메라(110)와 상기 우안 영상 카메라(120)가 서로 이격된 거리(IOD:intraocular distance) 및 주시각(convergence)을 측정하기 위한 센서들이 구비된다.In addition, the camera rig 130 is provided with sensors for measuring an intraocular distance (IOD) and a convergence distance between the left eye image camera 110 and the right eye image camera 120.

또한, 본 발명에서는 상기 카메라 리그(130)를 상기 좌안 영상 카메라(110)와 상기 우안 영상 카메라(120)을 수평방향으로 지지하는 수평방식의 입체 카메라 리그로 도시하였으나 상기 좌안 영상 카메라(110)와 상기 우안 영상 카메라(120)의 광축이 수직이 되도록 거치하고, 광축 교차점에 하프미러를 구비하는 직교방식의 입체 카메라 리그일 수 있다.In the present invention, the camera rig 130 is shown as a horizontal stereoscopic camera rig supporting the left-eye image camera 110 and the right-eye image camera 120 in the horizontal direction, The stereoscopic camera rig may be an orthogonal stereoscopic camera rig having the optical axis of the right eye image camera 120 vertically mounted and having a half mirror at an optical axis intersection point.

상기 영상 처리장치(200)는 상기 카메라 리그(130)와 연결되고 상기 좌안 영상 카메라(110)와 상기 우안 영상 카메라(120)가 이격된 거리(IOD:intraocular distance) 및 상기 좌안 영상 카메라(110)와 상기 우안 영상 카메라(120)가 바라보는 주시각(convergence)을 입력받는다.The image processing apparatus 200 is connected to the camera rig 130 and includes an intraocular distance (IOD) between the left eye image camera 110 and the right eye image camera 120, And the convergence viewed by the right-eye image camera 120.

또한, 상기 영상 처리장치(200)는 상기 좌안 영상 카메라(110)와 상기 우안 영상 카메라(120)가 이격된 거리 및 주시각, 상기 좌안영상 및 상기 우안영상 내의 마커 위치로부터, 역으로 상기 입체 카메라(100)가 상기 블루 스크린(300)을 촬영하는 촬영위치 및 촬영각도를 획득하고, 획득된 촬영위치 및 촬영각도를 갱신함으로써 상기 입체카메라(100)의 촬영위치 및 촬영각도를 추적한다.In addition, the image processing apparatus 200 reversely detects the distance between the left eye image camera 110 and the right eye image camera 120 and the marker position in the main eye, the left eye image, and the right eye image, The photographing position and photographing angle of the stereoscopic camera 100 are tracked by obtaining the photographing position and photographing angle at which the photographing apparatus 100 photographs the blue screen 300 and updating the obtained photographing position and photographing angle.

또한, 상기 영상 처리장치(200)는 상기 카메라 리그(130)와 유무선으로 연결되는 컴퓨터 장치일 수도 있고, 상기 카메라 리그(130)에 임베디드(embeded)되어 내장되는 임베디드 프로세서일 수도 있다.
Also, the image processing apparatus 200 may be a computer device connected to the camera rig 130 by wire or wireless connection, or may be an embedded processor embedded in the camera rig 130 to be embedded therein.

이하에서는 본 발명의 일 실시예에 따른 입체카메라 촬영위치 추적방법에 대해 상세히 설명하기로 한다.Hereinafter, a stereoscopic camera photographing position tracking method according to an embodiment of the present invention will be described in detail.

본 발명의 일 실시예에 따른 입체카메라 촬영위치 추적방법은 먼저, 바닥면에 적어도 세 개의 마커(m1, m2, m3)가 표시된 블루 스크린(300)을 준비하고, 임의의 위치에 상기 입체카메라(100)를 위치시킨다.The stereoscopic camera photographing position tracking method according to an embodiment of the present invention includes preparing a blue screen 300 having at least three markers m1, m2, and m3 on a bottom surface thereof, 100).

다음, 상기 영상처리장치(200)가 상기 입체카메라(100)로부터 상기 좌안 영상 카메라(110) 및 상기 우안 영상 카메라(120)가 서로 이격된 거리인 카메라거리(IOD)와 상기 좌안 영상 카메라(110) 및 상기 우안 영상 카메라(120)가 바라보는 각도인 주시각(CON)을 입력받는다.Next, the image processing apparatus 200 calculates a distance (IOD) between the stereoscopic camera 100 and the left eye image camera 110 and the right eye image camera 120, ) And a main time (CON), which is an angle viewed by the right eye image camera (120).

여기서 상기 카메라거리(IOD) 및 상기 주시각(CON)은 상기 카메라 리그(130)가 측정하는 값으로서, 상기 카메라 리그(130)는 상기 좌안 영상 카메라(110)와 상기 우안 영상 카메라(120)가 상기 카메라 리그(130) 상에서 이동하는 수평이동거리, 평면상에서 회전하는 회전각도 및 카메라의 초점거리를 이용하여 상기 카메라거리 및 상기 주시각을 측정한다.Herein, the camera distance (IOD) and the main time (CON) are values measured by the camera rig 130, and the camera league 130 is a distance between the left eye image camera 110 and the right eye image camera 120 The camera distance and the main time are measured using a horizontal movement distance moving on the camera rig 130, a rotation angle rotating on a plane, and a focal distance of the camera.

다음, 도 2를 참조하면, 상기 영상처리장치(200)는 상기 카메라거리 및 상기 주시각으로부터 상기 좌안 영상 카메라(110)와 상기 우안 영상 카메라(120) 사이의 중심인 카메라 중심(c1)과 상기 좌안 영상 카메라(110)와 상기 우안 영상 카메라(120)의 광축 교차점(c2)까지의 거리인 기준 z축 거리(z)를 계산한다.Referring to FIG. 2, the image processing apparatus 200 calculates a distance between the camera center c1, which is the center between the left eye image camera 110 and the right eye image camera 120, from the camera distance and the main time, The reference z-axis distance z, which is the distance from the left eye image camera 110 to the optical axis intersection c2 of the right eye image camera 120, is calculated.

여기서 상기 영상처리장치(200)는 상기 주시각의 절반인 직각 삼각형의 끼인각과 상기 카메라 거리의 절반인 직각 삼각형의 높이를 알 수 있으므로 삼각함수를 이용하여 상기 기준 z축 거리(z)를 계산할 수 있다.Here, the image processing apparatus 200 can calculate the reference z-axis distance z using a trigonometric function because the image processing apparatus 200 can know the included angle of the right triangle, which is half of the main time, and the height of the right triangle, have.

즉, 상기 기준 z축 거리(z)는 상기 카메라 리그(130)에서 측정되는 카메라들(110,120)의 위치정보 및 회전정보로부터 계산된다.That is, the reference z-axis distance z is calculated from the position information and rotation information of the cameras 110 and 120 measured by the camera rig 130.

다음, 상기 입체카메라(100)가 상기 마커들(m1, m2, m3)을 촬영하고, 촬영된 좌안영상(111)과 우안영상(121)을 상기 영상처리장치(200)로 전송한다.Next, the stereoscopic camera 100 photographs the markers m1, m2, and m3, and transmits the captured left and right eye images 111 and 121 to the image processing apparatus 200. [

또한, 상기 좌안영상(111)과 상기 우안영상(121)은 사람이 좌안으로는 좌안영상을 보고 우안으로는 우안영상을 보았을 때, 일정한 양안시차(binicular disparity)가 발생하여 입체감을 느낄 수 있는 영상이다.The left eye image 111 and the right eye image 121 may have a binocular disparity when a person views the left eye image in the left eye and the right eye image in the right eye, to be.

다음, 상기 영상처리장치(200)가 상기 좌안영상(111) 및 상기 우안영상(121)으로 부터 상기 각 마커(m1, m2, m3)의 깊이 값을 구한다.Next, the image processing apparatus 200 obtains the depth values of the respective markers m1, m2, and m3 from the left eye image 111 and the right eye image 121, respectively.

또한, 상기 각 마커(m1, m2, m3)의 깊이 값은 상기 좌안영상(111) 및 상기 우안영상(121)의 픽셀값 차이로부터 얻어지는 깊이영상으로부터 계산될 수 있다.The depth values of the respective markers m1, m2, and m3 may be calculated from the depth images obtained from the difference between the pixel values of the left eye image 111 and the right eye image 121. [

또한, 도 3은 상기 깊이 영상(140)을 보여주는 것으로 상기 깊이 영상(140)의 각 픽셀은 깊이에 따라 서로 다른 밝기로 표시되며, 각 픽셀은 밝기에 따른 깊이 값을 갖는다.3 shows the depth image 140, wherein each pixel of the depth image 140 is displayed with different brightness depending on the depth, and each pixel has a depth value according to brightness.

즉, 상기 영상처리장치(200)는 상기 기준 z축 거리(z)에서 상기 각 마커(m1, m2, m3)의 깊이값을 더하거나 감하여 상기 각 마커(m1, m2, m3)와 상기 카메라 중심(c1)과의 거리인 마커 z축 거리(z1, z2, z3)를 계산할 수 있다.That is, the image processing apparatus 200 adds or subtracts the depth values of the respective markers m1, m2, and m3 at the reference z-axis distance z to determine whether the markers m1, m2, (z1, z2, z3), which is the distance between the marker axis z1 and the marker axis z1, c1.

다음, 상기 영상처리장치(200)가 상기 좌안 영상 카메라(110) 및 상기 우안 영상 카메라(120)의 화각정보(aov:angle of view)를 이용하여 상기 각 마커(m1, m2, m3)가 기준 z축으로부터 x축 및 y축 방향으로 이격된 각도인 마커각도를 계산한다.Next, the image processing apparatus 200 uses the angle of view (aov) of the left eye image camera 110 and the right eye image camera 120 so that each of the markers m1, m2, and calculates a marker angle that is an angle separated from the z-axis in the x-axis and y-axis directions.

또한, 상기 화각정보는 카메라가 촬영할 수 있는 각도로써 수평화각과 수직화각을 포함하는 정보이다.The angle of view information is an angle that the camera can take, and includes information including a horizontal angle of view and a vertical angle of view.

예를 들어, 영상의 가로 픽셀수가 '10'이고 수평화각이 '30°'일 경우 한 픽셀의 각도는 '3°'로 계산되고, 영상의 중심에서 마커가 수평방향으로 2픽셀 떨어져있고, 수직방향으로 1픽셀 떨어져 있다면, 마커는 '6°'의 x축 마커각도와 '3°'도의 y축 마커각도를 갖는 것으로 계산될 수 있다.For example, if the number of horizontal pixels of the image is '10' and the horizontal angle of view is '30 °', the angle of one pixel is calculated as '3 °', the marker is 2 pixels away from the center of the image, Direction, the marker can be calculated to have an x-axis marker angle of '6 °' and a y-axis marker angle of '3 °'.

도 4를 참조하면, 상기 마커들(m1, m2, m3) 중, 제1 마커(m1)는 상기 제1 마커(m1)가 영상의 중심(c3)에서 x방향으로 이격된 거리(xm1)만큼의 각도인 x축 마커각도(aovx)를 갖고, 영상의 중심에서 (c3)에서 y축 방향으로 이격된 거리(ym1)만큼의 각도인 y축 마커각도(aovy)를 갖는 것으로 계산된다.4, the first marker m1 of the markers m1, m2, and m3 is a distance (x m1 ) in which the first marker m1 is spaced apart from the center c3 of the image in the x direction, Axis marker angle (aov x ), which is an angle of the y-axis marker angle (aov x ), which is an angle that is an angle of the distance (y m1 ) away from the center of the image at (c 3) do.

다음, 상기 영상처리장치(200)가 상기 마커 z축 거리(z1, z2, z3)와 상기 마커각도를 이용하여 상기 카메라 중심(c1)을 원점으로하는 상기 각 마커(m1, m2, m3)의 xyz좌표를 계산한다.Next, the image processing apparatus 200 uses the marker z-axis distance (z1, z2, z3) and the marker angle to determine the position of each of the markers (m1, m2, m3) Calculate the xyz coordinates.

도 5를 참조하여 상기 제1 마커(m1)를 예로 들면, 상기 제1 마커(m1)의 마커 z축거리(z1)와 수직방향 마커각도(aovy)를 삼각함수 공식에 대입하면, 상기 제1 마커(m1)의 y축 좌표를 계산할 수 있고, x축 좌표는 상기 제1 마커(m1)의 마커 z축거리(z1) 및 수평방향 마커각도(aovx)를 이용하여 계산할 수 있다.5, if the marker z-axis distance z1 and the vertical marker angle aov y of the first marker m1 are substituted into the trigonometric function formula using the first marker m1 as an example, Axis coordinate of the first marker m1 and the x-axis coordinate can be calculated using the marker z-axis distance z1 and the horizontal marker angle aov x of the first marker m1.

다음, 상기 제1 마커(m1)의 x축 좌표 및 y축 좌표로부터 피타고라스의 정리(Pythagorean theorem)를 이용하여 상기 기준 y축 까지의 거리를 구하고, 구해진 기준 y축 까지의 거리와 마커 z축거리(z1)를 피타고라스의 정리에 대입하여, z축 좌표를 계산한다.Next, the distance to the reference y-axis is calculated using the Pythagorean theorem from the x-axis coordinate and the y-axis coordinate of the first marker m1, and the distance to the obtained reference y- (z1) into the Pythagorean theorem and calculate the z-axis coordinates.

따라서, 모든 마커들(m1, m2, m3)에 대해 상기 카메라 중심(c1)을 원점으로하는 xyz좌표를 계산할 수 있다.Therefore, the xyz coordinates having the camera center c1 as the origin can be calculated for all of the markers m1, m2, and m3.

다음, 상기 마커들(m1, m2, m3)이 이루는 삼각형 평면상의 중심인 마커중심의 좌표를 계산하고, 상기 마커중심을 원점으로 좌표변환하여 상기 카메라 중심(c1)의 xyz좌표를 계산하며, 변환된 카메라 중심(c1)의 xyz좌표를 상기 입체카메라(100)의 초기촬영위치로 획득한다.Next, the coordinates of the center of the marker, which is the center on the triangle plane formed by the markers (m1, m2, m3), are calculated, the xyz coordinates of the camera center c1 are calculated by transforming the center of the marker to the origin, Xyz coordinates of the camera center c1 are acquired as an initial photographing position of the stereoscopic camera 100. [

다음, 촬영을 위해 상기 입체카메라(100)가 이동하면, 이동 방향 및 거리를 상기 초기촬영위치에 더하여 상기 입체카메라(100)의 좌표를 갱신함으로써 상기 입체 카메라의 촬영위치를 추적한다.Next, when the stereoscopic camera 100 moves for photographing, the photographing position of the stereoscopic camera is tracked by updating the coordinates of the stereoscopic camera 100 by adding the moving direction and the distance to the initial photographing position.

여기서 상기 입체카메라(100)의 이동 방향 및 거리는 상기 입체카메라(100)에서 획득되는 영상 내에서 변화하는 마커의 변위로부터 계산될 수 있다.Here, the moving direction and the distance of the stereoscopic camera 100 can be calculated from the displacements of the changing markers in the image obtained by the stereoscopic camera 100. [

여기서 마커의 변위는 종래의 영상 추적 기법(image tracking technic)을 이용할 수 있다.Here, the displacement of the marker can use a conventional image tracking technique.

또한, 본 발명의 일 실시예에 따른 입체 카메라 촬영위치 추적방법은 상기 입체카메라(100)의 촬영각도를 더 추적할 수 있는데, 도 6을 참조하면, 상기 마커중심의 좌표를 계산하는 단계 이후에, 먼저, 상기 영상처리장치(200)가 상기 기준 z축 상의 임의의 점(0,0,z)을 상기 마커중심을 원점으로 하여 좌표변환하고, 다음, 좌표변환된 임의의 점의 좌표(c2'), 상기 마커중심인 원점(cm) 및 상기 입체카메라(100)의 초기촬영위치 좌표(c1')가 이루는 사잇각(a)을 삼각함수 공식으로 계산하여 계산된 사잇각(a)을 상기 입체카메라(100)의 초기촬영각도로 획득한다.In addition, the stereoscopic camera photographing position tracking method according to an embodiment of the present invention can further track the photographing angle of the stereoscopic camera 100. Referring to FIG. 6, after the step of calculating coordinates of the marker center , First, the image processing apparatus 200 performs coordinate conversion with respect to an arbitrary point (0, 0, z) on the reference z-axis with the marker center as an origin, and then coordinates (c2 (A) between an origin (c m ) at the center of the marker and an initial photographing position coordinate (c 1 ') of the stereoscopic camera 100 is calculated by a trigonometric function formula to calculate an angle (a) As an initial photographing angle of the camera 100.

다음, 상기 입체카메라(100)이동시 상기 입체 카메라(100)의 회전각도를 상기 초기촬영각도에 더하여 상기 초기촬영각도를 갱신함으로써 상기 입체카메라(100)의 촬영각도를 추적한다.Next, when the stereoscopic camera 100 is moved, the angle of rotation of the stereoscopic camera 100 is updated by adding the rotation angle of the stereoscopic camera 100 to the initial angle, thereby tracking the angle of the stereoscopic camera 100.

또한, 상기 입체 카메라(100)의 회전각도 역시 상기 입체카메라(100)에서 획득되는 영상 내에서 마커 이미지의 변위로부터 계산될 수 있다.The rotation angle of the stereoscopic camera 100 may also be calculated from the displacement of the marker image in the image acquired by the stereoscopic camera 100. [

또한, 상기 마커의 변위는 종래의 영상 추적 기법(image tracking technic)을 이용할 수 있다.
In addition, the displacement of the marker can use a conventional image tracking technique.

이상에서 살펴본 바와 같이 본 발명은 바람직한 실시예를 들어 도시하고 설명하였으나, 상기한 실시예에 한정되지 아니하며 본 발명의 정신을 벗어나지 않는 범위 내에서 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변경과 수정이 가능할 것이다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be taken by way of limitation in the present invention. Various changes and modifications will be possible.

100:입체카메라 110:좌안영상 카메라
111:좌안영상 120:우안영상 카메라
121:우안영상 130:카메라리그
140:깊이영상 200:영상처리장치
300:블루스크린
100: stereoscopic camera 110: left eye image camera
111: Left eye image 120: Right eye image camera
121: Right eye image 130: Camera league
140: depth image 200: image processing device
300: blue screen

Claims (4)

좌안 영상 카메라 및 우안 영상 카메라를 포함하는 입체카메라와 상기 입체카메라에서 획득된 영상을 처리하는 영상 처리장치를 포함하는 입체영상 촬영시스템에서 상기 입체카메라의 촬영위치를 검출하여 추적하는 입체카메라 촬영위치 추적방법으로서,
컴퓨터 그래픽(CG:Computer Graphics) 처리를 위한 배경 세트인 블루스크린(blue screen)의 바닥면에 적어도 서로 이격된 세 개의 마커를 표시하는 단계;
상기 입체카메라를 임의의 위치에 위치시키는 단계;
상기 영상처리장치가 상기 입체카메라로부터 상기 좌안 영상 카메라와 상기 우안 영상 카메라 간의 거리인 카메라거리(IOD:intraocular distance)와 상기 좌안 영상 카메라와 상기 우안 영상 카메라의 주시각(convergence)을 입력받는 단계;
상기 영상처리장치가 상기 카메라거리 및 상기 주시각으로부터 상기 좌안 영상 카메라와 상기 우안 영상 카메라 사이의 중심인 카메라 중심과 상기 좌안 영상 카메라와 상기 우안 영상 카메라의 광축 교차점까지의 거리인 기준 z축 거리를 계산하는 단계;
상기 입체카메라가 상기 마커들을 촬영하고, 상기 영상처리장치로 촬영된 좌안 영상 및 우안 영상을 전송하는 단계;
상기 영상처리장치가 상기 좌안 영상 및 상기 우안 영상으로부터 각 마커의 깊이 값을 구하고, 상기 기준 z축 거리에 구한 깊이 값을 더하거나 감하여 상기 각 마커의 상기 카메라 중심과의 거리인 마커 z축 거리를 계산하는 단계;
상기 영상처리장치가 상기 좌안 영상 카메라 및 상기 우안 영상 카메라의 화각정보(angle of view)를 이용하여 상기 각 마커가 기준 z축으로부터 x축 및 y축 방향으로 이격된 각도인 마커각도를 계산하는 단계;
상기 영상처리장치가 상기 마커 z축 거리 및 상기 마커각도로부터 상기 카메라 중심을 중심으로 한 상기 각 마커의 xyz좌표를 계산하는 단계;
상기 영상처리장치가 상기 각 마커의 xyz좌표로부터 상기 마커들이 이루는 평면의 중심인 마커중심의 xyz좌표를 계산하는 단계;
상기 영상처리장치가 상기 마커중심을 원점으로 좌표변환하여 상기 카메라 중심의 xyz좌표를 계산하고, 계산된 카메라 중심의 좌표를 초기촬영위치로 획득하는 단계; 및
촬영을 위해 상기 입체 카메라 이동시 상기 영상처리장치가 상기 입체 카메라의 이동 방향 및 거리를 상기 초기촬영위치에 더하여 상기 입체 카메라의 좌표를 갱신함으로써, 상기 입체 카메라의 촬영위치를 추적하는 단계를 포함하는 것을 특징으로 하는 입체카메라 촬영위치 추적방법.
A three-dimensional camera including a left-eye image camera and a right-eye camera, and an image processing device for processing the image obtained from the three-dimensional camera, As a method,
Displaying at least three spaced apart markers on a bottom surface of a blue screen as a background set for computer graphics processing;
Positioning the stereoscopic camera at an arbitrary position;
The image processing apparatus receiving a camera distance (IOD), which is a distance between the left eye image camera and the right eye image camera, from the stereoscopic camera, and a convergence of the left eye image camera and the right eye image camera;
Wherein the image processing apparatus calculates a reference z-axis distance, which is a distance from a center of the camera, which is the center between the left eye image camera and the right eye image camera, to an optical axis intersection point of the left eye image camera and the right eye image camera, Calculating;
Capturing the markers by the stereoscopic camera, and transmitting the left eye image and the right eye image photographed by the image processing apparatus;
The image processing apparatus calculates a depth value of each marker from the left eye image and the right eye image and adds or subtracts the depth value obtained from the reference z axis distance to calculate a marker z axis distance which is a distance between the center of the respective markers ;
Wherein the image processing apparatus calculates a marker angle, which is an angle that the respective markers are spaced apart from the reference z-axis in the x-axis and y-axis directions using the angle of view of the left eye image camera and the right eye image camera ;
Calculating xyz coordinates of each marker centered on the camera center from the marker z-axis distance and the marker angle;
Calculating xyz coordinates of the center of the marker, which is the center of the plane formed by the markers, from the xyz coordinates of the respective markers;
Calculating a xyz coordinate of the center of the camera by converting the center of the marker to an origin by the image processing apparatus and acquiring the coordinates of the center of the camera as an initial photographing position; And
And a step of tracking the photographing position of the stereoscopic camera by updating coordinates of the stereoscopic camera by adding the moving direction and distance of the stereoscopic camera to the initial photographing position when the stereoscopic camera is moved for photographing A method for tracking a three-dimensional camera photographing position.
제 1 항에 있어서,
상기 마커중심의 xyz좌표를 계산하는 단계 이후에,
상기 영상처리장치가 상기 기준 z축 상의 임의의 점을 상기 마커중심을 원점으로 좌표변환하여 좌표값을 계산하는 단계; 및
상기 마커중심인 원점, 상기 초기촬영위치의 카메라 좌표 및 좌표변환된 상기 임의의 점의 좌표가 이루는 사잇각을 계산하고, 상기 사잇각을 상기 입체 카메라의 초기촬영각도로 획득하는 단계;를 더 포함하고,
상기 입체 카메라의 촬영위치를 추적하는 단계에서,
상기 입체 카메라 이동시 상기 입체 카메라의 회전각도를 상기 입체 카메라의 초기촬영각도에 더하여 상기 초기촬영각도를 갱신함으로써, 상기 입체 카메라의 촬영각도를 추적하는 것을 특징으로 하는 입체카메라 촬영위치 추적방법.
The method according to claim 1,
After calculating the xyz coordinates of the marker center,
Calculating coordinate values by performing coordinate transformation of an arbitrary point on the reference z-axis to the origin of the marker by the image processing apparatus; And
Calculating an angle formed by the origin of the marker, the camera coordinates of the initial photographing position, and the coordinates of the arbitrary point coordinate-converted, and obtaining the angle as an initial photographing angle of the stereoscopic camera,
In the step of tracking the photographing position of the stereoscopic camera,
Wherein the photographing angle of the stereoscopic camera is tracked by updating the initial photographing angle by adding the rotation angle of the stereoscopic camera to the initial photographing angle of the stereoscopic camera when the stereoscopic camera is moved.
바닥면에 적어도 세 개의 마커가 표시된 블루 스크린;
좌안 영상 카메라 및 우안 영상 카메라를 포함하고, 상기 블루 스크린을 촬영하는 입체카메라; 및
상기 입체카메라와 연결되고, 상기 입체카메라의 카메라거리(IOD:intraocular distance), 주시각(convergence) 및 영상을 입력받아 제 1 항 또는 제 2 항의 입체카메라 촬영위치 추적방법을 수행하는 영상 처리장치;를 포함하는 것을 특징으로 하는 입체카메라 촬영위치 추적시스템.
A blue screen having at least three markers on its bottom surface;
A stereoscopic camera which includes a left eye image camera and a right eye image camera and photographs the blue screen; And
An image processing apparatus connected to the stereoscopic camera and receiving the intraocular distance (IOD), main convergence and image of the stereoscopic camera and performing a stereoscopic camera photographing position tracking method according to claim 1 or 2; Wherein the camera position tracking system comprises:
삭제delete
KR1020130051077A 2013-05-07 2013-05-07 Method and system tracking position of stereo camera KR101421442B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130051077A KR101421442B1 (en) 2013-05-07 2013-05-07 Method and system tracking position of stereo camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130051077A KR101421442B1 (en) 2013-05-07 2013-05-07 Method and system tracking position of stereo camera

Publications (1)

Publication Number Publication Date
KR101421442B1 true KR101421442B1 (en) 2014-08-13

Family

ID=51748789

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130051077A KR101421442B1 (en) 2013-05-07 2013-05-07 Method and system tracking position of stereo camera

Country Status (1)

Country Link
KR (1) KR101421442B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101765784B1 (en) 2016-07-04 2017-08-08 주식회사 그래픽코드 Virtual Camera Tracking System
CN107742310A (en) * 2017-09-18 2018-02-27 广东美晨通讯有限公司 A kind of method of testing, test device and the storage device of the angle of dual camera

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10304244A (en) * 1997-05-01 1998-11-13 Sony Corp Image processing unit and its method
JPH1137756A (en) * 1997-07-23 1999-02-12 Nec Corp Camera calibration device
JP2010117152A (en) * 2008-11-11 2010-05-27 Nippon Hoso Kyokai <Nhk> Position calculation device of photographing camera
KR20120112917A (en) * 2011-04-04 2012-10-12 한국과학기술원 Apparatus, system and method for location detection

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10304244A (en) * 1997-05-01 1998-11-13 Sony Corp Image processing unit and its method
JPH1137756A (en) * 1997-07-23 1999-02-12 Nec Corp Camera calibration device
JP2010117152A (en) * 2008-11-11 2010-05-27 Nippon Hoso Kyokai <Nhk> Position calculation device of photographing camera
KR20120112917A (en) * 2011-04-04 2012-10-12 한국과학기술원 Apparatus, system and method for location detection

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101765784B1 (en) 2016-07-04 2017-08-08 주식회사 그래픽코드 Virtual Camera Tracking System
CN107742310A (en) * 2017-09-18 2018-02-27 广东美晨通讯有限公司 A kind of method of testing, test device and the storage device of the angle of dual camera
CN107742310B (en) * 2017-09-18 2021-06-04 广东美晨通讯有限公司 Method and device for testing included angle of double cameras and storage device

Similar Documents

Publication Publication Date Title
CN108961395B (en) A method of three dimensional spatial scene is rebuild based on taking pictures
JP6974873B2 (en) Devices and methods for retrieving depth information from the scene
CN103345114A (en) Mobile stereo imaging system
JP6732617B2 (en) Information processing apparatus and image generation method
WO2017183470A1 (en) Three-dimensional reconstruction method
CN101729920B (en) Method for displaying stereoscopic video with free visual angles
JP2010250452A (en) Arbitrary viewpoint image synthesizing device
JPWO2012039043A1 (en) Stereo image generation apparatus, stereo image generation method, and computer program for stereo image generation
WO2018032841A1 (en) Method, device and system for drawing three-dimensional image
US11212510B1 (en) Multi-camera 3D content creation
CN107864372B (en) Stereo photographing method and device and terminal
KR101574636B1 (en) Change region detecting system using time-series aerial photograph captured by frame type digital aerial camera and stereoscopic vision modeling the aerial photograph with coordinate linkage
KR101421442B1 (en) Method and system tracking position of stereo camera
US8908012B2 (en) Electronic device and method for creating three-dimensional image
CN113870213A (en) Image display method, image display device, storage medium, and electronic apparatus
JP2016531470A (en) TV multi-angle method for acquisition, transmission and reception of stereo information about viewing location, and its automatic measurement of eye-point system
CN106604016A (en) Stereoscopic video capture system
CN104463958B (en) Three-dimensional super-resolution rate method based on disparity map fusion
KR101456650B1 (en) Method of alignig optical axis for stereo camera and the camera
CN106257924B (en) Multi-visual angle filming device and multi-visual angle filming method
JP2011205385A (en) Three-dimensional video control device, and three-dimensional video control method
WO2017057426A1 (en) Projection device, content determination device, projection method, and program
KR20240114578A (en) technique edit and location camera
CN109429057A (en) Synchronous 3D panoramic video playing system
Aliakbarpour et al. Inertial-visual fusion for camera network calibration

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180716

Year of fee payment: 5