JP2002159019A - Display control device, imaging position estimating device, display system, image pickup system, image positioning method, imaging position estimating method, and recording medium recorded with process program - Google Patents

Display control device, imaging position estimating device, display system, image pickup system, image positioning method, imaging position estimating method, and recording medium recorded with process program

Info

Publication number
JP2002159019A
JP2002159019A JP2000350157A JP2000350157A JP2002159019A JP 2002159019 A JP2002159019 A JP 2002159019A JP 2000350157 A JP2000350157 A JP 2000350157A JP 2000350157 A JP2000350157 A JP 2000350157A JP 2002159019 A JP2002159019 A JP 2002159019A
Authority
JP
Japan
Prior art keywords
image
photographing
marker
real
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000350157A
Other languages
Japanese (ja)
Inventor
Tomohiko Shimoyama
朋彦 下山
Kenji Morita
憲司 守田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2000350157A priority Critical patent/JP2002159019A/en
Publication of JP2002159019A publication Critical patent/JP2002159019A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Circuits (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display control device and the like capable of appropriately superposing a real video with a CG image for more natural stereoscopic view. SOLUTION: An image positioning method is provided where, when a real video acquired by an imaging means for imaging an object is composited with a virtual image generated by modeling for displaying on a display part, the virtual image is positioned by referencing a marker imaged into the real video. Here, to composite, for displaying, the virtual image with each of the two real videos acquired by two imaging means which image the same object, only the marker imaged into both real videos is used to position the virtual image.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】VR(Virtul Rea
lity),MR(Mixed Reality)技術
を用いたゲーム、各種画像表示などに使用する表示制御
装置等に関する。
BACKGROUND OF THE INVENTION VR (Virtual Rea)
The present invention relates to a display control device and the like used for a game, various image displays, and the like using the MR (Mixed Reality) and MR (Mixed Reality) techniques.

【0002】[0002]

【従来の技術】近年、操作者の右眼及び左眼に対応させ
た2つのLCDを有するHMD(Head Mount
Display)と、小型ビデオカメラとを組み合わ
せ、実写映像とCG(Computer Graphi
cs)画像を合成してHMDに表示するMR技術が注目
されている。このMR技術を使用することで、あたかも
現実世界の中にCGによる仮想の物体が現れたかのよう
に見せることができる。
2. Description of the Related Art In recent years, an HMD (Head Mount) having two LCDs corresponding to an operator's right eye and left eye has been developed.
Display) and a small video camera, combining live-action video and CG (Computer Graphi).
cs) MR technology for synthesizing an image and displaying it on an HMD has attracted attention. By using this MR technology, it is possible to make it appear as if a virtual object by CG appears in the real world.

【0003】このMR技術を実現するためには、実写映
像とCG映像の重ね合わせを一致させる必要がある。そ
こで、従来では、HMDに取り付けた左眼用及び右眼用
の2台のビデオカメラからそれぞれ取り込んだ同一場面
のビデオ映像(つまり実写映像)上にCG画像を上書き
するに際し、左眼用と右眼用の実写映像のそれぞれにつ
いて独立して、実写映像に撮影されたマーカー(目印)
を基にCG画像の表示位置を微調整することで、実写映
像とCG画像の位置合わせを行っている。
In order to realize this MR technique, it is necessary to match the superimposition of the actual image and the CG image. Therefore, conventionally, when a CG image is overwritten on a video image of the same scene (that is, a real image) captured from two video cameras for the left eye and the right eye attached to the HMD, the left eye and the right eye are overwritten. Markers (marks) taken on the live-action video independently for each live-action video for the eye
By finely adjusting the display position of the CG image based on the above, the position of the actual captured video and the CG image are aligned.

【0004】この位置合わせ方法について右眼側を例と
して具体的に説明すると、図11に示すように、ビデオ
カメラから取り込んだ実写映像(図11の500)の2
値化処理を行って実写映像からマーカー450〜453
を探す(510)。一方、マーカーの3次元座標(既
知)について、モデリング変換行列及び射影変換行列を
用いて変換処理を行い、マーカーが画面上で表示される
予想位置を求める(610)。
[0004] This alignment method will be specifically described with reference to the right eye side as an example. As shown in FIG. 11, 2 of real shot images (500 in FIG. 11) captured from a video camera is used.
After performing the binarization process, the markers 450 to 453 are obtained from the actual image.
(510). On the other hand, conversion processing is performed on the three-dimensional coordinates (known) of the marker using the modeling conversion matrix and the projective conversion matrix, and an expected position at which the marker is displayed on the screen is obtained (610).

【0005】そして、実写映像上のマーカー450〜4
53の位置とマーカーの表示予想位置とを比較し、その
差分によりマーカーの表示予想位置の補正を行う(62
0)。これによって、CG画像454,455の表示位
置を微調整することができる(630)。
[0005] Then, markers 450 to 4 on the actual photographed image are displayed.
The position 53 is compared with the predicted marker display position, and the marker display predicted position is corrected based on the difference (62).
0). As a result, the display positions of the CG images 454 and 455 can be finely adjusted (630).

【0006】[0006]

【発明が解決しようとする課題】しかしながら、上記従
来の位置合わせ方法では、左眼用と右眼用の実写映像に
おいて異なったマーカーに合わせて位置合わせを行うこ
とがあり、この場合には、左右の映像で位置合わせの補
正量や方向が異なるものになる。つまり、左右の映像の
相対位置関係が変わり、その結果、不自然な立体映像を
生成してしまうことがあった。
However, in the above-described conventional alignment method, alignment may be performed in accordance with different markers in the left-eye and right-eye real shot images. The amount of correction and the direction of the alignment are different in the video. That is, the relative positional relationship between the left and right images changes, and as a result, an unnatural three-dimensional image may be generated.

【0007】本発明は上記従来の問題点に鑑み、実写映
像とCG画像の重ね合わせを的確に行うことができ、よ
り自然な立体視を実現可能な表示制御装置等を提供する
ことを目的とする。
The present invention has been made in view of the above-mentioned conventional problems, and has as its object to provide a display control device and the like which can accurately superimpose a real image and a CG image and can realize more natural stereoscopic vision. I do.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
に、本願における請求項1に記載の発明によれば、互い
に異なる第1の画像と第2の画像を入力する画像入力手
段と、入力された前記第1の画像と前記第2の画像とを
画像合成する手段であって、前記第1の画像に前記第2
の画像を合成する際、前記第1の画像中より検出した所
定のマーカーに基づいて第2の画像を位置決めするよう
になされた画像合成手段と、前記画像合成手段より出力
された合成画像を表示する表示手段とを備え、前記画像
合成手段は、同一の被写体を異なる位置から撮影した複
数の第1の画像に対して前記第2の画像を合成する際、
前記複数の第1の画像に共通に検出されたマーカーに基
づいて、前記第2の画像の位置決めを行うように構成さ
れた表示制御装置を特徴とする。
According to the first aspect of the present invention, there is provided an image input means for inputting a first image and a second image which are different from each other. Means for synthesizing the obtained first image and the second image, wherein the second image is added to the first image.
When synthesizing the images, the image synthesizing means for positioning the second image based on the predetermined marker detected from the first image, and the synthesized image output from the image synthesizing means are displayed. The image combining means, when combining the second image with a plurality of first images obtained by photographing the same subject from different positions,
A display control device configured to perform positioning of the second image based on a marker commonly detected in the plurality of first images.

【0009】また請求項2に記載の発明によれば、請求
項1において、前記第1の画像は実写画像であり、前記
第2の画像はCG等の仮想画像であることを特徴とす
る。
According to a second aspect of the present invention, in the first aspect, the first image is a real image, and the second image is a virtual image such as CG.

【0010】また請求項3に記載の発明によれば、請求
項2において、前記第1の画像は、ステレオ画像を構成
する左右の画像であることを特徴とする。
According to a third aspect of the present invention, in the second aspect, the first image is a left and right image forming a stereo image.

【0011】また請求項4に記載の発明によれば、請求
項2において、前記マーカーは、前記実写画像の撮影対
象に予め付与され、前記撮影対象に対して位置が不変で
あることを特徴とする。
According to a fourth aspect of the present invention, in the second aspect, the marker is provided in advance to a photographing target of the real image, and a position of the marker is invariable with respect to the photographing target. I do.

【0012】また請求項5に記載の発明によれば、互い
に異なる第1の画像と第2の画像を入力する画像入力ス
テップと、前記画像入力ステップにおいて入力された前
記第1の画像と前記第2の画像とを画像合成する処理を
行うステップであって、前記第1の画像に前記第2の画
像を合成する際、前記第1の画像中より検出した所定の
マーカーに基づいて第2の画像を位置決めするようにな
された画像合成ステップと、前記画像合成ステップによ
って生成された合成画像を表示する表示ステップとを備
え、前記画像合成ステップは、同一の被写体を異なる位
置から撮影した複数の第1の画像に対して前記第2の画
像を合成する際、前記複数の第1の画像に共通に検出さ
れたマーカーに基づいて、前記第2の画像の位置決めを
行うようにした表示制御方法を特徴とする。
According to the invention described in claim 5, an image input step of inputting a first image and a second image different from each other, and the first image and the second image input in the image input step. Performing a process of synthesizing the first image and the second image based on a predetermined marker detected from the first image. An image synthesizing step configured to position an image, and a display step of displaying a synthesized image generated by the image synthesizing step, wherein the image synthesizing step includes a plurality of second images obtained by photographing the same subject from different positions. A table configured to perform positioning of the second image based on a marker commonly detected in the plurality of first images when the second image is combined with the first image. The control method is characterized.

【0013】また請求項6に記載の発明によれば、請求
項5において、前記第1の画像は実写画像であり、前記
第2の画像はCG等の仮想画像であることを特徴とす
る。
According to a sixth aspect of the present invention, in the fifth aspect, the first image is a real image, and the second image is a virtual image such as CG.

【0014】また請求項7に記載の発明によれば、請求
項6において、前記第1の画像は、ステレオ画像を構成
する左右の画像であることを特徴とする。
According to a seventh aspect of the present invention, in the sixth aspect, the first image is a right and left image forming a stereo image.

【0015】また請求項8に記載の発明によれば、請求
項6において、前記マーカーは、前記実写画像の撮影対
象に予め付与され、前記撮影対象に対して位置が不変で
あることを特徴とする。
According to an eighth aspect of the present invention, in the sixth aspect, the marker is provided in advance to a photographing target of the actual photographed image, and the position of the marker is invariable with respect to the photographing target. I do.

【0016】請求項9記載の発明に係る表示制御装置で
は、被写体を撮影する撮影手段によって得られた実写映
像と造形的に作成された仮装画像とを合成して表示部に
表示する表示手段と、前記表示手段の合成表示の際に、
前記実写映像に撮影されたマーカーを参照して前記仮装
画像の位置決めを行う位置決め手段とを有する表示制御
装置において、前記表示手段により、同一の被写体を撮
影する2つの撮影手段によって得られた2つの実写映像
のそれぞれに前記仮装画像を合成して表示する際に、前
記位置決め手段は、前記2つの実写映像の両方に撮影さ
れたマーカーのみを用いて前記仮装画像の位置決めを行
うことを特徴とする。
According to a ninth aspect of the present invention, there is provided a display control device for combining a photographed image obtained by a photographing means for photographing a subject with a virtually created temporary image and displaying the synthesized image on a display unit. , At the time of the composite display of the display means,
A display control device having a positioning means for positioning the temporary image with reference to a marker photographed in the real video image, wherein the display means displays two images obtained by two photographing means for photographing the same subject. When combining and displaying the virtual image with each of the real video images, the positioning means performs positioning of the virtual image using only markers captured in both of the two real video images. .

【0017】請求項10記載の発明に係る表示制御装置
では、請求項9記載の表示制御装置において、前記2つ
の撮影手段は、左眼用カメラと右眼用カメラであること
を特徴とする。
According to a tenth aspect of the present invention, in the display control device according to the ninth aspect, the two photographing means are a left-eye camera and a right-eye camera.

【0018】請求項11記載の発明に係る表示制御装置
では、請求項10記載の表示制御装置において、前記表
示部は、左眼用表示部と右眼用表示部で構成され、前記
左眼用表示部は、前記2つの実写映像のうち前記左眼用
カメラで撮影された左眼用の実写映像を表示し、前記右
眼用表示部は、前記右眼用カメラで撮影された右眼用の
実写映像を表示することを特徴とする。
In a display control device according to an eleventh aspect of the present invention, in the display control device according to the tenth aspect, the display unit includes a left-eye display unit and a right-eye display unit, and The display unit displays a left-eye real image captured by the left-eye camera among the two real images, and the right-eye display unit displays a right-eye image captured by the right-eye camera. Is displayed.

【0019】請求項12記載の発明に係る撮影位置推測
装置では、被写体を撮影する撮影手段によって得られた
実写映像からマーカーを検出する検出手段と、前記マー
カーを参照して前記被写体の撮影位置を推測する推測手
段とを備えた撮影位置推測装置において、前記検出手段
は、同一の被写体を撮影する2つの撮影手段によって得
られた2つの実写映像からそれぞれマーカーを検出する
ように構成し、前記推測手段は、前記検出手段で検出さ
れたマーカーのうち、前記2つの実写映像の両方に撮影
されたマーカーのみを選択し、その選択されたマーカー
を参照して前記被写体の撮影位置を推測することを特徴
とする。
According to a twelfth aspect of the present invention, there is provided a photographing position estimating apparatus for detecting a marker from a photographed image obtained by a photographing means for photographing a subject, and determining a photographing position of the subject by referring to the marker. In the photographing position estimating device provided with estimating means for estimating, the detecting means is configured to detect a marker from each of two real shot images obtained by two photographing means for imaging the same subject, and The means selects only the markers shot in both of the two real shot images from the markers detected by the detection means, and estimates the shooting position of the subject by referring to the selected markers. Features.

【0020】請求項13記載の発明に係る撮影位置推測
装置では、請求項12記載の撮影位置推測装置におい
て、前記2つの撮影手段は、左眼用カメラと右眼用カメ
ラであることを特徴とする。
According to a thirteenth aspect of the present invention, in the photographing position estimating apparatus according to the twelfth aspect, the two photographing means are a left-eye camera and a right-eye camera. I do.

【0021】請求項14記載の発明に係る表示システム
では、請求項9乃至請求項11記載の表示制御装置を有
することを特徴とする。
According to a fourteenth aspect of the present invention, there is provided a display system including the display control device according to the ninth to eleventh aspects.

【0022】請求項15記載の発明に係る撮影システム
では、請求項12または請求項13記載の撮影位置推測
装置を有することを特徴とする。
According to a fifteenth aspect of the present invention, there is provided a photographing system including the photographing position estimating device according to the twelfth or thirteenth aspect.

【0023】請求項16記載の発明に係る画像位置決め
方法では、被写体を撮影する撮影手段によって得られた
実写映像と造形的に作成された仮装画像とを合成して表
示部に表示する際に、前記実写映像に撮影されたマーカ
ーを参照して前記仮装画像の位置決めを行う画像位置決
め方法において、同一の被写体を撮影する2つの撮影手
段によって得られた2つの実写映像のそれぞれに前記仮
装画像を合成して表示する場合に、前記2つの実写映像
の両方に撮影されたマーカーのみを用いて前記仮装画像
の位置決めを行うことを特徴とする。
In the image positioning method according to the present invention, when a real photographed image obtained by a photographing means for photographing a subject is combined with a tentatively created temporary image and displayed on a display unit, In the image positioning method for positioning the temporary image with reference to a marker captured in the real image, the virtual image is combined with each of two real images obtained by two photographing units that photograph the same subject. When displaying, the temporary image is positioned using only markers captured in both of the two real shot images.

【0024】請求項17記載の発明に係る画像位置決め
方法では、請求項16記載の画像位置決め方法におい
て、前記2つの撮影手段は、左眼用カメラと右眼用カメ
ラであることを特徴とする。
According to a seventeenth aspect of the present invention, in the image positioning method of the sixteenth aspect, the two photographing means are a left-eye camera and a right-eye camera.

【0025】請求項18記載の発明に係る画像位置決め
方法では、請求項17記載の画像位置決め方法におい
て、前記表示部は、左眼用表示部と右眼用表示部で構成
され、前記左眼用表示部は、前記2つの実写映像のうち
前記左眼用カメラで撮影された左眼用の実写映像を表示
し、前記右眼用表示部は、前記右眼用カメラで撮影され
た右眼用の実写映像を表示することを特徴とする。
In the image positioning method according to an eighteenth aspect of the present invention, in the image positioning method according to the seventeenth aspect, the display section comprises a left-eye display section and a right-eye display section, The display unit displays a left-eye real image captured by the left-eye camera among the two real images, and the right-eye display unit displays a right-eye image captured by the right-eye camera. Is displayed.

【0026】請求項19記載の発明に係る撮影位置推測
方法では、被写体を撮影する撮影手段によって得られた
実写映像からマーカーを検出する検出行程と、前記マー
カーを参照して前記被写体の撮影位置を推測する推測行
程とを実行する撮影位置推測方法において、前記検出行
程は、同一の被写体を撮影する2つの撮影手段によって
得られた2つの実写映像からそれぞれマーカーを検出
し、前記推測行程は、前記検出行程で検出されたマーカ
ーのうち、前記2つの実写映像の両方に撮影されたマー
カーのみを選択し、その選択されたマーカーを参照して
前記被写体の撮影位置を推測することを特徴とする。
According to a nineteenth aspect of the present invention, there is provided a method for estimating a photographing position, comprising the steps of: detecting a marker from a photographed image obtained by photographing means for photographing a subject; In the photographing position estimating method of performing an estimating step of estimating, the detecting step detects a marker from each of two actual photographed images obtained by two photographing means for photographing the same subject, and the estimating step includes: It is characterized in that, of the markers detected in the detection step, only the markers shot in both of the two real shot images are selected, and the shooting position of the subject is estimated by referring to the selected markers.

【0027】請求項20記載の発明に係る撮影位置推測
方法では、請求項19記載の撮影位置推測方法におい
て、前記2つの撮影手段は、左眼用カメラと右眼用カメ
ラであることを特徴とする。
According to a twentieth aspect of the present invention, the two photographing means are a left-eye camera and a right-eye camera. I do.

【0028】請求項21記載の発明に係る処理プログラ
ムを記録した記録媒体では、被写体を撮影する撮影手段
によって得られた実写映像と造形的に作成された仮装画
像とを合成して表示部に表示する際に、前記実写映像に
撮影されたマーカーを参照して前記仮装画像の位置決め
を行う画像位置決め方法を実行するための処理プログラ
ムを記録した記録媒体であって、前記処理プログラム
は、同一の被写体を撮影する2つの撮影手段によって得
られた2つの実写映像のそれぞれに前記仮装画像を合成
して表示する場合に、前記2つの実写映像の両方に撮影
されたマーカーのみを用いて前記仮装画像の位置決めを
行う内容を有することを特徴とする。
In the recording medium storing the processing program according to the twenty-first aspect of the present invention, a real photographed image obtained by a photographing means for photographing a subject is combined with a phantom image created artificially and displayed on a display unit. A recording medium storing a processing program for executing an image positioning method of positioning the temporary image with reference to a marker photographed in the actual photographed video, wherein the processing program is the same object In a case where the virtual image is synthesized with each of the two real images obtained by the two photographing means for photographing the virtual image and displayed, only the markers photographed in both of the two real images are used to display the virtual image. It is characterized by having contents for performing positioning.

【0029】請求項22記載の発明に係る処理プログラ
ムを記録した記録媒体では、マーカーが付された被写体
を撮影する撮影手段によって得られた実写映像からマー
カーを検出し、このマーカーを参照して前記被写体の撮
影位置を推測する撮影位置推測方法を実行するための処
理プログラムを記録した記録媒体であって、前記処理プ
ログラムは、同一の被写体を撮影する2つの撮影手段に
よって得られた2つの実写映像からそれぞれマーカーを
検出する第1のステップと、前記第1のステップによっ
て検出されたマーカーのうち、前記2つの実写映像の両
方に撮影されたマーカーのみを選択する第2のステップ
と、前記第2のステップで選択されたマーカーを参照し
て前記被写体の撮影位置を推測する第3のステップとを
備えたことを特徴とする。
In the recording medium storing the processing program according to the present invention, a marker is detected from a photographed image obtained by a photographing means for photographing a subject with a marker, and the marker is referred to with reference to the marker. What is claimed is: 1. A recording medium storing a processing program for executing a photographing position estimating method for estimating a photographing position of a subject, wherein the processing program includes two real shot images obtained by two photographing means for photographing the same subject. A first step of detecting a marker from each of the first and second steps; a second step of selecting only markers captured in both of the two real shot images from among the markers detected in the first step; And a third step of estimating a photographing position of the subject with reference to the marker selected in the step. To.

【0030】[0030]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0031】図1は、本発明の実施の一形態に係る表示
システムの概略の外観図である。
FIG. 1 is a schematic external view of a display system according to an embodiment of the present invention.

【0032】同図に示すシステムは、MR技術を用いた
ゲーム用のシステムの一例であり、プレイヤーの頭部に
装着されるHMD100、プレイヤーの頭部の3次元空
間における位置及び方位を検出する3次元センサ本体2
00、前記3次元センサ200と協働して位置検出を可
能とする3次元センサ固定局210、プレイヤーの位置
演算、CG画像生成、合成等、各種の処理を行う計算機
300、及びゲームフィールド400により構成されて
いる。
The system shown in FIG. 1 is an example of a game system using the MR technique. The HMD 100 is mounted on a player's head, and detects the position and orientation of the player's head in a three-dimensional space. Dimension sensor body 2
00, a three-dimensional sensor fixed station 210 capable of detecting a position in cooperation with the three-dimensional sensor 200, a computer 300 for performing various processes such as a position calculation of a player, CG image generation and synthesis, and a game field 400. It is configured.

【0033】HMD100は、HMD本体に取り付けら
れたビデオカメラで撮影した実画像にCG画像などを合
成して表示するビデオシースルー方式のHMDであり、
図2(a),(b)に示すように、ステレオ画像(3D
画像)を構成する左右画像をそれぞれ撮像するための左
眼及び右眼用カメラ110,111、3次元位置センサ
200に接続され、検出した位置方位を3次元位置セン
サ200へと送信する3次元位置センサ移動局120、
及び左眼及び右眼用LCD130,131からなる。
The HMD 100 is a video see-through HMD that combines a real image captured by a video camera attached to the main body of the HMD with a CG image or the like and displays the synthesized image.
As shown in FIGS. 2A and 2B, a stereo image (3D
3D position, which is connected to the left and right cameras 110 and 111 for capturing left and right images constituting the image, respectively, and transmits the detected position and orientation to the three-dimensional position sensor 200. Sensor mobile station 120,
And LCDs 130 and 131 for the left and right eyes.

【0034】ここで、プレイヤーの頭部位置及び方位の
検出は、たとえば、3次元位置センサ固定局210より
空間に磁場を発生させ、磁気センサによって構成された
3次元位置センサ移動局120によって、磁気の変化を
検出して3次元位置センサ200へと送信し、使用者の
位置及び方位を演算し、計算機300へと供給するよう
に構成されている。
Here, the position and orientation of the player's head can be detected by, for example, generating a magnetic field in space from the three-dimensional position sensor fixed station 210 and using the three-dimensional position sensor mobile station 120 constituted by a magnetic sensor. Is detected, transmitted to the three-dimensional position sensor 200, the position and orientation of the user are calculated, and supplied to the computer 300.

【0035】プレイヤーは、HMD100を装着してゲ
ームプレーし、この時、図3に示すように、HMD10
0内のLCD130,131には、カメラ110,11
1で撮影された実写映像500とCG画像600が合成
された合成画像700が表示される。
The player wears the HMD 100 and plays a game. At this time, as shown in FIG.
The LCDs 130 and 131 in the camera 0, 11
A composite image 700 in which the real image 500 captured in Step 1 and the CG image 600 are composited is displayed.

【0036】本実施形態ではビデオシースルー方式のH
MDを使用したが、これは本発明を制限するものではな
く、光学シースルー方式のHMDとビデオカメラを組み
合わせた方式のHMDに対して本発明を適応することも
可能である。
In this embodiment, the video see-through H
Although the MD is used, this does not limit the present invention, and the present invention can be applied to an HMD of a combination of an optical see-through HMD and a video camera.

【0037】ゲームフィールド400には、図4に示す
ように、例えば4つのブロック410,411,41
3,414が置かれており、これらブロックの側面には
それぞれマーカー450,451,452,453がそ
れぞれ貼付されている。ゲームフィールド400の位置
は、ブロック410〜414とマーカー450〜453
の位置を含めて正確に測定してある。
As shown in FIG. 4, for example, four blocks 410, 411, 41
3, 414 are placed, and markers 450, 451, 452, 453 are respectively attached to the side surfaces of these blocks. The position of the game field 400 is determined by blocks 410 to 414 and markers 450 to 453.
Accurately measured, including the position.

【0038】図5は、本実施形態の表示制御システムの
機能構成を示すブロック図である。
FIG. 5 is a block diagram showing a functional configuration of the display control system of the present embodiment.

【0039】HMD100に表示される映像は、計算機
300により作成される。計算機300は、CPU30
1、メモリ302、PCIブリッジ303、シリアルI
/O310、ビデオキャプチャカード320,321、
及びビデオボード330,331から構成されている。
An image displayed on the HMD 100 is created by the computer 300. The computer 300 includes a CPU 30
1, memory 302, PCI bridge 303, serial I
/ O310, video capture cards 320,321,
And video boards 330 and 331.

【0040】そして、HMD100の左右のビデオカメ
ラ110,111より出力された画像信号(例えばNT
SC方式のビデオ信号)は、それぞれ計算機300内の
ビデオキャプチャカード320,321へと供給され、
画像信号が取り込まれ、PCI,PCIブリッジ303
を介してメモリ302へ供給され、あるいはCPU30
1へと供給されて各種画像処理が行われる。
The image signals (for example, NT) output from the left and right video cameras 110 and 111 of the HMD 100
SC system video signals) are supplied to video capture cards 320 and 321 in the computer 300, respectively.
The image signal is taken in, and the PCI, PCI bridge 303
Is supplied to the memory 302 through the
1 to perform various image processing.

【0041】また予めメモリ302に記憶され、あるい
は外部より周知の手段で供給された画像情報に基づい
て、CPU301内でCG画像が生成されるとともに、
ビデオキャプチャカード320、321からの実画像と
合成され、ビデオカード330,331を介してHMD
100の左右のLCD表示部へと供給される(例えばV
GA画像で)。
A CG image is generated in the CPU 301 based on image information stored in the memory 302 in advance or supplied by a known means from the outside.
HMD is synthesized with the actual images from the video capture cards 320 and 321 and
100 to the left and right LCD display units (for example, V
GA images).

【0042】尚、左右のカメラ110,111からの実
画像と、CG画像の合成にあたっては、3次元位置セン
サ200より、プレイヤーの頭部の位置及び方位の情報
が供給され、画像合成の際の、カメラからの実画像と、
CG画像との位置合わせが行われる。すなわちプレイヤ
ーの位置及び視線方向に対応したCG画像の合成を行う
わけである。
When synthesizing the real images from the left and right cameras 110 and 111 and the CG image, information on the position and orientation of the player's head is supplied from the three-dimensional position sensor 200, and , The actual image from the camera,
Registration with the CG image is performed. That is, CG images corresponding to the position and the line of sight of the player are synthesized.

【0043】3次元位置センサ200は、3次元位置セ
ンサ固定局210より発生された磁気を、HMD内蔵の
3次元センサ移動局120によって検出し、その検出結
果に基づいて、3次元位置センサ固定局210とHMD
内蔵の3次元位置センサ120の相対位置を測定するも
ので、位置情報は、x(縦方向),y(横方向),z
(奥行き方向),roll,pitch,yawの6つ
の位置について自由度を測定できる。
The three-dimensional position sensor 200 detects the magnetism generated by the three-dimensional position sensor fixed station 210 by the three-dimensional sensor mobile station 120 having a built-in HMD, and based on the detection result, detects the three-dimensional position sensor fixed station. 210 and HMD
The relative position of the built-in three-dimensional position sensor 120 is measured, and the position information includes x (vertical direction), y (horizontal direction), z
The degree of freedom can be measured for six positions (in the depth direction), roll, pitch, and yaw.

【0044】また、3次元位置センサ200は、計算機
300とシリアルインターフェイスで通信を行い、3次
元位置センサ固定局210の位置は、事前に正確に測定
してあり、HMD内蔵位置センサ120の3次元位置セ
ンサ固定局210に対する相対位置を知ることで、HM
D100の絶対位置(ゲームフィールド400の中心を
原点とする)を知ることができる。図6は、本実施形態
に係る計算機300のHMD表示スレッドを示すフロー
チャートである。
The three-dimensional position sensor 200 communicates with the computer 300 through a serial interface, and the position of the three-dimensional position sensor fixed station 210 is accurately measured in advance. By knowing the relative position with respect to the position sensor fixed station 210, the HM
It is possible to know the absolute position of D100 (with the origin at the center of the game field 400). FIG. 6 is a flowchart illustrating an HMD display thread of the computer 300 according to the present embodiment.

【0045】なお、左右の眼の処理は基本的に同じなの
で、ここでは右眼の処理について説明する。この図6の
フローチャートに従ったプログラムを計算機300内の
メモリ302等の記憶装置に格納し動作することによ
り、以下の制御方法を実現させることが可能となる。
Since the processing for the left and right eyes is basically the same, the processing for the right eye will be described here. The following control method can be realized by storing and operating the program according to the flowchart of FIG. 6 in a storage device such as the memory 302 in the computer 300.

【0046】ビデオカメラ110からの実写映像は、ビ
デオキャプチャカード320を通じて計算機300に取
り込まれる(ステップS100)。取り込んだ実写映像
は、メモリ302上のビデオバッファに書き込む(ステ
ップS101)。このビデオバッファは、作成途中の映
像を格納するための作業領域である。取り込んだ実写映
像を書き込むことで、実写映像をCG画像の背景画像と
することができる。
The photographed video from the video camera 110 is taken into the computer 300 through the video capture card 320 (step S100). The captured real video is written into a video buffer on the memory 302 (step S101). The video buffer is a work area for storing a video being created. By writing the captured real image, the real image can be used as a background image of the CG image.

【0047】次いで、シリアルI/O310を通じて3
次元位置センサ200からHMD100の位置情報を得
る(ステップS102)。HMD100の位置は、ワー
ルド座標に変換してから格納する。ワールド座標は、ゲ
ームフィールド400の中心を原点とした座標系であ
る。ワールド座標への変換は、予め測定してあるゲーム
フィールド400の位置と3次元位置センサ固定局21
0の位置を用いることで簡単に行うことができる。
Then, 3 through the serial I / O 310
The position information of the HMD 100 is obtained from the dimensional position sensor 200 (Step S102). The position of the HMD 100 is stored after being converted into world coordinates. The world coordinates are a coordinate system having the center of the game field 400 as the origin. The conversion into the world coordinates is performed by previously measuring the position of the game field 400 and the three-dimensional position sensor fixed station 21.
This can be easily performed by using the zero position.

【0048】続いて、CG画像を描画に使用する射影変
換のための行列と、モデリング変換のための行列を作成
する(ステップS103)。HMD100のワールド座
標を用いてモデリング変換行列を作成する。また、予め
測定しておいたカメラの焦点距離などのパラメータか
ら、射影変換行列を作成する(射影行列の作成は最初の
1回のみで、以降は使い回す)。
Subsequently, a matrix for projective transformation used for drawing the CG image and a matrix for modeling transformation are created (step S103). A modeling transformation matrix is created using the world coordinates of the HMD 100. Also, a projection transformation matrix is created from parameters measured in advance such as the focal length of the camera (projection matrix is created only once at the beginning, and will be reused thereafter).

【0049】そして、ビデオカメラ110に写ったゲー
ムフィールド400上のマーカー450,451,45
2,453を使ってCG画像と実写映像の位置合わせを
行う(ステップS104)。位置の補正は、カメラの方
向を補正する変換行列を作成し、これをモデリング行列
に乗ずる。位置合わせの詳細については後述する。
Then, the markers 450, 451, and 45 on the game field 400, which are displayed on the video camera 110,
The position of the CG image and the actual image are aligned using 2,453 (step S104). To correct the position, a transformation matrix for correcting the direction of the camera is created, and this is multiplied by the modeling matrix. Details of the positioning will be described later.

【0050】出来上がった変換行列を用い、CG画像デ
ータをビデオバッファに描画する(ステップS10
5)。ビデオバッファに上書きすることで、実写映像上
にCG画像が描画される。なお、CG画像データは、別
スレッドが必要に応じて動かしている。本実施形態では
魚とロケットのCG画像を動かしたが、CG画像の動か
し方は本発明と関連ないので説明を省略する。
Using the completed transformation matrix, the CG image data is drawn in the video buffer (step S10).
5). By overwriting the video buffer, a CG image is drawn on the actually shot video. The CG image data is moved by another thread as needed. In the present embodiment, the CG images of the fish and the rocket are moved. However, the method of moving the CG images is not related to the present invention, and thus the description is omitted.

【0051】描画が終わると、ビデオバッファをビデオ
ボード330上のフレームバッファに転送し、HMD1
00内のLCD130に映像を描画する(ステップS1
06)。
When the drawing is completed, the video buffer is transferred to the frame buffer on the video board 330, and the HMD 1
The image is drawn on the LCD 130 in the 00 (step S1).
06).

【0052】次に、上記ステップS103で実行される
CG画像の表示位置補正処理(実写映像とCG画像映像
との位置合わせ方法)について、図7のイメージ図と、
図8及び図9のフローチャートを参照しつつ詳細に説明
する。
Next, the display position correction processing of the CG image (the method of aligning the real image and the CG image image) executed in step S103 will be described with reference to the image diagram of FIG.
This will be described in detail with reference to the flowcharts of FIGS.

【0053】CG画像の表示位置の補正は、実写映像中
に写ったゲームフィールド400上のマーカー450,
451,452,453の位置と、HMD内蔵の3次元
位置センサ120から得られた位置にカメラを置いた時
に(座標は既知)マーカーが見える位置との差分により
行う。実際の補正は、カメラの方向をずらすことにより
行う。以下、具体的に説明する。
The correction of the display position of the CG image is performed by changing the marker 450,
This is performed based on the difference between the positions of 451, 452, and 453 and the position where the marker can be seen when the camera is placed (the coordinates are known) at the position obtained from the three-dimensional position sensor 120 built in the HMD. The actual correction is performed by shifting the direction of the camera. Hereinafter, a specific description will be given.

【0054】最初に、左右のカメラについて、図8に示
すステップS200〜ステップS205の処理を行う。
First, the processing of steps S200 to S205 shown in FIG. 8 is performed for the left and right cameras.

【0055】本実施形態では、特に左右のカメラ11
0,111の両方に写っているマーカーのみを使用して
位置補正を行うことを特徴とする。
In this embodiment, the left and right cameras 11
It is characterized in that position correction is performed using only the markers appearing in both 0 and 111.

【0056】まず、HMD内蔵の3次元位置センサ12
0からの位置情報を基に、カメラ110,111の位置
からモデリング変換行列を、また予め測定しておいたカ
メラ110,111の画角情報などから射影変換行列を
作成する(ステップS200)。
First, the three-dimensional position sensor 12 with a built-in HMD
Based on the position information from 0, a modeling transformation matrix is created from the positions of the cameras 110 and 111, and a projection transformation matrix is created from the previously measured angle-of-view information of the cameras 110 and 111 (step S200).

【0057】次いで、マーカー450〜453の座標
(ゲームフィールド400上に固定されているので座標
は既知)を、作成したモデリング変換行列と射影変換行
列を使って変換し、マーカーが画面上で表示される予想
位置を求める(ステップS201、図11の610参
照)。
Next, the coordinates of the markers 450 to 453 (the coordinates are known because they are fixed on the game field 400) are transformed using the created modeling transformation matrix and projection transformation matrix, and the markers are displayed on the screen. An expected position is determined (step S201, see 610 in FIG. 11).

【0058】次に、左右の実写映像(図7の501,5
02)からマーカーを探す。本実施形態では、例えばオ
レンジ色のマーカー(マーカーは、それ以外の画像と区
別できれば、色は何でもよい)を使用する。マーカーの
識別は、取り込んだ実写映像から一定面積以上のオレン
ジ色の部分を取り出すことで行う。そして、取り込んだ
実写映像を、オレンジ色の部分とそうでない部分とを識
別することで2値化する(ステップS202、図7の5
11,512)。オレンジ色の部分の識別は、映像の各
画素を輝度信号Y,色差信号Cb,Crに変換し、C
b,Crの値が一定の範囲(カメラの特性、画像処理に
おける精度等によって変化するので、システムによって
適当な値に設定する)であるときにオレンジ色であると
した。
Next, the left and right photographed images (501, 5 in FIG. 7)
02) to search for a marker. In the present embodiment, for example, an orange marker (the marker may be of any color as long as it can be distinguished from other images) is used. Identification of the marker is performed by extracting an orange portion having a certain area or more from the captured live-action video. Then, the captured real image is binarized by discriminating between an orange portion and a non-orange portion (step S202, 5 in FIG. 7).
11, 512). The orange portion is identified by converting each pixel of the video into a luminance signal Y and color difference signals Cb and Cr,
It is determined to be orange when the values of b and Cr are within a certain range (the values are changed depending on the characteristics of the camera, the accuracy in image processing, and the like, and are appropriately set by the system).

【0059】2値化した映像をブロックごとに分割する
ために、映像をラベリングする(ステップS203)。
ラベリングのアルゴリズムは一般に知られているので、
ここでは説明を省略する。
The video is labeled in order to divide the binarized video into blocks (step S203).
Since the labeling algorithm is generally known,
Here, the description is omitted.

【0060】ラベリングが終了したら、一定以上の面積
(本実施形態では10ドット以上)のブロックの重心を
求める(ステップS204)。ブロックの重心は、ブロ
ックを構成する画素の座標の平均値を求めることで得る
ことができる。このブロックの重心(中心座標)が、実
写映像から検出したマーカーの画面上の位置となる。
After the labeling is completed, the center of gravity of a block having a certain area or more (10 dots or more in this embodiment) is obtained (step S204). The center of gravity of the block can be obtained by calculating the average value of the coordinates of the pixels constituting the block. The center of gravity (center coordinates) of this block is the position on the screen of the marker detected from the actually shot video.

【0061】マーカーの予想位置から最も近い位置にあ
るブロックを探し、その対応関係を記録する(ステップ
S205)。ただし、最も近いブロックが一定以上の距
離で離れていた場合には、そのマーカーに対応するブロ
ックは存在しなかったものとして記録する。
A block located closest to the expected position of the marker is searched for, and its correspondence is recorded (step S205). However, if the closest block is separated by a distance equal to or more than a certain value, it is recorded that no block corresponding to the marker exists.

【0062】以上の処理を左右のカメラ110,111
について行った後、得られた左右のカメラ110,11
1についてのマーカー描画予想位置と、実写映像からの
マーカー(ブロック)検出位置との対応関係を用いて、
左右のカメラ110,111のそれぞれについて図9に
示した処理を行う。
The above processing is performed by the left and right cameras 110 and 111.
, And the obtained left and right cameras 110 and 11
Using the correspondence relationship between the marker drawing predicted position for No. 1 and the marker (block) detection position from the actual image,
The processing shown in FIG. 9 is performed for each of the left and right cameras 110 and 111.

【0063】まず、左右のカメラ110,111の両方
で対応の取れたマーカー450,452を選択する(ス
テップS300、図7の513,514)。
First, markers 450 and 452 corresponding to both the left and right cameras 110 and 111 are selected (step S300, 513 and 514 in FIG. 7).

【0064】続いて、選択したマーカーについて予想位
置とラベリングしたブロックとの変位を求める(ステッ
プS301、図7の621,622)。すなわち、選択
されたマーカーについて、選択されたマーカー表示予測
位置すべての座標をベクトルとみなしたときの平均ベク
トルと、選択された実写映像から検出したマーカー位置
すべての座標をベクトルとみなしたときの平均ベクトル
とを計算する。
Subsequently, the displacement between the predicted position and the labeled block is determined for the selected marker (step S301, 621 and 622 in FIG. 7). That is, for the selected marker, the average vector when the coordinates of all the selected marker display predicted positions are regarded as a vector, and the average when the coordinates of all the marker positions detected from the selected real video image are regarded as a vector. Calculate with vector.

【0065】このマーカー表示予想位置の平均ベクトル
と、実写映像から検出したマーカー位置の平均ベクトル
とにより、補正のためにカメラを回転する方向を求め
る。カメラ位置の補正のための回転方向と角度の求め方
を図10に示す。
The direction in which the camera is rotated for correction is determined from the average vector of the expected marker display position and the average vector of the marker position detected from the actual image. FIG. 10 shows how to determine the rotation direction and angle for correcting the camera position.

【0066】図10において、マーカー表示予測位置の
平均ベクトルを(mx,my)、実写映像から検出した
マーカー位置の平均ベクトルを(lx,ly)としたと
き、カメラの焦点距離(正確には焦点距離[mm]を1
画素のサイズ[mm/pixel]で割った値)をdと
して M=(mx,my,d) L=(lx,ly,d) の成す角度Θを求める。このΘがカメラ位置を回転させ
る角度となる。ΘはMとLの内積 |M|・|L|・cosΘ =M・L を解くことで求めることができる。また、回転軸は、回
転軸と平行するベクトルをMとLの外積により求めるこ
とができる。
In FIG. 10, when the average vector of the marker display predicted position is (mx, my) and the average vector of the marker position detected from the actually shot image is (lx, ly), the focal length of the camera (more precisely, Distance [mm] is 1
The angle す formed by M = (mx, my, d) and L = (lx, ly, d) is obtained, where d is a value obtained by dividing the pixel size [mm / pixel]. This Θ is the angle by which the camera position is rotated. Θ can be obtained by solving the inner product | M | · | L | · cosΘ = M · L of M and L. The rotation axis can be obtained by calculating a vector parallel to the rotation axis by the cross product of M and L.

【0067】以上の方法により求めた回転方向と角度を
基に、カメラ位置補正のための回転行列を作成し、カメ
ラ位置の補正行列とする(本実施形態では、カメラ自体
を回転させる代わりに世界全体を回転させる)。
A rotation matrix for camera position correction is created based on the rotation direction and angle obtained by the above method, and is used as a camera position correction matrix. (In this embodiment, instead of rotating the camera itself, Rotate the whole).

【0068】そして、カメラ位置の補正行列をモデリン
グ変換行列に乗ずる(ステップS303)。
Then, the correction matrix of the camera position is multiplied by the modeling transformation matrix (step S303).

【0069】以上の処理により、実写映像とCG画像を
重ね合わせる際のCG画像描画位置の補正時に、左右の
カメラ110,111の両方で撮影されたマーカーのみ
を補正に使うことで、左右のCG画像描画位置の補正方
向を合わせ、より自然な立体視を実現することができ
る。
According to the above processing, when correcting the CG image drawing position when the real image and the CG image are superimposed, only the markers photographed by both the left and right cameras 110 and 111 are used for the correction. By adjusting the correction direction of the image drawing position, more natural stereoscopic vision can be realized.

【0070】すなわち、前述したように、従来システム
において、左右のCG画像の位置合わせが不自然になる
要因の1つは、左眼右眼で位置合わせに使用するマーカ
ーが異なることである。異なるマーカーを使用して補正
するため、補正量や方向が左右の眼で異なり違和感を感
じさせる原因となっていた。この点を考慮して本実施形
態では、左右の実写映像いずれか一方のみに撮影された
マーカーを当該表示位置補正に使用せずに、左右の実写
映像の両方に撮影されたマーカーのみを位置合わせに使
用することで、より自然な立体視を実現する。
That is, as described above, in the conventional system, one of the factors that makes the alignment of the left and right CG images unnatural is that the markers used for alignment between the left eye and the right eye are different. Since the correction is performed using different markers, the correction amount and the direction are different between the left and right eyes, causing a feeling of strangeness. In consideration of this point, in the present embodiment, the markers captured in only one of the left and right real shot images are not used for the display position correction, and only the markers shot in both the left and right real shot images are aligned. To realize more natural stereoscopic vision.

【0071】本発明は、上述した実施形態の装置に限定
されず、複数の機器から構成されるシステムに適用して
も、1つの機器から成る装置に適用してもよい。前述し
た実施形態の機能を実現するソフトウェアのプログラム
コードを記憶した記憶媒体をシステムあるいは装置に供
給し、そのシステムあるいは装置のコンピュータ(また
はCPUやMPU)が記憶媒体に格納されたプログラム
コードを読み出し実行することによっても、完成される
ことは言うまでもない。
The present invention is not limited to the apparatus of the above-described embodiment, and may be applied to a system including a plurality of devices or an apparatus including a single device. A storage medium storing program codes of software for realizing the functions of the above-described embodiments is supplied to a system or an apparatus, and a computer (or CPU or MPU) of the system or apparatus reads out and executes the program code stored in the storage medium. It goes without saying that it will be completed by doing so.

【0072】この場合、記憶媒体から読み出されたプロ
グラムコード自体が前述した実施形態の機能を実現する
ことになり、そのプログラムコードを記憶した記憶媒体
は本発明を構成することになる。プログラムコードを供
給するための記憶媒体としては、例えば、フロッピー
(登録商標)ディスク、ハードディスク、光ディスク、
光磁気ディスク、CD−ROM、CD−R、磁気テー
プ、不揮発性のメモリカード、ROMを用いることがで
きる。また、コンピュータが読み出したプログラムコー
ドを実行することにより、前述した実施形態の機能が実
現されるだけではなく、そのプログラムコードの指示に
基づき、コンピュータ上で稼動しているOSなどが実際
の処理の一部または全部を行い、その処理によって前述
した実施形態の機能が実現される場合も含まれることは
言うまでもない。
In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention. As a storage medium for supplying the program code, for example, a floppy (registered trademark) disk, a hard disk, an optical disk,
A magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, and a ROM can be used. When the computer executes the readout program code, not only the functions of the above-described embodiments are realized, but also the OS or the like running on the computer performs the actual processing based on the instruction of the program code. It goes without saying that a case where some or all of the operations are performed and the functions of the above-described embodiments are realized by the processing is also included.

【0073】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張ボー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書き込まれた後、次のプログラムコードの指
示に基づき、その拡張機能を拡張ボードや拡張ユニット
に備わるCPUなどが処理を行って実際の処理の一部ま
たは全部を行い、その処理によって前述した実施形態の
機能が実現される場合も含まれることは言うまでもな
い。
Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the program code is read based on the next program code. Needless to say, the extended function may be performed by a CPU or the like provided in an expansion board or an expansion unit to perform a part or all of the actual processing, and the processing may realize the functions of the above-described embodiments. No.

【0074】[0074]

【発明の効果】以上詳述したように、本発明によれば、
同一の被写体を撮影する2つの撮影手段によって得られ
た2つの実写映像のそれぞれに仮装画像を合成して表示
する際に、2つの実写映像の両方に撮影されたマーカー
のみを用いて仮装画像の位置決めを行うようにしたの
で、2つの実写映像として例えば左眼用と右眼用の実写
映像において、位置決め後も左右の実写映像の相対位置
関係が変更されずに維持でき、より自然な立体視を実現
することが可能になる。
As described in detail above, according to the present invention,
When combining the virtual image with each of the two real video images obtained by the two photographing means for capturing the same subject and displaying the synthesized image, only the markers captured in both of the two real video images are used. Since the positioning is performed, the relative positional relationship between the left and right real shot images can be maintained without being changed even after the positioning in the two real shot images, for example, for the left eye and the right eye, so that a more natural stereoscopic view can be achieved. Can be realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の一形態に係る表示制御システム
の概略の外観図である。
FIG. 1 is a schematic external view of a display control system according to an embodiment of the present invention.

【図2】図1に示したHMDの詳細図である。FIG. 2 is a detailed view of the HMD shown in FIG.

【図3】合成画像の生成を示すイメージ図である。FIG. 3 is an image diagram showing generation of a composite image.

【図4】図1に示したゲームフィールドの拡大図であ
る。
FIG. 4 is an enlarged view of the game field shown in FIG. 1;

【図5】実施形態の表示制御システムの機能構成を示す
ブロック図である。
FIG. 5 is a block diagram illustrating a functional configuration of a display control system according to the embodiment.

【図6】実施形態に係る計算機300のHMD表示スレ
ッドを示すフローチャートである。
FIG. 6 is a flowchart illustrating an HMD display thread of the computer 300 according to the embodiment.

【図7】実施形態に係るCG画像の表示位置補正処理を
示すイメージ図である。
FIG. 7 is an image diagram showing a display position correction process of a CG image according to the embodiment.

【図8】実施形態に係るCG画像の表示位置補正処理を
示すフローチャートである。
FIG. 8 is a flowchart illustrating a CG image display position correction process according to the embodiment.

【図9】図8の続きのフローチャートである。FIG. 9 is a flowchart continued from FIG. 8;

【図10】カメラ位置の補正のための回転方向と角度の
求め方を説明するための図である。
FIG. 10 is a diagram for explaining how to obtain a rotation direction and an angle for correcting a camera position.

【図11】従来のCG画像の表示位置補正処理を示すイ
メージ図である。
FIG. 11 is an image diagram showing a conventional display position correction process of a CG image.

【符号の説明】[Explanation of symbols]

100 HMD 110,111 ビデオカメラ 130,131 LCD 120 HMD内蔵位置センサ 130,131 液晶ディスプレイ 200 3次元位置センサ本体 210 3次元位置センサ固定局 300 計算機 301 CPU 302 メモリ 303 PCIブリッジ 310 シリアルI/O 320,321 ビデオキャプチャボード 330,331 ビデオボード 100 HMD 110, 111 Video camera 130, 131 LCD 120 HMD built-in position sensor 130, 131 Liquid crystal display 200 3D position sensor main body 210 3D position sensor fixed station 300 Computer 301 CPU 302 Memory 303 PCI bridge 310 Serial I / O 320, 321 Video Capture Board 330, 331 Video Board

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 13/04 H04N 13/04 17/04 17/04 A Fターム(参考) 2C001 BA05 BC00 BC08 CB01 CC00 CC03 CC09 5C023 AA11 CA03 5C054 EA01 EA05 EH01 FA02 FA05 FC12 FE12 HA15 5C061 AA01 AB04 AB10 AB12 AB14 AB18 AB20 BB15 Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat II (reference) H04N 13/04 H04N 13/04 17/04 17/04 A F term (reference) 2C001 BA05 BC00 BC08 CB01 CC00 CC03 CC09 5C023 AA11 CA03 5C054 EA01 EA05 EH01 FA02 FA05 FC12 FE12 HA15 5C061 AA01 AB04 AB10 AB12 AB14 AB18 AB20 BB15

Claims (22)

【特許請求の範囲】[Claims] 【請求項1】 互いに異なる第1の画像と第2の画像を
入力する画像入力手段と、入力された前記第1の画像と
前記第2の画像とを画像合成する手段であって、前記第
1の画像に前記第2の画像を合成する際、前記第1の画
像中より検出した所定のマーカーに基づいて第2の画像
を位置決めするようになされた画像合成手段と、前記画
像合成手段より出力された合成画像を表示する表示手段
とを備え、 前記画像合成手段は、同一の被写体を異なる位置から撮
影した複数の第1の画像に対して前記第2の画像を合成
する際、前記複数の第1の画像に共通に検出されたマー
カーに基づいて、前記第2の画像の位置決めを行うよう
に構成されていることを特徴とする表示制御装置。
1. An image input means for inputting a first image and a second image which are different from each other, and means for synthesizing the input first image and the second image, wherein An image synthesizing unit configured to position the second image based on a predetermined marker detected from the first image when synthesizing the second image with the first image; Display means for displaying the output combined image, wherein the image combining means combines the plurality of first images obtained by photographing the same subject from different positions with the plurality of first images. A display control device configured to perform positioning of the second image based on a marker commonly detected in the first image.
【請求項2】 請求項1において、前記第1の画像は実
写画像であり、前記第2の画像はCG等の仮想画像であ
ることを特徴とする表示制御装置。
2. The display control device according to claim 1, wherein the first image is a real image, and the second image is a virtual image such as CG.
【請求項3】 請求項2において、前記第1の画像は、
ステレオ画像を構成する左右の画像であることを特徴と
する表示制御装置。
3. The method according to claim 2, wherein the first image is
A display control device comprising left and right images forming a stereo image.
【請求項4】 請求項2において、前記マーカーは、前
記実写画像の撮影対象に予め付与され、前記撮影対象に
対して位置が不変であることを特徴とする表示制御装
置。
4. The display control device according to claim 2, wherein the marker is provided in advance to a shooting target of the real image, and a position of the marker does not change with respect to the shooting target.
【請求項5】 互いに異なる第1の画像と第2の画像を
入力する画像入力ステップと、前記画像入力ステップに
おいて入力された前記第1の画像と前記第2の画像とを
画像合成する処理を行うステップであって、前記第1の
画像に前記第2の画像を合成する際、前記第1の画像中
より検出した所定のマーカーに基づいて第2の画像を位
置決めするようになされた画像合成ステップと、前記画
像合成ステップによって生成された合成画像を表示する
表示ステップとを備え、 前記画像合成ステップは、同一の被写体を異なる位置か
ら撮影した複数の第1の画像に対して前記第2の画像を
合成する際、前記複数の第1の画像に共通に検出された
マーカーに基づいて、前記第2の画像の位置決めを行う
ことを特徴とする表示制御方法。
5. An image inputting step of inputting a first image and a second image which are different from each other, and a process of synthesizing the first image and the second image input in the image inputting step. Performing, when compositing the second image with the first image, an image compositing device that positions the second image based on a predetermined marker detected from the first image. And a display step of displaying a combined image generated by the image combining step. The image combining step includes the step of performing the second image processing on a plurality of first images obtained by photographing the same subject from different positions. When combining images, a display control method characterized in that positioning of the second image is performed based on a marker commonly detected in the plurality of first images.
【請求項6】 請求項5において、前記第1の画像は実
写画像であり、前記第2の画像はCG等の仮想画像であ
ることを特徴とする表示制御方法。
6. The display control method according to claim 5, wherein the first image is a real image, and the second image is a virtual image such as CG.
【請求項7】 請求項6において、前記第1の画像は、
ステレオ画像を構成する左右の画像であることを特徴と
する表示制御方法。
7. The method according to claim 6, wherein the first image is
A display control method, characterized by right and left images forming a stereo image.
【請求項8】 請求項6において、前記マーカーは、前
記実写画像の撮影対象に予め付与され、前記撮影対象に
対して位置が不変であることを特徴とする表示制御方
法。
8. The display control method according to claim 6, wherein the marker is provided in advance to a shooting target of the real image, and the position of the marker is invariable with respect to the shooting target.
【請求項9】 被写体を撮影する撮影手段によって得ら
れた実写映像と造形的に作成された仮装画像とを合成し
て表示部に表示する表示手段と、前記表示手段の合成表
示の際に、前記実写映像に撮影されたマーカーを参照し
て前記仮装画像の位置決めを行う位置決め手段とを有す
る表示制御装置において、 前記表示手段により、同一の被写体を撮影する2つの撮
影手段によって得られた2つの実写映像のそれぞれに前
記仮装画像を合成して表示する際に、前記位置決め手段
は、前記2つの実写映像の両方に撮影されたマーカーの
みを用いて前記仮装画像の位置決めを行うことを特徴と
する表示制御装置。
9. A display means for combining a photographed image obtained by a photographing means for photographing a subject and a phantom image created by modeling, and displaying the combined image on a display unit. A display control device having positioning means for positioning the temporary image with reference to a marker photographed in the real image, wherein the display means displays two images obtained by two photographing means for photographing the same subject. When combining and displaying the virtual image with each of the real video images, the positioning means performs positioning of the virtual image using only markers captured in both of the two real video images. Display control device.
【請求項10】 前記2つの撮影手段は、左眼用カメラ
と右眼用カメラであることを特徴とする請求項9記載の
表示制御装置。
10. The display control device according to claim 9, wherein the two photographing units are a left-eye camera and a right-eye camera.
【請求項11】 前記表示部は、左眼用表示部と右眼用
表示部で構成され、前記左眼用表示部は、前記2つの実
写映像のうち前記左眼用カメラで撮影された左眼用の実
写映像を表示し、前記右眼用表示部は、前記右眼用カメ
ラで撮影された右眼用の実写映像を表示することを特徴
とする請求項10記載の表示制御装置。
11. The display section includes a left-eye display section and a right-eye display section, and the left-eye display section includes a left-eye image captured by the left-eye camera among the two real shot images. The display control device according to claim 10, wherein a real shot image for an eye is displayed, and the display unit for the right eye displays a real shot image for a right eye captured by the right eye camera.
【請求項12】 被写体を撮影する撮影手段によって得
られた実写映像からマーカーを検出する検出手段と、前
記マーカーを参照して前記被写体の撮影位置を推測する
推測手段とを備えた撮影位置推測装置において、 前記検出手段は、同一の被写体を撮影する2つの撮影手
段によって得られた2つの実写映像からそれぞれマーカ
ーを検出するように構成し、 前記推測手段は、前記検出手段で検出されたマーカーの
うち、前記2つの実写映像の両方に撮影されたマーカー
のみを選択し、その選択されたマーカーを参照して前記
被写体の撮影位置を推測することを特徴とする撮影位置
推測装置。
12. A photographing position estimating apparatus comprising: detecting means for detecting a marker from a photographed image obtained by photographing means for photographing a subject; and estimating means for estimating a photographing position of the subject by referring to the marker. In the above, the detecting means is configured to detect a marker from each of two real shot images obtained by two photographing means for photographing the same subject, and the estimating means is configured to detect a marker detected by the detecting means. A photographing position estimating apparatus characterized in that only the markers photographed in both of the two real shot images are selected, and the photographing position of the subject is estimated with reference to the selected markers.
【請求項13】 前記2つの撮影手段は、左眼用カメラ
と右眼用カメラであることを特徴とする請求項12記載
の撮影位置推測装置。
13. The photographing position estimating apparatus according to claim 12, wherein said two photographing means are a left-eye camera and a right-eye camera.
【請求項14】 請求項9乃至請求項11記載の表示制
御装置を有することを特徴とする表示システム。
14. A display system comprising the display control device according to claim 9. Description:
【請求項15】 請求項12または請求項13記載の撮
影位置推測装置を有することを特徴とする撮影システ
ム。
15. A photographing system comprising the photographing position estimating device according to claim 12.
【請求項16】 被写体を撮影する撮影手段によって得
られた実写映像と造形的に作成された仮装画像とを合成
して表示部に表示する際に、前記実写映像に撮影された
マーカーを参照して前記仮装画像の位置決めを行う画像
位置決め方法において、 同一の被写体を撮影する2つの撮影手段によって得られ
た2つの実写映像のそれぞれに前記仮装画像を合成して
表示する場合に、前記2つの実写映像の両方に撮影され
たマーカーのみを用いて前記仮装画像の位置決めを行う
ことを特徴とする画像位置決め方法。
16. A combination of a real image obtained by a photographing means for photographing an object and a virtual image created by modeling, and displaying the synthesized image on a display unit, by referring to a marker photographed on the real image. In the image positioning method for positioning the temporary image, the two real images are combined with each of the two real images obtained by the two photographing means for photographing the same subject. An image positioning method, wherein the imaginary image is positioned using only markers captured on both of the videos.
【請求項17】 前記2つの撮影手段は、左眼用カメラ
と右眼用カメラであることを特徴とする請求項16記載
の画像位置決め方法。
17. The image positioning method according to claim 16, wherein said two photographing means are a left-eye camera and a right-eye camera.
【請求項18】 前記表示部は、左眼用表示部と右眼用
表示部で構成され、前記左眼用表示部は、前記2つの実
写映像のうち前記左眼用カメラで撮影された左眼用の実
写映像を表示し、前記右眼用表示部は、前記右眼用カメ
ラで撮影された右眼用の実写映像を表示することを特徴
とする請求項17記載の画像位置決め方法。
18. The display unit includes a left-eye display unit and a right-eye display unit, and the left-eye display unit includes a left-eye image captured by the left-eye camera out of the two real shot images. 18. The image positioning method according to claim 17, wherein a real shot video for the eye is displayed, and the display unit for the right eye displays a real shot video for the right eye shot by the right eye camera.
【請求項19】 被写体を撮影する撮影手段によって得
られた実写映像からマーカーを検出する検出行程と、前
記マーカーを参照して前記被写体の撮影位置を推測する
推測行程とを実行する撮影位置推測方法において、 前記検出行程は、同一の被写体を撮影する2つの撮影手
段によって得られた2つの実写映像からそれぞれマーカ
ーを検出し、 前記推測行程は、前記検出行程で検出されたマーカーの
うち、前記2つの実写映像の両方に撮影されたマーカー
のみを選択し、その選択されたマーカーを参照して前記
被写体の撮影位置を推測することを特徴とする撮影位置
推測方法。
19. A photographing position estimating method for executing a detecting step of detecting a marker from a real image obtained by a photographing means for photographing a subject and an estimating step of estimating a photographing position of the subject by referring to the marker. In the detection step, a marker is detected from each of two real shot images obtained by two photographing means for photographing the same subject, and the estimation step is a step in which the marker is selected from among the markers detected in the detection step. A photographing position estimating method comprising: selecting only markers photographed in both of the two real shot images; and estimating a photographing position of the subject by referring to the selected markers.
【請求項20】 前記2つの撮影手段は、左眼用カメラ
と右眼用カメラであることを特徴とする請求項19記載
の撮影位置推測方法。
20. The method according to claim 19, wherein said two photographing means are a left-eye camera and a right-eye camera.
【請求項21】 被写体を撮影する撮影手段によって得
られた実写映像と造形的に作成された仮装画像とを合成
して表示部に表示する際に、前記実写映像に撮影された
マーカーを参照して前記仮装画像の位置決めを行う画像
位置決め方法を実行するための処理プログラムを記録し
た記録媒体であって、 前記処理プログラムは、 同一の被写体を撮影する2つの撮影手段によって得られ
た2つの実写映像のそれぞれに前記仮装画像を合成して
表示する場合に、前記2つの実写映像の両方に撮影され
たマーカーのみを用いて前記仮装画像の位置決めを行う
内容を有することを特徴とする処理プログラムを記録し
た記録媒体。
21. When combining a real video image obtained by a shooting means for shooting a subject with a phantom image created artificially and displaying the synthesized image on a display unit, a marker shot on the real video image is referred to. A recording medium recording a processing program for executing an image positioning method for positioning the temporary image, wherein the processing program comprises: two real shot images obtained by two photographing means for photographing the same subject Recording a processing program characterized in that when the virtual image is combined with the virtual image and displayed, the virtual image is positioned using only markers captured in both of the two real shot images. Recording medium.
【請求項22】 マーカーが付された被写体を撮影する
撮影手段によって得られた実写映像からマーカーを検出
し、このマーカーを参照して前記被写体の撮影位置を推
測する撮影位置推測方法を実行するための処理プログラ
ムを記録した記録媒体であって、 前記処理プログラムは、 同一の被写体を撮影する2つの撮影手段によって得られ
た2つの実写映像からそれぞれマーカーを検出する第1
のステップと、 前記第1のステップによって検出されたマーカーのう
ち、前記2つの実写映像の両方に撮影されたマーカーの
みを選択する第2のステップと、 前記第2のステップで選択されたマーカーを参照して前
記被写体の撮影位置を推測する第3のステップとを備え
たことを特徴とする処理プログラムを記録した記録媒
体。
22. A photographing position estimating method for detecting a marker from a photographed image obtained by photographing means for photographing a marker-attached subject, and estimating a photographing position of the subject by referring to the marker. A recording medium storing the processing program according to the first aspect of the present invention, wherein the processing program detects a marker from each of two actual shot images obtained by two shooting means for shooting the same subject.
And a second step of selecting only the markers captured in both of the two live-action images, of the markers detected in the first step, and selecting the markers selected in the second step. And a third step of estimating the photographing position of the subject with reference to the processing medium.
JP2000350157A 2000-11-16 2000-11-16 Display control device, imaging position estimating device, display system, image pickup system, image positioning method, imaging position estimating method, and recording medium recorded with process program Pending JP2002159019A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000350157A JP2002159019A (en) 2000-11-16 2000-11-16 Display control device, imaging position estimating device, display system, image pickup system, image positioning method, imaging position estimating method, and recording medium recorded with process program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000350157A JP2002159019A (en) 2000-11-16 2000-11-16 Display control device, imaging position estimating device, display system, image pickup system, image positioning method, imaging position estimating method, and recording medium recorded with process program

Publications (1)

Publication Number Publication Date
JP2002159019A true JP2002159019A (en) 2002-05-31

Family

ID=18823439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000350157A Pending JP2002159019A (en) 2000-11-16 2000-11-16 Display control device, imaging position estimating device, display system, image pickup system, image positioning method, imaging position estimating method, and recording medium recorded with process program

Country Status (1)

Country Link
JP (1) JP2002159019A (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003083526A1 (en) * 2002-03-28 2003-10-09 Linus Ab A method and a device for co-ordinated displaying of a direct image and an electro-optical image
KR100447778B1 (en) * 2002-07-18 2004-09-08 김장헌 Apparatus for Embodying Stereo/Multiview Realistic Mixed Reality using Pose Estimation and Method Thereof
JP2006515128A (en) * 2003-01-24 2006-05-18 マイコイ・コーポレーション Stereo panoramic image capturing device
JP2007042073A (en) * 2005-07-01 2007-02-15 Canon Inc Video presentation system, video presentation method, program for causing computer to execute video presentation method and storage medium
JP2007097129A (en) * 2005-08-29 2007-04-12 Canon Inc Stereoscopic display device and control method therefor
JP2008048386A (en) * 2006-08-17 2008-02-28 Pixart Imaging Inc Interactive system for forming three-dimensional solid data
US7834909B2 (en) 2005-05-11 2010-11-16 Canon Kabushiki Kaisha Image processing method and image processing apparatus
JP2010271950A (en) * 2009-05-21 2010-12-02 Canon Inc Information processing apparatus and method of calibration process
US8049775B2 (en) 2007-04-25 2011-11-01 Canon Kabushiki Kaisha System for obtaining connection relationships between stereoscopic image processing devices
JP2012094102A (en) * 2010-09-27 2012-05-17 Nintendo Co Ltd Information processing program, information processing apparatus, information processing system and information processing method
WO2013128612A1 (en) * 2012-03-01 2013-09-06 パイオニア株式会社 Head mounted display, calibration method, calibration program, and recording medium
JP2014515962A (en) * 2011-05-23 2014-07-07 レゴ エー/エス Generating assembly instructions for structural element models
JP2014515961A (en) * 2011-05-23 2014-07-07 レゴ エー/エス Toy construction system for augmented reality
JP2016019199A (en) * 2014-07-10 2016-02-01 Kddi株式会社 Information device for drawing ar objects based on predictive camera attitude in real time, program and method
US9282319B2 (en) 2010-06-02 2016-03-08 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
GB2535722A (en) * 2015-02-25 2016-08-31 Bae Systems Plc Method and apparatus for data verification in a mixed reality system
WO2017076231A1 (en) * 2015-11-05 2017-05-11 丰唐物联技术(深圳)有限公司 Display method and display control system for head-mounted virtual reality display
JP2018069069A (en) * 2013-06-07 2018-05-10 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー System and method for generating extended virtual reality scene by less hops in head-mound system
US10015473B2 (en) 2010-06-11 2018-07-03 Nintendo Co., Ltd. Computer-readable storage medium, image display apparatus, image display system, and image display method
CN108905202A (en) * 2018-06-21 2018-11-30 网易(杭州)网络有限公司 Control virtual reality scenario rotating method and device, storage medium, electronic device
CN109600599A (en) * 2018-10-29 2019-04-09 上海神添实业有限公司 A kind of the stereopsis device and its processing method of quickly positioning target
US10303435B2 (en) 2015-01-15 2019-05-28 Seiko Epson Corporation Head-mounted display device, method of controlling head-mounted display device, and computer program
WO2020020102A1 (en) * 2018-07-23 2020-01-30 广东虚拟现实科技有限公司 Method for generating virtual content, terminal device, and storage medium

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003083526A1 (en) * 2002-03-28 2003-10-09 Linus Ab A method and a device for co-ordinated displaying of a direct image and an electro-optical image
KR100447778B1 (en) * 2002-07-18 2004-09-08 김장헌 Apparatus for Embodying Stereo/Multiview Realistic Mixed Reality using Pose Estimation and Method Thereof
JP2006515128A (en) * 2003-01-24 2006-05-18 マイコイ・コーポレーション Stereo panoramic image capturing device
US7834909B2 (en) 2005-05-11 2010-11-16 Canon Kabushiki Kaisha Image processing method and image processing apparatus
JP2007042073A (en) * 2005-07-01 2007-02-15 Canon Inc Video presentation system, video presentation method, program for causing computer to execute video presentation method and storage medium
US8139087B2 (en) 2005-07-01 2012-03-20 Canon Kabushiki Kaisha Image presentation system, image presentation method, program for causing computer to execute the method, and storage medium storing the program
JP2007097129A (en) * 2005-08-29 2007-04-12 Canon Inc Stereoscopic display device and control method therefor
JP4717728B2 (en) * 2005-08-29 2011-07-06 キヤノン株式会社 Stereo display device and control method thereof
US8885027B2 (en) 2005-08-29 2014-11-11 Canon Kabushiki Kaisha Stereoscopic display device and control method therefor
JP2008048386A (en) * 2006-08-17 2008-02-28 Pixart Imaging Inc Interactive system for forming three-dimensional solid data
US8049775B2 (en) 2007-04-25 2011-11-01 Canon Kabushiki Kaisha System for obtaining connection relationships between stereoscopic image processing devices
JP2010271950A (en) * 2009-05-21 2010-12-02 Canon Inc Information processing apparatus and method of calibration process
US8830304B2 (en) 2009-05-21 2014-09-09 Canon Kabushiki Kaisha Information processing apparatus and calibration processing method
US9282319B2 (en) 2010-06-02 2016-03-08 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
US10015473B2 (en) 2010-06-11 2018-07-03 Nintendo Co., Ltd. Computer-readable storage medium, image display apparatus, image display system, and image display method
US9278281B2 (en) 2010-09-27 2016-03-08 Nintendo Co., Ltd. Computer-readable storage medium, information processing apparatus, information processing system, and information processing method
JP2012094102A (en) * 2010-09-27 2012-05-17 Nintendo Co Ltd Information processing program, information processing apparatus, information processing system and information processing method
US10549209B2 (en) 2011-05-23 2020-02-04 Lego A/S Toy construction system for augmented reality
US11911709B2 (en) 2011-05-23 2024-02-27 Lego A/S Toy construction system for augmented reality
US11014014B2 (en) 2011-05-23 2021-05-25 Lego A/S Toy construction system for augmented reality
JP2014515962A (en) * 2011-05-23 2014-07-07 レゴ エー/エス Generating assembly instructions for structural element models
JP2014515961A (en) * 2011-05-23 2014-07-07 レゴ エー/エス Toy construction system for augmented reality
US9821242B2 (en) 2011-05-23 2017-11-21 Lego A/S Generation of building instructions for construction element models
US9827507B2 (en) 2011-05-23 2017-11-28 Lego A/S Toy construction system for augmented reality
WO2013128612A1 (en) * 2012-03-01 2013-09-06 パイオニア株式会社 Head mounted display, calibration method, calibration program, and recording medium
US10974136B2 (en) 2013-06-07 2021-04-13 Sony Interactive Entertainment LLC Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system
JP2018069069A (en) * 2013-06-07 2018-05-10 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー System and method for generating extended virtual reality scene by less hops in head-mound system
JP2020171712A (en) * 2013-06-07 2020-10-22 ソニー・インタラクティブエンタテインメント エルエルシー System and method for generating extended virtual reality scene in head mount system with less hop
JP7073444B2 (en) 2013-06-07 2022-05-23 ソニー・インタラクティブエンタテインメント エルエルシー Systems and methods for generating enhanced virtual reality scenes within a headmount system with fewer hops
JP2016019199A (en) * 2014-07-10 2016-02-01 Kddi株式会社 Information device for drawing ar objects based on predictive camera attitude in real time, program and method
US10303435B2 (en) 2015-01-15 2019-05-28 Seiko Epson Corporation Head-mounted display device, method of controlling head-mounted display device, and computer program
GB2535722A (en) * 2015-02-25 2016-08-31 Bae Systems Plc Method and apparatus for data verification in a mixed reality system
WO2017076231A1 (en) * 2015-11-05 2017-05-11 丰唐物联技术(深圳)有限公司 Display method and display control system for head-mounted virtual reality display
CN106680996A (en) * 2015-11-05 2017-05-17 丰唐物联技术(深圳)有限公司 Display method and display control system of head-mounted virtual reality display
CN108905202A (en) * 2018-06-21 2018-11-30 网易(杭州)网络有限公司 Control virtual reality scenario rotating method and device, storage medium, electronic device
WO2020020102A1 (en) * 2018-07-23 2020-01-30 广东虚拟现实科技有限公司 Method for generating virtual content, terminal device, and storage medium
US11049324B2 (en) 2018-07-23 2021-06-29 Guangdong Virtual Reality Technology Co., Ltd. Method of displaying virtual content based on markers
CN109600599A (en) * 2018-10-29 2019-04-09 上海神添实业有限公司 A kind of the stereopsis device and its processing method of quickly positioning target

Similar Documents

Publication Publication Date Title
JP2002159019A (en) Display control device, imaging position estimating device, display system, image pickup system, image positioning method, imaging position estimating method, and recording medium recorded with process program
JP4401727B2 (en) Image display apparatus and method
US6940538B2 (en) Extracting a depth map from known camera and model tracking data
US6810152B2 (en) Image processing apparatus, method of processing images, and storage medium
CN102282857B (en) Imaging device and method
KR100823649B1 (en) Calibration method and apparatus
EP3067861A2 (en) Determination of a coordinate conversion parameter
JP3991020B2 (en) Image display method and image display system
JP2004213355A (en) Information processing method
KR100941749B1 (en) Augmented reality apparatus and virtual image composition method
JP2002157606A (en) Image display controller, composite reality presentation system, image display control method, and medium providing processing program
KR20150013709A (en) A system for mixing or compositing in real-time, computer generated 3d objects and a video feed from a film camera
US20110249095A1 (en) Image composition apparatus and method thereof
US20070252833A1 (en) Information processing method and information processing apparatus
US7409152B2 (en) Three-dimensional image processing apparatus, optical axis adjusting method, and optical axis adjustment supporting method
CN104584032A (en) Hybrid precision tracking
JP4242529B2 (en) Related information presentation device and related information presentation method
JP2003344018A (en) Unit and method for image processing as well as program and storage medium
CN112166397A (en) Apparatus, system, and method for accelerating position tracking of head mounted display
JP2014095808A (en) Image creation method, image display method, image creation program, image creation system, and image display device
TWI501193B (en) Computer graphics using AR technology. Image processing systems and methods
CN110969706B (en) Augmented reality device, image processing method, system and storage medium thereof
JP6061334B2 (en) AR system using optical see-through HMD
JPH11136575A (en) Image pickup device and photographed image synthesizing method
JP2006012042A (en) Image generating method and device

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060407

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20070626