JP2009048237A - Image processor, and image processing method - Google Patents

Image processor, and image processing method Download PDF

Info

Publication number
JP2009048237A
JP2009048237A JP2007211056A JP2007211056A JP2009048237A JP 2009048237 A JP2009048237 A JP 2009048237A JP 2007211056 A JP2007211056 A JP 2007211056A JP 2007211056 A JP2007211056 A JP 2007211056A JP 2009048237 A JP2009048237 A JP 2009048237A
Authority
JP
Japan
Prior art keywords
image
time
space image
unit
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007211056A
Other languages
Japanese (ja)
Inventor
Naohito Nakamura
直仁 中村
Kenji Morita
憲司 守田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007211056A priority Critical patent/JP2009048237A/en
Publication of JP2009048237A publication Critical patent/JP2009048237A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Digital Computer Display Output (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique for reducing preventing as much as possible a virtual space image and an actual space image from being generated asynchronously with displaying a composite image for the images. <P>SOLUTION: An image processor acquires a time required for calculating position attitude information of an imaging device 1010, a time required for generating a virtual space image, a time required for generating an actual space image, and a time required for whole processing to generate a composite image of the virtual space image and the actual space image. The processor decides an operation order of a position attitude derivation unit 1120, an image input unit 1110, a virtual space image generation unit 1190 and an image composition unit 1200. The processor then operates the derivation unit 1120, input unit 1110, generation unit 1190 and composition unit 1200 in the decided operation order. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、複合現実感を提供するための技術に関するものである。   The present invention relates to a technique for providing mixed reality.

近年、現実空間と仮想空間との繋ぎ目のない結合を目的とした、複合現実感(MR:Mixed Reality)に関する研究が盛んに行われている。複合現実感の提示を行う画像表示装置は、例えば次のような構成を有する装置である。即ち、ビデオカメラ等の撮像装置が撮像した現実空間の画像上に、撮像装置の位置及び姿勢に応じて生成した仮想空間の画像(例えばコンピュータグラフィックスにより描画された仮想物体や文字情報等)を重畳描画した画像を表示する装置である。このような装置には、例えば、HMD(ヘッドマウントディスプレイ)を用いることができる。   In recent years, research on mixed reality (MR) for the purpose of seamless connection between real space and virtual space has been actively conducted. An image display device that presents mixed reality is, for example, a device having the following configuration. That is, an image of a virtual space (for example, a virtual object or character information drawn by computer graphics) generated according to the position and orientation of the imaging device on an image of the real space captured by the imaging device such as a video camera. It is an apparatus that displays an image that is superimposed and drawn. For example, an HMD (head mounted display) can be used for such an apparatus.

また、係る画像表示装置は、観察者の頭部に装着された光学シースルー型ディスプレイに、観察者の視点の位置及び姿勢に応じて生成した仮想空間の画像を表示する光学シースルー方式によっても実現される。   Such an image display device is also realized by an optical see-through method in which an image in a virtual space generated according to the position and orientation of the observer's viewpoint is displayed on an optical see-through display mounted on the observer's head. The

このような画像表示装置の応用としては、患者の体表面に体内の様子を重畳表示する手術支援や、現実空間に浮遊する仮想の敵と戦う複合現実感ゲーム等がある。この他にも、例えば、市街地を撮像することで得られる現実空間の画像中に含まれる著名な建造物等の名称や案内を仮想空間画像として重畳表示するナビゲーションがある。また、この他にも、例えば、ビルの建設予定地を撮像することで得られる画像中に建設予定のビルのコンピュータグラフィックス映像を重畳表示する景観シミュレーションがある。   As an application of such an image display device, there are surgical support for superimposing and displaying the state of the body on the patient's body surface, a mixed reality game for fighting virtual enemies floating in the real space, and the like. In addition to this, for example, there is navigation that superimposes and displays names and guidance of famous buildings and the like included in an image of a real space obtained by imaging a city area as a virtual space image. In addition, for example, there is a landscape simulation in which a computer graphics image of a building to be built is superimposed on an image obtained by imaging a building construction site.

複合現実空間内を観察する為には、次のような処理を行う必要がある。即ち、ユーザの視点位置、視線方向等をリアルタイムで計測し、その視点位置、視線方向から現実空間内を観察した映像をビデオカメラ等で取得する。そしてこの取得した映像に対して、ユーザの視点位置、視線方向等から観測した仮想物体(CG物体)を重畳表示する。   In order to observe the inside of the mixed reality space, it is necessary to perform the following processing. That is, the user's viewpoint position, line-of-sight direction, and the like are measured in real time, and an image obtained by observing the real space from the viewpoint position and line-of-sight direction is acquired by a video camera or the like. Then, a virtual object (CG object) observed from the viewpoint position, line-of-sight direction, etc. of the user is superimposed on the acquired video.

ここで、ユーザの視点位置、視線方向をリアルタイムに計測する為には、磁気方式による位置姿勢センサ等が用いられ、これを撮像装置に取り付けることによって、撮像装置の位置姿勢を検出する。磁気方式の位置姿勢センサとは、磁気発生装置(発信機)と磁気センサ(受信機)との間の相対位置・姿勢を検出するものであり、米国Polhemus社の製品FASTRAK等があげられる。これは特定の領域内で、センサの3次元位置と姿勢をリアルタイムに検出する装置である。この計測した6自由度の計測値を、仮想空間内での仮想カメラの位置および姿勢(カメラ座標系)と結びつけることにより、複合現実空間内を観察することができる。   Here, in order to measure the user's viewpoint position and line-of-sight direction in real time, a magnetic position / orientation sensor or the like is used, and the position / orientation of the imaging apparatus is detected by attaching the sensor to the imaging apparatus. The magnetic position / orientation sensor detects a relative position / orientation between a magnetism generator (transmitter) and a magnetic sensor (receiver), such as a product FASTRAK manufactured by Polhemus, USA. This is a device that detects the three-dimensional position and orientation of a sensor in real time within a specific region. It is possible to observe the inside of the mixed reality space by connecting the measured values of the six degrees of freedom to the position and orientation (camera coordinate system) of the virtual camera in the virtual space.

ところで、視覚刺激を観察しているだけで体験者が動揺病のような症状になってしまうことが知られている。この症状は、映像酔いやVR酔いと呼ばれ、メカニズムは現在明らかにはなっていないものの、視覚的な動きの入力と、平衡感覚系からの動きの入力の不一致が映像酔いの主要な要因とされている。近年、映像酔いのメカニズムを解明する研究(非特許文献1)や、表示する映像として手ぶれ補正加工を行った映像を使用することで映像酔いを防止する研究(非特許文献2)が行われている。
木竜.映像酔いで見られた映像の動きベクトルと生体機能との関係.映像情報メディア学会技術報告、Vol.30、No.58、2006. 森田.映像が生体に与える影響を防止する技術.映像情報メディア学会技術報告、Vol.30、No.58、2006.
By the way, it is known that an experienced person will have symptoms such as motion sickness only by observing visual stimuli. This symptom is called video sickness or VR sickness. Although the mechanism is not clear at present, the main factor of video sickness is the mismatch between the input of visual motion and the input of motion from the balanced sense system. Has been. In recent years, research to elucidate the mechanism of motion sickness (Non-Patent Document 1) and research to prevent motion sickness by using an image that has undergone camera shake correction processing as a video to be displayed (Non-Patent Document 2) have been conducted. Yes.
Tree dragon. Relationship between motion vector and biological function of video sickness. ITE Technical Report, Vol. 30, no. 58, 2006. Morita. Technology that prevents the effects of video on the living body. ITE Technical Report, Vol. 30, no. 58, 2006.

上述の映像酔いは、HMDを装着して複合現実感を体験している時にも発症する症状である。その一因は、複合現実感体験者の身体の動きと複合現実空間画像が表示されるタイミングとの間のズレによって、前庭系と視覚系の時間的矛盾が発生するためと言われている。このタイミングのズレは、例えばビデオシースルー方式の場合、現実空間画像のキャプチャとレンダリング、カメラ座標系の位置及び姿勢の導出、仮想空間画像のレンダリングといった各処理が複合現実空間画像を生成するために必要であることが原因である。   The above-mentioned video sickness is a symptom that develops even when an HMD is worn to experience mixed reality. One reason for this is said to be a time contradiction between the vestibular system and the visual system due to a shift between the body movement of the mixed reality experience person and the timing at which the mixed reality space image is displayed. For example, in the case of a video see-through method, this timing shift is necessary for each process such as capture and rendering of a real space image, derivation of the position and orientation of a camera coordinate system, and rendering of a virtual space image to generate a mixed reality space image. This is the cause.

このタイミングのズレをできる限り少なくする為に、これまでにカメラ座標系の位置及び姿勢を導出する為の処理の高速化、仮想空間画像のレンダリングの高速化、を目的とする手法が種々提案されている。しかし、複合現実空間画像を生成する為に必要となる現実空間画像と仮想空間画像との合成方法に関する提案はこれまでになされていない。   In order to reduce this timing shift as much as possible, various methods have been proposed so far for speeding up the process for deriving the position and orientation of the camera coordinate system and speeding up the rendering of the virtual space image. ing. However, no proposal has been made so far regarding a method for synthesizing a real space image and a virtual space image necessary for generating a mixed reality space image.

本発明は以上の問題に鑑みて成されたものであり、仮想空間画像や現実空間画像の生成タイミングと、これらの画像の合成画像を表示するタイミングとのずれを極力軽減させるための技術を提供することを目的とする。   The present invention has been made in view of the above problems, and provides a technique for reducing the deviation between the generation timing of a virtual space image and a real space image and the timing of displaying a composite image of these images as much as possible. The purpose is to do.

本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement.

即ち、頭部装着型表示装置が有する撮像装置の位置姿勢情報を計算する第1の手段と、
前記位置姿勢情報に基づいて仮想空間画像を生成する第2の手段と、
前記撮像装置による撮像結果に基づいて現実空間画像を生成する第3の手段と、
前記仮想空間画像と前記現実空間画像との合成画像を、前記頭部装着型表示装置に対して出力する出力手段と
を備える画像処理装置であって、
前記位置姿勢情報の計算に要した時間を示す時間情報と、前記仮想空間画像の生成に要した時間を示す時間情報と、前記現実空間画像の生成に要した時間を示す時間情報と、前記合成画像を生成するための処理に要した時間を示す時間情報と、を取得し、取得したこれらの時間情報に基づいて、前記第1乃至3の手段の動作順序を決定する決定手段と、
前記決定手段が決定した動作順序で前記第1乃至3の手段を動作させる手段と
を備えることを特徴とする。
That is, a first means for calculating position and orientation information of the imaging device included in the head-mounted display device;
A second means for generating a virtual space image based on the position and orientation information;
Third means for generating a real space image based on a result of imaging by the imaging device;
An image processing apparatus comprising: output means for outputting a composite image of the virtual space image and the real space image to the head-mounted display device,
Time information indicating time required to calculate the position and orientation information; time information indicating time required to generate the virtual space image; time information indicating time required to generate the real space image; Time information indicating the time required for processing for generating an image, and determining means for determining the operation order of the first to third means based on the acquired time information;
And a means for operating the first to third means in the operation order determined by the determining means.

本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing method of the present invention comprises the following arrangement.

即ち、頭部装着型表示装置が有する撮像装置の位置姿勢情報を計算する第1の手段と、
前記位置姿勢情報に基づいて仮想空間画像を生成する第2の手段と、
前記撮像装置による撮像結果に基づいて現実空間画像を生成する第3の手段と、
前記仮想空間画像と前記現実空間画像との合成画像を、前記頭部装着型表示装置に対して出力する出力手段と
を備える画像処理装置が行う画像処理方法であって、
前記位置姿勢情報の計算に要した時間を示す時間情報と、前記仮想空間画像の生成に要した時間を示す時間情報と、前記現実空間画像の生成に要した時間を示す時間情報と、前記合成画像を生成するための処理に要した時間を示す時間情報と、を取得し、取得したこれらの時間情報に基づいて、前記第1乃至3の手段の動作順序を決定する決定工程と、
前記決定工程で決定した動作順序で前記第1乃至3の手段を動作させる工程と
を備えることを特徴とする。
That is, a first means for calculating position and orientation information of the imaging device included in the head-mounted display device;
A second means for generating a virtual space image based on the position and orientation information;
Third means for generating a real space image based on a result of imaging by the imaging device;
An image processing method performed by an image processing apparatus comprising: output means for outputting a composite image of the virtual space image and the real space image to the head-mounted display device,
Time information indicating time required to calculate the position and orientation information; time information indicating time required to generate the virtual space image; time information indicating time required to generate the real space image; A determination step of acquiring time information indicating a time required for processing for generating an image, and determining an operation order of the first to third means based on the acquired time information;
And a step of operating the first to third means in the operation order determined in the determination step.

本発明の構成によれば、仮想空間画像や現実空間画像の生成タイミングと、これらの画像の合成画像を表示するタイミングとのずれを極力軽減させることができる。   According to the configuration of the present invention, it is possible to reduce the deviation between the generation timing of the virtual space image and the real space image and the timing of displaying the composite image of these images as much as possible.

以下、添付図面を参照し、本発明の好適な実施形態について詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

[第1の実施形態]
図1は、本実施形態に係るシステムの機能構成例を示すブロック図である。図1に示す如く、本実施形態に係るシステムは、画像処理装置1100と、頭部装着型表示装置の一例としてのHMD1000と、で構成されており、画像処理装置1100とHMD1000とは互いにデータ通信が可能なように接続されている。従って、画像処理装置1100とHMD1000との間の接続は、有線、無線の何れであっても構わない。
[First Embodiment]
FIG. 1 is a block diagram illustrating a functional configuration example of a system according to the present embodiment. As shown in FIG. 1, the system according to the present embodiment includes an image processing device 1100 and an HMD 1000 as an example of a head-mounted display device. The image processing device 1100 and the HMD 1000 communicate with each other. Are connected as possible. Accordingly, the connection between the image processing apparatus 1100 and the HMD 1000 may be either wired or wireless.

先ず、HMD1000について説明する。   First, the HMD 1000 will be described.

1010はビデオカメラなどの撮像装置であり、現実空間の動画像を撮像するものである。そして撮像装置1010は、撮像した動画像を構成する各フレームの画像(現実空間画像)を順次、画像処理装置1100に対して送出する。撮像装置1010はそれぞれ右目用と左目用とが設けられており、それぞれ、HMD1000を頭部に装着した観察者の右目から見える現実空間の動画像、左目から見える現実空間の動画像を撮像する。   Reference numeral 1010 denotes an image pickup apparatus such as a video camera, which picks up a moving image in the real space. Then, the imaging apparatus 1010 sequentially sends the images of each frame (real space image) constituting the captured moving image to the image processing apparatus 1100. The imaging device 1010 is provided for the right eye and for the left eye, respectively, and captures a moving image in the real space seen from the right eye and a moving image in the real space seen from the left eye of the observer wearing the HMD 1000 on the head.

1020は液晶画面などで構成されている表示装置で、画像処理装置1100から送出された画像(合成画像、複合現実空間画像)を表示する。表示装置1020はそれぞれ右目用と左目用とが設けられており、それぞれは、HMD1000を頭部に装着した観察者の右目、左目の眼前に位置するように、HMD1000に取り付けられている。   Reference numeral 1020 denotes a display device composed of a liquid crystal screen or the like, and displays an image (a composite image or a mixed reality space image) sent from the image processing device 1100. The display device 1020 is provided for each of the right eye and the left eye, and each is attached to the HMD 1000 so as to be positioned in front of the right eye and the left eye of the observer wearing the HMD 1000 on the head.

次に、画像処理装置1100について説明する。   Next, the image processing apparatus 1100 will be described.

画像入力部1110は、撮像装置1010から送出された右目用の現実空間画像、左目用の現実空間画像を取得する。そして取得したそれぞれの現実空間画像をデータ記憶部1170に格納する。   The image input unit 1110 acquires the real space image for the right eye and the real space image for the left eye sent from the imaging device 1010. Each acquired physical space image is stored in the data storage unit 1170.

位置姿勢導出部1120(第1の手段)は、画像入力部1110がデータ記憶部1170に格納した現実空間画像を用いて、撮像装置1010の位置姿勢情報を計算する。ここで、位置姿勢導出部1120の動作についてより詳細に説明する。   The position / orientation deriving unit 1120 (first unit) calculates position / orientation information of the imaging apparatus 1010 using the real space image stored in the data storage unit 1170 by the image input unit 1110. Here, the operation of the position / orientation deriving unit 1120 will be described in more detail.

撮像装置1010が撮像可能な現実空間中には、図1に示す如く、指標Q1〜Q4(以下、基準指標と呼称する)が配されている。各基準指標の世界座標系における配置位置は既知であるものとする。ここで、世界座標系とは、現実空間中の1点を原点として定義し、係る原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系である。各基準指標の配置位置は、データとしてデータ記憶部1170に格納されている。   In the real space that can be imaged by the imaging apparatus 1010, indices Q1 to Q4 (hereinafter referred to as reference indices) are arranged as shown in FIG. It is assumed that the position of each reference index in the world coordinate system is known. Here, the world coordinate system is a coordinate system in which one point in the real space is defined as the origin, and three axes orthogonal to each other at the origin are the x axis, the y axis, and the z axis. The arrangement position of each reference index is stored in the data storage unit 1170 as data.

各基準指標は、HMD1000が動き得る範囲内で常に撮像装置1010によって3個以上撮像されているように配されていることが好ましい。図1では、Q1、Q3、Q4が撮像装置1010の視野に含まれている状況を示している。なお、現実空間中に配する基準指標の数は、図1に示す如く4に限定するものではなく、3以上であればよい。   Each reference index is preferably arranged so that three or more images are always captured by the imaging device 1010 within a range in which the HMD 1000 can move. FIG. 1 shows a situation where Q1, Q3, and Q4 are included in the field of view of the imaging device 1010. Note that the number of reference indices arranged in the real space is not limited to four as shown in FIG. 1 and may be three or more.

また、基準指標は、例えば、それぞれが異なる色を有する円形状のマーカによって構成してもよいし、それぞれが異なるテクスチャ特徴を有する自然特徴等の特徴点によって構成してもよい。また、ある程度の面積を有する四角形の単色領域によって形成されるような、四角形指標を用いることも可能である。即ち、撮像装置1010によって撮像された画像上における基準指標の投影像の画像座標が検出可能であって、かついずれの基準指標であるかが何らかの方法で識別可能であれば、基準指標は何れの形態であってもよい。   Further, the reference index may be constituted by, for example, circular markers each having a different color, or may be constituted by feature points such as natural features each having a different texture feature. It is also possible to use a square index formed by a rectangular single color area having a certain area. That is, if the image coordinates of the projected image of the reference index on the image captured by the imaging device 1010 can be detected and which reference index can be identified by any method, which reference index is Form may be sufficient.

従って、位置姿勢導出部1120は、データ記憶部1170に格納されている現実空間画像を取得し、この取得した現実空間画像中における基準指標の画像座標を検出する。そして、この検出した画像座標と、この基準指標の世界座標系における配置位置(データ記憶部1170から取得)と、を用いて、撮像装置1010の位置姿勢情報を計算する。係る計算処理は、右目用の撮像装置1010、左目用の撮像装置1010のそれぞれについて行うものとする。なお、画像中の基準指標の画像座標と、この基準指標の世界座標系における配置位置とを用いて、この画像を撮像した撮像装置の位置姿勢情報を計算する技術については、下記の文献に記されているように公知であるため、これについての詳細な説明は省略する。   Therefore, the position / orientation deriving unit 1120 acquires the real space image stored in the data storage unit 1170 and detects the image coordinates of the reference index in the acquired real space image. Then, using the detected image coordinates and the arrangement position of the reference index in the world coordinate system (obtained from the data storage unit 1170), the position and orientation information of the imaging device 1010 is calculated. This calculation process is performed for each of the right-eye imaging device 1010 and the left-eye imaging device 1010. The following document describes the technique for calculating the position and orientation information of the imaging device that captured the image using the image coordinates of the reference index in the image and the arrangement position of the reference index in the world coordinate system. Since it is publicly known, a detailed description thereof will be omitted.

● R.M.Haralick, C.Lee, K.Ottenberg,and M.Nolle: Review and analysis of solutions of the three point perspective pose estimation problem, International Journal of Computer Vision, vol.13, no.3, pp.331―356, 1994.
● D.G.Lowe: Fitting parameterized three―dimensional models to images, IEEE Transactions on PAMI, vol.13, no.5, pp.441―550, 1991.
なお、撮像装置1010の位置姿勢情報を求めるための方法はこれに限定するものではなく、様々な方法が考えられる。例えば、位置姿勢センサを用いる方法が考えられる。位置姿勢センサには、例えば、米国Polhemus社の製品FASTRAKがある。位置姿勢センサを用いて撮像装置1010の位置姿勢情報を計算する方法について簡単に説明する。磁気トランスミッタを現実空間中の所定の位置に配置した後、磁気トランスミッタを動作させると、この磁気トランスミッタは周囲に磁界を発生させる。一方、撮像装置1010には、磁気レシーバを取り付け、磁気レシーバは、磁界中における自身の位置姿勢に応じた磁界の変化を検知する。検知した結果は、磁気トランスミッタの動作制御を行うセンサ制御装置に送出される。センサ制御装置は、係る検知結果に基づいて、センサ座標系における磁気レシーバの位置姿勢情報を計算する。ここで、センサ座標系とは、磁気トランスミッタの位置を原点として定義し、係る原点で互いに直交する3軸をそれぞれ、x軸、y軸、z軸とする座標系である。そして求めたセンサ座標系における磁気レシーバの位置姿勢情報を画像処理装置1100に送出する。なお、センサ座標系における位置姿勢情報を世界座標系やその他の座標系における位置姿勢情報に変換する処理は適宜行えばよい。
● R. M.M. Haralick, C.I. Lee, K.K. Ottenberg, and M.M. Nole: Review and analysis of solutions of the three point perspective positive estimation, International Journal of Computer Vision, vol. 13, no. 3, pp. 331-356, 1994.
● D. G. Low: Fitting parametrized three-dimensional models to images, IEEE Transactions on PAMI, vol. 13, no. 5, pp. 441-550, 1991.
Note that the method for obtaining the position and orientation information of the imaging device 1010 is not limited to this, and various methods are conceivable. For example, a method using a position and orientation sensor can be considered. As the position and orientation sensor, for example, there is a product FASTRAK manufactured by Polhemus, USA. A method for calculating the position and orientation information of the imaging apparatus 1010 using the position and orientation sensor will be briefly described. After the magnetic transmitter is placed at a predetermined position in the real space, when the magnetic transmitter is operated, the magnetic transmitter generates a magnetic field around it. On the other hand, a magnetic receiver is attached to the imaging device 1010, and the magnetic receiver detects a change in the magnetic field according to its position and orientation in the magnetic field. The detected result is sent to a sensor control device that controls the operation of the magnetic transmitter. The sensor control device calculates position and orientation information of the magnetic receiver in the sensor coordinate system based on the detection result. Here, the sensor coordinate system is a coordinate system in which the position of the magnetic transmitter is defined as the origin, and the three axes orthogonal to each other at the origin are the x axis, the y axis, and the z axis. Then, the obtained position and orientation information of the magnetic receiver in the sensor coordinate system is sent to the image processing apparatus 1100. Note that the processing for converting the position and orientation information in the sensor coordinate system into the position and orientation information in the world coordinate system and other coordinate systems may be performed as appropriate.

本実施形態では、撮像装置1010の位置姿勢情報が得られるのであれば、如何なる構成を用いても良い。そして結果として、位置姿勢導出部1120は、求めた位置姿勢情報をデータ記憶部1170に格納する。   In the present embodiment, any configuration may be used as long as the position and orientation information of the imaging device 1010 can be obtained. As a result, the position / orientation deriving unit 1120 stores the obtained position / orientation information in the data storage unit 1170.

時間遅れ計測部1130は、位置姿勢導出部1120が位置姿勢情報の計算に要した時間(位置姿勢導出時間遅れ)を計測する。そして計測した時間を示す時間情報をデータ記憶部1170に格納する。なお、係る計測は、位置姿勢情報が計算される毎に行われる。   The time delay measurement unit 1130 measures the time required for the position / orientation deriving unit 1120 to calculate the position / orientation information (position / orientation deriving time delay). Then, time information indicating the measured time is stored in the data storage unit 1170. Such measurement is performed every time position and orientation information is calculated.

仮想空間画像生成部1190(第2の手段)は、データ記憶部1170に格納されている仮想空間のデータに基づいて、仮想空間を構築する。仮想空間のデータには、仮想空間を構成する各仮想物体に係るデータや、仮想空間中を照射する光源に係るデータが含まれる。そして仮想空間画像生成部1190は、データ記憶部1170に格納されている位置姿勢情報が示す位置姿勢を有する視点を仮想空間中に設定する。そして、係る視点から見える仮想空間の画像(仮想空間画像)を生成する。なお、所定の位置姿勢を有する視点から見える仮想空間の画像を生成するための技術については周知の技術であるので、これについての詳細な説明は省略する。   The virtual space image generation unit 1190 (second unit) constructs a virtual space based on the virtual space data stored in the data storage unit 1170. The virtual space data includes data relating to each virtual object constituting the virtual space and data relating to a light source that irradiates the virtual space. Then, the virtual space image generation unit 1190 sets a viewpoint having the position and orientation indicated by the position and orientation information stored in the data storage unit 1170 in the virtual space. And the image (virtual space image) of the virtual space seen from the viewpoint concerned is generated. Since a technique for generating an image of a virtual space that can be seen from a viewpoint having a predetermined position and orientation is a well-known technique, a detailed description thereof will be omitted.

処理速度計測部1140は、仮想空間画像生成部1190が仮想空間画像の生成に要した時間(仮想空間画像描画処理時間)を計測する。そして計測した時間を示す時間情報をデータ記憶部1170に格納する。なお、係る計測は、仮想空間画像が生成される毎に行われる。   The processing speed measurement unit 1140 measures the time (virtual space image drawing processing time) required for the virtual space image generation unit 1190 to generate the virtual space image. Then, time information indicating the measured time is stored in the data storage unit 1170. Such measurement is performed every time a virtual space image is generated.

画像合成部1200は先ず、自身が管理するメモリ上に、データ記憶部1170に格納されている現実空間画像を描画する(第3の手段)。そして描画したこの現実空間画像上に、仮想空間画像生成部1190が生成した仮想空間画像を重畳描画することで、係るメモリ上に現実空間画像と仮想空間画像との合成画像を生成する。そしてこの生成した合成画像をHMD1000の表示装置1020に対して出力する。   First, the image composition unit 1200 draws a real space image stored in the data storage unit 1170 on a memory managed by the image composition unit 1200 (third means). Then, the virtual space image generated by the virtual space image generation unit 1190 is superimposed and drawn on the drawn real space image, thereby generating a composite image of the real space image and the virtual space image on the memory. The generated composite image is output to the display device 1020 of the HMD 1000.

処理速度計測部1150は、画像合成部1200が現実空間画像を描画する為に要した時間(現実空間画像描画処理時間)を計測する。そして計測した時間を示す時間情報をデータ記憶部1170に格納する。   The processing speed measurement unit 1150 measures the time (real space image drawing processing time) required for the image composition unit 1200 to draw a real space image. Then, time information indicating the measured time is stored in the data storage unit 1170.

時間遅れ計測部1160は、画像合成部1200が第n(n≧1)フレーム目における合成画像を出力してから、第(n+1)フレーム目における合成画像を出力するまでの間の時間を計測する。即ち、1フレーム分の合成画像を生成するための全ての処理に要した時間を計測する。そして、計測した時間を示す時間情報をデータ記憶部1170に格納する。なお、係る計測は、画像合成部1200が合成画像を出力する毎に行われる。   The time delay measurement unit 1160 measures the time from when the image composition unit 1200 outputs the composite image at the nth (n ≧ 1) frame to when the composite image at the (n + 1) th frame is output. . That is, the time required for all the processes for generating a composite image for one frame is measured. Then, time information indicating the measured time is stored in the data storage unit 1170. This measurement is performed every time the image composition unit 1200 outputs a composite image.

画像合成方法指定部1180は、データ記憶部1170に格納された上記各時間情報を参照し、位置姿勢導出部1120、画像入力部1110、仮想空間画像生成部1190、画像合成部1200、の動作順序を決定する。そして決定した順序で各部が動作するように、各部の動作を制御する。   The image composition method designating unit 1180 refers to the time information stored in the data storage unit 1170, and the operation order of the position / orientation deriving unit 1120, the image input unit 1110, the virtual space image generation unit 1190, and the image composition unit 1200. To decide. Then, the operation of each unit is controlled so that each unit operates in the determined order.

データ記憶部1170は上述の通り、様々な情報を格納するためのものであり、RAMやハードディスクドライブ装置などにより構成されている。なお、データ記憶部1170には、上記説明においてデータ記憶部1170に格納するものとして説明した情報の他に、本実施形態において既知の情報として説明するものについても格納されているものとする。   As described above, the data storage unit 1170 is for storing various types of information, and includes a RAM, a hard disk drive device, and the like. In addition to the information described as being stored in the data storage unit 1170 in the above description, the data storage unit 1170 also stores information described as known information in the present embodiment.

図3は、画像処理装置1100が、現実空間画像と仮想空間画像との合成画像を生成し、HMD1000に対して出力するために行う処理のフローチャートである。   FIG. 3 is a flowchart of processing performed by the image processing apparatus 1100 to generate a composite image of the real space image and the virtual space image and output the composite image to the HMD 1000.

先ず、ステップS3010では、画像合成方法指定部1180により、初期値としての動作順序を設定する。係る動作順序は、例えば、画像処理装置1100のユーザが入力指示した動作順序であっても良いし、予め定められたものであっても良い。   First, in step S3010, the image composition method designating unit 1180 sets an operation order as an initial value. Such an operation order may be, for example, an operation order instructed by the user of the image processing apparatus 1100 or a predetermined order.

次に、ステップS3020では、画像処理装置1100を構成する各部が動作することで、現実空間画像と仮想空間画像との合成画像を生成する。なお、係る生成の過程で動作する位置姿勢導出部1120、画像入力部1110、仮想空間画像生成部1190、画像合成部1200、の動作順序については、ステップS3010で設定した動作順序とする。   Next, in step S3020, each unit constituting the image processing apparatus 1100 operates to generate a composite image of the real space image and the virtual space image. Note that the operation order of the position and orientation deriving unit 1120, the image input unit 1110, the virtual space image generation unit 1190, and the image composition unit 1200 that operate in the generation process is the operation order set in step S3010.

図4A〜図4Eは、ステップS3020における処理を行うための、様々な動作順序に対応するフローチャートである。以下の説明上、図4Aのフローチャートに従った処理を実行するための動作順序を「動作順序A」、図4Bのフローチャートに従った処理を実行するための動作順序を「動作順序B」と呼称する。また、図4Cのフローチャートに従った処理を実行するための動作順序を「動作順序C」、図4Dのフローチャートに従った処理を実行するための動作順序を「動作順序D」と呼称する。また、図4Eのフローチャートに従った処理を実行するための動作順序を「動作順序E」と呼称する。また、以下の説明では、ステップS3010では、動作順序Aが設定されたものとして説明する。しかし、他の動作順序が初期値として設定されても、以下の説明は実質的には同じである。   4A to 4E are flowcharts corresponding to various operation orders for performing the processing in step S3020. In the following description, the operation order for executing the process according to the flowchart of FIG. 4A is referred to as “operation order A”, and the operation order for executing the process according to the flowchart of FIG. 4B is referred to as “operation order B”. To do. Also, the operation order for executing the processing according to the flowchart of FIG. 4C is referred to as “operation order C”, and the operation order for executing the processing according to the flowchart of FIG. 4D is referred to as “operation order D”. In addition, the operation order for executing the processing according to the flowchart of FIG. 4E is referred to as “operation order E”. In the following description, it is assumed that the operation order A is set in step S3010. However, even if other operation orders are set as initial values, the following description is substantially the same.

従って、ステップS3020では、図4Aのフローチャートに従った処理を実行することになる。図4Aのフローチャートに従った処理は、現実空間画像のキャプチャのすぐ後に位置姿勢情報を導出するため、現実空間画像と仮想空間画像との整合性を高くすることができる。   Therefore, in step S3020, processing according to the flowchart of FIG. 4A is executed. Since the processing according to the flowchart of FIG. 4A derives the position and orientation information immediately after the capture of the real space image, the consistency between the real space image and the virtual space image can be increased.

先ず、ステップS4010では、画像入力部1110は、撮像装置1010から送出された現実空間画像(撮像結果)を取得(キャプチャ)する。なお、時間遅れ計測部1160は、画像合成部1200から1フレーム前の合成画像が出力されたタイミングから計時を開始している。   First, in step S4010, the image input unit 1110 acquires (captures) a real space image (imaging result) sent from the imaging device 1010. Note that the time delay measurement unit 1160 starts timing from the timing at which the synthesized image of one frame before is output from the image synthesis unit 1200.

次に、ステップS4011では、位置姿勢導出部1120は、ステップS4010で取得した現実空間画像と、データ記憶部1170に格納されている各基準指標の配置位置とを用いて、撮像装置1010の位置姿勢情報を求める。このとき、時間遅れ計測部1130は、位置姿勢導出部1120が位置姿勢情報を求める為に要した時間を計時する。   Next, in step S4011, the position / orientation deriving unit 1120 uses the real space image acquired in step S4010 and the arrangement position of each reference index stored in the data storage unit 1170 to determine the position / orientation of the imaging device 1010. Ask for information. At this time, the time delay measuring unit 1130 measures the time required for the position / orientation deriving unit 1120 to obtain the position / orientation information.

次に、ステップS4012では、画像合成部1200は、自身が管理するメモリ上に、ステップS4010で取得した現実空間画像を描画する。このとき、処理速度計測部1150は、画像合成部1200が現実空間画像を描画する為に要した時間を計測する。   Next, in step S4012, the image composition unit 1200 renders the real space image acquired in step S4010 on the memory managed by the image composition unit 1200. At this time, the processing speed measurement unit 1150 measures the time required for the image composition unit 1200 to draw the real space image.

次に、ステップS4013では、仮想空間画像生成部1190は、ステップS4011で計算した位置姿勢情報が示す位置姿勢から見える仮想空間の画像を生成する。このとき、処理速度計測部1140は、仮想空間画像生成部1190が仮想空間画像の生成に要した時間を計測する。そして次に、画像合成部1200は、ステップS4012で上記メモリ上に描画した現実空間画像上に、仮想空間画像生成部1190が生成した仮想空間画像を重畳描画することで、係るメモリ上に現実空間画像と仮想空間画像との合成画像を生成する。そしてこの生成した合成画像をHMD1000の表示装置1020に対して出力する。そして、時間遅れ計測部1160は、1フレーム前の合成画像が出力されたタイミングから、画像合成部1200から現フレームにおける合成画像が出力されたタイミングまでの間の時間を計測する。   In step S4013, the virtual space image generation unit 1190 generates a virtual space image that can be seen from the position and orientation indicated by the position and orientation information calculated in step S4011. At this time, the processing speed measurement unit 1140 measures the time required for the virtual space image generation unit 1190 to generate the virtual space image. Then, the image composition unit 1200 superimposes and draws the virtual space image generated by the virtual space image generation unit 1190 on the real space image drawn on the memory in step S4012, so that the real space is displayed on the memory. A composite image of the image and the virtual space image is generated. The generated composite image is output to the display device 1020 of the HMD 1000. Then, the time delay measuring unit 1160 measures the time from the timing when the synthesized image of the previous frame is output to the timing when the synthesized image in the current frame is output from the image synthesizing unit 1200.

そして処理をステップS3030に戻す。   Then, the process returns to step S3030.

ステップS3030では、ステップS4010からステップS4013で計時した各時間を示す時間情報をデータ記憶部1170に格納する。   In step S3030, time information indicating each time measured in steps S4010 to S4013 is stored in data storage unit 1170.

次に、本処理の終了指示が入力された、若しくは本処理を終了する条件が満たされた場合には本処理を終了する。一方、本処理の終了指示は入力されてもいないし、本処理を終了する条件も満たされていない場合には処理をステップS3040を介してステップS3050に進める。   Next, when an instruction to end the process is input or when a condition for ending the process is satisfied, the process ends. On the other hand, if the end instruction of this process has not been input and the condition for ending this process is not satisfied, the process proceeds to step S3050 via step S3040.

ステップS3050では、画像合成方法指定部1180は、ステップS3030でデータ記憶部1170に収集した各時間情報を参照する。そして参照したこれらの各時間情報に基づいて、次のフレームの合成画像を生成するための、位置姿勢導出部1120、画像入力部1110、仮想空間画像生成部1190、画像合成部1200、の動作順序(第1乃至3の手段の動作順序)を決定し、設定する。   In step S3050, the image composition method designating unit 1180 refers to each time information collected in the data storage unit 1170 in step S3030. Then, based on the time information referred to, the operation order of the position / orientation deriving unit 1120, the image input unit 1110, the virtual space image generating unit 1190, and the image synthesizing unit 1200 for generating a synthesized image of the next frame. (Operation order of first to third means) is determined and set.

動作順序を決定する方法については様々な方法が挙げられるが、以下ではその一例について説明する。   There are various methods for determining the operation order, and an example will be described below.

例えば、処理速度計測部1140が計測した時間tvが閾値以上で、且つ時間遅れ計測部1160が計測した時間に占める時間tvの割合が閾値以上であるとする。この場合、画像合成方法指定部1180は、次のフレームの合成画像を生成する処理(ステップS3020における処理)として、図4Cのフローチャートに従った処理を実行するように決定する。即ち、図4Cのフローチャートに従った処理を実行するための動作順序である「動作順序C」を設定する。   For example, it is assumed that the time tv measured by the processing speed measurement unit 1140 is equal to or greater than the threshold, and the ratio of the time tv to the time measured by the time delay measurement unit 1160 is equal to or greater than the threshold. In this case, the image composition method designating unit 1180 determines to execute the process according to the flowchart of FIG. 4C as the process for generating the composite image of the next frame (the process in step S3020). That is, an “operation order C” that is an operation order for executing the processing according to the flowchart of FIG. 4C is set.

そして処理をステップS3020に戻し、次のフレームの合成画像を生成する処理を実行する。ここで、次のフレームの合成画像を生成する場合に行うステップS3020における処理、即ち、図4Cのフローチャートに従った処理について説明する。   Then, the process returns to step S3020, and a process for generating a composite image of the next frame is executed. Here, the process in step S3020 that is performed when a composite image of the next frame is generated, that is, the process according to the flowchart of FIG. 4C will be described.

ステップS4030では位置姿勢導出部1120は1フレーム前の現実空間画像としてデータ記憶部1170に格納されている現実空間画像とデータ記憶部1170に格納されている各基準指標の配置位置とを用いて、撮像装置1010の位置姿勢情報を求める。このとき、時間遅れ計測部1130は、位置姿勢導出部1120が位置姿勢情報を求める為に要した時間を計時する。更に、時間遅れ計測部1160は、画像合成部1200から1フレーム前の合成画像が出力されたタイミングから計時を開始している。   In step S4030, the position / orientation deriving unit 1120 uses the real space image stored in the data storage unit 1170 as the real space image of the previous frame and the arrangement position of each reference index stored in the data storage unit 1170. The position and orientation information of the imaging apparatus 1010 is obtained. At this time, the time delay measuring unit 1130 measures the time required for the position / orientation deriving unit 1120 to obtain the position / orientation information. Furthermore, the time delay measurement unit 1160 starts timing from the timing when the composite image of one frame before is output from the image synthesis unit 1200.

次に、ステップS4031では、仮想空間画像生成部1190は、ステップS4030で計算した位置姿勢情報が示す位置姿勢から見える仮想空間の画像を生成する。このとき、処理速度計測部1140は、仮想空間画像生成部1190が仮想空間画像の生成に要した時間を計測する。   In step S4031, the virtual space image generation unit 1190 generates a virtual space image that can be seen from the position and orientation indicated by the position and orientation information calculated in step S4030. At this time, the processing speed measurement unit 1140 measures the time required for the virtual space image generation unit 1190 to generate the virtual space image.

次に、ステップS4032では、画像入力部1110は、撮像装置1010から送出された現実空間画像を取得(キャプチャ)する。   Next, in step S4032, the image input unit 1110 acquires (captures) the real space image sent from the imaging device 1010.

次に、ステップS4033では、画像合成部1200は先ず、自身が管理するメモリ上に、ステップS4032で取得した現実空間画像を描画する。このとき、処理速度計測部1150は、画像合成部1200が現実空間画像を描画する為に要した時間を計測する。次に、画像合成部1200は、メモリ上に描画した現実空間画像上に、ステップS4031で仮想空間画像生成部1190が生成した仮想空間画像を重畳描画することで、係るメモリ上に現実空間画像と仮想空間画像との合成画像を生成する。そしてこの生成した合成画像をHMD1000の表示装置1020に対して出力する。そして、時間遅れ計測部1160は、1フレーム前の合成画像が出力されたタイミングから、画像合成部1200から合成画像が出力されたタイミングまでの間の時間を計測する。   Next, in step S4033, the image composition unit 1200 first draws the physical space image acquired in step S4032 on the memory managed by the image composition unit 1200. At this time, the processing speed measurement unit 1150 measures the time required for the image composition unit 1200 to draw the real space image. Next, the image composition unit 1200 superimposes and draws the virtual space image generated by the virtual space image generation unit 1190 in step S4031 on the real space image drawn on the memory. A composite image with the virtual space image is generated. The generated composite image is output to the display device 1020 of the HMD 1000. Then, the time delay measuring unit 1160 measures the time from the timing when the synthesized image of the previous frame is output to the timing when the synthesized image is output from the image synthesizing unit 1200.

そして処理をステップS3030に戻す。   Then, the process returns to step S3030.

動作順序Cを用いることで、合成画像を表示するタイミングの直前にキャプチャと描画処理を行うため、現実空間画像の時間遅れの軽減が期待できる。   By using the operation sequence C, the capture and the drawing process are performed immediately before the timing of displaying the composite image, so that it is possible to reduce the time delay of the real space image.

なお、上記閾値は、予め設定されたものであっても良いし、画像処理装置1100のユーザが指示入力したものであっても良い。これは、以降に登場する閾値についても同様である。   The threshold value may be set in advance or may be input by an instruction input by the user of the image processing apparatus 1100. The same applies to the thresholds appearing later.

また、ステップS3050における動作順序を決定する処理として、例えば、処理速度計測部1150が計測した時間trが閾値以上で、且つ時間遅れ計測部1160が計測した時間に占める時間trの割合が閾値以上であるとする。この場合、画像合成方法指定部1180は、次のフレームの合成画像を生成する処理(ステップS3020における処理)として、図4Bのフローチャートに従った処理を実行するように決定する。即ち、図4Bのフローチャートに従った処理を実行するための動作順序である「動作順序B」を設定する。   In addition, as the processing for determining the operation order in step S3050, for example, the time tr measured by the processing speed measurement unit 1150 is equal to or greater than a threshold, and the ratio of the time tr to the time measured by the time delay measurement unit 1160 is equal to or greater than the threshold. Suppose there is. In this case, the image composition method designating unit 1180 determines to execute the process according to the flowchart of FIG. 4B as the process of generating the composite image of the next frame (the process in step S3020). That is, an “operation order B” that is an operation order for executing the processing according to the flowchart of FIG. 4B is set.

先ず、ステップS4020では、画像入力部1110は、撮像装置1010から送出された現実空間画像を取得(キャプチャ)する。なお、時間遅れ計測部1160は、画像合成部1200から1フレーム前の合成画像が出力されたタイミングから計時を開始している。   First, in step S4020, the image input unit 1110 acquires (captures) a real space image sent from the imaging device 1010. Note that the time delay measurement unit 1160 starts timing from the timing at which the synthesized image of one frame before is output from the image synthesis unit 1200.

次に、ステップS4021では、画像合成部1200は、自身が管理するメモリ上に、ステップS4020で取得した現実空間画像を描画する。このとき、処理速度計測部1150は、画像合成部1200が現実空間画像を描画する為に要した時間を計測する。   Next, in step S4021, the image composition unit 1200 renders the real space image acquired in step S4020 on the memory managed by the image composition unit 1200. At this time, the processing speed measurement unit 1150 measures the time required for the image composition unit 1200 to draw the real space image.

次に、ステップS4022では、位置姿勢導出部1120は、ステップS4020で取得した現実空間画像と、データ記憶部1170に格納されている各基準指標の配置位置とを用いて、撮像装置1010の位置姿勢情報を求める。このとき、時間遅れ計測部1130は、位置姿勢導出部1120が位置姿勢情報を求める為に要した時間を計時する。   Next, in step S4022, the position / orientation deriving unit 1120 uses the real space image acquired in step S4020 and the arrangement position of each reference index stored in the data storage unit 1170 to determine the position / orientation of the imaging device 1010. Ask for information. At this time, the time delay measuring unit 1130 measures the time required for the position / orientation deriving unit 1120 to obtain the position / orientation information.

次に、ステップS4023では、仮想空間画像生成部1190は、ステップS4022で計算した位置姿勢情報が示す位置姿勢から見える仮想空間の画像を生成する。このとき、処理速度計測部1140は、仮想空間画像生成部1190が仮想空間画像の生成に要した時間を計測する。そして次に、画像合成部1200は、ステップS4021で上記メモリ上に描画した現実空間画像上に、仮想空間画像生成部1190が生成した仮想空間画像を重畳描画することで、係るメモリ上に現実空間画像と仮想空間画像との合成画像を生成する。そしてこの生成した合成画像をHMD1000の表示装置1020に対して出力する。そして、時間遅れ計測部1160は、1フレーム前の合成画像が出力されたタイミングから、画像合成部1200から合成画像が出力されたタイミングまでの間の時間を計測する。   Next, in step S4023, the virtual space image generation unit 1190 generates a virtual space image that can be seen from the position and orientation indicated by the position and orientation information calculated in step S4022. At this time, the processing speed measurement unit 1140 measures the time required for the virtual space image generation unit 1190 to generate the virtual space image. Next, the image composition unit 1200 superimposes and draws the virtual space image generated by the virtual space image generation unit 1190 on the real space image drawn on the memory in step S4021, so that the real space is displayed on the memory. A composite image of the image and the virtual space image is generated. The generated composite image is output to the display device 1020 of the HMD 1000. Then, the time delay measuring unit 1160 measures the time from the timing when the synthesized image of the previous frame is output to the timing when the synthesized image is output from the image synthesizing unit 1200.

そして処理をステップS3030に戻す。   Then, the process returns to step S3030.

また、ステップS3050における動作順序を決定する処理として、例えば、時間遅れ計測部1130が計測した時間tpが閾値以上であるとする。この場合、画像合成方法指定部1180は、次のフレームの合成画像を生成する処理(ステップS3020における処理)として、図4Aのフローチャートに従った処理を実行するように決定する。即ち、図4Aのフローチャートに従った処理を実行するための動作順序である「動作順序A」を設定する。図4Aのフローチャートに従った処理については後述の通りであるので、ここでの説明は省略する。   Further, as a process of determining the operation order in step S3050, for example, it is assumed that the time tp measured by the time delay measurement unit 1130 is equal to or greater than a threshold value. In this case, the image composition method specifying unit 1180 determines to execute the process according to the flowchart of FIG. 4A as the process of generating the composite image of the next frame (the process in step S3020). That is, an “operation order A” that is an operation order for executing the processing according to the flowchart of FIG. 4A is set. Since the processing according to the flowchart of FIG. 4A is as described later, description thereof is omitted here.

[第2の実施形態]
第1の実施形態では、様々な時間情報を用いて、1つの動作順序を決定する処理を画像処理装置1100側で行うようにしていたが、係る決定を画像処理装置1100のユーザに行わせるようにしても良い。
[Second Embodiment]
In the first embodiment, the process of determining one operation order is performed on the image processing apparatus 1100 side using various time information. However, the user of the image processing apparatus 1100 performs the determination. Anyway.

この場合、それぞれの時間情報を画像処理装置1100が有する表示画面上に表示させ、ユーザに対して提示する。そして、ユーザは、係る表示画面を見て動作順序を判断し、判断した結果を、指示入力する。   In this case, each time information is displayed on the display screen of the image processing apparatus 1100 and presented to the user. Then, the user looks at the display screen to determine the operation order, and inputs the determined result as an instruction.

[第3の実施形態]
第1、第2の実施形態は、画像処理装置1100にビデオシースルー方式のHMDが接続されている場合について説明を行った。本実施形態に係る画像処理装置は、光学シースルー方式・ビデオシースルー方式の双方の方式を持つHMDが接続されている場合になっている。以下、本実施形態に係る画像処理装置について説明する。
[Third Embodiment]
In the first and second embodiments, the case where a video see-through HMD is connected to the image processing apparatus 1100 has been described. In the image processing apparatus according to the present embodiment, an HMD having both an optical see-through method and a video see-through method is connected. The image processing apparatus according to this embodiment will be described below.

図5は、本実施形態に係るシステムの機能構成例を示すブロック図である。図1と同じ部分については同じ番号をつけており、その説明を省略する。図5に示す如く、本実施形態に係るシステムは、画像処理装置1100と、頭部装着型表示装置の一例としてのHMD5000と、で構成されており、画像処理装置1100とHMD5000とは互いにデータ通信が可能なように接続されている。従って、画像処理装置1100とHMD5000との間の接続は、有線、無線の何れであっても構わない。   FIG. 5 is a block diagram illustrating a functional configuration example of the system according to the present embodiment. The same parts as those in FIG. 1 are denoted by the same reference numerals, and the description thereof is omitted. As shown in FIG. 5, the system according to the present embodiment includes an image processing apparatus 1100 and an HMD 5000 as an example of a head-mounted display device. The image processing apparatus 1100 and the HMD 5000 communicate with each other. Are connected as possible. Therefore, the connection between the image processing apparatus 1100 and the HMD 5000 may be either wired or wireless.

HMD5000について説明する。   The HMD5000 will be described.

5010は液晶シャッターである。液晶シャッター5010を開閉することで、装着者に対する直接の現実世界の提示/非提示を切り替えることができる。つまり、光学シースルー方式を使用する時には、液晶シャッター5010を開けた状態で装着者に直接現実世界が見えるように設定し、ビデオシースルー方式を使用する時には、液晶シャッターを閉じることで装着者に直接現実世界が見えないように設定する。   Reference numeral 5010 denotes a liquid crystal shutter. By opening and closing the liquid crystal shutter 5010, it is possible to switch between direct presentation / non-presentation of the real world to the wearer. In other words, when the optical see-through method is used, the wearer is set to see the real world directly with the liquid crystal shutter 5010 opened, and when the video see-through method is used, the liquid crystal shutter is closed to directly realize the reality to the wearer. Set so that the world is not visible.

画像処理装置1100に光学シースルー方式・ビデオシースルー方式双方の方式を持つHMDが接続されている場合の動作順序を決定する方法について、以下ではその一例について説明する。   An example of the method for determining the operation order when an HMD having both the optical see-through method and the video see-through method is connected to the image processing apparatus 1100 will be described below.

ステップS3050における動作順序を決定する処理として、例えば、処理速度計測部1150が計測した時間trが閾値以上で、且つ時間遅れ計測部1160が計測した時間に占める時間trの割合が閾値以上であるとする。この場合、画像合成方法指定部1180は、次のフレームの合成画像を生成する処理(ステップS3020における処理)として、図4Dのフローチャートに従った処理を実行するように決定する。即ち、図4Dのフローチャートに従った処理を実行するための動作順序である「動作順序D」を設定する。   As the process for determining the operation order in step S3050, for example, the time tr measured by the processing speed measuring unit 1150 is equal to or greater than the threshold, and the ratio of the time tr occupying the time measured by the time delay measuring unit 1160 is equal to or greater than the threshold. To do. In this case, the image composition method specifying unit 1180 determines to execute the process according to the flowchart of FIG. 4D as the process of generating the composite image of the next frame (the process in step S3020). That is, an “operation order D” that is an operation order for executing the processing according to the flowchart of FIG. 4D is set.

先ず、ステップS4040では、画像合成部1200は、光学シースルー方式への切り替え指示、をHMD5000に対して送出する。即ち、以降の処理では、現実空間画像の生成動作を非動作とする。   First, in step S4040, the image composition unit 1200 sends an instruction to switch to the optical see-through method to the HMD 5000. That is, in the subsequent processing, the generation operation of the real space image is made non-operation.

次に、ステップS4041では、位置姿勢導出部1120は、現実空間画像と、データ記憶部1170に格納されている各基準指標の配置位置とを用いて、視点の位置姿勢情報を求める。このとき、時間遅れ計測部1130は、位置姿勢導出部1120が位置姿勢情報を求める為に要した時間を計時する。   In step S <b> 4041, the position / orientation deriving unit 1120 obtains viewpoint position / orientation information using the real space image and the arrangement position of each reference index stored in the data storage unit 1170. At this time, the time delay measuring unit 1130 measures the time required for the position / orientation deriving unit 1120 to obtain the position / orientation information.

次に、ステップS4042では、仮想空間画像生成部1190は、ステップS4041で求めた位置姿勢情報が示す位置姿勢から見える仮想空間の画像を生成する。そしてこの生成した仮想空間画像を、HMD5000に対して出力する。このとき、処理速度計測部1140は、仮想空間画像生成部1190が仮想空間画像の生成に要した時間を計測する。   In step S4042, the virtual space image generation unit 1190 generates a virtual space image that can be seen from the position and orientation indicated by the position and orientation information obtained in step S4041. The generated virtual space image is output to the HMD 5000. At this time, the processing speed measurement unit 1140 measures the time required for the virtual space image generation unit 1190 to generate the virtual space image.

そして処理をステップS3030に戻す。   Then, the process returns to step S3030.

なお、本実施形態では、画像処理装置に接続する光学シースルー・ビデオシースルー双方の方式を持つHMDを液晶シャッターを持つHMDとして説明を行った。しかし、HMDは光学シースルー・ビデオシースルー双方の方式を実現するHMDであれば良い。   In this embodiment, the HMD having both the optical see-through method and the video see-through method connected to the image processing apparatus is described as an HMD having a liquid crystal shutter. However, the HMD may be any HMD that realizes both optical see-through and video see-through methods.

また、光学シースルー方式への切り替えを行う「動作順序D」に設定できるか否かは、装着者が仮想空間に表示するコンテンツ乃至画像処理装置を使用する環境状況によって予め設定しておいてよい。   Whether or not the “operation order D” for switching to the optical see-through method can be set may be set in advance depending on the content displayed in the virtual space or the environmental conditions in which the image processing apparatus is used.

[第4の実施形態]
HMD1000側にクロマキー合成機能が備わっている場合の動作順序を決定する方法について、以下ではその一例について説明する。即ち、本実施形態では、HMD1000は、クロマキー合成機能付き頭部装着型表示装置の一例として説明する。
[Fourth Embodiment]
An example of the method for determining the operation order when the HMD 1000 has the chroma key composition function will be described below. That is, in this embodiment, the HMD 1000 will be described as an example of a head-mounted display device with a chroma key composition function.

ステップS3050における動作順序を決定する処理として、例えば、処理速度計測部1150が計測した時間trが閾値以上で、且つ時間遅れ計測部1160が計測した時間に占める時間trの割合が閾値以上であるとする。この場合、画像合成方法指定部1180は、次のフレームの合成画像を生成する処理(ステップS3020における処理)として、図4Eのフローチャートに従った処理を実行するように決定する。即ち、図4Eのフローチャートに従った処理を実行するための動作順序である「動作順序E」を設定する。   As the process for determining the operation order in step S3050, for example, the time tr measured by the processing speed measuring unit 1150 is equal to or greater than the threshold, and the ratio of the time tr occupying the time measured by the time delay measuring unit 1160 is equal to or greater than the threshold. To do. In this case, the image composition method designating unit 1180 determines to execute the process according to the flowchart of FIG. 4E as the process for generating the composite image of the next frame (the process in step S3020). That is, an “operation order E” that is an operation order for executing the processing according to the flowchart of FIG. 4E is set.

先ず、ステップS4050では、画像入力部1110は、撮像装置1010から送出された現実空間画像を取得(キャプチャ)する。   First, in step S4050, the image input unit 1110 acquires (captures) a real space image sent from the imaging device 1010.

次に、ステップS4051では、位置姿勢導出部1120は、ステップS4050で取得した現実空間画像と、データ記憶部1170に格納されている各基準指標の配置位置とを用いて、撮像装置1010の位置姿勢情報を求める。このとき、時間遅れ計測部1130は、位置姿勢導出部1120が位置姿勢情報を求める為に要した時間を計時する。   Next, in step S4051, the position / orientation deriving unit 1120 uses the real space image acquired in step S4055 and the arrangement position of each reference index stored in the data storage unit 1170 to determine the position / orientation of the imaging apparatus 1010. Ask for information. At this time, the time delay measuring unit 1130 measures the time required for the position / orientation deriving unit 1120 to obtain the position / orientation information.

次に、ステップS4052では、仮想空間画像生成部1190は、ステップS4051で求めた位置姿勢情報が示す位置姿勢から見える仮想空間の画像を生成する。このとき、処理速度計測部1140は、仮想空間画像生成部1190が仮想空間画像の生成に要した時間を計測する。   In step S4052, the virtual space image generation unit 1190 generates a virtual space image that can be seen from the position and orientation indicated by the position and orientation information obtained in step S4051. At this time, the processing speed measurement unit 1140 measures the time required for the virtual space image generation unit 1190 to generate the virtual space image.

次に、ステップS4053では、画像合成部1200は、ステップS4050で取得した現実空間画像と、ステップS4052で生成した仮想空間画像と、クロマキー合成指示と、をHMD1000に対して送出する。   Next, in step S4053, the image composition unit 1200 sends the real space image acquired in step S4055, the virtual space image generated in step S4052 and the chroma key composition instruction to the HMD 1000.

係るクロマキー合成指示により、HMD1000は、現実空間画像と仮想空間画像とのクロマキー合成処理を行い、合成画像を生成する。クロマキー合成については周知の技術であるので、これについての説明は省略する。   In response to the chroma key composition instruction, the HMD 1000 performs a chroma key composition process of the real space image and the virtual space image to generate a composite image. Since chroma key composition is a well-known technique, a description thereof will be omitted.

そして処理をステップS3030に戻す。   Then, the process returns to step S3030.

また、クロマキー合成機能の実施の切り替えを行う「動作順序E」に設定できるか否かは、装着者が仮想空間に表示するコンテンツ乃至画像処理装置を使用する環境状況によって予め設定しておいてよい。   Further, whether or not the “operation order E” for switching the execution of the chroma key composition function can be set may be set in advance depending on the content displayed in the virtual space or the environmental conditions in which the image processing apparatus is used. .

[第5の実施形態]
図1に示した、画像処理装置1100を構成する各部は全て、上記実施形態ではハードウェアで構成されているとして説明した。しかし、その一部をソフトウェアで構成しても良い。その場合、残りの部分をハードウェアとして実装しているコンピュータに、このソフトウェアを実行させることで、このコンピュータは、上記実施形態で説明した画像処理装置1100の動作を行うことになる。
[Fifth Embodiment]
In the above embodiment, the description has been given assuming that all the units included in the image processing apparatus 1100 illustrated in FIG. 1 are configured by hardware. However, some of them may be configured by software. In this case, by causing a computer that implements the remaining part as hardware to execute this software, the computer performs the operation of the image processing apparatus 1100 described in the above embodiment.

図2は、画像処理装置1100に適用可能なコンピュータのハードウェア構成例を示すブロック図である。   FIG. 2 is a block diagram illustrating an exemplary hardware configuration of a computer applicable to the image processing apparatus 1100.

CPU2001は、RAM2002やROM2003に格納されているプログラムやデータを用いて、コンピュータ全体の制御を行うと共に、上記各実施形態で画像処理装置1100が行うものとして説明した上述の各処理を実行する。   The CPU 2001 uses the programs and data stored in the RAM 2002 and ROM 2003 to control the entire computer, and executes the above-described processes described as being performed by the image processing apparatus 1100 in the above embodiments.

RAM2002は、外部記憶装置2007や記憶媒体ドライブ2008からロードされたプログラムやデータを一時的に記憶するためのアリアを有する。更にRAM2002は、I/F(インターフェース)2009を介して外部(図1の場合、撮像装置1010)から受信したデータ(図1の場合、現実空間画像)を一時的に記憶するためのエリアを有する。更に、RAM2002は、CPU2001が各処理を実行する際に用いるワークエリアも有する。即ち、RAM2002は、各種エリアを適宜提供することができる。例えば、RAM2002は、図1に示したデータ記憶部1170としても機能する。   The RAM 2002 has an area for temporarily storing programs and data loaded from the external storage device 2007 and the storage medium drive 2008. Further, the RAM 2002 has an area for temporarily storing data (in the case of FIG. 1, a real space image) received from the outside (in the case of FIG. 1, the imaging device 1010) via the I / F (interface) 2009. . Furthermore, the RAM 2002 also has a work area used when the CPU 2001 executes each process. That is, the RAM 2002 can provide various areas as appropriate. For example, the RAM 2002 also functions as the data storage unit 1170 illustrated in FIG.

ROM2003には、コンピュータの設定データやブートプログラムなどが格納されている。   The ROM 2003 stores computer setting data, a boot program, and the like.

キーボード2004、マウス2005は、操作入力装置の一例としてのものであり、コンピュータのユーザが操作することで、各種の指示をCPU2001に対して入力することができる。   A keyboard 2004 and a mouse 2005 are examples of an operation input device, and various instructions can be input to the CPU 2001 by a user of a computer.

表示部2006は、CRTや液晶画面などにより構成されており、CPU2001による処理結果を画像や文字などで表示することができる。例えば、表示部2006には、撮像装置1010の位置姿勢計測のために表示すべきメッセージなどを表示することができる。   The display unit 2006 is configured by a CRT, a liquid crystal screen, or the like, and can display a processing result by the CPU 2001 as an image or text. For example, a message to be displayed for measuring the position and orientation of the imaging apparatus 1010 can be displayed on the display unit 2006.

外部記憶装置2007は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置2007には、OS(オペレーティングシステム)や、画像処理装置1100が行うものとして説明した上述の各処理をCPU2001に実行させるためのプログラムやデータが格納されている。係るプログラムには、時間遅れ計測部1130、1160、位置姿勢導出部1120、画像合成方法指定部1180、処理速度計測部1140,1150、仮想空間画像生成部1190、画像合成部1200のそれぞれに対応するプログラムが含まれている。また、係るデータには、仮想空間のデータや、上述の説明において、既知の情報として説明したものが含まれている。外部記憶装置2007に保存されているプログラムやデータは、CPU2001による制御に従って適宜RAM2002にロードされる。CPU2001はこのロードされたプログラムやデータを用いて処理を実行することで、画像処理装置1100が行うものとして上述した各処理を実行することになる。なお、外部記憶装置2007は、図1に示したデータ記憶部1170として用いても良い。   The external storage device 2007 is a large-capacity information storage device represented by a hard disk drive device. The external storage device 2007 stores an OS (operating system) and programs and data for causing the CPU 2001 to execute the above-described processes described as being performed by the image processing apparatus 1100. The program corresponds to each of the time delay measurement units 1130 and 1160, the position / orientation derivation unit 1120, the image synthesis method designation unit 1180, the processing speed measurement units 1140 and 1150, the virtual space image generation unit 1190, and the image synthesis unit 1200. The program is included. The data includes virtual space data and data described as known information in the above description. Programs and data stored in the external storage device 2007 are loaded into the RAM 2002 as appropriate under the control of the CPU 2001. The CPU 2001 executes processes using the loaded program and data, thereby executing each process described above as what the image processing apparatus 1100 performs. The external storage device 2007 may be used as the data storage unit 1170 shown in FIG.

記憶媒体ドライブ2008は、CD−ROMやDVD−ROMなどの記憶媒体に記録されたプログラムやデータを読み出したり、係る記憶媒体にプログラムやデータを書き込んだりする。なお、外部記憶装置2007に保存されているものとして説明したプログラムやデータの一部若しくは全部をこの記憶媒体に記録しておいても良い。記憶媒体ドライブ2008が記憶媒体から読み出したプログラムやデータは、外部記憶装置2007やRAM2002に対して出力される。   The storage medium drive 2008 reads a program or data recorded on a storage medium such as a CD-ROM or DVD-ROM, or writes a program or data to the storage medium. Note that some or all of the programs and data described as being stored in the external storage device 2007 may be recorded in this storage medium. Programs and data read from the storage medium by the storage medium drive 2008 are output to the external storage device 2007 and the RAM 2002.

I/F2009は、撮像装置1010を接続するためのアナログビデオポートあるいはIEEE1394等のデジタル入出力ポート、また、合成画像をHMD1000の表示装置1020に対して出力するためのイーサネット(登録商標)ポートなどによって構成される。I/F2009を介して受信したデータは、RAM2002や外部記憶装置2007に入力される。なお、図1に示した画像入力部1110の機能の一部は、I/F2009によって実現される。また、位置姿勢情報の取得にセンサシステムを用いる場合、このI/F2009には、センサシステムを接続することになる。   The I / F 2009 is an analog video port for connecting the imaging device 1010 or a digital input / output port such as IEEE1394, or an Ethernet (registered trademark) port for outputting a composite image to the display device 1020 of the HMD1000. Composed. Data received via the I / F 2009 is input to the RAM 2002 and the external storage device 2007. Note that some of the functions of the image input unit 1110 illustrated in FIG. 1 are realized by the I / F 2009. Further, when a sensor system is used to acquire position and orientation information, a sensor system is connected to the I / F 2009.

2010は、上述の各部を繋ぐバスである。   2010 is a bus connecting the above-described units.

[その他の実施形態]
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
[Other Embodiments]
Needless to say, the object of the present invention can be achieved as follows. That is, a recording medium (or storage medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded is supplied to the system or apparatus. Needless to say, such a storage medium is a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, an operating system (OS) or the like running on the computer performs part or all of the actual processing based on the instruction of the program code. Needless to say, the process includes the case where the functions of the above-described embodiments are realized.

さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, it is assumed that the program code read from the recording medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. After that, based on the instruction of the program code, the CPU included in the function expansion card or function expansion unit performs part or all of the actual processing, and the function of the above-described embodiment is realized by the processing. Needless to say.

本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.

本発明の第1の実施形態に係るシステムの機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the system which concerns on the 1st Embodiment of this invention. 画像処理装置1100に適用可能なコンピュータのハードウェア構成例を示すブロック図である。And FIG. 11 is a block diagram illustrating a hardware configuration example of a computer applicable to the image processing apparatus 1100. 画像処理装置1100が、現実空間画像と仮想空間画像との合成画像を生成し、HMD1000に対して出力するために行う処理のフローチャートである。12 is a flowchart of processing performed by the image processing apparatus 1100 to generate a composite image of a real space image and a virtual space image and output the composite image to the HMD 1000. ステップS3020における処理を行うためのフローチャートである。It is a flowchart for performing the process in step S3020. ステップS3020における処理を行うためのフローチャートである。It is a flowchart for performing the process in step S3020. ステップS3020における処理を行うためのフローチャートである。It is a flowchart for performing the process in step S3020. ステップS3020における処理を行うためのフローチャートである。It is a flowchart for performing the process in step S3020. ステップS3020における処理を行うためのフローチャートである。It is a flowchart for performing the process in step S3020. 本発明の第4の実施形態に係るシステムの機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the system which concerns on the 4th Embodiment of this invention.

Claims (11)

頭部装着型表示装置が有する撮像装置の位置姿勢情報を計算する第1の手段と、
前記位置姿勢情報に基づいて仮想空間画像を生成する第2の手段と、
前記撮像装置による撮像結果に基づいて現実空間画像を生成する第3の手段と、
前記仮想空間画像と前記現実空間画像との合成画像を、前記頭部装着型表示装置に対して出力する出力手段と
を備える画像処理装置であって、
前記位置姿勢情報の計算に要した時間を示す時間情報と、前記仮想空間画像の生成に要した時間を示す時間情報と、前記現実空間画像の生成に要した時間を示す時間情報と、前記合成画像を生成するための処理に要した時間を示す時間情報と、を取得し、取得したこれらの時間情報に基づいて、前記第1乃至3の手段の動作順序を決定する決定手段と、
前記決定手段が決定した動作順序で前記第1乃至3の手段を動作させる手段と
を備えることを特徴とする画像処理装置。
A first means for calculating position and orientation information of an imaging device included in the head-mounted display device;
A second means for generating a virtual space image based on the position and orientation information;
Third means for generating a real space image based on a result of imaging by the imaging device;
An image processing apparatus comprising: output means for outputting a composite image of the virtual space image and the real space image to the head-mounted display device,
Time information indicating time required to calculate the position and orientation information; time information indicating time required to generate the virtual space image; time information indicating time required to generate the real space image; Time information indicating the time required for processing for generating an image, and determining means for determining the operation order of the first to third means based on the acquired time information;
An image processing apparatus comprising: means for operating the first to third means in an operation order determined by the determining means.
前記決定手段は、前記仮想空間画像の生成に要した時間tvが閾値以上で、且つ前記合成画像を生成するための全ての処理に要した時間に占める前記時間tvの割合が閾値以上である場合には、前記第1乃至3の手段の前記動作順序を、前記第1の手段、前記第2の手段、前記第3の手段、と決定することを特徴とする請求項1に記載の画像処理装置。   In the case where the time tv required for generating the virtual space image is equal to or greater than a threshold, and the ratio of the time tv to the time required for all the processes for generating the composite image is equal to or greater than the threshold. The image processing according to claim 1, wherein the operation order of the first to third means is determined as the first means, the second means, and the third means. apparatus. 前記決定手段は、前記現実空間画像の生成に要した時間trが閾値以上で、且つ前記合成画像を生成するための全ての処理に要した時間に占める前記時間trの割合が閾値以上である場合には、前記第1乃至3の手段の前記動作順序を、前記第3の手段、前記第1の手段、前記第2の手段、と決定することを特徴とする請求項1に記載の画像処理装置。   In the case where the time tr required to generate the real space image is equal to or greater than a threshold, and the ratio of the time tr to the time required for all the processes for generating the composite image is equal to or greater than the threshold. The image processing according to claim 1, wherein the operation order of the first to third means is determined as the third means, the first means, and the second means. apparatus. 前記決定手段は、前記計算に要した時間tpが閾値以上である場合には、前記第1乃至3の手段の前記動作順序を、前記第1の手段、前記第3の手段、前記第2の手段、と決定することを特徴とする請求項1に記載の画像処理装置。   When the time tp required for the calculation is equal to or greater than a threshold value, the determining unit determines the operation order of the first to third units as the first unit, the third unit, and the second unit. The image processing apparatus according to claim 1, wherein the image processing apparatus is determined as means. 光学シースルー方式、ビデオシースルー方式の双方の方式を持つ頭部装着型表示装置が前記画像処理装置に接続されている場合、前記決定手段は、頭部装着型表示装置の方式と、前記第1乃至3の手段の動作順序と、を決定することを特徴とする請求項1に記載の画像処理装置。   When a head-mounted display device having both an optical see-through method and a video see-through method is connected to the image processing device, the determining means includes the head-mounted display device method and the first to first methods. The image processing apparatus according to claim 1, wherein an operation order of the three units is determined. 光学シースルー方式、ビデオシースルー方式の双方の方式を持つ頭部装着型表示装置が前記画像処理装置に接続されている場合、前記決定手段は、前記現実空間画像の生成に要した時間trが閾値以上で、且つ前記合成画像を生成するための全ての処理に要した時間に占める前記時間trの割合が閾値以上である場合には、頭部装着型表示装置を光学シースルー方式に切り替え、前記第3の手段を非動作とし、前記第1の手段、第2の手段の前記動作順序を、前記第1の手段、前記第2の手段、と決定することを特徴とする請求項1に記載の画像処理装置。   When a head-mounted display device having both an optical see-through method and a video see-through method is connected to the image processing device, the determining means has a time tr required to generate the real space image equal to or greater than a threshold value. And when the ratio of the time tr occupying the time required for all the processes for generating the composite image is equal to or greater than a threshold, the head-mounted display device is switched to the optical see-through method, and the third 2. The image according to claim 1, wherein the first unit and the second unit are determined as the first unit and the second unit. Processing equipment. クロマキー合成機能付き頭部装着型表示装置が前記画像処理装置に接続されている場合、前記決定手段は、クロマキー合成機能の動作と、前記第1乃至3の手段の動作順序と、を決定することを特徴とする請求項1に記載の画像処理装置。   When a head-mounted display device with a chroma key composition function is connected to the image processing device, the determination means determines the operation of the chroma key composition function and the operation order of the first to third means. The image processing apparatus according to claim 1. クロマキー合成機能付き頭部装着型表示装置が前記画像処理装置に接続されている場合、前記出力手段は、前記現実空間画像の生成に要した時間trが閾値以上で、且つ前記合成画像を生成するための全ての処理に要した時間に占める前記時間trの割合が閾値以上である場合には、前記出力手段は、前記第2の手段が生成した仮想空間画像と、前記第3の手段が生成した現実空間画像と、を前記クロマキー合成機能付き頭部装着型表示装置に対して出力することを特徴とする請求項1に記載の画像処理装置。   When a head-mounted display device with a chroma key composition function is connected to the image processing device, the output means generates a composite image in which a time tr required to generate the real space image is equal to or greater than a threshold value. When the ratio of the time tr occupying the time required for all the processes for the processing is equal to or greater than a threshold value, the output means generates the virtual space image generated by the second means and the third means generates The image processing apparatus according to claim 1, wherein the real space image is output to the head-mounted display device with a chroma key composition function. 頭部装着型表示装置が有する撮像装置の位置姿勢情報を計算する第1の手段と、
前記位置姿勢情報に基づいて仮想空間画像を生成する第2の手段と、
前記撮像装置による撮像結果に基づいて現実空間画像を生成する第3の手段と、
前記仮想空間画像と前記現実空間画像との合成画像を、前記頭部装着型表示装置に対して出力する出力手段と
を備える画像処理装置が行う画像処理方法であって、
前記位置姿勢情報の計算に要した時間を示す時間情報と、前記仮想空間画像の生成に要した時間を示す時間情報と、前記現実空間画像の生成に要した時間を示す時間情報と、前記合成画像を生成するための処理に要した時間を示す時間情報と、を取得し、取得したこれらの時間情報に基づいて、前記第1乃至3の手段の動作順序を決定する決定工程と、
前記決定工程で決定した動作順序で前記第1乃至3の手段を動作させる工程と
を備えることを特徴とする画像処理方法。
A first means for calculating position and orientation information of an imaging device included in the head-mounted display device;
A second means for generating a virtual space image based on the position and orientation information;
Third means for generating a real space image based on a result of imaging by the imaging device;
An image processing method performed by an image processing apparatus comprising: output means for outputting a composite image of the virtual space image and the real space image to the head-mounted display device,
Time information indicating time required to calculate the position and orientation information; time information indicating time required to generate the virtual space image; time information indicating time required to generate the real space image; A determination step of acquiring time information indicating a time required for processing for generating an image, and determining an operation order of the first to third means based on the acquired time information;
And a step of operating the first to third means in the operation order determined in the determination step.
コンピュータに請求項9に記載の画像処理方法を実行させるためのプログラム。   A program for causing a computer to execute the image processing method according to claim 9. 請求項10に記載のプログラムを格納した、コンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 10.
JP2007211056A 2007-08-13 2007-08-13 Image processor, and image processing method Withdrawn JP2009048237A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007211056A JP2009048237A (en) 2007-08-13 2007-08-13 Image processor, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007211056A JP2009048237A (en) 2007-08-13 2007-08-13 Image processor, and image processing method

Publications (1)

Publication Number Publication Date
JP2009048237A true JP2009048237A (en) 2009-03-05

Family

ID=40500426

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007211056A Withdrawn JP2009048237A (en) 2007-08-13 2007-08-13 Image processor, and image processing method

Country Status (1)

Country Link
JP (1) JP2009048237A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012048571A (en) * 2010-08-27 2012-03-08 Kyocera Corp Portable terminal device
US9192066B2 (en) 2010-08-27 2015-11-17 Kyocera Corporation Portable terminal device
JP6143242B1 (en) * 2016-02-15 2017-06-07 株式会社菊池製作所 Image display device
JP2019067195A (en) * 2017-10-02 2019-04-25 株式会社コロプラ Information processing method, computer, and program
JP2021514070A (en) * 2018-02-15 2021-06-03 バルブ コーポレーション Image display control using display device tracking
WO2022004130A1 (en) * 2020-06-30 2022-01-06 ソニーグループ株式会社 Information processing device, information processing method, and storage medium

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012048571A (en) * 2010-08-27 2012-03-08 Kyocera Corp Portable terminal device
US9192066B2 (en) 2010-08-27 2015-11-17 Kyocera Corporation Portable terminal device
JP6143242B1 (en) * 2016-02-15 2017-06-07 株式会社菊池製作所 Image display device
JP2017146373A (en) * 2016-02-15 2017-08-24 株式会社菊池製作所 Image display device
JP2019067195A (en) * 2017-10-02 2019-04-25 株式会社コロプラ Information processing method, computer, and program
JP2021514070A (en) * 2018-02-15 2021-06-03 バルブ コーポレーション Image display control using display device tracking
JP7276753B2 (en) 2018-02-15 2023-05-18 バルブ コーポレーション Method and system for image display control using display device tracking
WO2022004130A1 (en) * 2020-06-30 2022-01-06 ソニーグループ株式会社 Information processing device, information processing method, and storage medium

Similar Documents

Publication Publication Date Title
US8994729B2 (en) Method for simulating operation of object and apparatus for the same
JP5845211B2 (en) Image processing apparatus and image processing method
JP4933406B2 (en) Image processing apparatus and image processing method
JP4262011B2 (en) Image presentation method and apparatus
JP4777182B2 (en) Mixed reality presentation apparatus, control method therefor, and program
JP4500632B2 (en) Virtual reality presentation apparatus and information processing method
JP4950834B2 (en) Image processing apparatus and image processing method
US8378997B2 (en) Information processing method and device for presenting haptics received from a virtual object
JP4667111B2 (en) Image processing apparatus and image processing method
JP6340017B2 (en) An imaging system that synthesizes a subject and a three-dimensional virtual space in real time
JP2009276996A (en) Information processing apparatus, and information processing method
JP2009163610A (en) Image processing apparatus and image processing method
JP2019012965A (en) Video control method, video control device, and video control program
JP2009048237A (en) Image processor, and image processing method
JP4660771B2 (en) 3D image display device
JP2007128494A (en) Information processor and information processing method
JP2008146108A (en) Index, image processor and image processing method
JP2009087161A (en) Image processor and image processing method
JP2021135776A (en) Information processor, information processing method, and program
JP7129839B2 (en) TRAINING APPARATUS, TRAINING SYSTEM, TRAINING METHOD, AND PROGRAM
JP2005107972A (en) Mixed reality presentation method and mixed reality presentation system
JP2011008351A (en) Image processing method and image processing apparatus
US11589778B2 (en) Body size estimation apparatus, body size estimation method, and program
JP4689344B2 (en) Information processing method and information processing apparatus
JP2006085375A (en) Image processing method and image processor

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20101102