JP2016038632A - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP2016038632A JP2016038632A JP2014159764A JP2014159764A JP2016038632A JP 2016038632 A JP2016038632 A JP 2016038632A JP 2014159764 A JP2014159764 A JP 2014159764A JP 2014159764 A JP2014159764 A JP 2014159764A JP 2016038632 A JP2016038632 A JP 2016038632A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- virtual object
- processing apparatus
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、複合現実感を提示するための技術に関するものである。 The present invention relates to a technique for presenting mixed reality.
近年、現実空間と仮想空間との繋ぎ目のない結合を目的とした複合現実感(MR:Mixed Reality)に関する研究が盛んに行われている。複合現実感の提示を行う画像表示装置は、例えば次のような構成を有する装置である。即ち、ビデオカメラ等の撮像装置が撮像した現実空間の画像上に、撮像装置の位置姿勢に応じて生成した仮想空間の画像(例えばコンピュータグラフィックスにより描画された仮想物体や文字情報等)を重畳描画した画像を表示する装置である。このような装置には、例えば、HMD(ヘッドマウントディスプレイ、頭部装着型ディスプレイ)を用いることができる。 In recent years, research on mixed reality (MR) aimed at seamless connection between a real space and a virtual space has been actively conducted. An image display device that presents mixed reality is, for example, a device having the following configuration. That is, an image of a virtual space (for example, a virtual object or character information drawn by computer graphics) generated according to the position and orientation of the imaging device is superimposed on an image of the real space captured by the imaging device such as a video camera. It is a device that displays a drawn image. For such an apparatus, for example, an HMD (head mounted display, head mounted display) can be used.
撮像装置の位置姿勢を計測する方法として、三次元位置姿勢計測装置(例えば、VICON社の光学式三次元位置姿勢計測装置VICON)を用いる方法がある。本計測装置は、複数台のカメラから位置姿勢を計測したい対象物に取り付けた指標を撮影することで、現実空間における指標の三次元位置姿勢を計測する。然るに、指標を撮像装置に固定することで、撮像装置の三次元位置姿勢を計測することができる。 As a method for measuring the position and orientation of the imaging device, there is a method using a three-dimensional position and orientation measurement device (for example, an optical three-dimensional position and orientation measurement device VICON manufactured by VICON). This measurement apparatus measures the three-dimensional position and orientation of an index in real space by photographing an index attached to an object whose position and orientation are to be measured from a plurality of cameras. However, the three-dimensional position and orientation of the imaging apparatus can be measured by fixing the index to the imaging apparatus.
一方、仮想物体を作成する際には、一般的には、市販のCAD(Computer Aided Design)や3DCGソフト(三次元コンピュータグラフィックスソフト)を利用している(非特許文献1)。 On the other hand, when creating a virtual object, commercially available CAD (Computer Aided Design) or 3DCG software (three-dimensional computer graphics software) is generally used (Non-patent Document 1).
以上の技術を組み合わせることで、CADや3DCGソフトを用いて作成した仮想物体を用いた仮想現実空間や複合現実空間を組み合わせて体験させる事ができる。 By combining the above technologies, it is possible to experience a combination of a virtual reality space or a mixed reality space using a virtual object created using CAD or 3DCG software.
複合現実感を体感している体験者は、仮想物体に近づいて該仮想物体を詳細に観察したり、逆に仮想物体から遠ざかって該仮想物体を遠くから眺めたりすることがあるが、体験者は常に、視点の位置姿勢の計測可能範囲内に位置することが求められるため、仮想物体は、計測可能範囲を考慮した位置に配置されることが好ましい。しかし、CADや3DCGソフトを用いて仮想物体を作成するユーザが計測可能範囲をも考慮してその配置位置を設定することは困難である。 Experienced persons experiencing mixed reality may approach the virtual object and observe the virtual object in detail, or conversely, move away from the virtual object and view the virtual object from a distance. Is always required to be within the measurable range of the position and orientation of the viewpoint, so the virtual object is preferably arranged at a position that takes into account the measurable range. However, it is difficult for a user who creates a virtual object using CAD or 3DCG software to set the arrangement position in consideration of the measurable range.
本発明は、このような問題に鑑みてなされたものであり、体験者が複合現実感を得るために移動可能な範囲を考慮した仮想物体の観察環境を提供するための技術を提供する。 The present invention has been made in view of such a problem, and provides a technique for providing a virtual object observation environment in consideration of a range in which an experiencer can move in order to obtain mixed reality.
本発明の一様態は、視点の位置姿勢の計測可能な範囲を求める計算手段と、仮想物体を前記範囲内に配置する配置手段と、前記配置手段が配置した仮想物体を含む仮想空間の画像を、前記位置姿勢に応じて生成する生成手段と、前記生成手段が生成した仮想空間の画像を出力する出力手段とを備えることを特徴とする。 According to one aspect of the present invention, a calculation unit that obtains a measurable range of the position and orientation of a viewpoint, an arrangement unit that arranges a virtual object in the range, and an image of a virtual space that includes the virtual object arranged by the arrangement unit. And generating means for generating the image according to the position and orientation, and output means for outputting an image of the virtual space generated by the generating means.
本発明の構成によれば、体験者が複合現実感を得るために移動可能な範囲を考慮した仮想物体の観察環境を提供することができる。 According to the configuration of the present invention, it is possible to provide an observation environment for a virtual object in consideration of a range in which an experiencer can move in order to obtain mixed reality.
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。 Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.
[第1の実施形態]
ユーザ(体験者)に、仮想空間と現実空間とを合成した複合現実空間を体感させる(複合現実感を提示する)システムの構成例について、図1を用いて説明する。図1に示す如く、本実施形態に係るシステムは、ユーザの視点の三次元位置姿勢を計測するための光学式三次元位置姿勢計測装置1300、ユーザの頭部に装着する頭部装着型表示装置の一例であるHMD1200、複合現実空間の画像を生成する画像処理装置1000、複合現実空間の画像を表示する表示装置1100、を有している。
[First Embodiment]
A configuration example of a system that allows a user (experience person) to experience a mixed reality space obtained by synthesizing a virtual space and a real space (presenting a mixed reality) will be described with reference to FIG. As shown in FIG. 1, the system according to the present embodiment includes an optical three-dimensional position /
先ず、HMD1200について説明する。 First, the HMD 1200 will be described.
撮像装置1220R、1220Lは何れも、現実空間の動画像を撮像するためのものであり、それぞれ、HMD1200を頭部に装着するユーザの右目に提示するための動画像、左目に提示するための動画像、を撮像する。撮像装置1220R、1220Lのそれぞれが撮像した動画像を構成する各フレームの画像(撮像画像)は順次、画像処理装置1000に対して送出される。
The
表示装置1210R,1210Lは何れも、画像処理装置1000から出力された画像を表示するためのものであり、それぞれ、HMD1200を頭部に装着したユーザの右目の眼前、左目の眼前、に位置するようにHMD1200に取り付けられている。
The
マーカ1230は、HMD1200の位置姿勢を計測するために取り付けられているものであり、後述する光学式三次元位置姿勢計測装置1300による撮像対象となる。
The
なお、HMD1200と画像処理装置1000との間の通信は、有線通信であっても良いし、無線通信であっても構わないし、それらの組み合わせであっても構わない。
Note that communication between the HMD 1200 and the
次に、光学式三次元位置姿勢計測装置1300について説明する。
Next, the optical three-dimensional position /
計測用撮像装置(光学式センサ)1320A,1320Bは何れも、マーカ1230を撮像するものであり、現実空間中に固定して配置されている。計測用撮像装置1320A,1320Bによる撮像結果はコントローラ1310に送出される。コントローラ1310は、計測用撮像装置1320A,1320Bの動作制御を行うためのものであり、計測用撮像装置1320A,1320Bからの撮像結果を、画像処理装置1000に対して送出する。なお、図1では、計測用撮像装置の数を2としているが、3以上としても構わない。また、図1では、計測用撮像装置1320A,1320Bとコントローラ1310とは別個の装置としているが、コントローラ1310を、計測用撮像装置1320A,1320Bのそれぞれに組み込んでも構わない。
The measurement imaging devices (optical sensors) 1320A and 1320B both capture the
次に、画像処理装置1000について説明する。
Next, the
視点情報計測部1010は、コントローラ1310から送出された計測用撮像装置1320A,1320Bによる撮像結果から、世界座標系1500(現実空間中の1点を原点とし、該原点で互いに直交する3軸をそれぞれX軸、Y軸、Z軸とする座標系)におけるマーカ1230の位置姿勢を求める。計測用撮像装置1320A,1320Bによる撮像結果からマーカ1230の世界座標系1500における位置姿勢を求める方法については周知の技術であるため、これについての説明は省略する。以下の説明では、世界座標系1500として、床面をX−Z平面とし、該床面に対して上向きをY軸として定義するが、それぞれの軸の取り方については用途に応じて適宜変更しても構わない。そして視点情報計測部1010は、世界座標系1500におけるマーカ1230の位置姿勢を、データ記憶部1040に格納する。
The viewpoint
画像取得部1020は、HMD1200(撮像装置1220R,1220L)から送出された各フレームの画像をデータ記憶部1040に格納する。
The
入力部1070は、画像処理装置1000のユーザが各種の指示を画像処理装置1000に対して入力するために操作するユーザインターフェースであり、マウスやキーボード等により構成されている。
The
モード設定部1080は、仮想物体(図1では仮想物体1400)を、計測用撮像装置1320A,1320Bの撮像可能な範囲(すなわち、マーカ1230の位置姿勢の計測可能な範囲であり、以下では「計測可能領域」と呼称する)内に配置するモード(第1のモード)、データ記憶部1040に格納されている仮想空間データが該仮想物体について規定している配置位置に配置するモード(第2のモード)、の何れかを設定する。このモードの設定は、入力部1070からの指示に応じてなされる。そしてモード設定部1080は、設定したモードをデータ記憶部1040に格納する。
The
仮想物体移動部1030は、モード設定部1080により第1のモードが設定された場合に動作する。仮想物体移動部1030は、データ記憶部1040に予め格納されている「計測用撮像装置1320A,1320Bのそれぞれの世界座標系1500における位置姿勢や画角」、といった情報を用いて、計測用撮像装置1320A,1320Bのそれぞれの視体積が重なり且つX−Z平面よりも計測用撮像装置1320A,1320B側の領域を、上記の計測可能領域として求める。そして仮想物体移動部1030は、計測可能領域内において仮想物体を配置する位置を求める。
The virtual
仮想空間生成部1050は、データ記憶部1040に格納されている仮想空間データを用いて、仮想物体を構築する。仮想空間データには、仮想空間中に配置する光源を規定するデータや、仮想空間中に配置する仮想物体を規定するデータ、等の仮想空間を規定する為のデータが含まれている。
The virtual
そして仮想空間生成部1050は、モード設定部1080によって第2のモードが設定されている場合には、構築した仮想物体を、仮想空間データが該仮想物体について規定した位置に配置する。
Then, when the second mode is set by the
一方、モード設定部1080によって第1のモードが設定されている場合には、仮想空間生成部1050は、構築した仮想物体を、仮想物体移動部1030が求めた配置位置に配置する。
On the other hand, when the first mode is set by the
なお、仮想物体を配置する姿勢についてはどのような姿勢であっても良く、仮想空間データによって規定されている姿勢であっても良いし、ユーザが入力部1070を操作することで適宜変更しても構わない。
Note that the posture in which the virtual object is arranged may be any posture, may be a posture defined by the virtual space data, or may be appropriately changed by the user operating the
一方で、仮想空間生成部1050は、データ記憶部1040に格納されている、「世界座標系1500におけるマーカ1230の位置姿勢」と、予め測定されてデータ記憶部1040に格納されている「マーカ1230と撮像装置1220Rとの間の相対的な位置姿勢関係」と、を用いて周知の計算を行うことで、「世界座標系における撮像装置1220Rの位置姿勢」を、右目用視点の位置姿勢として求める。同様に、仮想空間生成部1050は、データ記憶部1040に格納されている、「世界座標系1500におけるマーカ1230の位置姿勢」と、予め測定されてデータ記憶部1040に格納されている「マーカ1230と撮像装置1220Lとの間の相対的な位置姿勢関係」と、を用いて周知の計算を行うことで、「世界座標系における撮像装置1220Lの位置姿勢」を、左目用視点の位置姿勢として求める。
On the other hand, the virtual
そして仮想空間生成部1050は、上記のようにして仮想物体を配置した仮想空間を右目用視点から見た画像(右目用仮想空間画像)を、上記の仮想空間データと右目用視点の位置姿勢と、を用いて生成する。同様に、仮想空間生成部1050は、上記のようにして仮想物体を配置した仮想空間を左目用視点から見た画像(左目用仮想空間画像)を、上記の仮想空間データと左目用視点の位置姿勢と、を用いて生成する。なお、ある位置姿勢を有する視点から見える仮想空間の画像を生成するための一連の処理については周知の技術であるため、これについてのさらなる詳細な説明は省略する。
Then, the virtual
仮想空間生成部1050は、右目用仮想空間画像及び左目用仮想空間画像のそれぞれを画像生成部1060に対して送出する。
The virtual
画像生成部1060は、データ記憶部1040に格納された、撮像装置1220Rによる撮像画像(右目用現実空間画像)と、仮想空間生成部1050から送出された右目用仮想空間画像と、を合成した合成画像を、右目用の複合現実空間の画像として生成する。同様に、画像生成部1060は、データ記憶部1040に格納された、撮像装置1220Lによる撮像画像(左目用現実空間画像)と、仮想空間生成部1050から送出された左目用仮想空間画像と、を合成した合成画像を、左目用の複合現実空間の画像として生成する。そして画像生成部1060は、右目用の複合現実空間の画像を、HMD1200の表示装置1210Rに対して送出すると共に、左目用の複合現実空間の画像を、HMD1200の表示装置1210Lに対して送出する。
The
これにより、HMD1200を自身の頭部に装着したユーザの左目の眼前には、左目用の複合現実空間の画像が提示され、右目の眼前には、右目用の複合現実空間の画像が提示されることになる。なお、画像生成部1060は更に、右目用の複合現実空間の画像、左目用の複合現実空間の画像、の両方若しくは一方を表示装置1100に出力しても良い。
Accordingly, an image of the mixed reality space for the left eye is presented in front of the left eye of the user wearing the
次に、画像処理装置1000の動作について、図3のフローチャートを用いて説明する。なお、図3のフローチャートは、1フレーム分の右目用の複合現実空間の画像及び1フレーム分の左目用の複合現実空間の画像を生成して出力する処理のフローチャートであるため、実際には、画像処理装置1000は、HMD1200から入力される各フレームについて、図3のフローチャートに従った処理を行うことになる。
Next, the operation of the
<ステップS400>
視点情報計測部1010は、コントローラ1310から送出された計測用撮像装置1320A,1320Bによる撮像結果から、世界座標系1500におけるマーカ1230の位置姿勢を求める。そして視点情報計測部1010は、世界座標系1500におけるマーカ1230の位置姿勢を、データ記憶部1040に格納する。
<Step S400>
The viewpoint
<ステップS401>
画像取得部1020は、撮像装置1220Rから送出された右目用現実空間画像及び撮像装置1220Lから送出された左目用現実空間画像を、データ記憶部1040に格納(取得)する。
<Step S401>
The
<ステップS402>
ここで、モード設定部1080が第1のモードを設定した場合には、処理はステップS402を介してステップS404に進み、第2のモードを設定した場合には、処理はステップS402を介してステップS403に進む。
<Step S402>
If the
<ステップS403>
仮想空間生成部1050は、データ記憶部1040に格納されている仮想空間データを用いて、仮想物体を構築し、該構築した仮想物体を、仮想空間データが該仮想物体について規定した位置に配置する。
<Step S403>
The virtual
<ステップS404>
仮想物体移動部1030は、データ記憶部1040に予め格納されている「計測用撮像装置1320A,1320Bのそれぞれの世界座標系1500における位置姿勢や画角」、といった情報を用いて、計測用撮像装置1320A,1320Bのそれぞれの視体積が重なる領域において、X−Z平面よりも計測用撮像装置1320A,1320B側の領域を、上記の計測可能領域として求める。図4において計測用撮像装置1320A,1320Bのそれぞれの視体積を点線で示しており、それぞれの視体積が重なる領域4000を斜線で示している。
<Step S404>
The virtual
<ステップS405>
仮想物体移動部1030は、ステップS404で求めた計測可能領域内において仮想物体を配置する位置を求める。計測可能領域内(範囲内)であれば、どの位置に仮想物体を配置しても良いのであるが、以下ではその一例について説明する。以下では、計測可能領域として図4の領域4000を求めた場合を例にとり説明する。
<Step S405>
The virtual
先ず、領域4000を包含する球体を求める。領域4000は、計測用撮像装置1320A,1320Bのそれぞれの視体積を表す錐体同士の交点群により規定されるため、例えば、この交点群を包含する最小の球体を求める。このような球体を求めるための最少内包球のアルゴリズムについては周知の技術であるため、詳細な説明は省略する。そしてこの球体の中心位置を世界座標系1500のX−Z平面上に投影した位置を、「仮想物体を包含するバウンディングボックスの底面の位置」として求める。図5において球体5000は領域4000を包含する球体であり、その中心位置を点5010で示している。そしてこの点5010をX−Z平面上に投影した位置を、点5020で示している。然るにこの場合、仮想物体を包含するバウンディングボックスの底面(四角形)の中心位置を点5020で示す位置に合わせることになり、これにより、点5020で示す位置を中心位置とする底面を有するバウンディングボックス内に仮想物体を配置することになる。もちろん、中心位置の投影先はX−Z平面に限るものではないし、球体5000の中心位置に仮想物体の中心位置を合わせるようにしても構わない。このようにして、仮想物体移動部1030は、仮想物体を配置する位置を決定する。
First, a sphere that includes the
<ステップS406>
仮想空間生成部1050は、ステップS405において仮想物体移動部1030が求めた位置に基づいて仮想物体を配置する。
<Step S406>
The virtual
<ステップS407>
仮想空間生成部1050は、上記の方法でもって、右目用視点の位置姿勢及び左目用視点の位置姿勢を求める。そして仮想空間生成部1050は、上記のようにして仮想物体を配置した仮想空間を右目用視点から見た画像(右目用仮想空間画像)を生成すると共に、該仮想空間を左目用視点から見た画像(左目用仮想空間画像)を生成する。そして仮想空間生成部1050は、右目用仮想空間画像及び左目用仮想空間画像のそれぞれを画像生成部1060に対して送出する。
<Step S407>
The virtual
<ステップS408>
画像生成部1060は、ステップS401においてデータ記憶部1040に格納した右目用現実空間画像と、ステップS407において仮想空間生成部1050が生成した右目用仮想空間画像と、を合成した合成画像を、右目用の複合現実空間の画像として生成する。同様に、画像生成部1060は、ステップS401においてデータ記憶部1040に格納した左目用現実空間画像と、ステップS407において仮想空間生成部1050が生成した左目用仮想空間画像と、を合成した合成画像を、左目用の複合現実空間の画像として生成する。
<Step S408>
The
<ステップS409>
画像生成部1060は、ステップS408において生成した右目用の複合現実空間の画像を、HMD1200の表示装置1210Rに対して送出すると共に、ステップS408において生成した左目用の複合現実空間の画像を、HMD1200の表示装置1210Lに対して送出する。
<Step S409>
The
以上の説明により、本実施形態によれば、例えば仮想空間データの作成段階で、仮想物体の配置位置を決定する際に、上記の計測可能領域を予め知っておかなくても、複合現実感の提示段階で、その配置位置を、ユーザが近くによって観察可能な配置位置に設定することができる。 As described above, according to the present embodiment, for example, when determining the arrangement position of the virtual object in the creation stage of the virtual space data, the mixed reality can be obtained without knowing the measurable area in advance. At the presentation stage, the arrangement position can be set to an arrangement position that the user can observe closer.
[第2の実施形態]
第1の実施形態では、配置する仮想物体の数が1である場合について説明したが、配置する仮想物体が複数の場合であっても、それぞれの仮想物体を、第1の実施形態で登場した仮想物体と同じように取り扱えば良い。
[Second Embodiment]
In the first embodiment, the case where the number of virtual objects to be arranged is 1 has been described. However, even when there are a plurality of virtual objects to be arranged, each virtual object has appeared in the first embodiment. It can be handled in the same way as a virtual object.
すなわち、第2のモードが設定されていれば、それぞれの仮想物体を、該仮想物体について仮想空間データが規定する配置位置に配置し、第1のモードが設定されている場合には、それぞれの仮想物体を、計測可能領域内の何れかの位置に配置すれば良い。その場合、それぞれの仮想物体が重ならないように配置する必要がある。 That is, if the second mode is set, each virtual object is placed at the placement position defined by the virtual space data for the virtual object, and if the first mode is set, The virtual object may be arranged at any position in the measurable area. In that case, it is necessary to arrange so that each virtual object may not overlap.
例えば、図6(a)に示す如く、図4,5を用いて第1の実施形態で説明した方法と同じようにして仮想物体6000を配置する。次に、図6(b)に示す如く、仮想物体6000を構成する各頂点をX−Z平面上に投影し、該投影した各頂点を包含する円6020を、例えば上記の最少内包円のアルゴリズムを用いて求める。そして、円6020上で仮想物体6000の現在位置(点5020)から最も近い点6010の位置を求め、仮想物体6000の現在位置(点5020)を、点6010で示す位置に移動させる。
For example, as shown in FIG. 6A, the
なお、複数の仮想物体を計測可能領域内で互いに重ならないように配置するための配置位置を決定する方法には、様々な方法が考えられ、上記の方法に限るものではない。また、互いに重なっても良い仮想物体がある場合には、このような仮想物体を除いた他の仮想物体について、互いに重ならないように配置位置を決定することになる。 Various methods are conceivable as a method for determining an arrangement position for arranging a plurality of virtual objects so as not to overlap each other in the measurable region, and is not limited to the above method. Further, when there are virtual objects that may overlap each other, the arrangement positions of other virtual objects excluding such virtual objects are determined so as not to overlap each other.
[第3の実施形態]
第1,2の実施形態では何れも、仮想物体をより近い位置で観察することを前提としていた。しかし、仮想物体を遠くから眺めて観察することが求められるようなケースも考え得る。
[Third Embodiment]
In both the first and second embodiments, it is assumed that the virtual object is observed at a closer position. However, there may be cases where it is required to view a virtual object from a distance.
例えば、精巧な機械の仮想物体であったり、微少なサイズの部品の仮想物体を観察する場合には、より近くで観察することが求められる。しかし、建築物などの比較的サイズが大きい物体を模した仮想物体であれば、ある一定の距離から離れて観察することが求められる。そこで、このようなケースに対処するために、例えば、モード設定部1080は、上記の第1のモード、第2のモードに加えて、第3のモードを設定可能にする。
For example, when observing a virtual object of an elaborate machine or a virtual object of a minute size part, it is required to observe closer. However, a virtual object that imitates a relatively large object such as a building is required to be observed away from a certain distance. Therefore, in order to deal with such a case, for example, the
第3のモードを設定した場合、仮想物体移動部1030は、例えば、第1のモード時と同様にして、計測可能領域を包含する球体を求め、その中心位置から規定距離だけ離間した位置を、仮想物体の配置位置として決定する。この「規定距離」は、予め定められてデータ記憶部1040に保存しておいても良いし、ユーザが入力部1070を操作することで適宜変更しても構わない。
When the third mode is set, the virtual
また、球体の中心位置と規定の位置関係となるような位置にこのような仮想物体を配置しても良い。また、この規定の位置関係を、ユーザが入力部1070を操作することで適宜変更できるようにしても構わない。これは位置関係に限らず、姿勢関係についても同様である。
Further, such a virtual object may be arranged at a position that has a prescribed positional relationship with the center position of the sphere. Further, the specified positional relationship may be changed as appropriate by the user operating the
[第4の実施形態]
第1〜3の実施形態で用いたHMD1200はビデオシースルー方式のHMDであったが、光学シースルー方式のHMDを用いても構わない。その場合、図3のフローチャートにおいて、ステップS401及びS408を取り除き、ステップS409では、ステップS407において仮想空間生成部1050が生成した右目用仮想空間画像及び左目用仮想空間画像を、それぞれ、表示装置1210R、表示装置1210Lに対して送出する、とした処理を行うことになる。また、HMDの代わりに、若しくは加えて、タブレット端末装置や携帯電話などの機器に対して複合現実空間の画像を出力するようにしても構わない。
[Fourth Embodiment]
The
[第5の実施形態]
第1〜4の実施形態では、マーカ1230の位置姿勢の計測には、光学式の三次元位置姿勢計測装置を用いていたが、磁気式センサや超音波センサなど、他の三次元位置姿勢計測装置を用いてマーカ1230の位置姿勢を計測しても良い。すなわち、「マーカ1230の位置姿勢を計測可能な範囲」を求めることができるのであれば、如何なる方法でマーカ1230の位置姿勢を計測しても構わない。
[Fifth Embodiment]
In the first to fourth embodiments, an optical three-dimensional position / orientation measurement apparatus is used for measuring the position / orientation of the
もちろん、マーカ1230を用いずに、直接右目用視点の位置姿勢、左目用視点の位置姿勢、を求めても良い。この場合、計測可能領域とは、視点(撮像装置1220R,1220L)の位置姿勢の計測可能な範囲、となる。
Of course, the position and orientation of the right-eye viewpoint and the position and orientation of the left-eye viewpoint may be obtained directly without using the
[第6の実施形態]
図1に示した画像処理装置1000が有する各機能部は何れもハードウェアで構成しても良いが、データ記憶部1040をメモリで構成し、入力部1070はマウスやキーボードで構成し、それ以外の各機能部をソフトウェア(コンピュータプログラム)で構成しても構わない。この場合、データ記憶部1040として機能するメモリを有し、入力部1070として機能するユーザインターフェースを有し、それ以外の各機能部に対応するコンピュータプログラムを実行するプロセッサを有するコンピュータであれば、画像処理装置1000に適用可能である。
[Sixth Embodiment]
Each functional unit included in the
画像処理装置1000に適用可能なコンピュータのハードウェア構成例について、図2のブロック図を用いて説明する。
A hardware configuration example of a computer applicable to the
CPU2001は、RAM2002やROM2003に格納されているコンピュータプログラムやデータを用いて処理を実行することで、本コンピュータ全体の動作制御を行うと共に、本コンピュータを適用する画像処理装置1000が行うものとして上述した各処理を実行する。
As described above, the
RAM2002は、外部記憶装置2007や記憶媒体ドライブ2008からロードされたコンピュータプログラムやデータ、I/F(インターフェース)2009を介して外部(コントローラ1310や撮像装置1220R,1220L)から入力されたデータを格納するためのエリアを有する。更にRAM2002は、CPU2001が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM2002は、各種のエリアを適宜提供することができる。
The
ROM2003には、本コンピュータの設定データやブートプログラムなどが格納されている。
The
キーボード2004やマウス2005は、上記の入力部1070に対応するものであり、本コンピュータのユーザが操作することで、各種の指示をCPU2001に対して入力することができる。
A
表示部2006は、CRTや液晶画面などにより構成されており、CPU2001による処理結果を画像や文字などでもって表示することができる。
The
外部記憶装置2007は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置2007には、OS(オペレーティングシステム)や、図1に示した画像処理装置1000の各機能部において、入力部1070、データ記憶部1040を除く各機能部が行うものとして上述した各処理をCPU2001に実行させるためのコンピュータプログラムやデータが保存されている。また、外部記憶装置2007には、上記の説明において既知の情報として説明したものも保存されている。また、外部記憶装置2007は、データ記憶部1040としても使用される。外部記憶装置2007に保存されているコンピュータプログラムやデータは、CPU2001による制御に従って適宜RAM2002にロードされ、CPU2001による処理対象となる。
The
記憶媒体ドライブ2008は、CD−ROMやDVD−ROM等の記録媒体に記録されているコンピュータプログラムやデータを読み出してRAM2002や外部記憶装置2007に対して送出する機器である。なお、外部記憶装置2007に保存されているものとして説明したコンピュータプログラムやデータのうち一部若しくは全部をこの記憶媒体に記録しておいても良い。
The
I/F2009は、撮像装置1220R,1220Lや表示装置1210R、1210L、コントローラ1310を接続するためのインターフェースとして機能するものである。例えば、I/F2009は、撮像装置1220R,1220Lを接続するためのアナログビデオポートあるいはIEEE1394等のデジタル入出力ポート、表示装置1210R、1210Lを接続するためのイーサネット(登録商標)ポートなどによって構成される。
The I /
上記の各部は何れも、バス2010に接続されている。
Each of the above parts is connected to the
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
1030:仮想物体移動部 1050:仮想空間生成部 1030: Virtual object moving unit 1050: Virtual space generating unit
Claims (9)
仮想物体を前記範囲内に配置する配置手段と、
前記配置手段が配置した仮想物体を含む仮想空間の画像を、前記位置姿勢に応じて生成する生成手段と、
前記生成手段が生成した仮想空間の画像を出力する出力手段と
を備えることを特徴とする画像処理装置。 A calculation means for obtaining a measurable range of the position and orientation of the viewpoint;
Arrangement means for arranging a virtual object within the range;
Generating means for generating an image of a virtual space including the virtual object arranged by the arranging means according to the position and orientation;
An image processing apparatus comprising: output means for outputting an image of the virtual space generated by the generating means.
前記視点の位置姿勢を計測するための複数の光学式センサのそれぞれの視体積が重なる領域を前記範囲として求めることを特徴とする請求項1に記載の画像処理装置。 The calculating means includes
The image processing apparatus according to claim 1, wherein an area where the visual volumes of a plurality of optical sensors for measuring the position and orientation of the viewpoint overlap is obtained as the range.
前記仮想物体を包含するバウンディングボックスの底面を、前記範囲を包含する領域の中心位置を床面に投影した位置に配置することを特徴とする請求項1又は2に記載の画像処理装置。 The arrangement means includes
The image processing apparatus according to claim 1, wherein the bottom surface of the bounding box that includes the virtual object is disposed at a position that is obtained by projecting the center position of the region that includes the range onto the floor surface.
仮想物体を前記範囲と規定の位置関係にある位置に配置する配置手段と、
前記配置手段が配置した仮想物体を含む仮想空間の画像を、前記位置姿勢に応じて生成する生成手段と、
前記生成手段が生成した仮想空間の画像を出力する出力手段と
を備えることを特徴とする画像処理装置。 A calculation means for obtaining a measurable range of the position and orientation of the viewpoint;
Arranging means for arranging the virtual object at a position in a prescribed positional relationship with the range;
Generating means for generating an image of a virtual space including the virtual object arranged by the arranging means according to the position and orientation;
An image processing apparatus comprising: output means for outputting an image of the virtual space generated by the generating means.
前記視点からの現実空間の画像を取得する手段を備え、
前記出力手段は、前記仮想空間の画像を前記現実空間の画像と合成してから出力する
ことを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。 Furthermore,
Means for acquiring an image of a real space from the viewpoint;
The image processing apparatus according to claim 1, wherein the output unit outputs the virtual space image after combining the virtual space image with the real space image.
前記画像処理装置の計算手段が、視点の位置姿勢の計測可能な範囲を求める計算工程と、
前記画像処理装置の配置手段が、仮想物体を前記範囲内に配置する配置工程と、
前記画像処理装置の生成手段が、前記配置工程で配置した仮想物体を含む仮想空間の画像を、前記位置姿勢に応じて生成する生成工程と、
前記画像処理装置の出力手段が、前記生成工程で生成した仮想空間の画像を出力する出力工程と
を備えることを特徴とする画像処理方法。 An image processing method performed by an image processing apparatus,
A calculating step for calculating a range in which the position and orientation of the viewpoint can be measured by the calculation means of the image processing apparatus;
An arrangement step in which an arrangement unit of the image processing apparatus arranges a virtual object in the range;
A generation step in which the generation unit of the image processing apparatus generates an image of a virtual space including the virtual object arranged in the arrangement step according to the position and orientation;
An image processing method comprising: an output step of outputting an image of the virtual space generated in the generation step.
前記画像処理装置の計算手段が、視点の位置姿勢の計測可能な範囲を求める計算工程と、
前記画像処理装置の配置手段が、仮想物体を前記範囲と規定の位置関係にある位置に配置する配置工程と、
前記画像処理装置の生成手段が、前記配置工程で配置した仮想物体を含む仮想空間の画像を、前記位置姿勢に応じて生成する生成工程と、
前記画像処理装置の出力手段が、前記生成工程で生成した仮想空間の画像を出力する出力工程と
を備えることを特徴とする画像処理方法。 An image processing method performed by an image processing apparatus,
A calculating step for calculating a range in which the position and orientation of the viewpoint can be measured by the calculation means of the image processing apparatus;
An arrangement step in which the arrangement means of the image processing apparatus arranges the virtual object at a position in a prescribed positional relationship with the range;
A generation step in which the generation unit of the image processing apparatus generates an image of a virtual space including the virtual object arranged in the arrangement step according to the position and orientation;
An image processing method comprising: an output step of outputting an image of the virtual space generated in the generation step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014159764A JP2016038632A (en) | 2014-08-05 | 2014-08-05 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014159764A JP2016038632A (en) | 2014-08-05 | 2014-08-05 | Image processing apparatus and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016038632A true JP2016038632A (en) | 2016-03-22 |
Family
ID=55529684
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014159764A Pending JP2016038632A (en) | 2014-08-05 | 2014-08-05 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016038632A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017196099A (en) * | 2016-04-26 | 2017-11-02 | 公立大学法人埼玉県立大学 | Superior limb exercise learning apparatus |
-
2014
- 2014-08-05 JP JP2014159764A patent/JP2016038632A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017196099A (en) * | 2016-04-26 | 2017-11-02 | 公立大学法人埼玉県立大学 | Superior limb exercise learning apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5845211B2 (en) | Image processing apparatus and image processing method | |
US10269139B2 (en) | Computer program, head-mounted display device, and calibration method | |
JP4739002B2 (en) | Image processing method and image processing apparatus | |
JP5709440B2 (en) | Information processing apparatus and information processing method | |
JP5777786B1 (en) | Information processing apparatus, information processing method, and program | |
JP4677281B2 (en) | Image processing method and image processing apparatus | |
US9696543B2 (en) | Information processing apparatus and information processing method | |
JP2022044647A (en) | Mixed reality system with multi-source virtual content compositing and method of generating virtual content using the same | |
JP6765823B2 (en) | Information processing equipment, information processing methods, information processing systems, and programs | |
US20150199850A1 (en) | Information processing apparatus and information processing method | |
JP2011028309A5 (en) | ||
TW201322178A (en) | System and method for augmented reality | |
JP6775957B2 (en) | Information processing equipment, information processing methods, programs | |
JP2019008623A (en) | Information processing apparatus, information processing apparatus control method, computer program, and storage medium | |
JP6319804B2 (en) | Projection image generation apparatus, projection image generation method, and projection image generation program | |
JP2020004325A (en) | Image processing device, image processing method, and program | |
JP2022058753A (en) | Information processing apparatus, information processing method, and program | |
JP2009087161A (en) | Image processor and image processing method | |
JP6726016B2 (en) | Information processing device and information processing method | |
JP2008217119A (en) | System, image processor and image processing method | |
JP4689344B2 (en) | Information processing method and information processing apparatus | |
JP2016038632A (en) | Image processing apparatus and image processing method | |
JP6765846B2 (en) | Information processing equipment, information processing methods, and programs | |
JP6800599B2 (en) | Information processing equipment, methods and programs | |
JP2019185475A (en) | Specification program, specification method, and information processing device |