JP6581348B2 - Information processing apparatus, information processing method, and program - Google Patents
Information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP6581348B2 JP6581348B2 JP2014237015A JP2014237015A JP6581348B2 JP 6581348 B2 JP6581348 B2 JP 6581348B2 JP 2014237015 A JP2014237015 A JP 2014237015A JP 2014237015 A JP2014237015 A JP 2014237015A JP 6581348 B2 JP6581348 B2 JP 6581348B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual object
- dimensional virtual
- orientation
- information processing
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、複合現実感提示システムにおいて、三次元空間上での仮想物体の位置姿勢情報を設定する技術に関する。 The present invention relates to a technique for setting position and orientation information of a virtual object in a three-dimensional space in a mixed reality presentation system.
CADデータなどの仮想的な三次元モデル(以後、三次元仮想物体と呼ぶ)を三次元空間上に配置する方法を考える。従来方法では、観察者はまず、ディスプレイ等の二次元画面に三次元仮想物体を二次元画像として投影し、擬似的な三次元空間上でキーボード等を用いて物体の位置姿勢の操作を行い、三次元仮想物体の配置を設定していた。しかし、この方法では、二次元画像への投影時に、三次元仮想物体の情報が欠落してしまい、三次元仮想物体を直観的に操作し、配置を設定することが難しい場合がある。この問題を解決するために、複合現実感(Mixed Reality:MR)技術(例えば、特許文献1)を用いて、三次元仮想物体を三次元空間上で操作して配置する方法が試みられている。 Consider a method of arranging a virtual three-dimensional model such as CAD data (hereinafter referred to as a three-dimensional virtual object) in a three-dimensional space. In the conventional method, the observer first projects a three-dimensional virtual object as a two-dimensional image on a two-dimensional screen such as a display, and operates the position and orientation of the object using a keyboard or the like in a pseudo three-dimensional space. The arrangement of the three-dimensional virtual object was set. However, in this method, information on the three-dimensional virtual object is lost during projection onto the two-dimensional image, and it may be difficult to intuitively operate the three-dimensional virtual object and set the arrangement. In order to solve this problem, a method of manipulating and arranging a three-dimensional virtual object in a three-dimensional space using mixed reality (MR) technology (for example, Patent Document 1) has been attempted. .
三次元仮想物体を三次元の現実空間内で操作する方法の例としては、6自由度位置姿勢計測装置(例えば、Polhemus社のFASTRAKセンサのスタイラス)を用いる方法がある。この方法では、観察者は、6自由度位置姿勢計測装置から出力される位置姿勢変化分を取り出し、その変化分を三次元仮想物体の移動回転量として三次元仮想物体の配置を設定する(特許文献1)。図4は、観察者が従来の操作方法を行う様子を示す模式図である。図4では、観察者が6自由度位置姿勢計測装置を手に持ち、これを同図矢印の如く回転、移動させると、この回転、移動を三次元仮想物体に反映させている状態が示されている。 As an example of a method for operating a three-dimensional virtual object in a three-dimensional real space, there is a method using a six-degree-of-freedom position / orientation measurement apparatus (for example, a stylus of a FASTRAK sensor manufactured by Polhemus). In this method, the observer takes out the position and orientation change output from the 6-DOF position and orientation measurement apparatus, and sets the arrangement of the three-dimensional virtual object using the change as the moving rotation amount of the three-dimensional virtual object (patent) Reference 1). FIG. 4 is a schematic diagram showing how an observer performs a conventional operation method. In FIG. 4, when an observer holds a 6-DOF position / orientation measurement device in his / her hand and rotates and moves it as shown by the arrow in the figure, a state in which this rotation and movement is reflected in the three-dimensional virtual object is shown. ing.
観察者に提示する手段としては、HMD(Head Mounted Display)などが用いられる。このHMDにより、観察者は、現実空間と三次元仮想物体との位置関係を容易に把握し、三次元仮想物体の配置の設定を行うことが出来る。 As a means for presenting to the observer, an HMD (Head Mounted Display) or the like is used. With this HMD, the observer can easily grasp the positional relationship between the real space and the three-dimensional virtual object and set the arrangement of the three-dimensional virtual object.
観察者が、現実物体と現実物体の形状を模した三次元仮想物体の配置が同じになるように、三次元仮想物体の位置姿勢を設定しよう場合を考える。このとき、6自由度位置姿勢計測装置と現実物体の交差が、面ではなく点であるために、姿勢が一意に定まらず短時間で正確に三次元仮想物体の位置姿勢を設定することは難しい。 Consider a case where the observer wants to set the position and orientation of a three-dimensional virtual object so that the arrangement of the three-dimensional virtual object imitating the shape of the real object and the real object is the same. At this time, since the intersection of the 6-DOF position and orientation measurement device and the real object is not a plane, it is difficult to set the position and orientation of the 3D virtual object accurately in a short time because the orientation is not uniquely determined. .
本発明は、このような課題に鑑みてなされたものであり、短時間に三次元仮想物体の位置姿勢を正確に設定することを目的とする。 The present invention has been made in view of such problems, and an object thereof is to accurately set the position and orientation of a three-dimensional virtual object in a short time.
上記目的を達成するための一手段として、本発明による情報処理装置は以下の構成を有する。すなわち、現実物体の形状に対応する面である基準面を取得する取得手段と、前記基準面との距離に基づき、三次元仮想物体の面のうち、一つの面を対応面として選択する選択手段と、前記基準面と前記対応面とが所定の位置関係になるように前記三次元仮想物体の位置姿勢を設定する設定手段と、前記基準面の移動に応じて、前記三次元仮想物体の位置を移動する移動手段と、前記移動手段によって移動された結果に基づいて、前記三次元仮想物体の位置を決定する決定手段と、を有する。
As a means for achieving the above object, an information processing apparatus according to the present invention has the following configuration. That is, an acquisition unit that acquires a reference plane that is a plane corresponding to the shape of the real object, and a selection unit that selects one of the planes of the three-dimensional virtual object as a corresponding plane based on the distance from the reference plane Setting means for setting the position and orientation of the three-dimensional virtual object so that the reference plane and the corresponding plane have a predetermined positional relationship, and the position of the three-dimensional virtual object according to the movement of the reference plane And a determining means for determining the position of the three-dimensional virtual object based on the result of movement by the moving means.
本発明によれば、短時間に三次元仮想物体の位置姿勢を正確に設定することが可能となる。 According to the present invention, it is possible to accurately set the position and orientation of a three-dimensional virtual object in a short time.
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。以下の実施形態における情報処理装置は、コンピュータグラフィクス等による仮想画像を現実の空間に融合させて観察者に提示する複合現実感提示システムにおいて、三次元空間上での仮想物体の位置姿勢情報を設定することが可能な情報処理装置である。 Hereinafter, the present invention will be described in detail based on preferred embodiments with reference to the accompanying drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations. An information processing apparatus according to the following embodiment sets position and orientation information of a virtual object in a three-dimensional space in a mixed reality presentation system that presents an observer with a virtual image by computer graphics or the like fused to a real space It is an information processing apparatus that can do this.
[実施形態1]
<構成>
図1は、本実施形態における情報処理装置の機能構成を示すブロック図である。また、図2は、本実施形態における情報処理装置の模式図であり、図17は、情報処理装置に適用可能なコンピュータのハードウェア構成を示すブロック図である。本実施形態では、図2に示すように、撮像部201、表示部202、撮像部位置姿勢取得部211は、HMD(Head Mounted Display)200に取り付けられ、各々はHMD200の本体に固定されている。撮像部201と表示部202は各々2つずつHMD200の本体に設けられており、撮像部201R、表示部202Rは右目用、撮像部201L、表示部202Lは左目用である。以下、特に右目用、左目用に限定する説明出ない限りでは、R,Lを省略する(すなわち、以下、撮像部201、表示部は202とする)。観察者は、このHMD200を頭部に装着することにより、表示部202に映る実写映像に記憶部104から入力した三次元仮想物体205が重畳された画像(以下、MR画像とする)を見ることが出来る。
[Embodiment 1]
<Configuration>
FIG. 1 is a block diagram illustrating a functional configuration of the information processing apparatus according to the present embodiment. FIG. 2 is a schematic diagram of the information processing apparatus in the present embodiment, and FIG. 17 is a block diagram showing a hardware configuration of a computer applicable to the information processing apparatus. In the present embodiment, as shown in FIG. 2, the
撮像画像取得部101は、撮像部201において撮像された撮像画像を、画像データとして取得する。撮像部位置姿勢取得部211は、撮像部201の位置姿勢を計測した結果から、観察者の視点位置姿勢の推定を行う。本実施形態では、撮像部位置姿勢取得部211として、磁気センサが用いられる。撮像部位置姿勢取得部211は、現実空間上に配置された磁界発生装置210から発生した磁界を受け、受けた磁界の変化をセンサコントローラ209に送る。
The captured
センサコントローラ209は、磁界発生装置210を原点とする基準座標系206における撮像部位置姿勢取得部211の位置姿勢を求める。ここで「位置姿勢を求める」処理とは、以下のような処理である。すなわち、まず、センサコントローラ209は、撮像部位置姿勢取得部211によって計測された位置姿勢の変化分を用いて、位置姿勢変換行列ΔMRを生成する。その後、センサコントローラ209は、前フレームの撮像部位置姿勢取得部211の位置姿勢(三次元配置情報)を示す行列MRにΔMRを積算することで、次のフレームにおける撮像部位置姿勢取得部211の位置姿勢を示す行列MR'を以下の(式1)の通り求める。
(式1)
The
(Formula 1)
なお、撮像部位置姿勢取得部211の位置姿勢を示す行列MR'、位置変化成分を示す行列Wt、姿勢変化成分を示す行列Wrは各々、4×4の行列である。センサコントローラ209は、行列MRの初期値として、あらかじめ撮像部位置姿勢取得部211の初期位置姿勢を記憶している。位置姿勢変換行列ΔMRは、行列Wt、Wrを用いて算出される行列である。行列Wtと行列Wrは、撮像部位置姿勢取得部211からの出力として得られる。
(式2)
(式3)
(式4)
(式2)は行列Wt(基準座標系206に対する姿勢を表す3×3回転行列を含む行列)、(式3)は行列Wr(基準座標系206に対する位置を表す3次元ベクトルを含む行列)を示す式である。行列Wtと行列Wrにおける各成分は周知の通り、撮像部位置姿勢取得部211による位置姿勢の計測値に基づいて決まるものである。
Note that the matrix M R ′ indicating the position and orientation of the imaging unit position and
(Formula 2)
(Formula 3)
(Formula 4)
(Expression 2) is a matrix W t (a matrix including a 3 × 3 rotation matrix representing an attitude relative to the reference coordinate system 206), and (Expression 3) is a matrix W r (a matrix including a three-dimensional vector indicating a position relative to the reference coordinate system 206). ). As is well known, each component in the matrix Wt and the matrix Wr is determined based on the position and orientation measurement values obtained by the imaging unit position and
センサコントローラ209は、基準座標系206に対する撮像部位置姿勢取得部211の位置姿勢MR'を、ワークステーション203に出力する。ワークステーション203は、(式5)のように、既知である撮像部位置姿勢取得部211と撮像部201との位置姿勢行列MLを用いて座標変換を行い、撮像部座標系208に対する位置姿勢を表す行列MCを求める。
(式5)
The
(Formula 5)
なお、撮像部位置姿勢取得部211に適用可能なセンサは、磁気センサに限定されず、他の種類のセンサでもよい。例えば、光学センサ、超音波センサ、慣性センサであってもよい。また、画像処理による撮像部位置姿勢計測など、撮像部の位置姿勢を計測できるものであれば、撮像部位置姿勢取得部211に適応可能である。
The sensor applicable to the imaging unit position /
基準面位置姿勢推定部103は、撮像画像取得部101が取得した一枚以上のステレオ画像中から、手212を含む空間の形状を求める。手の領域を検出し輪郭線の三次元形状を推定するための技術は周知であり、例えば、非特許文献1に開示されている技術が用いられる。この方法によれば、基準面位置姿勢推定部103は、キーフレームとの差分によって物体領域を検出し、物体領域の境界線のステレオマッチングを行う。基準面位置姿勢推定部103は、マッチングした境界線について、三角測量により撮像部201(カメラ)から当該境界線までの距離を求める。その後、基準面位置姿勢推定部103は、基準座標系206における撮像部201の位置姿勢を推定し、基準座標系206における当該境界線の位置姿勢を求める。基準面位置姿勢推定部103は、更に、当該境界線の位置姿勢に基づいて、近似平面である基準面501を求める。図5に、基準面位置姿勢推定部103が求めた基準面501の例を示す。三次元仮想物体選択部102は、入力部109から、対象の三次元仮想物体205を選択する入力が行われたかを判定する。
The reference plane position /
記憶部104は、ワークステーション203により計測されたモックアップ204の形状に模して得られた三次元仮想物体205のデータ(配置情報、形状情報等)を記憶する。記憶する三次元仮想物体205のデータは、頂点三次元位置情報、座標変換用の4×4行列(基準座標系206からの位置姿勢行列MCGと呼ぶ)などから構成される。また、記憶部104は、基準座標系206における三次元仮想物体座標系207の位置姿勢の初期値を記憶する。記憶部104は、記憶した初期値を、三次元仮想物体205を基準座標系206に配置するための位置情報として、交差面判定部105へ入力する。記憶部104は、また、三次元仮想物体選択部102において対象の三次元仮想物体205が選択されているかの判定結果を記憶し、三次元仮想物体配置固定部110へ判定結果を入力する。記憶部104は、ハードウェア構成として、図17に示す外部記憶装置17070に限らず、任意の場所にデータを記憶することが出来る。
The
交差面判定部105は、基準面位置姿勢推定部103から得られる基準面501と、記憶部104に記憶されている三次元仮想物体205のデータに基づいて、基準面501と三次元仮想物体205が、所定の位置関係の一例として、交差しているかを判定する。相対位置姿勢推定部106は、基準面501の持つ基準面座標系502と、三次元仮想物体205の持つ三次元仮想物体座標系207の位置姿勢を其々求め、二つの座標系の相対的な位置姿勢を求める。
Based on the
三次元仮想物体位置姿勢推定部107は、基準座標系206における三次元仮想物体205の位置姿勢を推定する。基準面座標系502の位置姿勢行列MSP、相対位置姿勢変換行列ΔMreを用いて、基準座標系206における三次元仮想物体205の位置姿勢MCG'は、以下の(式6)により求められる。
(式6)
The three-dimensional virtual object position /
(Formula 6)
画像合成部108は、撮像画像取得部101が取得した撮像画像に、三次元仮想物体205を重ねる。このとき、画像合成部108は、撮像部201の位置姿勢情報と、三次元仮想物体205の位置姿勢情報とを用いて、撮像部201からの視点における三次元仮想物体205を合成する。入力部109は、キーボード17040やマウス17050、ゲームパッド等の入力機器からワークステーション203への入力があったとき、三次元仮想物体選択部102へ入力があったことを伝える。
The
三次元仮想物体配置固定部110は、入力部109からの入力に応じて、撮像画像取得部101から撮像画像を受け取る。三次元仮想物体配置固定部110は、撮像画像と三次元仮想物体205を2次元平面に投影し、撮像画像に撮像されているモックアップ204とのフィッティングを三次元仮想物体205の位置姿勢を変化させながら行う。フィッティングは、公知の方法で行われる。例えば、仮想物体から抽出される特徴と、撮像画像に含まれるモックアップの特徴とを一致させるようすればよい。フィッティング終了後、三次元仮想物体配置固定部110は、三次元仮想物体205の位置姿勢MCG'を算出する。三次元仮想物体配置固定部110は、算出した位置姿勢MCG'を外部記憶装置17070に記憶し、基準座標系206における三次元仮想物体座標系207の変換行列MCGに、算出した位置姿勢MCG'を代入する。
In response to an input from the
<処理の手順>
本実施形態における処理の手順を図3のフローチャートを参照して説明する。ステップS301において、撮像画像取得部101は、撮像部201にて撮像された画像を取得する。ステップS302において、撮像部位置姿勢取得部211は、基準座標系206における撮像部位置姿勢取得部211の位置姿勢を表す行列MR'を求める。その後、ワークステーション203は、(式5)を用いて撮像部座標系208の位置姿勢を表す行列MCを求める。
<Processing procedure>
A processing procedure in this embodiment will be described with reference to a flowchart of FIG. In step S301, the captured
ステップS303において、三次元仮想物体配置固定部110は、入力部109からの入力に応じて、記憶部104で記憶されている位置姿勢行列MCGを用いて三次元仮想物体205を基準座標系206に配置する。ステップS304において、記憶部104は、三次元仮想物体選択部102から、位置姿勢を設定する対象の三次元仮想物体205を選択するための操作(入力)が行われたかどうかを調べる。対象の三次元仮想物体205の選択するための操作が行われた場合は、処理はステップS305へ移る。一方、選択するための操作が行われていない場合は、処理はステップS301へ移る。
In step S303, the three-dimensional virtual object
ステップS305において、撮像画像取得部101は、撮像部201から取得した撮像画像を基準面位置姿勢推定部103に入力し、基準面位置姿勢推定部103は、基準面501の位置姿勢を推定する。図6は、基準面501の位置姿勢推定ステップS305の、詳細な処理手順を示すフローチャートである。図6に示す処理手順は、非特許文献1に記載の手法に基づく。また、図7は、手212の領域から抽出された輪郭線のサンプリング点701を模した図である。サンプリング点701は、撮像部座標系208における三次元位置の情報を持つ。
In step S305, the captured
図6のステップS601において、基準面位置姿勢推定部103は、手212の三次元空間中の輪郭線の位置姿勢を推定し、サンプリング点701の三次元位置を推定する。
In step S601 of FIG. 6, the reference plane position /
ステップS602において、基準面位置姿勢推定部103は、最小二乗近似による無限平面の数式モデルを用いてサンプリング点701を含む近似平面を算出する。平面の式をax + by + cz = 1とし、これをベクトル演算で表現すると、(式7)のように表される。
(式7)
求める近似平面上に存在する点は(式7)が成り立つ。(式7)に基づき、入力されたn個の点群がすべて近似平面上にあると仮定すると、(式8)が成り立つ。
(式8)
ここで、この式を、
(式9)
とおく。この(式9)のXの一般化逆行列を求めることで、近似平面の数式モデルのパラメータであるp(a, b, c)が求められる。ここで、(式9)のXの一般化逆行列をX+とすると
(式10)
となり、
(式11)
となる。
In step S602, the reference plane position /
(Formula 7)
The point existing on the approximate plane to be obtained is established by (Equation 7). Based on (Equation 7), assuming that all the input n point groups are on the approximate plane, (Equation 8) holds.
(Formula 8)
Where this equation is
(Formula 9)
far. By obtaining the generalized inverse matrix of X in (Equation 9), p (a, b, c) that is a parameter of the mathematical model of the approximate plane is obtained. Here, if the generalized inverse matrix of X in (Equation 9) is X + (Equation 10)
And
(Formula 11)
It becomes.
この(式11)によって、入力点群から近似平面の数式モデルのパラメータp(a, b, c)が求められる。サンプリング点701を(式11)のXの行列に設定し、(式11)の計算結果から近似平面の数式モデルのパラメータp(a, b, c)を求める。ここで、得られたパラメータp(a, b, c)を(式7)に代入することにより、近似平面の数式が得られる。なお、近似平面を求める手法として、最小二乗近似による手法に限るものではなく、他の手法であっても適用可能である。 By this (Expression 11), the parameter p (a, b, c) of the mathematical model of the approximate plane is obtained from the input point group. Sampling points 701 are set in the X matrix of (Expression 11), and parameters p (a, b, c) of the mathematical model of the approximate plane are obtained from the calculation result of (Expression 11). Here, by substituting the obtained parameters p (a, b, c) into (Equation 7), the mathematical expression of the approximate plane can be obtained. The method for obtaining the approximate plane is not limited to the method using the least square approximation, and other methods can be applied.
ステップS603において、基準面位置姿勢推定部103は、手212の輪郭線の三次元形状に外接する直方体を求め、ステップS602で求めた近似平面との交線を求めて手212の平面領域を決定し、この平面領域を基準面501とする。まず、基準面位置姿勢推定部103は、輪郭線の三次元形状に外接する直方体として、三次元形状を構成するサンプリング点701が取り得るX座標値、Y座標値、Z座標値の最大値と最小値を用いて構成する6平面の式を算出する。基準面位置姿勢推定部103は、算出した6平面とステップS602で求めた近似平面との交線を求めて、直方体の表面に乗る線分を記録することができる。さらに、基準面位置姿勢推定部103は、求めた複数の線分の交点を、近接する平面領域の基準面頂点504A〜504Dとし、これらの基準面頂点から基準面501を構成する。このとき、基準面501の任意の頂点を原点とし基準面座標系502を定義する。また、撮像部座標系208から基準面座標系502への座標変換行列をMCSPとおく。
In step S603, the reference plane position /
なお、本実施形態では、平面領域を設定するために、基準面位置姿勢推定部103は、外接する直方体を求めて、当該直方体と近似平面との交線から平面領域(基準面501)を求めた。しかしながら、この手法に限定されるものではなく、基準面位置姿勢推定部103は、手212の輪郭線の三次元形状を用いて、手のひらの平面領域を算出してもよい。
In this embodiment, in order to set a plane area, the reference plane position /
図3に戻り、ステップS306において、相対位置姿勢推定部106は、ステップS305で推定された基準面501と三次元仮想物体205との相対位置姿勢を推定する。ステップS307において、交差面判定部105は、ステップS305で推定された基準面501が三次元仮想物体205と交差しているかを判定する。図8は、交差面判定部105が基準面501と三次元仮想物体が交差しているかを判定するステップS307の、詳細な処理手順を示すフローチャートである。
Returning to FIG. 3, in step S306, the relative position /
図8のステップS801では、交差面判定部105は、三次元仮想物体205のバウンディングボックスを作成する。三次元仮想物体205のバウンディングボックスを作成する手法として、例えば、三次元仮想物体205を構成する三次元点をすべて含むような直方体を作成する方法がある。図9は、三次元仮想物体205のバウンディングボックス901の例を示したものである。
In step S801 of FIG. 8, the
ステップS802において、交差面判定部105は、バウンディングボックス901と基準面501とが交差しているかを判定する。具体的には、バウンディングボックス901の各点と、基準面501を構成する長方形の角点の基準座標系206における位置とを比較する。まず、交差面判定部105は、バウンディングボックス901の基準座標系206におけるX軸、Y軸、Z軸の最大値、最小値を求める。交差面判定部105は、基準面501についても、基準座標系206におけるX軸、Y軸、Z軸の最大値、最小値を求める。交差面判定部105は、各軸に対してバウンディングボックス901の最大値から最小値の範囲内に基準面501の最大値、最小値が含まれているかを算出する。含まれていたら交差面判定部105は、交差していると判定する。交差していると判定された場合ステップS803へ処理を移す。交差していないと判定された場合、処理フローを終了する。ただし、バウンディングボックス901の面と基準面501の交差を判定するアルゴリズムはこの方法に限定されるものではなく、他の方法で交差を判定しても良い。
In step S802, the intersection
ステップS803において、交差面判定部105は、S802において交差していると判定されたバウンディングボックス901の面を基準面501にフィッティングする。図10は、交差面判定部105がバウンディングボックス901の面を基準面501にフィッティングする(平行に交差させる)ステップS803の、詳細な処理手順を示すフローチャートである。
In step S803, the intersection
図10のステップS1001において、交差面判定部105は、バウンディングボックス901の各面と基準面頂点504A〜504Dとの距離を算出し、基準面頂点504A〜504Dから面までの距離の平均値をとる。ステップS1002において、交差面判定部105は、バウンディングボックス901の各面について、基準面頂点504A〜504Dとの距離の平均値を求める。最も距離が短い面を対応面901Aとする。ステップS1003において、交差面判定部105は、対応面901Aと基準面501と平行に交差するように三次元仮想物体205を回転移動させる。図11に、移動した結果、バウンディングボックス901と基準面501が平行に交差している様子を示す。
In step S1001 of FIG. 10, the intersection
図3に戻り、ステップS307における上記処理の結果、基準面501と三次元仮想物体205が交差した場合、処理はステップS308へ移る。一方、交差しなかった場合、処理はステップS301へ戻る。ステップS308において、三次元仮想物体位置姿勢推定部107は、ステップS306で推定された基準面501と三次元仮想物体205との相対的な位置姿勢と、ステップS305で推定された基準面501の位置姿勢から、三次元仮想物体205の位置姿勢を推定する。図12は、三次元仮想物体位置姿勢推定部107が基準面501と三次元仮想物体205との相対位置姿勢を推定するステップS308の、詳細な処理手順を示すフローチャートである。
Returning to FIG. 3, when the
図12のステップS1201において、三次元仮想物体位置姿勢推定部107は、基準座標系206における基準面座標系502の位置姿勢を推定する。具体的には、三次元仮想物体位置姿勢推定部107は、以下の(式12)により、基準座標系206における基準面座標系502の位置姿勢行列MSPを推定する。なお、行列MCSPは、撮像部座標系208から基準面座標系502への座標変換行列である。
(式12)
In step S1201 of FIG. 12, the three-dimensional virtual object position /
(Formula 12)
ステップS1202において、三次元仮想物体位置姿勢推定部107は、ステップS1201で求めた基準面座標系502の座標変換行列MSPと基準座標系206における三次元仮想物体座標系207の座標変換行列MCGを用いて(式13)のように、以下の通り相対的な位置姿勢行列Mreを算出する。
(式13)
In step S1202, the three-dimensional virtual object position /
(Formula 13)
図13は、推定された位置姿勢を用いて三次元仮想物体205を描画した図である。図13では、基準面501の変化に合わせて三次元仮想物体205を描画されている様子が表されている。図13から、三次元仮想物体205と基準面501との位置姿勢が保たれた状態で三次元仮想物体205が移動していることがわかる。
FIG. 13 is a diagram in which the three-dimensional
図3に戻り、ステップS309において、三次元仮想物体配置固定部110が入力部109からの入力情報を参照し、三次元仮想物体205の配置の決定が入力された場合は、処理はステップS310へ移る。ここでは、三次元仮想物体205の輪郭線が、モックアップ204の輪郭線と一致するように、配置が行われ、三次元仮想物体205の位置が決定される。一方、配置の決定が入力されていない場合は、処理はステップS301へ移る。ステップS310において、三次元仮想物体配置固定部110は、算出した三次元仮想物体座標系207の位置姿勢を記憶部104に記憶し、更に、三次元仮想物体座標系207の位置姿勢に代入する。
Returning to FIG. 3, in step S309, when the determination of the arrangement of the three-dimensional
ステップS311において、本処理の終了指示が入力された、もしくは本処理を終了する条件が満たされた場合には本処理を終了する。一方、本処理の終了指示は入力されておらず、本処理を終了する条件も満たされていない場合は、処理はステップS301へ移る。 In step S311, when an instruction to end the process is input or when a condition for ending the process is satisfied, the process ends. On the other hand, if the end instruction of this process has not been input and the condition for ending this process is not satisfied, the process proceeds to step S301.
以上のように、本実施形態における情報処理装置は、現実物体と該現実物体の形状を模した三次元仮想物体の配置が同じになるように三次元仮想物体の位置姿勢を設定する。このとき、情報処理装置は、三次元空間中で位置姿勢を計測出来る他の現実物体を用いて三次元仮想物体を操作する。該現実物体と該他の現実物体がいずれも現実の物体であるため、現実物体同士を面で交差させることにより、三次元仮想物体の姿勢を一意に定めることが出来る。これにより、正確、かつ、短時間に三次元仮想物体の位置姿勢を設定することが可能となる。 As described above, the information processing apparatus according to the present embodiment sets the position and orientation of a three-dimensional virtual object so that the arrangement of the real object and the three-dimensional virtual object simulating the shape of the real object are the same. At this time, the information processing apparatus operates the three-dimensional virtual object using another real object that can measure the position and orientation in the three-dimensional space. Since both the real object and the other real object are real objects, the posture of the three-dimensional virtual object can be uniquely determined by crossing the real objects with each other on the plane. This makes it possible to set the position and orientation of the three-dimensional virtual object accurately and in a short time.
[実施形態2]
実施形態1では、基準座標系206におけるモックアップ204の位置は計測されていない。このため、ステップS310において三次元仮想物体205の位置姿勢を固定した後、観察者がモックアップ204を移動させると三次元仮想物体205とずれてしまう。そこで、実施形態2として、モックアップにモックアップ座標系1501を定義する形態を説明する。本実施形態では、3次元空間内をモックアップ204が回転・移動するのに合わせて、三次元仮想物体205が回転・移動してもよい。
[Embodiment 2]
In the first embodiment, the position of the mockup 204 in the reference coordinate system 206 is not measured. For this reason, if the observer moves the mockup 204 after fixing the position and orientation of the three-dimensional
図14は、本実施形態における機能構成を示すブロック図である。図1と同じ部分については同じ番号をつけており、その説明を省略する。図15は、本実施形態における情報処理装置の構成の模式図である。図2と同じ部分については同じ番号をつけており、その説明を省略する。 FIG. 14 is a block diagram showing a functional configuration in the present embodiment. The same parts as those in FIG. 1 are denoted by the same reference numerals, and the description thereof is omitted. FIG. 15 is a schematic diagram of the configuration of the information processing apparatus in the present embodiment. The same parts as those in FIG. 2 are given the same numbers, and the description thereof is omitted.
モックアップ位置姿勢推定部1401は、モックアップ位置姿勢取得部1502で取得された位置姿勢から、基準座標系206におけるモックアップ座標系1501の位置姿勢を推定する。相対位置姿勢固定部1402は、三次元仮想物体座標系207とモックアップ座標系1501の相対位置姿勢を算出し、相対位置姿勢を記憶部104へ記憶する。
The mockup position and
図16は、本実施形態における処理の手順を示すフローチャートである。図3と同じ部分については同じ番号をつけており、その説明を省略する。ステップS1601において、三次元仮想物体配置固定部110は、三次元仮想物体座標系207の位置姿勢を推定する。ステップS1602において、モックアップ位置姿勢取得部1502は、モックアップ座標系1501の基準座標系206における位置姿勢を取得する。本実施形態では、説明を簡単にするため、モックアップ座標系1501の位置姿勢は、モックアップ位置姿勢取得部1502で得られる位置姿勢と同一であるとする。モックアップ位置姿勢取得部1502は、取得したモックアップ座標系1501と三次元仮想物体座標系207との相対位置姿勢を算出する。
FIG. 16 is a flowchart showing a processing procedure in the present embodiment. The same parts as those in FIG. 3 are denoted by the same reference numerals, and the description thereof is omitted. In step S1601, the 3D virtual object
ステップS1603において、相対位置姿勢固定部1402は、モックアップ座標系1501に対してS1602で求めた相対位置姿勢を積算した結果を、三次元仮想物体座標系207の位置姿勢に代入する。これにより、モックアップ204と三次元仮想物体205との相対位置姿勢が固定される。ステップS1604において、記憶部104は、入力部109からの入力情報を参照し、相対位置姿勢を固定すると選択する操作(入力)が行われているかどうかを調べる。相対位置姿勢を固定すると選択する操作が行われた場合は、処理はステップS1603へ移る。一方、相対位置姿勢を固定すると選択する操作が行われていない場合は、処理はステップS301へ移る。
In step S1603, the relative position /
以上のように、本実施形態における情報処理装置は、3次元空間内をモックアップ204が回転・移動したとき、モックアップ座標系1501に対してステップS1604で算出した相対位置姿勢を積算する。これにより、情報処理装置は、三次元仮想物体座標系207の位置姿勢を求めることが可能となる。
As described above, the information processing apparatus according to the present embodiment integrates the relative position and orientation calculated in step S1604 with respect to the mockup coordinate system 1501 when the mockup 204 rotates and moves in the three-dimensional space. Thereby, the information processing apparatus can obtain the position and orientation of the three-dimensional virtual object coordinate
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
101 撮像画像取得部、 102 三次元仮想物体選択部、 104 記憶部、 105 交差面判定部、 106 相対位置姿勢推定部、 107 三次元仮想物体位置姿勢推定部、 108 画像合成部、 109 入力部、 110 三次元仮想物体配置固定部、 200 HMD、 201 撮像部、 202 表示部、203 ワークステーション、 204 モックアップ、 205 三次元仮想物体、 206 基準座標系、 207 三次元仮想物体座標系、 208 撮像部座標系、 209 センサコントローラ、 210 磁界発生装置、 211 撮像部位置姿勢取得部、 212 手 101 Captured image acquisition unit, 102 3D virtual object selection unit, 104 Storage unit, 105 Cross plane determination unit, 106 Relative position and orientation estimation unit, 107 3D virtual object position and orientation estimation unit, 108 Image composition unit, 109 Input unit, 110 3D virtual object arrangement fixing unit, 200 HMD, 201 imaging unit, 202 display unit, 203 workstation, 204 mockup, 205 3D virtual object, 206 reference coordinate system, 207 3D virtual object coordinate system, 208 imaging unit Coordinate system, 209 sensor controller, 210 magnetic field generator, 211 imaging unit position and orientation acquisition unit, 212 hands
Claims (14)
前記基準面との距離に基づき、三次元仮想物体の面のうち、一つの面を対応面として選択する選択手段と、
前記基準面と前記対応面とが所定の位置関係になるように前記三次元仮想物体の位置姿勢を設定する設定手段と、
前記基準面の移動に応じて、前記三次元仮想物体の位置を移動する移動手段と、
前記移動手段によって移動された結果に基づいて、前記三次元仮想物体の位置を決定する決定手段と、
を有することを特徴とする情報処理装置。 An acquisition means for acquiring a reference plane which is a plane corresponding to the shape of the real object;
Selection means for selecting one of the surfaces of the three-dimensional virtual object as a corresponding surface based on the distance from the reference surface ;
Setting means for setting the position and orientation of the three-dimensional virtual object so that the reference plane and the corresponding plane have a predetermined positional relationship;
Moving means for moving the position of the three-dimensional virtual object in accordance with the movement of the reference plane;
Determining means for determining the position of the three-dimensional virtual object based on the result of movement by the moving means;
An information processing apparatus comprising:
前記基準面との距離に基づき、三次元仮想物体の面のうち、一つの面を対応面として選択する選択工程と、
前記基準面と前記対応面とが所定の位置関係になるように前記三次元仮想物体の位置姿勢を設定する設定工程と、
前記基準面の移動に応じて、前記三次元仮想物体の位置を移動する移動工程と、
前記移動工程において移動された結果に基づいて、前記三次元仮想物体の位置を決定する決定工程と、
を有することを特徴とする情報処理方法。 An acquisition step of acquiring a reference surface that is a surface corresponding to the shape of the real object;
A selection step of selecting one of the surfaces of the three-dimensional virtual object as a corresponding surface based on the distance from the reference surface ;
A setting step for setting the position and orientation of the three-dimensional virtual object so that the reference plane and the corresponding plane have a predetermined positional relationship;
A moving step of moving the position of the three-dimensional virtual object according to the movement of the reference plane;
A determination step of determining a position of the three-dimensional virtual object based on the result of movement in the movement step;
An information processing method characterized by comprising:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014237015A JP6581348B2 (en) | 2014-11-21 | 2014-11-21 | Information processing apparatus, information processing method, and program |
JP2019159723A JP6948363B2 (en) | 2014-11-21 | 2019-09-02 | Information processing equipment, information processing methods, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014237015A JP6581348B2 (en) | 2014-11-21 | 2014-11-21 | Information processing apparatus, information processing method, and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019159723A Division JP6948363B2 (en) | 2014-11-21 | 2019-09-02 | Information processing equipment, information processing methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016099839A JP2016099839A (en) | 2016-05-30 |
JP6581348B2 true JP6581348B2 (en) | 2019-09-25 |
Family
ID=56075824
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014237015A Active JP6581348B2 (en) | 2014-11-21 | 2014-11-21 | Information processing apparatus, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6581348B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107168521B (en) * | 2017-04-10 | 2020-06-23 | 北京小鸟看看科技有限公司 | Film viewing guide method and device and head-mounted display equipment |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012208705A (en) * | 2011-03-29 | 2012-10-25 | Nec Casio Mobile Communications Ltd | Image operation apparatus, image operation method and program |
JP2014071850A (en) * | 2012-10-02 | 2014-04-21 | Osaka Prefecture Univ | Image processing apparatus, terminal device, image processing method, and program |
-
2014
- 2014-11-21 JP JP2014237015A patent/JP6581348B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016099839A (en) | 2016-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11010965B2 (en) | Virtual object placement for augmented reality | |
US8055061B2 (en) | Method and apparatus for generating three-dimensional model information | |
JP2004062758A (en) | Information processor and information processing method | |
JP2019534510A5 (en) | ||
JP5709440B2 (en) | Information processing apparatus and information processing method | |
CN109313821B (en) | Three-dimensional object scan feedback | |
CN110956695B (en) | Information processing apparatus, information processing method, and storage medium | |
JP7238060B2 (en) | Information processing device, its control method, and program | |
JP6319804B2 (en) | Projection image generation apparatus, projection image generation method, and projection image generation program | |
JP2006252468A (en) | Image processing method and image processing system | |
JP2009087161A (en) | Image processor and image processing method | |
US20200211275A1 (en) | Information processing device, information processing method, and recording medium | |
Zhu et al. | Wii remote–based low-cost motion capture for automated assembly simulation | |
JP6818968B2 (en) | Authoring device, authoring method, and authoring program | |
JP6581348B2 (en) | Information processing apparatus, information processing method, and program | |
JP6948363B2 (en) | Information processing equipment, information processing methods, and programs | |
JP4689344B2 (en) | Information processing method and information processing apparatus | |
JP3433204B2 (en) | 3D model construction device | |
JP2015121892A (en) | Image processing apparatus, and image processing method | |
JP6429240B2 (en) | Shape detection apparatus, shape detection method, and program | |
JP7465133B2 (en) | Information processing device and information processing method | |
JP6660159B2 (en) | Information processing apparatus, control method for information processing apparatus, and program | |
JP2002245486A (en) | Device, method and program for three-dimensional model generation | |
JP2016038632A (en) | Image processing apparatus and image processing method | |
JP2006252059A (en) | Image processing method and image processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190318 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190802 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190830 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6581348 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |