JP6981340B2 - Display control programs, devices, and methods - Google Patents
Display control programs, devices, and methods Download PDFInfo
- Publication number
- JP6981340B2 JP6981340B2 JP2018065063A JP2018065063A JP6981340B2 JP 6981340 B2 JP6981340 B2 JP 6981340B2 JP 2018065063 A JP2018065063 A JP 2018065063A JP 2018065063 A JP2018065063 A JP 2018065063A JP 6981340 B2 JP6981340 B2 JP 6981340B2
- Authority
- JP
- Japan
- Prior art keywords
- estimation result
- display control
- estimation
- image
- index
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
開示の技術は、表示制御プログラム、表示制御装置、及び表示制御方法に関する。 The disclosed technique relates to a display control program, a display control device, and a display control method.
作業手順や工具類使用技術の習得を行う上で、特に工具類が危険であったり、大がかりであったり、高所作業や火災現場といった危険を伴う場所であったりする場合、実際に同じ条件で技術習得の場を用意するには、安全面の確保等も含め、手間やコストがかかる。 When learning work procedures and tools usage techniques, especially when the tools are dangerous, large-scale, or in a dangerous place such as aerial work or a fire site, the actual conditions are the same. It takes time and cost to prepare a place to learn technology, including ensuring safety.
それらの問題を解決するために、Virtual Reality(VR)技術を利用して、仮想的に体験やトレーニングさせることが提案、及び一部製品化され始めている。これらの多くは、操作対象物を操作する自身の手も含め全てが仮想空間内での表現であることが多く、臨場感の点で弱い部分がある。 In order to solve these problems, it is proposed to use Virtual Reality (VR) technology to virtually experience and train, and some products are beginning to be commercialized. Many of these are expressions in virtual space, including their own hands that operate the object to be operated, and there is a weak point in terms of presence.
そこで、Head Mounted Display(HMD)にカメラを装着し、実映像を仮想空間に持ち込む、いわゆるMixed Reality(MR)を適用することが考えられる。例えば、MRに関する従来技術として、広い範囲で移動するプレーヤを精度良く補足して複合現実感を提示する装置が提案されている。この装置は、既知の位置に配置された複数のマーカを有する作業台と、プレーヤの頭部姿勢を検出するためにプレーヤに装着される姿勢センサと、複数のマーカのうちの少なくとも1つが視野に入るように設定されたカメラとを具備する。そして、この装置は、姿勢センサからの出力に基づいて頭部位置を検出すると共に、検出された頭部位置信号を、カメラの画像信号を画像処理してカメラの位置を検出することにより補正する。さらに、この装置は、補正された頭部位置に応じた視点位置に複合現実感を提示するように仮想画像を生成する。 Therefore, it is conceivable to attach a camera to the Head Mounted Display (HMD) and apply so-called Mixed Reality (MR), which brings the actual image into the virtual space. For example, as a conventional technique for MR, a device that accurately supplements a player moving in a wide range and presents a mixed reality feeling has been proposed. The device has a workbench with multiple markers located at known positions, a posture sensor mounted on the player to detect the player's head posture, and at least one of the multiple markers in the field of view. Equipped with a camera set to enter. Then, this device detects the head position based on the output from the attitude sensor, and corrects the detected head position signal by image processing the image signal of the camera and detecting the position of the camera. .. Further, the device generates a virtual image so as to present mixed reality at the viewpoint position corresponding to the corrected head position.
しかし、VRトラッキングセンサ(従来技術における姿勢センサ)は、利用者が装着しているHMDの位置や向き等の値を一定の精度で取得することができるが、MRにおいては、カメラがとらえた対象物と仮想空間上の対象物との位置のズレが、利用者に違和感を与える。特に、利用者が対象物を保持したり、操作したりする場合、仮想空間上の対象物に対する視覚と、実際の対象物に対する触覚とのズレが発生する。なお、現実物を仮想空間に持ち込まず、仮想物のみを表示する場合には、実際の対象物の位置と仮想空間上の対象物の位置とのズレは、利用者に大きな影響を与えない。 However, the VR tracking sensor (posture sensor in the prior art) can acquire values such as the position and orientation of the HMD worn by the user with a certain accuracy, but in MR, it is an object captured by the camera. The misalignment between the object and the object in the virtual space gives the user a sense of discomfort. In particular, when the user holds or operates the object, there is a discrepancy between the visual sense of the object in the virtual space and the tactile sense of the actual object. In addition, when the real object is not brought into the virtual space and only the virtual object is displayed, the deviation between the position of the actual object and the position of the object in the virtual space does not have a great influence on the user.
また、マーカを使用して対象物の位置を検出する場合、例えば、図26のAに示すように、画像内にマーカが良好に映る場合には、対象物の位置及び姿勢を精度良く検出することができる。しかし、例えば、図26のBに示すように、マーカの一部しか映っていない場合には、対象物の位置を精度良く検出することができない。図26のCに示すように、マーカがカメラから離れた位置にあり、画像内でのマーカのサイズが小さ過ぎる場合、及び図26のDに示すように、カメラ映像のブレにより、画像内にマーカが映っていても、マーカを検出できない場合も同様である。これを補うために、従来技術のように、マーカを多数配置する場合には、複数のマーカの各々についてキャリブレーションや配置の管理などを行う必要があり、処理負荷が増大する。 Further, when the position of the object is detected by using the marker, for example, when the marker is well reflected in the image as shown in FIG. 26A, the position and the posture of the object are detected with high accuracy. be able to. However, for example, as shown in FIG. 26B, when only a part of the marker is shown, the position of the object cannot be detected accurately. As shown in C of FIG. 26, when the marker is located away from the camera and the size of the marker in the image is too small, and as shown in D of FIG. 26, due to blurring of the camera image, the image is included in the image. The same applies when the marker cannot be detected even if the marker is displayed. In order to compensate for this, when a large number of markers are arranged as in the prior art, it is necessary to perform calibration and arrangement management for each of the plurality of markers, which increases the processing load.
一つの側面として、現実空間において取り扱い可能な物体に対応する対象物の仮想オブジェクトを現実空間の画像に重畳する場合における表示の違和感を緩和することを目的とする。 As one aspect, it is intended to alleviate the discomfort of the display when the virtual object of the object corresponding to the object that can be handled in the real space is superimposed on the image in the real space.
一つの態様として、開示の技術は、撮影装置によって現実空間を撮影した画像から、前記現実空間に存在する取り扱い可能な物体に対応付けて配置された第1の指標を検出することにより、前記物体の3次元位置及び姿勢を推定する。また、検出装置により、前記物体に対応付けて配置された第2の指標を検出することにより、前記物体の3次元位置及び姿勢を推定する。そして、前記第1の指標に基づく前記物体の3次元位置及び姿勢の第1の推定結果と、前記第2の指標に基づく前記物体の3次元位置及び姿勢の第2の推定結果との比較に基づいて、前記第1の推定結果又は前記第2の推定結果を選択する。第2の推定結果は、前記検出装置による検出時刻が前記撮影装置による前記画像の撮影時刻と対応する前記第2の推定結果である。そして、選択した前記第1の推定結果又は前記第2の推定結果に基づいて、前記現実空間を撮影した画像に、前記物体に対応する仮想オブジェクトを重畳した画像を表示装置に表示する。 As one embodiment, the disclosed technique detects an object, which is arranged in association with a handleable object existing in the real space, from an image obtained by photographing the real space by a photographing device. Estimate the three-dimensional position and orientation of. In addition, the detection device detects the second index arranged in association with the object to estimate the three-dimensional position and posture of the object. Then, for comparison between the first estimation result of the three-dimensional position and posture of the object based on the first index and the second estimation result of the three-dimensional position and posture of the object based on the second index. Based on this, the first estimation result or the second estimation result is selected. The second estimation result is the second estimation result in which the detection time by the detection device corresponds to the shooting time of the image by the photographing device. Then, based on the selected first estimation result or the second estimation result, an image obtained by superimposing a virtual object corresponding to the object on the image obtained by photographing the real space is displayed on the display device.
開示の技術は、一つの側面として、現実空間において取り扱い可能な物体に対応する仮想オブジェクトを現実空間の画像に重畳する場合における表示の違和感を緩和することができる、という効果を有する。 One aspect of the disclosed technology is that it is possible to alleviate the discomfort of the display when a virtual object corresponding to an object that can be handled in the real space is superimposed on the image in the real space.
以下、図面を参照して開示の技術に係る実施形態の一例を詳細に説明する。 Hereinafter, an example of the embodiment according to the disclosed technology will be described in detail with reference to the drawings.
<第1実施形態>
第1実施形態では、一例として、消火器の使い方を仮想体験するためのVR画像を表示する場合について説明する。なお、現実空間において取り扱い可能な物体を、消火器のハンドル部分を模した模型とする。また、そのハンドル部分に対応した消火器全体の仮想的な3次元のオブジェクト(以下、「仮想オブジェクト」という)を、現実空間の画像に重畳して描画する場合について説明する。
<First Embodiment>
In the first embodiment, as an example, a case of displaying a VR image for virtually experiencing how to use a fire extinguisher will be described. An object that can be handled in real space is a model that imitates the handle of a fire extinguisher. Further, a case where a virtual three-dimensional object (hereinafter referred to as “virtual object”) of the entire fire extinguisher corresponding to the handle portion is superimposed and drawn on an image in the real space will be described.
図1に示すように、第1実施形態に係るVirtual Reality(VR)システム100は、表示制御装置10と、VRトラッキング装置31と、ステレオカメラ32と、Head Mounted Display(HMD)33とを含む。さらに、VRシステム100は、ハンドル模型34と、Augmented Reality(AR)マーカ35と、VRトラッカー36とを含む。
As shown in FIG. 1, the Virtual Reality (VR)
VRトラッキング装置31は、例えば、1又は複数のレーザレーダで実現することができる。各レーザレーダは、レーザを照射し、HMD33及びVRトラッカー36の各々の受光部で反射したレーザを受光し、レーザの照射方向及び受光部までの距離の情報を含むトラッキングデータを計測する。VRトラッキング装置31は、計測したトラッキングデータを表示制御装置10へ出力する。なお、VRトラッキング装置31は、開示の技術の検出装置の一例である。
The
ステレオカメラ32は、HMD33に取り付けられており、右眼用及び左眼用の可視光カメラの各々により、HMD33を装着した装着者40の視界を想定した範囲を、所定のフレームレートで撮影する。ステレオカメラ32は、撮影により得られた右眼用画像及び左眼用画像を表示制御装置10へ出力する。なお、ステレオカメラ32は、開示の技術の撮影装置の一例である。
The
HMD33は、表示制御装置10から出力された右眼用VR画像及び左眼用VR画像を取得し、ディスプレイに立体視画像を表示する。なお、本実施形態におけるVR画像とは、ステレオカメラ32で撮影された現実空間の画像に、対象物である消火器を示す仮想的な3次元のオブジェクトが重畳された画像である。なお、HMD33は、開示の技術の表示装置の一例である。
The
ハンドル模型34は、HMD33の装着者が実際に保持したり操作したりして取り扱うことが可能な物体であり、本実施形態では、消火器のハンドル部分に相当する物体である。なお、ハンドル模型34は、開示の技術の物体の一例である。
The
ARマーカ35は、予め登録された図形のマーカであり、ハンドル模型34との位置関係が固定された予め定めた位置に配置される。例えば、図2に示すように、ARマーカ35は、ハンドル模型34を支える支柱37に設けられ台座38に貼付される。また、色々な角度から撮影された場合でも、ステレオカメラ32の画角内に、図26のAに示すような良好な状態のARマーカ35が含まれるように、複数の面を持つ台座38に複数のARマーカ35を貼付することができる。なお、ARマーカ35は、開示の技術の第1の指標の一例である。
The
VRトラッカー36は、VRトラッキング装置31から照射されるレーザを受光する受光部を有し、VRトラッカー36が取り付けられた物体の位置及び姿勢を検出するための装置である。VRトラッカー36は、ハンドル模型34との位置関係が固定された予め定めた位置に配置される。例えば、図3に示すように、VRトラッカー36は、ハンドル模型34を支える支柱37の端部に取り付けることができる。なお、VRトラッカー36は、開示の技術の第2の指標の一例である。
The
図4に、VRシステム100の各構成の配置の一例を概略的に示す。ステレオカメラ32付きのHMD33は、装着者40の頭部に装着される。ハンドル模型34は、図5に示すように、装着者40に保持又は操作される。VRトラッキング装置31は、各レーザレーダの計測範囲に、装着者40に装着されたHMD33、及び装着者40に保持されたハンドル模型34に対応する位置に配置されたVRトラッカー36が含まれる位置に配置される。例えば、装着者40が立つことが想定される位置を挟む対角線上の位置に配置される。
FIG. 4 schematically shows an example of the arrangement of each configuration of the
表示制御装置10は、機能的には、図6に示すように、ARマーカ推定部12と、トラッキング推定部14と、閾値算出部15と、選択部16と、表示制御部18とを含む。ARマーカ推定部12は、開示の技術の第1推定部の一例であり、トラッキング推定部14は、開示の技術の第2推定部の一例であり、閾値算出部15は、開示の技術の算出部の一例である。また、表示制御装置10の所定の記憶領域には、閾値データベース(DB)21と、オブジェクトDB22とが記憶される。
Functionally, as shown in FIG. 6, the
閾値DB21には、後述する選択部16で使用される閾値が記憶されている(詳細は後述)。
The
オブジェクトDB22には、現実空間の映像に重畳表示する仮想オブジェクトの3次元データが記憶されている。本実施形態では、仮想オブジェクトには、消火器を示す仮想オブジェクトが含まれる。より具体的には、図7に示すように、消火器全体を示す仮想オブジェクト39に含まれるハンドル部分は、現実空間におけるハンドル模型34に対応する形状である。また、オブジェクトDB22には、消火器を示す仮想オブジェクト39以外のオブジェクト(例えば、炎を示すオブジェクト等)が含まれていてもよい。
The
ARマーカ推定部12は、ステレオカメラ32から出力された右眼用画像及び左眼用画像の各々を取得し、右眼用画像及び左眼用画像の各々から、パターンマッチングなどの画像認識処理により、予め登録された図形であるARマーカ35を検出する。ARマーカ推定部12は、右眼用画像及び左眼用画像の各々から検出したARマーカ35と、ステレオカメラ32の両眼視差とに基づいて、カメラ座標系におけるARマーカ35の3次元位置及び姿勢(各座標軸に対する角度)を推定する。
The AR
トラッキング推定部14は、トラッキング装置31から出力されたトラッキングデータを取得する。そして、トラッキング推定部14は、トラッキングデータに基づいて、ワールド座標系(仮想空間座標系)におけるHMD33及びVRトラッカー36の各々の3次元位置及び姿勢を推定する。
The tracking
また、トラッキング推定部14は、後述する選択部16の処理で使用するため、所定時間分のVRトラッカー36についての推定結果の履歴を保持する。図8に、トラッキング推定部14が保持する履歴テーブル23の一例を示す。図8の例では、履歴テーブル23は、N個分の推定結果を保持可能である。「履歴番号」は、推定された時刻が新しい順に各推定結果に付与された、1、2、・・・、Nの番号である。「3次元位置」及び「姿勢」は、各履歴番号に対応する推定結果である。Nの値は、ステレオカメラ32のフレームレート、及び後述するARマーカ推定部12による推定と、トラッキング推定部14による推定との処理時間の差の最大値に基づく値を設定することができる。
Further, since the tracking
なお、ハンドル模型34に対するARマーカ35及びVRトラッカー36の各々の配置は既知である。そのため、ARマーカ35及びVRトラッカー36の3次元位置及び姿勢を推定することは、ハンドル模型34の3次元位置及び姿勢を推定することに対応する。さらに、消火器を示す仮想オブジェクト39は、図7に示すように、現実空間のハンドル模型34に対応する。すなわち、ARマーカ35及びVRトラッカー36の3次元位置及び姿勢を推定することは、消火器を示す仮想オブジェクト39の3次元位置及び姿勢を推定することに相当する。
The arrangement of the
閾値算出部15は、ARマーカ35が、例えば図26のAに示すように良好に含まれる画像から検出されたARマーカ35に基づいて、ARマーカ推定部12により推定された推定結果を取得する。また、閾値算出部15は、ARマーカ35が良好に含まれる画像が撮影された際に検出されトラッキングデータに基づいてトラッキング推定部14により推定された推定結果も取得する。
The threshold
例えば、ARマーカ35及びVRトラッカー36が対応付けて配置されたハンドル模型34を、図9に示すように、装着者40に対して左上、右上、中央、左下、及び右下となる位置の各々に配置する。この際、HMD33を装着した装着者40が中央を注視した状態で、HMD33に配置されたステレオカメラ32により撮影される画像に、ARマーカ35の全体が含まれるように配置する。そして、閾値算出部15は、各位置で撮影された画像に基づいてARマーカ推定部12で推定された推定結果、及び各位置で検出されたトラッキングデータに基づいてトラッキング推定部14で推定された推定結果を取得する。なお、閾値の算出では、後述するARマーカ推定部12による推定と、トラッキング推定部14による推定との処理時間の差を考慮する。具体的には、ARマーカ35及びVRトラッカー36が対応付けて配置されたハンドル模型34を、各位置に所定時間停止させた状態で、画像の撮影及びトラッキングデータの検出を行う。
For example, as shown in FIG. 9, the
そして、閾値算出部15は、各位置について推定されたARマーカ推定部12の推定結果とトラッキング推定部14の推定結果との差の最大値を、後述する選択部16において、推定結果の対応付けを行う際の閾値として算出する。閾値算出部15は、算出した閾値を、閾値DB21に記憶する。
Then, the threshold
図10に、閾値DB21の一例を示す。図10の例では、各位置(左上、右上、中央、左下、及び右下)において、ARマーカ推定部12及びトラッキング推定部14の各々で推定された3次元位置間の距離の最大値が、「距離閾値」として記憶されている。同様に、各位置において、ARマーカ推定部12及びトラッキング推定部14の各々で推定された姿勢間の差の最大値が、「姿勢閾値」として記憶されている。
FIG. 10 shows an example of the
なお、上記の例では、消火器(ハンドル模型34)が手に持って操作するものであることを考慮して、手を伸ばした範囲内の数点の位置で、画像の撮影及びトラッキングデータの検出を行うこととしているが、この例に限定されない。4点以下の位置で画像の撮影及びトラッキングデータの検出を行ってもよいし、6点以上の位置で行ってもよい。また、各位置でハンドル模型34の姿勢を変更してもよい。また、N領域に分割した領域毎に閾値を算出してもよい。図11に、この場合の閾値DB21Aの一例を示す。「領域」は、仮想空間を複数の領域に分割した際の各領域を識別する情報である。ARマーカ35又はVRトラッカー36について推定された位置が、仮想空間のいずれの領域に含まれるかに応じて、対応する閾値が利用される。
In the above example, considering that the fire extinguisher (handle model 34) is to be held and operated by hand, images are taken and tracking data are taken at several positions within the range of reaching out. Detection is to be performed, but the present invention is not limited to this example. The image may be taken and the tracking data may be detected at a position of 4 points or less, or may be performed at a position of 6 points or more. Further, the posture of the
選択部16は、ARマーカ推定部12の推定結果と、そのARマーカ推定部12と対応するトラッキング推定部14の推定結果との比較に基づいて、いずれかの推定結果を選択する。
The
ここで、ARマーカ推定部12の推定結果と、トラッキング推定部14の推定結果との対応関係について説明する。
Here, the correspondence between the estimation result of the AR
トラッキング推定部14が、トラッキング装置31から取得したトラッキングデータに基づいてハンドル模型34の位置及び姿勢を推定する処理は、トラッキングデータの検出時刻に対してほぼリアルタイムで処理可能である。一方、ARマーカ推定部12が、ステレオカメラ32で撮影された画像から検出したARマーカ35に基づいてハンドル模型34の位置及び姿勢を推定する処理は、所定の処理時間を要する。すなわち、ARマーカ推定部12による推定と、トラッキング推定部14による推定とは同期していない。そこで、画像の撮影時刻とトラッキングデータの検出時刻とが同一である推定結果同士を対応付ける。
The process of estimating the position and posture of the
図12に、各時刻において、ARマーカ推定部12及びトラッキング推定部14の各々で推定された推定結果の軌跡を概略的に示す。なお、図12では、説明を簡単にするため、推定結果を2次元で表している。トラッキングデータの検出からトラッキング推定部14による推定結果が得られるまでの処理時間を0とし、ステレオカメラ32による撮影から、ARマーカ推定部12による推定結果が得られるまでの処理時間をxとする。この場合、図12に示すように、時刻tiにおけるARマーカ推定部12の推定結果は、時刻ti−xにおけるトラッキング推定部14の推定結果に対応することになる。
FIG. 12 schematically shows the loci of the estimation results estimated by each of the AR
ただし、上記の処理時間xは、常に一定ではないため、選択部16は、以下のように、画像の撮影時刻とトラッキングデータの検出時刻とが同一である推定結果同士を対応付ける。
However, since the processing time x is not always constant, the
図13に示すように、選択部16は、時刻ti以前の所定時間内の複数の時刻の各々におけるトラッキング推定部14の推定結果の各々と、時刻tiにおけるARマーカ推定部12の推定結果とを比較する。具体的には、選択部16は、トラッキング推定部14の推定結果を示すベクトルの各々と、時刻tiにおけるARマーカ推定部12の推定結果を示すベクトルとを各々比較する。そして、ベクトル間の差が、閾値DB21に記憶された閾値以下で最小となる場合におけるトラッキング推定部14の推定結果を、時刻tiにおけるARマーカ推定部12の推定結果に対応するトラッキング推定部14の推定結果とする。ベクトル間の差は、例えば、推定結果同士の3次元位置間の距離、及び推定結果同士の姿勢の差である。
As shown in FIG. 13, the
例えば、図26のB〜Dに示すように、ARマーカ35が良好に検出されなかった場合には、ARマーカ35に基づくハンドル模型34の3次元位置及び姿勢の推定は失敗する。そこで、選択部16は、上記のように、時刻tiにおいてARマーカ推定部12により推定された推定結果に、対応するトラッキング推定部14による推定結果が存在するか否かにより、ARマーカ推定部12による推定結果の信頼性を評価する。
For example, as shown in FIGS. 26 to D, when the
選択部16は、対応するトラッキング推定部14による推定結果が存在する場合には、ARマーカ推定部12による推定結果は信頼性ありと判断して、ARマーカ推定部12による推定結果を選択する。一方、選択部16は、対応するトラッキング推定部14による推定結果が存在しない場合には、ARマーカ推定部12による推定結果は信頼性なしと判断して、トラッキング推定部14による推定結果を選択する。選択部16は、選択結果を表示制御部18へ通知する。
When the estimation result by the corresponding tracking
また、選択部16は、ARマーカ推定部12の推定結果を選択した場合、ARマーカ推定部12の推定結果と、そのARマーカ推定部12の推定結果に対応するトラッキング推定部14の推定結果との差分をオフセット値として保持する。
When the
表示制御部18は、HMD33に表示する右眼用VR画像及び左眼用VR画像の各々を生成する。各VR画像の生成方法を以下に示す。表示制御部18は、HMD33に表示するVR画像のサイズに対応した描画領域を用意する。表示制御部18は、ステレオカメラ32から取得された画像を背景画像として描画領域に描画する。
The
また、表示制御部18は、選択部16から、ARマーカ推定部12の推定結果を選択した旨が通知された場合、オブジェクトDB22から、消火器を示す仮想オブジェクト39の3次元データを読み出す。そして、表示制御部18は、ARマーカ推定部12により推定されたカメラ座標系におけるハンドル模型34の3次元位置及び姿勢に対応させた消火器を示す仮想オブジェクト39を、背景画像が描画された描画領域に重畳して描画する。
Further, when the
また、表示制御部18は、選択部16から、トラッキング推定部14の推定結果を選択した旨が通知された場合、オブジェクトDB22から、消火器を示す仮想オブジェクト39の3次元データを読み出す。また、表示制御部18は、トラッキング推定部14による推定結果に、選択部16が保持するオフセット値を加算する。そして、表示制御部18は、オフセット値を加算したトラッキング推定部14の推定結果が示すハンドル模型34のワールド座標系の3次元位置に、オフセット値加算後の推定結果が示す姿勢で、消火器を示す仮想オブジェクト39を配置する。さらに、表示制御部18は、トラッキング推定部14で推定されたHMD33の3次元位置及び姿勢に対応する装着者40の視線方向で仮想空間を見た場合の仮想オブジェクト39を、背景画像が描画された描画領域に重畳して描画する。
Further, when the
また、表示制御部18は、ステレオカメラ32により撮影された画像から、装着者40の腕領域の画像を抽出し、抽出した腕領域の画像を、背景画像及び消火器を示す仮想オブジェクト39が描画された描画領域に重畳して描画する。
Further, the
また、表示制御部18は、オブジェクトDB22に記憶されている、炎などの他の仮想オブジェクトを、描画領域に重畳して描画してもよい。
Further, the
表示制御部18は、上記の描画を右眼用及び左眼用の各々について行うことにより、右眼用VR画像及び左眼用VR画像の各々を生成する。表示制御部18は、生成した右眼用VR画像及び左眼用VR画像をHMD33に出力する。
The
これにより、HMD33には、例えば図14に示すようなVR画像が表示される。図14の例では、消火器及び炎が仮想オブジェクトであり、それ以外の部分(壁、床、ホワイトボード、机、腕等)は、ステレオカメラ32で撮影された現実空間を映した画像である。
As a result, a VR image as shown in FIG. 14, for example, is displayed on the
表示制御装置10は、例えば図15に示すコンピュータ50で実現することができる。コンピュータ50は、Central Processing Unit(CPU)51と、一時記憶領域としてのメモリ52と、不揮発性の記憶部53とを備える。また、コンピュータ50は、入力装置、表示装置等の入出力装置54と、記憶媒体59に対するデータの読み込み及び書き込みを制御するRead/Write(R/W)部55と、インターネット等のネットワークに接続される通信Interface(I/F)56とを備える。CPU51、メモリ52、記憶部53、入出力装置54、R/W部55、及び通信I/F56は、バス57を介して互いに接続される。
The
記憶部53は、Hard Disk Drive(HDD)、Solid State Drive(SSD)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部53には、コンピュータ50を、表示制御装置10として機能させるための表示制御プログラム60が記憶される。表示制御プログラム60は、ARマーカ推定プロセス62と、トラッキング推定プロセス64と、閾値算出プロセス65と、選択プロセス66と、表示制御プロセス68とを有する。また、記憶部53は、閾値DB21及びオブジェクトDB22の各々を構成する情報が記憶される情報記憶領域70を有する。
The
CPU51は、表示制御プログラム60を記憶部53から読み出してメモリ52に展開し、表示制御プログラム60が有するプロセスを順次実行する。CPU51は、ARマーカ推定プロセス62を実行することで、図6に示すARマーカ推定部12として動作する。また、CPU51は、トラッキング推定プロセス64を実行することで、図6に示すトラッキング推定部14として動作する。また、CPU51は、閾値算出プロセス65を実行することで、図6に示す閾値算出部15として動作する。また、CPU51は、選択プロセス66を実行することで、図6に示す選択部16として動作する。また、CPU51は、表示制御プロセス68を実行することで、図6に示す表示制御部18として動作する。また、CPU51は、情報記憶領域70から情報を読み出して、閾値DB21及びオブジェクトDB22をメモリ52に展開する。また、CPU51は、トラッキング推定プロセス64の実行時に、履歴テーブル23をメモリ52上に作成する。これにより、表示制御プログラム60を実行したコンピュータ50が、表示制御装置10として機能することになる。なお、プログラムを実行するCPU51はハードウェアである。
The
なお、表示制御プログラム60により実現される機能は、例えば半導体集積回路、より詳しくはApplication Specific Integrated Circuit(ASIC)等で実現することも可能である。
The function realized by the
次に、第1実施形態に係る表示制御装置10の作用について説明する。VRシステム100が起動されると、VRトラッキング装置31がVRトラッキングを開始し、トラッキングデータを出力すると共に、ステレオカメラ32が撮影を開始し、右眼用画像及び左眼用画像を出力する。そして、表示制御装置10が、図16に示す閾値算出処理を実行した後に、図17に示す表示制御処理を実行する。なお、閾値算出処理及び表示制御処理は、開示の技術の表示制御方法の一例である。
Next, the operation of the
まず、図16に示す閾値算出処理について説明する。 First, the threshold value calculation process shown in FIG. 16 will be described.
ステップS12で、ARマーカ推定部12が、ARマーカ35及びVRトラッカー36が対応付けて配置されたハンドル模型34を所定の位置の各々に配置したときにステレオカメラ32で撮影された画像を取得する。この際、HMD33を装着した装着者40が中央を注視した状態で、HMD33に配置されたステレオカメラ32により撮影される画像に、ARマーカ35の全体が含まれるように配置する。また、トラッキング推定部14が、各位置で検出されたトラッキングデータを取得する。
In step S12, the AR
次に、ステップS14で、閾値算出部15が、各位置で撮影された画像に基づいてARマーカ推定部12で推定されたカメラ座標系の推定結果を取得し、仮想空間座標系に変換する。また、閾値算出部15が、各位置で検出されたトラッキングデータに基づいてトラッキング推定部14で推定された仮想空間座標系の推定結果を取得する。
Next, in step S14, the threshold
次に、ステップS16で、閾値算出部15が、各位置について推定されたARマーカ推定部12の推定結果とトラッキング推定部14の推定結果との差の最大値を、後述する選択部16において、推定結果の対応付けを行う際の閾値として算出する。そして、閾値算出部15は、算出した閾値を、閾値DB21に記憶し、閾値算出処理は終了する。
Next, in step S16, the threshold
次に、図17に示す表示制御処理について説明する。 Next, the display control process shown in FIG. 17 will be described.
ステップS22で、ARマーカ推定部12及び表示制御部18が、ステレオカメラ32から出力された右眼用画像及び左眼用画像の各々を取得する。
In step S22, the AR
次に、ステップS24で、表示制御部18が、HMD33に表示するVR画像のサイズに対応した描画領域を用意する。表示制御部18は、ステレオカメラ32から取得された画像を背景画像として描画領域に描画する。
Next, in step S24, the
次に、ステップS26で、トラッキング推定部14が、トラッキング装置31から出力された、HMD33についてのトラッキングデータを取得する。そして、トラッキング推定部14が、取得したトラッキングデータに基づいて、仮想空間座標系におけるHMD33の3次元位置及び姿勢を推定する。
Next, in step S26, the tracking
次に、ステップS28で、トラッキング推定部14が、トラッキング装置31から出力されたVRトラッカー36についてのトラッキングデータを取得する。そして、トラッキング推定部14が、取得したトラッキングデータに基づいて、仮想空間座標系におけるVRトラッカー36の3次元位置及び姿勢を推定する。
Next, in step S28, the tracking
次に、ステップS30で、トラッキング推定部14が、VRトラッカー36の3次元位置及び姿勢の推定結果を、例えば、図8に示すような履歴テーブル23に保持する。この際、トラッキング推定部14は、履歴テーブル23に保持されている最も古い推定結果を破棄し、上記ステップS28で推定された推定結果を履歴テーブル23に追加する。
Next, in step S30, the tracking
次に、ステップS32で、ARマーカ推定部12が、取得した右眼用画像及び左眼用画像の各々から、パターンマッチングなどの画像認識処理により、予め登録された図形であるARマーカ35が検出されたか否かを判定する。ARマーカ35が検出された場合には、処理はステップS36へ移行し、検出されない場合には、処理はステップS46へ移行する。
Next, in step S32, the AR
ステップS36では、ARマーカ推定部12が、右眼用画像及び左眼用画像の各々から検出したARマーカ35と、ステレオカメラ32の両眼視差とに基づいて、カメラ座標系におけるARマーカ35の3次元位置及び姿勢を推定する。
In step S36, the AR
次に、ステップS38で、選択部16が、ARマーカ推定部12による推定結果の信頼性を評価する。具体的には、選択部16が、上記ステップS36でARマーカ推定部12により推定されたカメラ座標系の推定結果を仮想空間座標系に変換する。そして、選択部16が、履歴テーブル23に保持したトラッキング推定部14の推定結果の各々と、上記ステップS36で推定されたARマーカ推定部12の推定結果(座標変換後)とを比較する。選択部16は、トラッキング推定部14の推定結果を示すベクトルの各々と、ARマーカ推定部12の推定結果を示すベクトルとの差が、閾値DB21に記憶された閾値以下で最小となる場合におけるトラッキング推定部14の推定結果を特定する。
Next, in step S38, the
次に、ステップS40で、選択部16が、ARマーカ推定部12の推定結果は信頼性ありか否かを判定する。上記ステップS38において、ARマーカ推定部12の推定結果に対応するトラッキング推定部14の推定結果が特定されている場合には、ARマーカ推定部12の推定結果は信頼性ありと判定され、処理はステップS42へ移行する。一方、ARマーカ推定部12の推定結果に対応するトラッキング推定部14の推定結果が特定されていない場合には、ARマーカ推定部12の推定結果は信頼性なしと判定され、処理はステップS46へ移行する。
Next, in step S40, the
ステップS42では、表示制御部18が、オブジェクトDB22から、消火器を示す仮想オブジェクト39の3次元データを読み出す。そして、表示制御部18は、ARマーカ推定部12により推定されたカメラ座標系におけるハンドル模型34の3次元位置及び姿勢に対応させた消火器を示す仮想オブジェクト39を、背景画像が描画された描画領域に重畳して描画する。
In step S42, the
次に、ステップS44で、選択部16が、ARマーカ推定部12の推定結果と、対応するトラッキング推定部14の推定結果との差分をオフセット値として保持する。
Next, in step S44, the
一方、ステップS46では、表示制御部18が、オブジェクトDB22から、消火器を示す仮想オブジェクト39の3次元データを読み出す。そして、表示制御部18は、トラッキング推定部14による推定結果に、選択部16が保持するオフセット値を加算する。 次に、ステップS48で、表示制御部18が、オフセット値を加算したトラッキング推定部14の推定結果が示すハンドル模型34のワールド座標系の3次元位置に、オフセット値加算後の推定結果が示す姿勢で、消火器を示す仮想オブジェクト39を配置する。そして、表示制御部18は、トラッキング推定部14で推定されたHMD33の3次元位置及び姿勢に対応する装着者40の視線方向で仮想空間を見た場合の仮想オブジェクト39を、背景画像が描画された描画領域に重畳して描画する。
On the other hand, in step S46, the
次に、ステップS50で、表示制御部18が、取得した右眼用画像及び左眼用画像の各々から、例えば、肌色の領域を抽出するなどして、装着者40の腕部を示す腕領域を抽出する。そして、表示制御部18は、抽出した腕領域の画像を、背景画像及び消火器を示す仮想オブジェクト39が描画された描画領域に重畳して描画する。
Next, in step S50, the
次に、ステップS52で、表示制御部18が、オブジェクトDB22に記憶されている、炎などの他の仮想オブジェクトの3次元データを読み出し、描画領域に重畳して描画する。
Next, in step S52, the
表示制御部18は、上記の処理を右眼用及び左眼用の各々について行うことにより、右眼用VR画像及び左眼用VR画像の各々を生成する。
The
次に、ステップS54で、表示制御部18が、生成した右眼用VR画像及び左眼用VR画像をHMD33に出力する。これにより、HMD33には、例えば図14に示すようなVR画像が表示される。そして、表示制御処理は終了する。
Next, in step S54, the
表示制御部18は、VRシステム100の終了が指示されるまで、上記の表示制御処理を所定時間間隔(例えば、ステレオカメラのフレームレートと同じ間隔)で繰り返し実行する。
The
以上説明したように、第1実施形態におけるVRシステム100によれば、表示制御装置10が、時刻tiに推定されたARマーカに基づく推定結果についての信頼性を評価する。具体的には、推定結果が示すベクトル間の差が閾値以内となるVRトラッカーに基づく推定結果が、時刻ti以前の所定期間内の各時刻に推定されたVRトラッカーに基づく推定結果に存在する場合に、信頼性ありと評価する。ARマーカに基づく推定結果に信頼性がある場合、カメラ画像との位置ずれが少ないARマーカに基づく推定結果を用いて対象物の仮想オブジェクトを描画する。
As described above, according to the
一方、ARマーカに基づく推定結果に信頼性がない場合に、ARマーカに基づく推定結果を用いて、対象物の仮想オブジェクトを描画したとする。この場合、例えば、図18に示すように、現実空間の画像に重畳される対象物の仮想オブジェクトに、一瞬、位置ずれや方向違い等が生じ、対象物がバタ付いて見える。そこで、本実施形態に係る表示制御装置10は、ARマーカに基づく推定結果に信頼性がない場合には、カメラ画像との位置ずれ以外は安定して位置を検出できるVRトラッカーに基づく推定結果を用いて、対象物の仮想オブジェクトを描画する。これにより、現実空間において取り扱い可能な物体に対応する対象物の仮想オブジェクトを現実空間の画像に重畳する場合における表示の違和感を緩和することができる。
On the other hand, when the estimation result based on the AR marker is unreliable, it is assumed that the virtual object of the object is drawn using the estimation result based on the AR marker. In this case, for example, as shown in FIG. 18, the virtual object of the object superimposed on the image in the real space is momentarily displaced, misaligned, or the like, and the object appears to flutter. Therefore, when the estimation result based on the AR marker is unreliable, the
<第2実施形態>
次に、第2実施形態について説明する。第2実施形態では、現実空間において取り扱い可能な物体を、消火器のノズル部分を模した模型とし、現実空間の画像に重畳して描画する仮想オブジェクトも、消火器のノズル部分である場合について説明する。なお、第2実施形態に係るVRシステムにおいて、第1実施形態に係るVRシステム100と同様の部分については、同一符号を付して詳細な説明を省略する。
<Second Embodiment>
Next, the second embodiment will be described. In the second embodiment, a case where an object that can be handled in the real space is a model imitating the nozzle portion of the fire extinguisher, and the virtual object drawn by superimposing it on the image in the real space is also the nozzle portion of the fire extinguisher. do. In the VR system according to the second embodiment, the same parts as those of the
図19に示すように、第2実施形態に係るVRシステム200は、表示制御装置210と、VRトラッキング装置31と、ステレオカメラ32が取り付けられたHMD33とを含む。さらに、VRシステム200は、複数のノズル模型34A、34B、34Cと、複数のARマーカ35A、35B、35Cと、1つのVRトラッカー36とを含む。なお、ノズル模型及びARマーカの数は、図19の例に限定されず、2個でも4個以上でもよい。なお、以下では、ノズル模型34A、34B、34Cを区別なく説明する場合には、代表してノズル模型34Aについて説明する。同様に、ARマーカ35A、35B、35Cを区別なく説明する場合には、代表してARマーカ35Aについて説明する。
As shown in FIG. 19, the
ノズル模型34Aは、HMD33の装着者が実際に保持したり操作したりして取り扱うことが可能な物体であり、本実施形態では、消火器のノズル部分に相当する棒状の物体である。ノズル模型34A、34B、34Cの各々は、対応付けて配置されているARマーカ35A、35B、35Cが異なるだけであり、形状等は同一の物体である。なお、ノズル模型34Aは、開示の技術の物体の一例である。
The
ARマーカ35Aは、ノズル模型34Aとの位置関係が固定された予め定めた位置に配置される。例えば、図20に示すように、ARマーカ35Aは、ノズル模型34Aの先端に貼付される。また、第1実施形態のARマーカ35と同様に、複数の面を持つ台座38に複数のARマーカ35を貼付することができる(図21参照)。
The
VRトラッカー36は、図20及び図21に示すように、ノズル模型34Aを保持する装着者40の手首等の位置に固定して取り付けられる。これにより、ノズル模型34Aを装着者40が保持した場合、ノズル模型34Aと、手首等に取り付けられたVRトラッカー36とは、ほぼ固定された位置関係となる。
As shown in FIGS. 20 and 21, the
表示制御装置210は、機能的には、図22に示すように、ARマーカ推定部12と、トラッキング推定部14と、閾値算出部15と、選択部16と、表示制御部218と、切替部219とを含む。また、表示制御装置210の所定の記憶領域には、閾値DB21と、オブジェクトDB222とが記憶される。
Functionally, as shown in FIG. 22, the
オブジェクトDB222には、消火器のノズルを示す仮想オブジェクトの3次元データが記憶されている。ノズルを示す仮想オブジェクトは、図23に示すように、ARマーカ35A、35B、35Cの各々に対応して、それぞれ異なる形状の仮想オブジェクト39A、39B、39Cが用意される。仮想オブジェクト39A、39B、39Cの各々には、ARマーカ35A、35B、35Cの各々に対応する識別番号が付与されている。
The
切替部219は、装着者40がノズル模型34A、34B、34Cを持ち替えたことを検知すると、持ち替えた後のノズル模型34A、34B、34Cに貼付されたARマーカ35A、35B、35C対応する識別番号を表示制御部218へ通知する。具体的には、切替部219は、ARマーカ推定部12で、ARマーカ35Aが検出されない期間が一定期間継続した場合に、次に検出されたARマーカ35A、35B、35Cを、切替後のARマーカ35A、35B、35Cと判定する。
When the
表示制御部218は、ノズルの仮想オブジェクトを描画する際、切替部219から通知された識別番号が付与された仮想オブジェクト39A、39B、39Cの3次元データをオブジェクトDB222から読み出して描画する。これにより、図24に示すように、現実空間では、異なるARマーカ35A、35B、35Cが貼付されたノズル模型34A、34B、34Cに持ち替えるだけで、VR画像上で、異なる形状のノズルの仮想オブジェクト39A、39B、39Cが描画される。
When drawing the virtual object of the nozzle, the
表示制御装置210は、例えば図15に示すコンピュータ50で実現することができる。コンピュータ50の記憶部53には、コンピュータ50を、表示制御装置210として機能させるための表示制御プログラム260が記憶される。表示制御プログラム260は、ARマーカ推定プロセス62と、トラッキング推定プロセス64と、閾値算出プロセス65と、選択プロセス66と、表示制御プロセス268と、切替プロセス269とを有する。また、記憶部53は、閾値DB21及びオブジェクトDB222の各々を構成する情報が記憶される情報記憶領域70を有する。
The
CPU51は、表示制御プログラム260を記憶部53から読み出してメモリ52に展開し、表示制御プログラム260が有するプロセスを順次実行する。CPU51は、表示制御プロセス268を実行することで、図22に示す表示制御部218として動作する。また、CPU51は、切替プロセス269を実行することで、図22に示す切替部219として動作する。また、CPU51は、情報記憶領域70から情報を読み出して、閾値DB21及びオブジェクトDB222の各々をメモリ52に展開する。他のプロセスについては、第1実施形態に係る表示制御プログラム60と同様である。これにより、表示制御プログラム260を実行したコンピュータ50が、表示制御装置210として機能することになる。
The
なお、表示制御プログラム260により実現される機能は、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。
The function realized by the
次に、第2実施形態に係る表示制御装置210の作用について説明する。第2実施形態においても、第1実施形態と同様に、閾値算出処理(図16)及び表示制御処理(図17)が実行される。また、表示制御処理と並行して、図25に示す切替処理が実行される。
Next, the operation of the
図25に示す切替処理のステップS62で、切替部219が、ARマーカ推定部12で、ARマーカ35Aが検出されない期間が一定期間継続したか否かを判定する。継続した場合には、処理はステップS64へ移行し、継続していない場合には、本ステップの判定を繰り返す。
In step S62 of the switching process shown in FIG. 25, the
ステップS64では、切替部219が、ARマーカ推定部12で、ARマーカ35Aが検出されたか否かを判定する。検出された場合には、処理はステップS66へ移行し、検出されない場合には、本ステップの判定を繰り返す。
In step S64, the
ステップS66では、切替部219が、検出されたARマーカ35A、35B、35Cに対応する識別番号を表示制御部218へ通知し、ステップS62に戻る。
In step S66, the
第2実施形態における閾値算出処理では、いずれかのARマーカ35A、35B、35Cのいずれかについて、第1実施形態と同様の閾値算出処理を実行してもよい。また、ARマーカ35A、35B、35Cの各々について、第1実施形態と同様の閾値算出処理を実行し、ARマーカ35A、35B、35C毎の閾値を設定してもよい。
In the threshold value calculation process in the second embodiment, the same threshold value calculation process as in the first embodiment may be executed for any of the
また、第2実施形態における表示制御処理(図17)では、ステップS42又はS48で仮想オブジェクト39A、39B、39Cの3次元データをオブジェクトDB222から読み出す。この際に、上記の切替処理のステップS66で通知された識別番号に対応する仮想オブジェクト39A、39B、39Cの3次元データを読み出すようにすればよい。
Further, in the display control process (FIG. 17) in the second embodiment, the three-dimensional data of the
以上説明したように、第2実施形態に係るVRシステム200によれば、1つのVRトラッカーと複数のARマーカの各々とを独立に設け、VRトラッカーを装着者の手首等に取り付け、その手でいずれかのARマーカが貼付されたノズル模型を保持する。これにより、保持したノズル模型に貼付されたARマーカに応じて、異なる仮想オブジェクトを描画することができる。また、描画したい仮想オブジェクト数分のVRトラッカーを用意する必要がなく、コストを削減することができる。
As described above, according to the
なお、上記第1及び第2実施形態では、消火器又は消火器のノズルを仮想オブジェクトとして描画する場合について説明したが、仮想オブジェクトとする対象物はこれに限定されるものではない。 In the first and second embodiments, the case where the fire extinguisher or the nozzle of the fire extinguisher is drawn as a virtual object has been described, but the object to be a virtual object is not limited to this.
また、上記各実施形態では、対象物の位置及び姿勢の推定にARマーカを用いる場合について説明したが、これに限定されない。ARマーカ以外のマーカを用いてもよいし、マーカを用いることなく、対象物自体の特徴点を検出して、特徴点の配置などから、対象物の位置及び姿勢を推定してもよい。 Further, in each of the above embodiments, the case where the AR marker is used for estimating the position and the posture of the object has been described, but the present invention is not limited to this. A marker other than the AR marker may be used, or the position and posture of the object may be estimated from the arrangement of the feature points by detecting the feature points of the object itself without using the marker.
また、上記各実施形態では、ステレオカメラで撮影された画像を用いてARマーカの位置及び姿勢を推定する場合について説明したが、これに限定されない。例えば、単眼の可視光カメラで撮影された画像から検出したARマーカの画像内での位置、サイズ、及び傾き(歪み)と、ARマーカの実際のサイズと、カメラの焦点距離とに基づいて、ARマーカの位置及び姿勢を推定してもよい。また、赤外線カメラを用いてもよい。この場合、VR画像に表示する背景画像を撮影するための可視光カメラを別途も受けてもよい。 Further, in each of the above embodiments, the case of estimating the position and the posture of the AR marker using the image taken by the stereo camera has been described, but the present invention is not limited to this. For example, based on the position, size, and tilt (distortion) of an AR marker in an image detected from an image taken with a monocular visible light camera, the actual size of the AR marker, and the focal length of the camera. The position and orientation of the AR marker may be estimated. Moreover, you may use an infrared camera. In this case, a visible light camera for taking a background image to be displayed in the VR image may be separately received.
なお、ステレオカメラを用いる場合には、ARマーカの位置及び姿勢を推定するための画像と、VR画像に表示する背景画像とを撮影するためのカメラを別々に設ける必要がない。 When a stereo camera is used, it is not necessary to separately provide an image for estimating the position and orientation of the AR marker and a background image to be displayed on the VR image.
また、上記各実施形態では、表示制御プログラム60、260が記憶部53に予め記憶(インストール)されている態様を説明したが、これに限定されない。開示の技術に係るプログラムは、CD−ROM、DVD−ROM、USBメモリ等の記憶媒体に記憶された形態で提供することも可能である。
Further, in each of the above embodiments, the mode in which the
以上の各実施形態に関し、更に以下の付記を開示する。 The following additional notes will be further disclosed with respect to each of the above embodiments.
(付記1)
撮影装置によって現実空間を撮影した画像から、前記現実空間に存在する取り扱い可能な物体に対応付けて配置された第1の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
検出装置により、前記物体に対応付けて配置された第2の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
前記第1の指標に基づく前記物体の3次元位置及び姿勢の第1の推定結果と、前記第2の指標に基づく前記物体の3次元位置及び姿勢の第2の推定結果であって、前記検出装置による検出時刻が前記撮影装置による前記画像の撮影時刻と対応する前記第2の推定結果との比較に基づいて、前記第1の推定結果又は前記第2の推定結果を選択し、
選択した前記第1の推定結果又は前記第2の推定結果に基づいて、前記現実空間を撮影した画像に、前記物体に対応する仮想オブジェクトを重畳した画像を表示装置に表示する
ことを含む処理をコンピュータに実行させるための表示制御プログラム。
(Appendix 1)
The three-dimensional position and orientation of the object are estimated by detecting the first index arranged in association with the handleable object existing in the real space from the image obtained by photographing the real space by the photographing device.
By detecting the second index arranged in association with the object by the detection device, the three-dimensional position and posture of the object are estimated.
The detection of the first estimation result of the three-dimensional position and posture of the object based on the first index and the second estimation result of the three-dimensional position and posture of the object based on the second index. The first estimation result or the second estimation result is selected based on the comparison between the shooting time of the image by the photographing device and the second estimation result corresponding to the detection time by the apparatus.
A process including displaying on a display device an image in which a virtual object corresponding to the object is superimposed on an image obtained by capturing the real space based on the selected first estimation result or the second estimation result. A display control program to be executed by a computer.
(付記2)
前記撮影時刻以前の所定時間内の複数の検出時刻に検出された前記第2の指標に基づく前記第2の推定結果のうち、前記第1の推定結果を示すベクトルと、前記第2の推定結果を示すベクトルとの差が予め定めた閾値以内で最小となる前記第2の推定結果を、前記第1の推定結果と対応する前記第2の推定結果とする付記1に記載の表示制御プログラム。
(Appendix 2)
Of the second estimation results based on the second index detected at a plurality of detection times within a predetermined time before the shooting time, the vector showing the first estimation result and the second estimation result. The display control program according to
(付記3)
前記第1の推定結果と対応する前記第2の推定結果が存在する場合、前記第1の推定結果を選択し、前記第1の推定結果と対応する前記第2の推定結果が存在しない場合、前記第2の推定結果を選択する付記2に記載の表示制御プログラム。
(Appendix 3)
When the second estimation result corresponding to the first estimation result exists, the first estimation result is selected, and when the second estimation result corresponding to the first estimation result does not exist, the first estimation result is selected. The display control program according to
(付記4)
前記第2の推定結果を選択する場合、過去に前記第1の推定結果を選択した際の前記第1の推定結果と、前記第1の推定結果と対応する前記第2の推定結果との差を、選択した前記第2の推定結果に加算した値が示す前記物体の3次元位置及び姿勢に基づいて、前記仮想オブジェクトを重畳する付記3に記載の表示制御プログラム。
(Appendix 4)
When selecting the second estimation result, the difference between the first estimation result when the first estimation result is selected in the past and the second estimation result corresponding to the first estimation result. The display control program according to Appendix 3, wherein the virtual object is superimposed based on the three-dimensional position and posture of the object indicated by the value added to the selected second estimation result.
(付記5)
前記閾値を、前記第1の指標の全体が含まれるように撮影された画像から検出された前記第1の指標に基づいて推定した前記第1の推定結果と、前記第1の指標の全体が含まれるように撮影された画像の撮影時刻と対応する検出時刻に検出された第2の指標に基づく前記第2の推定結果との差に基づいて算出する付記2〜付記4のいずれか1項に記載の表示制御プログラム。
(Appendix 5)
The first estimation result obtained by estimating the threshold value based on the first index detected from the image taken so as to include the whole of the first index, and the whole of the first index Any one of
(付記6)
複数の異なる前記第1の指標の各々を、複数の前記物体の各々に配置し、前記第2の指標を、前記物体を保持する部位に配置する付記1〜付記5のいずれか1項に記載の表示制御プログラム。
(Appendix 6)
The item according to any one of
(付記7)
前記第1の指標は、前記物体の3次元位置及び姿勢に対して既知の3次元位置及び姿勢で配置されたマーカであり、前記撮影された画像上での前記マーカの位置及び姿勢に基づいて、前記物体の3次元位置及び姿勢を推定する付記1〜付記6のいずれか1項に記載の表示制御プログラム。
(Appendix 7)
The first index is a marker arranged in a known three-dimensional position and posture with respect to the three-dimensional position and posture of the object, and is based on the position and posture of the marker on the captured image. The display control program according to any one of
(付記8)
前記第2の指標は、VRトラッカーであり、前記検出装置は、前記VRトラッカーの方向及び距離の情報を含むトラッキングデータを検出する付記1〜付記7のいずれか1項に記載の表示制御プログラム。
(Appendix 8)
The display control program according to any one of
(付記9)
撮影装置によって現実空間を撮影した画像から、前記現実空間に存在する取り扱い可能な物体に対応付けて配置された第1の指標を検出することにより、前記物体の3次元位置及び姿勢を推定する第1推定部と、
検出装置により、前記物体に対応付けて配置された第2の指標を検出することにより、前記物体の3次元位置及び姿勢を推定する第2推定部と、
前記第1の指標に基づく前記物体の3次元位置及び姿勢の第1の推定結果と、前記第2の指標に基づく前記物体の3次元位置及び姿勢の第2の推定結果であって、前記検出装置による検出時刻が前記撮影装置による前記画像の撮影時刻と対応する前記第2の推定結果との比較に基づいて、前記第1の推定結果又は前記第2の推定結果を選択する選択部と、
選択した前記第1の推定結果又は前記第2の推定結果に基づいて、前記現実空間を撮影した画像に、前記物体に対応する仮想オブジェクトを重畳した画像を表示装置に表示する表示制御部と、
を含む表示制御装置。
(Appendix 9)
The third dimension position and orientation of the object are estimated by detecting the first index arranged in association with the handleable object existing in the real space from the image of the real space taken by the photographing device. 1 estimation part and
A second estimation unit that estimates the three-dimensional position and posture of the object by detecting the second index arranged in association with the object by the detection device.
The detection of the first estimation result of the three-dimensional position and posture of the object based on the first index and the second estimation result of the three-dimensional position and posture of the object based on the second index. A selection unit that selects the first estimation result or the second estimation result based on the comparison between the shooting time of the image by the photographing device and the second estimation result corresponding to the detection time by the apparatus.
A display control unit that displays on a display device an image in which a virtual object corresponding to the object is superimposed on an image obtained by capturing the real space based on the selected first estimation result or the second estimation result.
Display control unit including.
(付記10)
前記選択部は、前記撮影時刻以前の所定時間内の複数の検出時刻に検出された前記第2の指標に基づく前記第2の推定結果のうち、前記第1の推定結果を示すベクトルと、前記第2の推定結果を示すベクトルとの差が予め定めた閾値以内で最小となる前記第2の推定結果を、前記第1の推定結果と対応する前記第2の推定結果とする付記9に記載の表示制御装置。
(Appendix 10)
The selection unit includes a vector showing the first estimation result among the second estimation results based on the second index detected at a plurality of detection times within a predetermined time before the shooting time, and the selection unit. The second estimation result in which the difference from the vector indicating the second estimation result is the minimum within a predetermined threshold value is described in Appendix 9 as the second estimation result corresponding to the first estimation result. Display control device.
(付記11)
前記選択部は、前記第1の推定結果と対応する前記第2の推定結果が存在する場合、前記第1の推定結果を選択し、前記第1の推定結果と対応する前記第2の推定結果が存在しない場合、前記第2の推定結果を選択する付記10に記載の表示制御装置。
(Appendix 11)
When the second estimation result corresponding to the first estimation result exists, the selection unit selects the first estimation result and the second estimation result corresponding to the first estimation result. The display control device according to
(付記12)
前記表示制御部は、前記第2の推定結果を選択される場合、過去に前記第1の推定結果を選択した際の前記第1の推定結果と、前記第1の推定結果と対応する前記第2の推定結果との差を、選択した前記第2の推定結果に加算した値が示す前記物体の3次元位置及び姿勢に基づいて、前記仮想オブジェクトを重畳する付記11に記載の表示制御装置。
(Appendix 12)
When the second estimation result is selected, the display control unit has the first estimation result when the first estimation result is selected in the past, and the first estimation result corresponding to the first estimation result. The display control device according to Appendix 11, wherein the virtual object is superimposed based on the three-dimensional position and orientation of the object indicated by the value obtained by adding the difference from the estimation result of 2 to the selected second estimation result.
(付記13)
前記閾値を、前記第1の指標の全体が含まれるように撮影された画像から検出された前記第1の指標に基づいて推定した前記第1の推定結果と、前記第1の指標の全体が含まれるように撮影された画像の撮影時刻と対応する検出時刻に検出された第2の指標に基づく前記第2の推定結果との差に基づいて算出する算出部を含む付記10〜付記12のいずれか1項に記載の表示制御装置。
(Appendix 13)
The first estimation result obtained by estimating the threshold value based on the first index detected from the image taken so as to include the whole of the first index, and the whole of the
(付記14)
複数の異なる前記第1の指標の各々を、複数の前記物体の各々に配置し、前記第2の指標を、前記物体を保持する部位に配置する付記9〜付記13のいずれか1項に記載の表示制御装置。
(Appendix 14)
The item according to any one of Supplementary note 9 to Supplementary note 13, wherein each of the plurality of different first indexes is arranged in each of the plurality of the objects, and the second index is arranged in the portion holding the object. Display control device.
(付記15)
前記第1の指標は、前記物体の3次元位置及び姿勢に対して既知の3次元位置及び姿勢で配置されたマーカであり、
前記第1推定部は、前記撮影された画像上での前記マーカの位置及び姿勢に基づいて、前記物体の3次元位置及び姿勢を推定する
付記9〜付記14のいずれか1項に記載の表示制御装置。
(Appendix 15)
The first index is a marker arranged in a known three-dimensional position and posture with respect to the three-dimensional position and posture of the object.
The display according to any one of Supplementary note 9 to
(付記16)
前記第2の指標は、VRトラッカーであり、前記検出装置は、前記VRトラッカーの方向及び距離の情報を含むトラッキングデータを検出する付記9〜付記15のいずれか1項に記載の表示制御装置。
(Appendix 16)
The display control device according to any one of Supplementary note 9 to
(付記17)
撮影装置によって現実空間を撮影した画像から、前記現実空間に存在する取り扱い可能な物体に対応付けて配置された第1の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
検出装置により、前記物体に対応付けて配置された第2の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
前記第1の指標に基づく前記物体の3次元位置及び姿勢の第1の推定結果と、前記第2の指標に基づく前記物体の3次元位置及び姿勢の第2の推定結果であって、前記検出装置による検出時刻が前記撮影装置による前記画像の撮影時刻と対応する前記第2の推定結果との比較に基づいて、前記第1の推定結果又は前記第2の推定結果を選択し、
選択した前記第1の推定結果又は前記第2の推定結果に基づいて、前記現実空間を撮影した画像に、前記物体に対応する仮想オブジェクトを重畳した画像を表示装置に表示する
ことを含む処理をコンピュータが実行する表示制御方法。
(Appendix 17)
The three-dimensional position and orientation of the object are estimated by detecting the first index arranged in association with the handleable object existing in the real space from the image obtained by photographing the real space by the photographing device.
By detecting the second index arranged in association with the object by the detection device, the three-dimensional position and posture of the object are estimated.
The detection of the first estimation result of the three-dimensional position and posture of the object based on the first index and the second estimation result of the three-dimensional position and posture of the object based on the second index. The first estimation result or the second estimation result is selected based on the comparison between the shooting time of the image by the photographing device and the second estimation result corresponding to the detection time by the apparatus.
A process including displaying on a display device an image in which a virtual object corresponding to the object is superimposed on an image obtained by capturing the real space based on the selected first estimation result or the second estimation result. The display control method performed by the computer.
(付記18)
前記撮影時刻以前の所定時間内の複数の検出時刻に検出された前記第2の指標に基づく前記第2の推定結果のうち、前記第1の推定結果を示すベクトルと、前記第2の推定結果を示すベクトルとの差が予め定めた閾値以内で最小となる前記第2の推定結果を、前記第1の推定結果と対応する前記第2の推定結果とする付記17に記載の表示制御方法。
(Appendix 18)
Of the second estimation results based on the second index detected at a plurality of detection times within a predetermined time before the shooting time, the vector showing the first estimation result and the second estimation result. The display control method according to Appendix 17, wherein the second estimation result in which the difference from the vector indicating the above is the minimum within a predetermined threshold value is the second estimation result corresponding to the first estimation result.
(付記19)
前記第1の推定結果と対応する前記第2の推定結果が存在する場合、前記第1の推定結果を選択し、前記第1の推定結果と対応する前記第2の推定結果が存在しない場合、前記第2の推定結果を選択する付記18に記載の表示制御方法。
(Appendix 19)
When the second estimation result corresponding to the first estimation result exists, the first estimation result is selected, and when the second estimation result corresponding to the first estimation result does not exist, the first estimation result is selected. The display control method according to
(付記20)
撮影装置によって現実空間を撮影した画像から、前記現実空間に存在する取り扱い可能な物体に対応付けて配置された第1の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
検出装置により、前記物体に対応付けて配置された第2の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
前記第1の指標に基づく前記物体の3次元位置及び姿勢の第1の推定結果と、前記第2の指標に基づく前記物体の3次元位置及び姿勢の第2の推定結果であって、前記検出装置による検出時刻が前記撮影装置による前記画像の撮影時刻と対応する前記第2の推定結果との比較に基づいて、前記第1の推定結果又は前記第2の推定結果を選択し、
選択した前記第1の推定結果又は前記第2の推定結果に基づいて、前記現実空間を撮影した画像に、前記物体に対応する仮想オブジェクトを重畳した画像を表示装置に表示する
ことを含む処理をコンピュータに実行させるための表示制御プログラムを記憶した記憶媒体。
(Appendix 20)
The three-dimensional position and orientation of the object are estimated by detecting the first index arranged in association with the handleable object existing in the real space from the image obtained by photographing the real space by the photographing device.
By detecting the second index arranged in association with the object by the detection device, the three-dimensional position and posture of the object are estimated.
The detection of the first estimation result of the three-dimensional position and posture of the object based on the first index and the second estimation result of the three-dimensional position and posture of the object based on the second index. The first estimation result or the second estimation result is selected based on the comparison between the shooting time of the image by the photographing device and the second estimation result corresponding to the detection time by the apparatus.
A process including displaying on a display device an image in which a virtual object corresponding to the object is superimposed on an image obtained by capturing the real space based on the selected first estimation result or the second estimation result. A storage medium that stores a display control program to be executed by a computer.
10、210 表示制御装置
12 ARマーカ推定部
14 トラッキング推定部
15 閾値算出部
16 選択部
18、218 表示制御部
219 切替部
21 閾値DB
22、222 オブジェクトDB
23 履歴テーブル
31 VRトラッキング装置
32 ステレオカメラ
33 HMD
34 ハンドル模型
34A、34B、34C ノズル模型
35、35A、35B、35C ARマーカ
36 VRトラッカー
39、39A、39B 仮想オブジェクト
40 装着者
50 コンピュータ
51 CPU
52 メモリ
53 記憶部
59 記憶媒体
60、260 表示制御プログラム
100、200 VRシステム
10, 210
22,222 Object DB
23 History table 31
34
52
Claims (10)
検出装置により、前記物体に対応付けて配置された第2の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
前記第1の指標に基づく前記物体の3次元位置及び姿勢の第1の推定結果と、前記第2の指標に基づく前記物体の3次元位置及び姿勢の第2の推定結果であって、前記検出装置による検出時刻が前記撮影装置による前記画像の撮影時刻と対応する前記第2の推定結果との比較に基づいて、前記第1の推定結果又は前記第2の推定結果を選択し、
選択した前記第1の推定結果又は前記第2の推定結果に基づいて、前記現実空間を撮影した画像に、前記物体に対応する仮想オブジェクトを重畳した画像を表示装置に表示する
ことを含む処理をコンピュータに実行させるための表示制御プログラム。 The three-dimensional position and orientation of the object are estimated by detecting the first index arranged in association with the handleable object existing in the real space from the image obtained by photographing the real space by the photographing device.
By detecting the second index arranged in association with the object by the detection device, the three-dimensional position and posture of the object are estimated.
The detection of the first estimation result of the three-dimensional position and posture of the object based on the first index and the second estimation result of the three-dimensional position and posture of the object based on the second index. The first estimation result or the second estimation result is selected based on the comparison between the shooting time of the image by the photographing device and the second estimation result corresponding to the detection time by the apparatus.
A process including displaying on a display device an image in which a virtual object corresponding to the object is superimposed on an image obtained by capturing the real space based on the selected first estimation result or the second estimation result. A display control program to be executed by a computer.
検出装置により、前記物体に対応付けて配置された第2の指標を検出することにより、前記物体の3次元位置及び姿勢を推定する第2推定部と、
前記第1の指標に基づく前記物体の3次元位置及び姿勢の第1の推定結果と、前記第2の指標に基づく前記物体の3次元位置及び姿勢の第2の推定結果であって、前記検出装置による検出時刻が前記撮影装置による前記画像の撮影時刻と対応する前記第2の推定結果との比較に基づいて、前記第1の推定結果又は前記第2の推定結果を選択する選択部と、
選択した前記第1の推定結果又は前記第2の推定結果に基づいて、前記現実空間を撮影した画像に、前記物体に対応する仮想オブジェクトを重畳した画像を表示装置に表示する表示制御部と、
を含む表示制御装置。 The third dimension position and orientation of the object are estimated by detecting the first index arranged in association with the handleable object existing in the real space from the image of the real space taken by the photographing device. 1 estimation part and
A second estimation unit that estimates the three-dimensional position and posture of the object by detecting the second index arranged in association with the object by the detection device.
The detection of the first estimation result of the three-dimensional position and posture of the object based on the first index and the second estimation result of the three-dimensional position and posture of the object based on the second index. A selection unit that selects the first estimation result or the second estimation result based on the comparison between the shooting time of the image by the photographing device and the second estimation result corresponding to the detection time by the apparatus.
A display control unit that displays on a display device an image in which a virtual object corresponding to the object is superimposed on an image obtained by capturing the real space based on the selected first estimation result or the second estimation result.
Display control unit including.
検出装置により、前記物体に対応付けて配置された第2の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
前記第1の指標に基づく前記物体の3次元位置及び姿勢の第1の推定結果と、前記第2の指標に基づく前記物体の3次元位置及び姿勢の第2の推定結果であって、前記検出装置による検出時刻が前記撮影装置による前記画像の撮影時刻と対応する前記第2の推定結果との比較に基づいて、前記第1の推定結果又は前記第2の推定結果を選択し、
選択した前記第1の推定結果又は前記第2の推定結果に基づいて、前記現実空間を撮影した画像に、前記物体に対応する仮想オブジェクトを重畳した画像を表示装置に表示する
ことを含む処理をコンピュータが実行する表示制御方法。 The three-dimensional position and orientation of the object are estimated by detecting the first index arranged in association with the handleable object existing in the real space from the image obtained by photographing the real space by the photographing device.
By detecting the second index arranged in association with the object by the detection device, the three-dimensional position and posture of the object are estimated.
The detection of the first estimation result of the three-dimensional position and posture of the object based on the first index and the second estimation result of the three-dimensional position and posture of the object based on the second index. The first estimation result or the second estimation result is selected based on the comparison between the shooting time of the image by the photographing device and the second estimation result corresponding to the detection time by the apparatus.
A process including displaying on a display device an image in which a virtual object corresponding to the object is superimposed on an image obtained by capturing the real space based on the selected first estimation result or the second estimation result. The display control method performed by the computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018065063A JP6981340B2 (en) | 2018-03-29 | 2018-03-29 | Display control programs, devices, and methods |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018065063A JP6981340B2 (en) | 2018-03-29 | 2018-03-29 | Display control programs, devices, and methods |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019175294A JP2019175294A (en) | 2019-10-10 |
JP6981340B2 true JP6981340B2 (en) | 2021-12-15 |
Family
ID=68167103
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018065063A Active JP6981340B2 (en) | 2018-03-29 | 2018-03-29 | Display control programs, devices, and methods |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6981340B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023048014A (en) | 2021-09-27 | 2023-04-06 | 株式会社Jvcケンウッド | Display device, control method for display device, and program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000102036A (en) * | 1998-09-22 | 2000-04-07 | Mr System Kenkyusho:Kk | Composite actual feeling presentation system, composite actual feeling presentation method, man-machine interface device and man-machine interface method |
JP2007004714A (en) * | 2005-06-27 | 2007-01-11 | Canon Inc | Information processing method and information processing unit |
-
2018
- 2018-03-29 JP JP2018065063A patent/JP6981340B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019175294A (en) | 2019-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6690041B2 (en) | Method and device for determining point of gaze on three-dimensional object | |
US20210131790A1 (en) | Information processing apparatus, information processing method, and recording medium | |
KR101761751B1 (en) | Hmd calibration with direct geometric modeling | |
JP6598617B2 (en) | Information processing apparatus, information processing method, and program | |
JP5762892B2 (en) | Information display system, information display method, and information display program | |
JP3631151B2 (en) | Information processing apparatus, mixed reality presentation apparatus and method, and storage medium | |
CN106125903B (en) | Multi-person interaction system and method | |
US10802606B2 (en) | Method and device for aligning coordinate of controller or headset with coordinate of binocular system | |
US20190033988A1 (en) | Controller tracking for multiple degrees of freedom | |
US9682482B2 (en) | Autonomous moving device and control method of autonomous moving device | |
KR20160096473A (en) | System and method for motion evaluation | |
US10573083B2 (en) | Non-transitory computer-readable storage medium, computer-implemented method, and virtual reality system | |
JP6452235B2 (en) | Face detection method, face detection device, and face detection program | |
WO2021130860A1 (en) | Information processing device, control method, and storage medium | |
JP2005256232A (en) | Method, apparatus and program for displaying 3d data | |
KR20170103365A (en) | high-speed operation of the object based object trajectory tracking apparatus and method therefor | |
EP3714955A1 (en) | Video tracking system and method | |
Makibuchi et al. | Vision-based robust calibration for optical see-through head-mounted displays | |
JP2009258884A (en) | User interface | |
KR101896827B1 (en) | Apparatus and Method for Estimating Pose of User | |
JP4566786B2 (en) | Position and orientation measurement method and information processing apparatus | |
JP6981340B2 (en) | Display control programs, devices, and methods | |
CN111539299A (en) | Human motion capture method, device, medium and equipment based on rigid body | |
JP7398227B2 (en) | Work support systems and programs | |
US20200258193A1 (en) | Information processing apparatus, information processing method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211015 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211019 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211101 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6981340 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |