JP2019175294A - 表示制御プログラム、装置、及び方法 - Google Patents

表示制御プログラム、装置、及び方法 Download PDF

Info

Publication number
JP2019175294A
JP2019175294A JP2018065063A JP2018065063A JP2019175294A JP 2019175294 A JP2019175294 A JP 2019175294A JP 2018065063 A JP2018065063 A JP 2018065063A JP 2018065063 A JP2018065063 A JP 2018065063A JP 2019175294 A JP2019175294 A JP 2019175294A
Authority
JP
Japan
Prior art keywords
estimation result
estimation
display control
index
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018065063A
Other languages
English (en)
Other versions
JP6981340B2 (ja
Inventor
小林 弘幸
Hiroyuki Kobayashi
弘幸 小林
厚一郎 新沼
Atsuichiro Niinuma
厚一郎 新沼
雅之 西野
Masayuki Nishino
雅之 西野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018065063A priority Critical patent/JP6981340B2/ja
Publication of JP2019175294A publication Critical patent/JP2019175294A/ja
Application granted granted Critical
Publication of JP6981340B2 publication Critical patent/JP6981340B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

【課題】現実空間において取り扱い可能な物体に対応する対象物の仮想オブジェクトを現実空間の画像に重畳する場合における表示の違和感を緩和する。【解決手段】ARマーカ推定部12が、撮影装置によって現実空間を撮影した画像から、現実空間に存在する取り扱い可能な物体に対応付けて配置された第1の指標を検出することにより、物体の3次元位置及び姿勢を推定し、トラッキング推定部14が、検出装置により、物体に対応付けて配置された第2の指標を検出することにより、物体の3次元位置及び姿勢を推定し、選択部16が、第1の指標に基づく第1の推定結果と、検出時刻が撮影時刻と対応する第2の指標に基づく第2の推定結果との比較に基づいて、第1の推定結果又は第2の推定結果を選択し、表示制御部18が、選択した推定結果に基づいて、現実空間を撮影した画像に、物体に対応する仮想オブジェクトを重畳した画像を表示する。【選択図】図6

Description

開示の技術は、表示制御プログラム、表示制御装置、及び表示制御方法に関する。
作業手順や工具類使用技術の習得を行う上で、特に工具類が危険であったり、大がかりであったり、高所作業や火災現場といった危険を伴う場所であったりする場合、実際に同じ条件で技術習得の場を用意するには、安全面の確保等も含め、手間やコストがかかる。
それらの問題を解決するために、Virtual Reality(VR)技術を利用して、仮想的に体験やトレーニングさせることが提案、及び一部製品化され始めている。これらの多くは、操作対象物を操作する自身の手も含め全てが仮想空間内での表現であることが多く、臨場感の点で弱い部分がある。
そこで、Head Mounted Display(HMD)にカメラを装着し、実映像を仮想空間に持ち込む、いわゆるMixed Reality(MR)を適用することが考えられる。例えば、MRに関する従来技術として、広い範囲で移動するプレーヤを精度良く補足して複合現実感を提示する装置が提案されている。この装置は、既知の位置に配置された複数のマーカを有する作業台と、プレーヤの頭部姿勢を検出するためにプレーヤに装着される姿勢センサと、複数のマーカのうちの少なくとも1つが視野に入るように設定されたカメラとを具備する。そして、この装置は、姿勢センサからの出力に基づいて頭部位置を検出すると共に、検出された頭部位置信号を、カメラの画像信号を画像処理してカメラの位置を検出することにより補正する。さらに、この装置は、補正された頭部位置に応じた視点位置に複合現実感を提示するように仮想画像を生成する。
特開平11−136706号公報
しかし、VRトラッキングセンサ(従来技術における姿勢センサ)は、利用者が装着しているHMDの位置や向き等の値を一定の精度で取得することができるが、MRにおいては、カメラがとらえた対象物と仮想空間上の対象物との位置のズレが、利用者に違和感を与える。特に、利用者が対象物を保持したり、操作したりする場合、仮想空間上の対象物に対する視覚と、実際の対象物に対する触覚とのズレが発生する。なお、現実物を仮想空間に持ち込まず、仮想物のみを表示する場合には、実際の対象物の位置と仮想空間上の対象物の位置とのズレは、利用者に大きな影響を与えない。
また、マーカを使用して対象物の位置を検出する場合、例えば、図26のAに示すように、画像内にマーカが良好に映る場合には、対象物の位置及び姿勢を精度良く検出することができる。しかし、例えば、図26のBに示すように、マーカの一部しか映っていない場合には、対象物の位置を精度良く検出することができない。図26のCに示すように、マーカがカメラから離れた位置にあり、画像内でのマーカのサイズが小さ過ぎる場合、及び図26のDに示すように、カメラ映像のブレにより、画像内にマーカが映っていても、マーカを検出できない場合も同様である。これを補うために、従来技術のように、マーカを多数配置する場合には、複数のマーカの各々についてキャリブレーションや配置の管理などを行う必要があり、処理負荷が増大する。
一つの側面として、現実空間において取り扱い可能な物体に対応する対象物の仮想オブジェクトを現実空間の画像に重畳する場合における表示の違和感を緩和することを目的とする。
一つの態様として、開示の技術は、撮影装置によって現実空間を撮影した画像から、前記現実空間に存在する取り扱い可能な物体に対応付けて配置された第1の指標を検出することにより、前記物体の3次元位置及び姿勢を推定する。また、検出装置により、前記物体に対応付けて配置された第2の指標を検出することにより、前記物体の3次元位置及び姿勢を推定する。そして、前記第1の指標に基づく前記物体の3次元位置及び姿勢の第1の推定結果と、前記第2の指標に基づく前記物体の3次元位置及び姿勢の第2の推定結果との比較に基づいて、前記第1の推定結果又は前記第2の推定結果を選択する。第2の推定結果は、前記検出装置による検出時刻が前記撮影装置による前記画像の撮影時刻と対応する前記第2の推定結果である。そして、選択した前記第1の推定結果又は前記第2の推定結果に基づいて、前記現実空間を撮影した画像に、前記物体に対応する仮想オブジェクトを重畳した画像を表示装置に表示する。
開示の技術は、一つの側面として、現実空間において取り扱い可能な物体に対応する仮想オブジェクトを現実空間の画像に重畳する場合における表示の違和感を緩和することができる、という効果を有する。
第1実施形態に係るVRシステムの構成を示す概略図である。 ハンドル模型及びARマーカを説明するための図である。 ハンドル模型、ARマーカ、及びVRトラッカーを説明するための図である。 第1実施形態に係るVRシステムの各構成の配置の一例を示す概略図である。 ハンドル模型の取り扱いを説明するための図である。 第1実施形態に係る表示制御装置の機能ブロック図である。 第1実施形態における仮想オブジェクトを説明するための図である。 トラッキング推定部が保持する履歴テーブルの一例を示す図である。 閾値の算出を説明するための図である。 閾値データベースの一例を示す図である。 閾値データベースの他の例を示す図である。 ARマーカ推定部の推定結果とトラッキング推定部の推定結果との対応を説明するための図である。 ARマーカ推定部の推定結果とトラッキング推定部の推定結果との対応を説明するための図である。 第1実施形態におけるVR画像の一例を示す図である。 第1及び第2実施形態に係る表示制御装置として機能するコンピュータの概略構成を示すブロック図である。 第1実施形態における閾値算出処理の一例を示すフローチャートである。 第1実施形態における表示制御処理の一例を示すフローチャートである。 信頼性のないARマーカに基づく推定結果を用いた場合のVR画像の一例を示す図である。 第2実施形態に係るVRシステムの構成を示す概略図である。 ノズル模型、ARマーカ、及びVRトラッカーを説明するための図である。 ノズル模型、ARマーカ、及びVRトラッカーを説明するための図である。 第2実施形態に係る表示制御装置の機能ブロック図である。 第2実施形態における仮想オブジェクトを説明するための図である。 仮想オブジェクトの切り替えを説明するための図である。 第2実施形態における切替処理の一例を示すフローチャートである。 画像からのマーカの検出を説明するための図である。
以下、図面を参照して開示の技術に係る実施形態の一例を詳細に説明する。
<第1実施形態>
第1実施形態では、一例として、消火器の使い方を仮想体験するためのVR画像を表示する場合について説明する。なお、現実空間において取り扱い可能な物体を、消火器のハンドル部分を模した模型とする。また、そのハンドル部分に対応した消火器全体の仮想的な3次元のオブジェクト(以下、「仮想オブジェクト」という)を、現実空間の画像に重畳して描画する場合について説明する。
図1に示すように、第1実施形態に係るVirtual Reality(VR)システム100は、表示制御装置10と、VRトラッキング装置31と、ステレオカメラ32と、Head Mounted Display(HMD)33とを含む。さらに、VRシステム100は、ハンドル模型34と、Augmented Reality(AR)マーカ35と、VRトラッカー36とを含む。
VRトラッキング装置31は、例えば、1又は複数のレーザレーダで実現することができる。各レーザレーダは、レーザを照射し、HMD33及びVRトラッカー36の各々の受光部で反射したレーザを受光し、レーザの照射方向及び受光部までの距離の情報を含むトラッキングデータを計測する。VRトラッキング装置31は、計測したトラッキングデータを表示制御装置10へ出力する。なお、VRトラッキング装置31は、開示の技術の検出装置の一例である。
ステレオカメラ32は、HMD33に取り付けられており、右眼用及び左眼用の可視光カメラの各々により、HMD33を装着した装着者40の視界を想定した範囲を、所定のフレームレートで撮影する。ステレオカメラ32は、撮影により得られた右眼用画像及び左眼用画像を表示制御装置10へ出力する。なお、ステレオカメラ32は、開示の技術の撮影装置の一例である。
HMD33は、表示制御装置10から出力された右眼用VR画像及び左眼用VR画像を取得し、ディスプレイに立体視画像を表示する。なお、本実施形態におけるVR画像とは、ステレオカメラ32で撮影された現実空間の画像に、対象物である消火器を示す仮想的な3次元のオブジェクトが重畳された画像である。なお、HMD33は、開示の技術の表示装置の一例である。
ハンドル模型34は、HMD33の装着者が実際に保持したり操作したりして取り扱うことが可能な物体であり、本実施形態では、消火器のハンドル部分に相当する物体である。なお、ハンドル模型34は、開示の技術の物体の一例である。
ARマーカ35は、予め登録された図形のマーカであり、ハンドル模型34との位置関係が固定された予め定めた位置に配置される。例えば、図2に示すように、ARマーカ35は、ハンドル模型34を支える支柱37に設けられ台座38に貼付される。また、色々な角度から撮影された場合でも、ステレオカメラ32の画角内に、図26のAに示すような良好な状態のARマーカ35が含まれるように、複数の面を持つ台座38に複数のARマーカ35を貼付することができる。なお、ARマーカ35は、開示の技術の第1の指標の一例である。
VRトラッカー36は、VRトラッキング装置31から照射されるレーザを受光する受光部を有し、VRトラッカー36が取り付けられた物体の位置及び姿勢を検出するための装置である。VRトラッカー36は、ハンドル模型34との位置関係が固定された予め定めた位置に配置される。例えば、図3に示すように、VRトラッカー36は、ハンドル模型34を支える支柱37の端部に取り付けることができる。なお、VRトラッカー36は、開示の技術の第2の指標の一例である。
図4に、VRシステム100の各構成の配置の一例を概略的に示す。ステレオカメラ32付きのHMD33は、装着者40の頭部に装着される。ハンドル模型34は、図5に示すように、装着者40に保持又は操作される。VRトラッキング装置31は、各レーザレーダの計測範囲に、装着者40に装着されたHMD33、及び装着者40に保持されたハンドル模型34に対応する位置に配置されたVRトラッカー36が含まれる位置に配置される。例えば、装着者40が立つことが想定される位置を挟む対角線上の位置に配置される。
表示制御装置10は、機能的には、図6に示すように、ARマーカ推定部12と、トラッキング推定部14と、閾値算出部15と、選択部16と、表示制御部18とを含む。ARマーカ推定部12は、開示の技術の第1推定部の一例であり、トラッキング推定部14は、開示の技術の第2推定部の一例であり、閾値算出部15は、開示の技術の算出部の一例である。また、表示制御装置10の所定の記憶領域には、閾値データベース(DB)21と、オブジェクトDB22とが記憶される。
閾値DB21には、後述する選択部16で使用される閾値が記憶されている(詳細は後述)。
オブジェクトDB22には、現実空間の映像に重畳表示する仮想オブジェクトの3次元データが記憶されている。本実施形態では、仮想オブジェクトには、消火器を示す仮想オブジェクトが含まれる。より具体的には、図7に示すように、消火器全体を示す仮想オブジェクト39に含まれるハンドル部分は、現実空間におけるハンドル模型34に対応する形状である。また、オブジェクトDB22には、消火器を示す仮想オブジェクト39以外のオブジェクト(例えば、炎を示すオブジェクト等)が含まれていてもよい。
ARマーカ推定部12は、ステレオカメラ32から出力された右眼用画像及び左眼用画像の各々を取得し、右眼用画像及び左眼用画像の各々から、パターンマッチングなどの画像認識処理により、予め登録された図形であるARマーカ35を検出する。ARマーカ推定部12は、右眼用画像及び左眼用画像の各々から検出したARマーカ35と、ステレオカメラ32の両眼視差とに基づいて、カメラ座標系におけるARマーカ35の3次元位置及び姿勢(各座標軸に対する角度)を推定する。
トラッキング推定部14は、トラッキング装置31から出力されたトラッキングデータを取得する。そして、トラッキング推定部14は、トラッキングデータに基づいて、ワールド座標系(仮想空間座標系)におけるHMD33及びVRトラッカー36の各々の3次元位置及び姿勢を推定する。
また、トラッキング推定部14は、後述する選択部16の処理で使用するため、所定時間分のVRトラッカー36についての推定結果の履歴を保持する。図8に、トラッキング推定部14が保持する履歴テーブル23の一例を示す。図8の例では、履歴テーブル23は、N個分の推定結果を保持可能である。「履歴番号」は、推定された時刻が新しい順に各推定結果に付与された、1、2、・・・、Nの番号である。「3次元位置」及び「姿勢」は、各履歴番号に対応する推定結果である。Nの値は、ステレオカメラ32のフレームレート、及び後述するARマーカ推定部12による推定と、トラッキング推定部14による推定との処理時間の差の最大値に基づく値を設定することができる。
なお、ハンドル模型34に対するARマーカ35及びVRトラッカー36の各々の配置は既知である。そのため、ARマーカ35及びVRトラッカー36の3次元位置及び姿勢を推定することは、ハンドル模型34の3次元位置及び姿勢を推定することに対応する。さらに、消火器を示す仮想オブジェクト39は、図7に示すように、現実空間のハンドル模型34に対応する。すなわち、ARマーカ35及びVRトラッカー36の3次元位置及び姿勢を推定することは、消火器を示す仮想オブジェクト39の3次元位置及び姿勢を推定することに相当する。
閾値算出部15は、ARマーカ35が、例えば図26のAに示すように良好に含まれる画像から検出されたARマーカ35に基づいて、ARマーカ推定部12により推定された推定結果を取得する。また、閾値算出部15は、ARマーカ35が良好に含まれる画像が撮影された際に検出されトラッキングデータに基づいてトラッキング推定部14により推定された推定結果も取得する。
例えば、ARマーカ35及びVRトラッカー36が対応付けて配置されたハンドル模型34を、図9に示すように、装着者40に対して左上、右上、中央、左下、及び右下となる位置の各々に配置する。この際、HMD33を装着した装着者40が中央を注視した状態で、HMD33に配置されたステレオカメラ32により撮影される画像に、ARマーカ35の全体が含まれるように配置する。そして、閾値算出部15は、各位置で撮影された画像に基づいてARマーカ推定部12で推定された推定結果、及び各位置で検出されたトラッキングデータに基づいてトラッキング推定部14で推定された推定結果を取得する。なお、閾値の算出では、後述するARマーカ推定部12による推定と、トラッキング推定部14による推定との処理時間の差を考慮する。具体的には、ARマーカ35及びVRトラッカー36が対応付けて配置されたハンドル模型34を、各位置に所定時間停止させた状態で、画像の撮影及びトラッキングデータの検出を行う。
そして、閾値算出部15は、各位置について推定されたARマーカ推定部12の推定結果とトラッキング推定部14の推定結果との差の最大値を、後述する選択部16において、推定結果の対応付けを行う際の閾値として算出する。閾値算出部15は、算出した閾値を、閾値DB21に記憶する。
図10に、閾値DB21の一例を示す。図10の例では、各位置(左上、右上、中央、左下、及び右下)において、ARマーカ推定部12及びトラッキング推定部14の各々で推定された3次元位置間の距離の最大値が、「距離閾値」として記憶されている。同様に、各位置において、ARマーカ推定部12及びトラッキング推定部14の各々で推定された姿勢間の差の最大値が、「姿勢閾値」として記憶されている。
なお、上記の例では、消火器(ハンドル模型34)が手に持って操作するものであることを考慮して、手を伸ばした範囲内の数点の位置で、画像の撮影及びトラッキングデータの検出を行うこととしているが、この例に限定されない。4点以下の位置で画像の撮影及びトラッキングデータの検出を行ってもよいし、6点以上の位置で行ってもよい。また、各位置でハンドル模型34の姿勢を変更してもよい。また、N領域に分割した領域毎に閾値を算出してもよい。図11に、この場合の閾値DB21Aの一例を示す。「領域」は、仮想空間を複数の領域に分割した際の各領域を識別する情報である。ARマーカ35又はVRトラッカー36について推定された位置が、仮想空間のいずれの領域に含まれるかに応じて、対応する閾値が利用される。
選択部16は、ARマーカ推定部12の推定結果と、そのARマーカ推定部12と対応するトラッキング推定部14の推定結果との比較に基づいて、いずれかの推定結果を選択する。
ここで、ARマーカ推定部12の推定結果と、トラッキング推定部14の推定結果との対応関係について説明する。
トラッキング推定部14が、トラッキング装置31から取得したトラッキングデータに基づいてハンドル模型34の位置及び姿勢を推定する処理は、トラッキングデータの検出時刻に対してほぼリアルタイムで処理可能である。一方、ARマーカ推定部12が、ステレオカメラ32で撮影された画像から検出したARマーカ35に基づいてハンドル模型34の位置及び姿勢を推定する処理は、所定の処理時間を要する。すなわち、ARマーカ推定部12による推定と、トラッキング推定部14による推定とは同期していない。そこで、画像の撮影時刻とトラッキングデータの検出時刻とが同一である推定結果同士を対応付ける。
図12に、各時刻において、ARマーカ推定部12及びトラッキング推定部14の各々で推定された推定結果の軌跡を概略的に示す。なお、図12では、説明を簡単にするため、推定結果を2次元で表している。トラッキングデータの検出からトラッキング推定部14による推定結果が得られるまでの処理時間を0とし、ステレオカメラ32による撮影から、ARマーカ推定部12による推定結果が得られるまでの処理時間をxとする。この場合、図12に示すように、時刻tiにおけるARマーカ推定部12の推定結果は、時刻ti−xにおけるトラッキング推定部14の推定結果に対応することになる。
ただし、上記の処理時間xは、常に一定ではないため、選択部16は、以下のように、画像の撮影時刻とトラッキングデータの検出時刻とが同一である推定結果同士を対応付ける。
図13に示すように、選択部16は、時刻ti以前の所定時間内の複数の時刻の各々におけるトラッキング推定部14の推定結果の各々と、時刻tiにおけるARマーカ推定部12の推定結果とを比較する。具体的には、選択部16は、トラッキング推定部14の推定結果を示すベクトルの各々と、時刻tiにおけるARマーカ推定部12の推定結果を示すベクトルとを各々比較する。そして、ベクトル間の差が、閾値DB21に記憶された閾値以下で最小となる場合におけるトラッキング推定部14の推定結果を、時刻tiにおけるARマーカ推定部12の推定結果に対応するトラッキング推定部14の推定結果とする。ベクトル間の差は、例えば、推定結果同士の3次元位置間の距離、及び推定結果同士の姿勢の差である。
例えば、図26のB〜Dに示すように、ARマーカ35が良好に検出されなかった場合には、ARマーカ35に基づくハンドル模型34の3次元位置及び姿勢の推定は失敗する。そこで、選択部16は、上記のように、時刻tiにおいてARマーカ推定部12により推定された推定結果に、対応するトラッキング推定部14による推定結果が存在するか否かにより、ARマーカ推定部12による推定結果の信頼性を評価する。
選択部16は、対応するトラッキング推定部14による推定結果が存在する場合には、ARマーカ推定部12による推定結果は信頼性ありと判断して、ARマーカ推定部12による推定結果を選択する。一方、選択部16は、対応するトラッキング推定部14による推定結果が存在しない場合には、ARマーカ推定部12による推定結果は信頼性なしと判断して、トラッキング推定部14による推定結果を選択する。選択部16は、選択結果を表示制御部18へ通知する。
また、選択部16は、ARマーカ推定部12の推定結果を選択した場合、ARマーカ推定部12の推定結果と、そのARマーカ推定部12の推定結果に対応するトラッキング推定部14の推定結果との差分をオフセット値として保持する。
表示制御部18は、HMD33に表示する右眼用VR画像及び左眼用VR画像の各々を生成する。各VR画像の生成方法を以下に示す。表示制御部18は、HMD33に表示するVR画像のサイズに対応した描画領域を用意する。表示制御部18は、ステレオカメラ32から取得された画像を背景画像として描画領域に描画する。
また、表示制御部18は、選択部16から、ARマーカ推定部12の推定結果を選択した旨が通知された場合、オブジェクトDB22から、消火器を示す仮想オブジェクト39の3次元データを読み出す。そして、表示制御部18は、ARマーカ推定部12により推定されたカメラ座標系におけるハンドル模型34の3次元位置及び姿勢に対応させた消火器を示す仮想オブジェクト39を、背景画像が描画された描画領域に重畳して描画する。
また、表示制御部18は、選択部16から、トラッキング推定部14の推定結果を選択した旨が通知された場合、オブジェクトDB22から、消火器を示す仮想オブジェクト39の3次元データを読み出す。また、表示制御部18は、トラッキング推定部14による推定結果に、選択部16が保持するオフセット値を加算する。そして、表示制御部18は、オフセット値を加算したトラッキング推定部14の推定結果が示すハンドル模型34のワールド座標系の3次元位置に、オフセット値加算後の推定結果が示す姿勢で、消火器を示す仮想オブジェクト39を配置する。さらに、表示制御部18は、トラッキング推定部14で推定されたHMD33の3次元位置及び姿勢に対応する装着者40の視線方向で仮想空間を見た場合の仮想オブジェクト39を、背景画像が描画された描画領域に重畳して描画する。
また、表示制御部18は、ステレオカメラ32により撮影された画像から、装着者40の腕領域の画像を抽出し、抽出した腕領域の画像を、背景画像及び消火器を示す仮想オブジェクト39が描画された描画領域に重畳して描画する。
また、表示制御部18は、オブジェクトDB22に記憶されている、炎などの他の仮想オブジェクトを、描画領域に重畳して描画してもよい。
表示制御部18は、上記の描画を右眼用及び左眼用の各々について行うことにより、右眼用VR画像及び左眼用VR画像の各々を生成する。表示制御部18は、生成した右眼用VR画像及び左眼用VR画像をHMD33に出力する。
これにより、HMD33には、例えば図14に示すようなVR画像が表示される。図14の例では、消火器及び炎が仮想オブジェクトであり、それ以外の部分(壁、床、ホワイトボード、机、腕等)は、ステレオカメラ32で撮影された現実空間を映した画像である。
表示制御装置10は、例えば図15に示すコンピュータ50で実現することができる。コンピュータ50は、Central Processing Unit(CPU)51と、一時記憶領域としてのメモリ52と、不揮発性の記憶部53とを備える。また、コンピュータ50は、入力装置、表示装置等の入出力装置54と、記憶媒体59に対するデータの読み込み及び書き込みを制御するRead/Write(R/W)部55と、インターネット等のネットワークに接続される通信Interface(I/F)56とを備える。CPU51、メモリ52、記憶部53、入出力装置54、R/W部55、及び通信I/F56は、バス57を介して互いに接続される。
記憶部53は、Hard Disk Drive(HDD)、Solid State Drive(SSD)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部53には、コンピュータ50を、表示制御装置10として機能させるための表示制御プログラム60が記憶される。表示制御プログラム60は、ARマーカ推定プロセス62と、トラッキング推定プロセス64と、閾値算出プロセス65と、選択プロセス66と、表示制御プロセス68とを有する。また、記憶部53は、閾値DB21及びオブジェクトDB22の各々を構成する情報が記憶される情報記憶領域70を有する。
CPU51は、表示制御プログラム60を記憶部53から読み出してメモリ52に展開し、表示制御プログラム60が有するプロセスを順次実行する。CPU51は、ARマーカ推定プロセス62を実行することで、図6に示すARマーカ推定部12として動作する。また、CPU51は、トラッキング推定プロセス64を実行することで、図6に示すトラッキング推定部14として動作する。また、CPU51は、閾値算出プロセス65を実行することで、図6に示す閾値算出部15として動作する。また、CPU51は、選択プロセス66を実行することで、図6に示す選択部16として動作する。また、CPU51は、表示制御プロセス68を実行することで、図6に示す表示制御部18として動作する。また、CPU51は、情報記憶領域70から情報を読み出して、閾値DB21及びオブジェクトDB22をメモリ52に展開する。また、CPU51は、トラッキング推定プロセス64の実行時に、履歴テーブル23をメモリ52上に作成する。これにより、表示制御プログラム60を実行したコンピュータ50が、表示制御装置10として機能することになる。なお、プログラムを実行するCPU51はハードウェアである。
なお、表示制御プログラム60により実現される機能は、例えば半導体集積回路、より詳しくはApplication Specific Integrated Circuit(ASIC)等で実現することも可能である。
次に、第1実施形態に係る表示制御装置10の作用について説明する。VRシステム100が起動されると、VRトラッキング装置31がVRトラッキングを開始し、トラッキングデータを出力すると共に、ステレオカメラ32が撮影を開始し、右眼用画像及び左眼用画像を出力する。そして、表示制御装置10が、図16に示す閾値算出処理を実行した後に、図17に示す表示制御処理を実行する。なお、閾値算出処理及び表示制御処理は、開示の技術の表示制御方法の一例である。
まず、図16に示す閾値算出処理について説明する。
ステップS12で、ARマーカ推定部12が、ARマーカ35及びVRトラッカー36が対応付けて配置されたハンドル模型34を所定の位置の各々に配置したときにステレオカメラ32で撮影された画像を取得する。この際、HMD33を装着した装着者40が中央を注視した状態で、HMD33に配置されたステレオカメラ32により撮影される画像に、ARマーカ35の全体が含まれるように配置する。また、トラッキング推定部14が、各位置で検出されたトラッキングデータを取得する。
次に、ステップS14で、閾値算出部15が、各位置で撮影された画像に基づいてARマーカ推定部12で推定されたカメラ座標系の推定結果を取得し、仮想空間座標系に変換する。また、閾値算出部15が、各位置で検出されたトラッキングデータに基づいてトラッキング推定部14で推定された仮想空間座標系の推定結果を取得する。
次に、ステップS16で、閾値算出部15が、各位置について推定されたARマーカ推定部12の推定結果とトラッキング推定部14の推定結果との差の最大値を、後述する選択部16において、推定結果の対応付けを行う際の閾値として算出する。そして、閾値算出部15は、算出した閾値を、閾値DB21に記憶し、閾値算出処理は終了する。
次に、図17に示す表示制御処理について説明する。
ステップS22で、ARマーカ推定部12及び表示制御部18が、ステレオカメラ32から出力された右眼用画像及び左眼用画像の各々を取得する。
次に、ステップS24で、表示制御部18が、HMD33に表示するVR画像のサイズに対応した描画領域を用意する。表示制御部18は、ステレオカメラ32から取得された画像を背景画像として描画領域に描画する。
次に、ステップS26で、トラッキング推定部14が、トラッキング装置31から出力された、HMD33についてのトラッキングデータを取得する。そして、トラッキング推定部14が、取得したトラッキングデータに基づいて、仮想空間座標系におけるHMD33の3次元位置及び姿勢を推定する。
次に、ステップS28で、トラッキング推定部14が、トラッキング装置31から出力されたVRトラッカー36についてのトラッキングデータを取得する。そして、トラッキング推定部14が、取得したトラッキングデータに基づいて、仮想空間座標系におけるVRトラッカー36の3次元位置及び姿勢を推定する。
次に、ステップS30で、トラッキング推定部14が、VRトラッカー36の3次元位置及び姿勢の推定結果を、例えば、図8に示すような履歴テーブル23に保持する。この際、トラッキング推定部14は、履歴テーブル23に保持されている最も古い推定結果を破棄し、上記ステップS28で推定された推定結果を履歴テーブル23に追加する。
次に、ステップS32で、ARマーカ推定部12が、取得した右眼用画像及び左眼用画像の各々から、パターンマッチングなどの画像認識処理により、予め登録された図形であるARマーカ35が検出されたか否かを判定する。ARマーカ35が検出された場合には、処理はステップS36へ移行し、検出されない場合には、処理はステップS46へ移行する。
ステップS36では、ARマーカ推定部12が、右眼用画像及び左眼用画像の各々から検出したARマーカ35と、ステレオカメラ32の両眼視差とに基づいて、カメラ座標系におけるARマーカ35の3次元位置及び姿勢を推定する。
次に、ステップS38で、選択部16が、ARマーカ推定部12による推定結果の信頼性を評価する。具体的には、選択部16が、上記ステップS36でARマーカ推定部12により推定されたカメラ座標系の推定結果を仮想空間座標系に変換する。そして、選択部16が、履歴テーブル23に保持したトラッキング推定部14の推定結果の各々と、上記ステップS36で推定されたARマーカ推定部12の推定結果(座標変換後)とを比較する。選択部16は、トラッキング推定部14の推定結果を示すベクトルの各々と、ARマーカ推定部12の推定結果を示すベクトルとの差が、閾値DB21に記憶された閾値以下で最小となる場合におけるトラッキング推定部14の推定結果を特定する。
次に、ステップS40で、選択部16が、ARマーカ推定部12の推定結果は信頼性ありか否かを判定する。上記ステップS38において、ARマーカ推定部12の推定結果に対応するトラッキング推定部14の推定結果が特定されている場合には、ARマーカ推定部12の推定結果は信頼性ありと判定され、処理はステップS42へ移行する。一方、ARマーカ推定部12の推定結果に対応するトラッキング推定部14の推定結果が特定されていない場合には、ARマーカ推定部12の推定結果は信頼性なしと判定され、処理はステップS46へ移行する。
ステップS42では、表示制御部18が、オブジェクトDB22から、消火器を示す仮想オブジェクト39の3次元データを読み出す。そして、表示制御部18は、ARマーカ推定部12により推定されたカメラ座標系におけるハンドル模型34の3次元位置及び姿勢に対応させた消火器を示す仮想オブジェクト39を、背景画像が描画された描画領域に重畳して描画する。
次に、ステップS44で、選択部16が、ARマーカ推定部12の推定結果と、対応するトラッキング推定部14の推定結果との差分をオフセット値として保持する。
一方、ステップS46では、表示制御部18が、オブジェクトDB22から、消火器を示す仮想オブジェクト39の3次元データを読み出す。そして、表示制御部18は、トラッキング推定部14による推定結果に、選択部16が保持するオフセット値を加算する。 次に、ステップS48で、表示制御部18が、オフセット値を加算したトラッキング推定部14の推定結果が示すハンドル模型34のワールド座標系の3次元位置に、オフセット値加算後の推定結果が示す姿勢で、消火器を示す仮想オブジェクト39を配置する。そして、表示制御部18は、トラッキング推定部14で推定されたHMD33の3次元位置及び姿勢に対応する装着者40の視線方向で仮想空間を見た場合の仮想オブジェクト39を、背景画像が描画された描画領域に重畳して描画する。
次に、ステップS50で、表示制御部18が、取得した右眼用画像及び左眼用画像の各々から、例えば、肌色の領域を抽出するなどして、装着者40の腕部を示す腕領域を抽出する。そして、表示制御部18は、抽出した腕領域の画像を、背景画像及び消火器を示す仮想オブジェクト39が描画された描画領域に重畳して描画する。
次に、ステップS52で、表示制御部18が、オブジェクトDB22に記憶されている、炎などの他の仮想オブジェクトの3次元データを読み出し、描画領域に重畳して描画する。
表示制御部18は、上記の処理を右眼用及び左眼用の各々について行うことにより、右眼用VR画像及び左眼用VR画像の各々を生成する。
次に、ステップS54で、表示制御部18が、生成した右眼用VR画像及び左眼用VR画像をHMD33に出力する。これにより、HMD33には、例えば図14に示すようなVR画像が表示される。そして、表示制御処理は終了する。
表示制御部18は、VRシステム100の終了が指示されるまで、上記の表示制御処理を所定時間間隔(例えば、ステレオカメラのフレームレートと同じ間隔)で繰り返し実行する。
以上説明したように、第1実施形態におけるVRシステム100によれば、表示制御装置10が、時刻tiに推定されたARマーカに基づく推定結果についての信頼性を評価する。具体的には、推定結果が示すベクトル間の差が閾値以内となるVRトラッカーに基づく推定結果が、時刻ti以前の所定期間内の各時刻に推定されたVRトラッカーに基づく推定結果に存在する場合に、信頼性ありと評価する。ARマーカに基づく推定結果に信頼性がある場合、カメラ画像との位置ずれが少ないARマーカに基づく推定結果を用いて対象物の仮想オブジェクトを描画する。
一方、ARマーカに基づく推定結果に信頼性がない場合に、ARマーカに基づく推定結果を用いて、対象物の仮想オブジェクトを描画したとする。この場合、例えば、図18に示すように、現実空間の画像に重畳される対象物の仮想オブジェクトに、一瞬、位置ずれや方向違い等が生じ、対象物がバタ付いて見える。そこで、本実施形態に係る表示制御装置10は、ARマーカに基づく推定結果に信頼性がない場合には、カメラ画像との位置ずれ以外は安定して位置を検出できるVRトラッカーに基づく推定結果を用いて、対象物の仮想オブジェクトを描画する。これにより、現実空間において取り扱い可能な物体に対応する対象物の仮想オブジェクトを現実空間の画像に重畳する場合における表示の違和感を緩和することができる。
<第2実施形態>
次に、第2実施形態について説明する。第2実施形態では、現実空間において取り扱い可能な物体を、消火器のノズル部分を模した模型とし、現実空間の画像に重畳して描画する仮想オブジェクトも、消火器のノズル部分である場合について説明する。なお、第2実施形態に係るVRシステムにおいて、第1実施形態に係るVRシステム100と同様の部分については、同一符号を付して詳細な説明を省略する。
図19に示すように、第2実施形態に係るVRシステム200は、表示制御装置210と、VRトラッキング装置31と、ステレオカメラ32が取り付けられたHMD33とを含む。さらに、VRシステム200は、複数のノズル模型34A、34B、34Cと、複数のARマーカ35A、35B、35Cと、1つのVRトラッカー36とを含む。なお、ノズル模型及びARマーカの数は、図19の例に限定されず、2個でも4個以上でもよい。なお、以下では、ノズル模型34A、34B、34Cを区別なく説明する場合には、代表してノズル模型34Aについて説明する。同様に、ARマーカ35A、35B、35Cを区別なく説明する場合には、代表してARマーカ35Aについて説明する。
ノズル模型34Aは、HMD33の装着者が実際に保持したり操作したりして取り扱うことが可能な物体であり、本実施形態では、消火器のノズル部分に相当する棒状の物体である。ノズル模型34A、34B、34Cの各々は、対応付けて配置されているARマーカ35A、35B、35Cが異なるだけであり、形状等は同一の物体である。なお、ノズル模型34Aは、開示の技術の物体の一例である。
ARマーカ35Aは、ノズル模型34Aとの位置関係が固定された予め定めた位置に配置される。例えば、図20に示すように、ARマーカ35Aは、ノズル模型34Aの先端に貼付される。また、第1実施形態のARマーカ35と同様に、複数の面を持つ台座38に複数のARマーカ35を貼付することができる(図21参照)。
VRトラッカー36は、図20及び図21に示すように、ノズル模型34Aを保持する装着者40の手首等の位置に固定して取り付けられる。これにより、ノズル模型34Aを装着者40が保持した場合、ノズル模型34Aと、手首等に取り付けられたVRトラッカー36とは、ほぼ固定された位置関係となる。
表示制御装置210は、機能的には、図22に示すように、ARマーカ推定部12と、トラッキング推定部14と、閾値算出部15と、選択部16と、表示制御部218と、切替部219とを含む。また、表示制御装置210の所定の記憶領域には、閾値DB21と、オブジェクトDB222とが記憶される。
オブジェクトDB222には、消火器のノズルを示す仮想オブジェクトの3次元データが記憶されている。ノズルを示す仮想オブジェクトは、図23に示すように、ARマーカ35A、35B、35Cの各々に対応して、それぞれ異なる形状の仮想オブジェクト39A、39B、39Cが用意される。仮想オブジェクト39A、39B、39Cの各々には、ARマーカ35A、35B、35Cの各々に対応する識別番号が付与されている。
切替部219は、装着者40がノズル模型34A、34B、34Cを持ち替えたことを検知すると、持ち替えた後のノズル模型34A、34B、34Cに貼付されたARマーカ35A、35B、35C対応する識別番号を表示制御部218へ通知する。具体的には、切替部219は、ARマーカ推定部12で、ARマーカ35Aが検出されない期間が一定期間継続した場合に、次に検出されたARマーカ35A、35B、35Cを、切替後のARマーカ35A、35B、35Cと判定する。
表示制御部218は、ノズルの仮想オブジェクトを描画する際、切替部219から通知された識別番号が付与された仮想オブジェクト39A、39B、39Cの3次元データをオブジェクトDB222から読み出して描画する。これにより、図24に示すように、現実空間では、異なるARマーカ35A、35B、35Cが貼付されたノズル模型34A、34B、34Cに持ち替えるだけで、VR画像上で、異なる形状のノズルの仮想オブジェクト39A、39B、39Cが描画される。
表示制御装置210は、例えば図15に示すコンピュータ50で実現することができる。コンピュータ50の記憶部53には、コンピュータ50を、表示制御装置210として機能させるための表示制御プログラム260が記憶される。表示制御プログラム260は、ARマーカ推定プロセス62と、トラッキング推定プロセス64と、閾値算出プロセス65と、選択プロセス66と、表示制御プロセス268と、切替プロセス269とを有する。また、記憶部53は、閾値DB21及びオブジェクトDB222の各々を構成する情報が記憶される情報記憶領域70を有する。
CPU51は、表示制御プログラム260を記憶部53から読み出してメモリ52に展開し、表示制御プログラム260が有するプロセスを順次実行する。CPU51は、表示制御プロセス268を実行することで、図22に示す表示制御部218として動作する。また、CPU51は、切替プロセス269を実行することで、図22に示す切替部219として動作する。また、CPU51は、情報記憶領域70から情報を読み出して、閾値DB21及びオブジェクトDB222の各々をメモリ52に展開する。他のプロセスについては、第1実施形態に係る表示制御プログラム60と同様である。これにより、表示制御プログラム260を実行したコンピュータ50が、表示制御装置210として機能することになる。
なお、表示制御プログラム260により実現される機能は、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。
次に、第2実施形態に係る表示制御装置210の作用について説明する。第2実施形態においても、第1実施形態と同様に、閾値算出処理(図16)及び表示制御処理(図17)が実行される。また、表示制御処理と並行して、図25に示す切替処理が実行される。
図25に示す切替処理のステップS62で、切替部219が、ARマーカ推定部12で、ARマーカ35Aが検出されない期間が一定期間継続したか否かを判定する。継続した場合には、処理はステップS64へ移行し、継続していない場合には、本ステップの判定を繰り返す。
ステップS64では、切替部219が、ARマーカ推定部12で、ARマーカ35Aが検出されたか否かを判定する。検出された場合には、処理はステップS66へ移行し、検出されない場合には、本ステップの判定を繰り返す。
ステップS66では、切替部219が、検出されたARマーカ35A、35B、35Cに対応する識別番号を表示制御部218へ通知し、ステップS62に戻る。
第2実施形態における閾値算出処理では、いずれかのARマーカ35A、35B、35Cのいずれかについて、第1実施形態と同様の閾値算出処理を実行してもよい。また、ARマーカ35A、35B、35Cの各々について、第1実施形態と同様の閾値算出処理を実行し、ARマーカ35A、35B、35C毎の閾値を設定してもよい。
また、第2実施形態における表示制御処理(図17)では、ステップS42又はS48で仮想オブジェクト39A、39B、39Cの3次元データをオブジェクトDB222から読み出す。この際に、上記の切替処理のステップS66で通知された識別番号に対応する仮想オブジェクト39A、39B、39Cの3次元データを読み出すようにすればよい。
以上説明したように、第2実施形態に係るVRシステム200によれば、1つのVRトラッカーと複数のARマーカの各々とを独立に設け、VRトラッカーを装着者の手首等に取り付け、その手でいずれかのARマーカが貼付されたノズル模型を保持する。これにより、保持したノズル模型に貼付されたARマーカに応じて、異なる仮想オブジェクトを描画することができる。また、描画したい仮想オブジェクト数分のVRトラッカーを用意する必要がなく、コストを削減することができる。
なお、上記第1及び第2実施形態では、消火器又は消火器のノズルを仮想オブジェクトとして描画する場合について説明したが、仮想オブジェクトとする対象物はこれに限定されるものではない。
また、上記各実施形態では、対象物の位置及び姿勢の推定にARマーカを用いる場合について説明したが、これに限定されない。ARマーカ以外のマーカを用いてもよいし、マーカを用いることなく、対象物自体の特徴点を検出して、特徴点の配置などから、対象物の位置及び姿勢を推定してもよい。
また、上記各実施形態では、ステレオカメラで撮影された画像を用いてARマーカの位置及び姿勢を推定する場合について説明したが、これに限定されない。例えば、単眼の可視光カメラで撮影された画像から検出したARマーカの画像内での位置、サイズ、及び傾き(歪み)と、ARマーカの実際のサイズと、カメラの焦点距離とに基づいて、ARマーカの位置及び姿勢を推定してもよい。また、赤外線カメラを用いてもよい。この場合、VR画像に表示する背景画像を撮影するための可視光カメラを別途も受けてもよい。
なお、ステレオカメラを用いる場合には、ARマーカの位置及び姿勢を推定するための画像と、VR画像に表示する背景画像とを撮影するためのカメラを別々に設ける必要がない。
また、上記各実施形態では、表示制御プログラム60、260が記憶部53に予め記憶(インストール)されている態様を説明したが、これに限定されない。開示の技術に係るプログラムは、CD−ROM、DVD−ROM、USBメモリ等の記憶媒体に記憶された形態で提供することも可能である。
以上の各実施形態に関し、更に以下の付記を開示する。
(付記1)
撮影装置によって現実空間を撮影した画像から、前記現実空間に存在する取り扱い可能な物体に対応付けて配置された第1の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
検出装置により、前記物体に対応付けて配置された第2の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
前記第1の指標に基づく前記物体の3次元位置及び姿勢の第1の推定結果と、前記第2の指標に基づく前記物体の3次元位置及び姿勢の第2の推定結果であって、前記検出装置による検出時刻が前記撮影装置による前記画像の撮影時刻と対応する前記第2の推定結果との比較に基づいて、前記第1の推定結果又は前記第2の推定結果を選択し、
選択した前記第1の推定結果又は前記第2の推定結果に基づいて、前記現実空間を撮影した画像に、前記物体に対応する仮想オブジェクトを重畳した画像を表示装置に表示する
ことを含む処理をコンピュータに実行させるための表示制御プログラム。
(付記2)
前記撮影時刻以前の所定時間内の複数の検出時刻に検出された前記第2の指標に基づく前記第2の推定結果のうち、前記第1の推定結果を示すベクトルと、前記第2の推定結果を示すベクトルとの差が予め定めた閾値以内で最小となる前記第2の推定結果を、前記第1の推定結果と対応する前記第2の推定結果とする付記1に記載の表示制御プログラム。
(付記3)
前記第1の推定結果と対応する前記第2の推定結果が存在する場合、前記第1の推定結果を選択し、前記第1の推定結果と対応する前記第2の推定結果が存在しない場合、前記第2の推定結果を選択する付記2に記載の表示制御プログラム。
(付記4)
前記第2の推定結果を選択する場合、過去に前記第1の推定結果を選択した際の前記第1の推定結果と、前記第1の推定結果と対応する前記第2の推定結果との差を、選択した前記第2の推定結果に加算した値が示す前記物体の3次元位置及び姿勢に基づいて、前記仮想オブジェクトを重畳する付記3に記載の表示制御プログラム。
(付記5)
前記閾値を、前記第1の指標の全体が含まれるように撮影された画像から検出された前記第1の指標に基づいて推定した前記第1の推定結果と、前記第1の指標の全体が含まれるように撮影された画像の撮影時刻と対応する検出時刻に検出された第2の指標に基づく前記第2の推定結果との差に基づいて算出する付記2〜付記4のいずれか1項に記載の表示制御プログラム。
(付記6)
複数の異なる前記第1の指標の各々を、複数の前記物体の各々に配置し、前記第2の指標を、前記物体を保持する部位に配置する付記1〜付記5のいずれか1項に記載の表示制御プログラム。
(付記7)
前記第1の指標は、前記物体の3次元位置及び姿勢に対して既知の3次元位置及び姿勢で配置されたマーカであり、前記撮影された画像上での前記マーカの位置及び姿勢に基づいて、前記物体の3次元位置及び姿勢を推定する付記1〜付記6のいずれか1項に記載の表示制御プログラム。
(付記8)
前記第2の指標は、VRトラッカーであり、前記検出装置は、前記VRトラッカーの方向及び距離の情報を含むトラッキングデータを検出する付記1〜付記7のいずれか1項に記載の表示制御プログラム。
(付記9)
撮影装置によって現実空間を撮影した画像から、前記現実空間に存在する取り扱い可能な物体に対応付けて配置された第1の指標を検出することにより、前記物体の3次元位置及び姿勢を推定する第1推定部と、
検出装置により、前記物体に対応付けて配置された第2の指標を検出することにより、前記物体の3次元位置及び姿勢を推定する第2推定部と、
前記第1の指標に基づく前記物体の3次元位置及び姿勢の第1の推定結果と、前記第2の指標に基づく前記物体の3次元位置及び姿勢の第2の推定結果であって、前記検出装置による検出時刻が前記撮影装置による前記画像の撮影時刻と対応する前記第2の推定結果との比較に基づいて、前記第1の推定結果又は前記第2の推定結果を選択する選択部と、
選択した前記第1の推定結果又は前記第2の推定結果に基づいて、前記現実空間を撮影した画像に、前記物体に対応する仮想オブジェクトを重畳した画像を表示装置に表示する表示制御部と、
を含む表示制御装置。
(付記10)
前記選択部は、前記撮影時刻以前の所定時間内の複数の検出時刻に検出された前記第2の指標に基づく前記第2の推定結果のうち、前記第1の推定結果を示すベクトルと、前記第2の推定結果を示すベクトルとの差が予め定めた閾値以内で最小となる前記第2の推定結果を、前記第1の推定結果と対応する前記第2の推定結果とする付記9に記載の表示制御装置。
(付記11)
前記選択部は、前記第1の推定結果と対応する前記第2の推定結果が存在する場合、前記第1の推定結果を選択し、前記第1の推定結果と対応する前記第2の推定結果が存在しない場合、前記第2の推定結果を選択する付記10に記載の表示制御装置。
(付記12)
前記表示制御部は、前記第2の推定結果を選択される場合、過去に前記第1の推定結果を選択した際の前記第1の推定結果と、前記第1の推定結果と対応する前記第2の推定結果との差を、選択した前記第2の推定結果に加算した値が示す前記物体の3次元位置及び姿勢に基づいて、前記仮想オブジェクトを重畳する付記11に記載の表示制御装置。
(付記13)
前記閾値を、前記第1の指標の全体が含まれるように撮影された画像から検出された前記第1の指標に基づいて推定した前記第1の推定結果と、前記第1の指標の全体が含まれるように撮影された画像の撮影時刻と対応する検出時刻に検出された第2の指標に基づく前記第2の推定結果との差に基づいて算出する算出部を含む付記10〜付記12のいずれか1項に記載の表示制御装置。
(付記14)
複数の異なる前記第1の指標の各々を、複数の前記物体の各々に配置し、前記第2の指標を、前記物体を保持する部位に配置する付記9〜付記13のいずれか1項に記載の表示制御装置。
(付記15)
前記第1の指標は、前記物体の3次元位置及び姿勢に対して既知の3次元位置及び姿勢で配置されたマーカであり、
前記第1推定部は、前記撮影された画像上での前記マーカの位置及び姿勢に基づいて、前記物体の3次元位置及び姿勢を推定する
付記9〜付記14のいずれか1項に記載の表示制御装置。
(付記16)
前記第2の指標は、VRトラッカーであり、前記検出装置は、前記VRトラッカーの方向及び距離の情報を含むトラッキングデータを検出する付記9〜付記15のいずれか1項に記載の表示制御装置。
(付記17)
撮影装置によって現実空間を撮影した画像から、前記現実空間に存在する取り扱い可能な物体に対応付けて配置された第1の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
検出装置により、前記物体に対応付けて配置された第2の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
前記第1の指標に基づく前記物体の3次元位置及び姿勢の第1の推定結果と、前記第2の指標に基づく前記物体の3次元位置及び姿勢の第2の推定結果であって、前記検出装置による検出時刻が前記撮影装置による前記画像の撮影時刻と対応する前記第2の推定結果との比較に基づいて、前記第1の推定結果又は前記第2の推定結果を選択し、
選択した前記第1の推定結果又は前記第2の推定結果に基づいて、前記現実空間を撮影した画像に、前記物体に対応する仮想オブジェクトを重畳した画像を表示装置に表示する
ことを含む処理をコンピュータが実行する表示制御方法。
(付記18)
前記撮影時刻以前の所定時間内の複数の検出時刻に検出された前記第2の指標に基づく前記第2の推定結果のうち、前記第1の推定結果を示すベクトルと、前記第2の推定結果を示すベクトルとの差が予め定めた閾値以内で最小となる前記第2の推定結果を、前記第1の推定結果と対応する前記第2の推定結果とする付記17に記載の表示制御方法。
(付記19)
前記第1の推定結果と対応する前記第2の推定結果が存在する場合、前記第1の推定結果を選択し、前記第1の推定結果と対応する前記第2の推定結果が存在しない場合、前記第2の推定結果を選択する付記18に記載の表示制御方法。
(付記20)
撮影装置によって現実空間を撮影した画像から、前記現実空間に存在する取り扱い可能な物体に対応付けて配置された第1の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
検出装置により、前記物体に対応付けて配置された第2の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
前記第1の指標に基づく前記物体の3次元位置及び姿勢の第1の推定結果と、前記第2の指標に基づく前記物体の3次元位置及び姿勢の第2の推定結果であって、前記検出装置による検出時刻が前記撮影装置による前記画像の撮影時刻と対応する前記第2の推定結果との比較に基づいて、前記第1の推定結果又は前記第2の推定結果を選択し、
選択した前記第1の推定結果又は前記第2の推定結果に基づいて、前記現実空間を撮影した画像に、前記物体に対応する仮想オブジェクトを重畳した画像を表示装置に表示する
ことを含む処理をコンピュータに実行させるための表示制御プログラムを記憶した記憶媒体。
10、210 表示制御装置
12 ARマーカ推定部
14 トラッキング推定部
15 閾値算出部
16 選択部
18、218 表示制御部
219 切替部
21 閾値DB
22、222 オブジェクトDB
23 履歴テーブル
31 VRトラッキング装置
32 ステレオカメラ
33 HMD
34 ハンドル模型
34A、34B、34C ノズル模型
35、35A、35B、35C ARマーカ
36 VRトラッカー
39、39A、39B 仮想オブジェクト
40 装着者
50 コンピュータ
51 CPU
52 メモリ
53 記憶部
59 記憶媒体
60、260 表示制御プログラム
100、200 VRシステム

Claims (10)

  1. 撮影装置によって現実空間を撮影した画像から、前記現実空間に存在する取り扱い可能な物体に対応付けて配置された第1の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
    検出装置により、前記物体に対応付けて配置された第2の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
    前記第1の指標に基づく前記物体の3次元位置及び姿勢の第1の推定結果と、前記第2の指標に基づく前記物体の3次元位置及び姿勢の第2の推定結果であって、前記検出装置による検出時刻が前記撮影装置による前記画像の撮影時刻と対応する前記第2の推定結果との比較に基づいて、前記第1の推定結果又は前記第2の推定結果を選択し、
    選択した前記第1の推定結果又は前記第2の推定結果に基づいて、前記現実空間を撮影した画像に、前記物体に対応する仮想オブジェクトを重畳した画像を表示装置に表示する
    ことを含む処理をコンピュータに実行させるための表示制御プログラム。
  2. 前記撮影時刻以前の所定時間内の複数の検出時刻に検出された前記第2の指標に基づく前記第2の推定結果のうち、前記第1の推定結果を示すベクトルと、前記第2の推定結果を示すベクトルとの差が予め定めた閾値以内で最小となる前記第2の推定結果を、前記第1の推定結果と対応する前記第2の推定結果とする請求項1に記載の表示制御プログラム。
  3. 前記第1の推定結果と対応する前記第2の推定結果が存在する場合、前記第1の推定結果を選択し、前記第1の推定結果と対応する前記第2の推定結果が存在しない場合、前記第2の推定結果を選択する請求項2に記載の表示制御プログラム。
  4. 前記第2の推定結果を選択する場合、過去に前記第1の推定結果を選択した際の前記第1の推定結果と、前記第1の推定結果と対応する前記第2の推定結果との差を、選択した前記第2の推定結果に加算した値が示す前記物体の3次元位置及び姿勢に基づいて、前記仮想オブジェクトを重畳する請求項3に記載の表示制御プログラム。
  5. 前記閾値を、前記第1の指標の全体が含まれるように撮影された画像から検出された前記第1の指標に基づいて推定した前記第1の推定結果と、前記第1の指標の全体が含まれるように撮影された画像の撮影時刻と対応する検出時刻に検出された第2の指標に基づく前記第2の推定結果との差に基づいて算出する請求項2〜請求項4のいずれか1項に記載の表示制御プログラム。
  6. 複数の異なる前記第1の指標の各々を、複数の前記物体の各々に配置し、前記第2の指標を、前記物体を保持する部位に配置する請求項1〜請求項5のいずれか1項に記載の表示制御プログラム。
  7. 前記第1の指標は、前記物体の3次元位置及び姿勢に対して既知の3次元位置及び姿勢で配置されたマーカであり、前記撮影された画像上での前記マーカの位置及び姿勢に基づいて、前記物体の3次元位置及び姿勢を推定する請求項1〜請求項6のいずれか1項に記載の表示制御プログラム。
  8. 前記第2の指標は、VRトラッカーであり、前記検出装置は、前記VRトラッカーの方向及び距離の情報を含むトラッキングデータを検出する請求項1〜請求項7のいずれか1項に記載の表示制御プログラム。
  9. 撮影装置によって現実空間を撮影した画像から、前記現実空間に存在する取り扱い可能な物体に対応付けて配置された第1の指標を検出することにより、前記物体の3次元位置及び姿勢を推定する第1推定部と、
    検出装置により、前記物体に対応付けて配置された第2の指標を検出することにより、前記物体の3次元位置及び姿勢を推定する第2推定部と、
    前記第1の指標に基づく前記物体の3次元位置及び姿勢の第1の推定結果と、前記第2の指標に基づく前記物体の3次元位置及び姿勢の第2の推定結果であって、前記検出装置による検出時刻が前記撮影装置による前記画像の撮影時刻と対応する前記第2の推定結果との比較に基づいて、前記第1の推定結果又は前記第2の推定結果を選択する選択部と、
    選択した前記第1の推定結果又は前記第2の推定結果に基づいて、前記現実空間を撮影した画像に、前記物体に対応する仮想オブジェクトを重畳した画像を表示装置に表示する表示制御部と、
    を含む表示制御装置。
  10. 撮影装置によって現実空間を撮影した画像から、前記現実空間に存在する取り扱い可能な物体に対応付けて配置された第1の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
    検出装置により、前記物体に対応付けて配置された第2の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
    前記第1の指標に基づく前記物体の3次元位置及び姿勢の第1の推定結果と、前記第2の指標に基づく前記物体の3次元位置及び姿勢の第2の推定結果であって、前記検出装置による検出時刻が前記撮影装置による前記画像の撮影時刻と対応する前記第2の推定結果との比較に基づいて、前記第1の推定結果又は前記第2の推定結果を選択し、
    選択した前記第1の推定結果又は前記第2の推定結果に基づいて、前記現実空間を撮影した画像に、前記物体に対応する仮想オブジェクトを重畳した画像を表示装置に表示する
    ことを含む処理をコンピュータが実行する表示制御方法。
JP2018065063A 2018-03-29 2018-03-29 表示制御プログラム、装置、及び方法 Active JP6981340B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018065063A JP6981340B2 (ja) 2018-03-29 2018-03-29 表示制御プログラム、装置、及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018065063A JP6981340B2 (ja) 2018-03-29 2018-03-29 表示制御プログラム、装置、及び方法

Publications (2)

Publication Number Publication Date
JP2019175294A true JP2019175294A (ja) 2019-10-10
JP6981340B2 JP6981340B2 (ja) 2021-12-15

Family

ID=68167103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018065063A Active JP6981340B2 (ja) 2018-03-29 2018-03-29 表示制御プログラム、装置、及び方法

Country Status (1)

Country Link
JP (1) JP6981340B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023048018A1 (ja) 2021-09-27 2023-03-30 株式会社Jvcケンウッド 表示装置、表示装置の制御方法およびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000102036A (ja) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法
JP2007004714A (ja) * 2005-06-27 2007-01-11 Canon Inc 情報処理方法、情報処理装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000102036A (ja) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法
JP2007004714A (ja) * 2005-06-27 2007-01-11 Canon Inc 情報処理方法、情報処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023048018A1 (ja) 2021-09-27 2023-03-30 株式会社Jvcケンウッド 表示装置、表示装置の制御方法およびプログラム

Also Published As

Publication number Publication date
JP6981340B2 (ja) 2021-12-15

Similar Documents

Publication Publication Date Title
JP6690041B2 (ja) 三次元物体上の注視点決定方法及び装置
JP7283506B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP6598617B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR101761751B1 (ko) 직접적인 기하학적 모델링이 행해지는 hmd 보정
JP5762892B2 (ja) 情報表示システム、情報表示方法、及び情報表示用プログラム
US10839544B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable storage medium
JP5923603B2 (ja) 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
JP6454851B2 (ja) 3次元上の注視点の位置特定アルゴリズム
KR20020025198A (ko) 타켓을 위치시키는 방법 및 장치, 이미지 처리기, 그리고타켓 및 타켓 포인트 식별 방법
US10433725B2 (en) System and method for capturing spatially and temporally coherent eye gaze and hand data during performance of a manual task
TWI526879B (zh) 互動系統、遙控器及其運作方法
US10573083B2 (en) Non-transitory computer-readable storage medium, computer-implemented method, and virtual reality system
JP2005256232A (ja) 3dデータ表示方法、装置、およびプログラム
WO2021130860A1 (ja) 情報処理装置、制御方法及び記憶媒体
US20200341284A1 (en) Information processing apparatus, information processing method, and recording medium
EP3714955A1 (en) Video tracking system and method
WO2020054760A1 (ja) 画像表示制御装置および画像表示制御用プログラム
JP2009258884A (ja) ユーザインタフェイス
JP6981340B2 (ja) 表示制御プログラム、装置、及び方法
JP2019066196A (ja) 傾き測定装置及び傾き測定方法
JP6929043B2 (ja) 画像処理装置、画像処理方法
JP2021152764A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2021131490A5 (ja)
TWI838917B (zh) 追蹤裝置、方法及其非暫態電腦可讀取記錄媒體
US20230120092A1 (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211019

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211101

R150 Certificate of patent or registration of utility model

Ref document number: 6981340

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150