JP6981340B2 - Display control programs, devices, and methods - Google Patents

Display control programs, devices, and methods Download PDF

Info

Publication number
JP6981340B2
JP6981340B2 JP2018065063A JP2018065063A JP6981340B2 JP 6981340 B2 JP6981340 B2 JP 6981340B2 JP 2018065063 A JP2018065063 A JP 2018065063A JP 2018065063 A JP2018065063 A JP 2018065063A JP 6981340 B2 JP6981340 B2 JP 6981340B2
Authority
JP
Japan
Prior art keywords
estimation result
display control
estimation
image
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018065063A
Other languages
Japanese (ja)
Other versions
JP2019175294A (en
Inventor
弘幸 小林
厚一郎 新沼
雅之 西野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018065063A priority Critical patent/JP6981340B2/en
Publication of JP2019175294A publication Critical patent/JP2019175294A/en
Application granted granted Critical
Publication of JP6981340B2 publication Critical patent/JP6981340B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

開示の技術は、表示制御プログラム、表示制御装置、及び表示制御方法に関する。 The disclosed technique relates to a display control program, a display control device, and a display control method.

作業手順や工具類使用技術の習得を行う上で、特に工具類が危険であったり、大がかりであったり、高所作業や火災現場といった危険を伴う場所であったりする場合、実際に同じ条件で技術習得の場を用意するには、安全面の確保等も含め、手間やコストがかかる。 When learning work procedures and tools usage techniques, especially when the tools are dangerous, large-scale, or in a dangerous place such as aerial work or a fire site, the actual conditions are the same. It takes time and cost to prepare a place to learn technology, including ensuring safety.

それらの問題を解決するために、Virtual Reality(VR)技術を利用して、仮想的に体験やトレーニングさせることが提案、及び一部製品化され始めている。これらの多くは、操作対象物を操作する自身の手も含め全てが仮想空間内での表現であることが多く、臨場感の点で弱い部分がある。 In order to solve these problems, it is proposed to use Virtual Reality (VR) technology to virtually experience and train, and some products are beginning to be commercialized. Many of these are expressions in virtual space, including their own hands that operate the object to be operated, and there is a weak point in terms of presence.

そこで、Head Mounted Display(HMD)にカメラを装着し、実映像を仮想空間に持ち込む、いわゆるMixed Reality(MR)を適用することが考えられる。例えば、MRに関する従来技術として、広い範囲で移動するプレーヤを精度良く補足して複合現実感を提示する装置が提案されている。この装置は、既知の位置に配置された複数のマーカを有する作業台と、プレーヤの頭部姿勢を検出するためにプレーヤに装着される姿勢センサと、複数のマーカのうちの少なくとも1つが視野に入るように設定されたカメラとを具備する。そして、この装置は、姿勢センサからの出力に基づいて頭部位置を検出すると共に、検出された頭部位置信号を、カメラの画像信号を画像処理してカメラの位置を検出することにより補正する。さらに、この装置は、補正された頭部位置に応じた視点位置に複合現実感を提示するように仮想画像を生成する。 Therefore, it is conceivable to attach a camera to the Head Mounted Display (HMD) and apply so-called Mixed Reality (MR), which brings the actual image into the virtual space. For example, as a conventional technique for MR, a device that accurately supplements a player moving in a wide range and presents a mixed reality feeling has been proposed. The device has a workbench with multiple markers located at known positions, a posture sensor mounted on the player to detect the player's head posture, and at least one of the multiple markers in the field of view. Equipped with a camera set to enter. Then, this device detects the head position based on the output from the attitude sensor, and corrects the detected head position signal by image processing the image signal of the camera and detecting the position of the camera. .. Further, the device generates a virtual image so as to present mixed reality at the viewpoint position corresponding to the corrected head position.

特開平11−136706号公報Japanese Unexamined Patent Publication No. 11-13706

しかし、VRトラッキングセンサ(従来技術における姿勢センサ)は、利用者が装着しているHMDの位置や向き等の値を一定の精度で取得することができるが、MRにおいては、カメラがとらえた対象物と仮想空間上の対象物との位置のズレが、利用者に違和感を与える。特に、利用者が対象物を保持したり、操作したりする場合、仮想空間上の対象物に対する視覚と、実際の対象物に対する触覚とのズレが発生する。なお、現実物を仮想空間に持ち込まず、仮想物のみを表示する場合には、実際の対象物の位置と仮想空間上の対象物の位置とのズレは、利用者に大きな影響を与えない。 However, the VR tracking sensor (posture sensor in the prior art) can acquire values such as the position and orientation of the HMD worn by the user with a certain accuracy, but in MR, it is an object captured by the camera. The misalignment between the object and the object in the virtual space gives the user a sense of discomfort. In particular, when the user holds or operates the object, there is a discrepancy between the visual sense of the object in the virtual space and the tactile sense of the actual object. In addition, when the real object is not brought into the virtual space and only the virtual object is displayed, the deviation between the position of the actual object and the position of the object in the virtual space does not have a great influence on the user.

また、マーカを使用して対象物の位置を検出する場合、例えば、図26のAに示すように、画像内にマーカが良好に映る場合には、対象物の位置及び姿勢を精度良く検出することができる。しかし、例えば、図26のBに示すように、マーカの一部しか映っていない場合には、対象物の位置を精度良く検出することができない。図26のCに示すように、マーカがカメラから離れた位置にあり、画像内でのマーカのサイズが小さ過ぎる場合、及び図26のDに示すように、カメラ映像のブレにより、画像内にマーカが映っていても、マーカを検出できない場合も同様である。これを補うために、従来技術のように、マーカを多数配置する場合には、複数のマーカの各々についてキャリブレーションや配置の管理などを行う必要があり、処理負荷が増大する。 Further, when the position of the object is detected by using the marker, for example, when the marker is well reflected in the image as shown in FIG. 26A, the position and the posture of the object are detected with high accuracy. be able to. However, for example, as shown in FIG. 26B, when only a part of the marker is shown, the position of the object cannot be detected accurately. As shown in C of FIG. 26, when the marker is located away from the camera and the size of the marker in the image is too small, and as shown in D of FIG. 26, due to blurring of the camera image, the image is included in the image. The same applies when the marker cannot be detected even if the marker is displayed. In order to compensate for this, when a large number of markers are arranged as in the prior art, it is necessary to perform calibration and arrangement management for each of the plurality of markers, which increases the processing load.

一つの側面として、現実空間において取り扱い可能な物体に対応する対象物の仮想オブジェクトを現実空間の画像に重畳する場合における表示の違和感を緩和することを目的とする。 As one aspect, it is intended to alleviate the discomfort of the display when the virtual object of the object corresponding to the object that can be handled in the real space is superimposed on the image in the real space.

一つの態様として、開示の技術は、撮影装置によって現実空間を撮影した画像から、前記現実空間に存在する取り扱い可能な物体に対応付けて配置された第1の指標を検出することにより、前記物体の3次元位置及び姿勢を推定する。また、検出装置により、前記物体に対応付けて配置された第2の指標を検出することにより、前記物体の3次元位置及び姿勢を推定する。そして、前記第1の指標に基づく前記物体の3次元位置及び姿勢の第1の推定結果と、前記第2の指標に基づく前記物体の3次元位置及び姿勢の第2の推定結果との比較に基づいて、前記第1の推定結果又は前記第2の推定結果を選択する。第2の推定結果は、前記検出装置による検出時刻が前記撮影装置による前記画像の撮影時刻と対応する前記第2の推定結果である。そして、選択した前記第1の推定結果又は前記第2の推定結果に基づいて、前記現実空間を撮影した画像に、前記物体に対応する仮想オブジェクトを重畳した画像を表示装置に表示する。 As one embodiment, the disclosed technique detects an object, which is arranged in association with a handleable object existing in the real space, from an image obtained by photographing the real space by a photographing device. Estimate the three-dimensional position and orientation of. In addition, the detection device detects the second index arranged in association with the object to estimate the three-dimensional position and posture of the object. Then, for comparison between the first estimation result of the three-dimensional position and posture of the object based on the first index and the second estimation result of the three-dimensional position and posture of the object based on the second index. Based on this, the first estimation result or the second estimation result is selected. The second estimation result is the second estimation result in which the detection time by the detection device corresponds to the shooting time of the image by the photographing device. Then, based on the selected first estimation result or the second estimation result, an image obtained by superimposing a virtual object corresponding to the object on the image obtained by photographing the real space is displayed on the display device.

開示の技術は、一つの側面として、現実空間において取り扱い可能な物体に対応する仮想オブジェクトを現実空間の画像に重畳する場合における表示の違和感を緩和することができる、という効果を有する。 One aspect of the disclosed technology is that it is possible to alleviate the discomfort of the display when a virtual object corresponding to an object that can be handled in the real space is superimposed on the image in the real space.

第1実施形態に係るVRシステムの構成を示す概略図である。It is a schematic diagram which shows the structure of the VR system which concerns on 1st Embodiment. ハンドル模型及びARマーカを説明するための図である。It is a figure for demonstrating a handle model and an AR marker. ハンドル模型、ARマーカ、及びVRトラッカーを説明するための図である。It is a figure for demonstrating a handle model, an AR marker, and a VR tracker. 第1実施形態に係るVRシステムの各構成の配置の一例を示す概略図である。It is a schematic diagram which shows an example of the arrangement of each configuration of the VR system which concerns on 1st Embodiment. ハンドル模型の取り扱いを説明するための図である。It is a figure for demonstrating the handling of a handle model. 第1実施形態に係る表示制御装置の機能ブロック図である。It is a functional block diagram of the display control device which concerns on 1st Embodiment. 第1実施形態における仮想オブジェクトを説明するための図である。It is a figure for demonstrating the virtual object in 1st Embodiment. トラッキング推定部が保持する履歴テーブルの一例を示す図である。It is a figure which shows an example of the history table held by a tracking estimation unit. 閾値の算出を説明するための図である。It is a figure for demonstrating the calculation of a threshold value. 閾値データベースの一例を示す図である。It is a figure which shows an example of a threshold value database. 閾値データベースの他の例を示す図である。It is a figure which shows the other example of a threshold database. ARマーカ推定部の推定結果とトラッキング推定部の推定結果との対応を説明するための図である。It is a figure for demonstrating the correspondence between the estimation result of an AR marker estimation part, and the estimation result of a tracking estimation part. ARマーカ推定部の推定結果とトラッキング推定部の推定結果との対応を説明するための図である。It is a figure for demonstrating the correspondence between the estimation result of an AR marker estimation part, and the estimation result of a tracking estimation part. 第1実施形態におけるVR画像の一例を示す図である。It is a figure which shows an example of the VR image in 1st Embodiment. 第1及び第2実施形態に係る表示制御装置として機能するコンピュータの概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the computer which functions as the display control device which concerns on 1st and 2nd Embodiment. 第1実施形態における閾値算出処理の一例を示すフローチャートである。It is a flowchart which shows an example of the threshold value calculation process in 1st Embodiment. 第1実施形態における表示制御処理の一例を示すフローチャートである。It is a flowchart which shows an example of the display control processing in 1st Embodiment. 信頼性のないARマーカに基づく推定結果を用いた場合のVR画像の一例を示す図である。It is a figure which shows an example of the VR image when the estimation result based on the unreliable AR marker is used. 第2実施形態に係るVRシステムの構成を示す概略図である。It is a schematic diagram which shows the structure of the VR system which concerns on 2nd Embodiment. ノズル模型、ARマーカ、及びVRトラッカーを説明するための図である。It is a figure for demonstrating a nozzle model, an AR marker, and a VR tracker. ノズル模型、ARマーカ、及びVRトラッカーを説明するための図である。It is a figure for demonstrating a nozzle model, an AR marker, and a VR tracker. 第2実施形態に係る表示制御装置の機能ブロック図である。It is a functional block diagram of the display control device which concerns on 2nd Embodiment. 第2実施形態における仮想オブジェクトを説明するための図である。It is a figure for demonstrating the virtual object in 2nd Embodiment. 仮想オブジェクトの切り替えを説明するための図である。It is a figure for demonstrating the switching of a virtual object. 第2実施形態における切替処理の一例を示すフローチャートである。It is a flowchart which shows an example of the switching process in 2nd Embodiment. 画像からのマーカの検出を説明するための図である。It is a figure for demonstrating the detection of a marker from an image.

以下、図面を参照して開示の技術に係る実施形態の一例を詳細に説明する。 Hereinafter, an example of the embodiment according to the disclosed technology will be described in detail with reference to the drawings.

<第1実施形態>
第1実施形態では、一例として、消火器の使い方を仮想体験するためのVR画像を表示する場合について説明する。なお、現実空間において取り扱い可能な物体を、消火器のハンドル部分を模した模型とする。また、そのハンドル部分に対応した消火器全体の仮想的な3次元のオブジェクト(以下、「仮想オブジェクト」という)を、現実空間の画像に重畳して描画する場合について説明する。
<First Embodiment>
In the first embodiment, as an example, a case of displaying a VR image for virtually experiencing how to use a fire extinguisher will be described. An object that can be handled in real space is a model that imitates the handle of a fire extinguisher. Further, a case where a virtual three-dimensional object (hereinafter referred to as “virtual object”) of the entire fire extinguisher corresponding to the handle portion is superimposed and drawn on an image in the real space will be described.

図1に示すように、第1実施形態に係るVirtual Reality(VR)システム100は、表示制御装置10と、VRトラッキング装置31と、ステレオカメラ32と、Head Mounted Display(HMD)33とを含む。さらに、VRシステム100は、ハンドル模型34と、Augmented Reality(AR)マーカ35と、VRトラッカー36とを含む。 As shown in FIG. 1, the Virtual Reality (VR) system 100 according to the first embodiment includes a display control device 10, a VR tracking device 31, a stereo camera 32, and a Head Mounted Display (HMD) 33. Further, the VR system 100 includes a handle model 34, an Augmented Reality (AR) marker 35, and a VR tracker 36.

VRトラッキング装置31は、例えば、1又は複数のレーザレーダで実現することができる。各レーザレーダは、レーザを照射し、HMD33及びVRトラッカー36の各々の受光部で反射したレーザを受光し、レーザの照射方向及び受光部までの距離の情報を含むトラッキングデータを計測する。VRトラッキング装置31は、計測したトラッキングデータを表示制御装置10へ出力する。なお、VRトラッキング装置31は、開示の技術の検出装置の一例である。 The VR tracking device 31 can be realized by, for example, one or a plurality of laser radars. Each laser radar irradiates a laser, receives the laser reflected by each light receiving portion of the HMD 33 and the VR tracker 36, and measures tracking data including information on the irradiation direction of the laser and the distance to the light receiving portion. The VR tracking device 31 outputs the measured tracking data to the display control device 10. The VR tracking device 31 is an example of a detection device of the disclosed technology.

ステレオカメラ32は、HMD33に取り付けられており、右眼用及び左眼用の可視光カメラの各々により、HMD33を装着した装着者40の視界を想定した範囲を、所定のフレームレートで撮影する。ステレオカメラ32は、撮影により得られた右眼用画像及び左眼用画像を表示制御装置10へ出力する。なお、ステレオカメラ32は、開示の技術の撮影装置の一例である。 The stereo camera 32 is attached to the HMD 33, and each of the visible light cameras for the right eye and the left eye captures a range assuming the field of view of the wearer 40 wearing the HMD 33 at a predetermined frame rate. The stereo camera 32 outputs the image for the right eye and the image for the left eye obtained by photographing to the display control device 10. The stereo camera 32 is an example of a photographing device according to the disclosed technology.

HMD33は、表示制御装置10から出力された右眼用VR画像及び左眼用VR画像を取得し、ディスプレイに立体視画像を表示する。なお、本実施形態におけるVR画像とは、ステレオカメラ32で撮影された現実空間の画像に、対象物である消火器を示す仮想的な3次元のオブジェクトが重畳された画像である。なお、HMD33は、開示の技術の表示装置の一例である。 The HMD 33 acquires the VR image for the right eye and the VR image for the left eye output from the display control device 10, and displays the stereoscopic image on the display. The VR image in the present embodiment is an image in which a virtual three-dimensional object showing a fire extinguisher, which is an object, is superimposed on an image in a real space taken by a stereo camera 32. The HMD 33 is an example of a display device of the disclosed technology.

ハンドル模型34は、HMD33の装着者が実際に保持したり操作したりして取り扱うことが可能な物体であり、本実施形態では、消火器のハンドル部分に相当する物体である。なお、ハンドル模型34は、開示の技術の物体の一例である。 The handle model 34 is an object that can be actually held and operated by the wearer of the HMD 33 and can be handled, and in the present embodiment, it is an object corresponding to the handle portion of the fire extinguisher. The handle model 34 is an example of an object of the disclosed technology.

ARマーカ35は、予め登録された図形のマーカであり、ハンドル模型34との位置関係が固定された予め定めた位置に配置される。例えば、図2に示すように、ARマーカ35は、ハンドル模型34を支える支柱37に設けられ台座38に貼付される。また、色々な角度から撮影された場合でも、ステレオカメラ32の画角内に、図26のAに示すような良好な状態のARマーカ35が含まれるように、複数の面を持つ台座38に複数のARマーカ35を貼付することができる。なお、ARマーカ35は、開示の技術の第1の指標の一例である。 The AR marker 35 is a marker of a figure registered in advance, and is arranged at a predetermined position where the positional relationship with the handle model 34 is fixed. For example, as shown in FIG. 2, the AR marker 35 is provided on the support column 37 that supports the handle model 34 and is attached to the pedestal 38. Further, even when images are taken from various angles, the pedestal 38 having a plurality of surfaces includes the AR marker 35 in good condition as shown in A of FIG. 26 within the angle of view of the stereo camera 32. A plurality of AR markers 35 can be attached. The AR marker 35 is an example of the first index of the disclosed technology.

VRトラッカー36は、VRトラッキング装置31から照射されるレーザを受光する受光部を有し、VRトラッカー36が取り付けられた物体の位置及び姿勢を検出するための装置である。VRトラッカー36は、ハンドル模型34との位置関係が固定された予め定めた位置に配置される。例えば、図3に示すように、VRトラッカー36は、ハンドル模型34を支える支柱37の端部に取り付けることができる。なお、VRトラッカー36は、開示の技術の第2の指標の一例である。 The VR tracker 36 has a light receiving unit that receives a laser emitted from the VR tracking device 31, and is a device for detecting the position and posture of an object to which the VR tracker 36 is attached. The VR tracker 36 is arranged at a predetermined position where the positional relationship with the handle model 34 is fixed. For example, as shown in FIG. 3, the VR tracker 36 can be attached to the end of a column 37 that supports the handle model 34. The VR tracker 36 is an example of the second index of the disclosed technology.

図4に、VRシステム100の各構成の配置の一例を概略的に示す。ステレオカメラ32付きのHMD33は、装着者40の頭部に装着される。ハンドル模型34は、図5に示すように、装着者40に保持又は操作される。VRトラッキング装置31は、各レーザレーダの計測範囲に、装着者40に装着されたHMD33、及び装着者40に保持されたハンドル模型34に対応する位置に配置されたVRトラッカー36が含まれる位置に配置される。例えば、装着者40が立つことが想定される位置を挟む対角線上の位置に配置される。 FIG. 4 schematically shows an example of the arrangement of each configuration of the VR system 100. The HMD 33 with the stereo camera 32 is attached to the head of the wearer 40. As shown in FIG. 5, the handle model 34 is held or operated by the wearer 40. The VR tracking device 31 is located at a position where the measurement range of each laser radar includes the HMD 33 mounted on the wearer 40 and the VR tracker 36 arranged at a position corresponding to the handle model 34 held by the wearer 40. Be placed. For example, it is arranged at a position on a diagonal line sandwiching a position where the wearer 40 is expected to stand.

表示制御装置10は、機能的には、図6に示すように、ARマーカ推定部12と、トラッキング推定部14と、閾値算出部15と、選択部16と、表示制御部18とを含む。ARマーカ推定部12は、開示の技術の第1推定部の一例であり、トラッキング推定部14は、開示の技術の第2推定部の一例であり、閾値算出部15は、開示の技術の算出部の一例である。また、表示制御装置10の所定の記憶領域には、閾値データベース(DB)21と、オブジェクトDB22とが記憶される。 Functionally, as shown in FIG. 6, the display control device 10 includes an AR marker estimation unit 12, a tracking estimation unit 14, a threshold value calculation unit 15, a selection unit 16, and a display control unit 18. The AR marker estimation unit 12 is an example of the first estimation unit of the disclosed technology, the tracking estimation unit 14 is an example of the second estimation unit of the disclosed technology, and the threshold value calculation unit 15 calculates the disclosed technology. This is an example of the department. Further, the threshold database (DB) 21 and the object DB 22 are stored in the predetermined storage area of the display control device 10.

閾値DB21には、後述する選択部16で使用される閾値が記憶されている(詳細は後述)。 The threshold value DB 21 stores the threshold value used by the selection unit 16 described later (details will be described later).

オブジェクトDB22には、現実空間の映像に重畳表示する仮想オブジェクトの3次元データが記憶されている。本実施形態では、仮想オブジェクトには、消火器を示す仮想オブジェクトが含まれる。より具体的には、図7に示すように、消火器全体を示す仮想オブジェクト39に含まれるハンドル部分は、現実空間におけるハンドル模型34に対応する形状である。また、オブジェクトDB22には、消火器を示す仮想オブジェクト39以外のオブジェクト(例えば、炎を示すオブジェクト等)が含まれていてもよい。 The object DB 22 stores three-dimensional data of a virtual object to be superimposed and displayed on a real space image. In the present embodiment, the virtual object includes a virtual object indicating a fire extinguisher. More specifically, as shown in FIG. 7, the handle portion included in the virtual object 39 showing the entire fire extinguisher has a shape corresponding to the handle model 34 in the real space. Further, the object DB 22 may include an object other than the virtual object 39 indicating a fire extinguisher (for example, an object indicating a flame).

ARマーカ推定部12は、ステレオカメラ32から出力された右眼用画像及び左眼用画像の各々を取得し、右眼用画像及び左眼用画像の各々から、パターンマッチングなどの画像認識処理により、予め登録された図形であるARマーカ35を検出する。ARマーカ推定部12は、右眼用画像及び左眼用画像の各々から検出したARマーカ35と、ステレオカメラ32の両眼視差とに基づいて、カメラ座標系におけるARマーカ35の3次元位置及び姿勢(各座標軸に対する角度)を推定する。 The AR marker estimation unit 12 acquires each of the right eye image and the left eye image output from the stereo camera 32, and performs image recognition processing such as pattern matching from each of the right eye image and the left eye image. , The AR marker 35, which is a pre-registered figure, is detected. The AR marker estimation unit 12 determines the three-dimensional position of the AR marker 35 in the camera coordinate system and the three-dimensional position of the AR marker 35 in the camera coordinate system based on the AR marker 35 detected from each of the right eye image and the left eye image and the binocular parallax of the stereo camera 32. Estimate the posture (angle with respect to each coordinate axis).

トラッキング推定部14は、トラッキング装置31から出力されたトラッキングデータを取得する。そして、トラッキング推定部14は、トラッキングデータに基づいて、ワールド座標系(仮想空間座標系)におけるHMD33及びVRトラッカー36の各々の3次元位置及び姿勢を推定する。 The tracking estimation unit 14 acquires the tracking data output from the tracking device 31. Then, the tracking estimation unit 14 estimates the three-dimensional positions and postures of the HMD 33 and the VR tracker 36 in the world coordinate system (virtual space coordinate system) based on the tracking data.

また、トラッキング推定部14は、後述する選択部16の処理で使用するため、所定時間分のVRトラッカー36についての推定結果の履歴を保持する。図8に、トラッキング推定部14が保持する履歴テーブル23の一例を示す。図8の例では、履歴テーブル23は、N個分の推定結果を保持可能である。「履歴番号」は、推定された時刻が新しい順に各推定結果に付与された、1、2、・・・、Nの番号である。「3次元位置」及び「姿勢」は、各履歴番号に対応する推定結果である。Nの値は、ステレオカメラ32のフレームレート、及び後述するARマーカ推定部12による推定と、トラッキング推定部14による推定との処理時間の差の最大値に基づく値を設定することができる。 Further, since the tracking estimation unit 14 is used in the processing of the selection unit 16 described later, the tracking estimation unit 14 holds the history of the estimation results for the VR tracker 36 for a predetermined time. FIG. 8 shows an example of the history table 23 held by the tracking estimation unit 14. In the example of FIG. 8, the history table 23 can hold N estimation results. The "history number" is a number of 1, 2, ..., N assigned to each estimation result in the order of newest estimated time. The "three-dimensional position" and the "posture" are estimation results corresponding to each history number. The value of N can be set based on the frame rate of the stereo camera 32 and the maximum value of the difference in processing time between the estimation by the AR marker estimation unit 12 and the estimation by the tracking estimation unit 14, which will be described later.

なお、ハンドル模型34に対するARマーカ35及びVRトラッカー36の各々の配置は既知である。そのため、ARマーカ35及びVRトラッカー36の3次元位置及び姿勢を推定することは、ハンドル模型34の3次元位置及び姿勢を推定することに対応する。さらに、消火器を示す仮想オブジェクト39は、図7に示すように、現実空間のハンドル模型34に対応する。すなわち、ARマーカ35及びVRトラッカー36の3次元位置及び姿勢を推定することは、消火器を示す仮想オブジェクト39の3次元位置及び姿勢を推定することに相当する。 The arrangement of the AR marker 35 and the VR tracker 36 with respect to the handle model 34 is known. Therefore, estimating the three-dimensional position and orientation of the AR marker 35 and the VR tracker 36 corresponds to estimating the three-dimensional position and orientation of the handle model 34. Further, the virtual object 39 showing the fire extinguisher corresponds to the handle model 34 in the real space as shown in FIG. That is, estimating the three-dimensional position and attitude of the AR marker 35 and the VR tracker 36 corresponds to estimating the three-dimensional position and attitude of the virtual object 39 indicating the fire extinguisher.

閾値算出部15は、ARマーカ35が、例えば図26のAに示すように良好に含まれる画像から検出されたARマーカ35に基づいて、ARマーカ推定部12により推定された推定結果を取得する。また、閾値算出部15は、ARマーカ35が良好に含まれる画像が撮影された際に検出されトラッキングデータに基づいてトラッキング推定部14により推定された推定結果も取得する。 The threshold value calculation unit 15 acquires the estimation result estimated by the AR marker estimation unit 12 based on the AR marker 35 detected from the image in which the AR marker 35 is well contained, for example, as shown in FIG. 26A. .. In addition, the threshold value calculation unit 15 also acquires an estimation result estimated by the tracking estimation unit 14 based on the tracking data, which is detected when an image well containing the AR marker 35 is taken.

例えば、ARマーカ35及びVRトラッカー36が対応付けて配置されたハンドル模型34を、図9に示すように、装着者40に対して左上、右上、中央、左下、及び右下となる位置の各々に配置する。この際、HMD33を装着した装着者40が中央を注視した状態で、HMD33に配置されたステレオカメラ32により撮影される画像に、ARマーカ35の全体が含まれるように配置する。そして、閾値算出部15は、各位置で撮影された画像に基づいてARマーカ推定部12で推定された推定結果、及び各位置で検出されたトラッキングデータに基づいてトラッキング推定部14で推定された推定結果を取得する。なお、閾値の算出では、後述するARマーカ推定部12による推定と、トラッキング推定部14による推定との処理時間の差を考慮する。具体的には、ARマーカ35及びVRトラッカー36が対応付けて配置されたハンドル模型34を、各位置に所定時間停止させた状態で、画像の撮影及びトラッキングデータの検出を行う。 For example, as shown in FIG. 9, the handle model 34 in which the AR marker 35 and the VR tracker 36 are arranged in association with each other is placed at the upper left, upper right, center, lower left, and lower right positions with respect to the wearer 40, respectively. Place in. At this time, with the wearer 40 wearing the HMD 33 gazing at the center, the image taken by the stereo camera 32 arranged on the HMD 33 is arranged so that the entire AR marker 35 is included. Then, the threshold value calculation unit 15 is estimated by the tracking estimation unit 14 based on the estimation result estimated by the AR marker estimation unit 12 based on the image taken at each position and the tracking data detected at each position. Get the estimation result. In calculating the threshold value, the difference in processing time between the estimation by the AR marker estimation unit 12 and the estimation by the tracking estimation unit 14, which will be described later, is taken into consideration. Specifically, the steering wheel model 34 in which the AR marker 35 and the VR tracker 36 are arranged in association with each other is stopped at each position for a predetermined time, and an image is taken and tracking data is detected.

そして、閾値算出部15は、各位置について推定されたARマーカ推定部12の推定結果とトラッキング推定部14の推定結果との差の最大値を、後述する選択部16において、推定結果の対応付けを行う際の閾値として算出する。閾値算出部15は、算出した閾値を、閾値DB21に記憶する。 Then, the threshold value calculation unit 15 assigns the maximum value of the difference between the estimation result of the AR marker estimation unit 12 estimated for each position and the estimation result of the tracking estimation unit 14 to the estimation result in the selection unit 16 described later. It is calculated as a threshold value when performing. The threshold value calculation unit 15 stores the calculated threshold value in the threshold value DB 21.

図10に、閾値DB21の一例を示す。図10の例では、各位置(左上、右上、中央、左下、及び右下)において、ARマーカ推定部12及びトラッキング推定部14の各々で推定された3次元位置間の距離の最大値が、「距離閾値」として記憶されている。同様に、各位置において、ARマーカ推定部12及びトラッキング推定部14の各々で推定された姿勢間の差の最大値が、「姿勢閾値」として記憶されている。 FIG. 10 shows an example of the threshold value DB 21. In the example of FIG. 10, at each position (upper left, upper right, center, lower left, and lower right), the maximum value of the distance between the three-dimensional positions estimated by each of the AR marker estimation unit 12 and the tracking estimation unit 14 is set. It is stored as a "distance threshold". Similarly, at each position, the maximum value of the difference between the postures estimated by each of the AR marker estimation unit 12 and the tracking estimation unit 14 is stored as a “posture threshold”.

なお、上記の例では、消火器(ハンドル模型34)が手に持って操作するものであることを考慮して、手を伸ばした範囲内の数点の位置で、画像の撮影及びトラッキングデータの検出を行うこととしているが、この例に限定されない。4点以下の位置で画像の撮影及びトラッキングデータの検出を行ってもよいし、6点以上の位置で行ってもよい。また、各位置でハンドル模型34の姿勢を変更してもよい。また、N領域に分割した領域毎に閾値を算出してもよい。図11に、この場合の閾値DB21Aの一例を示す。「領域」は、仮想空間を複数の領域に分割した際の各領域を識別する情報である。ARマーカ35又はVRトラッカー36について推定された位置が、仮想空間のいずれの領域に含まれるかに応じて、対応する閾値が利用される。 In the above example, considering that the fire extinguisher (handle model 34) is to be held and operated by hand, images are taken and tracking data are taken at several positions within the range of reaching out. Detection is to be performed, but the present invention is not limited to this example. The image may be taken and the tracking data may be detected at a position of 4 points or less, or may be performed at a position of 6 points or more. Further, the posture of the handle model 34 may be changed at each position. Further, the threshold value may be calculated for each region divided into N regions. FIG. 11 shows an example of the threshold value DB 21A in this case. The "area" is information for identifying each area when the virtual space is divided into a plurality of areas. Corresponding thresholds are utilized depending on which region of the virtual space the estimated position for the AR marker 35 or VR tracker 36 is contained.

選択部16は、ARマーカ推定部12の推定結果と、そのARマーカ推定部12と対応するトラッキング推定部14の推定結果との比較に基づいて、いずれかの推定結果を選択する。 The selection unit 16 selects one of the estimation results based on the comparison between the estimation result of the AR marker estimation unit 12 and the estimation result of the AR marker estimation unit 12 and the corresponding tracking estimation unit 14.

ここで、ARマーカ推定部12の推定結果と、トラッキング推定部14の推定結果との対応関係について説明する。 Here, the correspondence between the estimation result of the AR marker estimation unit 12 and the estimation result of the tracking estimation unit 14 will be described.

トラッキング推定部14が、トラッキング装置31から取得したトラッキングデータに基づいてハンドル模型34の位置及び姿勢を推定する処理は、トラッキングデータの検出時刻に対してほぼリアルタイムで処理可能である。一方、ARマーカ推定部12が、ステレオカメラ32で撮影された画像から検出したARマーカ35に基づいてハンドル模型34の位置及び姿勢を推定する処理は、所定の処理時間を要する。すなわち、ARマーカ推定部12による推定と、トラッキング推定部14による推定とは同期していない。そこで、画像の撮影時刻とトラッキングデータの検出時刻とが同一である推定結果同士を対応付ける。 The process of estimating the position and posture of the handle model 34 based on the tracking data acquired from the tracking device 31 by the tracking estimation unit 14 can be processed in substantially real time with respect to the detection time of the tracking data. On the other hand, the process of estimating the position and orientation of the handle model 34 based on the AR marker 35 detected by the AR marker estimation unit 12 from the image taken by the stereo camera 32 requires a predetermined processing time. That is, the estimation by the AR marker estimation unit 12 and the estimation by the tracking estimation unit 14 are not synchronized. Therefore, the estimation results in which the shooting time of the image and the detection time of the tracking data are the same are associated with each other.

図12に、各時刻において、ARマーカ推定部12及びトラッキング推定部14の各々で推定された推定結果の軌跡を概略的に示す。なお、図12では、説明を簡単にするため、推定結果を2次元で表している。トラッキングデータの検出からトラッキング推定部14による推定結果が得られるまでの処理時間を0とし、ステレオカメラ32による撮影から、ARマーカ推定部12による推定結果が得られるまでの処理時間をxとする。この場合、図12に示すように、時刻tiにおけるARマーカ推定部12の推定結果は、時刻ti−xにおけるトラッキング推定部14の推定結果に対応することになる。 FIG. 12 schematically shows the loci of the estimation results estimated by each of the AR marker estimation unit 12 and the tracking estimation unit 14 at each time. In FIG. 12, the estimation result is shown in two dimensions for the sake of simplicity. The processing time from the detection of the tracking data to the acquisition of the estimation result by the tracking estimation unit 14 is 0, and the processing time from the shooting by the stereo camera 32 to the acquisition of the estimation result by the AR marker estimation unit 12 is x. In this case, as shown in FIG. 12, the estimation result of the AR marker estimation unit 12 at the time ti corresponds to the estimation result of the tracking estimation unit 14 at the time ti−x.

ただし、上記の処理時間xは、常に一定ではないため、選択部16は、以下のように、画像の撮影時刻とトラッキングデータの検出時刻とが同一である推定結果同士を対応付ける。 However, since the processing time x is not always constant, the selection unit 16 associates the estimation results with the same image shooting time and tracking data detection time as follows.

図13に示すように、選択部16は、時刻ti以前の所定時間内の複数の時刻の各々におけるトラッキング推定部14の推定結果の各々と、時刻tiにおけるARマーカ推定部12の推定結果とを比較する。具体的には、選択部16は、トラッキング推定部14の推定結果を示すベクトルの各々と、時刻tiにおけるARマーカ推定部12の推定結果を示すベクトルとを各々比較する。そして、ベクトル間の差が、閾値DB21に記憶された閾値以下で最小となる場合におけるトラッキング推定部14の推定結果を、時刻tiにおけるARマーカ推定部12の推定結果に対応するトラッキング推定部14の推定結果とする。ベクトル間の差は、例えば、推定結果同士の3次元位置間の距離、及び推定結果同士の姿勢の差である。 As shown in FIG. 13, the selection unit 16 determines each of the estimation results of the tracking estimation unit 14 at each of the plurality of times within the predetermined time before the time ti and the estimation result of the AR marker estimation unit 12 at the time ti. compare. Specifically, the selection unit 16 compares each of the vectors showing the estimation result of the tracking estimation unit 14 with the vector showing the estimation result of the AR marker estimation unit 12 at the time ti. Then, the estimation result of the tracking estimation unit 14 when the difference between the vectors is the minimum below the threshold value stored in the threshold value DB 21 is the estimation result of the tracking estimation unit 14 corresponding to the estimation result of the AR marker estimation unit 12 at the time ti. It is an estimation result. The difference between the vectors is, for example, the distance between the three-dimensional positions of the estimation results and the difference in the postures of the estimation results.

例えば、図26のB〜Dに示すように、ARマーカ35が良好に検出されなかった場合には、ARマーカ35に基づくハンドル模型34の3次元位置及び姿勢の推定は失敗する。そこで、選択部16は、上記のように、時刻tiにおいてARマーカ推定部12により推定された推定結果に、対応するトラッキング推定部14による推定結果が存在するか否かにより、ARマーカ推定部12による推定結果の信頼性を評価する。 For example, as shown in FIGS. 26 to D, when the AR marker 35 is not detected well, the estimation of the three-dimensional position and the posture of the handle model 34 based on the AR marker 35 fails. Therefore, as described above, the selection unit 16 determines whether or not the estimation result estimated by the AR marker estimation unit 12 at time ti includes the estimation result by the corresponding tracking estimation unit 14, and the AR marker estimation unit 12 Evaluate the reliability of the estimation result by.

選択部16は、対応するトラッキング推定部14による推定結果が存在する場合には、ARマーカ推定部12による推定結果は信頼性ありと判断して、ARマーカ推定部12による推定結果を選択する。一方、選択部16は、対応するトラッキング推定部14による推定結果が存在しない場合には、ARマーカ推定部12による推定結果は信頼性なしと判断して、トラッキング推定部14による推定結果を選択する。選択部16は、選択結果を表示制御部18へ通知する。 When the estimation result by the corresponding tracking estimation unit 14 exists, the selection unit 16 determines that the estimation result by the AR marker estimation unit 12 is reliable, and selects the estimation result by the AR marker estimation unit 12. On the other hand, when the estimation result by the corresponding tracking estimation unit 14 does not exist, the selection unit 16 determines that the estimation result by the AR marker estimation unit 12 is unreliable, and selects the estimation result by the tracking estimation unit 14. .. The selection unit 16 notifies the display control unit 18 of the selection result.

また、選択部16は、ARマーカ推定部12の推定結果を選択した場合、ARマーカ推定部12の推定結果と、そのARマーカ推定部12の推定結果に対応するトラッキング推定部14の推定結果との差分をオフセット値として保持する。 When the selection unit 16 selects the estimation result of the AR marker estimation unit 12, the estimation result of the AR marker estimation unit 12 and the estimation result of the tracking estimation unit 14 corresponding to the estimation result of the AR marker estimation unit 12 The difference between is retained as an offset value.

表示制御部18は、HMD33に表示する右眼用VR画像及び左眼用VR画像の各々を生成する。各VR画像の生成方法を以下に示す。表示制御部18は、HMD33に表示するVR画像のサイズに対応した描画領域を用意する。表示制御部18は、ステレオカメラ32から取得された画像を背景画像として描画領域に描画する。 The display control unit 18 generates each of the VR image for the right eye and the VR image for the left eye to be displayed on the HMD 33. The method of generating each VR image is shown below. The display control unit 18 prepares a drawing area corresponding to the size of the VR image to be displayed on the HMD 33. The display control unit 18 draws the image acquired from the stereo camera 32 in the drawing area as a background image.

また、表示制御部18は、選択部16から、ARマーカ推定部12の推定結果を選択した旨が通知された場合、オブジェクトDB22から、消火器を示す仮想オブジェクト39の3次元データを読み出す。そして、表示制御部18は、ARマーカ推定部12により推定されたカメラ座標系におけるハンドル模型34の3次元位置及び姿勢に対応させた消火器を示す仮想オブジェクト39を、背景画像が描画された描画領域に重畳して描画する。 Further, when the display control unit 18 is notified by the selection unit 16 that the estimation result of the AR marker estimation unit 12 has been selected, the display control unit 18 reads out the three-dimensional data of the virtual object 39 indicating the fire extinguisher from the object DB 22. Then, the display control unit 18 draws a virtual object 39 showing a fire extinguisher corresponding to the three-dimensional position and orientation of the handle model 34 in the camera coordinate system estimated by the AR marker estimation unit 12 with a background image drawn. Draw on top of the area.

また、表示制御部18は、選択部16から、トラッキング推定部14の推定結果を選択した旨が通知された場合、オブジェクトDB22から、消火器を示す仮想オブジェクト39の3次元データを読み出す。また、表示制御部18は、トラッキング推定部14による推定結果に、選択部16が保持するオフセット値を加算する。そして、表示制御部18は、オフセット値を加算したトラッキング推定部14の推定結果が示すハンドル模型34のワールド座標系の3次元位置に、オフセット値加算後の推定結果が示す姿勢で、消火器を示す仮想オブジェクト39を配置する。さらに、表示制御部18は、トラッキング推定部14で推定されたHMD33の3次元位置及び姿勢に対応する装着者40の視線方向で仮想空間を見た場合の仮想オブジェクト39を、背景画像が描画された描画領域に重畳して描画する。 Further, when the display control unit 18 is notified by the selection unit 16 that the estimation result of the tracking estimation unit 14 has been selected, the display control unit 18 reads out the three-dimensional data of the virtual object 39 indicating the fire extinguisher from the object DB 22. Further, the display control unit 18 adds the offset value held by the selection unit 16 to the estimation result by the tracking estimation unit 14. Then, the display control unit 18 puts the fire extinguisher at the three-dimensional position of the world coordinate system of the handle model 34 indicated by the estimation result of the tracking estimation unit 14 to which the offset value is added, in the posture indicated by the estimation result after the offset value addition. The indicated virtual object 39 is arranged. Further, the display control unit 18 draws a background image of the virtual object 39 when the virtual space is viewed in the line-of-sight direction of the wearer 40 corresponding to the three-dimensional position and posture of the HMD 33 estimated by the tracking estimation unit 14. It is superimposed on the drawing area and drawn.

また、表示制御部18は、ステレオカメラ32により撮影された画像から、装着者40の腕領域の画像を抽出し、抽出した腕領域の画像を、背景画像及び消火器を示す仮想オブジェクト39が描画された描画領域に重畳して描画する。 Further, the display control unit 18 extracts an image of the arm region of the wearer 40 from the image taken by the stereo camera 32, and the virtual object 39 showing the background image and the fire extinguisher draws the extracted image of the arm region. It is superimposed on the drawn drawing area and drawn.

また、表示制御部18は、オブジェクトDB22に記憶されている、炎などの他の仮想オブジェクトを、描画領域に重畳して描画してもよい。 Further, the display control unit 18 may superimpose another virtual object such as a flame stored in the object DB 22 on the drawing area and draw the object.

表示制御部18は、上記の描画を右眼用及び左眼用の各々について行うことにより、右眼用VR画像及び左眼用VR画像の各々を生成する。表示制御部18は、生成した右眼用VR画像及び左眼用VR画像をHMD33に出力する。 The display control unit 18 generates a VR image for the right eye and a VR image for the left eye by performing the above drawing for each of the right eye and the left eye. The display control unit 18 outputs the generated VR image for the right eye and the VR image for the left eye to the HMD 33.

これにより、HMD33には、例えば図14に示すようなVR画像が表示される。図14の例では、消火器及び炎が仮想オブジェクトであり、それ以外の部分(壁、床、ホワイトボード、机、腕等)は、ステレオカメラ32で撮影された現実空間を映した画像である。 As a result, a VR image as shown in FIG. 14, for example, is displayed on the HMD 33. In the example of FIG. 14, the fire extinguisher and the flame are virtual objects, and the other parts (wall, floor, whiteboard, desk, arm, etc.) are images of the real space taken by the stereo camera 32. ..

表示制御装置10は、例えば図15に示すコンピュータ50で実現することができる。コンピュータ50は、Central Processing Unit(CPU)51と、一時記憶領域としてのメモリ52と、不揮発性の記憶部53とを備える。また、コンピュータ50は、入力装置、表示装置等の入出力装置54と、記憶媒体59に対するデータの読み込み及び書き込みを制御するRead/Write(R/W)部55と、インターネット等のネットワークに接続される通信Interface(I/F)56とを備える。CPU51、メモリ52、記憶部53、入出力装置54、R/W部55、及び通信I/F56は、バス57を介して互いに接続される。 The display control device 10 can be realized by, for example, the computer 50 shown in FIG. The computer 50 includes a Central Processing Unit (CPU) 51, a memory 52 as a temporary storage area, and a non-volatile storage unit 53. Further, the computer 50 is connected to an input / output device 54 such as an input device and a display device, a Read / Write (R / W) unit 55 that controls reading and writing of data to the storage medium 59, and a network such as the Internet. It also has a communication interface (I / F) 56. The CPU 51, the memory 52, the storage unit 53, the input / output device 54, the R / W unit 55, and the communication I / F 56 are connected to each other via the bus 57.

記憶部53は、Hard Disk Drive(HDD)、Solid State Drive(SSD)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部53には、コンピュータ50を、表示制御装置10として機能させるための表示制御プログラム60が記憶される。表示制御プログラム60は、ARマーカ推定プロセス62と、トラッキング推定プロセス64と、閾値算出プロセス65と、選択プロセス66と、表示制御プロセス68とを有する。また、記憶部53は、閾値DB21及びオブジェクトDB22の各々を構成する情報が記憶される情報記憶領域70を有する。 The storage unit 53 can be realized by a Hard Disk Drive (HDD), a Solid State Drive (SSD), a flash memory, or the like. A display control program 60 for causing the computer 50 to function as the display control device 10 is stored in the storage unit 53 as a storage medium. The display control program 60 includes an AR marker estimation process 62, a tracking estimation process 64, a threshold value calculation process 65, a selection process 66, and a display control process 68. Further, the storage unit 53 has an information storage area 70 in which information constituting each of the threshold value DB 21 and the object DB 22 is stored.

CPU51は、表示制御プログラム60を記憶部53から読み出してメモリ52に展開し、表示制御プログラム60が有するプロセスを順次実行する。CPU51は、ARマーカ推定プロセス62を実行することで、図6に示すARマーカ推定部12として動作する。また、CPU51は、トラッキング推定プロセス64を実行することで、図6に示すトラッキング推定部14として動作する。また、CPU51は、閾値算出プロセス65を実行することで、図6に示す閾値算出部15として動作する。また、CPU51は、選択プロセス66を実行することで、図6に示す選択部16として動作する。また、CPU51は、表示制御プロセス68を実行することで、図6に示す表示制御部18として動作する。また、CPU51は、情報記憶領域70から情報を読み出して、閾値DB21及びオブジェクトDB22をメモリ52に展開する。また、CPU51は、トラッキング推定プロセス64の実行時に、履歴テーブル23をメモリ52上に作成する。これにより、表示制御プログラム60を実行したコンピュータ50が、表示制御装置10として機能することになる。なお、プログラムを実行するCPU51はハードウェアである。 The CPU 51 reads the display control program 60 from the storage unit 53, expands the display control program 60 into the memory 52, and sequentially executes the processes included in the display control program 60. The CPU 51 operates as the AR marker estimation unit 12 shown in FIG. 6 by executing the AR marker estimation process 62. Further, the CPU 51 operates as the tracking estimation unit 14 shown in FIG. 6 by executing the tracking estimation process 64. Further, the CPU 51 operates as the threshold value calculation unit 15 shown in FIG. 6 by executing the threshold value calculation process 65. Further, the CPU 51 operates as the selection unit 16 shown in FIG. 6 by executing the selection process 66. Further, the CPU 51 operates as the display control unit 18 shown in FIG. 6 by executing the display control process 68. Further, the CPU 51 reads information from the information storage area 70 and expands the threshold value DB 21 and the object DB 22 into the memory 52. Further, the CPU 51 creates the history table 23 on the memory 52 when the tracking estimation process 64 is executed. As a result, the computer 50 that has executed the display control program 60 functions as the display control device 10. The CPU 51 that executes the program is hardware.

なお、表示制御プログラム60により実現される機能は、例えば半導体集積回路、より詳しくはApplication Specific Integrated Circuit(ASIC)等で実現することも可能である。 The function realized by the display control program 60 can also be realized by, for example, a semiconductor integrated circuit, more specifically, an Application Specific Integrated Circuit (ASIC) or the like.

次に、第1実施形態に係る表示制御装置10の作用について説明する。VRシステム100が起動されると、VRトラッキング装置31がVRトラッキングを開始し、トラッキングデータを出力すると共に、ステレオカメラ32が撮影を開始し、右眼用画像及び左眼用画像を出力する。そして、表示制御装置10が、図16に示す閾値算出処理を実行した後に、図17に示す表示制御処理を実行する。なお、閾値算出処理及び表示制御処理は、開示の技術の表示制御方法の一例である。 Next, the operation of the display control device 10 according to the first embodiment will be described. When the VR system 100 is activated, the VR tracking device 31 starts VR tracking and outputs tracking data, and the stereo camera 32 starts shooting and outputs an image for the right eye and an image for the left eye. Then, the display control device 10 executes the display control process shown in FIG. 17 after executing the threshold value calculation process shown in FIG. The threshold value calculation process and the display control process are examples of the display control method of the disclosed technology.

まず、図16に示す閾値算出処理について説明する。 First, the threshold value calculation process shown in FIG. 16 will be described.

ステップS12で、ARマーカ推定部12が、ARマーカ35及びVRトラッカー36が対応付けて配置されたハンドル模型34を所定の位置の各々に配置したときにステレオカメラ32で撮影された画像を取得する。この際、HMD33を装着した装着者40が中央を注視した状態で、HMD33に配置されたステレオカメラ32により撮影される画像に、ARマーカ35の全体が含まれるように配置する。また、トラッキング推定部14が、各位置で検出されたトラッキングデータを取得する。 In step S12, the AR marker estimation unit 12 acquires an image taken by the stereo camera 32 when the handle model 34 in which the AR marker 35 and the VR tracker 36 are arranged in association with each other is arranged at each of the predetermined positions. .. At this time, with the wearer 40 wearing the HMD 33 gazing at the center, the image taken by the stereo camera 32 arranged on the HMD 33 is arranged so that the entire AR marker 35 is included. In addition, the tracking estimation unit 14 acquires the tracking data detected at each position.

次に、ステップS14で、閾値算出部15が、各位置で撮影された画像に基づいてARマーカ推定部12で推定されたカメラ座標系の推定結果を取得し、仮想空間座標系に変換する。また、閾値算出部15が、各位置で検出されたトラッキングデータに基づいてトラッキング推定部14で推定された仮想空間座標系の推定結果を取得する。 Next, in step S14, the threshold value calculation unit 15 acquires the estimation result of the camera coordinate system estimated by the AR marker estimation unit 12 based on the images taken at each position, and converts it into a virtual space coordinate system. Further, the threshold value calculation unit 15 acquires the estimation result of the virtual space coordinate system estimated by the tracking estimation unit 14 based on the tracking data detected at each position.

次に、ステップS16で、閾値算出部15が、各位置について推定されたARマーカ推定部12の推定結果とトラッキング推定部14の推定結果との差の最大値を、後述する選択部16において、推定結果の対応付けを行う際の閾値として算出する。そして、閾値算出部15は、算出した閾値を、閾値DB21に記憶し、閾値算出処理は終了する。 Next, in step S16, the threshold value calculation unit 15 determines the maximum value of the difference between the estimation result of the AR marker estimation unit 12 estimated for each position and the estimation result of the tracking estimation unit 14 in the selection unit 16 described later. It is calculated as a threshold value when associating the estimation results. Then, the threshold value calculation unit 15 stores the calculated threshold value in the threshold value DB 21, and the threshold value calculation process ends.

次に、図17に示す表示制御処理について説明する。 Next, the display control process shown in FIG. 17 will be described.

ステップS22で、ARマーカ推定部12及び表示制御部18が、ステレオカメラ32から出力された右眼用画像及び左眼用画像の各々を取得する。 In step S22, the AR marker estimation unit 12 and the display control unit 18 acquire each of the right eye image and the left eye image output from the stereo camera 32.

次に、ステップS24で、表示制御部18が、HMD33に表示するVR画像のサイズに対応した描画領域を用意する。表示制御部18は、ステレオカメラ32から取得された画像を背景画像として描画領域に描画する。 Next, in step S24, the display control unit 18 prepares a drawing area corresponding to the size of the VR image to be displayed on the HMD 33. The display control unit 18 draws the image acquired from the stereo camera 32 in the drawing area as a background image.

次に、ステップS26で、トラッキング推定部14が、トラッキング装置31から出力された、HMD33についてのトラッキングデータを取得する。そして、トラッキング推定部14が、取得したトラッキングデータに基づいて、仮想空間座標系におけるHMD33の3次元位置及び姿勢を推定する。 Next, in step S26, the tracking estimation unit 14 acquires the tracking data for the HMD 33 output from the tracking device 31. Then, the tracking estimation unit 14 estimates the three-dimensional position and orientation of the HMD 33 in the virtual space coordinate system based on the acquired tracking data.

次に、ステップS28で、トラッキング推定部14が、トラッキング装置31から出力されたVRトラッカー36についてのトラッキングデータを取得する。そして、トラッキング推定部14が、取得したトラッキングデータに基づいて、仮想空間座標系におけるVRトラッカー36の3次元位置及び姿勢を推定する。 Next, in step S28, the tracking estimation unit 14 acquires the tracking data for the VR tracker 36 output from the tracking device 31. Then, the tracking estimation unit 14 estimates the three-dimensional position and orientation of the VR tracker 36 in the virtual space coordinate system based on the acquired tracking data.

次に、ステップS30で、トラッキング推定部14が、VRトラッカー36の3次元位置及び姿勢の推定結果を、例えば、図8に示すような履歴テーブル23に保持する。この際、トラッキング推定部14は、履歴テーブル23に保持されている最も古い推定結果を破棄し、上記ステップS28で推定された推定結果を履歴テーブル23に追加する。 Next, in step S30, the tracking estimation unit 14 holds the estimation result of the three-dimensional position and the posture of the VR tracker 36 in the history table 23 as shown in FIG. 8, for example. At this time, the tracking estimation unit 14 discards the oldest estimation result held in the history table 23, and adds the estimation result estimated in step S28 to the history table 23.

次に、ステップS32で、ARマーカ推定部12が、取得した右眼用画像及び左眼用画像の各々から、パターンマッチングなどの画像認識処理により、予め登録された図形であるARマーカ35が検出されたか否かを判定する。ARマーカ35が検出された場合には、処理はステップS36へ移行し、検出されない場合には、処理はステップS46へ移行する。 Next, in step S32, the AR marker estimation unit 12 detects the AR marker 35, which is a pre-registered figure, from each of the acquired right-eye image and left-eye image by image recognition processing such as pattern matching. Determine if it has been done. If the AR marker 35 is detected, the process proceeds to step S36, and if not detected, the process proceeds to step S46.

ステップS36では、ARマーカ推定部12が、右眼用画像及び左眼用画像の各々から検出したARマーカ35と、ステレオカメラ32の両眼視差とに基づいて、カメラ座標系におけるARマーカ35の3次元位置及び姿勢を推定する。 In step S36, the AR marker estimation unit 12 determines the AR marker 35 in the camera coordinate system based on the AR marker 35 detected from each of the right eye image and the left eye image and the binocular parallax of the stereo camera 32. Estimate the 3D position and orientation.

次に、ステップS38で、選択部16が、ARマーカ推定部12による推定結果の信頼性を評価する。具体的には、選択部16が、上記ステップS36でARマーカ推定部12により推定されたカメラ座標系の推定結果を仮想空間座標系に変換する。そして、選択部16が、履歴テーブル23に保持したトラッキング推定部14の推定結果の各々と、上記ステップS36で推定されたARマーカ推定部12の推定結果(座標変換後)とを比較する。選択部16は、トラッキング推定部14の推定結果を示すベクトルの各々と、ARマーカ推定部12の推定結果を示すベクトルとの差が、閾値DB21に記憶された閾値以下で最小となる場合におけるトラッキング推定部14の推定結果を特定する。 Next, in step S38, the selection unit 16 evaluates the reliability of the estimation result by the AR marker estimation unit 12. Specifically, the selection unit 16 converts the estimation result of the camera coordinate system estimated by the AR marker estimation unit 12 in step S36 into a virtual space coordinate system. Then, the selection unit 16 compares each of the estimation results of the tracking estimation unit 14 held in the history table 23 with the estimation result (after coordinate conversion) of the AR marker estimation unit 12 estimated in step S36. The selection unit 16 tracks when the difference between each of the vectors showing the estimation result of the tracking estimation unit 14 and the vector showing the estimation result of the AR marker estimation unit 12 is the minimum below the threshold value stored in the threshold value DB 21. The estimation result of the estimation unit 14 is specified.

次に、ステップS40で、選択部16が、ARマーカ推定部12の推定結果は信頼性ありか否かを判定する。上記ステップS38において、ARマーカ推定部12の推定結果に対応するトラッキング推定部14の推定結果が特定されている場合には、ARマーカ推定部12の推定結果は信頼性ありと判定され、処理はステップS42へ移行する。一方、ARマーカ推定部12の推定結果に対応するトラッキング推定部14の推定結果が特定されていない場合には、ARマーカ推定部12の推定結果は信頼性なしと判定され、処理はステップS46へ移行する。 Next, in step S40, the selection unit 16 determines whether or not the estimation result of the AR marker estimation unit 12 is reliable. In step S38, when the estimation result of the tracking estimation unit 14 corresponding to the estimation result of the AR marker estimation unit 12 is specified, the estimation result of the AR marker estimation unit 12 is determined to be reliable, and the process is performed. The process proceeds to step S42. On the other hand, when the estimation result of the tracking estimation unit 14 corresponding to the estimation result of the AR marker estimation unit 12 is not specified, the estimation result of the AR marker estimation unit 12 is determined to be unreliable, and the process proceeds to step S46. Transition.

ステップS42では、表示制御部18が、オブジェクトDB22から、消火器を示す仮想オブジェクト39の3次元データを読み出す。そして、表示制御部18は、ARマーカ推定部12により推定されたカメラ座標系におけるハンドル模型34の3次元位置及び姿勢に対応させた消火器を示す仮想オブジェクト39を、背景画像が描画された描画領域に重畳して描画する。 In step S42, the display control unit 18 reads out the three-dimensional data of the virtual object 39 indicating the fire extinguisher from the object DB 22. Then, the display control unit 18 draws a virtual object 39 showing a fire extinguisher corresponding to the three-dimensional position and orientation of the handle model 34 in the camera coordinate system estimated by the AR marker estimation unit 12 with a background image drawn. Draw on top of the area.

次に、ステップS44で、選択部16が、ARマーカ推定部12の推定結果と、対応するトラッキング推定部14の推定結果との差分をオフセット値として保持する。 Next, in step S44, the selection unit 16 holds the difference between the estimation result of the AR marker estimation unit 12 and the estimation result of the corresponding tracking estimation unit 14 as an offset value.

一方、ステップS46では、表示制御部18が、オブジェクトDB22から、消火器を示す仮想オブジェクト39の3次元データを読み出す。そして、表示制御部18は、トラッキング推定部14による推定結果に、選択部16が保持するオフセット値を加算する。 次に、ステップS48で、表示制御部18が、オフセット値を加算したトラッキング推定部14の推定結果が示すハンドル模型34のワールド座標系の3次元位置に、オフセット値加算後の推定結果が示す姿勢で、消火器を示す仮想オブジェクト39を配置する。そして、表示制御部18は、トラッキング推定部14で推定されたHMD33の3次元位置及び姿勢に対応する装着者40の視線方向で仮想空間を見た場合の仮想オブジェクト39を、背景画像が描画された描画領域に重畳して描画する。 On the other hand, in step S46, the display control unit 18 reads out the three-dimensional data of the virtual object 39 indicating the fire extinguisher from the object DB 22. Then, the display control unit 18 adds the offset value held by the selection unit 16 to the estimation result by the tracking estimation unit 14. Next, in step S48, the display control unit 18 places the posture indicated by the estimation result after the offset value addition at the three-dimensional position of the world coordinate system of the handle model 34 indicated by the estimation result of the tracking estimation unit 14 to which the offset value is added. Then, a virtual object 39 indicating a fire extinguisher is placed. Then, the display control unit 18 draws a background image of the virtual object 39 when the virtual space is viewed in the line-of-sight direction of the wearer 40 corresponding to the three-dimensional position and posture of the HMD 33 estimated by the tracking estimation unit 14. It is superimposed on the drawing area and drawn.

次に、ステップS50で、表示制御部18が、取得した右眼用画像及び左眼用画像の各々から、例えば、肌色の領域を抽出するなどして、装着者40の腕部を示す腕領域を抽出する。そして、表示制御部18は、抽出した腕領域の画像を、背景画像及び消火器を示す仮想オブジェクト39が描画された描画領域に重畳して描画する。 Next, in step S50, the display control unit 18 extracts, for example, a skin color region from each of the acquired right eye image and left eye image, and the arm region showing the arm portion of the wearer 40 is shown. To extract. Then, the display control unit 18 superimposes and draws the extracted image of the arm area on the drawing area on which the background image and the virtual object 39 indicating the fire extinguisher are drawn.

次に、ステップS52で、表示制御部18が、オブジェクトDB22に記憶されている、炎などの他の仮想オブジェクトの3次元データを読み出し、描画領域に重畳して描画する。 Next, in step S52, the display control unit 18 reads out the three-dimensional data of another virtual object such as a flame stored in the object DB 22, and draws the data by superimposing the three-dimensional data on the drawing area.

表示制御部18は、上記の処理を右眼用及び左眼用の各々について行うことにより、右眼用VR画像及び左眼用VR画像の各々を生成する。 The display control unit 18 generates a VR image for the right eye and a VR image for the left eye by performing the above processing for each of the right eye and the left eye.

次に、ステップS54で、表示制御部18が、生成した右眼用VR画像及び左眼用VR画像をHMD33に出力する。これにより、HMD33には、例えば図14に示すようなVR画像が表示される。そして、表示制御処理は終了する。 Next, in step S54, the display control unit 18 outputs the generated VR image for the right eye and the VR image for the left eye to the HMD 33. As a result, a VR image as shown in FIG. 14, for example, is displayed on the HMD 33. Then, the display control process ends.

表示制御部18は、VRシステム100の終了が指示されるまで、上記の表示制御処理を所定時間間隔(例えば、ステレオカメラのフレームレートと同じ間隔)で繰り返し実行する。 The display control unit 18 repeatedly executes the above display control process at predetermined time intervals (for example, the same interval as the frame rate of the stereo camera) until the end of the VR system 100 is instructed.

以上説明したように、第1実施形態におけるVRシステム100によれば、表示制御装置10が、時刻tiに推定されたARマーカに基づく推定結果についての信頼性を評価する。具体的には、推定結果が示すベクトル間の差が閾値以内となるVRトラッカーに基づく推定結果が、時刻ti以前の所定期間内の各時刻に推定されたVRトラッカーに基づく推定結果に存在する場合に、信頼性ありと評価する。ARマーカに基づく推定結果に信頼性がある場合、カメラ画像との位置ずれが少ないARマーカに基づく推定結果を用いて対象物の仮想オブジェクトを描画する。 As described above, according to the VR system 100 in the first embodiment, the display control device 10 evaluates the reliability of the estimation result based on the AR marker estimated at the time ti. Specifically, when the estimation result based on the VR tracker in which the difference between the vectors indicated by the estimation result is within the threshold value exists in the estimation result based on the VR tracker estimated at each time within the predetermined period before the time ti. In addition, it is evaluated as reliable. When the estimation result based on the AR marker is reliable, the virtual object of the object is drawn using the estimation result based on the AR marker with less positional deviation from the camera image.

一方、ARマーカに基づく推定結果に信頼性がない場合に、ARマーカに基づく推定結果を用いて、対象物の仮想オブジェクトを描画したとする。この場合、例えば、図18に示すように、現実空間の画像に重畳される対象物の仮想オブジェクトに、一瞬、位置ずれや方向違い等が生じ、対象物がバタ付いて見える。そこで、本実施形態に係る表示制御装置10は、ARマーカに基づく推定結果に信頼性がない場合には、カメラ画像との位置ずれ以外は安定して位置を検出できるVRトラッカーに基づく推定結果を用いて、対象物の仮想オブジェクトを描画する。これにより、現実空間において取り扱い可能な物体に対応する対象物の仮想オブジェクトを現実空間の画像に重畳する場合における表示の違和感を緩和することができる。 On the other hand, when the estimation result based on the AR marker is unreliable, it is assumed that the virtual object of the object is drawn using the estimation result based on the AR marker. In this case, for example, as shown in FIG. 18, the virtual object of the object superimposed on the image in the real space is momentarily displaced, misaligned, or the like, and the object appears to flutter. Therefore, when the estimation result based on the AR marker is unreliable, the display control device 10 according to the present embodiment obtains the estimation result based on the VR tracker that can stably detect the position except for the positional deviation from the camera image. Use to draw a virtual object of the object. As a result, it is possible to alleviate the discomfort of the display when the virtual object of the object corresponding to the object that can be handled in the real space is superimposed on the image in the real space.

<第2実施形態>
次に、第2実施形態について説明する。第2実施形態では、現実空間において取り扱い可能な物体を、消火器のノズル部分を模した模型とし、現実空間の画像に重畳して描画する仮想オブジェクトも、消火器のノズル部分である場合について説明する。なお、第2実施形態に係るVRシステムにおいて、第1実施形態に係るVRシステム100と同様の部分については、同一符号を付して詳細な説明を省略する。
<Second Embodiment>
Next, the second embodiment will be described. In the second embodiment, a case where an object that can be handled in the real space is a model imitating the nozzle portion of the fire extinguisher, and the virtual object drawn by superimposing it on the image in the real space is also the nozzle portion of the fire extinguisher. do. In the VR system according to the second embodiment, the same parts as those of the VR system 100 according to the first embodiment are designated by the same reference numerals and detailed description thereof will be omitted.

図19に示すように、第2実施形態に係るVRシステム200は、表示制御装置210と、VRトラッキング装置31と、ステレオカメラ32が取り付けられたHMD33とを含む。さらに、VRシステム200は、複数のノズル模型34A、34B、34Cと、複数のARマーカ35A、35B、35Cと、1つのVRトラッカー36とを含む。なお、ノズル模型及びARマーカの数は、図19の例に限定されず、2個でも4個以上でもよい。なお、以下では、ノズル模型34A、34B、34Cを区別なく説明する場合には、代表してノズル模型34Aについて説明する。同様に、ARマーカ35A、35B、35Cを区別なく説明する場合には、代表してARマーカ35Aについて説明する。 As shown in FIG. 19, the VR system 200 according to the second embodiment includes a display control device 210, a VR tracking device 31, and an HMD 33 to which a stereo camera 32 is attached. Further, the VR system 200 includes a plurality of nozzle models 34A, 34B, 34C, a plurality of AR markers 35A, 35B, 35C, and one VR tracker 36. The number of nozzle models and AR markers is not limited to the example shown in FIG. 19, and may be two or four or more. In the following, when the nozzle models 34A, 34B, and 34C are described without distinction, the nozzle model 34A will be described as a representative. Similarly, when the AR markers 35A, 35B, and 35C are described without distinction, the AR marker 35A will be described as a representative.

ノズル模型34Aは、HMD33の装着者が実際に保持したり操作したりして取り扱うことが可能な物体であり、本実施形態では、消火器のノズル部分に相当する棒状の物体である。ノズル模型34A、34B、34Cの各々は、対応付けて配置されているARマーカ35A、35B、35Cが異なるだけであり、形状等は同一の物体である。なお、ノズル模型34Aは、開示の技術の物体の一例である。 The nozzle model 34A is an object that can be actually held and operated by the wearer of the HMD 33 and can be handled, and in the present embodiment, it is a rod-shaped object corresponding to the nozzle portion of the fire extinguisher. The nozzle models 34A, 34B, and 34C differ only in the AR markers 35A, 35B, and 35C arranged in association with each other, and have the same shape and the like. The nozzle model 34A is an example of an object of the disclosed technology.

ARマーカ35Aは、ノズル模型34Aとの位置関係が固定された予め定めた位置に配置される。例えば、図20に示すように、ARマーカ35Aは、ノズル模型34Aの先端に貼付される。また、第1実施形態のARマーカ35と同様に、複数の面を持つ台座38に複数のARマーカ35を貼付することができる(図21参照)。 The AR marker 35A is arranged at a predetermined position where the positional relationship with the nozzle model 34A is fixed. For example, as shown in FIG. 20, the AR marker 35A is attached to the tip of the nozzle model 34A. Further, similarly to the AR marker 35 of the first embodiment, a plurality of AR markers 35 can be attached to the pedestal 38 having a plurality of surfaces (see FIG. 21).

VRトラッカー36は、図20及び図21に示すように、ノズル模型34Aを保持する装着者40の手首等の位置に固定して取り付けられる。これにより、ノズル模型34Aを装着者40が保持した場合、ノズル模型34Aと、手首等に取り付けられたVRトラッカー36とは、ほぼ固定された位置関係となる。 As shown in FIGS. 20 and 21, the VR tracker 36 is fixedly attached to a position such as the wrist of the wearer 40 holding the nozzle model 34A. As a result, when the wearer 40 holds the nozzle model 34A, the nozzle model 34A and the VR tracker 36 attached to the wrist or the like have a substantially fixed positional relationship.

表示制御装置210は、機能的には、図22に示すように、ARマーカ推定部12と、トラッキング推定部14と、閾値算出部15と、選択部16と、表示制御部218と、切替部219とを含む。また、表示制御装置210の所定の記憶領域には、閾値DB21と、オブジェクトDB222とが記憶される。 Functionally, as shown in FIG. 22, the display control device 210 includes an AR marker estimation unit 12, a tracking estimation unit 14, a threshold value calculation unit 15, a selection unit 16, a display control unit 218, and a switching unit. Includes 219 and. Further, the threshold value DB 21 and the object DB 222 are stored in a predetermined storage area of the display control device 210.

オブジェクトDB222には、消火器のノズルを示す仮想オブジェクトの3次元データが記憶されている。ノズルを示す仮想オブジェクトは、図23に示すように、ARマーカ35A、35B、35Cの各々に対応して、それぞれ異なる形状の仮想オブジェクト39A、39B、39Cが用意される。仮想オブジェクト39A、39B、39Cの各々には、ARマーカ35A、35B、35Cの各々に対応する識別番号が付与されている。 The object DB 222 stores three-dimensional data of a virtual object indicating a nozzle of a fire extinguisher. As the virtual object indicating the nozzle, as shown in FIG. 23, virtual objects 39A, 39B, 39C having different shapes are prepared corresponding to each of the AR markers 35A, 35B, 35C. Each of the virtual objects 39A, 39B, and 39C is assigned an identification number corresponding to each of the AR markers 35A, 35B, and 35C.

切替部219は、装着者40がノズル模型34A、34B、34Cを持ち替えたことを検知すると、持ち替えた後のノズル模型34A、34B、34Cに貼付されたARマーカ35A、35B、35C対応する識別番号を表示制御部218へ通知する。具体的には、切替部219は、ARマーカ推定部12で、ARマーカ35Aが検出されない期間が一定期間継続した場合に、次に検出されたARマーカ35A、35B、35Cを、切替後のARマーカ35A、35B、35Cと判定する。 When the switching unit 219 detects that the wearer 40 has changed the nozzle models 34A, 34B, 34C, the switching unit 219 has an identification number corresponding to the AR markers 35A, 35B, 35C affixed to the nozzle models 34A, 34B, 34C after the change. Is notified to the display control unit 218. Specifically, the switching unit 219 is the AR marker estimation unit 12, and when the period in which the AR marker 35A is not detected continues for a certain period, the AR markers 35A, 35B, and 35C detected next are switched to the AR. It is determined that the markers are 35A, 35B, and 35C.

表示制御部218は、ノズルの仮想オブジェクトを描画する際、切替部219から通知された識別番号が付与された仮想オブジェクト39A、39B、39Cの3次元データをオブジェクトDB222から読み出して描画する。これにより、図24に示すように、現実空間では、異なるARマーカ35A、35B、35Cが貼付されたノズル模型34A、34B、34Cに持ち替えるだけで、VR画像上で、異なる形状のノズルの仮想オブジェクト39A、39B、39Cが描画される。 When drawing the virtual object of the nozzle, the display control unit 218 reads out the three-dimensional data of the virtual objects 39A, 39B, 39C to which the identification number notified from the switching unit 219 is assigned from the object DB 222 and draws the virtual object. As a result, as shown in FIG. 24, in the real space, a virtual object of nozzles having different shapes can be displayed on the VR image simply by switching to the nozzle models 34A, 34B, 34C to which different AR markers 35A, 35B, 35C are attached. 39A, 39B, 39C are drawn.

表示制御装置210は、例えば図15に示すコンピュータ50で実現することができる。コンピュータ50の記憶部53には、コンピュータ50を、表示制御装置210として機能させるための表示制御プログラム260が記憶される。表示制御プログラム260は、ARマーカ推定プロセス62と、トラッキング推定プロセス64と、閾値算出プロセス65と、選択プロセス66と、表示制御プロセス268と、切替プロセス269とを有する。また、記憶部53は、閾値DB21及びオブジェクトDB222の各々を構成する情報が記憶される情報記憶領域70を有する。 The display control device 210 can be realized by, for example, the computer 50 shown in FIG. A display control program 260 for causing the computer 50 to function as the display control device 210 is stored in the storage unit 53 of the computer 50. The display control program 260 includes an AR marker estimation process 62, a tracking estimation process 64, a threshold value calculation process 65, a selection process 66, a display control process 268, and a switching process 269. Further, the storage unit 53 has an information storage area 70 in which information constituting each of the threshold value DB 21 and the object DB 222 is stored.

CPU51は、表示制御プログラム260を記憶部53から読み出してメモリ52に展開し、表示制御プログラム260が有するプロセスを順次実行する。CPU51は、表示制御プロセス268を実行することで、図22に示す表示制御部218として動作する。また、CPU51は、切替プロセス269を実行することで、図22に示す切替部219として動作する。また、CPU51は、情報記憶領域70から情報を読み出して、閾値DB21及びオブジェクトDB222の各々をメモリ52に展開する。他のプロセスについては、第1実施形態に係る表示制御プログラム60と同様である。これにより、表示制御プログラム260を実行したコンピュータ50が、表示制御装置210として機能することになる。 The CPU 51 reads the display control program 260 from the storage unit 53, expands the display control program 260 into the memory 52, and sequentially executes the processes included in the display control program 260. The CPU 51 operates as the display control unit 218 shown in FIG. 22 by executing the display control process 268. Further, the CPU 51 operates as the switching unit 219 shown in FIG. 22 by executing the switching process 269. Further, the CPU 51 reads information from the information storage area 70 and expands each of the threshold value DB 21 and the object DB 222 into the memory 52. Other processes are the same as those of the display control program 60 according to the first embodiment. As a result, the computer 50 that has executed the display control program 260 functions as the display control device 210.

なお、表示制御プログラム260により実現される機能は、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。 The function realized by the display control program 260 can also be realized by, for example, a semiconductor integrated circuit, more specifically, an ASIC or the like.

次に、第2実施形態に係る表示制御装置210の作用について説明する。第2実施形態においても、第1実施形態と同様に、閾値算出処理(図16)及び表示制御処理(図17)が実行される。また、表示制御処理と並行して、図25に示す切替処理が実行される。 Next, the operation of the display control device 210 according to the second embodiment will be described. In the second embodiment as well, the threshold value calculation process (FIG. 16) and the display control process (FIG. 17) are executed as in the first embodiment. Further, in parallel with the display control process, the switching process shown in FIG. 25 is executed.

図25に示す切替処理のステップS62で、切替部219が、ARマーカ推定部12で、ARマーカ35Aが検出されない期間が一定期間継続したか否かを判定する。継続した場合には、処理はステップS64へ移行し、継続していない場合には、本ステップの判定を繰り返す。 In step S62 of the switching process shown in FIG. 25, the switching unit 219 determines whether or not the period in which the AR marker 35A is not detected by the AR marker estimation unit 12 continues for a certain period of time. If it continues, the process proceeds to step S64, and if it does not continue, the determination in this step is repeated.

ステップS64では、切替部219が、ARマーカ推定部12で、ARマーカ35Aが検出されたか否かを判定する。検出された場合には、処理はステップS66へ移行し、検出されない場合には、本ステップの判定を繰り返す。 In step S64, the switching unit 219 determines whether or not the AR marker 35A is detected by the AR marker estimation unit 12. If it is detected, the process proceeds to step S66, and if it is not detected, the determination in this step is repeated.

ステップS66では、切替部219が、検出されたARマーカ35A、35B、35Cに対応する識別番号を表示制御部218へ通知し、ステップS62に戻る。 In step S66, the switching unit 219 notifies the display control unit 218 of the identification number corresponding to the detected AR markers 35A, 35B, 35C, and returns to step S62.

第2実施形態における閾値算出処理では、いずれかのARマーカ35A、35B、35Cのいずれかについて、第1実施形態と同様の閾値算出処理を実行してもよい。また、ARマーカ35A、35B、35Cの各々について、第1実施形態と同様の閾値算出処理を実行し、ARマーカ35A、35B、35C毎の閾値を設定してもよい。 In the threshold value calculation process in the second embodiment, the same threshold value calculation process as in the first embodiment may be executed for any of the AR markers 35A, 35B, and 35C. Further, for each of the AR markers 35A, 35B, and 35C, the same threshold value calculation process as in the first embodiment may be executed, and the threshold value for each of the AR markers 35A, 35B, and 35C may be set.

また、第2実施形態における表示制御処理(図17)では、ステップS42又はS48で仮想オブジェクト39A、39B、39Cの3次元データをオブジェクトDB222から読み出す。この際に、上記の切替処理のステップS66で通知された識別番号に対応する仮想オブジェクト39A、39B、39Cの3次元データを読み出すようにすればよい。 Further, in the display control process (FIG. 17) in the second embodiment, the three-dimensional data of the virtual objects 39A, 39B, and 39C are read from the object DB 222 in steps S42 or S48. At this time, the three-dimensional data of the virtual objects 39A, 39B, 39C corresponding to the identification number notified in step S66 of the switching process may be read out.

以上説明したように、第2実施形態に係るVRシステム200によれば、1つのVRトラッカーと複数のARマーカの各々とを独立に設け、VRトラッカーを装着者の手首等に取り付け、その手でいずれかのARマーカが貼付されたノズル模型を保持する。これにより、保持したノズル模型に貼付されたARマーカに応じて、異なる仮想オブジェクトを描画することができる。また、描画したい仮想オブジェクト数分のVRトラッカーを用意する必要がなく、コストを削減することができる。 As described above, according to the VR system 200 according to the second embodiment, one VR tracker and each of the plurality of AR markers are independently provided, the VR tracker is attached to the wearer's wrist or the like, and the VR tracker is attached by hand. Hold the nozzle model with one of the AR markers affixed. This makes it possible to draw different virtual objects according to the AR marker attached to the held nozzle model. In addition, it is not necessary to prepare VR trackers for the number of virtual objects to be drawn, and the cost can be reduced.

なお、上記第1及び第2実施形態では、消火器又は消火器のノズルを仮想オブジェクトとして描画する場合について説明したが、仮想オブジェクトとする対象物はこれに限定されるものではない。 In the first and second embodiments, the case where the fire extinguisher or the nozzle of the fire extinguisher is drawn as a virtual object has been described, but the object to be a virtual object is not limited to this.

また、上記各実施形態では、対象物の位置及び姿勢の推定にARマーカを用いる場合について説明したが、これに限定されない。ARマーカ以外のマーカを用いてもよいし、マーカを用いることなく、対象物自体の特徴点を検出して、特徴点の配置などから、対象物の位置及び姿勢を推定してもよい。 Further, in each of the above embodiments, the case where the AR marker is used for estimating the position and the posture of the object has been described, but the present invention is not limited to this. A marker other than the AR marker may be used, or the position and posture of the object may be estimated from the arrangement of the feature points by detecting the feature points of the object itself without using the marker.

また、上記各実施形態では、ステレオカメラで撮影された画像を用いてARマーカの位置及び姿勢を推定する場合について説明したが、これに限定されない。例えば、単眼の可視光カメラで撮影された画像から検出したARマーカの画像内での位置、サイズ、及び傾き(歪み)と、ARマーカの実際のサイズと、カメラの焦点距離とに基づいて、ARマーカの位置及び姿勢を推定してもよい。また、赤外線カメラを用いてもよい。この場合、VR画像に表示する背景画像を撮影するための可視光カメラを別途も受けてもよい。 Further, in each of the above embodiments, the case of estimating the position and the posture of the AR marker using the image taken by the stereo camera has been described, but the present invention is not limited to this. For example, based on the position, size, and tilt (distortion) of an AR marker in an image detected from an image taken with a monocular visible light camera, the actual size of the AR marker, and the focal length of the camera. The position and orientation of the AR marker may be estimated. Moreover, you may use an infrared camera. In this case, a visible light camera for taking a background image to be displayed in the VR image may be separately received.

なお、ステレオカメラを用いる場合には、ARマーカの位置及び姿勢を推定するための画像と、VR画像に表示する背景画像とを撮影するためのカメラを別々に設ける必要がない。 When a stereo camera is used, it is not necessary to separately provide an image for estimating the position and orientation of the AR marker and a background image to be displayed on the VR image.

また、上記各実施形態では、表示制御プログラム60、260が記憶部53に予め記憶(インストール)されている態様を説明したが、これに限定されない。開示の技術に係るプログラムは、CD−ROM、DVD−ROM、USBメモリ等の記憶媒体に記憶された形態で提供することも可能である。 Further, in each of the above embodiments, the mode in which the display control programs 60 and 260 are stored (installed) in the storage unit 53 in advance has been described, but the present invention is not limited thereto. The program according to the disclosed technology can also be provided in a form stored in a storage medium such as a CD-ROM, a DVD-ROM, or a USB memory.

以上の各実施形態に関し、更に以下の付記を開示する。 The following additional notes will be further disclosed with respect to each of the above embodiments.

(付記1)
撮影装置によって現実空間を撮影した画像から、前記現実空間に存在する取り扱い可能な物体に対応付けて配置された第1の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
検出装置により、前記物体に対応付けて配置された第2の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
前記第1の指標に基づく前記物体の3次元位置及び姿勢の第1の推定結果と、前記第2の指標に基づく前記物体の3次元位置及び姿勢の第2の推定結果であって、前記検出装置による検出時刻が前記撮影装置による前記画像の撮影時刻と対応する前記第2の推定結果との比較に基づいて、前記第1の推定結果又は前記第2の推定結果を選択し、
選択した前記第1の推定結果又は前記第2の推定結果に基づいて、前記現実空間を撮影した画像に、前記物体に対応する仮想オブジェクトを重畳した画像を表示装置に表示する
ことを含む処理をコンピュータに実行させるための表示制御プログラム。
(Appendix 1)
The three-dimensional position and orientation of the object are estimated by detecting the first index arranged in association with the handleable object existing in the real space from the image obtained by photographing the real space by the photographing device.
By detecting the second index arranged in association with the object by the detection device, the three-dimensional position and posture of the object are estimated.
The detection of the first estimation result of the three-dimensional position and posture of the object based on the first index and the second estimation result of the three-dimensional position and posture of the object based on the second index. The first estimation result or the second estimation result is selected based on the comparison between the shooting time of the image by the photographing device and the second estimation result corresponding to the detection time by the apparatus.
A process including displaying on a display device an image in which a virtual object corresponding to the object is superimposed on an image obtained by capturing the real space based on the selected first estimation result or the second estimation result. A display control program to be executed by a computer.

(付記2)
前記撮影時刻以前の所定時間内の複数の検出時刻に検出された前記第2の指標に基づく前記第2の推定結果のうち、前記第1の推定結果を示すベクトルと、前記第2の推定結果を示すベクトルとの差が予め定めた閾値以内で最小となる前記第2の推定結果を、前記第1の推定結果と対応する前記第2の推定結果とする付記1に記載の表示制御プログラム。
(Appendix 2)
Of the second estimation results based on the second index detected at a plurality of detection times within a predetermined time before the shooting time, the vector showing the first estimation result and the second estimation result. The display control program according to Appendix 1, wherein the second estimation result in which the difference from the vector indicating the above is the minimum within a predetermined threshold value is set as the second estimation result corresponding to the first estimation result.

(付記3)
前記第1の推定結果と対応する前記第2の推定結果が存在する場合、前記第1の推定結果を選択し、前記第1の推定結果と対応する前記第2の推定結果が存在しない場合、前記第2の推定結果を選択する付記2に記載の表示制御プログラム。
(Appendix 3)
When the second estimation result corresponding to the first estimation result exists, the first estimation result is selected, and when the second estimation result corresponding to the first estimation result does not exist, the first estimation result is selected. The display control program according to Appendix 2 for selecting the second estimation result.

(付記4)
前記第2の推定結果を選択する場合、過去に前記第1の推定結果を選択した際の前記第1の推定結果と、前記第1の推定結果と対応する前記第2の推定結果との差を、選択した前記第2の推定結果に加算した値が示す前記物体の3次元位置及び姿勢に基づいて、前記仮想オブジェクトを重畳する付記3に記載の表示制御プログラム。
(Appendix 4)
When selecting the second estimation result, the difference between the first estimation result when the first estimation result is selected in the past and the second estimation result corresponding to the first estimation result. The display control program according to Appendix 3, wherein the virtual object is superimposed based on the three-dimensional position and posture of the object indicated by the value added to the selected second estimation result.

(付記5)
前記閾値を、前記第1の指標の全体が含まれるように撮影された画像から検出された前記第1の指標に基づいて推定した前記第1の推定結果と、前記第1の指標の全体が含まれるように撮影された画像の撮影時刻と対応する検出時刻に検出された第2の指標に基づく前記第2の推定結果との差に基づいて算出する付記2〜付記4のいずれか1項に記載の表示制御プログラム。
(Appendix 5)
The first estimation result obtained by estimating the threshold value based on the first index detected from the image taken so as to include the whole of the first index, and the whole of the first index Any one of Appendix 2 to Appendix 4 calculated based on the difference between the shooting time of the image captured so as to be included and the second estimation result based on the second index detected at the corresponding detection time. The display control program described in.

(付記6)
複数の異なる前記第1の指標の各々を、複数の前記物体の各々に配置し、前記第2の指標を、前記物体を保持する部位に配置する付記1〜付記5のいずれか1項に記載の表示制御プログラム。
(Appendix 6)
The item according to any one of Supplementary note 1 to Supplementary note 5, wherein each of the plurality of different first indexes is arranged in each of the plurality of the objects, and the second index is arranged in the portion holding the object. Display control program.

(付記7)
前記第1の指標は、前記物体の3次元位置及び姿勢に対して既知の3次元位置及び姿勢で配置されたマーカであり、前記撮影された画像上での前記マーカの位置及び姿勢に基づいて、前記物体の3次元位置及び姿勢を推定する付記1〜付記6のいずれか1項に記載の表示制御プログラム。
(Appendix 7)
The first index is a marker arranged in a known three-dimensional position and posture with respect to the three-dimensional position and posture of the object, and is based on the position and posture of the marker on the captured image. The display control program according to any one of Supplementary note 1 to Supplementary note 6, which estimates the three-dimensional position and posture of the object.

(付記8)
前記第2の指標は、VRトラッカーであり、前記検出装置は、前記VRトラッカーの方向及び距離の情報を含むトラッキングデータを検出する付記1〜付記7のいずれか1項に記載の表示制御プログラム。
(Appendix 8)
The display control program according to any one of Supplementary note 1 to Supplementary note 7, wherein the second index is a VR tracker, and the detection device detects tracking data including information on the direction and distance of the VR tracker.

(付記9)
撮影装置によって現実空間を撮影した画像から、前記現実空間に存在する取り扱い可能な物体に対応付けて配置された第1の指標を検出することにより、前記物体の3次元位置及び姿勢を推定する第1推定部と、
検出装置により、前記物体に対応付けて配置された第2の指標を検出することにより、前記物体の3次元位置及び姿勢を推定する第2推定部と、
前記第1の指標に基づく前記物体の3次元位置及び姿勢の第1の推定結果と、前記第2の指標に基づく前記物体の3次元位置及び姿勢の第2の推定結果であって、前記検出装置による検出時刻が前記撮影装置による前記画像の撮影時刻と対応する前記第2の推定結果との比較に基づいて、前記第1の推定結果又は前記第2の推定結果を選択する選択部と、
選択した前記第1の推定結果又は前記第2の推定結果に基づいて、前記現実空間を撮影した画像に、前記物体に対応する仮想オブジェクトを重畳した画像を表示装置に表示する表示制御部と、
を含む表示制御装置。
(Appendix 9)
The third dimension position and orientation of the object are estimated by detecting the first index arranged in association with the handleable object existing in the real space from the image of the real space taken by the photographing device. 1 estimation part and
A second estimation unit that estimates the three-dimensional position and posture of the object by detecting the second index arranged in association with the object by the detection device.
The detection of the first estimation result of the three-dimensional position and posture of the object based on the first index and the second estimation result of the three-dimensional position and posture of the object based on the second index. A selection unit that selects the first estimation result or the second estimation result based on the comparison between the shooting time of the image by the photographing device and the second estimation result corresponding to the detection time by the apparatus.
A display control unit that displays on a display device an image in which a virtual object corresponding to the object is superimposed on an image obtained by capturing the real space based on the selected first estimation result or the second estimation result.
Display control unit including.

(付記10)
前記選択部は、前記撮影時刻以前の所定時間内の複数の検出時刻に検出された前記第2の指標に基づく前記第2の推定結果のうち、前記第1の推定結果を示すベクトルと、前記第2の推定結果を示すベクトルとの差が予め定めた閾値以内で最小となる前記第2の推定結果を、前記第1の推定結果と対応する前記第2の推定結果とする付記9に記載の表示制御装置。
(Appendix 10)
The selection unit includes a vector showing the first estimation result among the second estimation results based on the second index detected at a plurality of detection times within a predetermined time before the shooting time, and the selection unit. The second estimation result in which the difference from the vector indicating the second estimation result is the minimum within a predetermined threshold value is described in Appendix 9 as the second estimation result corresponding to the first estimation result. Display control device.

(付記11)
前記選択部は、前記第1の推定結果と対応する前記第2の推定結果が存在する場合、前記第1の推定結果を選択し、前記第1の推定結果と対応する前記第2の推定結果が存在しない場合、前記第2の推定結果を選択する付記10に記載の表示制御装置。
(Appendix 11)
When the second estimation result corresponding to the first estimation result exists, the selection unit selects the first estimation result and the second estimation result corresponding to the first estimation result. The display control device according to Appendix 10, which selects the second estimation result when is not present.

(付記12)
前記表示制御部は、前記第2の推定結果を選択される場合、過去に前記第1の推定結果を選択した際の前記第1の推定結果と、前記第1の推定結果と対応する前記第2の推定結果との差を、選択した前記第2の推定結果に加算した値が示す前記物体の3次元位置及び姿勢に基づいて、前記仮想オブジェクトを重畳する付記11に記載の表示制御装置。
(Appendix 12)
When the second estimation result is selected, the display control unit has the first estimation result when the first estimation result is selected in the past, and the first estimation result corresponding to the first estimation result. The display control device according to Appendix 11, wherein the virtual object is superimposed based on the three-dimensional position and orientation of the object indicated by the value obtained by adding the difference from the estimation result of 2 to the selected second estimation result.

(付記13)
前記閾値を、前記第1の指標の全体が含まれるように撮影された画像から検出された前記第1の指標に基づいて推定した前記第1の推定結果と、前記第1の指標の全体が含まれるように撮影された画像の撮影時刻と対応する検出時刻に検出された第2の指標に基づく前記第2の推定結果との差に基づいて算出する算出部を含む付記10〜付記12のいずれか1項に記載の表示制御装置。
(Appendix 13)
The first estimation result obtained by estimating the threshold value based on the first index detected from the image taken so as to include the whole of the first index, and the whole of the first index Addendum 10 to Addendum 12 including a calculation unit that calculates based on the difference between the shooting time of the image taken so as to be included and the second estimation result based on the second index detected at the corresponding detection time. The display control device according to any one of the items.

(付記14)
複数の異なる前記第1の指標の各々を、複数の前記物体の各々に配置し、前記第2の指標を、前記物体を保持する部位に配置する付記9〜付記13のいずれか1項に記載の表示制御装置。
(Appendix 14)
The item according to any one of Supplementary note 9 to Supplementary note 13, wherein each of the plurality of different first indexes is arranged in each of the plurality of the objects, and the second index is arranged in the portion holding the object. Display control device.

(付記15)
前記第1の指標は、前記物体の3次元位置及び姿勢に対して既知の3次元位置及び姿勢で配置されたマーカであり、
前記第1推定部は、前記撮影された画像上での前記マーカの位置及び姿勢に基づいて、前記物体の3次元位置及び姿勢を推定する
付記9〜付記14のいずれか1項に記載の表示制御装置。
(Appendix 15)
The first index is a marker arranged in a known three-dimensional position and posture with respect to the three-dimensional position and posture of the object.
The display according to any one of Supplementary note 9 to Supplementary note 14, in which the first estimation unit estimates the three-dimensional position and posture of the object based on the position and posture of the marker on the captured image. Control device.

(付記16)
前記第2の指標は、VRトラッカーであり、前記検出装置は、前記VRトラッカーの方向及び距離の情報を含むトラッキングデータを検出する付記9〜付記15のいずれか1項に記載の表示制御装置。
(Appendix 16)
The display control device according to any one of Supplementary note 9 to Supplementary note 15, wherein the second index is a VR tracker, and the detection device detects tracking data including information on the direction and distance of the VR tracker.

(付記17)
撮影装置によって現実空間を撮影した画像から、前記現実空間に存在する取り扱い可能な物体に対応付けて配置された第1の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
検出装置により、前記物体に対応付けて配置された第2の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
前記第1の指標に基づく前記物体の3次元位置及び姿勢の第1の推定結果と、前記第2の指標に基づく前記物体の3次元位置及び姿勢の第2の推定結果であって、前記検出装置による検出時刻が前記撮影装置による前記画像の撮影時刻と対応する前記第2の推定結果との比較に基づいて、前記第1の推定結果又は前記第2の推定結果を選択し、
選択した前記第1の推定結果又は前記第2の推定結果に基づいて、前記現実空間を撮影した画像に、前記物体に対応する仮想オブジェクトを重畳した画像を表示装置に表示する
ことを含む処理をコンピュータが実行する表示制御方法。
(Appendix 17)
The three-dimensional position and orientation of the object are estimated by detecting the first index arranged in association with the handleable object existing in the real space from the image obtained by photographing the real space by the photographing device.
By detecting the second index arranged in association with the object by the detection device, the three-dimensional position and posture of the object are estimated.
The detection of the first estimation result of the three-dimensional position and posture of the object based on the first index and the second estimation result of the three-dimensional position and posture of the object based on the second index. The first estimation result or the second estimation result is selected based on the comparison between the shooting time of the image by the photographing device and the second estimation result corresponding to the detection time by the apparatus.
A process including displaying on a display device an image in which a virtual object corresponding to the object is superimposed on an image obtained by capturing the real space based on the selected first estimation result or the second estimation result. The display control method performed by the computer.

(付記18)
前記撮影時刻以前の所定時間内の複数の検出時刻に検出された前記第2の指標に基づく前記第2の推定結果のうち、前記第1の推定結果を示すベクトルと、前記第2の推定結果を示すベクトルとの差が予め定めた閾値以内で最小となる前記第2の推定結果を、前記第1の推定結果と対応する前記第2の推定結果とする付記17に記載の表示制御方法。
(Appendix 18)
Of the second estimation results based on the second index detected at a plurality of detection times within a predetermined time before the shooting time, the vector showing the first estimation result and the second estimation result. The display control method according to Appendix 17, wherein the second estimation result in which the difference from the vector indicating the above is the minimum within a predetermined threshold value is the second estimation result corresponding to the first estimation result.

(付記19)
前記第1の推定結果と対応する前記第2の推定結果が存在する場合、前記第1の推定結果を選択し、前記第1の推定結果と対応する前記第2の推定結果が存在しない場合、前記第2の推定結果を選択する付記18に記載の表示制御方法。
(Appendix 19)
When the second estimation result corresponding to the first estimation result exists, the first estimation result is selected, and when the second estimation result corresponding to the first estimation result does not exist, the first estimation result is selected. The display control method according to Appendix 18 for selecting the second estimation result.

(付記20)
撮影装置によって現実空間を撮影した画像から、前記現実空間に存在する取り扱い可能な物体に対応付けて配置された第1の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
検出装置により、前記物体に対応付けて配置された第2の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
前記第1の指標に基づく前記物体の3次元位置及び姿勢の第1の推定結果と、前記第2の指標に基づく前記物体の3次元位置及び姿勢の第2の推定結果であって、前記検出装置による検出時刻が前記撮影装置による前記画像の撮影時刻と対応する前記第2の推定結果との比較に基づいて、前記第1の推定結果又は前記第2の推定結果を選択し、
選択した前記第1の推定結果又は前記第2の推定結果に基づいて、前記現実空間を撮影した画像に、前記物体に対応する仮想オブジェクトを重畳した画像を表示装置に表示する
ことを含む処理をコンピュータに実行させるための表示制御プログラムを記憶した記憶媒体。
(Appendix 20)
The three-dimensional position and orientation of the object are estimated by detecting the first index arranged in association with the handleable object existing in the real space from the image obtained by photographing the real space by the photographing device.
By detecting the second index arranged in association with the object by the detection device, the three-dimensional position and posture of the object are estimated.
The detection of the first estimation result of the three-dimensional position and posture of the object based on the first index and the second estimation result of the three-dimensional position and posture of the object based on the second index. The first estimation result or the second estimation result is selected based on the comparison between the shooting time of the image by the photographing device and the second estimation result corresponding to the detection time by the apparatus.
A process including displaying on a display device an image in which a virtual object corresponding to the object is superimposed on an image obtained by capturing the real space based on the selected first estimation result or the second estimation result. A storage medium that stores a display control program to be executed by a computer.

10、210 表示制御装置
12 ARマーカ推定部
14 トラッキング推定部
15 閾値算出部
16 選択部
18、218 表示制御部
219 切替部
21 閾値DB
22、222 オブジェクトDB
23 履歴テーブル
31 VRトラッキング装置
32 ステレオカメラ
33 HMD
34 ハンドル模型
34A、34B、34C ノズル模型
35、35A、35B、35C ARマーカ
36 VRトラッカー
39、39A、39B 仮想オブジェクト
40 装着者
50 コンピュータ
51 CPU
52 メモリ
53 記憶部
59 記憶媒体
60、260 表示制御プログラム
100、200 VRシステム
10, 210 Display control device 12 AR marker estimation unit 14 Tracking estimation unit 15 Threshold calculation unit 16 Selection unit 18, 218 Display control unit 219 Switching unit 21 Threshold DB
22,222 Object DB
23 History table 31 VR tracking device 32 Stereo camera 33 HMD
34 Handle model 34A, 34B, 34C Nozzle model 35, 35A, 35B, 35C AR marker 36 VR tracker 39, 39A, 39B Virtual object 40 Wearer 50 Computer 51 CPU
52 Memory 53 Storage unit 59 Storage medium 60, 260 Display control program 100, 200 VR system

Claims (10)

撮影装置によって現実空間を撮影した画像から、前記現実空間に存在する取り扱い可能な物体に対応付けて配置された第1の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
検出装置により、前記物体に対応付けて配置された第2の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
前記第1の指標に基づく前記物体の3次元位置及び姿勢の第1の推定結果と、前記第2の指標に基づく前記物体の3次元位置及び姿勢の第2の推定結果であって、前記検出装置による検出時刻が前記撮影装置による前記画像の撮影時刻と対応する前記第2の推定結果との比較に基づいて、前記第1の推定結果又は前記第2の推定結果を選択し、
選択した前記第1の推定結果又は前記第2の推定結果に基づいて、前記現実空間を撮影した画像に、前記物体に対応する仮想オブジェクトを重畳した画像を表示装置に表示する
ことを含む処理をコンピュータに実行させるための表示制御プログラム。
The three-dimensional position and orientation of the object are estimated by detecting the first index arranged in association with the handleable object existing in the real space from the image obtained by photographing the real space by the photographing device.
By detecting the second index arranged in association with the object by the detection device, the three-dimensional position and posture of the object are estimated.
The detection of the first estimation result of the three-dimensional position and posture of the object based on the first index and the second estimation result of the three-dimensional position and posture of the object based on the second index. The first estimation result or the second estimation result is selected based on the comparison between the shooting time of the image by the photographing device and the second estimation result corresponding to the detection time by the apparatus.
A process including displaying on a display device an image in which a virtual object corresponding to the object is superimposed on an image obtained by capturing the real space based on the selected first estimation result or the second estimation result. A display control program to be executed by a computer.
前記撮影時刻以前の所定時間内の複数の検出時刻に検出された前記第2の指標に基づく前記第2の推定結果のうち、前記第1の推定結果を示すベクトルと、前記第2の推定結果を示すベクトルとの差が予め定めた閾値以内で最小となる前記第2の推定結果を、前記第1の推定結果と対応する前記第2の推定結果とする請求項1に記載の表示制御プログラム。 Of the second estimation results based on the second index detected at a plurality of detection times within a predetermined time before the shooting time, the vector showing the first estimation result and the second estimation result. The display control program according to claim 1, wherein the second estimation result in which the difference from the vector indicating the above is the minimum within a predetermined threshold value is the second estimation result corresponding to the first estimation result. .. 前記第1の推定結果と対応する前記第2の推定結果が存在する場合、前記第1の推定結果を選択し、前記第1の推定結果と対応する前記第2の推定結果が存在しない場合、前記第2の推定結果を選択する請求項2に記載の表示制御プログラム。 When the second estimation result corresponding to the first estimation result exists, the first estimation result is selected, and when the second estimation result corresponding to the first estimation result does not exist, the first estimation result is selected. The display control program according to claim 2, wherein the second estimation result is selected. 前記第2の推定結果を選択する場合、過去に前記第1の推定結果を選択した際の前記第1の推定結果と、前記第1の推定結果と対応する前記第2の推定結果との差を、選択した前記第2の推定結果に加算した値が示す前記物体の3次元位置及び姿勢に基づいて、前記仮想オブジェクトを重畳する請求項3に記載の表示制御プログラム。 When selecting the second estimation result, the difference between the first estimation result when the first estimation result is selected in the past and the second estimation result corresponding to the first estimation result. The display control program according to claim 3, wherein the virtual object is superimposed based on the three-dimensional position and posture of the object indicated by the value added to the selected second estimation result. 前記閾値を、前記第1の指標の全体が含まれるように撮影された画像から検出された前記第1の指標に基づいて推定した前記第1の推定結果と、前記第1の指標の全体が含まれるように撮影された画像の撮影時刻と対応する検出時刻に検出された第2の指標に基づく前記第2の推定結果との差に基づいて算出する請求項2〜請求項4のいずれか1項に記載の表示制御プログラム。 The first estimation result obtained by estimating the threshold value based on the first index detected from the image taken so as to include the whole of the first index, and the whole of the first index Any of claims 2 to 4 calculated based on the difference between the shooting time of the image taken to be included and the second estimation result based on the second index detected at the corresponding detection time. The display control program according to item 1. 複数の異なる前記第1の指標の各々を、複数の前記物体の各々に配置し、前記第2の指標を、前記物体を保持する部位に配置する請求項1〜請求項5のいずれか1項に記載の表示制御プログラム。 One of claims 1 to 5, wherein each of the plurality of different first indexes is arranged in each of the plurality of objects, and the second index is arranged in a portion holding the object. The display control program described in. 前記第1の指標は、前記物体の3次元位置及び姿勢に対して既知の3次元位置及び姿勢で配置されたマーカであり、前記撮影された画像上での前記マーカの位置及び姿勢に基づいて、前記物体の3次元位置及び姿勢を推定する請求項1〜請求項6のいずれか1項に記載の表示制御プログラム。 The first index is a marker arranged in a known three-dimensional position and orientation with respect to the three-dimensional position and orientation of the object, and is based on the position and orientation of the marker on the captured image. The display control program according to any one of claims 1 to 6, which estimates the three-dimensional position and orientation of the object. 前記第2の指標は、VRトラッカーであり、前記検出装置は、前記VRトラッカーの方向及び距離の情報を含むトラッキングデータを検出する請求項1〜請求項7のいずれか1項に記載の表示制御プログラム。 The display control according to any one of claims 1 to 7, wherein the second index is a VR tracker, and the detection device detects tracking data including information on the direction and distance of the VR tracker. program. 撮影装置によって現実空間を撮影した画像から、前記現実空間に存在する取り扱い可能な物体に対応付けて配置された第1の指標を検出することにより、前記物体の3次元位置及び姿勢を推定する第1推定部と、
検出装置により、前記物体に対応付けて配置された第2の指標を検出することにより、前記物体の3次元位置及び姿勢を推定する第2推定部と、
前記第1の指標に基づく前記物体の3次元位置及び姿勢の第1の推定結果と、前記第2の指標に基づく前記物体の3次元位置及び姿勢の第2の推定結果であって、前記検出装置による検出時刻が前記撮影装置による前記画像の撮影時刻と対応する前記第2の推定結果との比較に基づいて、前記第1の推定結果又は前記第2の推定結果を選択する選択部と、
選択した前記第1の推定結果又は前記第2の推定結果に基づいて、前記現実空間を撮影した画像に、前記物体に対応する仮想オブジェクトを重畳した画像を表示装置に表示する表示制御部と、
を含む表示制御装置。
The third dimension position and orientation of the object are estimated by detecting the first index arranged in association with the handleable object existing in the real space from the image of the real space taken by the photographing device. 1 estimation part and
A second estimation unit that estimates the three-dimensional position and posture of the object by detecting the second index arranged in association with the object by the detection device.
The detection of the first estimation result of the three-dimensional position and posture of the object based on the first index and the second estimation result of the three-dimensional position and posture of the object based on the second index. A selection unit that selects the first estimation result or the second estimation result based on the comparison between the shooting time of the image by the photographing device and the second estimation result corresponding to the detection time by the apparatus.
A display control unit that displays on a display device an image in which a virtual object corresponding to the object is superimposed on an image obtained by capturing the real space based on the selected first estimation result or the second estimation result.
Display control unit including.
撮影装置によって現実空間を撮影した画像から、前記現実空間に存在する取り扱い可能な物体に対応付けて配置された第1の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
検出装置により、前記物体に対応付けて配置された第2の指標を検出することにより、前記物体の3次元位置及び姿勢を推定し、
前記第1の指標に基づく前記物体の3次元位置及び姿勢の第1の推定結果と、前記第2の指標に基づく前記物体の3次元位置及び姿勢の第2の推定結果であって、前記検出装置による検出時刻が前記撮影装置による前記画像の撮影時刻と対応する前記第2の推定結果との比較に基づいて、前記第1の推定結果又は前記第2の推定結果を選択し、
選択した前記第1の推定結果又は前記第2の推定結果に基づいて、前記現実空間を撮影した画像に、前記物体に対応する仮想オブジェクトを重畳した画像を表示装置に表示する
ことを含む処理をコンピュータが実行する表示制御方法。
The three-dimensional position and orientation of the object are estimated by detecting the first index arranged in association with the handleable object existing in the real space from the image obtained by photographing the real space by the photographing device.
By detecting the second index arranged in association with the object by the detection device, the three-dimensional position and posture of the object are estimated.
The detection of the first estimation result of the three-dimensional position and posture of the object based on the first index and the second estimation result of the three-dimensional position and posture of the object based on the second index. The first estimation result or the second estimation result is selected based on the comparison between the shooting time of the image by the photographing device and the second estimation result corresponding to the detection time by the apparatus.
A process including displaying on a display device an image in which a virtual object corresponding to the object is superimposed on an image obtained by capturing the real space based on the selected first estimation result or the second estimation result. The display control method performed by the computer.
JP2018065063A 2018-03-29 2018-03-29 Display control programs, devices, and methods Active JP6981340B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018065063A JP6981340B2 (en) 2018-03-29 2018-03-29 Display control programs, devices, and methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018065063A JP6981340B2 (en) 2018-03-29 2018-03-29 Display control programs, devices, and methods

Publications (2)

Publication Number Publication Date
JP2019175294A JP2019175294A (en) 2019-10-10
JP6981340B2 true JP6981340B2 (en) 2021-12-15

Family

ID=68167103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018065063A Active JP6981340B2 (en) 2018-03-29 2018-03-29 Display control programs, devices, and methods

Country Status (1)

Country Link
JP (1) JP6981340B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023048014A (en) 2021-09-27 2023-04-06 株式会社Jvcケンウッド Display device, control method for display device, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000102036A (en) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk Composite actual feeling presentation system, composite actual feeling presentation method, man-machine interface device and man-machine interface method
JP2007004714A (en) * 2005-06-27 2007-01-11 Canon Inc Information processing method and information processing unit

Also Published As

Publication number Publication date
JP2019175294A (en) 2019-10-10

Similar Documents

Publication Publication Date Title
JP6690041B2 (en) Method and device for determining point of gaze on three-dimensional object
US20210131790A1 (en) Information processing apparatus, information processing method, and recording medium
KR101761751B1 (en) Hmd calibration with direct geometric modeling
JP6598617B2 (en) Information processing apparatus, information processing method, and program
JP5762892B2 (en) Information display system, information display method, and information display program
JP3631151B2 (en) Information processing apparatus, mixed reality presentation apparatus and method, and storage medium
CN106125903B (en) Multi-person interaction system and method
US10802606B2 (en) Method and device for aligning coordinate of controller or headset with coordinate of binocular system
US20190033988A1 (en) Controller tracking for multiple degrees of freedom
US9682482B2 (en) Autonomous moving device and control method of autonomous moving device
KR20160096473A (en) System and method for motion evaluation
US10573083B2 (en) Non-transitory computer-readable storage medium, computer-implemented method, and virtual reality system
JP6452235B2 (en) Face detection method, face detection device, and face detection program
WO2021130860A1 (en) Information processing device, control method, and storage medium
JP2005256232A (en) Method, apparatus and program for displaying 3d data
KR20170103365A (en) high-speed operation of the object based object trajectory tracking apparatus and method therefor
EP3714955A1 (en) Video tracking system and method
Makibuchi et al. Vision-based robust calibration for optical see-through head-mounted displays
JP2009258884A (en) User interface
KR101896827B1 (en) Apparatus and Method for Estimating Pose of User
JP4566786B2 (en) Position and orientation measurement method and information processing apparatus
JP6981340B2 (en) Display control programs, devices, and methods
CN111539299A (en) Human motion capture method, device, medium and equipment based on rigid body
JP7398227B2 (en) Work support systems and programs
US20200258193A1 (en) Information processing apparatus, information processing method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211019

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211101

R150 Certificate of patent or registration of utility model

Ref document number: 6981340

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150