JP5118152B2 - プロファイリングシステムのためのヘッドマウントディスプレイ装置 - Google Patents

プロファイリングシステムのためのヘッドマウントディスプレイ装置 Download PDF

Info

Publication number
JP5118152B2
JP5118152B2 JP2009547496A JP2009547496A JP5118152B2 JP 5118152 B2 JP5118152 B2 JP 5118152B2 JP 2009547496 A JP2009547496 A JP 2009547496A JP 2009547496 A JP2009547496 A JP 2009547496A JP 5118152 B2 JP5118152 B2 JP 5118152B2
Authority
JP
Japan
Prior art keywords
image
eye
characterization
mounted display
subsurface medium
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009547496A
Other languages
English (en)
Other versions
JP2010517187A (ja
Inventor
リウ ダニエル
Original Assignee
ミクロマンタイス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ミクロマンタイス インコーポレイテッド filed Critical ミクロマンタイス インコーポレイテッド
Publication of JP2010517187A publication Critical patent/JP2010517187A/ja
Application granted granted Critical
Publication of JP5118152B2 publication Critical patent/JP5118152B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/02Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices involving prisms or mirrors
    • G02B23/10Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices involving prisms or mirrors reflecting into the field of view additional indications, e.g. from collimator
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、表面下に位置する媒体の非侵入型検査の分野に関するものである。より詳しくは、表面下の媒体の特性を表示することに関係する。
例えば地球物理学調査の分野では、非破壊であるために非浸入型技術が望まれ、ボーリング技術を用いる従来の現場試験技術の補完又は代替技術として開発されてきた。例えば粒状土など、ボーリングが不可能な幾つかのケースでは、このような非侵入型技術が地下を調査する唯一の方法である。また、非侵入型技術は、通常、費用対効果がより優れている。
例えば、道、橋、建物の鉄筋結合、コンクリート壁、などの構造状況を評価するために、あるいは、鉱業または軍事用では、表面下の特徴(例えば空隙、隠れた基礎構造、または許容支持荷重)を検出するためなど、種々の他分野で表面下に位置する媒体を調査するために非侵入型技術が用いられる。
一般的に、特性媒体の一部分の2次元または3次元プロファイルまたは特性媒体の分析データがコンピューターモニターに表示される。この表示データは、非専門家のユーザがこのデータを特性の実用のために解釈し使用するには不便である。
したがって、当該分野での努力にも拘わらず、表面下の媒体のプロファイリングと特性データの使い易い表示を可能にするシステムの必要性が依然として存在する。
米国特許7073405号明細書(2006年7月11日発行)
道、橋、建物の鉄筋結合、コンクリート壁、などの構造状況を評価する際に、または、鉱業または軍事用において表面下の特徴を検出する際に、表面下の媒体を3次元で視覚化するのは便利である。現実の表面を重ね合わせて表面下の媒体を、まるでユーザが表面を透かして見えるように視覚化して、ユーザが現実環境で表面下の特徴の位置を見ることができるようにするとさらに便利である。本発明の態様によれば、ユーザは、現実環境に関連づけられた表面下の媒体のイメージを立体的に表示する仮想現実ゴーグルと同様のヘッドマウントディスプレイを装着する。イメージはユーザの現実環境と重ね合わされるため、ユーザは表面の周囲を歩き回って、3次元内で表面下の媒体をまるで表面を透かして見るように見ることができる。
したがって、本発明は、プロファイリングシステムによって提供される、ユーザの現実環境に関連づけられた表面下の媒体の特性のイメージを表示することによって、表面を透かして媒体を可視化するヘッドマウントディスプレイを提供する。表面下の媒体のイメージは、ユーザの現実環境と重ね合わせて、ヘッドマウントディスプレイを装着している人の片方または両方の眼前に投影される。ヘッドマウントディスプレイは、現実環境におけるその位置と方位を決定するために、例えば慣性ポジショニングセンサなどの、ポジショニングセンサを備える。ユーザが媒体の周囲を移動するにつれて、媒体のイメージ表示がまるで媒体が表面を透して見えるかのように更新される。本発明の1つの実施例では、表面下の媒体のイメージは立体的に示され、それによってユーザが媒体を3次元で視覚化できる。
例えば、このようなヘッドマウントディスプレイは、掘削プロジェクトにてバックホウ(掘削機)などの重機のオペレータが用いるのに都合がよい。本発明のヘッドマウントディスプレイを用いることにより、オペレータは、表面を半透明の材料とみなして、表面下のパイプラインまたは障害を見ることができ、その結果として運転を調節することが可能である。もう一つの例は、基礎構造検査におけるヘッドマウントディスプレイの利用である。本発明のヘッドマウントディスプレイは、表面下にある異なる密度の区域の視覚化を可能にする。それゆえ、検査官は表面を透して基礎構造を検査することができる。さらに、坑井掘削アプリケーションでは、地下構造と穿孔シャフトを視覚化することによって、爆薬の数と配置を最適化することもできる。
発明の一態様は、ユーザが表面下の媒体の特性を視覚化するために使用するヘッドマウントディスプレイ装置を提供する。このディスプレイ装置は、入力段とポジショニングセンサと演算装置と第1のディスプレイシステムとを備える。入力段は、基準系における3次元表現の表面下の媒体の特性化モデルを受信するためのものである。このモデルは、プロファイリングシステムを用いて提供される。ポジショニングセンサは、基準系におけるユーザの第1の眼の位置および方向を感知するためのものである。演算装置は、第1の位置および方向の第1の眼の前方に位置する第1の表面に前記モデルを透視投影して、表面下の媒体の第1の特性化イメージを提供するためのものである。第1のディスプレイシステムは、表面下の媒体の第1の特性化イメージを、第1の眼の前方の現実環境の第1のイメージと重ね合わせて第1の表面に表示するためのものである。
発明の別態様は、ユーザが表面下の媒体の特性を視覚化するために使用するシステムを提供する。このシステムは、表面下の媒体の特性化を提供するプロファイリングシステムと、表面下の媒体の特性化を処理して基準系における3次元グラフィック表現の表面下の媒体の特性化モデルを提供する3次元モデル処理装置と、ヘッドマウントディスプレイ装置とを備える。ヘッドマウントディスプレイは、基準系におけるユーザの第1の目の位置および方向を感知するポジショニングセンサと、表面下の媒体の第1の特性化イメージを提供するために、当該位置および方向の第1の眼の前方に位置する第1の表面に前記モデルを透視投影する演算装置と、表面下の媒体の第1の特性化イメージを第1の眼の前方の現実環境と重ね合わせて第1の表面に表示する第1のディスプレイシステムとを有する。
発明の別態様は、ユーザのために表面下の媒体の特性を視覚化する方法を提供する。この方法は、表面下の媒体の特性化を提供するステップと、表面下の媒体の特性化を処理して、基準系における3次元図形表現の表面下の媒体の特性化モデルを提供するステップと、基準系におけるユーザの第1の眼の第1の位置および方向を感知するステップと、第1の眼の前方に位置する第1の表面を定めるステップと、第1の眼の前に位置する第1の表面に前記モデルを透視投影して、表面下の媒体の第1の特性化イメージを提供するステップと、第1の眼の前に現実環境のイメージを提供するステップと、第1の眼の前の現実環境のイメージと重ね合わせて、表面下の媒体の第1の特性化イメージを第1の表面に表示するステップとを備える。
本発明の別態様は、ユーザが表面下の媒体の特性を視覚化するために使用するヘッドマウントディスプレイ装置を提供する。このディスプレイ装置は、入力段とポジショニングセンサと演算装置と第1のディスプレイシステムとを備える。入力段は、基準系における3次元表現の表面下の媒体の特性化モデルを受信する。ポジショニングセンサは、ユーザの第1の眼の基準系における位置および方向を感知する。演算装置は、第1の位置および方向の第1の眼の前方に位置する第1の表面に前記モデルを透視投影し、表面下の媒体の第1の特性化イメージを提供する。第1のディスプレイシステムは、表面下の媒体の第1の特性化イメージを第1の眼の前方の現実環境のイメージと重ね合わせて第1の表面に表示する。
発明の別の態様は、ユーザが表面下の媒体の特性を視覚化するために使用するヘッドマウントディスプレイ装置を提供する。このディスプレイ装置は、入力段とメモリとポジショニングセンサと演算装置と一対のディスプレイシステムとを備える。入力段は、基準系における3次元グラフィック表現の表面下の媒体の特性化モデルをモデル処理装置から受信する。メモリはこのモデルを保存し、このモデルの保存後に、入力段を上述のモデル処理装置から切り離せるようにする。ポジショニングセンサは、基準系におけるヘッドマウントディスプレイ装置の位置および方向を感知する。演算装置は、前記モデルと前記位置および方向とから、表面下の媒体の一対の立体特性化イメージを提供する。立体表示システムは、一対の現実環境のイメージと重ね合わせて表面下の媒体の一対の立体特性化イメージをユーザの眼の前方に表示する。
本発明の実施例による、各々の眼の前方にシースルーのディスプレイスクリーンを有し、表面を透して媒体を視覚化する表示デバイスに使われるヘッドマウントディスプレイの正面図である。 発明の別実施例による、各々の眼の前方にカメラを有し、表面を透して媒体を視覚化する表示デバイスに使われるヘッドマウントディスプレイの斜視図である。 1つの表面上への3次元モデルの投影を説明する概略図である。 2つ(両眼に対して各1つ)の表面上への3次元モデルの投影を説明する概略図である。 本発明の実施例に従った表示デバイスを説明するブロック図である。 基準系にヘッドマウントディスプレイを関連付ける方法を説明する概略図である。 基準系にヘッドマウントディスプレイを関連付ける方法を説明するフローチャートである。
本発明の更なる特徴および効果は、添付図面と組み合わせた以下の詳細な説明から明らかになる。なお、添付の全図面を通して、同様の構成要素は同様の参照番号で示されている点に注意されたい。
図面を参照するに、図1は、表面を透して媒体を視覚化するために用いるヘッドマウントディスプレイ100の例を示す。ヘッドマウントディスプレイ100は、ユーザの眼の前方に装着するように構成され、光を透過する2つのシースルーの画面110a,110bを有し、ユーザがシースルーの画面110a,110bを通して眼の前の現実環境を直接見ることができるようになっている。表面下の媒体のイメージは、各々のシースルーの画面110a,110bの上に投影される。媒体の特性がユーザに3次元で見えるように、右眼および左眼に提供されるイメージは媒体の特性化モデルの立体的なグラフィック表示に対応する。まるでユーザが表面を透かして見ることができるかのように媒体の特性を視覚化するために、特性媒体の周りをユーザが動くにつれて、イメージはリアルタイムに更新される。シースルーの画面110a,110bはシースルーの有機発光ダイオードデバイスを使うことができる(Liteye Systems IncのLe−750aシリーズを参照)。
図2は、表面を通して媒体を視覚化するために使われるヘッドマウントディスプレイ200の別の例を示す。図1のヘッドマウントディスプレイ100のように、図2のヘッドマウントディスプレイはユーザの眼の前方に着用するように構成されるが、ヘッドマウントディスプレイ200を装着しなければ見ることができるユーザ前方の現実環境のイメージを得るために、各々の眼の前に配置されるカメラ210a,210bを有する。カメラ210a,210bによって捉えられたイメージは、2つのディスプレイシステムを用いてユーザの眼の前にリアルタイムに表示される。例えば、各々のディスプレイシステムとしては、液晶ダイオードデバイスまたは有機発光ダイオードデバイスを使うことができる。ヘッドマウントディスプレイ200を装着しなければ見ることができる世界をユーザが立体的に見ることができるように、現実環境のイメージはリアルタイムに更新される。しかし、表面下の媒体の特性化イメージが現実環境のイメージと立体的に重ねあわされる。通常、図2のヘッドマウントディスプレイの結果は、図1のヘッドマウントディスプレイの結果に同様である。図2のヘッドマウントディスプレイ200は赤外線に感受性があるカメラ210a,210bを使うことができ、赤外線はディスプレイシステムを用いて表示イメージに変換される。このようなヘッドマウントディスプレイ200は、暗視または暗い環境で使用するために特に役に立つ。
他のヘッドマウントディスプレイも考えられる。単眼ヘッドマウントディスプレイは、1つの眼のみに表面下の媒体のイメージを表示する1つのディスプレイシステムだけを使用する。単眼構成は第2の眼の視覚に何の変更も与えなくてよいので有利であるが、媒体が2次元でのみ示される。
図3は、表面下の媒体の特性化イメージを提供するために、表面下の媒体の3次元(3D)特性化モデル312を1つの表面314(この事例では平面)の上に透視投影することを説明する。表面下の媒体の3次元特性化モデル312は基準系310に関連して提供される。図示の例は、媒体の特性化イメージがユーザの一方の眼の前にだけ提供されるヘッドマウントディスプレイに対応する(単眼構成)、あるいは、同じイメージが両眼にモノラルビジョン(立体視でない)で提供されるヘッドマウントディスプレイに対応する。例えば、モノラルビジョンでは、現実環境のイメージを提供するためにヘッドマウントディスプレイの上に1つのカメラを設けるだけでよく、同じイメージを両眼に表示する。
イメージが投影されるスクリーンが湾曲している場合には、湾曲面上に投影することができる点に注意されたい。
表面下の媒体を特性化するトモグラフィは、特許文献1に記載されているプロファイリングシステムから得られる。プロファイリングシステムは、表面上に配置されたセンサを用い、インパルス発生器で発生された刺激によって検査する表面下の媒体で誘発されるねじれ波の加速度を検出して表面下の媒体の特性化を提供する。センサは、検査する表面の全部を覆うように配置することができる、あるいは、より大きな表面を覆うまたは特性化のより良い解像力を提供するために特性化手順の間にそれらの位置を動かすことができる。ユーザ計算インターフェースは、センサから受信する加速度信号を処理して媒体の特性化断層撮影像を提供する。断層撮影像は、媒体の物理的特性および機械的特性あるいは他の分析データを含む。
3次元の特性化モデル312を提供するために、トモグラフィは、3次元分析と地質学ベースのアルゴリズムとを用いて断層撮影像の並置および補間を実行する3次元モデルプロセッサに提供される。提供される3次元特性化モデル312は、3次元の媒体の特性のグラフィック表示である。1つの実施例では、3次元モデルプロセッサは、特に地質工学的なアプリケーションのために設計されたソフトウェア(例えばミラ地球科学社によって提供される、GOCADソフトウェアの上で実行する3DGISモジュール)を使用する。提供される3次元特性化モデル312は、例えば摩擦速度、密度、ポアソンの比率、機械的インピーダンス、ずれ弾性率、ヤング率、その他の特性を有する。この処理は、さらに例えば液化係数、岩の深さ、基層の深さ、その他の種々のデータを提供することができる。
提供される三次元の特性化モデル312は、基準系310に関連して提供される。以下に考察されるように、媒体の異なる領域を見るために、ユーザが移動するにつれて、あるいは、頭を回すにつれて、ヘッドマウントディスプレイ100,200と基準系との間の相対位置および方向がリアルタイムに感知され、かつ更新される。これは、ヘッドマウントディスプレイにあるポジショニングセンサを用いてなされる。ユーザが媒体の周りを移動するにつれて、ユーザの眼の前方に表示されるイメージが更新されて、まるで表面を透して見ることができるように媒体の特性のグラフィック表示が提供される。したがって、ユーザの片方の眼の前の(ヘッドマウントディスプレイの)表面314は基準系で定められ、現実環境のイメージが表示されるスクリーンの位置に一致する。それゆえ図3で示すように、3次元の特性化モデルは、感知された眼の位置と方向に従って演算装置で投影面314の上に透視投影され、媒体の特性化イメージを提供する。このイメージは、ユーザの眼の前に表示される。この表示されるイメージは媒体の関連する特性のグラフィック表示であり、表示される特徴はまるで表面が透明であるかのようにイメージ上に位置してユーザが表面を透して特徴のグラフィック表示を見ることが可能にある。媒体特性化イメージは、ユーザがヘッドマウントディスプレイを装着しなかった場合に見るイメージに一致する、ユーザの眼の前の現実環境のイメージに重ね合わされ表示される。現実環境のイメージは、シースルーのスクリーン(図1参照)の利用(単にスクリーンを通して透過するイメージ)によっても提供される、あるいは、眼の前方に配置したカメラ(図2参照)の利用によっても提供される(画像処理アルゴリズムを使用して、カメラからのイメージを、媒体特性化イメージに数値的に重ね合わせる)。図3の投影方式は、表面下の媒体のイメージを一方の眼のみに表示する単一ディスプレイシステムを有するヘッドマウントディスプレイで用いられる。また、2つのディスプレイシステム(各々の眼に対して1つ)を有する、モノラルビジョンの(立体視ではない)ヘッドマウントディスプレイデバイスでも用いられる。
図4は、3次元モデル312を2つ(各々の眼に対して1つ)の表面314a,314bの上へ透視投影して立体的な媒体の視覚化を提供する方法を説明する。図3の説明図との唯一の違いは、図4では、三次元知覚を提供するように、ヘッドマウントディスプレイが各々の眼に対し異なる媒体特性化イメージをユーザに提供する場合を示している点にある。右眼および左眼の前に表示されるイメージは、図3についての上記説明に従って提供される。しかし、2つの投影面(すなわち右の表面の314aと左の表面の314b)は、基準系にて感知されたヘッドマウントディスプレイの位置および方向に従って左右の眼の前に定められる。そして、それぞれの位置および方向に従って各々の眼に対して異なる3次元の特性化モデルの投影が実行される。この方法により、表面下の媒体のグラフィック表示の三次元透視が提供される。
図5は、表面下の媒体の特性を視覚化するためにユーザが装着するヘッドマウントディスプレイ200と、ユーザが表面と相対的に移動する際にユーザに所持され、データを処理してユーザに表示するイメージを生成する制御ユニット512とを備えている。表示デバイス500の種々の機能ブロックを説明する。先に説明したように、制御ユニット512は3次元モデルプロセッサ562から3次元特性化モデルを受信する。3次元特性化モデルは、特許文献1に記載されているようなプロファイリングシステム560によって提供される表面下の媒体の特性化断層撮影像を3次元モデルプロセッサ562で処理することによって提供される。
ヘッドマウントディスプレイ200と制御ユニット512は、任意の有線プロトコル(例えばUSBプロトコルまたはFirewireプロトコルなど)を使用して、または任意の無線リンクプロトコル(例えば無線周波数または赤外線リンクなど)を使用して通信できる。説明する実施例では、ヘッドマウントディスプレイ200と制御ユニット512は有線接続されるが、ひとつの変形例では、両方のユニットが互いに通信するために無線通信インターフェースを有し、各々のユニットが自身の電源を有する。
ビデオカメラ520a,520bは、右眼および左眼の前で現実の環境のイメージを得るために、それぞれ右眼および左眼の前に配置される。ユーザが表面と相対的に動くにつれて現実環境のイメージが連続的に更新されるように、ビデオカメラは連続的に映像信号を提供する。映像信号は、制御ユニット512に提供される前にA/Dコンバータ526a,526bを用いてデジタル信号に変換される。
ヘッドマウントディスプレイ200は、表面下の媒体を立体的に視覚化するために、各々の眼のためにディスプレイシステム522a,522bを有する。ディスプレイシステム522a,522bは、それぞれビデオコントローラ528a,528bによって制御される。映像信号は、制御ユニット512によってビデオコントローラ528a,528bに提供される。
ポジショニングセンサ524(すなわち加速度計ベースの慣性ポジショニングセンサ)は、現実環境におけるヘッドマウントディスプレイの位置および方向を決定するために、ヘッドマウントディスプレイ200に設けられる。ユーザが媒体周辺を移動するにつれて、ヘッドマウントディスプレイの位置および方向が感知されて、信号コンディショナー530を用いて信号増幅および信号調節の後に制御ユニット512に提供される。信号コンディショナー530は、自動利得アナログアンプとアンチエイリアスフィルタとを備える。ポジショニングセンサ524は、ヘッドマウン・ディスプレイの位置および方向を提供するために、平行移動三軸加速度計のポジショニングセンサと回転三軸加速度計のポジショニングセンサを備える。本説明は、ヘッドマウントディスプレイ200がすでに3次元特性化モデルの基準系に関連付けられていると仮定する。基準系にヘッドマウントディスプレイを関連付ける方法を以下に説明する。制御ユニット512は、基準系におけるヘッドマウントディスプレイの位置と方向を用いて、各々の眼の位置および方向をキャリブレーションパラメータで決定する。アナログポジショニング信号は、ポジショニング信号をデジタル変換するA/Dコンバータ548を有する制御ユニット512に提供される。
デジタルポジショニング信号およびデジタルビデオ画像は演算装置540に提供される。また、演算装置は通信インターフェース542から3次元特性化モデルを受信し、これをメモリ546に保存する。したがって、表面下の媒体の特性化がプロファイリングシステム560によって達成され、得られた特性化は3次元モデルプロセッサ562によって3次元特性化モデルに変換された後に、3次元モデルがヘッドマウントディスプレイによる使用のためにディスプレイ装置500に伝送されて保存される。伝送が完了すると、3次元モデルプロセッサ562は接続を断つことができ、ユーザはディスプレイ装置500を所持しながら媒体と相対的に自由に移動することができる。ヘッドマウントディスプレイの表示等を制御するために、演算装置は関連付け手順の間に使用すべきユーザ入力544からのコマンドも受信する。ユーザ入力544は、コマンドを入力するためのボタン、スクロールホイールまたは他の手段を備える。さらにまた、制御ユニット512は、電源552と、制御装置512が障害状態から立ち直るためのウォッチドッグタイマー550とを有する。
演算装置540は、三次元特性化モデルと、感知されたヘッドマウントディスプレイ200の位置および方向とを受信する。演算装置は、所定のキャリブレーション(センサと関連する両眼の位置と方向)と、ヘッドマウントディスプレイ200の参照パラメータ(基準系のセンサの位置と方向)とを用いて、適切な計算と画像処理を実行して、立体表示システム522a,522bの上に表示される媒体特性化イメージを提供する。
さらにまた、ユーザ入力544を用いて、特定用途にふさわしいグラフィック表示パラメータを選ぶことができる。複数のグラフィック表示プロファイルを登録し、ユーザが単に自分の用途にふさわしい表現プロファイルを読み込むとしてもよい。コントロールすることができるパラメータの例は、表面下の媒体及び現実の環境面のグラフィック表示の不透明度/透明度、カラーパレット、グラフィック表示すべき媒体の奥行、グラフィック表示から取り除かれる媒体の奥行、機械構造物に関する特定のデータの表示、媒体の内部と外部に関する有益なデータの表示、媒体の所定の特性の存在/不存在の表示である。例えば、特定の鉱石に相当する媒体の領域だけを視覚的に表現することができる。鉱石の存在は、密度とせん断波速度を用いて識別する。地下水もしくは他の特性に相当する領域を視覚的に表示するよう選ぶこともできる。
演算装置540は、要求に反応して、3次元モデルの基準系におけるヘッドマウントディスプレイ200の関連付けを実行し、ディスプレイシステム522a,522bに種々の有益な表示を提供し、表示をユーザによって選ばれる立体視またはモノラルビジョンに適応させる、他のユーティリティプログラムを有する。
説明した実施例では、ヘッドマウントディスプレイ200は現実環境のイメージを提供するためにカメラ520a,520bを用いる。しかしある変形例では、図1に示されるようなヘッドマウントディスプレイ100が用いられ、カメラ520a,520bを必要とはしない。したがって、A/Dコンバータ526a,526bも取り除く。一つのディスプレイシステム522aを単眼ヘッドマウントディスプレイで用いることもできる。
あるいは、例えばジャイロスコープベースのシステムなどの他の慣性ガイダンスシステム、全地球位置測定システム(GPS)、またはこれら技術の組合せを、慣性ポジショニングセンサ524の代わりに用いることができる。
図6と図7につき、ヘッドマウントディスプレイを関係付ける方法、およびその結果としての、三次元モデルの基準系(Xref, Yref, Zref)における各々の眼の位置(Xo, Yo, Zo)および方向(θx, θy, θz)が以下に説明される。この方法は、立体視のヘッドマウントディスプレイの使用を仮定する。関連付け方法は、媒体の表面に配置される3つの目標点((X1, Y1, Z1); (X2, Y2, Z2); (X3, Y3, Z3))を提供することによって開始される(ステップ710)。3つの目標点は目標平面を定め、3つの目標点間の距離d1,2, d2,3, d3,1は既知である。したがって、3次元モデルは、基準系に3つの目標点の位置を有する。一般に目標点は、媒体の特性化のためにプロファイリングシステムによって用いられるプロファイリングセンサのうちの3台の位置である。3次元モデルがセンサの位置に対して定められるので、基準系(Xref、Yref、Zref)はこれらの位置から推量することができる。したがって、他のプロファイリングセンサは除去することができるが、少なくとも3台の基準センサは、関連付けプロセスにプロファイリングプロセスを用いた後に所定の位置に残さなければならない。
ステップ712において、レチクル(すなわち十字線)がヘッドマウントディスプレイの両方のディスプレイシステム上に(すなわち両眼の前に)表示される。714にて、両十字線が1つのものとしてユーザによって見られるように、ユーザはユーザ入力を用いて、両眼からの十字線を揃える。716にて、ユーザは第1の目標点(X1、Y1、Z1)に、十字線を揃える。通常は、ユーザのセンサ識別のために、目標点として用いられなければならないセンサは、異なる色または特有の要素を有するものとする。718にて、ユーザはユーザボタンを押すか、他の入力手段(ユーザ入力544)を用いて、目標を整列したことを制御ユニットに入力をする。その結果として、制御ユニットは、位置検出器によって提供されるヘッドマウントディスプレイの位置および方向(図示せず)を読みとる。読みとられた位置および方向は、ヘッドマウントディスプレイの基準系に対して与えられる(ヘッドマウントディスプレイの初期化プロセスの間に定められる)。読みとられた位置および方向は、更なる計算のために保持される。
その次に、ステップ720にて、ユーザは十字線を第2の目標点(X2、Y2、Z2)に揃える。ステップ722にて、ユーザが目標を整列したことを制御ユニットへ入力すると、その結果として、制御ユニットは、ポジションセンサによって提供されるヘッドマウントディスプレイの位置および方向(不図示)を読み取る。これらの読み取られた位置および方向も更なる計算のために保持される。
ステップ724にて、ユーザは、十字線を第3の目標点(X3、Y3、Z3)に揃える。ステップ722にて、ユーザが目標を整列したことを制御ユニットへ入力すると、その結果として、制御ユニットは、ポジションセンサによって提供されるヘッドマウントディスプレイの位置および方向(不図示)を読み取る。これらの読み取られた位置および方向も更なる計算のために保持される。
ステップ728にて、制御ユニットは、読み取られた位置と方向を用いて、基準系(Xref, Yref, Zref)とヘッドマウントディスプレイの基準系との間の変換マトリックスを計算する。その結果として、ヘッドマウントディスプレイの位置(Xo、Yo、Zo)が基準系(Xref,Yref,Zref)に対して関連付けられる。
関連付け手順の間、ユーザへの指示は、制御ユニットによってディスプレイシステムを用いて表示することができることに留意したい。
ヘッドマウントディスプレイの方向に関する不確定さはまだ残り、方向の関連付けを行う必要がある。ステップ730にて、3つの目標点((X1, Y1, Z1); (X2, Y2, Z2); (X3, Y3, Z3))によって規定される目標平面に対応する仮想平面を計算された変換マトリックスに従いヘッドマウントディスプレイに立体的に表示させる。ステップ732にて、ユーザは、ユーザ入力を用いて、仮想平面を目標平面と重ね合わせて整列させ、その整列を確認するためにユーザボタンを押す。このステップは、最高の結果のために、最高の精度でなされるべきである。ステップ734にて、制御ユニットは、ポジションセンサによって提供されるヘッドマウントディスプレイの位置および方向(図示せず)を読み取る。ステップ736にて、制御ユニットは、目標平面に対する適切な整列のためのヘッドマウントディスプレイの位置および方向と既知の変換マトリックスとを用いて、基準系(Xref、Yref、Zref)とヘッドマウントディスプレイの基準系の間の回転マトリクスを計算する。その結果として、ヘッドマウントディスプレイの方向(θx, θy, θz)が基準系(Xref、Yref、Zref)に対して関連付けられる。変換マトリックスも有効化される。ステップ738にて、計算された変換マトリックスと回転マトリックスはヘッドマウントディスプレイにより表面下の媒体を視覚化するのに使用するために保存される。したがって、空間をヘッドマウントディスプレイが移動するにつれて、基準系(Xref, Yref, Zref)におけるその位置(Xob, Yob, Zob)と方向(θxb, θyb, θzb)をリアルタイムに計算することができる。
同様の関連付け方法を、モノラルビジョンのヘッドマウントディスプレイを関連付けるために用いることができる点に留意されたい。また、カメラを用いる立体視ヘッドマウントディスプレイ200の関連付けも画像認識方法を用いることによって実行することができる。同じ3つの目標点((X1、Y1、Z1);(X2、Y2、Z2);(X3、Y3、Z3))をカメラにより提供される2つのイメージ上で認識することができる。そして、基準系でのヘッドマウントディスプレイの位置および方向を、カメラの既知の相対的な位置と両方のイメージ上の目標点の位置とを用いて計算することができる。
また、特に表面を掘削することになっているか、さもなければ破壊することになっているならば、媒体のすぐ間近の環境に配置される目標点をセンサの代わりに用いることができる。
さらに、すでに特性化された表面下の媒体に戻るとき、関連付け方法が繰り返されることを要するとしてもよい、そして、目標点センサが取り外されることを必要としてもよい。目標点は、表面の環境に再配置されることを要するとしてもよい。したがって、3つの新しい目標点は壁や他の任意の構造上に配置される。新しい目標点は基準系に関係付けられる。これは、すでに関連付けられたヘッドマウントディスプレイを用いて実行される。ユーザは、上記の関連付け方法と同様に、十字線を各々の新しい目標に整列させ、新しい目標平面を整列させる。新しい目標点の位置を、次にヘッドマウントディスプレイのその後の関連付けのためにモデルに保存する。そして、古い目標点を表面から物理的に削除することができる。
説明された実施例では、トモグラフィは、プロファイリングシステムを用いて表面下の媒体を特性化することによって得られる。3次元の特性化を利用できるならば、この特性化を3次元モデルプロセッサに用いて、媒体の三次元グラフィック表現モデルを提供することができることを理解できるだろう。さらに、ユーザに表示されるイメージは、完全な3次元モデルの代わりに、ユーザが空間を移動する断層撮影像を表示する。つまり、3次元モデルプロセッサは、プロファイリングシステムによって提供される媒体特性化断層撮影像を、断層撮影の適当な3次元グラフィック表現に変換するのみである。
個別のデータ信号接続を通して互に通信する個別のコンポーネントの組み合わせとしてブロック図に示されているが、当業者であれば、これらの好適実施例は、ハードウェアおよびソフトウェアコンポーネントの組み合わせ、いくつかのコンポーネントをハードウェアまたはソフトウェアシステムの所定の機能または演算によって実現するとともに、図に示されるデータパスの多くをコンピュータアプリケーションまたはオペレーティングシステム内のデータ通信によって実現することによって、提供することができることが理解されよう。したがって、図示の構造は本発明の好ましい実施例の効率的な教授のために与えられている。
上で説明される発明の実施例は、単に例示を意図とする。したがって、発明の範囲は添付の請求項の範囲によってのみ制限されることを意図とする。

Claims (22)

  1. ユーザが表面下の媒体の特性を可視化するために使用するヘッドマウントディスプレイ装置であって、
    摩擦速度、密度、ポアソンの比率、機械的インピーダンス、ずれ弾性率、ヤング率のうち少なくとも1つを含む、前記媒体の物理的および機械的特性を提供するプロファイリングシステムを用いて供給され、基準系において3次元表現された前記表面下の媒体の特性化モデルを受信する入力段と、
    前記基準系における前記ユーザの第1の眼の位置および方向を感知するポジショニングセンサと、
    前記第1の位置および方向の第1の眼の前方に位置する第1の表面上に前記特性化モデルを透視投影し、前記表面下の媒体の第1の特性化イメージを供給するための演算装置と、
    前記表面下の媒体の第1の特性化イメージを、前記第1の眼の前方の現実環境のイメージに重ね合わせて前記第1の表面の上に表示するための第1のディスプレイシステムと、を備え
    前記プロファイリングシステムは、表面上に配置されたセンサを用い、インパルス発生器で発生された刺激によって検査する表面下の媒体で誘発されるねじれ波の加速度を検出して前記特性を提供するヘッドマウントディスプレイ装置。
  2. 表面下の媒体の第2の特性化イメージを、前記ユーザの第2の眼の前方の現実環境のイメージに重ね合わせて第2の眼の前方に位置する第2の表面上に表示するための第2のディスプレイシステムをさらに備え、
    前記演算装置は、前記特性化モデルを前記第2の表面に透視射影して、前記表面下の媒体の第2の特性化イメージを提供し、その結果、前記特性が立体的に可視化される、請求項1に記載のヘッドマウントディスプレイ装置。
  3. 前記第1および第2の眼の前方の現実環境のイメージを提供するために前記第1および第2の表面のそれぞれの前方に配置される第1および第2のカメラを更に備え、
    前記演算装置は更に、前記表面下の媒体の特性化イメージを前記第1および第2の眼の前方の現実環境のイメージと重ね合わせる、請求項2に記載のヘッドマウントディスプレイ装置。
  4. 前記第1のディスプレイシステムは、前記現実環境のイメージを透過するシースルーのスクリーンを備え、
    前記表面下の媒体の第1の特性化イメージが前記シースルーのスクリーン上に表示される、請求項1に記載のヘッドマウントディスプレイ装置。
  5. 前記表面下の媒体の特性は断層撮影像を含む、請求項1から請求項4の何れかに記載のヘッドマウントディスプレイ装置。
  6. 前記ポジショニングセンサは、前記基準系に前記第1の眼の位置を関連付けるための三軸加速度計の平行移動センサと、前記基準系に前記第1の眼の方向を関連付けるための三軸加速度計の回転センサとを備える、請求項1から請求項4の何れかに記載のヘッドマウントディスプレイ装置。
  7. ユーザが表面下の媒体の特性を可視化するために使用するためのシステムであって、
    摩擦速度、密度、ポアソンの比率、機械的インピーダンス、ずれ弾性率、ヤング率のうち少なくとも1つを含む、前記表面下の媒体の物理的および機械的特性を提供するためのプロファイリングシステムと、
    前記表面下の媒体の特性化を処理し、基準系における3次元グラフィック表現の表面下の媒体の特性化モデルを提供する3次元モデル処理装置と、
    ヘッドマウントディスプレイ装置とを備え、
    前記ヘッドマウントディスプレイ装置は、
    前記特性化モデルを受信する入力段と、
    前記基準系における前記ユーザの第1の眼の位置および方向を感知するポジショニングセンサと、
    前記位置および方向の前記第1の眼の前方に位置する第1の表面の上に前記特性化モデルを透視投影し、前記表面下の媒体の第1の特性化イメージを提供する演算装置と、
    前記表面下の媒体の第1の特性化イメージを、前記第1の眼の前方の現実環境のイメージに重ね合わせて前記第1の表面の上に表示するための第1のディスプレイシステムとを有し、
    前記プロファイリングシステムは、表面上に配置されたセンサを用い、インパルス発生器で発生された刺激によって検査する表面下の媒体で誘発されるねじれ波の加速度を検出して前記特性を提供するシステム。
  8. 前記ヘッドマウントディスプレイ装置は、表面下の媒体の第2の特性化イメージを、前記ユーザの第2の眼の前方の現実環境のイメージに重ね合わせて第2の眼の前方に位置する第2の表面の上に表示するための第2のディスプレイシステムをさらに有し、
    前記演算装置は、前記第2の表面に前記特性化モデルを透視射影し、前記表面下の媒体の前記第2の特性化イメージを提供し、その結果、前記特性化が立体的に可視化される、請求項7に記載のシステム。
  9. 前記第1および第2の眼の前方の現実環境のイメージを提供するために、前記第1および第2の表面のそれぞれの前方に配置される第1および第2のカメラを更に備え、
    前記演算装置は更に、前記表面下の媒体の特性化イメージを前記第1および第2の眼の前方の現実環境の前記イメージと重ね合わせる、請求項8に記載のシステム。
  10. 前記第1のディスプレイシステムは、前記現実環境のイメージを透過するシースルーのスクリーンを備え、
    前記表面下の媒体の第1の特性化イメージが、前記シースルーのスクリーン上に表示される、請求項7に記載のシステム。
  11. 前記表面下の媒体の特性は断層撮影像を含む、請求項7から請求項10の何れかに記載のシステム。
  12. 前記3次元モデル処理装置は、地質工学ベースの3次元モデリングソフトウェアを備える、請求項7から請求項11の何れかに記載のシステム。
  13. 前記ポジショニングセンサは、前記基準系に前記第1の眼の位置を関連付けるための三軸加速度計の平行移動センサと、前記基準系に前記第1の眼の方向を関連付けるための三軸加速度計の回転センサとを備える、請求項7から請求項12の何れかに記載のシステム。
  14. プロファイリングシステム、3次元モデル処理装置、及びヘッドマウントディスプレイ装置を有するシステムにより、ユーザのために表面下の媒体の特性を可視化するための方法であって、
    前記プロファイリングシステムにより、摩擦速度、密度、ポアソンの比率、機械的インピーダンス、ずれ弾性率、ヤング率のうち少なくとも1つを含む、前記表面下の媒体の物理的および機械的特性を提供するステップと、
    前記3次元モデル処理装置により、前記表面下の媒体の前記物理的および機械的特性を処理し、基準系における3次元グラフィック表現で前記表面下の媒体の特性化モデルを提供するステップと、
    前記ヘッドマウントディスプレイ装置により、
    前記基準系における前記ユーザの第1の眼の第1の位置および方向を感知するステップと、
    前記第1の眼の前方に位置する第1の表面を規定するステップと、
    前記第1の眼の前方に位置する第1の表面の上に前記特性化モデルを透視投影し、前記表面下の媒体の第1の特性化イメージを提供するステップと、
    前記第1の眼の前方の現実環境のイメージを提供するステップと、
    前記第1の眼の前方の前記現実環境のイメージに重ね合わせて、前記表面下の媒体の第1の特性化イメージを前記第1の表面に表示するステップと、を含み、
    前記プロファイリングシステムは、表面上に配置されたセンサを用い、インパルス発生器で発生された刺激によって検査する表面下の媒体で誘発されるねじれ波の加速度を検出して前記特性を提供する方法。
  15. 前記ヘッドマウントディスプレイ装置により、
    感知した前記第1の位置および方向とともに、前記基準系における前記ユーザの前記第2の眼の第2の位置および方向を決定するステップと、
    前記第2の位置および方向を有する前記第2の眼の前方に位置する第2の表面を規定するステップと、
    前記第2の表面に前記特性化モデルを透視投影し、前記表面下の媒体の第2の特性化イメージを提供するステップと、
    前記第2の眼の前方の現実環境のイメージを提供するステップと、
    前記第2の眼の前方の現実環境のイメージに重ね合わせて、前記表面下の媒体の第2の特性化イメージを前記第2の表面の上に表示し、その結果、前記特性を立体的に可視化するステップと、
    を更に含む、請求項14に記載の方法。
  16. 前記ヘッドマウントディスプレイ装置により、
    前記第1の眼の前方の現実環境のイメージを取得するステップと、
    前記第2の眼の前方の現実環境のイメージを取得するステップと、
    を更に含む、請求項15に記載の方法。
  17. 前記ヘッドマウントディスプレイ装置により、シースルースクリーンを透して前記現実環境のイメージを透過するステップを更に含み、
    前記表示するステップは、前記シースルースクリーン上に前記表面下の媒体の第1の特性化イメージを表示するステップを含む、請求項14に記載の方法。
  18. 前記表面下の媒体の特性は断層撮影像を含む、請求項14から請求項17の何れかに記載の方法。
  19. 前記3次元モデル処理装置により、前記提供するステップは、地質工学ベースの3次元モデリングソフトウェアにより、前記表面下の媒体の前記物理的および機械的特性を処理し、前記表面下の媒体の特性化モデルを提供する、請求項14から請求項17の何れかに記載の方法。
  20. 前記ヘッドマウントディスプレイ装置により、前記第1の特性化イメージを提供するステップは、
    所定の特性を有する前記表面下の媒体の領域を選択するステップと、
    前記領域を、3次元グラフィック表示を提供するようにグラフィック表示するステップと、
    前記グラフィック表示を前記第1の表面上に透視射影して、前記表面下の媒体の第1の特性化イメージを提供するステップと、
    を含む、請求項14から請求項19の何れかに記載の方法。
  21. ユーザが表面下の媒体の特性を可視化するのに用いるためのヘッドマウントディスプレイ装置であって、
    摩擦速度、密度、ポアソンの比率、機械的インピーダンス、ずれ弾性率、ヤング率のうち少なくとも1つを含む、前記表面下の媒体の物理的および機械的特性を有する、基準系において3次元表現された特性化モデルを受信する入力段と、
    前記基準系における前記ユーザの第1の眼の位置および方向を感知するポジショニングセンサと、
    前記表面下の媒体の第1の特性化イメージを供給し、前記第1の位置および方向の第1の眼の前方に位置する第1の表面上に前記特性化モデルを透視投影するための演算装置と、
    前記第1の眼の前方の現実環境の第1のイメージに重ね合わせて前記表面下の媒体の第1の特性化イメージを前記第1の表面の上に表示するための第1のディスプレイシステムと、を備え
    前記特性は、表面上に配置されたセンサを用い、インパルス発生器で発生された刺激によって検査する表面下の媒体で誘発されるねじれ波の加速度を検出して得られるヘッドマウントディスプレイ装置。
  22. ユーザが表面下の媒体の特性を可視化するのに用いるためのポータブルヘッドマウントディスプレイ装置であって、
    摩擦速度、密度、ポアソンの比率、機械的インピーダンス、ずれ弾性率、ヤング率のうち少なくとも1つを含む、前記表面下の媒体の物理的および機械的特性を有する、基準系において3次元表現された特性化モデルを、モデルプロセッサから受信する入力段と、
    前記特性化モデルを保存するためのメモリと、
    前記基準系における前記ヘッドマウントディスプレイ装置の位置および方向を感知するためのポジショニングセンサと、
    前記特性化モデルと前記位置および方向とを用いて、前記表面下の媒体の一組の立体特性化イメージを決定するための演算装置と、
    一組の現実環境のイメージに重ね合わせて、前記表面下の媒体の一組の立体特性化イメージを、前記ユーザの眼の前方に表示するための立体視表示システムと、を備え、
    前記特性は、表面上に配置されたセンサを用い、インパルス発生器で発生された刺激によって検査する表面下の媒体で誘発されるねじれ波の加速度を検出して得られ、
    前記入力段は、前記メモリが前記特性化モデルを保存した後に前記モデルプロセッサから切り離されるヘッドマウントディスプレイ装置。
JP2009547496A 2007-01-31 2007-01-31 プロファイリングシステムのためのヘッドマウントディスプレイ装置 Expired - Fee Related JP5118152B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CA2007/000138 WO2008092230A1 (en) 2007-01-31 2007-01-31 Head-mounted display apparatus for profiling system

Publications (2)

Publication Number Publication Date
JP2010517187A JP2010517187A (ja) 2010-05-20
JP5118152B2 true JP5118152B2 (ja) 2013-01-16

Family

ID=39673589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009547496A Expired - Fee Related JP5118152B2 (ja) 2007-01-31 2007-01-31 プロファイリングシステムのためのヘッドマウントディスプレイ装置

Country Status (7)

Country Link
EP (1) EP2108135A4 (ja)
JP (1) JP5118152B2 (ja)
CN (1) CN101595417B (ja)
AU (1) AU2007345525B2 (ja)
CA (1) CA2668776C (ja)
MX (1) MX2009007256A (ja)
WO (1) WO2008092230A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8417325B2 (en) * 2007-10-12 2013-04-09 Cardiac Pacemakers, Inc. Differentiating decompensation detection based on co-morbidities in heart failure
JP4852062B2 (ja) 2008-03-28 2012-01-11 株式会社東芝 単眼用画像表示装置及び単眼用画像表示方法
AU2010295239B2 (en) * 2009-09-16 2015-04-23 Sydac Pty Ltd Visual presentation system
JP5977922B2 (ja) 2011-02-24 2016-08-24 セイコーエプソン株式会社 情報処理装置および情報処理装置の制御方法、透過型頭部装着型表示装置
DE102011115739A1 (de) * 2011-10-11 2013-04-11 Daimler Ag Verfahren zur Integration von virtuellen Objekten in Fahrzeuganzeigen
JP5884576B2 (ja) * 2012-03-16 2016-03-15 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
WO2014197109A2 (en) 2013-03-22 2014-12-11 Seiko Epson Corporation Infrared video display eyewear
CN103605209A (zh) * 2013-11-05 2014-02-26 中国科学技术大学 一种透射式立体显示眼镜装置
CN104484033B (zh) * 2014-11-21 2017-10-03 上海同筑信息科技有限公司 基于bim的虚拟现实展示方法和系统
CN104581128A (zh) * 2014-12-29 2015-04-29 青岛歌尔声学科技有限公司 一种头戴显示装置及在该装置中显示外部图像信息的方法
CN104795017B (zh) * 2015-04-24 2019-07-19 深圳市虚拟现实科技有限公司 显示控制方法和头戴式显示设备
US9442575B1 (en) * 2015-05-15 2016-09-13 Atheer, Inc. Method and apparatus for applying free space input for surface constrained control

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6094625A (en) * 1997-07-03 2000-07-25 Trimble Navigation Limited Augmented vision for survey work and machine control
JP3653196B2 (ja) * 1998-06-30 2005-05-25 飛島建設株式会社 仮想現実感を利用した施工支援情報システム。
US6222675B1 (en) * 1998-12-01 2001-04-24 Kaiser Electro-Optics, Inc. Area of interest head-mounted display using low resolution, wide angle; high resolution, narrow angle; and see-through views
US6536553B1 (en) * 2000-04-25 2003-03-25 The United States Of America As Represented By The Secretary Of The Army Method and apparatus using acoustic sensor for sub-surface object detection and visualization
US6735888B2 (en) * 2001-05-18 2004-05-18 Witten Technologies Inc. Virtual camera on the bucket of an excavator displaying 3D images of buried pipes
US6522474B2 (en) * 2001-06-11 2003-02-18 Eastman Kodak Company Head-mounted optical apparatus for stereoscopic display
CA2366030A1 (en) * 2001-12-20 2003-06-20 Global E Bang Inc. Profiling system
US7292269B2 (en) * 2003-04-11 2007-11-06 Mitsubishi Electric Research Laboratories Context aware projector

Also Published As

Publication number Publication date
MX2009007256A (es) 2009-09-09
CA2668776A1 (en) 2008-08-07
CA2668776C (en) 2010-05-04
EP2108135A4 (en) 2013-02-20
JP2010517187A (ja) 2010-05-20
EP2108135A1 (en) 2009-10-14
CN101595417B (zh) 2012-11-28
WO2008092230A1 (en) 2008-08-07
CN101595417A (zh) 2009-12-02
AU2007345525A1 (en) 2008-08-07
AU2007345525B2 (en) 2012-03-08

Similar Documents

Publication Publication Date Title
JP5118152B2 (ja) プロファイリングシステムのためのヘッドマウントディスプレイ装置
US20110112794A1 (en) Head-mounted display apparatus for profiling system
JP3653196B2 (ja) 仮想現実感を利用した施工支援情報システム。
KR100473331B1 (ko) 이동식 매핑시스템 및 그 영상처리방법
CN102109348B (zh) 定位载体、估测载体姿态与建地图的系统与方法
JP2020509272A (ja) 材料移動機械のための拡張現実ディスプレイ
JP5682060B2 (ja) 画像合成装置、画像合成プログラム、及び画像合成システム
JP2008144379A (ja) 遠隔操縦作業機の画像処理システム
JP2844040B2 (ja) 3次元表示装置
JP6251128B2 (ja) シールド掘進機による土質分布の判定方法
CN101833115B (zh) 基于增强现实技术的生命探测与救援系统及其实现方法
EP1980999A1 (en) An augmented reality image system, a method and a computer program product
RU2018109523A (ru) 3d геонавигационное устройство визуализации скважины для бурильного аппарата
CN107109825A (zh) 挖土机及挖土机的控制方法
KR102069343B1 (ko) 지하공동의 3차원 형상화시스템과 지하공동의 3차원 형상화방법
JP2010018141A (ja) 建設機械におけるディスプレイ装置
JP2019071592A (ja) 遠隔施工管理システム、遠隔施工管理方法
JP6810459B2 (ja) 法面構造物の施工方法
KR101256894B1 (ko) 3d이미지 및 사진이미지를 이용한 실시간 설비 모니터링 장치
JP6342723B2 (ja) シールド掘進機による切羽土質分布の判別システム
US20230029071A1 (en) Excavation level detection device
CN102566053A (zh) 用于轮廓形成系统的头戴式显示装置
Wursthorn et al. Applications for mixed reality
Chang Application of mixed and virtual reality in geoscience and engineering geology
JPH09159450A (ja) 測地システム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110726

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20111013

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120126

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120706

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120918

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121018

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151026

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees