JP2009150883A - 拡張現実検査およびデータ可視化のシステムおよび方法 - Google Patents

拡張現実検査およびデータ可視化のシステムおよび方法 Download PDF

Info

Publication number
JP2009150883A
JP2009150883A JP2008319544A JP2008319544A JP2009150883A JP 2009150883 A JP2009150883 A JP 2009150883A JP 2008319544 A JP2008319544 A JP 2008319544A JP 2008319544 A JP2008319544 A JP 2008319544A JP 2009150883 A JP2009150883 A JP 2009150883A
Authority
JP
Japan
Prior art keywords
probe
sensor
image
augmented reality
tracking system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008319544A
Other languages
English (en)
Other versions
JP2009150883A6 (ja
Inventor
Sengupta Anandraj
アナンドラジ・セングプタ
Padmanabhan Kumar Vinod
ビノ・パドマナバン・クマール
Shivappa Ningappa Goravar
シヴァッパ・ニンガッパ・ゴラヴァール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of JP2009150883A publication Critical patent/JP2009150883A/ja
Publication of JP2009150883A6 publication Critical patent/JP2009150883A6/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/30Determining absolute distances from a plurality of spaced points of known location
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F01MACHINES OR ENGINES IN GENERAL; ENGINE PLANTS IN GENERAL; STEAM ENGINES
    • F01DNON-POSITIVE DISPLACEMENT MACHINES OR ENGINES, e.g. STEAM TURBINES
    • F01D21/00Shutting-down of machines or engines, e.g. in emergency; Regulating, controlling, or safety means not otherwise provided for
    • F01D21/003Arrangements for testing or measuring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Measurement Of Length, Angles, Or The Like Using Electric Or Magnetic Means (AREA)
  • Image Processing (AREA)

Abstract

【課題】3次元追跡システム(14)を提供すること。
【解決手段】3次元追跡システム(14)は、対象物(12)の周囲に配置された少なくとも1つのアコースティックエミッションセンサ(32)を含む。アコースティックエミッションセンサ(32)は、対象物(12)内に挿入されたプローブ(13)の位置を、プローブ(13)の位置またはその近辺から発せられたアコースティックシグネチャの到達時刻に基づいて識別するように構成される。3次元追跡システム(14)はさらに、プローブ(13)の仰角を検出するように構成された第1のセンサ(34)を含む。3次元追跡システム(14)はさらに、プローブ(13)の方位角を検出するように構成された第2のセンサ(36)を含む。
【選択図】 図2

Description

本発明は、主に、非破壊検査手法に関し、特に、拡張現実を用いた検査手法に関する。
本出願は、参照により全内容が本明細書に組み込まれている、2007年12月18日に出願されたインド国特許出願第3014/CHE/2007号(件名「SYSTEM AND METHOD FOR AUGMENTED REALITY INSPECTION AND DATA VISUALIZATION」)に基づく優先権の利益を主張するものである。
検査手法は、航空機産業、健康産業からセキュリティ用途まで、様々な用途で一般的に用いられている。一般に、複雑な部品や構造の検査には、検査者としての相当なスキルや経験が必要である。ボアスコープ検査は、稼働中の部品へのアクセスが容易なことやダウンタイムが短いことから、産業基盤の監視のために一般的に用いられている情報源の1つである。ガスタービンおよび関連システムに対する状態監視保全ストラテジは、そのような検査から得られるデータに大きく依存している。ボアスコープ検査には、長いケーブルにディスプレイペンダントが付いたプローブが一般的に用いられてきた。しかしながら、プローブがボアスコープ検査穴に挿入された後は、ボアスコープの先端部の位置および姿勢に関しては、操作者は最小限の情報しか得られない。位置および姿勢を追跡することは、測定誤差の低減につながり、見つかったきずや損傷の位置を正確に特定するために非常に重要である。さらに、先端部を変更しなければならない場合、変更した先端部を同じ位置に持っていくことはほとんど不可能である。
したがって、検査の多くが、操作者のスキルに依存しており、主観的である。ボアスコープの先端部および姿勢に関する正確な情報はさらに、検査のプランニングから始まり、ガイダンスを経て損傷の報告に至る検査プロセス全体の自動化および制御を可能にする。
そこで、前述の諸問題に対処する、改善された検査システムが求められている。
本発明の一実施形態によれば、3次元追跡システムが提供される。この3次元追跡システムは、対象物の周囲に配置された少なくとも2つのアコースティックエミッションセンサを含む。アコースティックエミッションセンサは、対象物内に挿入されたプローブの位置を、プローブの位置またはその近辺から発せられたアコースティックシグネチャの到達時刻に基づいて識別するように構成される。3次元追跡システムはさらに、プローブの仰角を検出するように構成された第1のセンサを含む。3次元追跡システムはさらに、プローブの方位角を検出するように構成された第2のセンサを含む。
本発明の別の実施形態によれば、対象物内の検査のための拡張現実システムが提供される。拡張現実システムは、対象物内に挿入されたプローブの3次元位置を識別するように構成された追跡システムを含む。この3次元追跡システムは、対象物の周囲に配置された少なくとも1つのアコースティックエミッションセンサを含む。アコースティックエミッションセンサは、対象物内に挿入されたプローブの位置を、プローブの位置またはその近辺から発せられたアコースティックシグネチャの到達時刻に基づいて識別するように構成される。3次元追跡システムはさらに、プローブの仰角を検出するように構成された第1のセンサを含む。3次元追跡システムはさらに、プローブの方位角を検出するように構成された第2のセンサを含む。拡張現実システムはさらに、マイクロプロセッサを含み、マイクロプロセッサは、グラフィックスを生成し、追跡システムによって識別された3次元位置に基づいて、グラフィックスを、カメラでキャプチャされた画像の上に重ね合わせるように構成される。拡張現実システムはさらに、拡張現実画像を表示するように構成されたディスプレイ装置を含む。
本発明の別の実施形態によれば、対象物内を3次元追跡する方法が提供される。本方法は、対象物内にプローブを挿入することを含む。本方法はさらに、対象物の周囲に少なくとも1つのアコースティックエミッションセンサを配置することを含む。本方法はさらに、第1のセンサおよび第2のセンサをプローブに取り付けることを含む。
本発明の別の実施形態によれば、対象物内の検査のための拡張現実画像を形成する方法が提供される。本方法は、カメラで画像をキャプチャすることを含む。本方法はさらに、複数のアコースティックエミッションセンサを用いて、対象物内のプローブの位置を識別することを含む。本方法はさらに、第1のセンサを用いてプローブの仰角を測定することを含む。本方法はさらに、第2のセンサを用いてプローブの方位角を測定することを含む。本方法はさらに、対象物のグラフィックスを生成することを含む。本方法はさらに、測定された位置、仰角、および方位角に基づいて、グラフィックスを、キャプチャされた画像の上に位置合わせして、拡張現実画像を形成することを含む。
以下の詳細説明を、添付図面を参照しながら読むことにより、本発明の、以上および他の特徴、態様、および利点がよりよく理解されるであろう。添付図面において、類似の文字は、全図面を通して類似の要素を表している。
以下で詳述されるように、本発明の実施形態は、対象物の非破壊検査のシステムおよび方法を含む。本明細書で開示されるシステムおよび方法は、改善された検査用追跡システムを用いて拡張現実画像を生成する。本明細書で用いられる「拡張現実画像」は、実世界データに、コンピュータで生成されたデータが重ね合わせられたものを含む画像を意味する。対象物の例として、航空機エンジン、ガスタービン、蒸気タービン、ディーゼルエンジン、生物などがあり、これらに限定されない。
図面を参照すると、図1は、対象物12を検査する拡張現実システム10を高レベルブロック図で表したものである。対象物12内に挿入されたプローブ13の3次元の位置および姿勢を識別するために、追跡システム14が用いられている。特定の実施形態では、プローブ13は、ボアスコープまたは内視鏡を含む。カメラ18は、対象物12の画像を現実画像としてキャプチャする。特定の実施形態では、カメラ18は、単眼画像をキャプチャする。別の実施形態では、カメラ18は、立体画像をキャプチャする。カメラ18の例として、Webカメラ、ビデオカメラ、CCDカメラなどがあり、これらに限定されない。別の実施形態では、2台以上のカメラを使用することが可能であり、たとえば、立体画像を提供するために2台のカメラを配置することが可能である。現実画像の例として、ビデオ画像および静止画像があり、これらに限定されない。
キャプチャされた現実画像は、その現実画像に対応するグラフィックスを生成するように構成されたマイクロプロセッサ20によって、基準として使用される。一例では、これらのグラフィックスは、対象物12のコンピュータ支援設計図面を含む。マイクロプロセッサ20はさらに、追跡システム14によって識別された3次元位置に基づいて、グラフィックスを現実画像の上に重ね合わせて、拡張現実画像を生成する。したがって、カメラ18から得られた立体画像は、追加情報によって拡張されて、リアルタイムでユーザに提供される。この追加情報は、たとえば、文字、オーディオ、ビデオ、静止画像などであってよい。たとえば、手術室において、外科医が、患者の画像、特に患者の画像とマイクロプロセッサ20によって生成されたオーバーレイとを含む患者の画像を提供されることが可能である。オーバーレイは、たとえば、CAT(コンピュータ水平断層撮影(Computerized Axial Tomography))スキャンまたはMRI(磁気共鳴映像法(Magnetic Resonance Imaging))で決定された患者の内部解剖学的構造の表示を含んでよい。
別の実施形態では、オーバーレイは、患者の病歴および家族履歴の文字表示を含む。このオーバーレイは、リアルタイム表示が可能である。拡張現実画像は、カメラ18によってキャプチャされた現実画像に追加の仮想画像が重ね合わせられたものを含む。この仮想画像は、マイクロプロセッサ20で生成され、保存されていた情報(たとえば、画像)である。拡張現実画像はさらに、対象物12におけるきずやひびの検出を可能にする。一例示的実施形態では、マイクロプロセッサ20は、ウェアラブルコンピュータを含む。マイクロプロセッサ20は、拡張現実画像をディスプレイ装置22に表示する。ディスプレイ装置22は、携帯情報端末(PDA)、ペンダント、外部コンピュータ、および半透明ゴーグルなどを含み、これらに限定されない。
本発明の実施形態は、本発明の処理タスクを実行するいかなる特定のマイクロプロセッサにも限定されないことに注意されたい。本明細書で使用される「マイクロプロセッサ」という用語は、本発明のタスクの実行に必要な計算を実行することが可能な任意のマシンを意味するものとする。「マイクロプロセッサ」という用語は、構造化された入力を受け取り、この入力を、所定のルールに従って処理して、出力を生成することが可能な、任意のマシンを意味するものとする。
図2は、図1の追跡システム14の中の要素30をブロック図で表したものである。追跡システム14は、対象物12(図1)の周囲に配置された、少なくとも1つのアコースティックエミッションセンサ32を含む。アコースティックエミッションセンサ32は、検査のために対象物12内に挿入されたプローブ13(図1)の位置を識別するように構成されている。特定の実施形態では、アコースティックエミッションセンサは、約6mmから約12mmの範囲の直径を含む。位置は、対象物12内から発せられたアコースティックシグネチャの到達時刻の計算に基づいて決定される。特定の実施形態では、アコースティックシグネチャは、プローブ13の先端部に配置された単一のスピーカまたは複数のスピーカを介して発せられる。第1のセンサ34が、プローブの仰角を検出する。一実施形態では、第1のセンサ34は、集積化MEMS(微小電気機械システム(micro−electrical mechanical system)技術で実装されて、重力による加速度に基づいて仰角を検出するように構成された重力センサを含む。別の実施形態では、第1のセンサ34は、集積化MEMS(微小電子機械システム(micro−electrical mechanical system)技術で実装されて、角運動量の保存に基づいて仰角を検出するように構成されたジャイロスコープを含む。さらに別の実施形態では、第1のセンサ34の出力が時間積分されて、プローブ13の先端部の姿勢が決定される。限定的でない一例では、加速度が2回時間積分されて、姿勢が決定される。
追跡システム14はさらに、プローブ13の方位角を検出するように構成された第2のセンサ36を含む。一例示的実施形態では、第2のセンサ36は、磁界の存在下で方位角を検出するように構成された、磁気コンパスのような(ただし、これに限定されない)磁気センサを含む。一例では、磁気センサに磁界をかけるためにソレノイドが用いられる。さらに別の実施形態では、第2のセンサ36は、直交する3つの軸に沿って角回転速度を検出するジャイロスコープである。さらに別の実施形態では、第2のセンサ36の出力が時間積分されて、プローブ13の先端部の姿勢が決定される。限定的でない一例では、加速度が2回時間積分されて、姿勢が決定される。
図3は、ガスタービンのような(ただし、これに限定されない)対象物の検査に用いられるボアスコープ50のような例示的プローブ13(図1)の概略図である。ボアスコープ50は、ボアスコープ50の先端部56の近辺に配置された第1のセンサ52および第2のセンサ54を含む。先端部56の近辺には、複数の「超小型」スピーカ58も配置されている。図3には複数のスピーカ58が示されているが、単一のスピーカが用いられることも可能であることを理解されたい。スピーカ58は、対象物内の様々な位置でアコースティック信号を発し、これらが、アコースティックエミッションセンサ32(図2)によってキャプチャされる。図示された実施形態では、第1のセンサ52は、MEMS重力センサである。MEMS重力センサ52は、方向60を有する感度軸に沿って加速度/重力を測定する。一実施形態では、ボアスコープ50が、方向62で、地面に向かって垂直方向下向きに位置合わせをされると、感度軸60は、垂直方向下向きをポイントし、加速度/重力の値が1に等しくなる。別の実施形態では、ボアスコープ50が垂直方向に対して傾斜すると、MEMS重力センサ52の感度軸が垂直方向に対して傾斜し、(感度軸に沿って加速度/重力が測定されるため)MEMS重力センサ52が測定する加速度/重力の値は、1より小さくなる。したがって、MEMS重力センサの出力は、ボアスコープ50の仰角を検出する。特定の実施形態では、MEMS重力センサは、約1mmから約4mmの範囲の直径を含む。第2のセンサ54は、集積化MEMS技術で実装された角速度ジャイロスコープであってよい。このジャイロスコープは、ボアスコープ50の回転の変化を感知し、それに応じて、ボアスコープ50の方位角を検出する。一実施形態では、第2のセンサ54は、約2mmから約8mmの範囲の直径を含む。
図4は、ガスタービン72内を表す実世界データと、ガスタービン72の内部のブレード74内を表す、コンピュータで生成されたデータと、を含む拡張現実画像70の概略図である。拡張現実画像70は、カメラ18(図1)でキャプチャされたケーシングを含む、ガスタービンの画像の上に、ブレード74の、生成されたグラフィックスを重ね合わせることによって得られる。特定の実施形態では、この画像は、2次元画像を含む。マイクロプロセッサ20(図1)は、キャプチャされたガスタービンの画像からの情報を保存および登録し、追跡システム14(図1)から得られた3次元位置に基づいてグラフィックスを生成する。マイクロプロセッサ20は、グラフィカル表現を生成することと、カメラ18からの画像および生成されたグラフィカル表現に基づいて拡張現実画像を生成することとのために必要なソフトウェアを備えている。さらに、マイクロプロセッサ20は、以前に保存された情報を保存および復元するための記憶媒体を備えている。
画像をオーバーレイするためには、ガスタービン72に対するカメラ18の位置および方位、ならびにガスタービンの方位を特定する必要がある。結果として、2つの座標系、すなわち、カメラ18に付随するカメラ座標系(図示せず)と、ガスタービン72に付随する座標系78との間の関係を知ることが望ましい。追跡は、これらの座標系間の関係を監視するプロセスを意味する。マイクロプロセッサ20(図1)は、追跡システム14から得られた3次元位置を、ガスタービン72の座標系78を有する基準フレームに登録する。
図5は、例示的ディスプレイ装置100の概略図である。ディスプレイ装置100は、Everest XLG3(登録商標)という名称でGeneral Electric Inspection Technologiesから市販されているハンドヘルドディスプレイを含む。ディスプレイ装置100には、ガスタービン72(図4)の内部にあるブレード102の画像が、マイクロプロセッサ20によって生成された情報104を重ね合わせられて、表示されている。この情報の例として、ブレードのシリアル番号、稼動時間、ひびの識別などがある。ディスプレイ装置100はさらに、表示を選択および編集するナビゲーションボタン106を含む。
図示されているように、現実画像と仮想画像とがブレンドされている。たとえば、仮想画像は、ガスタービン72の現実画像の上に、トランスペアレンシとして与えられている。現実画像と仮想画像との間の位置合わせによって、現実画像と仮想画像とがそろえられる。仮想画像の位置合わせは、特に、位置、方位、縮尺、遠近感、および各カメラの内部カメラパラメータを含む。好ましくは、(倍率などであって、これに限定されない)内部カメラパラメータは、事前カメラ校正手続きにおいて決定される。位置合わせされた仮想画像は、リアルタイムで、ガスタービン72の現実画像と並べられる。特定の実施形態では、ガスタービン72の拡張現実画像をオペレータに提供するディスプレイ装置100を、オペレータが携帯する。一例示的実施形態では、ディスプレイ装置100は、「ビデオシースルー」方式である。
「ビデオシースルー」は、ディスプレイ装置100などのハンドヘルドディスプレイ装置において拡張現実世界を生成して提示する。ディスプレイ装置と一体化されたカメラにより、現実世界のライブビデオストリームがキャプチャされる。カメラ18(図1)は、ユーザがディスプレイ装置を「通して」見ることによって得られるであろう画像と同じ画像をカメラ18が提供するように、ディスプレイ装置100と関連して配置される。コンピュータで生成されたグラフィックスと組み合わされたライブビデオストリームは、ディスプレイ装置100において、リアルタイムで提示される。さらなる機能性として、実際のカメラ焦点距離を出力しながらのカメラズーミングがある。これにより、ズーム中でも、コンピュータで生成されたグラフィックスを正確に表示することが可能になる。
図6は、対象物内を3次元追跡する例示的方法120の各ステップを表すフローチャートである。方法120は、ステップ122で、対象物にプローブを挿入することを含む。ステップ124で、対象物の周囲に1つまたは複数のアコースティックエミッションセンサが配置される。ステップ126で、第1のセンサおよび第2のセンサが、さらにプローブに取り付けられる。特定の実施形態では、第1のセンサおよび第2のセンサは、プローブの先端部に取り付けられる。別の実施形態では、単一のスピーカまたは複数のスピーカが、プローブの先端部に配置される。
図7は、対象物内の検査のための拡張現実画像を形成する例示的方法140の各ステップを表すフローチャートである。方法140は、ステップ142で、カメラで画像をキャプチャすることを含む。ステップ144で、1つまたは複数のアコースティックエミッションセンサを用いて、対象物内のプローブの位置が識別される。特定の実施形態では、位置は、プローブの先端部から発せられたアコースティック信号がアコースティックセンサに到達するまでの伝搬時間を計算することによって、識別される。ステップ146で、第1のセンサを用いて、プローブの仰角が測定される。ステップ148で、第2のセンサを用いて、プローブの方位角がさらに測定される。例示的実施形態では、プローブの方位角は、第2のセンサに磁界をかけることによって測定される。ステップ150で、対象物のグラフィックスが生成される。グラフィックスは、ステップ152で、測定された位置、仰角、および方位角に基づいて、キャプチャされた画像の上に位置合わせされ、これによって、拡張現実画像が形成される。
このように、前述の拡張現実のシステムおよび方法の各種実施形態は、便利で効率的な検査手段を達成する方法を提供する。本システムおよび方法はさらに、現場での検査、修理、および残骸除去を誘導および機能強化することを可能にする。さらに、本システムおよび方法は、損傷報告の改善によって、強制停止のリスクを低減する。
どの特定の実施形態によっても、前述の目的または利点の必ずしもすべてが達成可能であるわけではないことを理解されたい。したがって、たとえば、当業者であれば理解されるように、本明細書に記載のシステムおよび手法は、本明細書において教示されている1つまたは複数の利点を達成または最適化するように、かつ、本明細書において教示または提案されているであろう他の目的または利点を必ずしも達成することなく、具体化または実施されることが可能である。
さらに、当業者であれば、様々な実施形態における様々な特徴に互換性があることを理解されるであろう。たとえば、ある実施形態に関して記載された、Webカメラを使用することは、別の実施形態に関して記載された、ペンダントとともにディスプレイ装置として使用することに適応されることが可能である。同様に、記載された様々な特徴、ならびに、各特徴に対する他の知られた等価物は、本開示の原理に従う別のシステムおよび手法を構築するために、当業者によって併用および整合されることが可能である。
ごく限られた数の実施形態に関して、本発明を詳細に説明してきたが、本発明がそのような開示の実施形態に限定されないことは容易に理解されよう。むしろ、本発明は、本発明の趣旨および範囲から逸脱することなく、これまで記載されていなかった任意の数の変形形態、変更、置換、または等価構成を組み込むために修正されることが可能である。さらに、本発明の様々な実施形態を説明してきたが、本発明の諸態様は、説明された実施形態のうちのいくつかのみを含む場合があることを理解されたい。したがって、本発明は、前述の説明によって限定されると見なされるべきではなく、添付の特許請求項の範囲によってのみ限定される。
新規であって、米国特許証によって保護されることが必要であると主張される内容は以下のとおりである。
本発明の一実施形態による追跡システムを含む拡張現実画像システムを表すブロック図である。 図1の追跡システムの中の要素を表すブロック図である。 本発明の一実施形態による例示的ボアスコープを示す図である。 図3のボアスコープによるガスタービンの検査のために形成された拡張現実画像の概略図である。 本発明の一実施形態による例示的ディスプレイ装置を示す概略図である。 対象物内を3次元追跡する例示的方法の各ステップを表すフローチャートである。 対象物内の検査のための拡張現実画像を形成する例示的方法の各ステップを表すフローチャートである。

Claims (10)

  1. 対象物(12)の周囲に配置された少なくとも1つのアコースティックエミッションセンサ(32)であって、前記対象物(12)内に挿入されたプローブ(13)の位置を、前記プローブ(13)の位置または前記プローブ(13)の近辺から発せられたアコースティックシグネチャの到達時刻に基づいて識別するように構成された、前記少なくとも1つのアコースティックエミッションセンサ(32)と、
    前記プローブ(13)の仰角を検出するように構成された、第1のセンサ(34)と、
    前記プローブ(13)の方位角を検出するように構成された、第2のセンサ(36)と、を備える3次元追跡システム(14)。
  2. 前記アコースティックシグネチャは、前記プローブ(13)の先端部に配置された単一または複数のスピーカにより発せられたアコースティックシグネチャを含む、請求項1に記載の3次元追跡システム(14)。
  3. 前記第1のセンサ(34)は、重力による加速度に基づいて前記仰角を検出するように構成された微小電気機械システム重力センサ、またはジャイロスコープのうちの少なくとも一方を備える、請求項1又は2に記載の3次元追跡システム(14)。
  4. 前記第2のセンサ(36)は、磁界の存在下で前記方位角を検出するように構成された微小電気機械システム磁気センサを備える、請求項1乃至3のいずれか1項に記載の3次元追跡システム(14)。
  5. 対象物(12)内の検査のための拡張現実システム(10)であって、
    前記対象物(12)内に挿入されたプローブ(13)の3次元位置を識別するように構成された追跡システム(14)であって、
    前記対象物(12)の周囲に配置された少なくとも1つのアコースティックエミッションセンサ(32)であって、前記対象物(12)内に挿入された前記プローブ(13)の位置を、前記プローブ(13)の位置または前記プローブ(13)の近辺から発せられたアコースティックシグネチャの到達時刻に基づいて識別するように構成された、前記アコースティックエミッションセンサ(32)と、
    前記プローブ(13)の仰角を検出するように構成された、第1のセンサ(34)と、
    前記プローブ(13)の方位角を検出するように構成された、第2のセンサ(36)と、を備える前記追跡システム(14)と、
    前記対象物(12)の画像をキャプチャするように構成されたカメラ(18)と、
    グラフィックスを生成し、前記追跡システム(14)によって識別された前記3次元位置に基づいて、前記グラフィックスを、前記カメラ(18)でキャプチャされた前記画像の上に重ね合わせるように構成されたマイクロプロセッサ(20)と、
    拡張現実画像を表示するように構成されたディスプレイ装置と、を備える拡張現実システム(10)。
  6. 前記ディスプレイ装置(22)は、ハンドヘルドディスプレイを含む、請求項5に記載の拡張現実システム(10)。
  7. 前記キャプチャされた画像は、2次元画像または3次元画像を含む、請求項5又は6に記載の拡張現実システム(10)。
  8. 対象物内を3次元追跡する方法(120)であって、
    前記対象物内にプローブを挿入するステップ(122)と、
    前記対象物の周囲に少なくとも1つのアコースティックエミッションセンサを配置するステップ(124)と、
    第1のセンサおよび第2のセンサを前記プローブに取り付けるステップ(126)と、を含む方法(120)。
  9. 対象物内の検査のための拡張現実画像を形成する方法(140)であって、
    カメラで画像をキャプチャするステップ(142)と、
    複数のアコースティックエミッションセンサを用いて、前記対象物内のプローブの位置を識別するステップ(144)と、
    第1のセンサを用いて、前記プローブの仰角を測定するステップ(146)と、
    第2のセンサを用いて、前記プローブの方位角を測定するステップ(148)と、
    前記対象物のグラフィックスを生成するステップ(150)と、
    測定された前記位置、前記仰角、および前記方位角に基づいて、前記グラフィックスを、前記キャプチャされた画像の上に位置合わせして、拡張現実画像を形成するステップ(152)と、を含む方法(140)。
  10. 前記識別するステップ(144)は、前記プローブの先端部から発せられたアコースティック信号が前記アコースティックセンサに到達するまでの伝搬時間を計算することを含む、請求項9に記載の方法(140)。
JP2008319544A 2007-12-18 2008-12-16 拡張現実検査およびデータ可視化のシステムおよび方法 Pending JP2009150883A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN3014CH2007 2007-12-18
IN3014/CHE/2007 2007-12-18

Publications (2)

Publication Number Publication Date
JP2009150883A true JP2009150883A (ja) 2009-07-09
JP2009150883A6 JP2009150883A6 (ja) 2009-09-24

Family

ID=40690157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008319544A Pending JP2009150883A (ja) 2007-12-18 2008-12-16 拡張現実検査およびデータ可視化のシステムおよび方法

Country Status (4)

Country Link
US (1) US8485038B2 (ja)
JP (1) JP2009150883A (ja)
CN (1) CN101470102B (ja)
DE (1) DE102008055528A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013541668A (ja) * 2010-10-21 2013-11-14 シーメンス エナジー インコーポレイテッド タービン機械の部品の動作状態を監視する診断システムおよび方法
JP2020510198A (ja) * 2017-03-07 2020-04-02 ザ・チャールズ・スターク・ドレイパ・ラボラトリー・インコーポレイテッド パイプ検査のための拡張現実可視化
JP2021516448A (ja) * 2018-03-05 2021-07-01 ケーエルエー コーポレイション 三次元半導体構造の可視化

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2947911B1 (fr) * 2009-07-09 2011-06-17 Snecma Dispositif de controle d'un moteur de turbomachine
US20110115671A1 (en) * 2009-11-17 2011-05-19 Qualcomm Incorporated Determination of elevation of mobile station
KR101640767B1 (ko) * 2010-02-09 2016-07-29 삼성전자주식회사 이종 수행 환경을 위한 네트워크 기반의 실시간 가상 현실 입출력 시스템 및 가상 현실 입출력 방법
EP2567188A1 (en) * 2010-05-04 2013-03-13 Creaform Inc. Object inspection with referenced volumetric analysis sensor
KR101788046B1 (ko) * 2010-11-03 2017-10-19 엘지전자 주식회사 이동 단말기 및 그 제어방법
US9814442B2 (en) 2011-01-17 2017-11-14 Koninklijke Philips N.V. System and method for needle deployment detection in image-guided biopsy
US9058520B2 (en) 2011-09-22 2015-06-16 Siemens Corporation Systems and methods for hands free inspection
US9606992B2 (en) 2011-09-30 2017-03-28 Microsoft Technology Licensing, Llc Personal audio/visual apparatus providing resource management
US9268406B2 (en) 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
US9286711B2 (en) * 2011-09-30 2016-03-15 Microsoft Technology Licensing, Llc Representing a location at a previous time period using an augmented reality display
CN103445863B (zh) * 2012-06-02 2015-10-07 复旦大学 基于平板电脑的手术导航和增强现实系统
WO2014033583A1 (en) * 2012-08-28 2014-03-06 Koninklijke Philips N.V. Interventional guidance system with integrated tracking setup
US9251582B2 (en) 2012-12-31 2016-02-02 General Electric Company Methods and systems for enhanced automated visual inspection of a physical asset
US9612211B2 (en) 2013-03-14 2017-04-04 General Electric Company Methods and systems for enhanced tip-tracking and navigation of visual inspection devices
US20140351408A1 (en) * 2013-05-21 2014-11-27 International Business Machines Corporation Utilizing augmented reality for locating computer hardware associated to a reported incident
US9068906B2 (en) 2013-10-02 2015-06-30 Siemens Energy, Inc. Turbine blade-mounted sensor fixture for tip gap measurement
US9513117B2 (en) * 2013-10-02 2016-12-06 Siemens Energy, Inc. Situ blade mounted tip gap measurement for turbines
CN103750857B (zh) * 2013-12-30 2017-02-15 深圳市一体医疗科技有限公司 一种工作设备的工作角度确定方法及系统
KR102209008B1 (ko) 2014-02-17 2021-01-28 삼성전자주식회사 카메라 포즈 추정 장치 및 카메라 포즈 추정 방법
US11060979B2 (en) 2014-12-19 2021-07-13 General Electric Company System and method for engine inspection
US10026228B2 (en) * 2015-02-25 2018-07-17 Intel Corporation Scene modification for augmented reality using markers with parameters
US10867365B2 (en) * 2015-08-12 2020-12-15 Sony Corporation Image processing apparatus, image processing method, and image processing system for synthesizing an image
GB2542566A (en) * 2015-09-22 2017-03-29 Rolls Royce Plc Apparatus, methods, computer programs, and non-transitory computer readable storage mediums for controlling movement of robotic machinery
MX2018004337A (es) 2015-11-17 2018-05-22 Halliburton Energy Services Inc Transductores basados en sistema electromecanico (mems) en una herramienta de fondo de pozo.
US10196922B2 (en) 2015-12-09 2019-02-05 General Electric Company System and method for locating a probe within a gas turbine engine
US10196927B2 (en) 2015-12-09 2019-02-05 General Electric Company System and method for locating a probe within a gas turbine engine
US10222301B2 (en) * 2016-05-04 2019-03-05 Embraer S.A. Structural health monitoring system with the identification of the damage through a device based in augmented reality technology
BE1024192B1 (fr) 2016-05-09 2017-12-12 Safran Aero Boosters S.A. Procede et banc d'essai de turbomachine a realite augmentee
CN106568845A (zh) * 2016-10-10 2017-04-19 常州常瑞轨道交通科技有限公司 一种空心车轴探伤三维可视化表示方法
CN106503810A (zh) * 2016-10-21 2017-03-15 国网山东省电力公司泰安供电公司 一种暖通设备巡检装置和方法
CN106682652B (zh) * 2017-02-27 2020-06-23 上海大学 基于增强现实的结构表面病害巡检和分析方法
WO2018183709A1 (en) * 2017-03-31 2018-10-04 Abb Schweiz Ag Systems and methods for performing an inspection inside a machine
CN106990419A (zh) * 2017-04-06 2017-07-28 北京讯腾智慧科技股份有限公司 基于北斗精准服务网和ar技术的燃气泄漏检测系统和方法
US10222200B2 (en) 2017-05-12 2019-03-05 Siemens Energy, Inc. Contactless, blade-tip clearance measurement for turbines
CN107576731A (zh) * 2017-08-30 2018-01-12 天津大学 基于混合现实的模型实验结构裂纹扩展过程实时透视方法
US10488349B2 (en) 2017-11-14 2019-11-26 General Electric Company Automated borescope insertion system
US10489896B2 (en) 2017-11-14 2019-11-26 General Electric Company High dynamic range video capture using variable lighting
US10775315B2 (en) 2018-03-07 2020-09-15 General Electric Company Probe insertion system
EP3891499A4 (en) * 2018-12-04 2022-08-17 Waygate Technologies USA, LP DIGITAL TWIN OF AN AUTOMATED NON-DESTRUCTIVE ULTRASOUND TESTING SYSTEM
EP3719749A1 (en) 2019-04-03 2020-10-07 Fiagon AG Medical Technologies Registration method and setup
TWI747079B (zh) * 2019-11-19 2021-11-21 財團法人資訊工業策進會 機械手臂的定位精度量測系統與方法
US11138803B1 (en) 2020-04-30 2021-10-05 At&T Intellectual Property I, L.P. System for multi-presence interaction with extended reality objects
US11593927B2 (en) * 2020-06-19 2023-02-28 Rosemount Aerospace Inc. System for the inspection of air data probes
WO2022154847A1 (en) 2021-01-12 2022-07-21 Emed Labs, Llc Health testing and diagnostics platform
US11615888B2 (en) 2021-03-23 2023-03-28 Emed Labs, Llc Remote diagnostic testing and treatment
US11373756B1 (en) 2021-05-24 2022-06-28 Emed Labs, Llc Systems, devices, and methods for diagnostic aid kit apparatus
US11929168B2 (en) 2021-05-24 2024-03-12 Emed Labs, Llc Systems, devices, and methods for diagnostic aid kit apparatus
US20240202906A1 (en) * 2021-04-14 2024-06-20 Stuart Alexander CREWDSON Automated optical inspection for automotive components
GB2623461A (en) 2021-06-22 2024-04-17 Emed Labs Llc Systems, methods, and devices for non-human readable diagnostic tests
US12014829B2 (en) 2021-09-01 2024-06-18 Emed Labs, Llc Image processing and presentation techniques for enhanced proctoring sessions
IT202200007145A1 (it) 2022-04-12 2023-10-12 Vincenzo Stornelli Apparato accelerometrico e metodo di sincronizzazione con ridondanza di sensori, modalità di sincronizzazione e di comunicazione

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07218614A (ja) * 1994-01-31 1995-08-18 Suzuki Motor Corp 音源位置算出方法およびその装置
JPH09503410A (ja) * 1993-10-06 1997-04-08 バイオセンス,インコーポレイテッド 位置および配向の磁気測定
JP2000346634A (ja) * 1999-06-09 2000-12-15 Minolta Co Ltd 3次元入力装置
JP2003256876A (ja) * 2002-03-04 2003-09-12 Sony Corp 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム
JP2005338551A (ja) * 2004-05-28 2005-12-08 Olympus Corp 工業用内視鏡装置

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4176662A (en) * 1977-06-17 1979-12-04 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Apparatus for endoscopic examination
US5493308A (en) * 1992-06-12 1996-02-20 Lockheed Idaho Technologies Company Close range fault tolerant noncontacting position sensor
AU720597B2 (en) * 1996-02-15 2000-06-08 Biosense, Inc. Catheter calibration and usage monitoring system
CA2307877C (en) * 1997-10-30 2005-08-30 The Microoptical Corporation Eyeglass interface system
GB2331365B (en) 1997-11-15 2002-03-13 Roke Manor Research Catheter tracking system
US6625299B1 (en) * 1998-04-08 2003-09-23 Jeffrey Meisner Augmented reality technology
US6432041B1 (en) * 1998-09-09 2002-08-13 Olympus Optical Co., Ltd. Endoscope shape detecting apparatus wherein form detecting processing is controlled according to connection state of magnetic field generating means
WO2000052536A1 (de) 1999-03-02 2000-09-08 Siemens Aktiengesellschaft Bedien- und beobachtungssystem mit augmented reality-techniken
US6500008B1 (en) * 1999-03-15 2002-12-31 Information Decision Technologies, Llc Augmented reality-based firefighter training system and method
US6503195B1 (en) * 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US6511418B2 (en) * 2000-03-30 2003-01-28 The Board Of Trustees Of The Leland Stanford Junior University Apparatus and method for calibrating and endoscope
US6517478B2 (en) * 2000-03-30 2003-02-11 Cbyon, Inc. Apparatus and method for calibrating an endoscope
KR20020025301A (ko) * 2000-09-28 2002-04-04 오길록 다중 사용자를 지원하는 파노라믹 이미지를 이용한증강현실 영상의 제공 장치 및 그 방법
US7379077B2 (en) * 2001-08-23 2008-05-27 Siemens Corporate Research, Inc. Augmented and virtual reality guided instrument positioning using along-the-line-of-sight alignment
US7126558B1 (en) * 2001-10-19 2006-10-24 Accenture Global Services Gmbh Industrial augmented reality
DE10159610B4 (de) * 2001-12-05 2004-02-26 Siemens Ag System und Verfahren zur Erstellung einer Dokumentation von Arbeitsvorgängen, insbesondere im Umfeld Produktion, Montage, Service oder Wartung
US7127082B2 (en) * 2002-09-27 2006-10-24 Hrl Laboratories, Llc Active fiducials for augmented reality
US6867753B2 (en) * 2002-10-28 2005-03-15 University Of Washington Virtual image registration in augmented display field
SE0203908D0 (sv) * 2002-12-30 2002-12-30 Abb Research Ltd An augmented reality system and method
DE50308437D1 (de) * 2003-02-03 2007-11-29 Siemens Ag Projektion von synthetischer information
US7744528B2 (en) * 2003-02-26 2010-06-29 Infinite Biomedical Technologies, Llc Methods and devices for endoscopic imaging
WO2005058137A2 (en) * 2003-12-12 2005-06-30 University Of Washington Catheterscope 3d guidance and interface system
US9681925B2 (en) * 2004-04-21 2017-06-20 Siemens Medical Solutions Usa, Inc. Method for augmented reality instrument placement using an image based navigation system
DE102005061211B4 (de) * 2004-12-22 2023-04-06 Abb Schweiz Ag Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche
US8097003B2 (en) * 2005-05-13 2012-01-17 Boston Scientific Scimed, Inc. Endoscopic apparatus with integrated variceal ligation device
US9289267B2 (en) * 2005-06-14 2016-03-22 Siemens Medical Solutions Usa, Inc. Method and apparatus for minimally invasive surgery using endoscopes
US7301332B2 (en) * 2005-10-06 2007-11-27 Biosense Webster, Inc. Magnetic sensor assembly
US20070213616A1 (en) * 2005-10-20 2007-09-13 Thomas Anderson Systems and methods for arteriotomy localization
US7689003B2 (en) * 2006-03-20 2010-03-30 Siemens Energy, Inc. Combined 2D and 3D nondestructive examination
US8075486B2 (en) * 2006-05-03 2011-12-13 Biosense Webster, Inc. Enhanced ultrasound image display
US20080146941A1 (en) * 2006-12-13 2008-06-19 Ep Medsystems, Inc. Catheter Position Tracking for Intracardiac Catheters
US20080200807A1 (en) * 2007-02-20 2008-08-21 Accutome Ultrasound, Inc. Attitude-sensing ultrasound probe
US9055883B2 (en) * 2007-05-16 2015-06-16 General Electric Company Surgical navigation system with a trackable ultrasound catheter

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09503410A (ja) * 1993-10-06 1997-04-08 バイオセンス,インコーポレイテッド 位置および配向の磁気測定
JPH07218614A (ja) * 1994-01-31 1995-08-18 Suzuki Motor Corp 音源位置算出方法およびその装置
JP2000346634A (ja) * 1999-06-09 2000-12-15 Minolta Co Ltd 3次元入力装置
JP2003256876A (ja) * 2002-03-04 2003-09-12 Sony Corp 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム
JP2005338551A (ja) * 2004-05-28 2005-12-08 Olympus Corp 工業用内視鏡装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013541668A (ja) * 2010-10-21 2013-11-14 シーメンス エナジー インコーポレイテッド タービン機械の部品の動作状態を監視する診断システムおよび方法
JP2020510198A (ja) * 2017-03-07 2020-04-02 ザ・チャールズ・スターク・ドレイパ・ラボラトリー・インコーポレイテッド パイプ検査のための拡張現実可視化
JP2021516448A (ja) * 2018-03-05 2021-07-01 ケーエルエー コーポレイション 三次元半導体構造の可視化
JP7189959B2 (ja) 2018-03-05 2022-12-14 ケーエルエー コーポレイション 三次元半導体構造の可視化

Also Published As

Publication number Publication date
CN101470102A (zh) 2009-07-01
US8485038B2 (en) 2013-07-16
CN101470102B (zh) 2013-05-29
US20090154293A1 (en) 2009-06-18
DE102008055528A1 (de) 2009-06-25

Similar Documents

Publication Publication Date Title
JP2009150883A (ja) 拡張現実検査およびデータ可視化のシステムおよび方法
JP2009150883A6 (ja) 拡張現実検査およびデータ可視化のシステムおよび方法
US6926673B2 (en) Optical tracking systems
JP5955316B2 (ja) 検査センサを配置する方法及びシステム
CN105144249B (zh) 零件安装作业支持系统及零件安装方法
JP6153410B2 (ja) ブレード検査装置及びブレード検査方法
US7782453B2 (en) Method for measuring missing corner dimensions
JP2005165848A (ja) 複合現実感提示方法および装置
US10964044B2 (en) Method of operating measurement device, measurement device, and recording medium
JP2009109477A (ja) 構成部品の実測データを調査する方法および装置
JP6242105B2 (ja) ブレード検査装置及びブレード検査方法
JP5739028B2 (ja) 進入が制限された検査のための追跡可能な多軸ツール
JP2005055756A (ja) 内視鏡装置
JP2010151577A (ja) 配筋検査装置および配筋検査方法
US11232568B2 (en) Three-dimensional image display method, three-dimensional image display device, and recording medium
CN113302650A (zh) 用于检查难以触及的部件的方法和设备
JP2016095238A (ja) 渦電流探傷装置および渦電流探傷方法
Hubben et al. Advances in three dimensional measurement in remote visual inspection
WO2022213105A1 (en) Augmented reality in ultrasonic inspection
JP6403700B2 (ja) 検査システム、及び検査方法
JP5522397B2 (ja) 標識検定装置
JP5375239B2 (ja) 画像処理装置、長尺物用検査装置及びコンピュータプログラム
JP2008292414A (ja) X線ct装置
JP2023018984A (ja) 挿入支援システム、挿入支援方法、およびプログラム
US11856176B2 (en) Three-dimensional image display method, three-dimensional image display device, and recording medium

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20110217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130819

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140610