JP2022528202A - 位置合わせ方法およびセットアップ - Google Patents

位置合わせ方法およびセットアップ Download PDF

Info

Publication number
JP2022528202A
JP2022528202A JP2021560491A JP2021560491A JP2022528202A JP 2022528202 A JP2022528202 A JP 2022528202A JP 2021560491 A JP2021560491 A JP 2021560491A JP 2021560491 A JP2021560491 A JP 2021560491A JP 2022528202 A JP2022528202 A JP 2022528202A
Authority
JP
Japan
Prior art keywords
image sensor
sensor unit
detection system
position detection
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021560491A
Other languages
English (en)
Inventor
ディアク ムハ,
カイ デジンガー,
ニコラス ノーマン,
Original Assignee
インターセクト エント インターナショナル ゲーエムベーハー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターセクト エント インターナショナル ゲーエムベーハー filed Critical インターセクト エント インターナショナル ゲーエムベーハー
Publication of JP2022528202A publication Critical patent/JP2022528202A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T3/18
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

本発明は、位置検出システムに関連して物体の位置および配向を決定するための位置合わせ方法に関し、方法は、-少なくとも1つの動きセンサおよび/または少なくとも1つの位置センサを含む画像センサユニットを用いて、物体の表面の画像を捕捉するステップと、-その動きセンサによって提供される動きセンサ信号および/またはその位置センサによって提供される位置信号を処理することによって、位置検出システムの座標系における画像センサユニットの捕捉位置を決定するステップと、-捕捉画像から物体の表面モデルをフォトグラムで生成するステップと、-フォトグラム生成表面モデルを、位置検出システムの座標系に変換するステップと、を含む。

Description

本発明は、位置検出システムに関連して物体の位置および配向を決定するための位置合わせ方法および位置合わせセットアップに関する。
例えば、医療分野では、例えば、外科手術器具などの器具のナビゲーションを支持する位置検出システムは、それ自体が既知である。こうした位置検出システムは、光学式、超音波ベース、または電磁式の位置検出システムであり、位置検出システムに対する位置センサの位置および配向を検出するための役割を果たし得る。
例えば、電磁位置検出システムは、既知であり、ここで、磁場発生器が交流電磁場を生成し、コイルを含む位置センサが用意されている。交流電磁場によってコイル内に誘導される電流は、交流電磁場に対するそれぞれのコイルの配向に依存する。移動可能な器具が、例えば、センサコイルの形態で、こうした位置センサを装備している場合、例えば、同様にコイルを含むことができる、基準センサに対する器具の配置および場所を決定することができる。こうした基準センサは、好ましくは、患者の身体部分(または他の異なる物体)に強固に接続されている。
患者の体内で外科手術器具を操作する外科医を支持するために、位置センサを有する外科手術器具の位置は、通常、こうした位置検出システムによって検出され、器具の位置は、断層撮影によって取得された身体部分の断面画像中に表示される。
これが正常に機能するためには、器具の位置センサによって供給される位置値を患者の断層画像の座標に移動させなければならない。例として、患者の断層画像から身体部分の表面のトポグラフィー画像を生成する慣行は、トポグラフィー画像の表面上の点(以下、モデル表面とも呼ぶ)を、それぞれ、ポインター器具または感知器具によって接触される実際の身体部分の表面上の点と相関させるために知られている。したがって、位置検出システムによって検出される位置値をモデル座標に変換するための変換規定を、位置合わせ方法の範囲内で生成することができる。この目的のために、複数の点は、身体部分の実表面上に感知され、関連する位置値は、実表面上の点を表すが、モデル表面上の点と相関し、一方で、相互に対するそれらの相対位置は、これが可能な限り最小の誤差をもたらすような方法で維持される。ここでのトポグラフィーモデルとも呼ばれるトポグラフィー画像の座標、したがって、さらにトモグラフィー画像またはモデルの座標に検出された位置値がどのように変換されるかを指定する変換規定が、ここから現れる。
患者位置合わせは、動作中に検出された位置データを、手術前に取得された画像データの中の位置情報、例えば、断層撮影などに対応するようにするための変換関数の確立を指す。例として、上述のように、患者位置合わせの目的のために、患者モデルが検出され、位置合わせ方法の範囲内において、そこから検出された位置データおよび患者モデルを、手術前に取得された画像データに関連する位置情報に対応するようにする、変換関数が確立される。
いわゆる位置合わせと呼ばれる変換関数を決定する目的で、モデルおよび画像データ(例えば、断層撮影によって取得された)中の同じ幾何学的特徴が、それぞれの座標系内に確立される。次に、2つの座標系は、これらの特徴によって相関される。ポインター器具による表面位置合わせは、概して広範である。ここで、患者の皮膚表面は、対応する特徴としての役割を果たす。皮膚表面は、手術中にポインター器具によって感知され、画像データから抽出された皮膚表面と対応付けられる。
また、非触覚位置合わせ方法が記載されている。
US9208561(B2)に記載されるような非触覚位置合わせ方法によって、患者画像データを位置合わせし、基準センサとして画像センサユニット(モノフォーカルカメラまたは3Dカメラ)を使用する。画像センサユニットは、皮膚表面の表面モデルを生成し、基準センサを光学的に検出し、その位置を皮膚表面モデルに関連付ける。基準センサも位置検出システムによって追跡されるので、表面モデルの座標系から位置検出システムの座標系への皮膚表面モデル点の変換を決定し、それによって、患者画像データへの位置合わせを計算することができる。
別の非触覚位置合わせ方法は、光学位置検出システムと強固に組み合わされた構造化された光またはレーザーエミッタ/レシーバユニットを使用する。光学位置検出システムは、多くの場合、光エミッタ/レシーバユニットと、光エミッタ/レシーバユニットによって放射される光を反射するように構成される位置センサと、を含む。次いで、エミッタ/レシーバユニットは、位置センサの位置および配向を取得することができる、反射光を検出する。このように、構造化された光またはレーザーエミッタ/レシーバユニットによって生成される表面モデルは、光学位置検出システムの座標系で既知である。
米国特許第9,208,561号公報
本発明の目的は、改善された非触覚位置合わせ方法および改善された位置合わせセットアップを提供することである。
位置合わせ方法に関して、この物体は、位置検出システムに関連して物体の位置および配向を決定するための位置合わせ方法によって達成され、方法は、
-少なくとも1つの動きセンサおよび/または少なくとも1つの位置センサを含む画像センサユニットを用いて、物体の表面の画像を捕捉するステップと、
-その動きセンサによって提供される動きセンサ信号および/またはその位置センサによって提供される位置信号を処理することによって、画像センサユニットの捕捉位置を決定するステップと、
-捕捉画像から物体の表面モデルをフォトグラムで生成するステップと、
-フォトグラム生成表面モデルを、位置検出システムの座標系に変換するステップと、を含む。
本明細書のフレームワーク内で、用語「捕捉位置」は、物体の画像を捕捉するときの画像センサユニットの位置を指す。例えば、用語「捕捉位置」は、画像を捕捉するときの画像センサユニットの一部であるカメラの入口瞳孔の位置を指す。
これらのステップのうち、「画像センサユニットで物体の表面の画像を捕捉すること」、「画像センサユニットの捕捉位置を決定すること」、および「捕捉画像から物体の表面モデルをフォトグラムで生成すること」からなる一連のステップシーケンスは、無関係である。したがって、まず、物体の表面の画像を撮影し、その後にのみ、画像センサユニットの捕捉位置を決定することができる。物体の表面モデルをフォトグラムで生成した後に、画像センサユニットの捕捉位置を決定することでさえ可能である。しかしながら、画像センサユニットの捕捉位置は、フォトグラム生成表面モデルを位置検出システムの座標系に変換するために必要である。これについて以下でより詳細に説明する。
本発明は、例えば、ポインター器具との接触中に変形する可能性のある患者の軟質の皮膚を原因とする、ポインター器具による既知の位置合わせ方法の場合に生じる問題を回避することができる利点を、一般的に非触覚位置合わせ方法が有するという認識を含む。さらに、表面モデルの光学的生成は、身体の一部または物体の表面のより大きな部分を同時検出することを可能にするため、位置合わせはまた、より迅速にかつ同時に、より正確に行うことができる。
表面の画像を捕捉するときに、画像センサユニットを物体の表面から十分な距離に配置することが好ましい。これは、典型的には、電磁位置検出システムの電磁場が、電磁位置検出システムによって画像センサユニットの位置の決定を可能にするために、画像センサユニットの捕捉位置で弱すぎることを意味している。
位置検出システムに対する物体の位置および配向を決定するための一般的な概念は、以下のように説明することができる。
好ましくは、物体の表面モデルは、画像センサユニットによってフォトグラムで生成される。表面モデルは、点群によって表されてもよく、点群の点の座標は、表面モデルの座標系で画定される。表面モデルの座標系は、画像センサユニットの固有座標系、またはより正確には、画像センサユニット内に含まれるカメラである。好ましくは、表面モデルの座標系は、その原点が、メイジセンサユニットのカメラの入口瞳孔の位置にあるように画定される。
物体の表面を表す点群の点は、表面モデルの座標系および位置検出システムの座標系の両方で座標を有する。
捕捉画像から表面モデルをフォトグラムで生成することによって、点群の点の座標が、表面モデルの座標系で最初に取得される。位置検出システムの座標系における点群のこれらの点を表す座標は、変換によって取得され得る。
こうした変換を実施するために、表面モデルの座標系に画定される点群の点のそれぞれの座標を、位置検出システムの座標系の座標に変換するために、変換関数を用いることができる。変換関数は、変換行列を含んでもよく、または変換行列によって表されてもよい。
画像センサユニットの座標系の座標を位置検出システムの座標系の座標に変換するための変換関数を取得するために、画像を捕捉する瞬間の画像センサユニットの位置および配向が必要である。これは、画像センサユニットの座標系が、画像センサユニット上、特に画像センサユニットの入口瞳孔の中心にあるためである。
画像センサユニットの位置、すなわち、位置検出システムの座標に関する捕捉位置は、画像センサユニット上に配置される、センサ、例えば、動きセンサまたは位置センサによって取得され得る。典型的には、こうしたセンサは、画像センサユニットの入口瞳孔に対してオフセットを有する。したがって、その原点での捕捉位置を有する画像センサユニットの座標系は、捕捉位置の座標が非自明ベクトルによって画定される、動きセンサおよび/または位置センサの座標系に対するオフセットを有する。こうしたオフセット(すなわち、ベクトル)は、キャリブレーションによって決定され得、画像センサユニットの座標系の座標に関して、または画像センサユニット上に配置されるセンサのセンサの座標系の座標に関して表現され得る。したがって、キャリブレーションによって、動きセンサおよび/または位置センサの座標系における捕捉位置の座標を決定することができる。次に、画像センサユニットの座標系は、その原点(表面モデルの座標系における捕捉位置である)を、動きセンサおよび/または位置センサの座標系における捕捉位置の座標に「取り付ける」ことができる。
それによって、表面モデルの点群の点を表す表面モデルの座標系における座標は、動きセンサまたは位置センサの座標系を介して、位置検出システムの座標系に変換され得る。
本発明による位置合わせ方法の好ましい変形例を以下に記載する。
画像センサユニットが位置センサを含む場合、画像センサユニットの並進運動および回転は、位置センサの位置および配向を検出することによって決定され得る。したがって、位置センサの座標系における捕捉位置の座標およびその配向は、位置検出システムの座標系で直接的に決定され得る。位置センサの座標系の配向から、画像センサユニットの回転を決定することができる。
画像センサユニットが、動きセンサ(位置センサなし)のみを含む場合、画像センサユニットの並進運動および回転は、位置検出システムに関連して間接的に決定され得る。画像センサユニットの位置および配向の間接的な決定を可能にする1つの方法は、位置検出システムの座標系で既知の座標のある位置から、またはその位置への経路に沿って、画像センサユニットを移動させることである。動きセンサの経路上の点は、位置検出システムの座標系におけるこの既知の位置と相関することができる。したがって、画像センサユニットの並進移動および回転は、位置検出システムの座標系に対する動きセンサの座標系の位置および配向を検出することによって決定され得る。それによって、位置検出システムの座標系に対する動きセンサの座標系の位置および配向を決定することができる。動きセンサを入口瞳孔の位置に対してキャリブレーションすることによって、動きセンサの座標系における捕捉位置の座標を決定することができる。これから、検出システムの座標系における捕捉位置の座標を決定することができる。
動きセンサおよび/または位置センサの座標系は、画像センサユニットのカメラと、画像センサユニット上に配置された動きセンサおよび/または位置センサとの間の相対的な距離および配向が一定のままであるような表面モデルの座標系との固定関係を有する。したがって、キャリブレーションベクトルは、動きセンサおよび/または位置センサの表面モデルの座標系と座標系との間のオフセットを表すように決定され得る。これは、カメラ、例えば、動きセンサおよび/または位置センサに対するカメラの入口瞳孔の位置をキャリブレーションすることによって行うことができる。キャリブレーションは、表面モデルの座標系と動きセンサまたは位置センサの座標系との間の変換関数を決定することを含み得る。それによって、動きセンサおよび/または位置センサの座標系における捕捉ポーションの座標を決定することができる。
特に、画像センサユニットが位置検出システムに比較的近い位置にある場合、捕捉位置は、画像センサユニットに取り付けられた位置センサを使用することによって決定され得、位置検出システムと位置付けられて、画像センサユニットの位置および配向を局在化することができる。画像センサユニットの入口瞳孔の位置に対して位置センサをキャリブレーションした後、位置センサの座標系における決定された捕捉位置の座標を、位置検出システムの座標系に変換することができる。これらの実施形態では、画像センサユニットの位置および配向は、電磁または光学位置検出システムを用いて直接的に追跡され得る。しかしながら、画像センサユニットの捕捉位置を決定するために位置センサのみを使用することは、電磁位置検出システムの電磁場が弱すぎる、すなわち、位置検出システムの作業空間の外側にある捕捉位置を決定することを可能にするものではない。
したがって、画像センサユニットが位置センサを含み、画像センサユニットがさらに動きセンサを含む、これらの実施形態の一部において、有益である。画像センサユニットが、位置センサおよび動きセンサの両方を含む場合、位置センサを使用して、例えば、画像センサユニットが移動する、ユーザが選択した経路の開始位置を決定することができる。次に、画像センサユニットが移動する経路は、位置センサもしくは動きセンサのいずれか、またはその両方のセンサで追跡され得る。
代替的にまたは追加的に、捕捉位置は、画像センサユニットから局在化されている位置検出システムの座標系内の位置および配向を検出するための位置センサを使用することによっても決定され得る。こうした基準位置センサは、物体自体に取り付けられてもよく、または物体に対して相対距離で配置されて、その結果、物体の画像を捕捉するときに、基準位置センサは、物体と一緒にその画像中で可視的である。次に、基準位置センサは、位置検出システムの座標系における座標に対するその画像内の基準を提供し、それによって、位置検出システムの座標系における座標に表面モデル上の点を相関させることを可能にする。それによって、表面モデルの任意の点の座標を、位置検出システムの座標系のそれぞれの座標に変換することができる。このアプローチはまた、画像センサユニットが位置センサおよび/または動きセンサを含む、位置合わせ方法の実施形態と組み合わせることができる。
代替的にまたは追加的に、捕捉位置はまた、画像センサユニットを、例えば、位置検出システムの座標系で既知である画像センサユニットホルダの位置によって画定される予め画定された位置に固定することによって決定され得る。予め画定された位置はまた、画像センサユニットを電磁位置検出システムのフィールドジェネレータに直接的に取り付けることによって画定され得る。画像センサユニットが、位置検出システムの座標系で既知の座標を有する予め画定された位置に固定されると、画像が捕捉され得る。次に、捕捉位置を、予め画定された位置、例えば、ホルダ内に含まれる位置センサの位置に対してキャリブレーションすることができる。次いで、位置検出システムの座標系における捕捉位置の座標を決定することができる。予め画定された位置に固定される画像センサユニットはまた、位置センサおよび/または動きセンサ自体を含み得る。また、物体に取り付けられるか、または物体に対して配置される基準位置センサが、物体と一緒に捕捉画像上に可視的であるように、画像を捕捉することができる。
本発明による位置合わせ方法の様々な実施形態では、特に、画像センサユニットが位置センサを含む位置合わせのこうした実施形態では、位置合わせ方法は、
-位置検出システムとは無関係に、経時的な線形加速度および/または回転速度を検出するための少なくとも1つの動きセンサを含む、少なくとも1つの画像センサユニットを提供するステップを含み得る。
画像センサユニットが、動きセンサを含むこれらの様々な実施形態のうちのいくつかの実施形態において、「画像センサユニットの捕捉位置を決定する」ステップは、
-位置検出システムに対する空間経路に沿って、画像センサユニットを移動させるサブステップと、
-動きセンサによって提供される動きセンサ信号を処理することによって、画像センサユニットのその経路を記録するサブステップと、
-その決定された経路の少なくとも1つの点を、位置検出システムの座標系内の座標に関連付けるサブステップと、
-決定された経路ならびに決定された経路およびその座標上の少なくとも1つの点の既知の空間関係に基づいて、画像センサユニットの捕捉位置を決定するサブステップと、を含む。
これらのサブステップは、位置検出システムに対してその画像センサユニットを移動させながら、画像センサユニットの位置を決定することを指す。これらのサブステップは、画像が捕捉される前に、または画像が捕捉された後に実施され得る。
画像センサユニットが移動する経路は、ユーザによって選択されてもよく、すなわち、特定の所定の経路に従う必要はない。
位置検出システムの座標系内の座標にその決定された経路の少なくとも1つの点を関連付けるサブステップ、ならびに決定された経路および決定された経路およびその座標上の少なくとも1つの点の既知の空間関係に基づいて、物体の画像が捕捉される画像センサユニットの捕捉位置を決定するサブステップは、位置検出システムの座標系における記録された経路の位置および配向を決定するのに役立つ。特に、位置検出システムの座標系内の座標にその決定された経路の少なくとも1つの点を関連付けるサブステップは、画像が捕捉されたかどうかとは無関係に機能する。したがって、画像センサユニットの経路は、画像を捕捉することなく、またはその前に記録され得る。しかしながら、特に位置検出システムの座標系における捕捉位置を決定するために、画像センサユニットが捕捉位置へ、またはそれから離れるように移動された経路が決定されること、および決定された経路上の少なくとも1つの点と、位置検出システムの座標系における座標との空間関係が既知であることが必要とされる。
その決定された経路の少なくとも1つの点を、位置検出システムの座標系内の座標に関連付けることは、様々な方法で達成され得る。例えば、位置検出システムの座標系内の既知の位置から経路に沿って画像センサユニットを移動させることによって、座標系の座標への経路の一点間の空間関係を確立することが可能である。画像センサユニットが、位置検出システムの座標系における既知の座標を有する位置に到達すると、位置検出システムの座標系における座標と、その決定された経路の少なくとも1つの点との間の既知の空間関係が確立される。既知の位置にあるとき、動きセンサは、リセットされ得る。
少なくとも1つの捕捉画像から物体の表面モデルをフォトグラムで生成するステップは、画像を捕捉されたことのみを必要とし、画像が捕捉された後に適宜実施され得る。
画像センサユニットが動きセンサを含む様々な実施形態だけでなく、画像センサユニットが追加の位置センサを含む位置合わせ方法の他の変形において、「フォトグラム生成表面モデルを位置検出システムの座標系に変換する」ステップは、
-生成表面モデルの少なくとも1つの点を、キャリブレーションによって、動きセンサおよび/または位置センサの座標系内の座標に関連付けるサブステップを含む。
写真測量については、カメラの入口瞳孔(前結節点としても知られる)は、典型的には、表面モデルのフォトグラム生成の参照として選択される。画像センサユニットの入口瞳孔は、画像センサユニット内に含まれる動きセンサおよび/または位置センサに対する固定の相対距離および配向を有する。これにより、画像センサユニットの座標系とセンサの座標系との間のオフセットが生じる。このオフセットは、キャリブレーションによって決定され得る。
捕捉位置、例えば、入口瞳孔の位置は、好ましくは、画像センサユニットの座標系の原点として設定される。画像センサユニットと位置または動きセンサとの間のオフセットを決定することによって、動きセンサおよび/または位置センサの座標系における捕捉位置を決定することができる。
それによって、画像センサユニットの座標系内の座標によって最初に画定されるような生成表面モデルの点は、センサの座標系のそれぞれの座標に関連し、次に、位置検出システムの座標系のそれぞれの座標に関連付けられ得る。
このサブステップでは、表面モデルが生成され、したがって、画像を捕捉する必要がある。このサブステップは、表面モデルが生成された後、適宜実施され得る。
好ましくは、生成表面モデルの少なくとも1つの点を、動きセンサおよび/または位置センサの座標系における座標に関連付けるこのサブステップは、
-キャリブレーションによって、動きセンサおよび/または位置センサの座標系と画像センサユニットの座標系との間の座標の変換について、変換関数が決定されることと、
-画像センサユニットの捕捉位置の座標が、動きおよび/または位置センサの座標系でそれぞれ決定されることと、を含む。
結果として、動きセンサおよび/または位置センサの座標系における捕捉位置の座標が取得される。動きセンサおよび/または位置センサの位置および配向、ならびにしたがって、センサの座標系が位置検出システムの座標系に関連して既知である(または決定され得る)ので、位置検出システムの座標系における捕捉位置の座標も決定され得る。変換関数を使用することによって、表面モデルの(画像センサユニットの)座標系におけるフォトグラム生成表面モデルの座標は、位置検出システムの座標系に変換され得る。
特に、画像センサユニットが動きセンサを含む様々な実施形態による位置合わせ方法によって、現在の非触覚位置合わせ方法の限界を克服することができる。例えば、US9208561(B2)に記載されるような非触覚位置合わせ方法は、位置検出システムの座標系における位置および配向を検出するための位置センサが、画像センサユニットに結合されるか、または画像センサユニットによって構成されることを必要とする。位置センサによって、画像センサユニットの位置および配向は、位置検出システムの座標系で直接的に決定され得る。
本発明は、画像センサユニットが位置センサに結合されるか、または位置センサを含むこうした現在の非触覚位置合わせ方法が、位置センサが位置検出システムによって実際に確実に検出され得る場合にのみ機能するというさらなる認識を含む。結果として、こうした非触覚位置合わせ方法の適用は、典型的には、位置検出システムの作業空間に限定される。位置検出システムの作業空間は、例えば、位置検出システムの光学または電磁場が、特定の電界強度を有し、位置センサの位置および配向を確実に決定するために十分に均質である、空間である。しかしながら、位置センサに結合される、または位置センサを含む画像センサユニットが、位置検出システムの光学もしくは電磁場の作業空間がかなり弱いか、または作業空間がかなり不均一である位置検出システムから離れている場合、現在の非触覚位置合わせ方法は、正確性を失うことが予想され、もはや信頼性のある方法で適用されない可能性がある。
画像センサユニットが少なくとも1つの動きセンサを含む様々な実施形態による位置合わせ方法では、画像センサユニット自体が位置センサを含むか、または位置センサに結合される必要はない。加速度計もしくはジャイロスコープ、またはまた磁気計からなる慣性センサなどのいくつかの動きセンサを含む、動きセンサまたは好ましくは、動きセンサ配置で、直線加速度および移動体の回転速度が検出され得る。動きセンサは、経時的に検出された直線加速度および回転速度を表す動きセンサ信号を提供する。例えば、動きセンサ信号は、例えば、追跡ユニットによって統合されて処理され、それゆえ、画像センサユニットが移動した経路を決定することができる。画像センサユニットが位置検出システムに対して移動する経路は、経時的な一連の場所を含む。特に、この経路は、位置検出システムに対して自由に選択される経路である。動きセンサによる画像センサユニットの動きの追跡は、位置検出システムとは独立して機能する。
動きセンサは、位置検出システムとは独立して機能するが、特に、画像センサユニットが少なくとも1つの動きセンサを含む様々な実施形態による非触覚位置合わせ方法では、位置検出システムに関連して物体の位置および配向を決定することは依然として可能である。これは、画像センサユニットが移動する経路が、動きセンサによって提供される動きセンサ信号を処理することによって記録されるので、およびその決定された経路の少なくとも1つの点が、位置検出システムの座標系内の座標に関連するので達成される。それによって、決定された経路の少なくとも1つの点について、位置検出システムの座標系内の座標を決定することができる。位置検出システムに関連して物体の位置および配向を決定するために、特に、物体の画像が画像センサユニットによって捕捉される捕捉位置は、位置検出システムの座標系内で決定される必要がある。位置検出システムの座標系内の動きセンサを含む画像センサユニットの捕捉位置を決定する際に、画像センサユニットの決定された経路、ならびに決定された経路およびその座標上の少なくとも1つの点の既知の空間関係は、少なくとも既知でなければならない。
さらに、動きセンサの位置、またはセンサ配置の場合、動きセンサは、画像センサユニットのカメラの入口瞳孔に対してキャリブレーションされなければならない。画像センサユニットが2つ以上のカメラを含む場合、または1つのカメラが2つ以上の入口瞳孔を含む場合、複数の入口瞳孔は、互いに、および1つ以上の動きセンサに対してキャリブレーションされなければならない。1つ以上の位置センサなどのさらなるセンサも、画像センサユニット内に含まれる場合、入口瞳孔がまた、これらの位置センサに対してキャリブレーションされなければならない。キャリブレーションは、2つの要素、例えば、入口瞳孔および/またはセンサの座標系間の変換に対する変換関数の決定を指す。これらの変換関数は、典型的には、例えば、画像センサユニットに取り付けた後にそれぞれの入口瞳孔および/またはセンサ間の相対距離および配向が変化しないため、一度決定されなければならない。
この点において、画像センサユニットは、光学ステレオグラフィックカメラもしくは光学マルチカメラまたは飛行時間カメラなどの3-Dカメラを含むことが好ましいことが、既に強調されている。
捕捉位置で捕捉画像から、表面モデルがフォトグラムで生成される。次に、この表面モデルの点は、キャリブレーションによって、動きセンサおよび/または位置センサの座標系の座標に関連付けられる。これは、動きセンサおよび/または位置センサの座標系の座標を、表面モデルの座標系の対応する座標に変換するために、変換関数が決定されることを含むことができる。
キャリブレーションの後、表面モデルの座標系に画定された表面モデル上の点を、位置検出システムの座標系の座標に割り当てることができる。特に、表面モデルの座標系に画定される表面モデル上の点は、その経路上の少なくとも1つの点に対する既知の空間関係を有する位置検出システムの座標系の座標に割り当てられ得る。こうした空間関係は、位置検出システムの座標系で既知の位置から、またはその位置へと画像センサユニットを移動することによって確立され得る。キャリブレーション後、生成表面モデルを、位置検出システムの座標系に変換し、それゆえに座標系に位置合わせすることができる。
本発明による非触覚位置合わせ方法、特に、画像センサユニットが動きセンサを含む様々な実施形態による位置合わせ方法では、位置検出システムに対する物体の位置および配向を高精度に決定することが可能である。さらに、位置合わせ方法は、比較的容易かつ迅速、特に、画像センサユニットが動きセンサを含む様々な実施形態に関して、位置検出システムの作業空間に空間的限定されることなく、実施され得る。したがって、それは、位置検出システムに対する物体の位置および配向が依然として信頼できる様式で決定され得る一方で、位置検出システムの作業空間から比較的自由に独立して、画像センサユニットを移動させることができる位置合わせ方法の特定の利点である。これにより、したがって、最も適した捕捉位置で物体の画像を捕捉することができる。多くの場合、最も適切な捕捉位置は、位置検出システムの作業空間の外側に位置してもよく、今では確実にアクセス可能である。
好ましくは、カメラの入口瞳孔の位置は、画像センサユニット内に含まれるセンサの位置に対してキャリブレーションされる。センサの位置および配向は、位置検出システムに関連して決定され得るため、画像センサユニットの座標系での捕捉位置の座標を、位置検出システムの座標系に変換することができる。
画像を捕捉するときのセンサの位置は、経路の開始点または終了点であってもよいが、軌道の開始点と終了点との間にある経路上の任意の他の点にも対応し得る。
位置検出システムの座標系における決定された経路およびその座標上の少なくとも1つの点の既知の空間関係は、決定された経路上の少なくとも1つの点から、位置検出システムの座標系におけるその座標との相対距離であることができる。位置検出システムの座標系におけるその座標は、画像センサユニットを移動させる前に先験的に既知であるか、または画定されていることが好ましい。例えば、画像センサユニットが、位置検出システムの座標系で既知の位置から、またはその位置に移動する場合、位置検出システムの座標系内の座標と、その決定された経路の少なくとも1つの点との間の既知の空間関係が確立される。この既知の空間関係および位置検出システムに対する経路の既知の配向から、記録された経路上の任意の他の点を、位置検出システムの座標系に変換することができる。
好ましくは、位置検出システムの座標系における座標に、その決定された経路の少なくとも1つの点を関連付けることによって、位置検出システムの座標系における座標への経路の少なくとも1つの点からの相対距離、ならびに位置検出システムの座標系におけるその経路の配向が取得される。いくつかの実施形態では、これは、その決定された経路の少なくとも2つの点を、位置検出システムの座標系の異なる座標に各々関連付けることを必要とする。決定された経路の少なくとも1つの点から位置検出システムの座標系における座標までの相対距離、ならびに位置検出システムの座標系における経路の配向から、経路上の任意の点の相対距離、および特に、画像を捕捉するときのセンサの位置は、位置検出システムの座標系で決定され得る。
本発明による位置合わせ方法は、光学、電磁、または超音波ベースの位置検出システムなどの異なる位置検出システムを用いて実行され得る。しかしながら、本発明による位置合わせ方法は、電磁位置検出システムを用いて実行されることが好ましい。
経路上の少なくとも1つの点に対する既知の空間関係を有する座標は、例えば、フィールドジェネレータ、または位置検出システム自体の光源の位置によって画定され得る。例えば、フィールドジェネレータの位置は、電磁位置検出システムによってスパンされる座標系の原点とみなすことができる。経路上の少なくとも1つの点に対して既知の空間関係を有する座標はまた、フィールドジェネレータまたは光源に対して距離を置いて、例えば、固定位置に置かれた位置センサの位置によって画定され得る。こうした位置センサは、物体に取り付けることができる。位置センサはまた、画像センサユニット用の画像センサユニットホルダに含むことができる。座標は、位置センサが接触点内に含まれる経路上の少なくとも1つの点に対する既知の空間関係を有する。画像センサユニットは、接触点に移動させ、それに接触させることができる。画像センサユニットを経路に沿って接触点から離れて移動させるときに、経路上の各点は、好ましくは、接触点、特に、接触点の位置センサと相関させることができる。画像センサユニット自体が位置センサを含む場合、経路上の少なくとも1つの点に対する既知の空間関係を有する座標はまた、位置センサ、およびしたがって、位置検出システムの座標系内で検出される画像センサユニットの特定の位置または記録された経路によって画定され得る。例えば、画像センサユニット自体が、位置検出システムの座標系における位置および配向を検出するための位置センサをさらに含む場合、位置センサの任意の位置は、経路上の少なくとも1つの点に対する既知の空間関係を有する座標として画定され得る。この座標から開始すると、画像センサユニットは、動きセンサによって提供される動きセンサ信号を処理することによって記録される経路に沿って移動することができる。
少なくとも1つの捕捉画像からフォトグラムで生成される物体の表面モデルは、画像センサユニットによって、または代替的に、それぞれの位置合わせセットアップの一部である位置決定ユニットによって計算され得る。
画像が捕捉される物体は、患者の身体部分、例えば、患者の顔であってもよい。
画像センサユニットが、動きセンサを含む様々な実施形態の一部の実施形態では、画像センサユニットは、位置検出システムの座標系で既知である位置のその座標で開始され、画像が捕捉されるセンサの位置で終了する経路に沿って移動する。好ましくは、次に、画像が捕捉されるセンサの位置が、記録された経路およびその経路の開始点の少なくとも既知の空間関係およびその座標系に基づいて、位置検出システムの座標系において決定される。
画像センサユニットの移動が開始する位置検出システムの座標系における座標は、位置検出システムの作業空間内にある。画像センサユニットは、作業空間の外側の位置であっても、この既知の位置から離れて移動することができる。画像センサユニットが移動する経路は、既知の開始位置から始まるため、位置検出システムの座標系における経路の配向が既知の場合、経路上の任意の点から既知の開始位置への相対距離を計算することができる。これは、経路上の任意の点、特に、この経路上にある画像が捕捉される位置検出システムに対する任意のセンサ位置を、位置検出システムの座標系で決定することができることを意味する。経路の小部分は、作業空間の外側にあり、なおかつ静止していてもよい。これは、パッチが、動きセンサによって提供される動きセンサ信号を処理することによって記録されるため、作業空間の外側にある経路上の任意の点が、位置検出システムの座標系でも決定され得る。特に、位置検出システムの作業空間の外側にある捕捉位置がまた、依然として位置検出システムの座標系内で決定され得る。
画像センサユニットが、動きセンサを含む様々な実施形態の一部の代替の実施形態では、画像センサユニットが移動する経路は、捕捉位置から始まり、位置検出システムの座標系のその既知の座標で終了し、画像が捕捉された後、画像センサユニットはこの経路に沿って移動する。好ましくは、次に、捕捉位置が、記録された経路およびその経路の終了点の少なくとも既知の空間関係およびその座標系に基づいて、位置検出システムの座標系において決定される。
これらの代替の実施形態では、画像センサユニットを移動させ、画像を捕捉するステップは、画像センサユニットが位置検出システムの座標系におけるその座標で開始し、捕捉位置で終了する、経路に沿って移動する前述の実施形態と比較して逆の順序である。前述の実施形態およびこれらの代替的な実施形態の両方は、同じ結果をもたらすことができる。
画像センサユニットが動きセンサを含む様々な実施形態のこれらの代替的な実施形態ではまた、捕捉位置は、位置検出システムの作業空間の外側に位置し得る。しかしながら、捕捉位置からこの経路の終了点を示す位置検出システムの座標系におけるその座標までの経路は、動きセンサによって提供される動きセンサ信号を処理することによって記録されるので、位置検出システムの座標系における経路の配向が既知である場合、任意の点から、特に捕捉位置から終了点までの相対距離は、画像を捕捉した後の動きセンサ信号に基づいて計算され得る。
画像センサユニットを位置検出システムの座標系内の既知の位置に、またはそこから移動させることにより、位置検出システムの座標系と動きセンサの移動の経路との間の空間関係が確立される。一般的に言えば、画像センサユニットが動きセンサを含む実施形態では、画像が捕捉される捕捉位置は、位置検出システムの座標系における座標と、動きセンサによって提供される動きセンサ信号を処理することによって記録される経路上の点との間の既知の空間関係のみに基づいて決定され得る。この場合、捕捉位置を決定するために位置センサを必要としない。特に、必要な空間関係は、画像センサユニットを、位置検出システムの座標系における位置が既知である捕捉位置から終了点までの経路に沿って移動させることによって、または位置検出システムの座標系における位置が既知である開始点から捕捉位置までの経路に沿って画像センサユニットを移動させることによって達成され得る。
本発明による位置合わせ方法は、物体の移動を検出する一方で、物体上に配置される位置検出システムの座標系における位置および配向を検出するための位置センサによって、画像を捕捉し、検出された移動をタイムスタンプと一緒に表す移動信号を提供するステップをさらに含み得る。画像の捕捉中に物体の移動が検出された場合、アラーム信号がトリガされて、物体が画像の捕捉中に移動したことをユーザに通知することができる。
このステップを実装するための適切な位置センサは、検出された移動をタイムスタンプと一緒に表すセンサ信号を提供するように構成され得る。センサ信号は、例えば、位置合わせセットアップの位置決定ユニットに送達され得る。位置決定ユニットは、センサ信号を使用して、検出された移動を補正値として、それぞれのセンサ信号と同じタイムスタンプを有する画像センサユニットの位置に適用することによって、画像捕捉中の物体の検出された移動を補正するように構成され得る。それによって、生成表面モデルの少なくとも1つの点を、動きセンサおよび/または位置センサの座標系内の座標に関連付けることが、補正された捕捉位置を使用して実施され得る。
特に、画像センサユニットが、位置検出ユニットの座標系における位置および配向を検出するための位置センサを含まないそのような実施形態、または画像センサユニットが位置検出システムの作業空間の外側に位置する実施形態では、画像センサユニットが移動する経路は、動きセンサによって提供される動きセンサ信号を処理することによってのみ記録されることが好ましい。
しかしながら、画像センサユニットが、任意の位置センサをさらに含む場合、位置合わせ方法は、位置検出システムの座標系内の画像センサユニットによって構成される位置センサの位置および配向を検出するステップを含み得る。位置センサの決定された位置および配向から、その位置検出システムの座標系内の画像センサユニットの位置および配向が、計算され得る。
画像センサユニットが、動きセンサおよび位置センサを含む場合、好ましくは、経路(画像センサユニットが移動し、動きセンサ信号を処理することによって記録される)の開始点または終了点は、位置センサの位置および配向を検出することによって、位置検出システムの座標系における座標として決定される。それによって、経路上の任意の点、特に、画像が捕捉されるセンサの位置は、位置検出システムの座標系における座標が既知である位置と空間的に相関することができる。
画像センサユニットがまた位置センサを含む場合、画像センサユニットの位置および配向は、位置検出システムの座標系内で直接的に位置センサによって追跡され得る。したがって、位置センサを含む画像センサユニットが、位置検出システムの作業空間内で移動する限り、画像センサユニットの位置および配向は、位置検出システムの座標系内で直接的に決定され得る。さらに、動きセンサによって追跡される軌道の開始点は、位置センサの位置および配向を決定することによって、位置検出システムの座標系内で直接的に決定され得る。位置検出システムの座標系内で軌道の開始点を決定することができるという事実は、例えば、表示装置上で、または音響的に、ユーザに通知することができる。また、画像センサユニットが移動する経路は、動きセンサによって提供される動きセンサ信号、および位置センサによって提供される位置値を表す位置信号の両方を処理することによって記録または追跡され得る。例えば、それは、画像センサの経路を記録するために、動きセンサが、特定の状況で位置センサから引き継ぐか、または位置センサを支持する場合、または位置センサによって提供される位置値を補正するために使用され得る場合に有益である。
画像センサユニットが位置検出システムの作業空間内で移動する限り、位置検出システムに対する物体の位置および配向は、動きセンサによって提供される動きセンサ信号、および位置センサによって提供される位置値を表す位置信号の両方に基づいて決定され得る。
それは、動きセンサ信号および位置信号の両方の処理が、両方の信号を比較して、画像センサユニットが移動した経路を記録する精度を改善することを含む場合に有益である。
画像センサユニットが作業空間の外側に移動すると、位置センサは、信頼性の高い位置値の提供を停止する。しかしながら、作業空間を離れるときも、画像センサユニットの経路は、依然として動きセンサによって提供される動きセンサ信号を処理することによって、信頼性のある様式で記録され得る。例えば、動きセンサは、経路の追跡を位置センサから引き継ぐことができる。それによって、位置検出システムに対する物体の位置および配向を決定するために、画像センサユニットを移動することができる空間が、位置検出システムの作業空間に対して増加する。これにより、位置検出システムの作業空間の外側に位置し得ることが多い、最も適切な位置で物体の画像を捕捉することができる。
本発明による位置合わせ方法は、物体に対して位置付けられた基準位置センサと一緒に物体の画像を捕捉するステップと、捕捉された画像から基準位置センサと一緒に表面モデルをフォトグラムで生成し、その結果、フォトグラム生成表面モデルの座標系における基準位置センサの位置が決定され得る一方で、同時に、位置検出システムの座標系の座標に関して、位置情報を提供するステップと、をさらに含み得る。したがって、基準位置センサは、キャリブレーションのための基準点を提供することができる。こうした基準位置センサは、物体に取り付けられた位置センサに追加的に使用され得る。また、基準位置センサは、経路上の点に対する既知の空間関係を有する座標を画定する役割を果たすことができる。特に、物体上に位置センサが取り付けられておらず、かつ位置センサも画像センサユニット内に構成されていない場合、画像が基準位置センサを物体と一緒に示し、それによって、基準位置センサがフォトグラム生成表面モデルの座標系で識別可能であるように、画像を捕捉するための画像が有利であり得る。次に、基準位置センサは、物体の表面モデルの座標系でフォトグラムで生成され、位置検出システムの座標系内で既に既知であるさらなる基準位置を提供する。これにより、位置合わせ精度を改善することができる。
さらに、
-基準位置センサが、物体に対して位置付けられており、かつ
-基準位置センサの位置が、表面モデルの座標系においてフォトグラムで生成される場合、
位置検出システムの座標系の座標に関して提供された位置情報を使用して、その位置検出システムの座標系に表面モデルを変換した後に、位置検出システムの座標系におけるその基準位置センサの位置から、処理された動きセンサ信号および/または位置信号に基づいてその決定された位置の偏差を計算することによって、処理された動きセンサ信号および/または位置信号に基づいて、位置検出システムの座標系における生成表面モデルの決定された位置を検証することができる。
画像センサユニットの撮像特性は、事前に既知であることが好ましい。
画像センサユニットが3-Dカメラを含むことが好ましいが、いくつかの実施形態では、画像センサユニットが一焦点画像センサを含む場合に有益である。画像センサユニットが、一焦点画像センサを含む場合、好ましくは、位置合わせ方法において、一焦点画像センサを移動させながら、物体の複数の画像が、軌道上にある異なる捕捉位置で各々捕捉される。したがって、特に、画像センサユニットが一焦点画像センサを含む場合、画像センサユニットは、異なる捕捉位置で物体の表面の複数の画像を捕捉しながら移動することが好ましい。例えば、画像センサユニットは、検出される物体の表面にわたって位置合わせプロセスの間に連続的に誘導され得る。ここで、物体に関連する(より正確には、位置検出システムに関連する)、すなわち、画像センサユニットの場所に関連する画像センサユニットの相対位置、およびフォトグラムで検出される情報(すなわち、捕捉画像を表す一般的に光学的に検出された画像データ)が記録される。
連続的な位置合わせは、有利には、物体に対して静止している基準位置センサの必要性がもはやなくなるような様式で実施され得る。むしろ、動きセンサまたは存在する場合、画像センサユニットによって構成される追加的な位置センサは、それぞれの時間で機能を引き受けることになる。
例えば、動きセンサ信号および/または位置値によって表される場所情報、および光学的に検出された画像データは、反復アルゴリズムに供給されることが好ましい。このアルゴリズムは、光学的に検出された画像データ中(例えば、個人、画像中)の物体(エッジ、線、円など)を検出し、また様々な個人画像上でその物体を相互に関連付けることができる。したがって、異なる観察方向および観察位置からの一焦点画像センサを含む画像センサユニットによって記録された物体のリストが生成される。
好ましくは、使用は、その後、これらのデータから物体の空間位置を確立することができる、さらなるアルゴリズムからなされる。一焦点画像センサを含む画像センサユニットの場合、物体は、少なくとも2つの異なる観察方向および観察位置から記録されていなければならない。次いで、物体位置は、三角測量によって確立され得る。
十分な数の物体およびその位置が確立される場合、従来の表面位置合わせを実施することができる。
一部の状況では、一焦点画像センサユニットの使用が有益であるが、多くの他の状況では、3-Dカメラを画像センサユニットとして使用する(好ましいように)ことによって、位置合わせ方法を改善することができる。3-Dカメラでは、検出される表面を最初から三次元的に記録することが可能である。前述のような一焦点画像センサを含む画像センサユニットの場合に要求されるように、二次元画像データからの表面形態の再構成は、その後、過剰になる。既知の3-Dカメラは、測定される赤外線パルスの伝播時間によって、三次元表面形態を記録する。物体の表面上の個々の点は、画像センサユニットの赤外線光源から、またその赤外線画像センサから異なる距離を有するため、これは、光源と画像センサとの間の異なる長さのパルス伝播時間をもたらす。これらのパルス伝播時間(または位相シフト)は、画像センサユニットと物体の表面上のそれぞれの点との間の距離に関連する情報を含む。このタイプの記録はまた、TOF(飛行時間)プロセスとして知られている。
画像センサユニットはまた、光学ステレオグラフィックカメラとして、または検出される物体の表面を三次元的に記録するための光学マルチカメラとして実装され得る。光学ステレオグラフィックカメラは、固定された既知の基準で取り付けられる2つ以上のカメラのカメラアセンブリによって実装され得る。画像センサユニットが2つ以上の入口瞳孔を含む場合、入口瞳孔は互いにキャリブレーションされることが好ましい。
表面のフォトグラム検出は、自然照明、すなわち原位置(in situ)で存在する照明を使用して実施されることが好ましい。
しかしながら、一部の状況では、物体の表面の強化された画像記録を生成するための画像を捕捉しながら、物体の表面上にパターンを投影することが有益であり得る。
こうした状況では、位置合わせ方法は、好ましくは、画像を捕捉する一方で、画像センサユニットによって物体の表面上に検出可能であるパターンを投影するステップを含む。
物体上にパターンを投影するために、画像センサユニットは、位置合わせセットアップのパターンプロジェクタに接続(好ましくは、剛直な様式で)され得る。画像センサユニットとパターンプロジェクタとの間の相対位置、およびパターンプロジェクタの撮像特性は、事前に既知であることが好ましい。代替的に、パターンプロジェクタはまた、画像センサユニットとパターンプロジェクタとの間の相対位置が、パターンプロジェクタの動きセンサおよび/または位置センサによってそれぞれ提供される動きセンサ信号および/または位置値、ならびに画像センサユニットの動きセンサによって提供される動きセンサ信号から常に決定され得るように、動きセンサおよび/または位置センサに接続(好ましくは、剛直な様式で)され得る。次に、有利には、画像センサユニットが、それぞれの場合に、良好に評価可能なパターン歪みを有する特に有意義な個々の画像を記録することができるように、パターンプロジェクタを画像センサユニットから独立して移動させることができる。
パターンプロジェクタは、寸法が既知である人工構造(パターン、例えば、ストリップパターン)を、画像センサユニットの捕捉領域の標的表面上に投影するために使用され得る。表面上に投影されたパターンは、個々の画像が現れるように、画像センサユニットによって光学的に検出され得、これは、表面の形状によって引き起こされる歪みと一緒に、表面上に投影されたパターンを示している。三次元表面は、パターンの歪みに基づいて、各個々の画像内に確立され得る。オーバーラップ領域を使用して個々の画像の三次元部分表面を組み合わせることによって、全体表面を決定することができることが可能である。次に、この全体的な表面を従来の表面位置合わせとともに使用することができる。
パターンプロジェクタは、赤外線または紫外線光を使用してパターンを投影するように構成され得る。この場合、画像センサユニットは、赤外線感受性または紫外線感受性画像センサを備えることが好ましい。この実施形態の変形例は、投影パターンが外科医には見えず、したがって干渉することができないという点で有利である。
パターンプロジェクタの代わりに、またはパターンプロジェクタに加えて、自己接着型パターンフィルムのために提供を行うこともできる。このフィルムは、標的領域で固定される。フィルム上の既知のパターンの結果として、フィルムの形態、およびしたがって表面構造がまた検出され得る。
位置合わせ方法はまた、物体の表面上に複数の赤外線マーカーを配置するステップを含むことができる。
赤外線マーカーは、赤外線感受性画像センサを備える画像センサユニットによって検出され得る。物体の表面上に配置された赤外線マーカーを局在化することによって、表面トポグラフィーは、捕捉画像からの赤外線マーカーに基づいて、フォトグラムで生成され得る。これは、表面を検出するために可視光が不十分な場合でも、表面を検出し、物体の表面モデルをフォトグラムで生成することを可能にする。
位置合わせ方法は、タイムスタンプを捕捉された各画像に割り当てるステップをさらに含むことができる。例えば、画像センサユニットは、捕捉画像を、タイムスタンプと一緒に位置合わせセットアップの位置決定ユニットに送信するように構成され得る。
位置合わせ方法は、位置値をタイムスタンプと一緒に送達するステップをさらに含むことができる。このステップは、位置値をタイムスタンプと一緒に位置合わせセットアップの位置決定ユニットに送達するように構成されている、位置検出システムを用いて実装され得る。また、位置合わせセットアップの位置決定ユニットは、位置検出システムから位置値および/または動きセンサから動きセンサ信号を要求し、かつタイムスタンプを位置値および/または動きセンサ信号のうちのそれぞれの1つに取り付けるように構成されることが可能である。
動きセンサは、動きセンサ信号を、タイムスタンプと一緒に位置合わせセットアップの追跡ユニットに送達するように構成され得る。例えば、位置センサが物体上に配置され、物体が画像を捕捉しながら移動するかどうかを検出するように構成されている場合、好ましくは、位置センサによって提供される位置値、ならびに画像センサユニットで捕捉される画像は、タイムスタンプと一緒に位置決定ユニットに送達される。位置決定ユニットは、同じタイムスタンプを運ぶ画像に位置値を割り当てるように構成され得る。次に、画像が捕捉された捕捉位置は、捕捉位置、すなわち、物体に対する入口瞳孔の位置に対する補正値として、位置値によって表される検出された移動によって補正され得る。
追加的または代替的に、位置合わせ方法は、捕捉画像を表す画像データをストリーミングするステップをさらに含んでもよい。このステップは、捕捉画像を表す画像データを位置合わせセットアップの位置決定ユニットにストリーミングするように構成されている画像センサユニットと一緒に実装され得る。画像ストリームは、位置合わせセットアップのモニター上で視覚化され得る。
本発明による位置合わせ方法において、画像はまた、自動化トリガ上で捕捉され得る。自動化トリガは、画像センサユニットからの画像データのストリーミング分析に基づいてもよい。例えば、画像センサユニットは、ストリーミング画像データを分析することができ、物体が画像センサユニットに対して特定の位置で認識される場合、自動化トリガが与えられる。例えば、画像センサユニットは、物体に取り付けられた基準位置センサに対する画像センサユニットの決定された位置の分析に基づく、自動トリガ上の画像を捕捉することができる。例えば、画像センサユニットが基準位置センサに対して特定の位置にある場合、自動トリガを与えて、画像を捕捉することができる。
位置合わせ方法は、その画像センサユニットで画像を捕捉しながら移動する、異なる場所に位置する複数の位置センサまたは移動可能な位置センサをフォトグラムで検出することによって、交互電磁場の歪みを決定することをさらに含み得、ここで、位置検出システムの座標系内の位置センサ(複数可)または位置センサの位置および配向が、位置検出システムを介して直接的に決定可能である。
位置合わせ方法の前述の実施形態のすべてにおいて、位置検出システムの交互の電磁場の可能な歪みを決定することができるように、物体または身体部分の表面のフォトグラム検出中に移動される異なる場所での複数の位置センサまたは移動可能位置センサが使用され、その位置が同様にフォトグラムで検出される。次いで、交互電磁場の歪みは、移動可能位置センサまたは位置センサのそれぞれのフォトグラム検出場所から、および位置検出システムによってそれぞれの位置センサ自体によって決定される場所から確立され得る。次いで、すなわち、交互電磁場自体をフォトグラムで測定することが可能である。
位置合わせセットアップに関して、本発明の目的は、位置検出システムに関連して物体の位置および配向を決定するための位置合わせセットアップによって達成される。セットアップは、位置検出システム、少なくとも1つの画像センサユニット、追跡ユニット、位置決定ユニット、および座標変換ユニットを含む。
位置検出システムは、位置センサの位置および配向を決定するように構成されており、少なくとも1つの画像センサユニットは、少なくとも1つの動きセンサを含む。画像センサユニットは、物体の画像を捕捉し、かつ物体の表面モデルを少なくとも1つの捕捉画像からフォトグラムで生成するように構成されている。動きセンサは、経時的に位置検出システムに対する移動画像センサユニットの一連の位置を表す動きセンサ信号を提供するように構成されている。
追跡ユニットは、動きセンサによって提供される動きセンサ信号を処理することによって、画像センサユニットのその経路を記録するように構成されている。
位置決定ユニットは、位置検出システムの座標系内の座標にその決定された経路の少なくとも1つの点を関連付けることと、決定された経路および決定された経路およびその座標上の少なくとも1つの点の既知の空間関係に基づいて、画像センサユニットの捕捉位置を決定することと、キャリブレーションによって動きセンサおよび/または位置センサの座標系内の座標に生成表面モデルの少なくとも1つの点を関連付けることと、を行うように構成されている。
座標変換ユニットは、生成表面モデルを、位置検出システムの座標系に変換するように構成されている。
セットアップは、少なくとも1つの画像センサユニットに接続されているか、または少なくとも1つの画像センサユニットを含む、パターンプロジェクタをさらに含み得、ここで、パターンプロジェクタは、身体上にパターンを投影するように構成されている。
好ましくは、画像センサユニットは、ステレオカメラ、または複数のカメラ配置、または飛行時間カメラを含む。しかしながら、ある特定の実施形態では、画像センサユニットはまた、単一のカメラを含むことができる。
好ましくは、画像センサユニットは、位置決定ユニットに接続されている。好ましくは、動きセンサは、追跡ユニットに接続されている。位置決定ユニットはまた、位置検出システムに接続されている。位置決定ユニットは、座標変換ユニットに接続されている。構成要素間の接続の少なくとも一部は、ユニバーサルシリアルバス(USB)接続として実装され得る。しかしながら、構成要素間の接続の少なくとも一部はまた、無線、例えば、Bluetooth(登録商標)接続として実装されてもよい。
動きセンサは、例えば、3つの直線加速度および3つの角度速度といった、6自由度で動きパラメータを表す動きセンサ信号を伝達する、センサデバイスまたはジャイロスコープのアレイおよび加速度計であってもよい。
位置合わせセットアップの構成要素は、好ましくは、コンピュータまたは他のデータ処理システムの要素である。
任意選択で、セットアップは、画像センサユニットを所定の固定位置で再現可能に受け入れるように構成されている、形状適合アダプタを含む、画像センサユニットホルダをさらに含み得る。位置検出システムに対する画像センサユニットホルダの位置および配向は、好ましくは、位置検出システムによって事前に既知であるか、または決定可能である。
例えば、この位置検出器の位置および配向が位置検出システムによって検出され得るように、画像センサユニットホルダに取り付けられ得る、位置センサ。位置センサの決定された位置および配向から、画像センサユニットホルダの位置および配向が、計算され得る。画像センサユニットがホルダによって保持される場合、画像センサユニットの位置および配向がまた、位置検出システムに関連して計算され得る。有利なことに、位置センサを備えた画像センサユニットホルダは、位置検出システムの作業空間内に自由に位置付けられて、画像センサユニットを、例えば、動きセンサ信号などの処理によって記録され得る経路に沿って移動することができる位置検出システムの座標系内に既知の位置を提供するために使用されてもよい。それによって、画像が捕捉される捕捉位置が、決定され、位置検出システムに対する物体の位置および配向を決定するために使用され得る。
画像センサユニットホルダが位置センサを含まない場合、位置検出システムに対する画像センサユニットホルダの位置および配向は、位置検出システムに対して画像センサユニットホルダを固定することによって、事前に既知であることが好ましい。次に、画像センサユニットホルダは、位置検出システムに対して、または位置検出システムに直接的であっても、一定の相対距離および配向で固定される。次いで、位置検出システムに対する画像センサユニットホルダの位置および配向が既知であるように、位置検出システムに1回、画像センサユニットホルダをキャリブレーションするのが十分であり得る。
本明細書に記載される他の態様とは独立して実現することができ、したがって、それ自体で本発明を構成し得るさらなる態様によれば、本発明の目的は、電磁位置検出システムに関連して物体の位置および配向を決定するための代替的な位置合わせ方法によって達成される。この態様による方法は、
-電磁位置検出システムのフィールドジェネレータに強固に固定された画像センサユニットを提供するステップと、
-キャリブレーションによって、表面モデルの座標系と電磁位置検出システムの座標系との間の変換のための変換関数を決定するステップと、
-その画像センサユニットを用いて、物体の表面の画像を捕捉するステップと、
-捕捉画像から物体の表面モデルをフォトグラムで生成するステップと、
-フォトグラム生成表面モデルを、位置検出システムの座標系に変換するステップと、を含む。
この代替的な位置合わせ方法は、位置検出システムの座標系における捕捉位置の座標が、1つ以上の動きセンサおよび/または位置センサを使用して決定されることを要求しない。画像センサユニットは、固定セットアップでフィールドジェネレータと組み合わされるので、位置検出システムに関連して物体の位置および配向を決定するために、画像センサユニットをフィールドジェネレータにキャリブレーションすることのみが必要であり、それゆえ、画像センサユニットの座標系の座標を位置検出システムの座標系の座標に変換するための変換関数が必要である。しかしながら、任意選択で、画像センサユニットは、動きセンサおよび/または位置センサを含み得る。好ましくは、画像センサユニットは、光学ステレオグラフィックカメラ、または光学マルチカメラ、または飛行時間カメラを含む。
このさらなる態様による代替的な位置合わせ方法は、画像を捕捉する一方で、画像センサユニットによって物体の表面上に検出可能であるパターンを投影するステップを含み得る。
このさらなる態様による代替的な位置合わせ方法はまた、捕捉された各画像にタイムスタンプを割り当てることを含み得る。
代替的にまたは追加的に、このさらなる態様による代替的な位置合わせ方法は、捕捉画像を表す画像データを画像センサユニットから追跡ユニットにストリーミングすることを含み得る。
任意で、このさらなる態様による代替的な位置合わせ方法は、
-物体に対して位置付けられた物体上に配置された位置検出システムの座標系における位置および配向を検出するために、基準位置センサと一緒に物体の画像を捕捉するステップと、
-捕捉画像から基準位置センサと一緒に表面モデルをフォトグラムで生成し、その結果、フォトグラム生成表面モデルの座標系における基準位置センサの位置が決定される一方で、同時に、位置検出システムの座標系の座標に関して、位置情報を提供するステップと、を含み得る。
位置合わせセットアップに関して、本発明の目的はまた、前述の他の態様とは独立して実現することができ、したがってそれ自体で本発明を構成する、位置検出システムに関連して物体の位置および配向を決定するための代替の位置合わせセットアップによって解決され、
-交互電磁場を生成するためのフィールドジェネレータを含む、電磁位置検出システムと、
-フィールドジェネレータに強固に固定された画像センサユニットであって、画像センサユニットが、物体の画像を捕捉し、かつ物体の表面モデルを少なくとも1つの捕捉画像からフォトグラムで生成するように構成されている、画像センサユニットと、
-キャリブレーションによって、表面モデルの座標系と電磁位置検出システムの座標系との間の変換のための変換関数を決定するように構成されている、キャリブレーションユニットと、
-表面モデルの座標系内の表面モデルを表す座標を、位置検出システムの座標系に変換するための変換関数を用いるように構成されている、座標変換ユニットと、を含む。
典型的には、位置検出システムの座標系は、それぞれの位置検出システムのフィールドジェネレータまたは光源によってスパンされるか、またはそれに関連付けられる。
代替の位置合わせセットアップはまた、画像センサユニットに接続されているか、または画像センサユニットを含む、パターンプロジェクタを含み得、パターンプロジェクタは、身体上にパターンを投影するように構成されている。この代替的な位置合わせセットアップの画像センサユニットは、動きセンサおよび/または位置センサを含み得る。
以下において、本発明の好ましい実施形態が図を参照して説明される。図において:
位置検出システムに関連する物体の位置および配向を決定するための位置合わせ方法を表す流れ図を示している。 位置合わせセットアップの概略ブロック図を示している。 患者の頭部の画像を捕捉するための画像センサユニットを示しており、ここで、画像センサユニットは、動きセンサを含む。 患者の頭部の画像を捕捉するための画像センサユニットを示しており、ここで、画像センサユニットは、位置検出システムの座標系における位置および配向を検出するための動きセンサおよび位置センサを含む。 位置検出システムに対して強固に、または移動可能に固定された画像センサユニットホルダに取り付けられた画像センサユニットを示している。 位置検出システムに強固に取り付けられた画像センサユニットを示しており、ここで、画像センサユニットおよび位置検出システムの配置は、画像センサユニットホルダに取り付けられている。 代替的な実施形態による位置合わせ方法を表す流れ図を示している。 画像センサユニットが位置センサを含む場合、物体の位置および配向が、位置検出システムに関連してどのように決定することができるかを概略的に視覚化している。 画像センサユニットが動きセンサのみを含む場合、物体の位置および配向が、位置検出システムに関連してどのように決定することができるかを概略的に視覚化している。
図1には、本発明の概念による位置合わせ方法を表す流れ図が示されている。
位置合わせ方法は、
I1:少なくとも1つの動きセンサおよび/または少なくとも1つの位置センサを含む画像センサユニットを用いて、物体の表面の画像を捕捉するステップと、
I2:その動きセンサによって提供される動きセンサ信号および/またはその位置センサによって提供される位置信号を処理することによって、画像センサの捕捉位置を決定するステップと、
I3:捕捉画像から物体の表面モデルをフォトグラムで生成するステップと、
I4:フォトグラム生成表面モデルを、位置検出システムの座標系に変換するステップと、を含む。
ステップI1、I2およびI3は、異なる順序で実行され得る。例えば、一部の変形例では、捕捉位置は、画像を捕捉する前に決定されてもよく、または表面モデルは、捕捉位置を決定する前にフォトグラムで生成されてもよい。しかしながら、表面モデルは、表面モデルを、位置検出システムの座標系に変換する前に、フォトグラムで生成する必要がある。
好ましくは、画像センサユニットは、飛行時間カメラ、光学ステレオグラフィックカメラ、または光学マルチカメラを含み、位置検出システムに対する位置および配向が決定されなければならない、物体の表面を三次元的に記録する。
好ましい実施形態では、画像センサユニットを有する物体の表面の画像を捕捉するステップI1は、位置検出システムとは関係なく、経時的な直線加速度および/または回転速度を検出するための少なくとも1つの動きセンサを含む少なくとも1つの画像センサユニットを提供するサブステップ(S1)を含む。
動きセンサは、加速度計、またはジャイロスコープ、または磁気計を含む、慣性センサとすることができる。また、これらのセンサのうちのいくつかは、画像センサユニット内に構成されて、動きセンサ配置を形成することができる。画像センサが移動している間に、各動きセンサは、経時的に検出された直線加速度または回転速度を表す動きセンサ信号を提供する。
追加的にまたは代替的に、動きセンサに対して、画像センサユニットは、位置検出システムに対する画像センサユニットの位置および配向を決定するための位置センサを含み得る。
画像センサユニットの捕捉位置を決定するステップI2は、サブステップを含み得る。1つの好ましい実施形態では、画像センサユニットの捕捉位置を決定することは、
S2:位置検出システムに対する空間経路に沿って、画像センサユニットを移動させることと、
S3:動きセンサによって提供される動きセンサ信号を処理することによって、画像センサユニットのその経路を記録することと、
S4:その決定された経路の少なくとも1つの点を、位置検出システムの座標系内の座標に関連付けることと、
S5:決定された経路ならびに決定された経路およびその座標上の少なくとも1つの点の既知の空間関係に基づいて、画像センサユニットの捕捉位置を決定することと、によって達成され得る。
サブステップS2、S3、S4、およびS5は、位置検出システム座標系の座標に関して、画像センサユニットの位置を決定する役割を果たす。
例えば、その経路上の点と位置検出システムの座標系の座標との間の既知の空間関係は、位置検出システムの座標系で座標が既知である位置から、またはそこまで画像センサユニットを移動させることによって確立され得る。
ステップI2のいくつかの変形例では、追加的または代替的に、位置検出システムに対する画像センサユニットの位置および配向を決定するために動きセンサを使用するために、位置センサが使用され得る。こうした実施形態では、捕捉位置は、位置センサの位置および配向を検出することによって決定され得る。位置センサは、画像センサユニットによって構成される。
ステップI2の別の代替例では、捕捉位置はまた、物体に取り付けられるか、または物体に対して配置される基準位置センサと一緒に、物体の画像を捕捉することによって決定され得る。
さらに、捕捉位置を決定するための別の代替例(ステップI2)では、画像センサユニットは、位置検出システムの座標系で既知である所定の位置に固定され得る。こうした所定の位置は、位置検出システムにキャリブレーションされる、または位置検出システムに対する位置および配向を検出するための位置センサを含む、画像センサユニットホルダの位置であることができる。位置センサ、例えば、物体上に配置された位置センサが、物体と一緒に記録されている場合、位置センサは、物体の表面モデルの座標系でフォトグラムで生成される。それによって、位置センサの位置に関連付けられた位置検出システムの座標は、生成表面モデルの座標系の座標と空間的に直接相関することができる。
位置検出システムの座標系にフォトグラム生成表面モデルを変換するステップI4は、キャリブレーションによって、生成表面モデルの少なくとも1つの点を、動きセンサおよび/または位置センサの座標系における座標に関連付けるサブステップ(S6)を含み得る。
例えば、キャリブレーションによって、動きセンサおよび/または位置センサの座標系と画像センサユニットの座標系との間の座標の変換について、変換関数を決定することができる。これは、画像センサユニットの捕捉位置の座標が、動きおよび/または位置センサの座標系でそれぞれ決定されることを含み得る。したがって、決定された変換関数は、フォトグラム生成表面モデルを、位置検出システムの座標系に変換するために使用され得る。
サブステップS6は、センサの座標系における座標に表面モデルの点を割り当てる役割を果たす。
生成表面モデルを、位置検出システムの座標系に変換するステップは、例えば、前のサブステップの少なくとも一部よりも別の日に、かなり遅れて実行され得る。
位置決め方法の異なる実施形態では、画像センサユニットで物体の表面の画像を捕捉するステップI1、画像センサユニットの捕捉位置を決定するステップI2、およびフォトグラム生成表面モデルを位置検出システムの座標系に変換するステップI4の一部のみが、上で詳述したようなサブステップを含む。例えば、一実施形態では、画像センサユニットの捕捉位置を決定するステップI2のみが、上述のサブステップを含む。他の実施形態では、位置検出システムの座標系における捕捉位置の座標は、例えば、位置センサを使用して、動きセンサを使用することなく決定される。これらの実施形態では、位置検出システムの座標系にフォトグラム生成表面モデルを変換するステップI4は、前述したように、依然としてサブステップS6を含むことができる。
図2には、位置合わせセットアップ200の好ましい実施形態の概略ブロック図が示されている。
位置合わせセットアップは、位置検出システム202と、少なくとも1つの動きセンサ206を含む画像センサユニット204と、追跡ユニット208と、位置決定ユニット210と、座標変換ユニット212と、を含む。
位置検出システム202は、位置センサ(図示せず)の位置および配向を決定するように構成されている。位置検出システム202は、光学、電磁、または超音波ベースの位置検出システムであってもよい。好ましくは、位置検出システム202は、交互電磁場を生成するためのフィールドジェネレータを含む、電磁位置検出システムである。位置検出システム202が、電磁位置検出システムである場合、位置検出システムの座標系内の位置および配向を検出するための位置センサは、少なくとも1つのコイルを含む。位置検出システム202は、さらなる処理のために、位置センサによって提供される位置値を表す位置信号を位置決定ユニットに送信するために、位置決定ユニット210に接続されている。
画像センサユニット204は、物体(図示せず)の画像を捕捉し、かつ物体の表面モデルを少なくとも1つの捕捉画像からフォトグラムで生成するように構成されている。画像センサユニット204は、一焦点画像センサを含み得る。位置検出システムに関連して物体の位置および配向を決定するために、一焦点画像センサを含む画像センサユニットは、検出される物体の表面にわたって位置合わせプロセス中に連続的に誘導されることが好ましい。一焦点画像センサを含む画像センサユニットを移動させる間に、異なる観察方向および観察位置から少なくとも2つの画像が捕捉される。次いで、物体位置は、三角測量の手段によって確立され得る。しかしながら、好ましくは、画像センサユニットは、検出される物体の表面を三次元的に記録するためのステレオカメラまたは複数のカメラ配置または飛行時間カメラを含む。光学ステレオグラフィックカメラは、例えば、固定された既知の基準で取り付けられる2つ以上のカメラのカメラアセンブリによって実装され得る。画像センサユニット204は、任意のパターンプロジェクタ214に接続されている。画像センサユニット204はまた、さらなる処理のためにフォトグラム生成表面モデルを提供するために位置決定ユニット210に接続されている。
動きセンサ206は、経時的な位置検出システム202に対する移動画像センサユニット204の一連の位置を表す動きセンサ信号を提供するように構成されている。動きセンサ206によって提供されるこうした動きセンサ信号を処理することによって、画像センサユニット204が位置合わせ中に移動する経路を記録することができる。画像センサユニット204は、位置検出システム202に対して画像センサユニット202が移動する間に、直線加速度および回転速度を検出するように構成されている、1つのみの動きセンサ206またはいくつかの動きセンサの配置を含むことができる。動きセンサ206は、画像センサユニット204が移動した経路を記録するために、動きセンサ信号を追跡ユニット208に送信するために追跡ユニット208に接続されている。
追跡ユニット208は、画像センサユニット202および位置決定ユニット210に接続されており、動きセンサによって提供される動きセンサ信号を処理することによって、位置検出システム202に対して画像センサユニット204が移動する経路を記録するように構成されている。追跡ユニット208は、画像センサユニット204によって構成される動きセンサ206に接続されている。
位置決定ユニット210は、決定された経路の少なくとも1つの点を、位置検出システム202の座標系内の座標に関連付けるように構成されている。さらに、位置決定ユニット210は、決定された経路ならびに決定された経路および位置検出システム202の座標系におけるその座標上の少なくとも1つの点の既知の空間関係に基づいて、物体の画像が捕捉される、画像センサユニット204の捕捉位置を決定するように構成されている。位置決定ユニット210はまた、キャリブレーションによって、生成表面モデルの少なくとも1つの点を、動きセンサの座標系内の座標に関連付けるように構成されている。位置決定ユニット210は、位置信号を受信するために位置検出システム202に接続されており、追跡ユニット208によって記録されるように、画像センサユニット204が移動した経路をさらに処理するために、追跡ユニット208にアクセスする。位置決定ユニット210はまた、生成表面モデルの位置と、動きセンサ206の決定された相対位置に対応する位置検出システムに対する画像センサユニット204の位置との間の空間関係についての情報を提供するために、座標変換ユニット212に接続されている。さらに、位置決定ユニット210は、画像センサユニット204によってフォトグラムで生成される表面モデルにアクセスするために、画像センサユニット204に接続されている。
座標変換ユニット212は、位置決定ユニット210に接続されており、生成表面モデルを位置検出システム202の座標系に変換するように構成されている。
セットアップ200は、画像センサユニット202に接続された任意選択のパターンプロジェクタ214をさらに含む。パターンプロジェクタ214は、身体上にパターンを投影するように構成されている。
位置合わせセットアップ200の構成要素間の接続の少なくとも一部は、ユニバーサルシリアルバス(USB)接続として実装され得る。位置合わせセットアップ200の構成要素間の接続の少なくとも一部はまた、無線、例えば、Bluetooth(登録商標)接続として実装されてもよい。
図3には、動きセンサ16’を含む画像センサユニット16’が示されている。画像センサユニットは、患者の頭部12の場合に画像を捕捉するように構成されている。頭部12および画像センサユニット16’は、位置検出システム10に強固に固定される基準位置センサ18の位置および配向を決定するように構成されている、位置検出システム10に対して位置付けられている。基準位置センサ18は、頭部の画像が画像センサユニット16’を介して捕捉される場合、位置センサ18もその画像内に見えるように、頭部12に対して位置付けられている。物体の表面モデルが、例えば、画像センサユニット16’によって、フォトグラムで生成される場合、基準位置センサも、表面モデルと一緒にフォトグラムで生成されることになる。基準位置センサ18は、フォトグラム生成表面モデルの座標系で識別可能であり、したがって、位置検出システムの座標系における座標への参照を提供する。それによって、表面モデルの点群の点は、位置検出システムの座標系における座標に直接的にリンクされ、位置検出システムの座標系の対応する座標に割り当てられ得る。
しかしながら、この基準センサ18を提供する必要はないが、任意である。実際には、位置検出システム10に対する頭部の位置および配向を決定することがまた、基準位置センサ18を提供することなく達成され得る。これは、動きセンサ14’によって提供される動きセンサ信号を処理することによって、画像センサユニット16’が移動する経路を記録することによって達成される。記録された経路は、経時的に動きセンサ14’によって検出された、移動画像センサユニット16’の一連の場所からなる。記録された経路上の少なくとも1つの点は、位置検出システムの座標系内の座標に対して既知の空間関係を有するため、記録された経路は、その座標系で決定され得る。それによって、画像センサユニット16’によって画像が捕捉された捕捉位置は、位置検出システム10の座標系で決定され得る。画像センサユニットの入口瞳孔の位置を、動きセンサ206の位置にキャリブレーションした後、表面モデルの座標系における画像センサユニット16’によってフォトグラムで生成される表面モデルの座標を、位置検出システム10の座標系に変換することができる。
図4では、位置検出システム10の座標系における位置および配向を検出するための、動きセンサ14’および追加の位置センサ14’’を含む、画像センサユニット16が示されている。さらなる任意選択の位置センサ14は、位置検出システム10に対する位置および配向が決定されなければならない、頭部12に取り付けられる。頭部12の画像が捕捉される場合、画像は、頭部と一緒にさらなる位置センサ14を示すことになる。頭部12の表面モデルをフォトグラムで生成すると、位置センサ14は、表面モデルの座標系で識別され得、表面モデルの点を、位置検出システム10の座標系にリンクする役割を果たし得る。
画像センサユニット16が位置検出システム10の作業空間内で移動する限り、位置検出システム10の座標系内の位置および配向は、画像センサユニット16に取り付けられた位置センサ14’’の位置および配向を検出することによって直接的に決定され得る。しかしながら、画像センサユニット16が、位置検出システム10の作業空間の外側に移動する場合、位置検出システム10に対する画像センサ10の位置および配向は、位置センサ14’’を検出することによってはもはや決定され得ない。
しかしながら、位置検出システム10の作業空間を離れるときも、頭部12の画像が捕捉される捕捉位置は、依然として動きセンサ14’によって提供される動きセンサ信号を処理することによって決定され得る。それによって、画像センサユニット16が移動する経路を記録することができる。位置検出システム10の座標系における捕捉位置の座標を決定することができるように、少なくとも1つの点は、位置検出システム10の座標系における座標と関連付けられなければならない。次に、捕捉位置、すなわち、物体に対する画像を捕捉するときの入口瞳孔の位置は、位置検出システム10の座標系で決定され得る。キャリブレーションによって、頭部12の画像からフォトグラムで生成されるような表面モデル上の点は、動きセンサおよび/または位置センサの座標系における座標に関連付けられ得る。例えば、位置検出システム10の座標系に対する位置センサの座標系の位置および配向を決定した後、表面モデルの座標系は、位置検出システム10の座標系に整列され得る。これは、画像センサユニットが、位置検出システム10の作業空間内で移動するかどうかとは無関係に機能する。
図5では、位置検出システム10に固定された画像センサユニットホルダ11に取り付けられた画像センサユニット16’’が示されている。図1~図4に関して説明される実施形態とは対照的に、画像センサユニット16’’は、動きセンサまたは位置センサを備えていない。しかしながら、動きセンサまたは位置センサのうちの少なくとも1つは、画像センサユニット16’’によって任意に構成され得る。これは、画像センサユニットホルダ11が、位置検出システムに対して、例えば、捕捉位置が位置検出システムに対して固定されないように、ピボットアームのように、移動され得る場合、有利であり得る。
画像センサユニットホルダ11が、位置検出システム10、例えば、電磁位置検出システムのフィールドジェネレータに強固に固定される場合、位置検出システム10の座標系で捕捉位置10が既知であるように、画像センサユニット10の捕捉位置を、位置検出システム10に対して1回キャリブレーションするだけで十分であり得る。
画像センサユニット16’’は、単一のカメラ、飛行時間センサ(TOFセンサ)、または固定された既知の基準での2つ以上のカメラのカメラアセンブリ、すなわち、立体カメラとすることができる。
画像センサユニット16’’は、患者の頭部上にパターン22を投影するためのパターンプロジェクタ(図示せず)を含む。パターン22を頭部12の表面上に投影することは、表面の強化された画像記録につながり得る。
さらに、位置センサ14は、患者の頭部12に取り付けられる。頭部の画像を捕捉する場合、この位置センサもその画像内で見ることができる。位置センサ14は、頭部12と一緒に画像からフォトグラムで生成されることになり、したがって、表面モデル上の点も位置検出システム10の座標系にリンクさせることができる。
図6では、電磁位置検出システムのフィールドジェネレータ10に強固に固定された画像センサユニット16’’が示されている。画像センサユニット16’’’およびフィールドジェネレータ10の固定セットアップは、画像センサユニットホルダ11’に取り付けられている。異なる実施形態(図示せず)では、画像センサユニットおよびフィールドジェネレータの固定セットアップは、画像センサユニットホルダに取り付けられないが、例えば、ユーザが手で自由に移動させることができる。
示される実施形態では、画像センサユニットホルダ11’は、位置検出システム10に対する位置および配向が決定されるべき頭部12に対して位置付けられている。画像センサユニットホルダ11’は、固定位置に取り付けられてもよく、または頭部12に対して移動可能であってもよい。例えば、画像センサユニットホルダ11’は、ピボットアームとして実装され得る。
有利なことに、フィールドジェネレータ10および画像センサユニット16’’’が、固定セットアップで組み合わされる場合、フィールドジェネレータ10によってスパンされるような位置検出システムの座標系内の画像センサユニット16’’’の位置および配向は、動きセンサおよび/または位置センサを使用せずに決定され得る。画像センサユニットがフィールドジェネレータに強固に固定されている場合、動きセンサおよび/または位置センサを使用することは、位置検出システムに対する物体の位置および配向を決定するために必要ではない。
特に、フォトグラム生成表面モデルの位置検出システムの座標系への変換を可能にするために、物体に対して位置センサを捕捉画像で見ることができるように配置する必要もない。
実際には、固定セットアップでは、フィールドジェネレータ10自体は、画像センサユニット16’’’をキャリブレーションすることができる一種の位置センサとみなすことができる。フィールドジェネレータ10へのキャリブレーション後、位置検出システムに対する画像センサユニットの位置および配向(例えば、入口瞳孔の位置)が既知である。画像センサユニットとフィールドジェネレータとの間の既知の空間関係に基づいて、フォトグラム生成表面モデルを、位置検出システムの座標系に直接的に変換することができる。
例えば、画像センサユニット16’’’(より正確には、画像センサユニット16’’’のカメラの入口瞳孔)とフィールドジェネレータとの間の変換のための変換関数は、キャリブレーションによって決定され得る。これらの変換関数を使用して、画像センサユニット16’’’のカメラの座標系に画定されるフォトグラム生成表面モデルの座標を、位置検出システムの座標系における表面モデルを表す座標に変換することができる。
画像センサユニット16’’’は、好ましくは、3-Dカメラを含み、随意に動きセンサおよび/または位置センサを装備することができる。
頭部12に取り付けられる場合、好ましくは、画像センサユニット16’’’によって捕捉された頭部12の画像内に見ることができる、任意の位置センサ14が存在する。位置検出システムの座標系におけるこの位置センサの位置および配向を、フィールドジェネレータ10によってスパンされるものとして決定することによって、位置センサ14をさらに示す、捕捉画像からフォトグラムで生成される頭部12の表面モデルの座標系における点が、位置検出システムの座標系における座標に割り当てられ得る。
図7には、代替的な実施形態による位置合わせ方法を表す流れ図が示されている。
電磁位置検出システムに関連して物体の位置および配向を決定するための代替的な位置合わせ方法であって、方法は、
A1:電磁位置検出システムのフィールドジェネレータに強固に固定された画像センサユニットを提供するステップと、
A2:キャリブレーションによって、表面モデルの座標系と電磁位置検出システムの座標系との間の変換のための変換関数を決定するステップと、
A3:捕捉画像から物体の表面モデルをフォトグラムで生成するステップと、
A4:その画像センサユニットを用いて、物体の表面の画像を捕捉するステップと、
A5:フォトグラム生成表面モデルを、位置検出システムの座標系に変換するステップと、を含む。
図8は、画像センサユニット802が位置センサ804を含む場合、物体の位置および配向が、位置検出システム800に関連してどのように決定することができるかを概略的に視覚化している。
捕捉位置(画像が捕捉される際の入口瞳孔の位置である)で、物体の画像が捕捉され、捕捉画像から、物体の表面モデル806がフォトグラムで生成される。
位置センサ804の位置および配向は、位置検出システム800の座標系で既知である。
しかしながら、位置センサ804の座標系および画像センサユニット802の座標系は、オフセットを有する。画像センサユニット802の座標系は、好ましくは、座標系の原点が画像センサユニット802の入口瞳孔808の位置にあるように画定される。オフセットは、キャリブレーションによって決定され得る。これは、位置センサ804の座標系と画像センサユニット802との間の変換について、変換関数が決定されることを含むことができる。オフセットを考慮すると、物体806の位置および配向が位置検出システム800に関連して決定され得るように、画像センサユニット802の座標系における座標は、位置検出システム800の座標系に変換され得る。
図9は、画像センサユニット902が動きセンサ904のみを含み、かつ位置センサを含まない場合に、位置検出システム900に関連して物体の位置および配向がどのように決定され得るかを概略的に視覚化している。
動きセンサ904の位置および配向は、位置検出システム900によって決定することができない。しかしながら、動きセンサ904は、画像センサユニット902が捕捉位置から、または捕捉位置へと移動した経路を記録するために処理され得る、動きセンサ信号を提供することができる。位置検出システムの座標系における経路の位置および配向(したがって、物体906の画像が捕捉された捕捉位置)を決定するために、経路上の少なくとも1つの点と、位置検出システム900の座標系において座標が既知である位置908との間の既知の空間関係を確立する必要がある。
これは、既知の位置908が経路の開始点または終了点のうちのいずれかとなるように、捕捉位置からこの既知の位置908まで、またはその逆に、画像センサユニット902を移動させることによって行われ得る。したがって、経路の開始点または終了点は、位置検出システムの座標系内に既知の座標を有する。結果として、動きセンサの座標系に最初に定義されるこの経路の座標は、経路の開始点または終了点の座標が動きセンサの座標系および位置検出システムの座標系の両方において既知であることを使用することによって、位置検出システム900の座標に変換され得る。したがって、画像センサユニット902の座標系における捕捉位置の座標は、位置検出システムの座標系における座標に変換され得る。
動きセンサ904の座標系は、画像センサユニット902の座標系に対するオフセットを有し、その原点は、画像センサユニット902の入口瞳孔910の位置であることが好ましい。位置検出システム900の座標系における画像センサユニットの座標系の原点の座標を決定するためには、このオフセットは、例えば、キャリブレーションによって決定されなければならない。キャリブレーションによって、変換関数は、動きセンサ904の座標系における画像センサユニット902の座標系における座標を変換するために決定され得る。この変換関数が決定される場合、画像センサユニット902の座標系における座標は、それゆえに決定された変換関数を考慮に入れて、位置検出システム900の座標系に変換され得る。

Claims (33)

  1. 位置検出システムに関連して物体の位置および配向を決定するための位置合わせ方法であって、前記方法が、
    -少なくとも1つの動きセンサおよび/または少なくとも1つの位置センサを含む画像センサユニットを用いて、物体の表面の画像を捕捉するステップと、
    -前記動きセンサによって提供される動きセンサ信号および/または前記位置センサによって提供される位置信号を処理することによって、前記画像センサユニットの捕捉位置を決定するステップと、
    -前記捕捉画像から前記物体の表面モデルをフォトグラムで生成するステップと、
    -前記フォトグラム生成表面モデルを、位置検出システムの座標系に変換するステップと、を含む、方法。
  2. -前記位置検出システムとは無関係に、経時的な線形加速度および/または回転速度を検出するための少なくとも1つの動きセンサを含む、少なくとも1つの画像センサユニットを提供するステップを含む、請求項1に記載の方法。
  3. 前記画像センサユニットの捕捉位置を決定する前記ステップが、
    -前記位置検出システムに対する空間経路に沿って、前記画像センサユニットを移動させるサブステップと、
    -動きセンサによって提供される動きセンサ信号を処理することによって、前記画像センサユニットの前記経路を記録するサブステップと、
    -前記決定された経路の少なくとも1つの点を、前記位置検出システムの前記座標系内の座標に関連付けるサブステップと、
    -前記決定された経路ならびに前記決定された経路および前記座標上の前記少なくとも1つの点の既知の空間関係に基づいて、前記画像センサユニットの捕捉位置を決定するサブステップと、を含む、請求項2に記載の方法。
  4. 前記画像センサユニットが、前記位置検出システムの前記座標系の既知の位置から、または既知の位置まで前記経路に沿って移動して、前記位置検出システムの座標系内の前記既知の位置と前記決定された経路の少なくとも1つの点との間の空間関係を確立する、請求項3に記載の方法。
  5. 前記フォトグラム生成表面モデルを、位置検出システムの前記座標系に変換する前記ステップが、
    -キャリブレーションによって、前記生成表面モデルの少なくとも1つの点を、前記動きセンサおよび/または位置センサの座標系内の座標に関連付けるサブステップを含む、請求項1~4のうちの少なくとも一項に記載の方法。
  6. -キャリブレーションによって、前記動きセンサおよび/または位置センサの座標系と前記画像センサユニットの前記座標系との間の座標の変換について、変換関数が決定されることと、
    -前記画像センサユニットの前記捕捉位置の座標が、前記動きおよび/または前記位置センサの前記座標系でそれぞれ決定されることと、を含む、請求項5に記載の方法。
  7. 前記決定された変換関数が、前記表面モデルの座標系内の前記フォトグラム生成表面モデルを表す座標を、前記位置検出システムの前記座標系内の前記表面モデルを表す座標に変換するために使用される、請求項6に記載の方法。
  8. -前記画像センサユニットが移動する前記経路が、前記位置検出システムの前記座標系内の前記座標で開始し、前記捕捉位置で終了し、前記画像センサユニットが、前記画像が捕捉される前にこの経路に沿って移動し、
    -前記捕捉位置が、記録された経路および前記経路の前記開始点の少なくとも前記既知の空間関係および前記座標に基づいて、前記位置検出システムの前記座標系において決定される、請求項3または4に記載の方法。
  9. -前記画像センサユニットが移動する前記経路が、前記捕捉位置で開始し、前記位置検出システムの前記座標系内の前記座標で終了し、前記画像センサユニットが、前記画像が捕捉された後にこの経路に沿って移動し、
    -前記捕捉位置が、前記記録された経路および前記経路の前記終了点の少なくとも前記既知の空間関係および前記座標に基づいて、前記位置検出システムの前記座標系において決定される、請求項3または4に記載の方法。
  10. 前記物体の移動を検出する一方で、前記物体上に配置される前記位置検出システムの前記座標系における位置および配向を検出するための位置センサによって、画像を捕捉し、前記検出された移動をタイムスタンプと一緒に表す移動信号を提供することを含む、請求項1~9のうちの少なくとも一項に記載の方法。
  11. 前記位置検出システムの前記座標系内の前記画像センサユニットによって構成される前記位置センサの位置および配向を検出することと、前記位置センサの前記決定された位置および配向から、前記位置検出システムの座標系における前記画像センサユニットの位置および配向を計算することと、を含む、請求項1~10のうちの少なくとも一項に記載の方法。
  12. 前記物体に対して位置付けられた前記物体上に配置された前記位置検出システムの前記座標系における位置および配向を検出するために、基準位置センサと一緒に前記物体の前記画像を捕捉することと、前記捕捉画像から前記基準位置センサと一緒に前記表面モデルをフォトグラムで生成し、その結果、前記フォトグラム生成表面モデルの座標系における前記基準位置センサの位置が決定される一方で、同時に、前記位置検出システムの座標系の座標に関して、位置情報を提供することと、を含む、請求項1~11のうちの少なくとも一項に記載の方法。
  13. 前記位置情報を使用して、前記位置検出システムの座標系に前記表面モデルを変換した後に、前記位置検出システムの前記座標系における前記基準位置センサの位置から、処理された動きセンサ信号および/または位置信号に基づいて前記決定された位置の偏差を計算することによって、処理された動きセンサ信号および/または位置信号に基づいて、前記位置検出システムの座標系における前記生成表面モデルの前記決定された位置を検証することを含む、請求項12に記載の方法。
  14. 前記画像センサユニットが、一焦点画像センサを含み、前記一焦点画像センサを移動させる一方で、前記物体の複数の画像が、前記経路上にある異なる捕捉位置で各々捕捉される、請求項1~13のうちの少なくとも一項に記載の方法。
  15. 前記画像センサユニットが、光学ステレオグラフィックカメラ、または光学マルチカメラ、または飛行時間カメラを含む、請求項1~14のうちの少なくとも一項に記載の方法。
  16. 前記画像を捕捉する一方で、前記画像センサユニットによって前記物体の表面上に検出可能であるパターンを投影することを含む、請求項1~15のうちの少なくとも一項に記載の方法。
  17. 前記パターンが、赤外線を使用して投影され、前記画像センサユニットが、前記パターンを検出するための赤外線感受性画像センサを含む、請求項16に記載の方法。
  18. 各捕捉画像にタイムスタンプを割り当てることを含む、請求項1~17のうちの少なくとも一項に記載の方法。
  19. 前記画像センサユニットから追跡ユニットまで、捕捉画像を表す画像データをストリーミングすることを含む、請求項1~18のうちの少なくとも一項に記載の方法。
  20. 前記画像センサユニットで画像を捕捉しながら移動する、異なる場所に位置する複数の位置センサまたは移動可能な位置センサをフォトグラムで検出することによって、交互電磁場の歪みが決定され、前記位置検出システムの前記座標系内の前記位置センサの位置および配向が、前記位置検出システムを介して直接的に決定可能である、請求項1~19のうちの少なくとも一項に記載の方法。
  21. 位置検出システムに関連して物体の位置および配向を決定するための位置合わせセットアップであって、
    -位置センサの位置および配向を決定するように構成されている、位置検出システムと、
    -少なくとも1つの動きセンサを含む、少なくとも1つの画像センサユニットであって、
    -前記画像センサユニットが、前記物体の画像を捕捉し、かつ前記物体の表面モデルを少なくとも1つの捕捉画像からフォトグラムで生成するように構成されており、
    -前記動きセンサが、経時的に前記位置検出システムに対する前記移動画像センサユニットの一連の位置を表す動きセンサ信号を提供するように構成されている、少なくとも1つの画像センサユニットと、
    -追跡ユニットであって、
    -動きセンサによって提供される動きセンサ信号を処理することによって、前記画像センサユニットの前記経路を記録するように構成されている、追跡ユニットと、
    -位置決定ユニットであって、
    -決定された経路ならびに決定された経路および座標上の少なくとも1つの点の既知の空間関係に基づいて、前記物体の画像が捕捉される、前記画像センサユニットの捕捉位置を決定することと、
    -前記決定された経路の少なくとも1つの点を、前記位置検出システムの前記座標系内の座標に関連付けることと、
    -キャリブレーションによって、前記生成表面モデルの位置を前記画像センサユニットの前記捕捉位置に関連付けることと、を行うように構成されている、位置決定ユニットと、
    -座標変換ユニットであって、
    -前記生成表面モデルを、前記位置検出システムの前記座標系に変換するように構成されている、座標変換ユニットと、を含む、位置合わせセットアップ。
  22. 前記少なくとも1つの画像センサユニットに接続されているか、または前記少なくとも1つの画像センサユニットを含む、パターンプロジェクタを含み、前記パターンプロジェクタが、身体上にパターンを投影するように構成されている、請求項21に記載のセットアップ。
  23. 前記画像センサユニットを予め画定され固定された位置で再現可能に受容するように構成されている、形状適合アダプタを含む、画像センサユニットホルダを含み、前記位置検出システムに対する前記画像センサホルダの位置および配向が、
    -前記画像センサユニットホルダに取り付けられた位置センサの位置および配向を検出すること、
    または
    -前記位置検出システムに対して前記画像センサユニットホルダを固定すること、によって決定可能である、請求項21または22に記載のセットアップ。
  24. 電磁位置検出システムに関連して物体の位置および配向を決定するための位置合わせ方法であって、前記方法が、
    -電磁位置検出システムのフィールドジェネレータに強固に固定された画像センサユニットを提供するステップと、
    -キャリブレーションによって、表面モデルの座標系と前記電磁位置検出システムの座標系との間の変換のための変換関数を決定するステップと、
    -前記画像センサユニットを用いて、物体の表面の画像を捕捉するステップと、
    -前記捕捉画像から前記物体の表面モデルをフォトグラムで生成するステップと、
    -前記フォトグラム生成表面モデルを、位置検出システムの前記座標系に変換するステップと、を含む、位置合わせ方法。
  25. 前記画像センサユニットが、動きセンサおよび/または位置センサを含む、請求項24に記載の位置合わせ方法。
  26. 前記画像センサユニットが、光学ステレオグラフィックカメラ、または光学マルチカメラ、または飛行時間カメラを含む、請求項24または25に記載の方法。
  27. 前記画像を捕捉する一方で、前記画像センサユニットによって前記物体の表面上に検出可能であるパターンを投影することを含む、請求項24~26のうちの少なくとも一項に記載の方法。
  28. 各捕捉画像にタイムスタンプを割り当てることを含む、請求項24~27のうちの少なくとも一項に記載の方法。
  29. 前記画像センサユニットから追跡ユニットまで、捕捉画像を表す画像データをストリーミングすることを含む、請求項24~28のうちの少なくとも一項に記載の方法。
  30. 前記物体に対して位置付けられた前記物体上に配置された前記位置検出システムの前記座標系における位置および配向を検出するために、基準位置センサと一緒に前記物体の前記画像を捕捉することと、前記捕捉画像から前記基準位置センサと一緒に前記表面モデルをフォトグラムで生成し、その結果、前記フォトグラム生成表面モデルの座標系における前記基準位置センサの位置が決定される一方で、同時に、前記位置検出システムの座標系の座標に関して、位置情報を提供することと、を含む、請求項24~29のうちの少なくとも一項に記載の方法。
  31. 位置検出システムに関連して物体の位置および配向を決定するための位置合わせセットアップであって、
    -交互電磁場を放射するためのフィールドジェネレータを含む、電磁位置検出システムと、
    -前記フィールドジェネレータに強固に固定された画像センサユニットであって、前記画像センサユニットが、前記物体の画像を捕捉し、かつ前記物体の表面モデルを少なくとも1つの捕捉画像からフォトグラムで生成するように構成されている、画像センサユニットと、
    -キャリブレーションによって、表面モデルの座標系と前記電磁位置検出システムの座標系との間の変換のための変換関数を決定するように構成されている、キャリブレーションユニットと、
    -前記表面モデルの座標系内の前記表面モデルを表す座標を、前記位置検出システムの前記座標系に変換するための変換関数を用いるように構成されている、座標変換ユニットと、を含む、位置合わせセットアップ。
  32. 前記画像センサユニットに接続されているか、または前記画像センサユニットを含む、パターンプロジェクタを含み、前記パターンプロジェクタが、前記身体上にパターンを投影するように構成されている、請求項31に記載のセットアップ。
  33. 前記画像センサユニットが、動きセンサおよび/または位置センサを含む、請求項31または32に記載の位置合わせ方法。
JP2021560491A 2019-04-03 2020-04-03 位置合わせ方法およびセットアップ Pending JP2022528202A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962828638P 2019-04-03 2019-04-03
US62/828,638 2019-04-03
PCT/EP2020/059643 WO2020201544A1 (en) 2019-04-03 2020-04-03 Registration method and setup

Publications (1)

Publication Number Publication Date
JP2022528202A true JP2022528202A (ja) 2022-06-08

Family

ID=66439843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021560491A Pending JP2022528202A (ja) 2019-04-03 2020-04-03 位置合わせ方法およびセットアップ

Country Status (11)

Country Link
US (2) US11430139B2 (ja)
EP (2) EP3719749A1 (ja)
JP (1) JP2022528202A (ja)
KR (1) KR20210148289A (ja)
CN (1) CN113785329A (ja)
AU (1) AU2020255292A1 (ja)
CA (1) CA3135928A1 (ja)
EA (1) EA202192705A1 (ja)
IL (1) IL286895A (ja)
SG (1) SG11202110673VA (ja)
WO (1) WO2020201544A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114652389A (zh) * 2022-03-15 2022-06-24 郁昌昇 一种带有自动校准功能的股动脉压迫止血器

Family Cites Families (203)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4905698A (en) 1988-09-13 1990-03-06 Pharmacia Deltec Inc. Method and apparatus for catheter location determination
US5964759A (en) 1992-10-27 1999-10-12 Ortho Development Corporation Electroconvergent cautery system
US5840024A (en) 1993-10-18 1998-11-24 Olympus Optical Co., Ltd. Endoscope form detecting apparatus in which coil is fixedly mounted by insulating member so that form is not deformed within endoscope
US5554155A (en) 1994-06-03 1996-09-10 Johns Hopkins University Fiber optic pick manipulator
DE4423876C1 (de) 1994-07-07 1995-07-06 Kernforschungsz Karlsruhe Verfahren zur Herstellung einer Mikrospule unter Vermeidung der Drahtwicklungstechnik
ATE253864T1 (de) 1994-08-19 2003-11-15 Biosense Inc Medizinisches diagnose-, behandlungs- und darstellungssystem
ATE252349T1 (de) 1994-09-15 2003-11-15 Visualization Technology Inc System zur positionserfassung mittels einer an einem patientenkopf angebrachten referenzeinheit zur anwendung im medizinischen gebiet
WO1996008209A2 (en) 1994-09-15 1996-03-21 Visualization Technology, Inc. Position tracking and imaging system for use in medical applications using a reference unit secured to a patient's head
US5586989A (en) 1995-01-27 1996-12-24 Bray, Jr.; Robert Microsurgical curette
US5971997A (en) 1995-02-03 1999-10-26 Radionics, Inc. Intraoperative recalibration apparatus for stereotactic navigators
GB9515311D0 (en) 1995-07-26 1995-09-20 3D Scanners Ltd Stripe scanners and methods of scanning
US5944023A (en) 1995-12-07 1999-08-31 Sims Deltec, Inc. Systems and methods for determining the location of an implanted device including a magnet
ES2236791T3 (es) 1996-02-15 2005-07-16 Biosense Webster, Inc. Procedimiento de calibracion de una sonda.
WO1997029685A1 (en) 1996-02-15 1997-08-21 Biosense, Inc. Independently positionable transducers for location system
DE19641720C2 (de) 1996-10-10 2002-01-24 Mahr Gmbh Tastkopf mit elektronischer Führung
US8083745B2 (en) 2001-05-25 2011-12-27 Conformis, Inc. Surgical tools for arthroplasty
US6248074B1 (en) 1997-09-30 2001-06-19 Olympus Optical Co., Ltd. Ultrasonic diagnosis system in which periphery of magnetic sensor included in distal part of ultrasonic endoscope is made of non-conductive material
US6011987A (en) 1997-12-08 2000-01-04 The Cleveland Clinic Foundation Fiducial positioning cup
US6073043A (en) 1997-12-22 2000-06-06 Cormedica Corporation Measuring position and orientation using magnetic fields
US6052610A (en) 1998-01-09 2000-04-18 International Business Machines Corporation Magnetic catheter tracker and method therefor
IL138369A (en) 1998-03-30 2005-09-25 Bioesence Inc Three-axis coil sensor
US6432041B1 (en) 1998-09-09 2002-08-13 Olympus Optical Co., Ltd. Endoscope shape detecting apparatus wherein form detecting processing is controlled according to connection state of magnetic field generating means
US6370420B1 (en) 1998-11-17 2002-04-09 Mark Kraft System and method for objectively verifying an internal disc disruption
US6611141B1 (en) 1998-12-23 2003-08-26 Howmedica Leibinger Inc Hybrid 3-D probe tracked by multiple sensors
US8944070B2 (en) 1999-04-07 2015-02-03 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
US6301495B1 (en) 1999-04-27 2001-10-09 International Business Machines Corporation System and method for intra-operative, image-based, interactive verification of a pre-operative surgical plan
US6415171B1 (en) 1999-07-16 2002-07-02 International Business Machines Corporation System and method for fusing three-dimensional shape data on distorted images without correcting for distortion
JP3608448B2 (ja) 1999-08-31 2005-01-12 株式会社日立製作所 治療装置
DE19944981B4 (de) 1999-09-20 2005-09-29 Siemens Ag Bildgebende Diagnostikeinrichtung mit einer Vorrichtung zur geometrischen Korrektur von Bildern
US6661571B1 (en) 1999-09-21 2003-12-09 Olympus Optical Co., Ltd. Surgical microscopic system
US6499488B1 (en) 1999-10-28 2002-12-31 Winchester Development Associates Surgical sensor
US6381485B1 (en) 1999-10-28 2002-04-30 Surgical Navigation Technologies, Inc. Registration of human anatomy integrated for electromagnetic localization
US7366562B2 (en) 2003-10-17 2008-04-29 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
US6235038B1 (en) 1999-10-28 2001-05-22 Medtronic Surgical Navigation Technologies System for translation of electromagnetic and optical localization systems
US8644907B2 (en) 1999-10-28 2014-02-04 Medtronic Navigaton, Inc. Method and apparatus for surgical navigation
US20010034530A1 (en) 2000-01-27 2001-10-25 Malackowski Donald W. Surgery system
US6484049B1 (en) 2000-04-28 2002-11-19 Ge Medical Systems Global Technology Company, Llc Fluoroscopic tracking and visualization system
WO2002035454A1 (en) 2000-09-25 2002-05-02 Z-Kat, Inc. Fluoroscopic registration artifact with optical and/or magnetic markers
US8253779B2 (en) 2000-10-11 2012-08-28 University of Pittsbugh—Of The Commonwealth System of Higher Education System for remote guidance by expert for imaging device
AU2001210146A1 (en) 2000-11-03 2002-05-15 Synthes Ag, Chur Determination of deformation of surgical tools
FR2816200A1 (fr) 2000-11-06 2002-05-10 Praxim Determination de la position d'une prothese du genou
US6690960B2 (en) 2000-12-21 2004-02-10 David T. Chen Video-based surgical targeting system
US7043961B2 (en) 2001-01-30 2006-05-16 Z-Kat, Inc. Tool calibrator and tracker system
DE50214535D1 (de) 2001-03-26 2010-08-26 All Of Innovation Ges Mit Besc Verfahren und gerätesystem zum materialabtrag oder zur materialbearbeitung
US20030040670A1 (en) 2001-06-15 2003-02-27 Assaf Govari Method for measuring temperature and of adjusting for temperature sensitivity with a medical device having a position sensor
US6584339B2 (en) 2001-06-27 2003-06-24 Vanderbilt University Method and apparatus for collecting and processing physical space data for use while performing image-guided surgery
EP1302172B1 (de) 2001-10-10 2008-03-05 BrainLAB AG Medizinisches Instrument mit berührungsempfindlicher Spitze
US7474327B2 (en) 2002-02-12 2009-01-06 Given Imaging Ltd. System and method for displaying an image stream
DE10306793A1 (de) 2002-05-21 2003-12-04 Plus Endoprothetik Ag Rotkreuz Anordnung und Verfahren zur intraoperativen Festlegung der Lage eines Gelenkersatzimplantats
DE10225518B4 (de) 2002-06-10 2004-07-08 Rayonex Schwingungstechnik Gmbh Verfahren und Vorrichtung zur Steuerung und Positionsbestimmung eines Instruments oder Gerätes
DE20220584U1 (de) 2002-06-15 2004-04-01 Joimax Gmbh Vorrichtung zur Visualisierung und Datenarchivierung
US20040044295A1 (en) 2002-08-19 2004-03-04 Orthosoft Inc. Graphical user interface for computer-assisted surgery
US6892090B2 (en) 2002-08-19 2005-05-10 Surgical Navigation Technologies, Inc. Method and apparatus for virtual endoscopy
US7166114B2 (en) 2002-09-18 2007-01-23 Stryker Leibinger Gmbh & Co Kg Method and system for calibrating a surgical tool and adapter thereof
ATE424776T1 (de) 2002-10-04 2009-03-15 Orthosoft Inc Computergestützte hüftersatz chirurgie
JP2004215992A (ja) 2003-01-16 2004-08-05 Uchihashi Estec Co Ltd 体腔内への医療用挿入具の位置及び姿勢検出装置並びにその検出方法
US20040199072A1 (en) 2003-04-01 2004-10-07 Stacy Sprouse Integrated electromagnetic navigation and patient positioning device
US7203277B2 (en) 2003-04-25 2007-04-10 Brainlab Ag Visualization device and method for combined patient and object image data
CA2523727A1 (en) 2003-04-28 2005-01-06 Bracco Imaging Spa Surgical navigation imaging system
US20050020909A1 (en) 2003-07-10 2005-01-27 Moctezuma De La Barrera Jose Luis Display device for surgery and method for using the same
WO2005009220A2 (en) 2003-07-21 2005-02-03 Johns Hopkins University Registration of ultrasound to fluoroscopy for real time optimization of radiation implant procedures
US7321228B2 (en) 2003-07-31 2008-01-22 Biosense Webster, Inc. Detection of metal disturbance in a magnetic tracking system
US20050054895A1 (en) 2003-09-09 2005-03-10 Hoeg Hans David Method for using variable direction of view endoscopy in conjunction with image guided surgical systems
US7764985B2 (en) 2003-10-20 2010-07-27 Smith & Nephew, Inc. Surgical navigation system component fault interfaces and related processes
JP2007531553A (ja) 2003-10-21 2007-11-08 ザ ボード オブ トラスティーズ オブ ザ リーランド スタンフォード ジュニア ユニヴァーシティ 術中ターゲティングのシステムおよび方法
US20050085717A1 (en) 2003-10-21 2005-04-21 Ramin Shahidi Systems and methods for intraoperative targetting
US20050107687A1 (en) 2003-11-14 2005-05-19 Anderson Peter T. System and method for distortion reduction in an electromagnetic tracker
EP1690497B1 (en) 2003-12-02 2017-02-22 Olympus Corporation Ultrasonographic device
DE102004058272A1 (de) 2003-12-08 2005-06-30 Rayonex Schwingungstechnik Gmbh Instrument und Verfahren zum Lokalisieren eines Instruments
US20050187562A1 (en) 2004-02-03 2005-08-25 Grimm James E. Orthopaedic component inserter for use with a surgical navigation system
EP1718202B1 (en) 2004-02-18 2012-08-01 Philips Intellectual Property & Standards GmbH Device and method for the determination of the position of a catheter in a vascular system
JP4698966B2 (ja) 2004-03-29 2011-06-08 オリンパス株式会社 手技支援システム
US20050228270A1 (en) 2004-04-02 2005-10-13 Lloyd Charles F Method and system for geometric distortion free tracking of 3-dimensional objects from 2-dimensional measurements
DE102004017834B4 (de) 2004-04-13 2011-01-27 Siemens Ag Kathetereinrichtung
US20070208252A1 (en) 2004-04-21 2007-09-06 Acclarent, Inc. Systems and methods for performing image guided procedures within the ear, nose, throat and paranasal sinuses
JP4460973B2 (ja) 2004-08-05 2010-05-12 株式会社東芝 画像処理装置
US7702379B2 (en) 2004-08-25 2010-04-20 General Electric Company System and method for hybrid tracking in surgical navigation
US7373271B1 (en) 2004-09-20 2008-05-13 Ascension Technology Corporation System and method for measuring position and orientation using distortion-compensated magnetic fields
JP2006122086A (ja) 2004-10-26 2006-05-18 Hitachi Ltd 生体光計測装置
US7805269B2 (en) 2004-11-12 2010-09-28 Philips Electronics Ltd Device and method for ensuring the accuracy of a tracking device in a volume
US20060264749A1 (en) 2004-11-24 2006-11-23 Weiner Allison L Adaptable user interface for diagnostic imaging
US20060161059A1 (en) 2005-01-20 2006-07-20 Zimmer Technology, Inc. Variable geometry reference array
US20060241397A1 (en) 2005-02-22 2006-10-26 Assaf Govari Reference pad for position sensing
US7775215B2 (en) 2005-02-24 2010-08-17 Ethicon Endo-Surgery, Inc. System and method for determining implanted device positioning and obtaining pressure data
EP1861035A1 (en) 2005-03-11 2007-12-05 Bracco Imaging S.P.A. Methods and apparati for surgical navigation and visualization with microscope
WO2007011306A2 (en) 2005-07-20 2007-01-25 Bracco Imaging S.P.A. A method of and apparatus for mapping a virtual model of an object to the object
GB0505782D0 (en) 2005-03-22 2005-04-27 Depuy Int Ltd Surgical guide
WO2006106335A1 (en) 2005-04-06 2006-10-12 Depuy International Ltd Registration system and method
EP2474268B1 (en) 2005-05-06 2013-07-10 Vasonova, Inc. Apparatus for endovascular device guiding and positioning
US20060271056A1 (en) 2005-05-10 2006-11-30 Smith & Nephew, Inc. System and method for modular navigated osteotome
EP1919389A2 (de) 2005-06-09 2008-05-14 IFE Industrielle Forschung und Entwicklung GmbH Vorrichtung zum berührungslosen ermitteln und vermessen einer raumposition und/oder einer raumorientierung von körpern
WO2007014470A2 (en) 2005-08-01 2007-02-08 Resonant Medical Inc. System and method for detecting drifts in calibrated tracking systems
EP1919390B1 (en) 2005-08-05 2012-12-19 DePuy Orthopädie GmbH Computer assisted surgery system
EP1931237A2 (en) 2005-09-14 2008-06-18 Neoguide Systems, Inc. Methods and apparatus for performing transluminal and other procedures
US7835784B2 (en) 2005-09-21 2010-11-16 Medtronic Navigation, Inc. Method and apparatus for positioning a reference frame
JP4781764B2 (ja) 2005-09-29 2011-09-28 富士フイルム株式会社 電子内視鏡システム
US20090234329A1 (en) 2005-10-17 2009-09-17 Kaneka Corporation Medical Catheter Tubes and Process for Production Thereof
US20070106114A1 (en) 2005-11-09 2007-05-10 Pentax Corporation Endoscope-shape monitoring system
US20070111726A1 (en) 2005-11-15 2007-05-17 Sony Ericsson Mobile Communications Ab User profiles for mobile terminals
US20090216113A1 (en) 2005-11-17 2009-08-27 Eric Meier Apparatus and Methods for Using an Electromagnetic Transponder in Orthopedic Procedures
US8190238B2 (en) 2005-12-09 2012-05-29 Hansen Medical, Inc. Robotic catheter system and methods
DE102006003610B4 (de) 2006-01-25 2012-06-06 Siemens Ag Vorrichtung für die interventionelle Therapie
US8251998B2 (en) 2006-08-16 2012-08-28 Biomet Sports Medicine, Llc Chondral defect repair
WO2007115825A1 (en) 2006-04-12 2007-10-18 Nassir Navab Registration-free augmentation device and method
WO2007129309A1 (en) 2006-05-02 2007-11-15 Galil Medical Ltd. Probe insertion guide with user-directing features
DE102006026752B4 (de) 2006-06-08 2009-04-16 Siemens Ag Verfahren und Vorrichtung zur Durchführung des Verfahrens zur Registrierung von funktionellen MR-Bilddaten mit Röntgendurchleuchtung
US8560047B2 (en) 2006-06-16 2013-10-15 Board Of Regents Of The University Of Nebraska Method and apparatus for computer aided surgery
US20080021317A1 (en) 2006-07-24 2008-01-24 Siemens Medical Solutions Usa, Inc. Ultrasound medical imaging with robotic assistance for volume imaging
US8442619B2 (en) 2006-08-30 2013-05-14 General Electric Company System and method for detecting errors in position tracking systems used for medical applications
EP2063802B1 (en) 2006-09-08 2019-03-13 Medtronic, Inc. System for navigating a planned procedure within a body
DE502006007177D1 (de) 2006-09-15 2010-07-22 Brainlab Ag Vorrichtung und Verfahren zum Messen geometrischer Eigenschaften medizintechnischer Behandlungsvorrichtungen, insbesondere zur automatischen Verifikation, Kalibrierung und Vermessung von Instrumenten für computerassistierte Chirurgie
US8248413B2 (en) 2006-09-18 2012-08-21 Stryker Corporation Visual navigation system for endoscopic surgery
EP1915962B1 (de) 2006-10-26 2008-12-03 BrainLAB AG Integriertes medizinisches Trackingsystem
DE502006005876D1 (de) 2006-11-06 2010-02-25 Brainlab Ag Längenbestimmung eines flexiblen, langen Instruments
US8214016B2 (en) 2006-12-12 2012-07-03 Perception Raisonnement Action En Medecine System and method for determining an optimal type and position of an implant
WO2008076079A1 (en) 2006-12-19 2008-06-26 Bracco Imaging S.P.A. Methods and apparatuses for cursor control in image guided surgery
US8672836B2 (en) 2007-01-31 2014-03-18 The Penn State Research Foundation Method and apparatus for continuous guidance of endoscopy
US8067726B2 (en) 2007-02-26 2011-11-29 General Electric Company Universal instrument calibration system and method of use
JP5639764B2 (ja) 2007-03-08 2014-12-10 シンク−アールエックス,リミティド 運動する器官と共に使用するイメージング及びツール
DE102007012361B4 (de) 2007-03-14 2016-09-22 Siemens Healthcare Gmbh Verfahren zur Positionsbestimmung eines medizinischen Instruments und Positionsbestimmungsvorrichtung
US8821511B2 (en) 2007-03-15 2014-09-02 General Electric Company Instrument guide for use with a surgical navigation system
DE202007004507U1 (de) 2007-03-21 2007-06-14 Aesculap Ag & Co. Kg Chirurgische Referenzierungseinheit, Haltevorrichtung für eine chirurgische Referenzierungseinheit und chirurgisches Navigationssystem
US9289270B2 (en) 2007-04-24 2016-03-22 Medtronic, Inc. Method and apparatus for performing a navigated procedure
DE102007019827A1 (de) 2007-04-26 2008-11-06 Siemens Ag System und Verfahren zur Ermittlung der Position eines Instruments
US7909767B2 (en) 2007-05-16 2011-03-22 General Electric Company Method for minimizing tracking system interference
JP2009045428A (ja) 2007-07-25 2009-03-05 Terumo Corp 操作機構、医療用マニピュレータ及び手術用ロボットシステム
US20090069671A1 (en) 2007-09-10 2009-03-12 General Electric Company Electric Motor Tracking System and Method
US8485038B2 (en) 2007-12-18 2013-07-16 General Electric Company System and method for augmented reality inspection and data visualization
JP5154961B2 (ja) 2008-01-29 2013-02-27 テルモ株式会社 手術システム
US7937163B2 (en) 2008-03-04 2011-05-03 Olympus Medical Systems Corp. Medical control device and its system
US20110178389A1 (en) 2008-05-02 2011-07-21 Eigen, Inc. Fused image moldalities guidance
CN101347331B (zh) 2008-06-06 2011-09-07 微创医疗器械(上海)有限公司 一种模拟导管弯曲形态的方法及磁感应导管
US20090306499A1 (en) 2008-06-09 2009-12-10 Mako Surgical Corp. Self-detecting kinematic clamp assembly
WO2009150564A2 (en) 2008-06-13 2009-12-17 Koninklijke Philips Electronics, N.V. Multimodal imaging fiducial marker
US8926528B2 (en) 2008-08-06 2015-01-06 Biosense Webster, Inc. Single-axis sensors on flexible backbone
EP2455038B1 (de) 2008-10-21 2015-04-01 Brainlab AG Integration von chirurgischem Instrument und Anzeigevorrichtung zur Unterstützung der bildgeführten Chirurgie
JPWO2010050555A1 (ja) 2008-10-31 2012-03-29 オリンパスメディカルシステムズ株式会社 超音波観測装置
US8478379B2 (en) 2008-11-12 2013-07-02 Biosense Webster, Inc. Probe visualization based on mechanical properties
DE102008058132A1 (de) 2008-11-14 2010-05-20 opTricon GmbH Entwicklungsesellschaft für optische Technologien Gerät und Verfahren zur Auswertung und Bewertung eines Teststreifens
DE102008057744A1 (de) 2008-11-17 2010-05-20 Charité-Universitätsmedizin Berlin Verfahren zum Erzeugen von Bilddaten für eine Darstellung eines Instrumentes
DE102008062754B4 (de) 2008-12-17 2011-02-24 Rayonex Schwingungstechnik Gmbh Verfahren und System zur Übertragung von Daten von einem Gerät zu einer Empfangseinheit
US20110270083A1 (en) 2008-12-30 2011-11-03 Koninklijke Philips Electronics N.V. System and method for dynamic metal distortion compensation for electromagnetic tracking systems
JP5667988B2 (ja) 2009-01-05 2015-02-12 コーニンクレッカ フィリップス エヌ ヴェ 電磁追跡システムの動的金属歪補償のためのシステム及び方法
US8641621B2 (en) 2009-02-17 2014-02-04 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US9700210B2 (en) 2009-03-02 2017-07-11 Canon Kabushiki Kaisha Image processing apparatus and method for controlling the same
DE102009011643A1 (de) 2009-03-04 2010-09-16 Siemens Aktiengesellschaft Verfahren und Programmprodukt für ein Erstellen von medizinischen Befunden anhand von medizinischen Bilddaten
US9737235B2 (en) 2009-03-09 2017-08-22 Medtronic Navigation, Inc. System and method for image-guided navigation
US8504139B2 (en) 2009-03-10 2013-08-06 Medtronic Xomed, Inc. Navigating a surgical instrument
US10004387B2 (en) 2009-03-26 2018-06-26 Intuitive Surgical Operations, Inc. Method and system for assisting an operator in endoscopic navigation
JP2012523944A (ja) 2009-04-20 2012-10-11 エンビジョニア メディカル テクノロジーズ インコーポレイテッド 撮像システム
US9031637B2 (en) 2009-04-27 2015-05-12 Smith & Nephew, Inc. Targeting an orthopaedic implant landmark
DE102009021705A1 (de) 2009-05-18 2010-11-25 Dirk Mucha Verfahren zum Erzeugen von Positionsdaten eines Instrumentes
EP2258264B1 (de) 2009-06-03 2011-12-21 BrainLAB AG Expressregistrierung von Körperregionen
EP2258283B1 (de) 2009-06-05 2013-08-28 BrainLAB AG Werkzeugaufsatz für medizintechnische Anwendungen
DE102009030731A1 (de) 2009-06-26 2010-12-30 Fiagon Gmbh Verfahren zum Erzeugen von Positionsdaten eines Instrumentes
JP5377153B2 (ja) 2009-08-18 2013-12-25 株式会社東芝 画像処理装置、画像処理プログラムおよび医用診断システム
TW201106917A (en) 2009-08-26 2011-03-01 Accumis Inc Surgical tool calibrating device having electronic sensing moudle
EP2470102B1 (en) 2009-08-27 2016-07-20 Brainlab AG Disposable and radiolucent reference array for optical tracking
DE102009040430B4 (de) 2009-09-07 2013-03-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zur Überlagerung eines intraoperativen Livebildes eines Operationsgebiets oder des Operationsgebiets mit einem präoperativen Bild des Operationsgebiets
US20110066029A1 (en) 2009-09-11 2011-03-17 Medtronic, Inc. Electromagnetic Medical Device
US20110118557A1 (en) 2009-11-18 2011-05-19 Nellcor Purifan Bennett LLC Intelligent User Interface For Medical Monitors
US8600480B2 (en) 2009-12-31 2013-12-03 Mediguide Ltd. System and method for assessing interference to a signal caused by a magnetic field
JP5380348B2 (ja) 2010-03-31 2014-01-08 富士フイルム株式会社 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
CA2797302C (en) 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
US9098899B2 (en) 2010-05-27 2015-08-04 Koninklijke Philips N.V. Determining the specific orientation of an object
DE102010027535A1 (de) 2010-07-16 2012-01-19 Fiagon Gmbh Verfahren zur Überprüfung von Positionsdaten eines Instrumentes
US9641808B2 (en) 2010-10-28 2017-05-02 Fiagon Gmbh Navigating attachment for optical devices in medicine, and method
CN103402450A (zh) 2010-12-17 2013-11-20 阿韦尼尔医药公司 用于在外科手术中对准假体的方法及系统
DE102010064389B4 (de) 2010-12-30 2017-02-02 Siemens Healthcare Gmbh Halter zur Aufnahme eines länglichen medizinischen Instruments
AU2012214166A1 (en) 2011-02-10 2013-09-12 Actuated Medical, Inc. Medical tool with electromechanical control and feedback
WO2012109760A1 (en) 2011-02-18 2012-08-23 Traumis Surgical Systems Inc. Tool with integrated navigation and guidance system and related apparatus and methods
ITTO20110394A1 (it) 2011-05-05 2012-11-06 Univ Pisa Catetere munito di sensori elettromagnetici di posizione, e sistema di localizzazione per cateteri e fili guida
JP2014520637A (ja) 2011-07-14 2014-08-25 プレシジョン スルー イメージング インコーポレイテッド 磁気センサを使用する歯科用の移植システム及び方法
US9918797B2 (en) 2011-07-28 2018-03-20 Brainlab Ag Patient positioning system with an electromagnetic field generator of an electromagnetic tracking system
EP3656317A1 (en) 2011-09-02 2020-05-27 Stryker Corporation Surgical system including an instrument and method for using the instrument
DE102011119073A1 (de) 2011-11-15 2013-05-16 Fiagon Gmbh Registrierverfahren, Positionserfassungssystem und Abtastinstrument
US8920368B2 (en) 2011-12-22 2014-12-30 St. Jude Medical, Atrial Fibrillation Division, Inc. Multi-user touch-based control of a remote catheter guidance system (RCGS)
US20150031989A1 (en) 2012-01-20 2015-01-29 Civco Medican Instruments Co., Inc. Indicator guide for improved instrument navigation in image-guided medical procedures
DE102012205165A1 (de) 2012-03-29 2013-10-02 Fiagon Gmbh Medizinisches System mit einer Lageerfassungseinrichtung zum Erfassen der Position und Orientierung eines Instruments
DE102012208389A1 (de) 2012-05-18 2013-11-21 Fiagon Gmbh Registrierverfahren und -vorrichtung für ein Positionserfassungssystem
US20190038366A1 (en) 2012-06-21 2019-02-07 Globus Medical, Inc. Surgical robotic automation with tracking markers
US9629523B2 (en) 2012-06-27 2017-04-25 Camplex, Inc. Binocular viewing assembly for a surgical visualization system
EP4309613A3 (en) 2013-01-16 2024-03-06 Stryker Corporation Navigation systems for indicating line-of-sight errors
US9854991B2 (en) 2013-03-15 2018-01-02 Medtronic Navigation, Inc. Integrated navigation array
DE102013209158A1 (de) 2013-05-16 2014-11-20 Fiagon Gmbh Verfahren zum Einbinden mittels eines bildgebenden Verfahrens gewonnener Daten
JP6117922B2 (ja) 2013-06-13 2017-04-19 テルモ株式会社 医療用マニピュレータおよびその作動方法
DE102013214067A1 (de) 2013-07-17 2015-01-22 Fiagon Gmbh Vorrichtung und Verfahren zur Anbindung eines medizinischen Instruments an ein Lageerfassungssystem
DE102013217328A1 (de) 2013-08-30 2015-03-05 Fiagon Gmbh Verfahren und Vorrichtung zum Navigieren von aktiven chirurgischen Instrumenten
DE102013221026A1 (de) 2013-10-16 2015-04-16 Fiagon Gmbh Feldgenerator und Lageerfassungssystem
DE102013222230A1 (de) 2013-10-31 2015-04-30 Fiagon Gmbh Chirurgisches Instrument
BR112016012548B1 (pt) 2013-12-04 2022-04-05 Obalon Therapeutics, Inc Sistema eletromagnético para localizar dispositivo intragástrico inflável dentro do corpo
US20180021092A2 (en) 2014-02-05 2018-01-25 Brainlab Ag Identification and calibration method
DE102014207274A1 (de) 2014-04-15 2015-10-15 Fiagon Gmbh Navigationsunterstützungssystem für medizinische Instrumente
EP3160369A4 (en) 2014-06-25 2018-04-18 Canary Medical Inc. Devices, systems and methods for using and monitoring spinal implants
US20160310041A1 (en) 2015-04-22 2016-10-27 Acclarent, Inc. Guidewire with navigation sensor
WO2017100180A1 (en) 2015-12-10 2017-06-15 Stryker Corporation Tracking devices for use in navigation systems and methods for manufacturing the same
EP3399900A4 (en) 2016-01-07 2019-10-16 Baylis Medical Company Inc. HYBRID TRANSSEPTAL DILATOR AND METHODS OF USE
EP4327769A2 (en) * 2016-03-12 2024-02-28 Philipp K. Lang Devices and methods for surgery
JP6493885B2 (ja) * 2016-03-15 2019-04-03 富士フイルム株式会社 画像位置合せ装置、画像位置合せ装置の作動方法および画像位置合せプログラム
US11344268B2 (en) * 2017-09-29 2022-05-31 Medtronic Navigation, Inc. System and method for mobile imaging
US11026751B2 (en) 2017-12-28 2021-06-08 Cilag Gmbh International Display of alignment of staple cartridge to prior linear staple line
US20200237459A1 (en) 2019-01-25 2020-07-30 Biosense Webster (Israel) Ltd. Flexible multi-coil tracking sensor
EP4027931A1 (en) 2019-09-13 2022-07-20 Intersect ENT International GmbH Navigation unit and method

Also Published As

Publication number Publication date
WO2020201544A1 (en) 2020-10-08
AU2020255292A1 (en) 2021-10-28
US20220020161A1 (en) 2022-01-20
CA3135928A1 (en) 2020-10-08
US11430139B2 (en) 2022-08-30
EP3948783A1 (en) 2022-02-09
KR20210148289A (ko) 2021-12-07
IL286895A (en) 2021-10-31
CN113785329A (zh) 2021-12-10
EP3719749A1 (en) 2020-10-07
US20220215562A1 (en) 2022-07-07
EA202192705A1 (ru) 2022-02-07
SG11202110673VA (en) 2021-10-28

Similar Documents

Publication Publication Date Title
JP6690041B2 (ja) 三次元物体上の注視点決定方法及び装置
US11076133B2 (en) Medical tracking system comprising two or more communicating sensor devices
US10290154B1 (en) Stereo-based calibration apparatus
US9208561B2 (en) Registration method and registration device for a position detection system
JP5378374B2 (ja) リアルオブジェクトに対するカメラの位置および方向を把握する方法およびシステム
JP2014211404A (ja) モーションキャプチャー方法
JP2018509204A (ja) 顎の動きの追跡
Gourlay et al. Head‐Mounted‐Display Tracking for Augmented and Virtual Reality
WO2019121127A1 (en) Combining image based and inertial probe tracking
JP6095032B1 (ja) 合成画像提示システム
US20220215562A1 (en) Registration method and setup
WO2020157984A1 (ja) 合成画像生成システム及び位置情報補正システム
JP2006170688A (ja) ステレオ画像作成方法及び3次元データ作成装置
CN111374784B (zh) 一种增强现实ar定位系统及方法
JP2001505655A (ja) 3次元超音波撮像機
Cho et al. A Comparative Evaluation of a Single and Stereo Lighthouse Systems for 3-D Estimation
JPWO2020157985A1 (ja) 合成画像生成システム及び初期条件リセットシステム
Kleinschmidt et al. Tracking Solutions for Mobile Robots: Evaluating Positional Tracking using Dual-axis Rotating Laser Sweeps.
US20230149096A1 (en) Surface detection device with integrated reference feature and methods of use thereof
EP4212123A1 (en) Technique for determining a need for a re-registration of a patient tracker tracked by a camera system
US20220304634A1 (en) Method and Positioning System for Determining a Region to be Examined in a Subject
KR20210096622A (ko) 이미징 장치를 위한 공간 등록 방법
JP2022123510A (ja) 支援システム、画像処理装置、支援方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240319