JP2006258798A - 改良された形状特徴化のためのデバイスおよび方法 - Google Patents

改良された形状特徴化のためのデバイスおよび方法 Download PDF

Info

Publication number
JP2006258798A
JP2006258798A JP2006028557A JP2006028557A JP2006258798A JP 2006258798 A JP2006258798 A JP 2006258798A JP 2006028557 A JP2006028557 A JP 2006028557A JP 2006028557 A JP2006028557 A JP 2006028557A JP 2006258798 A JP2006258798 A JP 2006258798A
Authority
JP
Japan
Prior art keywords
tracking device
shape
computer
orientation
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006028557A
Other languages
English (en)
Inventor
La Barrera Jose Luis M De
ルイス モクテズマ デ ラ バレラ ホセ
Waldean A Schulz
エー.シュルツ ウォルディン
Donald W Malackowski
ダブリュ.マラコウスキ ドナルド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stryker Leibinger GmbH and Co KG
Original Assignee
Stryker Leibinger GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stryker Leibinger GmbH and Co KG filed Critical Stryker Leibinger GmbH and Co KG
Publication of JP2006258798A publication Critical patent/JP2006258798A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude

Abstract

【課題】非接触でトラッキングデバイスに相対するボディの形状および向きを決定する。
【解決手段】形状特徴化を用いて、剛性または略剛性の移動可能なボディの形状および向きが決定される。センサは、ボディの境界ボリュームを決定するために解析されるボディの異なるパースペクティブ(透視図)の複数表示をキャプチャする。ボディの形状は境界ボリュームに基づいて決定される。ボディは、ボディの位置を検知するトラッキングデバイスを用いて位置決めされる。境界ボリュームと位置情報が組み合わされて、ボディの空間における形状および向き、特に、ボディの対象となるポイントの位置を画定する。
【選択図】図1

Description

[関連出願に対する関連文献]
該当なし
[国家支援による研究開発に関する文献]
該当なし
[以降のリスト]
該当なし
本発明は、剛性または略剛性のボディの形状の決定に係る。より詳細には、本発明は、コンピュータナビゲーションシステムを用いたこのようなボディの形状決定に関する。
ボディの位置のコンピュータによる決定は、長年、製造および医療の分野において使用されてきた。コンピュータナビゲーションは、ナビゲーションシステムによってトラッキングされるべきボディが、公知の形状を有することを必要とすることから、これらのボディの向きおよび位置は、該システムによって適正にトラッキングされ得る。トラッキングは、該ボディにトラッキングデバイスを装着させたり、該トラッキングデバイスを該ボディに埋め込んだりすることによって、達成される。能動的および受動的な光学的トラッキングシステム、磁気システムおよび慣性システムを含む多数のトラッキング技術が提供されている。
多くのアプリケーションにとって、ボディを音場較正(field calibrate)することが必要であり、これによって、その後、ナビゲーションシステムがボディをトラッキングし、コンピュータディスプレイ上で、ボディを、リアリスティック(写実的)に、グラフィカルに、レンダリングすることができる。一般に、これは、ボディと固定関係にあるトラッキングデバイスを装着し、次に、較正デバイスへボディを挿入することによって、実行される。これらのデバイスは、ナビゲーションシステムと公知の関係にあるディボット(くぼみ)と同じくらいシンプルであり得るが、ボディの先端を所定の位置に配置させてナビゲーションシステムに相対して所定の姿勢になるようにボディを制約するデバイスともなり得る。現在のトラッキング較正では、ボディと較正デバイスの間に何らか物理的接触が必要とされる。
いくつかの状況において、他のデバイスまたはボディとの接触を最小限とすることが望ましいとされ得る。例えば、外科手術の場合、無菌が必要条件であることから、使用されるボディが無菌でなければならず、いかなる方法であろうと接触する全てのボディが無菌でなければならない。これによって、較正デバイスを滅菌し、無菌領域内に較正デバイスを置くことが必要とされる。外科手術室のスペースの需要過多を考慮した場合、これは問題である。
さらに、ねじ回し、ねじ、移植挿入デバイス、その他などのアタッチメント(付属品)を含むボディは、新しい付属品が挿入されるたびに再較正を必要とする。最後に、デバイスによっては、これらのボディの軸方向の形状を有しておらず、その結果、公知の方法ではこのようなボディを音場較正することが難しかった。
本発明の一つの態様によれば、システムは、トラッキングデバイスに相対するボディの形状および向きを決定する。検知デバイスは、ボディの一連の表示を生成する。コンピュータナビゲーションシステムによって検出可能なトラッキングデバイスは、コンピュータナビゲーションシステムに相対するボディを位置決めできるようにボディに対応付けられる。中央処理装置(CPU)を有するコンピュータナビゲーションシステムは、トラッキングデバイスに相対するボディの形状および向きを決定するためにボディの一連の表示および相対位置を処理する。
本発明の他の態様によれば、エミッタに相対するボディの形状および向きがシステムによって決定される。検知デバイスは、ボディの一連の表示を生成する。コンピュータナビゲーションシステムによって検知可能なエミッタは、ボディがコンピュータナビゲーションシステムに相対して位置決めされるように、ボディに対応付けられる。中央処理装置を有するコンピュータナビゲーションシステムは、エミッタに相対するボディの形状および向きを決定するためにボディの一連の表示および相対的な位置を処理する。
本発明の更なる態様によれば、コンピュータナビゲーションシステムを用いてトラッキングデバイスに相対するボディの形状および向きを決定するため方法であって、ボディの一連の表示を生成し、その後、これらの表示を用いて、ボディの複合境界ボリュームを決定するステップを含む。複合境界ボリュームによって、ボディの形状が決定される。コンピュータナビゲーションシステムと通信するボディに対応付けられるトラッキングデバイスを用いて、ボディの位置および向きが決定される。
本発明のまた更なる態様において、コンピュータナビゲーションシステムを用いてボディの形状および向きを決定するための方法であって、少なくとも二つのパースペクティブ(透視画)からボディの一連の表示を生成するステップを含む。一連の表示から複合境界ボリュームが決定され、複合境界ボリュームからボディの形状が決定される。ボディの位置および向きが、ボディの形状および一連の表示から決定される。
図1は、ボディ102を特徴付けるために有用な形状特徴化システム100の一つの実施の形態を示す。形状特徴化システム100は、ナビゲーションコンピュータ104、位置トラッキングデバイス106、複数のカメラ108−1乃至108−Mおよび複数の背景110−M乃至110−Nを含む。形状特徴化システム100は、ナビゲーションコンピュータ104によって確立されたグローバル座標システム112に相対してボディ102の位置および向きを空間において配置する。具体的には、形状特徴化システム100は、ナビゲーションコンピュータ104によって確立されたグローバル座標システム112に相対して、ボディ102に局所的なボディの軸XB114、YB116、およびZB118の位置および向きを決定する。形状特徴化システム100によって決定されるボディ軸114、116、および118の位置および形状は、ボディの軸114、116、および118によって画定された局所的座標空間におけるボディ102上のポイントをグローバル座標システム112におけるポイントにマッピングする線形変換マトリックスとして表され得る。
位置トラッキングデバイス106は、局所的座標システム120を有し、カメラ108−1乃至108−Mは、それぞれ、それ自体の局所的座標システム122−1乃至122−Mを有する。カメラ108−1乃至108−Mとして使用される好適なデバイスには、公知のディジタルビデオカメラ、ディジタルスチールカメラ、および画像キャプチャデバイス等がある。
位置トラッキングデバイス106は、ボディ102に対して所定および固定関係を有し、コンピュータナビゲーションシステム104へ較正される。更にまた、位置トラッキングデバイス106は、位置トラッキングデバイス106の座標システム120またはナビゲーションコンピュータ104の座標システム112の二つの座標システムが互いに較正されるので、これら二つの座標システムのいずれかに対するボディ102の表面上の固定点124の位置をトラッキングすることが可能である。二つの座標システムの較正によって、位置トラッキングデバイス106の座標システム120に対するボディ102上のポイント124の任意の測定値が、線形変換によって、ナビゲーションコンピュータ104の座標システム112にマッピングされるのが可能となる。
位置トラッキングデバイス106は、ボディ102から物理的に分離しており、あるいは、位置トラッキングデバイス106は、ボディ102に装着されるか、そうでない場合は、ボディ102に組み込まれ、さらに、必要な位置情報を提供することができる。ポイント124は、位置トラッキングデバイス106に相対する固定位置に配置されてよいし、以下に記載される較正方法によって決定されてもよい。ポイント124は、以下に説明されるように、位置トラッキングデバイス106によって使用されるエミッタの位置であってもよい。
位置トラッキングデバイス106は、当業者に公知の任意の多数の位置検知デバイスの一つであってよい。図2aは、光位置センサ204を使用する位置トラッキングデバイス200の使用例を示す。光位置センサ204を用いてボディをトラッキングするには、ボディ102上にエミッタ206を配置することが必要となる。ここで、エミッタ206は、放射光(可視または赤外線)源である。また、複数のエミッタ206は公知の構成でボディ102へ固定され得る。光位置センサ206は、ボディ102と共に移動しながら、光源によって放出された光を検出し、放射光源206をトラッキングするように調整される光センサ208を使用する。発光ダイオード(LED)は、代表的な放射光源206であり、電荷結合素子(CCD)は、代表的な光センサ208である。FlashPoint System of Stryker Corporation(Kalamazoo,Michigan)(ストライカー社(ミシガン州、カラマズー)製「フラッシュポイントシステム」)は、図2aに示されるように、光トラッキングシステムの例である。
図2bは、他のタイプの光位置センサ212を利用した他のタイプの光位置トラッキングデバイス210を使用した場合を示す。この他の光位置トラッキングデバイス210を使ってボディをトラッキングするには、ボディ102上に反射ボディ(例えば、再帰反射器)214を固定する必要がある。放射光源216は、放射光源216によって生成された光ビーム218が反射ボディ214から反射するように反射ボディ214と位置合わせされ、その後、光位置センサ212における光センサ220が反射された光ビーム218を検出し、これによって、ボディ102と共に移動しながら、光センサ220が反射ボディ214の位置をトラッキングする。図2bに示されるように、位置測定装置としては、Motus System of Peak Performance Technologies,Inc.(Englewood,Colorado)(ピークパフォーマンステクノロジー社(コロラド州、イングルウッド)製「モータシステム」)が挙げられる。
図2cは、ボディ102に固定された磁石226を使用する位置トラッキングデバイス224の使用した場合を示す。磁石方向226がボディ102とともに移動するときの磁石226の磁束方向と振幅の変化が磁気位置センサ228によって検知され、磁気226の位置を決定するために使用される。例えば、このタイプのトラッキング技術の製造者としては、Polhemus Incorporated of Colchester,Vermont)(ポヒマス社(バーモント州、コルチェスター))およびAscension Technology Corporation,Burlington,Vermont)(アセンションテクノロジーコーポレーション(バーモント州、バーリントン)が挙げられる。
説明を簡単にするために、ボディ102の表面上にトラッキングされている一つのポイント124だけが示されているが、それぞれ別個の位置トラッキングデバイスによって、複数のトラッキングポイントが同一ボディ102上でトラッキングされてもよいことは明確であろう。実際、ボディ102を全回転したときの向きを決定するためには複数のトラッキングポイントが必要となる。複数のボディ102も単一システムによって同時にトラッキングされ得る。
図1に戻ってみると、形状特徴化システムは、ボディ102の境界ボリュームを推定し、境界ボリュームの軸を決定することによって、グローバル座標システム112に相対して、それぞれ、114、116、および118と番号付けされたアイテムとして示されるボディ102の軸XB、YB、およびZBの向きを識別する。具体的には、ボディ102の対象となる軸は、軸114、116、および118から、推定される境界ボリュームの解析に基づいて決定され得る。次に、決定された軸以外の軸は、決定された軸に対しておよび互いに対して法線をなす。必要であれば、残りの軸の向きは、トラッキングデバイスと推定された境界ボリュームによってもたらされた位置情報を解析することによってより正確に決定され得る。特定の対象となる一つのポイント124は、ボディ102の先端126である。先端126は、対象となる軸と同軸的に配置されるか(例えば、ボディ軸XB114)、または、対象となる軸以外の任意の他のポイントに配置され得る。
ボディの周辺に配置された複数のカメラ108−1乃至108−Mは、異なるパースペクティブ(透視画)から、ボディの画像をキャプチャする。これらのカメラ108−1乃至108−Mは、固定画像カメラやビデオカメラ、または、二つのカメラ技術のいくつかの組合せのいずれかであってよい。ビデオカメラを使用する場合、ビデオカメラによってキャプチャされたビデオの個々のフレーム(コマ)が単一画像として処理される。好ましくは、全てのカメラが、時間的に略同期して、フレームをキャプチャするので、複数の視界ポイントからの画像は、相互に関連付けられる。カメラ108−1乃至108−Mの位置および座標システム122−1乃至122−Mは、互いに、そして、ナビゲーションコンピュータ104によって確立されたグローバル座標システム112へ、較正される。カメラの較正の方法の一つの実施の形態が以下に説明される。好ましい実施の形態において、カメラ108−1乃至108−Mは、デスクトップパーソナルコンピュータにおけるフレームキャプチャハードウェア付きのスタンダードビデオカメラ、または、従来の技術においてよく知られたファイヤーワイヤー(Firewire)またはユーエスビー(USB)ベースのカメラである。
固定背景110−1乃至110−Nは、好ましくは、カメラの反対側のボディの周辺に配置される。これらの背景110−1乃至110−Nは、カメラ108−1乃至108−Mによってキャプチャされた画像内に既知のサラウンド(周辺)を提供し、画像内のボディ102のエッジを識別するのを補助する。背景110−1乃至110−Nは、背景110−1乃至110−Nを表す画像の部分と、ボディ102を示す画像の部分との間のコントラストを大きくする中間色、ブラック、ホワイト、または任意のカラーであってもよい。また、これらの背景は、このコントラストをさらに大きくする照光式であってもよい。固定背景を含まずに、本発明の実施の形態による方法を実行することも可能である。しかしながら、この方法は、ボディ102の画像から背景画像を減算しなければならないことによって形状決定がより一層複雑化するので、好ましくない。
ナビゲーションコンピュータ104は、カメラ108−1乃至108−Mによってキャプチャされた画像を処理する。ナビゲーションコンピュータ104は、ナビゲーションコンピュータ104が識別しなければならない一般的なボディに関する形状情報によって母集されたボディデータベース130を利用してもよい。ボディデータベース130内のボディの形状情報は、好ましくは、コンピュータ補助されたデザインシステムから一般に利用できるようなボディの頂点の座標である。ナビゲーションコンピュータ104は、カメラ108−1乃至108−Mからの画像処理によって推定される境界ボリュームを、ボディデータベース130に記憶された形状情報と比較することによって、一つ以上の比較測定法を展開させる。ボディデータベース130のボディの一体に対する形状情報が、推定された境界ボリュームと関連性が高いと判断された場合、ナビゲーションコンピュータは、ボディの形状情報を使用して、推定された境界ボリュームを改良してもよい。例えば、ナビゲーションコンピュータは、推定された境界ボリュームの各頂点と、ボディデータベース130のボディの形状情報の一部として記憶された対応する頂点との間の距離を解析することによって、比較測定法を展開させてもよい。例えば、展開され得る他の比較測定法の例としては、推定された境界ボリュームの慣性モーメント軸の特性を解析した結果をボディデータベース130のボディの慣性モーメント軸と比較する比較測定法が挙げられる。比較測定法の追加も当業者に公知である。好ましい実施の形態によれば、推定された境界ボリュームとボディデータベース130に記憶されたボディとの相関関係の度合いを決定するために複数の比較測定法を使用してもよい。
カメラ108−1乃至108−Mがボディ全体を画像形成する必要はない。対象となるボディ102の部分のみがカメラ108−1乃至108−Mによって画像形成される必要がある。更に、ボディ102とカメラ108−1乃至108−Mは、好ましくは、相対的に位置決めされ、これによって、各カメラの視界がボディの略同じ部分をキャプチャする。
図3は、キャプチャされた画像から境界ボリュームを推定するために使用されるステップからなるフローチャート300を示す。カメラ108−1乃至108−Mのそれぞれによってキャプチャされた各画像302−1乃至302−Mは、ブロック304−1乃至304−Mにおいて、最初に修正される。即ち、画像に関しては、レンズの任意の既知の凹凸の補正、使用されているレンズの既知の焦点長さの正規化、カメラ解像度の調整などが行われる。ブロック306−1乃至306−Mにおいては、ボディの表示を画像の背景の表示から分離するために、ブロック304−1乃至ブロック304−Mにおいて生成された修正画像を処理する。ブロック308−1乃至308−Mにおいては、ブロック306−1乃至306−Mにおいて生成された分離されたボディの画像上でエッジ検出動作を実行する。ブロック310−1乃至310−Mにおいては、ボディに対してKj個の顔を有する一般的な境界ピラミッドを推定するためにブロック308−1乃至308−Mにおいて生成されたエッジ情報を使用する。ここで、1<=j<=M。カメラによってキャプチャされた画像301−1乃至301−Mの各々からこのように計算された境界ピラミッドは、この画像のキャプチャ時間と、ブロック314−1乃至ブロック314−Mにおいて提供されたようなカメラの位置に基づいて、ブロック312によって正規化される。更に、ブロック314−1乃至ブロック314−Mにおいては、ボディの境界ボリュームに達するまで、全ての境界ピラミッドが相互に交差される。ブロック316において、推定された境界ボリュームが、ブロック318において提供されたような位置トラッキングデバイスからのボディの位置と組み合わされ、ボディの位置および向きを推定する。ボディデータベース130がナビゲーションコンピュータ104によって使用可能である場合、ブロック316において、境界ボリュームを、該ボディデータベース130に含まれている全てのボディに関する形状情報と、比較する。ボディデータベース130内のボディが境界ボリュームに対して所定の許容誤差をもった寸法と形状を有すると判断された場合、ナビゲーションコンピュータは、ボディのデータベース内のボディの形状情報を使用して、境界ボリュームの推定値を修正する。好ましい実施の形態において、カメラ108は、ボディ102の画像を連続的に(または、カメラと同様に速く)キャプチャし、ボディ102が回転するにつれて、これらの更なる画像からの境界ピラミッドが予め計算された境界ボリュームと交差されて、ボディ102の推定された境界ボリュームと推定された向きを改良する。
図4は、三つのカメラ108−1、108−2、および108−3を用いて生成されるボディ102の境界ボリューム400の初期推定の例を示す。ボディ102の境界ボリュームは、この決定を行うために利用可能な任意の多数の周知の方法によって決定され得る。以下に説明されるように、カメラ108−1乃至108−Mの個数または単一カメラ108−1からの視界(ビュー)の数に応じて、結合された境界ボリュームの交差によってボディ102の形状の近似化が開始される。
図5は、本発明の他の実施の形態による形状特徴化システム500を示す。図中例えば、矢印502によって示される経路に沿った空間を介して、ボディ102が回転および移動するとき、1個のカメラ108が、ボディ102の複数の画像をキャプチャするために使用される。図3のブロック304乃至318において、ボディ102に対して異なる視点で、あたかも異なるカメラが各画像をキャプチャしたが如く、ボディ102のカメラ108によってキャプチャされた画像の全てが処理される。
図6は、本発明のさらに他の実施の形態による形状特徴化システム600を示す。図中、カメラ108は、ボディ102の画像と、ボディ102のミラー602の反射画像を同時にキャプチャする。この実施の形態において、ナビゲーションコンピュータ104は、カメラ108によってキャプチャされた画像を処理し、画像を二つの画像へ分割する。ここで、一つの画像は、ボディ102の画像を含み、他の画像は、ミラー602において反射されたボディ102の反射画像を含む。事実上、ミラー602は、第2の補助的バーチャルなカメラとして作用する。このようにして、図3に示されたフローチャート300のブロック302乃至318において、あたかも、画像が個別のカメラによってキャプチャされたかの如く、ミラー602に映るボディ102の反射画像が作用する。同様に、一つ以上のミラー602が用いられてもよい。
本発明の実施の形態による形状特徴化システム100のカメラ108−1乃至108−Mの座標システム122−1乃至122−Mを、相対的に、および、コンピュータナビゲーションシステムの座標システムに対して、較正するためには、明確に分かっている形状を有する較正ボディを使用することによって行なわれる。図7は、このような較正ボディ700の例を示す。図7aは、較正ボディ700の正面図702を示す。図7bは、較正ボディ700の側面図704を示す。図7cは、較正ボディ706の平面図を示す。
図8は、カメラを較正するために必要とされるステップからなるフローチャート800を示す。ブロック804−1乃至804−Mにおいては、各カメラからの画像802−1乃至802−Mが修正され、ボディから分離され、そのエッジが識別される。ここで、各画像802−1乃至802−Mは、較正ボディの既知の透視図(例:正面図702、側面図704、および平面図706)の画像である。ブロック806−1乃至806−Mは、各カメラ108の位置および向きを推定し、この位置と向きの推定に基づいて、ブロック804−1乃至804−Mにおいて生成されたエッジを補正する。ブロック808において、ブロック806−1乃至806−Mにおいて補正されたエッジを較正ボディの透視図の既知のエッジ情報と比較する。補正されたエッジが既知のエッジの所定の許容誤差の範囲内であれば、カメラ108−1乃至108−Mの較正済みと判断され、ブロック806において生成された位置および向き情報がナビゲーションコンピュータ104によって使用可能となる。補正されたエッジが既知のエッジの所定の許容誤差外である場合、補正されたエッジと既知のエッジの間の差がブロック810において計算され、ブロック806へ送られ、各カメラの位置および向きの推測が更新される。ブロック806、808および810は、全てのカメラ108が較正されるまで、反復される。
図9は、本発明の他の実施の形態による形状特徴化システム900を示す。背景110−1乃至110−Nをバックにボディ102の画像をキャプチャするためにカメラ108−1乃至108−Mを使う代わりに、本実施の形態では、センサ904−1乃至904−Nに相対して位置決めされた光源902−1乃至902−Mが使用される。光源902−1乃至902−Mとセンサ904−1乃至904−Nの位置は、互いに所定の固定関係を有し、ナビゲーションコンピュータ104には既知である。或いは、ナビゲーションコンピュータ104が、光源902−1乃至902−Mの全てとセンサ904−1乃至904−Nの位置の全てをトラッキングし、これらのセンサからの情報をシステムために得られる情報と同等になるように変換することができる。ここで、光源902−1乃至902−Mの位置はセンサ904−1乃至904−Nの位置と固定関係にある。更に、ナビゲーションコンピュータ104は、光源902−1乃至902−Mまたはセンサ904−1乃至904−Nの位置変化をトラッキングする。更にまた、光源902−1乃至902−Mおよびセンサ904−1乃至904−Nは、相対的に、そして、ボディに対して、位置決めされ、これによって、ボディ102は、光源902−1乃至902−Mの各々からの光を遮断し、光源902−1乃至902−Mおよびボディ102と同一直線状にあるセンサ904−1乃至904−Nの一つへシャドウ(影)を投射する。センサ904−1乃至904−Nは、ボディ102のシャドウ906−1乃至906−N内にある領域をそれ以外の領域と区別すること可能な2次元検知デバイスである。センサ904−1乃至904−Nの各々は、ナビゲーションコンピュータ104へシャドウ906−1乃至906−N内領域に関する情報を提供する。対象となるボディ102の部分のシャドウ906−1乃至906−Nだけがセンサ904−1乃至904−Nへ入射されなければならない。好ましいセンサタイプは、2次元電荷結合素子(CCD)アレイである。このようなCCDアレイは、一般に、各画素が一つの2次元アレイのCCD素子に対応する画素からなる、画像を形成する。
図10は、センサ904−1乃至904−Nによって生成された画像から境界ボリュームを推定するために使用されるステップからなるフローチャート925を示す。ブロック928−1乃至928−Nにおいて、各センサ904−1乃至904−Nからの各画像926−1乃至926−Nが最初に修正される。即ち、ブロック928−1乃至928−Nにおいて、センサにおける任意の既知の凹凸に対して画像が補正されたり、センサ904−1乃至904−Nの解像度のシャドウ情報が修正されたりする。ブロック930−1乃至930−Nにおいては、ブロック928−1乃至928−Nによって生成された修正画像が処理され、シャドウの投射を示す画像の部分が分離される。ブロック932−1乃至932−Nにおいて、ブロック930−1乃至930−Nにおいて生成された分離されたシャドウの画像上でエッジ検出動作を実行する。ブロック934−1乃至934−Nにおいては、ブロック932−1乃至932−Nにおいて生成されたエッジ情報を使用して、ボディのN個のフェースによって一般的な境界ピラミッドを推定する。センサによって生成される画像926−1乃至926−Nの各々からこのように計算された境界ピラミッドは、ブロック938−1乃至938−Nにおいて提供された画像のキャプチャ時間およびカメラ108−1乃至108−Mの位置に基づいて、ブロック936において、正規化される。ブロック936において、全ての境界ピラミッドが更に互いに交差され、ボディの境界ボリュームを推定する。ブロック940において、推定された境界ボリュームと位置トラッキングデバイスからのボディの位置が組み合わされ、ブロック942において、ボディの位置と向きが推定される。ブロック940において、使用可能であるならば、データベースからのボディの形状情報が使用される。具体的には、ボディデータベース130におけるボディが、境界ボリュームに相対して所定の許容誤差範囲内の寸法と形状を有すると判断された場合、ナビゲーションコンピュータ104は、ボディデータベースのボディに対する形状情報を使用して、境界ボリュームの推定値を更新する。好ましい実施の形態において、センサ904−1乃至904−Nは、ボディ102のシャドウ906−1乃至906−Nを連続的に表示し(または、センサと同じ速さで)、ボディ102が回転するにつれて、これらの追加的な表示から得られた境界ボリュームが予め計算された境界ボリュームと交差され、推定された境界ボリュームと推定されたボディ102の向きを修正する。
図11は、本発明の他の実施の形態による形状特徴化システム950を示す。図中、例えば、矢印R502が付された経路に沿って、一つの光源902によって照射されながら、ボディ102が、空間を移動する間、ボディ102のシャドウ906の表示を有する複数の画像を生成するために一つのセンサ904が使用される。図10のブロック928乃至940は、あたかも異なるセンサが各画像を生成したように、ボディ102のセンサ904によって生成される全ての画象を処理することができる。
シャドウ検知デバイスは、既知の形状および寸法のボディを用いて較正される。図7aには、較正に使用され得る表示ボディ700が示され、シャドウ検知デバイスを較正するためのボディの使用については、シャドウ906−1乃至906−Nからの画像がカメラ108からの画像に代わって使用される以外は、上記のカメラ較正プロセスと同じである。
ボディ102の形状を推定するために使用されるアルゴリズムは、コンピュータグラフィックスの分野で使用されている周知のアルゴリズムのいずれかであってよい。このようなアルゴリズムは、本明細書中に参照することによって組み込まれている、Computer Graphics: Principles and Practice,James D.Foley,et al(Addison−Welsey)(コンピュータグラフィックス、「基本原理と実践」(1990年)ジェームス D.フォリー他(アディソン−ウェルシー)に開示されている。決定されたボディ102の形状に基づいて、システムは、先端126の位置を決定することができる。
少なくとも二つの検知デバイス(カメラ108またはシャドウ検知デバイス904のいずれか)が使用された場合、エミッタ124と位置トラッキングデバイス106は必要でない。というのは、複数のデバイスの一つのためのボディ102の画像が(またはボディ102のシャドウ)は他のデバイスについてのボディ102の相対位置についての情報を提供する。この情報は、例えば、ボディ102の少なくとも二つのカメラ視点において複数の同種のポイントペアを立体図形的に決定することによってナビゲーションコンピュータ104の座標システム112に相対してボディ102の位置を決定するために使用され得る。これは、ナビゲーションコンピュータ104の座標システム112に相対して検知Hデバイス(108または904)の位置が既知であり、形状特徴化システムの動作中にトラッキングされるからであり、したがって、検知デバイス108または904の座標システムとナビゲーションコンピュータ104をマッピングするために線形変換を使用することができる。
さらに、ディスプレイモニタにディスプレイする際に、ボディ102をより一層本物に近づけるために着色またはテクスチャも公知の方法によって任意を作成することもできる。この場合、一つ以上の光源128は、コンピュータグラフィックスクリーン上でボディ102のレンダリングされた視界に陰影付けするために任意にシミュレートされ得る。
本発明の一つの実施の形態を概略的に示す表示である。 本発明の更なる実施の形態を概略的に示す図である。 本発明の更なる実施の形態を概略的に示す図である。 本発明の更なる実施の形態を概略的に示す図である。 本発明の一つの実施の形態による形状を決定する方法を示すフローチャートである。 図3の形状決定方法のグラフィカルな描画を示す図である。 本発明の更なる実施の形態を概略的に示す図である。 本発明によるまた更なる実施の形態を概略的に示す図である。 好ましい較正ボディを示す斜視図である。 図7aの好ましい較正ボディを示す正面図である。 図7aの好ましい較正ボディを示す側面図である。 図7aの好ましい較正ボディを示す平面図である。 カメラ較正プロセスを示すフローチャートである。 本発明の他の実施の形態を概略的に示す表示である。 図9に示された本発明の実施の形態による形状を決定する方法を示すフローチャートである。 本発明のまた他の実施の形態を示す図である。

Claims (48)

  1. ボディの形状および向きを画定するためのシステムであって、
    コンピュータナビゲーションシステムと、
    ボディの一連の表示を生成可能な検知デバイスと、
    前記ボディと固定関係において対応付けられとともに、前記コンピュータナビゲーションシステムに相対して前記ボディを位置付けるために該コンピュータナビゲーションシステムによって検出可能な、トラッキングデバイスと、
    を含み、
    前記コンピュータナビゲーションシステムが、前記一連の表示と、該コンピュータナビゲーションシステムに相対する該ボディの位置と、を処理することができる中央処理装置を含み、前記トラッキングデバイスに相対する前記ボディの形状および向きを決定する、
    システム。
  2. 前記検知デバイスが複数のディジタルカメラを含み、各表示が該カメラによってキャプチャされた画像である、請求項1に記載のシステム。
  3. 前記検知デバイスがビデオカメラであり、該表示が該ビデオカメラによってキャプチャされたビデオのフレームである、請求項2に記載のシステム。
  4. 前記検知デバイスが前記ボディによって投影されたシャドウを検知し、前記表示が該シャドウの画像である、請求項1に記載のシステム。
  5. 固定背景も含む、請求項2に記載のシステム。
  6. 前記トラッキングシステムが、光学的トラッキングシステムである、請求項1に記載のシステム。
  7. 前記トラッキングデバイスが、前記ボディに対応したアクティブエミッタを含む、請求項6に記載のシステム。
  8. 前記トラッキングデバイスが発光ダイオードを含む、請求項6に記載のシステム。
  9. 前記トラッキングデバイスが非光学的トラッキングデバイスである、請求項1に記載のシステム。
  10. 前記トラッキングデバイスが磁気トラッキングデバイスである、請求項9に記載のシステム。
  11. 前記トラッキングデバイスが前記ボディに固定的に装着される、請求項1に記載のシステム。
  12. 前記トラッキングデバイスが前記ボディと一体化している、請求項1に記載のシステム。
  13. 前記検知デバイスが、前記ボディが前記カメラに相対して移動している間に複数の画像をキャプチャする単一カメラであり、各表示が、該カメラによってキャプチャされた画像である、請求項1に記載のシステム。
  14. 前記検知デバイスが、前記ボディが前記検知デバイスに相対して移動している間に該ボディによって投影される前記シャドウの移動を検知する電荷結合素子のアレイである、請求項4に記載のシステム。
  15. 前記コンピュータナビゲーションシステムが、前記ボディの決定された形状および向きに基づいて該ボディ上のランドマークポイントの位置をトラッキングする、請求項1に記載のシステム。
  16. 前記ナビゲーションコンピュータが、前記ボディの形状の推定値を該ナビゲーションコンピュータに記憶された複数のモデルから選択されたボディのモデル値と比較する、請求項1に記載のシステム。
  17. ボディの形状および向きを画定するためのシステムであって、
    コンピュータナビゲーションシステムと、
    前記ボディと前記検知デバイス間の相対的な移動に基づいて該ボディの一連の表示を生成可能な検知デバイスと、
    前記ボディと固定関係において対応付けられとともに、前記コンピュータナビゲーションシステムに相対して前記ボディを位置付けるために該コンピュータナビゲーションシステムによって検出可能な、エミッタと、
    を含み、
    前記コンピュータナビゲーションシステムが、前記一連の画像と、該コンピュータナビゲーションシステムに相対する該ボディの位置と、を処理することができる中央処理装置を含み、前記エミッタに相対する前記ボディの形状および向きを決定する、
    システム。
  18. 前記検知デバイスが複数のディジタルビデオカメラを含む、請求項17に記載のシステム。
  19. 固定背景をも含む、請求項18に記載のシステム。
  20. 前記トラッキングデバイスが光学的トラッキングシステムである、請求項17に記載のシステム。
  21. 前記トラッキングデバイスが前記ボディに対応したアクティブエミッタを含む、請求項20に記載のシステム。
  22. 前記トラッキングデバイスが発光ダイオードを含む、請求項20に記載のシステム。
  23. 前記トラッキングデバイスが非光学的トラッキングデバイスである、請求項17に記載のシステム。
  24. 前記トラッキングデバイスが磁気トラッキングデバイスである、請求項23に記載のシステム。
  25. 前記トラッキングデバイスが前記ボディに固定的に装着される、請求項17に記載のシステム。
  26. 前記トラッキングデバイスが前記ボディと一体化している、請求項17に記載のシステム。
  27. 前記検知デバイスが、前記ボディが単一カメラであり、各表示が該カメラによってキャプチャされた画像である、請求項17に記載のシステム。
  28. 前記検知デバイスが、前記ボディによって投影されたシャドウを検知する、請求項17に記載のシステム。
  29. 前記コンピュータナビゲーションシステムが、前記ボディの決定された形状および向きに基づいて、該ボディ上のランドマークポイントの位置をトラッキングする、請求項17に記載のシステム。
  30. 前記ナビゲーションコンピュータが、前記ボディの形状の推定値を該ナビゲーションコンピュータに記憶された複数のモデルから選択されたボディのモデル値と比較する、請求項17に記載のシステム。
  31. コンピュータナビゲーションシステムを用いたボディの形状を決定する方法であって、該方法が、
    前記ボディの一連の表示を生成し、
    前記一連の表示から前記ボディの複合境界ボリュームを決定し、
    前記複合境界ボリュームから前記ボディの形状を決定し、
    前記コンピュータナビゲーションシステムと通信するボディに対応するトラッキングデバイスを用いて前記ボディの位置および向きを決定する
    ステップを含む方法。
  32. 前記方法が、前記コンピュータナビゲーションシステムへ前記ボディを較正するステップを更に含み、これによって、該コンピュータナビゲーションシステムが前記ボディの位置および向きをトラッキングすることができる、請求項31に記載の方法。
  33. 前記生成ステップが、ビデオカメラを使用して行われ、各表示がビデオカメラのビデオのフレームである、請求項31に記載の方法。
  34. 前記生成ステップが、前記ボディによって投影されたシャドウを検知することによって行われ、各表示が該シャドウの画像である、請求項31に記載の方法。
  35. 前記トラッキングデバイスが光学的トラッキングシステムである、請求項31に記載の方法。
  36. 前記トラッキングデバイスが前記ボディに対応するアクティブエミッタを含む、請求項31に記載の方法。
  37. 前記トラッキングデバイスが発光ダイオードを含む、請求項36に記載の方法。
  38. 前記トラッキングデバイス 非光学的トラッキングデバイス、請求項31に記載の方法。
  39. 前記トラッキングデバイスが磁気トラッキングデバイスである、請求項38に記載の方法。
  40. 前記トラッキングデバイスが前記ボディに固定的に装着される、請求項31に記載の方法。
  41. 前記トラッキングデバイスが前記ボディに一体化される、請求項31に記載の方法。
  42. 前記生成ステップが、前記ボディが前記カメラに相対して移動している間に複数の画像をキャプチャする単一カメラによって実行される、請求項31に記載の方法。
  43. 前記コンピュータナビゲーションシステムが、前記ボディの決定された形状および向きに基づいて、該ボディ上のランドマークポイントの位置をトラッキングする、請求項31に記載のシステム。
  44. 前記決定ステップが、前記ボディの形状の推定値を、前記ナビゲーションコンピュータに記憶されている複数のモデルから選択されたボディのモデル値と比較する、請求項31に記載のシステム。
  45. コンピュータナビゲーションシステムを用いてボディの形状および向きを決定する方法であって、該方法が、
    少なくとも二つのパースペクティブから前記ボディの一連の表示を生成し、
    前記一連の表示から前記ボディの複合境界ボリュームを決定し、
    前記複合境界ボリュームから前記ボディの形状を決定し、
    前記ボディの形状および該ボディの一連の表示から該ボディの位置および向きを決定する、
    ステップを含む、方法。
  46. 前記生成ステップが、少なくとも二つのビデオカメラを用いて実行され、各表示が各ビデオカメラからのビデオのフレームである、請求項39に記載の方法。
  47. 前記生成ステップが、前記ボディによって投射された少なくとも二つのシャドウを検知することによって実行され、各表示が前記シャドウの画像である、請求項39に記載の方法。
  48. 前記決定ステップが、前記ボディの形状の推定値を、該ナビゲーションコンピュータに記憶された複数のモデルから選択されたボディのモデル値と比較する、請求項39に記載の方法。
JP2006028557A 2005-02-04 2006-02-06 改良された形状特徴化のためのデバイスおよび方法 Pending JP2006258798A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US11/050,920 US7623250B2 (en) 2005-02-04 2005-02-04 Enhanced shape characterization device and method

Publications (1)

Publication Number Publication Date
JP2006258798A true JP2006258798A (ja) 2006-09-28

Family

ID=36848288

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006028557A Pending JP2006258798A (ja) 2005-02-04 2006-02-06 改良された形状特徴化のためのデバイスおよび方法

Country Status (3)

Country Link
US (1) US7623250B2 (ja)
JP (1) JP2006258798A (ja)
DE (1) DE102006005036B4 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112005002690B4 (de) * 2004-11-01 2013-05-29 Cognitens Ltd. Verfahren und System zur optischen Kantenbestimmung
JP4327754B2 (ja) * 2005-03-16 2009-09-09 富士フイルム株式会社 画像一覧生成装置および方法並びにプログラム
WO2007038330A2 (en) * 2005-09-22 2007-04-05 3M Innovative Properties Company Artifact mitigation in three-dimensional imaging
US9498182B2 (en) 2012-05-22 2016-11-22 Covidien Lp Systems and methods for planning and navigation
US8750568B2 (en) 2012-05-22 2014-06-10 Covidien Lp System and method for conformal ablation planning
US9439623B2 (en) 2012-05-22 2016-09-13 Covidien Lp Surgical planning system and navigation system
US9439627B2 (en) 2012-05-22 2016-09-13 Covidien Lp Planning system and navigation system for an ablation procedure
US9439622B2 (en) 2012-05-22 2016-09-13 Covidien Lp Surgical navigation system
US9161799B2 (en) 2013-01-28 2015-10-20 Warsaw Orthopedic, Inc. Surgical implant system and method
US9830424B2 (en) 2013-09-18 2017-11-28 Hill-Rom Services, Inc. Bed/room/patient association systems and methods
US10064687B2 (en) 2014-01-13 2018-09-04 Brainlab Ag Estimation and compensation of tracking inaccuracies
US9950194B2 (en) 2014-09-09 2018-04-24 Mevion Medical Systems, Inc. Patient positioning system
CA3004167C (en) 2015-11-03 2019-02-05 Synaptive Medical (Barbados) Inc. Dual zoom and dual field-of-view microscope
DE102016205469A1 (de) * 2016-04-01 2017-10-05 Wobben Properties Gmbh Messsystem zur Vermessung einer Oberfläche
US10531926B2 (en) 2016-05-23 2020-01-14 Mako Surgical Corp. Systems and methods for identifying and tracking physical objects during a robotic surgical procedure
US11291507B2 (en) 2018-07-16 2022-04-05 Mako Surgical Corp. System and method for image based registration and calibration
US11707329B2 (en) 2018-08-10 2023-07-25 Covidien Lp Systems and methods for ablation visualization
US11911325B2 (en) 2019-02-26 2024-02-27 Hill-Rom Services, Inc. Bed interface for manual location
JP7297882B2 (ja) * 2019-05-16 2023-06-26 マクセル株式会社 画像処理装置および画像処理方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5786368A (en) * 1980-11-19 1982-05-29 Hitachi Medical Corp Body contour display device for radiotherapy plan
JP2001061861A (ja) * 1999-06-28 2001-03-13 Siemens Ag 画像撮影手段を備えたシステムおよび医用ワークステーション
JP2001201316A (ja) * 1999-10-28 2001-07-27 Northern Digital Inc 1つ以上の物体の空間的な位置および/または方向を決定するシステム
JP2002031507A (ja) * 2000-07-14 2002-01-31 Tokyo Denki Univ 三次元画像計測装置
JP2002098521A (ja) * 2000-09-26 2002-04-05 Minolta Co Ltd 3次元形状データ生成装置
JP2002543411A (ja) * 1999-04-30 2002-12-17 ワグナー,クリストフ 物体形状の光学的検出方法
WO2004021759A1 (en) * 2002-08-29 2004-03-11 Cyberoptics Corporation Multiple source alignment sensor with improved optics
JP2004077262A (ja) * 2002-08-16 2004-03-11 Fuji Xerox Co Ltd 三次元撮像装置および方法
JP2004178587A (ja) * 2002-11-25 2004-06-24 Siemens Ag ボリュームデータセット内のマークの画像の座標を求める方法および医療装置

Family Cites Families (101)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1489334A (en) 1973-10-19 1977-10-19 Nat Res Dev Surgical splints and materials therefor
DE2936259A1 (de) 1979-09-07 1981-03-19 Siemens AG, 1000 Berlin und 8000 München Vorrichtung zum punktieren von koerperinternen organen, gefaessen o.dgl.
DE2939044A1 (de) 1979-09-27 1981-04-09 Ibm Deutschland Gmbh, 7000 Stuttgart Einrichtung fuer elektronenstrahllithographie
DE2940005A1 (de) 1979-10-03 1981-04-16 Philips Patentverwaltung Gmbh, 2000 Hamburg Verfahren und vorrichtung zur schichtweisen darstellung eines dreidimensionalen objektes
DE2941395A1 (de) 1979-10-12 1981-04-23 Philips Patentverwaltung Gmbh, 2000 Hamburg Vorrichtung zur erzeugung von schichtbildern aus vielfachperspektivbildern mit unterschiedlichem ueberlagerungsgrad
US4567896A (en) 1984-01-20 1986-02-04 Elscint, Inc. Method and apparatus for calibrating a biopsy attachment for ultrasonic imaging apparatus
DE3500605A1 (de) 1985-01-10 1986-07-10 Markus Dr. 5300 Bonn Hansen Vorrichtung zur messung der positionen und bewegungen des unterkiefers relativ zum oberkiefer
US4722056A (en) 1986-02-18 1988-01-26 Trustees Of Dartmouth College Reference display systems for superimposing a tomagraphic image onto the focal plane of an operating microscope
US4757379A (en) 1986-04-14 1988-07-12 Contour Dynamics Apparatus and method for acquisition of 3D images
US4873651A (en) 1987-04-21 1989-10-10 Case Western Reserve University Method and apparatus for reconstructing three-dimensional surfaces from two-dimensional images
DE3717871C3 (de) 1987-05-27 1995-05-04 Georg Prof Dr Schloendorff Verfahren und Vorrichtung zum reproduzierbaren optischen Darstellen eines chirururgischen Eingriffes
US4836778A (en) 1987-05-26 1989-06-06 Vexcel Corporation Mandibular motion monitoring system
US5207681A (en) 1987-10-26 1993-05-04 Neurodynamics, Inc. Drill guide apparatus for perpendicular perforation of the cranium
US4908656A (en) 1988-01-21 1990-03-13 Nikon Corporation Method of dimension measurement for a pattern formed by exposure apparatus, and method for setting exposure conditions and for inspecting exposure precision
US5251127A (en) 1988-02-01 1993-10-05 Faro Medical Technologies Inc. Computer-aided surgery apparatus
EP0326768A3 (en) 1988-02-01 1991-01-23 Faro Medical Technologies Inc. Computer-aided surgery apparatus
US5050608A (en) 1988-07-12 1991-09-24 Medirand, Inc. System for indicating a position to be operated in a patient's body
US5422491A (en) 1988-11-04 1995-06-06 Fujitsu Limited Mask and charged particle beam exposure method using the mask
JP2702183B2 (ja) 1988-11-04 1998-01-21 富士通株式会社 半導体製造装置
US5197476A (en) 1989-03-16 1993-03-30 Christopher Nowacki Locating target in human body
JP2931983B2 (ja) 1989-06-30 1999-08-09 ジーイー横河メディカルシステム株式会社 放射線治療システム
EP0427358B1 (en) 1989-11-08 1996-03-27 George S. Allen Mechanical arm for and interactive image-guided surgical system
US5222499A (en) 1989-11-15 1993-06-29 Allen George S Method and apparatus for imaging the anatomy
US5172331A (en) 1989-12-18 1992-12-15 Fujitsu Limited Apparatus and method for effecting exposure of sample to charged particle beam
US4972836A (en) 1989-12-18 1990-11-27 General Electric Company Motion detector for high-resolution magnetic resonance imaging
US5086401A (en) 1990-05-11 1992-02-04 International Business Machines Corporation Image-directed robotic system for precise robotic surgery including redundant consistency checking
US5198877A (en) 1990-10-15 1993-03-30 Pixsys, Inc. Method and apparatus for three-dimensional non-contact shape sensing
CA2094251C (en) 1990-10-19 1999-01-19 Richard D. Bucholz Surgical probe locating system for head use
JP3112025B2 (ja) 1990-10-26 2000-11-27 株式会社日立製作所 生体計測装置
US6405072B1 (en) * 1991-01-28 2002-06-11 Sherwood Services Ag Apparatus and method for determining a location of an anatomical target with reference to a medical apparatus
US5662111A (en) 1991-01-28 1997-09-02 Cosman; Eric R. Process of stereotactic optical navigation
US6167295A (en) 1991-01-28 2000-12-26 Radionics, Inc. Optical and computer graphic stereotactic localizer
US6006126A (en) * 1991-01-28 1999-12-21 Cosman; Eric R. System and method for stereotactic registration of image scan data
US5155435A (en) 1991-08-08 1992-10-13 The Regents Of The University Of California Method and apparatus for performing interventional medical procedures using MR imaging of interventional device superimposed with ghost patient image
DE59207799D1 (de) 1991-10-04 1997-02-13 Zeiss Carl Fa Stirnreif für eine Mess-, Beleuchtungs- oder Beobachtungseinheit
US5276337A (en) 1991-10-31 1994-01-04 International Business Machines Corporation Accuracy of alignment and O/L measurement systems by means of tunable source and handling of signal
US5230623A (en) 1991-12-10 1993-07-27 Radionics, Inc. Operating pointer with interactive computergraphics
US5389101A (en) 1992-04-21 1995-02-14 University Of Utah Apparatus and method for photogrammetric surgical localization
EP0574686A2 (en) 1992-05-13 1993-12-22 The Spectranetics Corporation Linear scan method and system for cloupling energy into an optical fiber bundle
US5365996A (en) 1992-06-10 1994-11-22 Amei Technologies Inc. Method and apparatus for making customized fixation devices
FR2694881B1 (fr) 1992-07-31 1996-09-06 Univ Joseph Fourier Procede de determination de la position d'un organe.
US5732703A (en) 1992-11-30 1998-03-31 The Cleveland Clinic Foundation Stereotaxy wand and tool guide
US5309913A (en) 1992-11-30 1994-05-10 The Cleveland Clinic Foundation Frameless stereotaxy system
US5517990A (en) 1992-11-30 1996-05-21 The Cleveland Clinic Foundation Stereotaxy wand and tool guide
FR2699271B1 (fr) 1992-12-15 1995-03-17 Univ Joseph Fourier Procédé de détermination du point d'ancrage fémoral d'un ligament croisé de genou.
EP0616290B1 (en) 1993-03-01 2003-02-05 Kabushiki Kaisha Toshiba Medical information processing system for supporting diagnosis.
US5787886A (en) 1993-03-19 1998-08-04 Compass International Incorporated Magnetic field digitizer for stereotatic surgery
EP0700269B1 (en) 1993-04-22 2002-12-11 Image Guided Technologies, Inc. System for locating relative positions of objects
EP0997109B1 (en) 1993-04-26 2003-06-18 ST. Louis University Indicating the position of a surgical probe
US5394875A (en) 1993-10-21 1995-03-07 Lewis; Judith T. Automatic ultrasonic localization of targets implanted in a portion of the anatomy
US5876325A (en) 1993-11-02 1999-03-02 Olympus Optical Co., Ltd. Surgical manipulation system
US5549616A (en) 1993-11-02 1996-08-27 Loma Linda University Medical Center Vacuum-assisted stereotactic fixation system with patient-activated switch
US5748696A (en) 1993-11-26 1998-05-05 Kabushiki Kaisha Toshiba Radiation computed tomography apparatus
US5512946A (en) 1994-01-31 1996-04-30 Hitachi Denshi Kabushiki Kaisha Digital video signal processing device and TV camera device arranged to use it
DE4415944C2 (de) * 1994-05-05 1998-07-09 Karl Stefan Riener Elektronische Zielscheibe und Verfahren zu dessen Auswertung
DE4416229A1 (de) 1994-05-07 1996-01-11 Zeiss Carl Fa Verfahren zum Betrieb eines Operationsmikroskopes
DE4417944A1 (de) 1994-05-21 1995-11-23 Zeiss Carl Fa Verfahren zum Korrelieren verschiedener Koordinatensysteme in der rechnergestützten, stereotaktischen Chirurgie
US5803089A (en) 1994-09-15 1998-09-08 Visualization Technology, Inc. Position tracking and imaging system for use in medical applications
EP0714636B1 (en) 1994-11-28 2003-04-16 The Ohio State University Interventional medicine apparatus
JP2611188B2 (ja) 1994-11-30 1997-05-21 工業技術院長 生体計測用基準点設定方法および装置
US5682890A (en) 1995-01-26 1997-11-04 Picker International, Inc. Magnetic resonance stereotactic surgery with exoskeleton tissue stabilization
JP3539645B2 (ja) 1995-02-16 2004-07-07 株式会社日立製作所 遠隔手術支援装置
US5591207A (en) 1995-03-30 1997-01-07 Linvatec Corporation Driving system for inserting threaded suture anchors
US5617857A (en) 1995-06-06 1997-04-08 Image Guided Technologies, Inc. Imaging system having interactive medical instruments and methods
US5772594A (en) 1995-10-17 1998-06-30 Barrick; Earl F. Fluoroscopic image guided orthopaedic surgery system with intraoperative registration
CN1480903A (zh) 1996-08-29 2004-03-10 ������������ʽ���� 特征信息赋予、物体抽取和立体模型生成方法及其装置
US6175415B1 (en) 1997-02-19 2001-01-16 United Technologies Corporation Optical profile sensor
JP3008875B2 (ja) 1997-02-25 2000-02-14 日本電気株式会社 被写体抽出装置
DE29704393U1 (de) 1997-03-11 1997-07-17 Aesculap Ag Vorrichtung zur präoperativen Bestimmung der Positionsdaten von Endoprothesenteilen
US5921992A (en) 1997-04-11 1999-07-13 Radionics, Inc. Method and system for frameless tool calibration
US6512844B2 (en) 1997-05-30 2003-01-28 California Institute Of Technology 3D rendering
US5878103A (en) 1997-06-30 1999-03-02 Siemens Corporate Research, Inc. Adaptive detector masking for speed-up of cone beam reconstruction
WO1999001078A2 (en) 1997-07-03 1999-01-14 Koninklijke Philips Electronics N.V. Image-guided surgery system
IL121267A0 (en) 1997-07-09 1998-01-04 Yeda Res & Dev Method and device for determining the profile of an object
US6081336A (en) 1997-09-26 2000-06-27 Picker International, Inc. Microscope calibrator
US6021343A (en) 1997-11-20 2000-02-01 Surgical Navigation Technologies Image guided awl/tap/screwdriver
US6317139B1 (en) 1998-03-25 2001-11-13 Lance Williams Method and apparatus for rendering 3-D surfaces from 2-D filtered silhouettes
US6301498B1 (en) 1998-04-17 2001-10-09 Cornell Research Foundation, Inc. Method of determining carotid artery stenosis using X-ray imagery
US6563499B1 (en) 1998-07-20 2003-05-13 Geometrix, Inc. Method and apparatus for generating a 3D region from a surrounding imagery
US6226003B1 (en) 1998-08-11 2001-05-01 Silicon Graphics, Inc. Method for rendering silhouette and true edges of 3-D line drawings with occlusion
DE19842798C1 (de) 1998-09-18 2000-05-04 Howmedica Leibinger Gmbh & Co Kalibriervorrichtung
US6973202B2 (en) 1998-10-23 2005-12-06 Varian Medical Systems Technologies, Inc. Single-camera tracking of an object
IL126809A (en) 1998-10-29 2001-08-26 Sarin Technologies Ltd Apparatus and method of examining the shape of gemstones
US6285902B1 (en) 1999-02-10 2001-09-04 Surgical Insights, Inc. Computer assisted targeting device for use in orthopaedic surgery
AUPQ212499A0 (en) 1999-08-10 1999-09-02 Ajax Cooke Pty Ltd Item recognition method and apparatus
EP1135748A1 (en) 1999-09-30 2001-09-26 Koninklijke Philips Electronics N.V. Image processing method and system for following a moving object in an image sequence
US6535219B1 (en) 2000-03-30 2003-03-18 Intel Corporation Method and apparatus to display objects in a computer system
JP3433204B2 (ja) 2000-04-27 2003-08-04 株式会社東北テクノアーチ 3次元モデル構成装置
WO2002062250A1 (de) 2001-02-07 2002-08-15 Synthes Ag Chur Vorrichtung und verfahren für die intraoperative navigation
EP1238684B1 (de) 2001-03-05 2004-03-17 BrainLAB AG Verfahren zur Erstellung bzw. Aktualisierung eines Bestrahlungsplans
US6455835B1 (en) 2001-04-04 2002-09-24 International Business Machines Corporation System, method, and program product for acquiring accurate object silhouettes for shape recovery
US20040175034A1 (en) 2001-06-20 2004-09-09 Rafael Wiemker Method for segmentation of digital images
WO2003005298A2 (en) 2001-07-06 2003-01-16 Koninklijke Philips Electronics N.V. Image processing method for interacting with a 3-d surface represented in a 3-d image
JP2003065736A (ja) 2001-08-24 2003-03-05 Sanyo Electric Co Ltd 3次元モデリング装置
US7349922B2 (en) * 2001-11-14 2008-03-25 Yeda Research And Development Co. Ltd. Method and apparatus for data clustering including segmentation and boundary detection
ES2225668T3 (es) 2002-03-01 2005-03-16 Brainlab Ag Lampara para sala de operadciones, que incluye un sistema de camaras para referenciacion tridimensional.
ES2225680T3 (es) 2002-04-16 2005-03-16 Brainlab Ag Marcador para un instrumento y procedimiento de localizacion de un marcador.
EP1385018B1 (en) 2002-07-25 2008-03-26 Stryker Leibinger GmbH & Co. KG Correcting geometry and intensity distortions in MR data
US6658080B1 (en) 2002-08-05 2003-12-02 Voxar Limited Displaying image data using automatic presets
US7218763B2 (en) 2003-02-27 2007-05-15 Eastman Kodak Company Method for automated window-level settings for magnetic resonance images
US20060036148A1 (en) * 2004-07-23 2006-02-16 Grimm James E Navigated surgical sizing guide

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5786368A (en) * 1980-11-19 1982-05-29 Hitachi Medical Corp Body contour display device for radiotherapy plan
JP2002543411A (ja) * 1999-04-30 2002-12-17 ワグナー,クリストフ 物体形状の光学的検出方法
JP2001061861A (ja) * 1999-06-28 2001-03-13 Siemens Ag 画像撮影手段を備えたシステムおよび医用ワークステーション
JP2001201316A (ja) * 1999-10-28 2001-07-27 Northern Digital Inc 1つ以上の物体の空間的な位置および/または方向を決定するシステム
JP2002031507A (ja) * 2000-07-14 2002-01-31 Tokyo Denki Univ 三次元画像計測装置
JP2002098521A (ja) * 2000-09-26 2002-04-05 Minolta Co Ltd 3次元形状データ生成装置
JP2004077262A (ja) * 2002-08-16 2004-03-11 Fuji Xerox Co Ltd 三次元撮像装置および方法
WO2004021759A1 (en) * 2002-08-29 2004-03-11 Cyberoptics Corporation Multiple source alignment sensor with improved optics
JP2004178587A (ja) * 2002-11-25 2004-06-24 Siemens Ag ボリュームデータセット内のマークの画像の座標を求める方法および医療装置

Also Published As

Publication number Publication date
US20060241404A1 (en) 2006-10-26
DE102006005036A1 (de) 2006-09-07
DE102006005036B4 (de) 2023-05-25
US7623250B2 (en) 2009-11-24

Similar Documents

Publication Publication Date Title
JP2006258798A (ja) 改良された形状特徴化のためのデバイスおよび方法
US11928838B2 (en) Calibration system and method to align a 3D virtual scene and a 3D real world for a stereoscopic head-mounted display
JP7057454B2 (ja) 改良されたカメラ較正システム、標的、およびプロセス
CN106643699B (zh) 一种虚拟现实系统中的空间定位装置和定位方法
JP2019141620A (ja) 三次元物体上の注視点決定方法及び装置
JP5467404B2 (ja) 3d撮像システム
EP0782100B1 (en) Three-dimensional shape extraction apparatus and method
Bouguet et al. 3D photography using shadows in dual-space geometry
JP3624353B2 (ja) 3次元形状計測方法およびその装置
US6930685B1 (en) Image processing method and apparatus
US20130121559A1 (en) Mobile device with three dimensional augmented reality
US20150302648A1 (en) Systems and methods for mapping an environment using structured light
US20050151963A1 (en) Transprojection of geometry data
US6993179B1 (en) Strapdown system for three-dimensional reconstruction
JP2007536652A (ja) タッチ面に対応するポインタを検出するための装置及び方法
US11259000B2 (en) Spatiotemporal calibration of RGB-D and displacement sensors
ES2894935T3 (es) Aparato de medición de distancias tridimensionales y procedimiento para el mismo
CN110910506B (zh) 基于法线检测的三维重建方法、装置、检测装置及系统
CN115830103A (zh) 一种基于单目彩色的透明物体定位方法、装置及存储介质
Wang et al. Modelling and calibration of the laser beam-scanning triangulation measurement system
KR20190130407A (ko) 전방위 카메라의 캘리브레이션을 위한 장치 및 방법
WO2015159835A1 (ja) 画像処理装置、画像処理方法、プログラム
JP2010204759A (ja) 三次元像表示装置の座標校正方法
JP4077755B2 (ja) 位置検出方法、その装置及びそのプログラム、並びに、較正情報生成方法
JP2005031044A (ja) 三次元誤差測定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101019

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110119

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120110