JP2011502672A - ナビゲーションシステムの検出装置の配置場所を決定する方法および検出装置を配置する方法 - Google Patents

ナビゲーションシステムの検出装置の配置場所を決定する方法および検出装置を配置する方法 Download PDF

Info

Publication number
JP2011502672A
JP2011502672A JP2010533616A JP2010533616A JP2011502672A JP 2011502672 A JP2011502672 A JP 2011502672A JP 2010533616 A JP2010533616 A JP 2010533616A JP 2010533616 A JP2010533616 A JP 2010533616A JP 2011502672 A JP2011502672 A JP 2011502672A
Authority
JP
Japan
Prior art keywords
detection device
robot
navigation system
relative
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010533616A
Other languages
English (en)
Other versions
JP5048136B2 (ja
Inventor
オルトマイエル,トビアス
ヤコブ,ディルク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KUKA Deutschland GmbH
Original Assignee
KUKA Roboter GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KUKA Roboter GmbH filed Critical KUKA Roboter GmbH
Publication of JP2011502672A publication Critical patent/JP2011502672A/ja
Application granted granted Critical
Publication of JP5048136B2 publication Critical patent/JP5048136B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/23Design optimisation, verification or simulation using finite element methods [FEM] or finite difference methods [FDM]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00725Calibration or performance testing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations

Abstract

本発明はナビゲーションシステムの検出装置(E)の配置場所を決定する方法および検出装置を配置する方法に関する。先ず、ナビゲーションシステムの第1のマーカ(M1)または第1の特異箇所を備えたロボット(R)と、ナビゲーションシステムの第2のマーカ(M2)または第2の特異箇所を備えた三次元対象物(P)と、ナビゲーションシステムの検出装置(E)とを有するシステムのコンピュータシミュレーションが準備される。ロボット(R)、対象物(P)および/または検出装置(E)のさまざまな配置場所がシミュレートされて、シミュレートされた配置場所につき自動的に検出装置(E)によって、ロボット(R)の第1のマーカ(M1)または第1の特異箇所ならびに/もしくは対象物(P)の第2のマーカ(M2)または第2の特異箇所の可検出性クオリティーが決定される。決定されたクオリティー、これに応じてシミュレートされた配置場所および/または決定された最良のまたは少なくとも十分良好なクオリティーを有するシミュレートされた配置場所が出力される。

Description

本発明は、ナビゲーションシステムの検出装置の配置場所を決定する方法およびナビゲーションシステムの検出装置を配置する方法に関する。
特許文献1は、腹腔鏡と、腹腔鏡を誘導するロボットと、その他の外科器具とを備えた医療ワークステーションを開示している。腹腔鏡および外科器具には、ナビゲーションシステムのエミッタから送信された電磁場を検出するポジションセンサが配置されている。検出された電磁場により、腹腔鏡および外科器具の空間内ポジションを求めることができる。
特許文献2は、X線装置と、外科器具と、ポジション検出システムと、外科器具を誘導する少なくとも一部が自動化された患者治療用ロボットとを備えた医療ワークステーションを開示している。外科器具、X線装置および患者のポジションを検出するために、X線装置、患者および外科器具またはロボットには、ポジション検出システムの光学式ポジション検出装置によって検出されるポジションマーカが配置されている。光学式ポジション検出装置によって検出されたポジションマーカ画像の評価によって、ポジションつまりポジションマーカのポジションおよび向き、したがって外科器具、X線装置および患者の空間内のポジションおよび向きを求めることができる。
それぞれの対応するポジションを求めることを可能にするためには、ナビゲーションシステムとも称されるポジション検出システムのポジション検出装置がポジションマーカを十分良好に検出し得ることが必要である。ナビゲーションシステムが光学式ナビゲーションシステムであって、そのポジション検出装置が例えばカメラとして形成されている場合には、例えば、ポジションマーカがカメラに対してたとえ部分的であるにせよ隠蔽されていれば、ポジション検出クオリティーは損なわれる可能性がある。
米国特許出願公開第2004/0015053A1号明細書 米国特許出願公開第2004/0077939A1号明細書
そこで本発明の目的は、ナビゲーションシステムの検出装置の配置場所を決定するための方法であって、ロボットおよび/または対象物の位置を検出装置によって比較的正確に決定することができるように、ロボットおよび/または三次元対象物に対する検出装置の配置場所を見出すことのできる方法を供することである。
本発明のさらにもう一つの目的は、ロボットおよび/または三次元対象物の位置を検出装置によって比較的正確に決定することができるように、ナビゲーションシステムの検出装置をロボットおよび/または対象物に対して配置する方法を供することである。
本発明の上記第1の目的は、ナビゲーションシステムの検出装置の配置場所を決定する方法であって、以下のステップ、つまり
−ナビゲーションシステムの検出装置と、
ナビゲーションシステムの第1のマーカを備えたロボットまたは第1の特異箇所を備えたロボットと、
ナビゲーションシステムの第2のマーカを備えた三次元対象物または第2の特異箇所を備えた対象物と、
を有するシステムのコンピュータシミュレーションを準備するステップと、
上記ロボット、上記対象物および/または上記検出装置のさまざまな配置場所をコンピュータシミュレーションによってシミュレートするステップと、
−シミュレートされた配置場所につき上記検出装置によって、上記ロボットの第1のマーカまたは第1の特異箇所ならびに/もしくは上記対象物の第2のマーカまたは第2の特異箇所の可検出性クオリティーを自動的に決定するステップと、
−上記決定されたクオリティーおよび対応するシミュレートされた配置場所および/または決定された最良のまたは少なくとも十分良好なクオリティーを有する上記シミュレートされた配置場所を出力するステップと、
を有する方法によって解決される。
これにより、上記ロボット、上記対象物および/または上記検出装置の配置場所を自動的にまたは対話方式でマッチングさせ、こうして、十分良好なクオリティーを達成することが可能である。
ナビゲーションシステムは、医療技術分野、特に最小侵襲医療技術分野において、例えば米国特許第6,895,268B1号明細書から一般に知られている。ナビゲーションシステムは、例えばカメラ、レーザトラッキングシステム、パターン化されたライト用のプロジェクタまたはリニアプロジェクタを有する例えば光学式検出装置として形成された検出装置を含んでいる。検出装置は一般に公知の方法で、ロボットに配置された第1のマーカまたはロボットの第1の特異箇所、および対象物、特に対象物の表面に配置された第2のマーカまたは対象物の第2の特異箇所を検出するように構成されている。検出装置によって検出されたマーカまたは特異箇所に基づいて、ナビゲーションシステムの計算装置は基本的に一般に公知の方法で、対象物およびロボットの位置および、場合により向きを決定することができる。
特に、検出装置に対する対象物および/または検出装置に対するロボットの配置場所をプランニングするように、本発明によれば、先ず、第1のマーカまたは第1の特異箇所を有したロボットと、第2のマーカまたは第2の特異箇所とを有した対象物と、ナビゲーションシステムの検出装置とからなるシステムに関する計算シミュレーションが準備される。
計算シミュレーションのために、例えば、画像データセット、特に例えば生物である対象物の三次元画像データセットを準備することができる。画像データセットには、対象物、場合により生物、および、対象物の第2のマーカまたは第2の特異箇所が写像されている。
検出装置は同じく計算シミュレーションのためにモデル化されているため、シミュレーションによって、対象物に対する検出装置の配置場所をシミュレートすることができる。このシミュレーションに基づいて、検出装置に対する第2のマーカまたは第2の特異箇所の位置および場合により向きを決定することが可能であり、これにより、検出装置によって第2のマーカまたは第2の特異箇所の可検出性クオリティーを決定することが可能である。それゆえ、対象物に対する検出装置のシミュレートされたさまざまな配置場所に基づいて、シミュレートされたさまざまな配置場所のクオリティーを計算することができる。続いて、例えば、対象物に対する検出装置の、最良の検出クオリティーをもたらす配置場所を、例えば表示装置によって画面に表示し、または検出装置の場所を自動的にマッチングさせることが可能である。
対象物が生物であれば、当該生物の画像データセットは画像生成医用技術装置によって準備することができる。適切な画像生成医用技術装置は、例えば、磁気共鳴装置、コンピュータ断層撮影装置、X線装置、特にC字型アーム付きX線装置、または超音波装置である。
第1のマーカまたは第1の特異箇所を有したロボットも同じく計算シミュレーションのためにモデル化されることができるため、この場合にも、検出装置に対するロボットのさまざまな配置場所につき、ロボットに配置された第1のマーカまたは第1の特異箇所の可検出性をシミュレートし、それによって、好適な配置場所を求めることが可能である。特に、手術またはその一部、それゆえ、第1のマーカまたは第1の特異箇所の運動をシミュレートすることができる。こうして、第1のマーカまたは第1の特異箇所の運動を配置場所の計算に利用することが可能である。
対象物が例えば患者ベッドシート上に載置された生物であれば、計算シミュレーションのために、患者ベッドシートもモデル化して、一定の配置場所につき、患者ベッドシートが検出装置に対して第1または第2のマーカまたは第1または第2の特異箇所を隠蔽するか否かもしくは患者ベッドシート上に載置された生物が例えば高さ調節式の患者ベッドシートの調整次第でマーカまたは特異箇所を隠蔽するか否かを認識することが可能である。
ロボットが可動する場合には、コンピュータシミュレーションのためにロボットの運動を考慮することが可能である。この運動については、コンピュータシミュレーションのために、特にロボットのキネマティクスを考慮することが可能である。
ロボットは一般に、対象物を自動処理するように合理的なツールを備え、複数の運動軸に関して、特に向き、位置および径路の点でプログラマブルな処理マシンである。ロボットは一般に、マニピュレータとも称されるロボットアームと、制御装置と、場合により、例えばツールを掴むためのグリッパとして形成されているかまたは、例えば医療技術分野で使用される場合に、医療器具、特に外科器具を取り付けるために形成されることが可能であるエフェクタとを含んでいる。ロボットアームは基本的に、キネマティクスとも称されるロボットの可動部を表している。ロボットアームは特に、例えば電気駆動装置を介して、コンピュータとして形成された制御装置によって制御される複数の軸を有している。
ロボットが医療分野で使用される場合には、本発明による方法の実施形態において、ロボットは自動的にまたは例えば外科医によって遠隔制御されて医療器具を可動させ、生物として形成された対象物を医療器具によって治療できることが意図される。医療器具は例えば、生物の治療を行うための内視鏡である。
したがって、本発明による方法の一実施態様において、生物を治療するための医療器具の意図的な運動に基づくロボットの運動をコンピュータシミュレーションの一環としてシミュレートすることが可能である。
特に、本発明による方法が医療分野で使用される場合には、生物として形成された対象物の手術を実施するための術前プランニングに際し、操作者に対して、ロボットおよび/または生物に対するナビゲーションシステムの検出装置の好適な配置場所に関する提案を行うことが可能である。また、ロボットの運動、特にロボット先端のプランニングされた径路も本発明による方法によってすでに共に考慮可能である。操作者が配置場所を自動的に選択する場合には、本発明による方法に基づき、操作者に対して、予測される可検出性、特にマーカまたは特異箇所の可視性ならびにクオリティーを表示することが可能であり、これにより、操作者は必要に応じ、プランニングされた配置場所のマッチングを対話形式で行うことができる。
本発明の上記第2の目的は、ナビゲーションシステムの検出装置を配置するための方法であって、以下のステップつまり
−ナビゲーションシステムの第1のマーカまたは第1の特異箇所を備えたロボットと、検出装置で検出された第1のマーカまたは検出された第1の特異箇所に基づいてロボットの空間における位置を求めるように構成されたナビゲーションシステムの検出装置とを配置するステップと、
−上記配置されたロボットと上記配置された検出装置とに基づいて上記ナビゲーションシステムにより上記検出装置に対する上記ロボットの現在の位置を算定するステップと、
−上記検出装置に対する上記ロボットの位置を、あらかじめシミュレートされた上記検出装置に対する上記ロボットの位置と自動的に比較するステップと、
−上記検出装置に対する上記ロボットの現在の位置と、上記検出装置に対する上記ロボットの上記シミュレートされた位置との間の差を出力するステップと、
を含む方法によって解決される。
検出装置に対するロボットの位置の自動的比較は必要に応じ、ロボットの現在の構成を考慮して行うことができる。
ロボットの構造に対する第1のマーカまたは第1の特異箇所の位置および向きは一般に既知である。これに対して、患者の解剖学的組織・構造に対する、患者に配置された第2のマーカまたは第2の特異箇所の位置および向きは通例未知であるが、ただし、前置された補助的な、一般に公知のステップによって決定することが可能である。このステップは通例、「位置決め」と称される。
ロボットの位置決定のために検出装置がロボットの第1のマーカまたは第1の特異箇所を比較的良好に検出し得る、ナビゲーションシステムの検出装置のロボットに対する好適な位置を求めるために、検出装置に対するロボットの配置はあらかじめ、例えば、ナビゲーションシステムの検出装置の配置場所を求めるための上述した方法によってプランニングされる。
しかしながら、こうしたプランニングの実現つまり、ロボットに対する検出装置の現実の配置は困難なことがある。そこで、本発明によれば、ロボットおよび検出装置の現実の配置は自動的に、プランニングまたはシミュレートされた配置と比較される。そのため、例えば、検出装置はロボットの第1のマーカまたは第1の特異箇所の現実の位置、したがって、ロボットの現実の位置および場合により向きを決定する。これはプランニングまたはシミュレートされた位置および場合により向きと比較される。差が生ずる場合には、それは算定された差に関する情報が例えば表示装置によって画面に表示されることによって出力される。
算定されたロボットの現在の位置とプランニングまたはシミュレートされたロボットの位置とに基づき、上記の差に対応する変位ベクトルおよび/または回転を算定することが可能であり、これはその後に出力、特に画面表示することが可能である。変位ベクトルまたは回転は特に、例えば表示装置によって画面に表示されるシミュレートされた位置のうちにグラフィック表示することが可能である。
本発明による方法の一実施態様においては、変位の程度が算定されて、その結果が例えば表示装置によって画面に例えばカラー表示される。したがって、ロボットに対して検出装置を配置する者は、現実の配置を変化させることおよび対応する差を観察することにより、シミュレートされた検出装置の配置場所に比較的よく一致する、ロボットに対する検出装置の配置場所を対話方式によってまたは経験的に求めることができる。また、例えばトラック式ポインタでロボットおよび検出装置の配置場所を「ポイントすること」も考えられる。
本発明による方法の一実施形態においては、シミュレートされたロボットの位置につき、ロボットの意図的な運動が考慮される。
本発明による方法のさらに別の一実施態様においては、以下に挙げるさらなる別のステップつまり
−第2のマーカまたは第2の特異箇所を備えた三次元対象物を配置するステップ(ここでは、ナビゲーションシステムは、検出装置によって検出された第2のマーカによって対象物の空間内位置を求めるように構成されている)と、
−上記検出装置に対する上記対象物の現在の位置を、上記配置された対象物と上記配置された検出装置とに基づいて算定するステップと、
−上記検出装置に対する上記対象物の位置を、あらかじめシミュレートされた上記検出装置に対する上記対象物の位置と自動的に比較するステップと、
−上記検出装置に対する上記対象物の現在の位置と、上記検出装置に対する上記対象物の上記シミュレートされた位置との間の差を出力するステップと、
が実施される。
三次元対象物は例えば生物、特にロボットによって治療される生物である。この目的のためにロボットは医療器具、特に外科器具をあらかじめプランニングされた方法で誘導することができる。生物、一般に対象物、に対するロボットの位置を決定するため、対象物例えば対象物の表面には、マーカつまり第2のマーカが配置されている。通例、ロボットによって生物を治療する間、検出装置は可能なかぎりいつでも第1および第2のマーカを検出可能であることが望ましく、したがって、こうした条件が常に満たされているように配置されていることが望ましい。本発明による方法の上述した実施態様によれば、第1のマーカが検出装置によって比較的良好に検出し得るように検出装置をロボットに対して配置することが可能であるだけでなく、対象物に対しても検出装置を比較的好適に配置することも可能である。
患者の解剖学的組織・構造に対する、患者に配置された第2のマーカまたは第2の特異箇所の位置および向きは通例未知であるが、ただし、補助的な、前置された一般に公知のステップによって決定することが可能である。このステップは通例、「位置決め」と称される。手術中の第2のマーカの位置は、場合により術前の位置、したがってシミュレーションとはずれていることがありうる。必要に応じ、見出されるべき配置場所を位置決めに応じてマッチングすることが可能である。
添付の概略図面を参照し、本発明の実施例を例示して説明する。
ロボットを示す図である。 ロボット、ナビゲーションシステムおよび患者ベッドシートを備えた医療ワークステーションを示す図である。 ロボットに対するナビゲーションシステムの検出装置の配置場所の決定を具体的に説明するためのフローチャートである。 画像生成医用技術装置を示す図である。 ロボットに対するナビゲーションシステムの検出装置の配置を具体的に説明するためのフローチャートである。
図1は、本実施例において、台座Sに取り付けられたロボットアームAを有するロボットRを示している。ロボットアームAは基本的に、ロボットRの可動部を表しており、複数の軸1〜6と、複数のレバー7〜10と、例えば医療器具18を取り付けることのできるフランジFとを含んでいる。
各々の軸1〜6は、本実施例において、ロボットRの制御コンピュータ17に図示していない方法で電気的に接続された電気駆動装置11〜16で可動されるため、制御コンピュータ17または制御コンピュータ17で実行されるコンピュータプログラムは電気駆動装置11〜16を制御して、ロボットRのフランジFの位置および向きを基本的に自由に空間内に設定することができる。
ロボットRの電気駆動装置11〜16は例えば、それぞれ電動機と、場合により、電動機を制御する電子式出力制御装置とを含んでいる。
ロボットRは、本実施例において、図2に示した患者ベッドシートL上に載置された患者Pを医療器具18で治療するように設けられている。図2はさらに、本実施例において2台のカメラ20、21を有する検出装置Eと、ロボットRに配置されたマーカM1と、患者Pに配置されたマーカM2とを有するナビゲーションシステムを示している。本実施例において、ナビゲーションシステムの検出装置Eはさらにコンピュータ22を有し、可動式の台架19上に取り付けられているために、検出装置Eの空間内配置場所は変化させることが可能である。
上記のナビゲーションシステム自体は、特に米国特許第6,895,268B1号明細書から当業者に公知であり、対象物例えば患者Pの位置および向きを決定するために設けられている。
ナビゲーションシステムは例えば磁気ナビゲーションシステムまたは、本実施例がそうであるように、光学式ナビゲーションシステムであることが可能であり、例えば、対象物の位置および場合により向きを求めるように使用される。例えば患者PまたはロボットRの位置を求めるように、ナビゲーションシステムはそのカメラ20、21によってマーカM1、M2の空間内位置を検出する。
患者PおよびロボットRの検出された位置に基づいて、ロボットは例えば所望のように医療器具18を可動させて、患者Pが所望のように当該器具によって治療されるようにすることができる。ロボットRの制御コンピュータ17が患者Pのその時々の現在の位置に関する情報を得ることができるように、例えば、ナビゲーションシステムのコンピュータ22はデータ回線26を経てロボットRの制御コンピュータ17と接続されている。
ナビゲーションシステムが患者PおよびロボットRの位置を十分正確に求めることができるためには、カメラ20、21がマーカM1、M2を十分正確に検出し得ることが必要である。そのため、検出装置Eは患者PおよびロボットRに対して適切に配置されていることが不可欠である。
患者PおよびロボットRに対する検出装置Eの少なくとも1つの比較的好適な配置場所を得るように、本実施例においては、ロボットRの配置場所、患者Pの位置および検出装置Eの配置場所がプランニングされる。これらの配置場所のプランニングのために本実施例において実施されるステップは図3に示したフローチャートにまとめられている。
本実施例においては、検出装置EおよびロボットRの配置場所ならびに患者Pの位置のプランニングは、適切なコンピュータプログラムの形でコンピュータ24に記憶されているコンピュータシミュレーションによって行われ、これについては、図3に示したフローチャートのステップS1で行われる。
本実施例においては、コンピュータシミュレーションのために、先ず患者Pにつき、図4に示した医用技術装置27によって特に三次元画像データセットが生成される。画像を生成する医用技術装置27は、例えば、磁気共鳴装置、コンピュータ断層撮影装置、X線装置、特にCアーム付きX線装置、または超音波装置である。画像データセットを供するために、マーカM2はすでに患者Pに配置されていることが可能であり、したがって、これによって、画像データセットに対応する画像中にも写像されていることが可能である。三次元画像データセットはコンピュータ24にロードされ、これによって、コンピュータシミュレーションは患者Pをモデル化することができる。
本実施例においては、コンピュータ24には、ロボットRおよびカメラ20、21のモデルも記憶されている。ロボットRのモデルはさらに、ロボットRに配置されたマーカM1を含んでいる。したがって、ロボットRおよび検出装置Eのさまざまな配置場所および患者Pの位置および/または向きをコンピュータシミュレーションによってシミュレートすることが可能である。
ロボットRおよび患者Pに対するできるだけ良好な検出装置Eの位置を得るために、図中に詳細を図示していない操作者は、検出装置E、ロボットRおよび患者Pのさまざまな配置場所をコンピュータシミュレーションによってシミュレートし、これについては、図3に示したフローチャートのステップS2で行われる。
本実施例において、コンピュータシミュレーションは、シミュレートされた上記の配置場所の各々につき、カメラ20、21による第1および第2のマーカM1、M2の可検出性クオリティーを自動的に決定するようにして実施され、これについては、図3に示したフローチャートのステップS3で行われる。例えば、マーカM1、M2の相互の間隔またはマーカM1、M2相互のまたは周囲物体による隠蔽率がクオリティー基準として利用可能である。
相応して算定されたクオリティーは、次いでコンピュータ24に接続された表示装置23の画面にグラフィック表示される。これによって、操作者は経験的または自動的に、患者PおよびロボットRに対するカメラ20、21のできるだけ良好な位置を求めることができる。別法としてまたはさらに加えて、コンピュータシミュレーションは、例えば複数の配置場所がシミュレートされた後、最良のまたは少なくとも十分良好な可検出性クオリティーをもたらすシミュレート済みの配置場所が表示されるようにして実施されることが可能であり、これについては、図3に示したフローチャートのステップS4で行われる。
コンピュータシミュレーションによって、検出装置EおよびロボットRの所望の配置場所が求められ、かつ、患者Pの位置がコンピュータシミュレーションによって求められた後、検出装置E、ロボットRおよび患者Pは、プランニングつまりシミュレーションに応じて配置され、あるいは患者ベッドシートL上で方向付けされる。
図5は、本実施例においては、検出装置E、ロボットRおよび患者Pが、プランニングされた通りに配置あるいは方向付けされるように実施されるステップをまとめたものである。
本実施例においては、コンピュータ24により、比較的容易にロボットRおよび検出装置Eをプランニングされた通りに配置し得るよう操作者を支援するコンピュータプログラムが実行される。
操作者は先ず、ロボットRおよび検出装置Eを配置し、これについては、図5に示したフローチャートのステップS1’で行われる。
検出装置EはロボットRのマーカM1を検出し、それに応じて直ちに、ロボットRの現在の空間における位置あるいは検出装置Eに対するロボットRの現在の位置を計算し、これについては、図5に示したフローチャートのステップS2’で行われる。
この結果は、回線25によってナビゲーションシステムのコンピュータ22に接続されているコンピュータ24に伝送される。コンピュータ24では、検出装置Eに対するロボットRの現在の位置を検出装置Eに対するロボットRのプランニングされた位置と比較するコンピュータプログラムが実行され、これについては、図5に示したフローチャートのステップS3’で行われる。本実施例においては、検出装置Eに対するロボットRのプランニングされた位置は上述したコンピュータシミュレーションによって求められる。
検出装置Eに対するロボットRのプランニングされた位置と現在の位置とに基づいて、コンピュータ24で実行されるコンピュータプログラムは両者の位置の差を算出し、これについては、図5に示したフローチャートのステップS4’
で行われ、こうして、表示装置23の画面にこの差に関する情報を表示し、これについては、図5に示したフローチャートのステップS5’で行われる。
本実施例においては、コンピュータ24で実行されるコンピュータプログラムは、検出装置Eに対するロボットRのプランニングされた位置と現在の位置との間の変位ベクトルまたは回転を計算し、その結果を表示装置23の画面に視覚表示する。変位ベクトルは、例えば、プランニングされた通りに配置するために、検出装置Eをいずれの方向に変位されなければならないかを表している。この変位ベクトルは、例えば、ロボットRおよび検出装置Eのプランニングされた位置の表示画面中に挿入される。
別法として、ロボットRおよび検出装置Eの現在の配置に関して、プランニングされた位置からの変位の程度を、例えば異なったカラーによって、表示装置23の画面にグラフィック表示することも可能である。
本実施例においては、なお、ロボットRに対するあるいは検出装置Eに対する患者Pの現在の位置および/または向きを、コンピュータシミュレーションによってプランニングされた患者Pの位置または向きにマッチングさせることも意図されている。
加えて、医療器具18による患者Pの治療のために実行さるべきロボットRの運動をコンピュータシミュレーション中に考慮し、それを場合により治療の実施前にプランニングにマッチングさせることも可能である。
また、コンピュータシミュレーションのために患者ベッドシートLを考慮することも可能である。
第1および第2のマーカM1、M2に代えて、ロボットRまたは患者Pの適切な特異箇所を使用することも可能である。
上記実施例は医療技術分野での使用に関連して説明されているが、医療分野以外における本発明による方法の使用、例えば、測定セルでの使用も同じく考えられる。

Claims (15)

  1. ナビゲーションシステムの検出装置の配置場所を決定する方法であって、
    ナビゲーションシステムの検出装置(E)と、
    前記ナビゲーションシステムの第1のマーカ(M1)または第1の特異箇所を備えたロボット(R)と、
    前記ナビゲーションシステムの第2のマーカ(M2)または第2の特異箇所を備えた三次元対象物(P)と、
    を有する前記ナビゲーションシステムのコンピュータシミュレーションを準備するステップと、
    前記ロボット(R)、前記三次元対象物(P)および/または前記検出装置(E)のさまざまな配置場所を前記コンピュータシミュレーションによってシミュレートするステップと、
    前記シミュレートされた配置場所につき、前記検出装置(20,21)によって、前記ロボット(R)の前記第1のマーカ(M1)または前記第1の特異箇所並びに/若しくは前記対象物(P)の前記第2のマーカ(M2)または前記第2の特異箇所の可検出性クオリティーを自動的に決定するステップと、
    前記決定されたクオリティー、それに対応するシミュレートされた配置場所ならびに/もしくは決定された最良のまたは少なくとも十分良好なクオリティーを有するシミュレートされた配置場所を出力するステップと、
    を有する方法。
  2. 前記コンピュータシミュレーションのために前記ロボット(R)の運動が考慮され、特に前記ロボット(R)のキネマティクスが考慮されるステップをさらに有する請求項1に記載の方法。
  3. 前記コンピュータシミュレーションのために画像データセット、特に前記対象物(P)の三次元画像データセットが使用されるステップであって、前記第2のマーカ(M2)または前記第2の特異箇所の位置が考慮される、ステップをさらに有する請求項1または2に記載の方法。
  4. 前記ナビゲーションシステムは光学式ナビゲーションシステムでありおよび/または前記対象物は生物(P)であり、特に、前記ロボット(R)は自動的に医療器具(18)を可動させて、前記医療器具によって前記生物(P)を治療するように設けられている請求項1〜3のいずれか一項に記載の方法。
  5. 画像生成医用技術装置(27)によって前記生物(P)の前記画像データセットを準備するステップをさらに有する請求項3および4に記載の方法。
  6. 前記コンピュータシミュレーションのフレームワークにおいて、前記生物(P)の治療のための前記治療器具(18)の意図的な運動により前記ロボット(R)の運動をシミュレートするステップをさらに有する請求項4または5に記載の方法。
  7. ナビゲーションシステムの検出装置を配置する方法であって、
    ナビゲーションシステムの第1のマーカ(M1)または第1の特異箇所を備えたロボット(R)と、前記第1のマーカ(M1)または前記第1の特異箇所に基づいて前記ロボット(R)の空間における位置を決定する前記ナビゲーションシステムの検出装置(E)とを位置付けるステップと、
    前記ナビゲーションシステムにより前記位置付けられた検出装置(E)および前記ロボット(R)の位置により前記検出装置(E)に対する前記ロボット(R)の現在の位置を決定するステップと、
    前記検出装置(E)に対する前記ロボット(R)の位置を、前記検出装置(E)に対する前記ロボット(R)のあらかじめシミュレートされた位置と自動的に比較するステップと、
    前記検出装置(E)に対する前記ロボット(R)の現在の位置と、前記検出装置(E)に対する前記ロボット(R)の前記シミュレートされた位置との間の差を出力するステップと、
    を有する方法。
  8. 前記検出装置(E)により前記ロボット(R)に割り当てられた前記第1のマーカ(M1)または前記第1の特異箇所を検出する手段により前記検出装置(E)に対する前記ロボット(R)の現在の位置を決定するステップをさらに有する請求項7に記載の方法。
  9. 前記検出装置(E)に対する前記ロボットの前記シミュレートされた位置は請求項1乃至6のいずれか一項に記載の方法によって決定される請求項7または8に記載の方法。
  10. 前記検出装置(E)に対する前記ロボット(R)の現在の位置と、前記検出装置(E)に対する前記ロボット(R)の前記シミュレートされた位置との間の差と、該差に割り当てられた変位ベクトルおよび回転とを決定するステップと、
    前記変位ベクトルおよび/または回転を出力するステップと、
    を有する請求項7〜9のいずれか一項に記載の方法。
  11. 前記差の程度を決定するステップと、前記決定された差の程度を出力するステップとを有する請求項7〜10のいずれか一項に記載の方法。
  12. 前記ロボット(R)の前記シミュレートされた位置についての前記ロボット(R)の意図的な運動を考慮するステップを有する請求項7〜11のいずれか一項に記載の方法。
  13. 前記ナビゲーションシステムの前記第2のマーカ(M2)または前記第2の特異箇所を備えた三次元対象物(P)を位置付けるステップであって、前記ナビゲーションシステムは、患者(P)に対する位置及び向きが既知である、前記検出装置(E)によって検出された第2のマーカ(M2)または第2の特異箇所によって空間における前記対象物(P)の位置を検出するように設定される、ステップと、
    前記対象物(20,21)を位置付けること及び前記検出装置(E)を位置付けることにより前記検出装置(E)に対する前記対象物(P)の現在の位置を決定するステップと、
    前記検出装置(20,21)に対する前記対象物(P)の前記位置を、前記検出装置(E)に対する前記対象物(P)のあらかじめシミュレートされた位置と自動的に比較するステップと、
    −前記検出装置(E)に対する前記対象物(P)の現在の位置と、前記検出装置(E)に対する前記対象物(P)の前記シミュレートされた位置との間の差を出力するステップと、
    を有する請求項7〜12のいずれか一項に記載の方法。
  14. 前記対象物(P)に対する前記第2のマーカ(M2)の位置および/または向きもしくは前記第2の特異箇所の位置における変化を再調整するステップであって、前記変化は、前記検出装置(E)に対する前記対象物(P)の現在の位置と、前記検出装置(E)に対する前記対象物(P)の前記シミュレートされた位置との間の差について、前記対象物(P)の運動によりもたらされる、ステップをさらに有する請求項13に記載の方法。
  15. 前記対象物(P)は生物であり、特に、前記ロボット(R)は、医療器具(18)によって前記生物(P)を治療するように前記医療器具を自動的に可動させるように設けられている請求項13または14に記載の方法。
JP2010533616A 2007-11-19 2008-11-18 ナビゲーションシステムの検出装置の配置場所を決定する方法および検出装置を配置する方法 Active JP5048136B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102007055205.1 2007-11-19
DE102007055205A DE102007055205A1 (de) 2007-11-19 2007-11-19 Verfahren zum Ermitteln eines Aufstellortes und zum Aufstellen einer Erfassungsvorrichtung eines Navigationssystems
PCT/EP2008/065756 WO2009065830A1 (de) 2007-11-19 2008-11-18 Verfahren zum ermitteln eines aufstellortes und zum aufstellen einer erfassungsvorrichtung eines navigationssystems

Publications (2)

Publication Number Publication Date
JP2011502672A true JP2011502672A (ja) 2011-01-27
JP5048136B2 JP5048136B2 (ja) 2012-10-17

Family

ID=40405114

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010533616A Active JP5048136B2 (ja) 2007-11-19 2008-11-18 ナビゲーションシステムの検出装置の配置場所を決定する方法および検出装置を配置する方法

Country Status (8)

Country Link
US (1) US8548779B2 (ja)
EP (1) EP2099380B1 (ja)
JP (1) JP5048136B2 (ja)
KR (1) KR101413920B1 (ja)
CN (1) CN101868191B (ja)
AT (1) ATE467395T1 (ja)
DE (2) DE102007055205A1 (ja)
WO (1) WO2009065830A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016512073A (ja) * 2013-03-13 2016-04-25 ストライカー・コーポレイション 外科処置に備えて手術室内で複数の対象物を手配するためのシステム
JP2019526127A (ja) * 2016-07-26 2019-09-12 シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft 工作機械の端部要素を制御する方法および工作機械

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10363102B2 (en) * 2011-12-30 2019-07-30 Mako Surgical Corp. Integrated surgery method
CN104363854B (zh) 2012-04-27 2017-10-31 库卡实验仪器有限公司 机器人手术系统和手术器械
JP6323974B2 (ja) * 2012-05-18 2018-05-16 オリンパス株式会社 手術支援装置
JP6053358B2 (ja) * 2012-07-03 2016-12-27 オリンパス株式会社 手術支援装置
DE102012217942A1 (de) * 2012-10-01 2014-06-12 Siemens Aktiengesellschaft Medizinisches Instrument, Medizinsystem und Verfahren zur Darstellung der Position einer Ortsmarke
CN104083217B (zh) * 2014-07-03 2016-08-17 北京天智航医疗科技股份有限公司 一种手术定位装置以及机器人手术系统
EP4205689A1 (en) 2015-02-20 2023-07-05 Stryker Corporation Sterile barrier assembly for coupling surgical components therethrough
EP4197479A1 (en) 2015-02-25 2023-06-21 Mako Surgical Corporation Navigation systems and methods for reducing tracking interruptions during a surgical procedure
KR102371054B1 (ko) 2015-06-16 2022-03-10 큐렉소 주식회사 정형외과 수술 로봇암의 싱귤러 포인트 발생 인지 장치 및 그 방법
DE102016225613A1 (de) * 2016-12-20 2018-06-21 Kuka Roboter Gmbh Verfahren zum Kalibrieren eines Manipulators eines diagnostischen und/oder therapeutischen Manipulatorsystems
JP2020512116A (ja) 2017-03-31 2020-04-23 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. マーカーレスロボット追跡システム、制御装置、及び方法
US11096754B2 (en) 2017-10-04 2021-08-24 Mako Surgical Corp. Sterile drape assembly for surgical robot
CN107997822B (zh) * 2017-12-06 2021-03-19 上海卓梦医疗科技有限公司 微创手术定位系统
AU2019261299A1 (en) 2018-04-23 2020-10-29 Mako Surgical Corp. System, method and software program for aiding in positioning of a camera relative to objects in a surgical environment
JP6895128B2 (ja) * 2018-11-09 2021-06-30 オムロン株式会社 ロボット制御装置、シミュレーション方法、及びシミュレーションプログラム
CN109490830A (zh) * 2018-11-23 2019-03-19 北京天智航医疗科技股份有限公司 手术机器人定位系统精度检测方法及检测装置
JP2022510027A (ja) 2018-12-04 2022-01-25 マコ サージカル コーポレーション 外科用構成要素の結合に使用する滅菌バリア組立体を備えた実装システム
KR102253768B1 (ko) * 2019-04-03 2021-05-24 장호열 의료영상 리코딩 시스템 및 리코딩 로봇의 제어 방법
US11548140B2 (en) * 2019-08-15 2023-01-10 Covidien Lp System and method for radio based location of modular arm carts in a surgical robotic system
CN110478050A (zh) * 2019-08-23 2019-11-22 北京仁馨医疗科技有限公司 基于ct/mri数据的三维图像与内镜影像融合方法、装置及系统
CN111035452B (zh) * 2019-12-27 2021-07-02 苏州微创畅行机器人有限公司 定位工具、机械臂系统、手术系统以及注册配准方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007113713A2 (en) * 2006-03-31 2007-10-11 Koninklijke Philips Electronics, N.V. Image guided surgery system

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2243976T3 (es) * 1996-02-15 2005-12-01 Biosense Webster, Inc. Bobinas moviles de transmision o recepcion para sistema de localizacion.
US6279579B1 (en) * 1998-10-23 2001-08-28 Varian Medical Systems, Inc. Method and system for positioning patients for medical treatment procedures
JP2001061861A (ja) 1999-06-28 2001-03-13 Siemens Ag 画像撮影手段を備えたシステムおよび医用ワークステーション
DE10025285A1 (de) 2000-05-22 2001-12-06 Siemens Ag Vollautomatische, robotergestützte Kameraführung unter Verwendung von Positionssensoren für laparoskopische Eingriffe
DE10108547B4 (de) 2001-02-22 2006-04-20 Siemens Ag Operationssystem zur Steuerung chirurgischer Instrumente auf Basis von intra-operativen Röngtenbildern
US6636757B1 (en) * 2001-06-04 2003-10-21 Surgical Navigation Technologies, Inc. Method and apparatus for electromagnetic navigation of a surgical probe near a metal object
ES2225668T3 (es) * 2002-03-01 2005-03-16 Brainlab Ag Lampara para sala de operadciones, que incluye un sistema de camaras para referenciacion tridimensional.
DE10210287B4 (de) * 2002-03-08 2004-01-22 Siemens Ag Verfahren und Vorrichtung zur markerlosen Registrierung für navigationsgeführte Eingriffe
DE10215808B4 (de) 2002-04-10 2005-02-24 Siemens Ag Verfahren zur Registrierung für navigationsgeführte Eingriffe
US6975896B2 (en) * 2002-05-23 2005-12-13 Koninklijke Philips Electronics N.V. Fiducial markers for MRI
JP3732494B2 (ja) * 2003-10-31 2006-01-05 ファナック株式会社 シミュレーション装置
JP5161084B2 (ja) 2005-08-05 2013-03-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ カテーテルナビゲーションシステムおよび該ナビゲーションシステムを作動させる方法
JP5379491B2 (ja) 2005-12-15 2013-12-25 コーニンクレッカ フィリップス エヌ ヴェ 場発生器の位置最適化のための方法および装置
DE102005062610A1 (de) * 2005-12-23 2007-06-28 Burgkart, Rainer, Dr. med. Simulationsvorrichtung zum Simulieren von Eindringvorgängen

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007113713A2 (en) * 2006-03-31 2007-10-11 Koninklijke Philips Electronics, N.V. Image guided surgery system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016512073A (ja) * 2013-03-13 2016-04-25 ストライカー・コーポレイション 外科処置に備えて手術室内で複数の対象物を手配するためのシステム
JP2018149321A (ja) * 2013-03-13 2018-09-27 ストライカー・コーポレイション 外科処置に備えて手術室内で複数の対象物を手配するためのシステム
US10410746B2 (en) 2013-03-13 2019-09-10 Stryker Corporation System and method for arranging objects in an operating room in preparation for surgical procedures
US11183297B2 (en) 2013-03-13 2021-11-23 Stryker Corporation System and method for arranging objects in an operating room in preparation for surgical procedures
JP2019526127A (ja) * 2016-07-26 2019-09-12 シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft 工作機械の端部要素を制御する方法および工作機械
US11498219B2 (en) 2016-07-26 2022-11-15 Siemens Aktiengesellschaft Method for controlling an end element of a machine tool, and a machine tool

Also Published As

Publication number Publication date
US8548779B2 (en) 2013-10-01
DE502008000656D1 (de) 2010-06-24
JP5048136B2 (ja) 2012-10-17
EP2099380A1 (de) 2009-09-16
WO2009065830A1 (de) 2009-05-28
KR20100085113A (ko) 2010-07-28
US20100256960A1 (en) 2010-10-07
CN101868191A (zh) 2010-10-20
EP2099380B1 (de) 2010-05-12
DE102007055205A1 (de) 2009-05-20
ATE467395T1 (de) 2010-05-15
KR101413920B1 (ko) 2014-06-30
CN101868191B (zh) 2012-01-25

Similar Documents

Publication Publication Date Title
JP5048136B2 (ja) ナビゲーションシステムの検出装置の配置場所を決定する方法および検出装置を配置する方法
JP7195385B2 (ja) 医療処置トレーニングのためのシミュレータシステム
US20230390002A1 (en) Path-based navigation of tubular networks
CN111655184B (zh) 用于放置手术端口的引导
JP5249343B2 (ja) ロボット、医療ワークステーションおよび、対象物の表面に画像を投影する方法
US11357581B2 (en) Method for using a physical object to manipulate a corresponding virtual object in a virtual environment, and associated apparatus and computer program product
US9066737B2 (en) Method for moving an instrument arm of a laparoscopy robot into a predeterminable relative position with respect to a trocar
CN109275333A (zh) 用于控制机器人递送操纵器的系统、方法和计算机可读程序产品
JP5993549B2 (ja) 処置システムの焦点に対するターゲットの位置の検出および可視化を行う方法および装置
JP2011502807A (ja) ロボット具有装置、医療ワークステーションおよび、対象物を位置決めする方法
US20150287236A1 (en) Imaging system, operating device with the imaging system and method for imaging
EP2277441A1 (en) Method for generating images of a human body zone undergoing a surgical operation by means of an apparatus for minimally invasive surgical procedures
US11819288B2 (en) Trocar pose estimation using machine learning for docking surgical robotic arm to trocar
JP2018183589A (ja) 狭い通路における侵襲的手順の内視鏡画像
WO2021202609A1 (en) Method and system for facilitating remote presentation or interaction
US20220175485A1 (en) Method for operating a visualization system in a surgical application, and visualization system for a surgical application
WO2020203405A1 (ja) 医療用観察システムおよび方法、並びに医療用観察装置
US20240033005A1 (en) Systems and methods for generating virtual reality guidance
US20230302646A1 (en) Systems and methods for controlling and enhancing movement of a surgical robotic unit during surgery
US20240013901A1 (en) Systems and methods for planning a medical environment
US20210307830A1 (en) Method and Apparatus for Providing Procedural Information Using Surface Mapping
CA3198089A1 (en) Robotic surgery system with user interfacing
JP2023551531A (ja) 医療処置の生成及び評価のためのシステム及び方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20110914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120321

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120703

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120718

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150727

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5048136

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250