JP6715823B2 - X線スイートにおける画像統合及びロボット内視鏡制御 - Google Patents

X線スイートにおける画像統合及びロボット内視鏡制御 Download PDF

Info

Publication number
JP6715823B2
JP6715823B2 JP2017502117A JP2017502117A JP6715823B2 JP 6715823 B2 JP6715823 B2 JP 6715823B2 JP 2017502117 A JP2017502117 A JP 2017502117A JP 2017502117 A JP2017502117 A JP 2017502117A JP 6715823 B2 JP6715823 B2 JP 6715823B2
Authority
JP
Japan
Prior art keywords
ray
calibration
instrument
robot
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017502117A
Other languages
English (en)
Other versions
JP2017525427A (ja
Inventor
ポポヴィッチ,アレクサンドラ
ライブ ラインスタイン,アリエ
ライブ ラインスタイン,アリエ
ポール ヌーナン,デイヴィッド
ポール ヌーナン,デイヴィッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2017525427A publication Critical patent/JP2017525427A/ja
Application granted granted Critical
Publication of JP6715823B2 publication Critical patent/JP6715823B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/12Devices for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/062Measuring instruments not otherwise provided for penetration depth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0223Operational features of calibration, e.g. protocols for calibrating sensors

Description

本発明は、概して、ロボット内視鏡に関する校正手順を実行するために低侵襲処置(例えば、心臓手術、腹腔鏡手術、自然開口部経管的手術、単切開腹腔鏡手術、肺疾患/気管支鏡検査法手術、及び診断的インターベンション)中に収集されたX線画像を利用することに関する。本発明は、より具体的には、低侵襲処置中にロボット内視鏡をガイドするためのX線/内視鏡画像の統合に関する。
小さいポートを通して患者の体内に挿入される細長い器具を用いて低侵襲手術が行われている。これらの処置における主な可視化法は内視鏡である。ロボットガイド下での低侵襲手術においては、それらの器具のうちの1つ以上が、特には内視鏡であるロボット式装置によって保持されて制御される。
具体的には、患者の体上に配される小さいポートのみが、患者の内部にアクセスするために器具及び内視鏡が通り抜け得る切り口である。従って、器具は、これらの支点周りで回転することはできるが、ポートに対して並進力を課すことはできない。何故なら、それは、患者に負傷及び危害を生じさせることになるからである。ロボットは潜在的に大きい力を及ぼし得るので、これは特に、ロボットガイド下手術にとって重要である。
従って、一部の既知のロボットは、ポート位置で回転のみが行われ、そして、ポートにおける全ての並進力が排除されることを強要することによって、支点位置に遠隔運動中心(remote center of motion;RCM)として知られるものを実現している。これは、空間内の特定の位置に遠隔運動中心を持つ機械設計を実現し、そして、空間内のその点をポートに位置合わせすることによって達成され得る。
内視鏡が患者の体内に挿入され、RCMの適切な位置が選定されると、ロボットが内視鏡画像により制御され得る。その制御ループを閉じるために、画像座標とロボット関節空間との間の数学変換を確立しなければならない(技術的に画像ヤコビアンとして参照される)。このプロセス全体が、技術的にシステム校正として参照され、例えばカメラ及びロボット校正などの様々なステップを必要とする。また、完全な校正を提供するためには、カメラと検討中の器官/物体との間の深さを測定する必要があり、そのような測定は典型的に、画像から、又は特別なセンサを用いて、の何れかである。
処置中に内視鏡検査を補うために、術中X線撮像が使用されることがある。例えば、低侵襲冠動脈バイパス術では、動脈硬化を特定するため又は血行再建を確認するために、術中X線が使用される。この撮像モダリティは電離放射線を使用するので、患者及び手術室スタッフにとって、処置中に収集されるX線画像の枚数を少なくすることが有益である。
双方の撮像モダリティの有用性を高めるために、システムは、これらのモダリティ間で標的の相互特定を可能にしなければならない。例えば、動脈狭窄が、内視鏡画像内で視認できずにX線画像内で視認できる場合、これらの画像を統合して内視鏡画像内にその狭窄を描く方法は、ワークフローを大いに改善して、手術時間を短縮するとともに合併症の可能性を低減することになる。また、X線画像による内視鏡の制御は、内視鏡の視野の外での標的のより良い可視化及び検出につながることになる。
これら全ての統合を行うためには、内視鏡の校正及びロボットの校正を行わなければならない。手術室内でロボット及び内視鏡を校正するプロセスは、様々な問題に結びつく。
1つの問題は、カメラ校正が、訓練を受けた人物によって手術前に実行される必要がある追加工程であることである。このプロセスは時間が掛かるとともに間違いが発生しやすい。
第2の問題は、ユーザが手術中にカメラパラメータの一部(例えば、ズーム)を変更する場合に、内視鏡を患者から取り出して再校正しなければならないことであり、このようなことは、ワークフローを中断させてしまうので受け入れられないことがある。
第3の問題は、ユーザが内視鏡をロボットに対して動かす(例えば、光学式ズームを持たない一般クラスの内視鏡で機械式ズームを行うために、より深く体内に挿入する)場合に、システムを再校正しなければならないか、ロボットが追加のセンサを使用しなければならないか、の何れかであることである。
第4の問題は、校正が深さ情報を必要とすることがあり、それは、深さ測定アルゴリズムを用いてアクセス可能であり得るが(例えば、動きなどからの形状)、そのような種類の測定はノイズが多いのが通常であり、それにより不安定性を生じさせ得ることである。
これらの問題は、システムの使い勝手を低下させ得るとともにワークフローを乱し得るものであり、それにより処置コストの上昇及びいっそう低い合格率につながる。
本発明は、低侵襲処置(例えば、心臓手術、腹腔鏡手術、自然開口部経管的手術、単切開腹腔鏡手術、肺疾患/気管支鏡検査法手術、及び診断的インターベンション)中に収集されたX線画像によるロボット器具の一連の校正を実行するための校正コントローラを提供する。
本発明は更に、X線/内視鏡画像を統合するための及びX線画像によるロボット内視鏡の誘導を支援するための校正コントローラを提供する。
本発明の一形態は、X線モダリティのX線画像空間内に遠位端を持つロボット器具を校正するワークステーションである。当該ワークステーションは、X線画像空間内のロボット器具の異なる姿勢での遠位端の複数のX線画像の、X線モダリティによる生成に応答して、ロボット器具のRCM長さを校正する校正コントローラを使用する。当該ワークステーションは更に、校正コントローラによるロボット器具のRCM長さの校正に応じて、X線画像空間内でのロボット器具の誘導を制御するロボット器具コントローラを使用する。
本発明の目的では、以下に限られないが、“ワークステーション”、“校正(キャリブレーション)”、“X線画像”、“X線画像空間”、“X線モダリティ”、“焦点端”、“姿勢”、及び“誘導”を含む技術用語は、本発明の分野において理解されように、また、ここで例示的に説明されるように解釈されるべきである。
本発明の目的では、
(1)用語“ロボット器具”は、極座標ロボットによって保持される器具の全ての構造的構成を広く包含するものである。
(2)用語“器具”は、以下に限られないが、あらゆるタイプの、スコープ、グラスパ、カッター、及び超音波プローブを含め、技術的に知られるあらゆる全ての器具や道具などを広く包含するものである。
(3)用語“極座標ロボット”は、本発明の分野において理解されように、また、ここで例示的に説明されるように、遠隔運動中心(“RCM”)を実現するようにアームセグメントを同軸接続する1つ以上のジョイントのモーター化制御を有するように構造的に構成されたあらゆるロボット装置を広く包含するものである。
(4)用語“RCM長さ”は、本発明の分野において理解されように、また、ここで例示的に説明されるように、極座標ロボットのRCMと、極座標ロボットによって保持されている器具の遠位端との間の距離の長さを広く包含するものである。
本発明の第2の形態は、専ら又は包含的に内視鏡を含むロボット器具と、X線モダリティによる上述のX線画像の生成に応答して、また更に、ロボット器具によるX線画像空間の1つ以上の内視鏡画像の生成に応答して、ロボット器具の焦点長さを校正する校正コントローラを使用するワークステーションとを含む。ロボット器具のRCM長さ及び焦点長さの校正により、校正コントローラは更に、表示のためのX線画像と(1つ以上の)内視鏡画像との画像統合を制御し得る。
本発明の目的では、以下に限られないが、“内視鏡画像”、“画像統合(インテグレーション)”、“表示”を更に含む技術用語は、本発明の分野において理解されように、また、ここで例示的に説明されるように解釈されるべきである。
本発明の目的では、用語“内視鏡”は、本発明の分野において理解されように、また、ここで例示的に説明されるように、体の内側から撮像する能力を有するように構造的に構成されたあらゆる装置を広く包含するものである。
内視鏡の例は、以下に限られないが、フレキシブル又はリジッドな、あらゆるタイプのスコープ(例えば、内視鏡、関節鏡、気管支鏡、総胆管鏡、結腸鏡、膀胱鏡、十二指腸鏡、胃カメラ、子宮鏡、腹腔鏡、喉頭鏡、神経鏡、耳鏡、プッシュ式腸内鏡、鼻喉頭鏡、S状結腸鏡、洞鏡、胸郭鏡、膣鏡、胸腔鏡、神経内鏡など)、及び画像システムを備えたスコープと同様のあらゆる装置を含む。撮像はローカルであり、光ファイバ、レンズ、及び小型化された(例えばCCDベースの)撮像システム(例えば、腹腔鏡超音波)を用いて光学的に表面画像が取得され得る。
本発明の目的では、用語“焦点長さ”は、本発明の分野において理解されように、また、ここで例示的に説明されるように、遠位焦点端から延在する内視鏡の視野の長さを広く包含するものである。
用語“コントローラ”は、ここで後述する本発明の様々な発明原理の適用を制御するワークステーションに収容又は結合される特定用途向けメインボード又は特定用途向け集積回路の全ての構造的構成を広く包含するものである。コントローラの構造的構成は、以下に限られないが、(1つ以上の)プロセッサ、(1つ以上の)コンピュータ使用可能/コンピュータ読み取り可能な記憶媒体、オペレーティングシステム、(1つ以上の)アプリケーションモジュール、(1つ以上の)周辺装置コントローラ、(1つ以上の)スロット、及び(1つ以上の)ポートを含み得る。
ワークステーションの例は、以下に限られないが、1つ以上のコンピューティング装置(例えば、クライアントコンピュータ、デスクトップ、及びタブレット)と、ディスプレイ/モニタと、1つ以上の入力装置(例えば、キーボード、ジョイスティック、及びマウス)とのアセンブリを含む。
本発明の第3の形態は、
X線モダリティのX線画像空間内に遠位端を持つ内視鏡を含んだロボット器具を校正する校正コントローラであって、
X線画像及び(1つ以上の)内視鏡画像に応答して、ロボット器具のRCM長さ及び焦点長さを校正するロボット器具キャリブレータと、ロボット器具キャリブレータによるロボット器具のRCM長さ及び焦点長さの校正に応じて、X線画像と(1つ以上の)内視鏡画像とを統合する画像インテグレータとの形態をしたアプリケーションモジュールを使用する校正コントローラである。
本発明の目的では、用語“アプリケーションモジュール”は、特定のアプリケーションを実行するための電子回路及び/又は実行可能プログラム(例えば、実行可能ソフトウェア及び/又はファームウェア)で構成されるコントローラのコンポーネントを広く包含するものである。
本発明の以上の形態及びその他の形態、並びに本発明の様々な特徴及び利点が、本発明の様々な実施形態の以下の詳細な説明が添付の図面とともに読まれることで、更に明らかになる。詳細な説明及び図面は、本発明を限定するものではなく単に例示するものであり、本発明の範囲は、添付の請求項及びその均等範囲によって定められる。
本発明の発明原理に従った低侵襲処置及びコントローラスイートの例示的な一実施形態を示している。 本発明の発明原理に従った低侵襲制御システムの例示的な一実施形態を示している。 本発明の発明原理に従ったロボット内視鏡の例示的な一実施形態を示している。 本発明の発明原理に従った低侵襲制御システムに基づくワークステーションの例示的な一実施形態を示している。 本発明の発明原理に従ったRCM長さ計算法の例示的な一実施形態を表すフローチャートを示している。 図5に示したフローチャートの例示的な実行を示している。 図5に示したフローチャートの例示的な実行を示している。 図5に示したフローチャートの例示的な実行を示している。 図5に示したフローチャートの例示的な実行を示している。 図5に示したフローチャートの例示的な実行を示している。 本発明の発明原理に従った焦点長さ計算法の例示的な一実施形態を表すフローチャートを示している。 図7に示したフローチャートの例示的な実行を示している。 図7に示したフローチャートの例示的な実行を示している。 図7に示したフローチャートの例示的な実行を示している。 図7に示したフローチャートの例示的な実行を示している。 本発明の発明原理に従ったX線画像及び内視鏡画像の例示的な画像統合を示している。 本発明の発明原理に従ったX線画像及び内視鏡画像の例示的な画像統合を示している。 本発明の発明原理に従ったX線画像及び内視鏡画像の例示的な画像統合を示している。 本発明の発明原理に従ったX線画像及び内視鏡画像の例示的な画像統合を示している。
本発明の理解を容易にするため、以下の図1及び2の説明は、コントローラネットワーク20によって遂行される低侵襲処置に関する画像ベースロボット内視鏡制御スキーム10の基本的な発明原理を教示する。本発明の目的では、用語“ロボット内視鏡”は、極座標ロボットによって保持される内視鏡の全ての構造的構成を広く包含するものである。この説明から、当業者は、内視鏡を含まない又は含むロボット器具を組み入れる様々な低侵襲処置への本発明の発明原理の適用の仕方を理解することになる。
図1を参照するに、制御スキーム10は、ロボット内視鏡校正段階11、画像統合段階12、及びロボット内視鏡誘導段階13を含んでいる。
概して、ロボット内視鏡校正段階11は、図2に関連してここで更に説明されることになるように、ロボット内視鏡のRCM長さ及び焦点長さを校正する目的で、X線画像空間内で、ロボット内視鏡の遠位焦点端のX線画像を収集することを含む。
これらの校正から、画像統合段階12は、図2に関連してここで更に説明されることになるように、低侵襲処置中に(1つ以上の)解剖学的標的のX線位置特定を支援する目的で、X線画像及び内視鏡画像を統合することを含む。
この画像統合から、ロボット内視鏡誘導段階13は、図2に関連してここで更に説明されることになるように、ロボット内視鏡を解剖学的標的にX線誘導することを含み、それにより、内視鏡画像内で標的が中心にされ得る。
制御スキーム10を実装するため、コントローラネットワーク20が、X線コントローラ30、ロボット内視鏡コントローラ40、校正コントローラ50、及びディスプレイコントローラ60を使用する。
X線コントローラ30は構造的に、X線モダリティの撮像動作を制御するために技術的に知られているように構成され、ロボット内視鏡コントローラ40は構造的に、ロボット内視鏡の撮像動作を制御するために技術的に知られているように構成され、ディスプレイコントローラ60は構造的に、ディスプレイ/モニタの動作を制御するために技術的に知られているように構成される。
校正コントローラ50は構造的に、図2に関連してここで更に説明されることになるように、ロボット内視鏡のRCM長さ及び焦点長さの校正を制御するために、本発明の発明原理に従って構成される。
実際には、コントローラネットワーク20は、単一のワークステーションの中に組み込まれてもよいし、何らかのやり方で複数のワークステーション間に分散されてもよい。
図2は、コントローラネットワーク20による制御スキーム10の例示的な実装を示している。
図1及び2を参照するに、X線コントローラ30は、X線源33とイメージインテンシファイア34との間に延在するX線画像空間35のX線画像36を収集するために、技術的に理解されるように、X線源33及びイメージインテンシファイア34を使用するX線モダリティ32の動作を制御するためのX線作動コマンド31を生成する。
ロボット内視鏡コントローラ40は、技術的に理解されるように、内視鏡45の遠位焦点端46を介して内視鏡ビデオ信号を収集するために、極座標ロボット43によって保持されている内視鏡45によって構造的に画成されるロボット内視鏡42の動作を制御するためのロボット作動コマンド41を生成する。より具体的には、極座標ロボット43は構造的に、内視鏡45の長尺軸に沿って遠位焦点端46に位置を揃えられた遠隔運動中心44を確立する。技術的に理解されるように、内視鏡45からの内視鏡ビデオ信号をコンピュータ読み取り可能な内視鏡画像の時間フレームシーケンス(“EIF”)へと変換する能力を、ビデオキャプチャ装置47が備える。実際には、ビデオキャプチャ装置47は、内視鏡ビデオ信号から個々のデジタルスチルフレームをキャプチャするための何らかのタイプのフレームグラバ(捕捉部)を使用し得る。
技術的に理解されるように、RCM長さとは、極座標ロボット43のRCM44と内視鏡45の遠位焦点端46との間の距離であり、焦点長さとは、遠位焦点端46から延在する内視鏡45の視野の長さであり、これらの長さは、ロボット内視鏡校正段階11の実行前には未知である。
段階11にてこれらの長さを校正するため、校正コントローラ50は、RCM長さを校正するためのRCM長さ校正部51aと、ロボット内視鏡42の焦点長さを校正するための焦点長さ校正部51bとを含むロボット内視鏡キャリブレータ51を使用する。実際には、ロボット内視鏡キャリブレータ51は、技術的に理解されるようにX線座標空間内でのX線画像空間35の具体的な位置決めを命令するための、X線コントローラ30へのX線校正コマンド53を生成し、且つ/或いは、技術的に理解されるように極座標ロボット43のロボット座標空間内でのロボット内視鏡42の具体的な位置決めを命令するための、ロボット内視鏡コントローラ40へのロボット校正コマンド54を生成し得る。
ディスプレイコントローラ60は、技術的に理解されるようにX線画像36及び内視鏡画像48を個別に又は統合して示すためにディスプレイ/モニタ62の動作を制御する。統合画像について、校正コントローラ50は更に、校正された長さに基づいてX線画像36と内視鏡画像48とを統合する画像インテグレータ52を使用する。画像統合から、画像インテグレータ52は、画像統合データ56をディスプレイコントローラ60に提供し、それにより、ディスプレイコントローラ60が、ディスプレイ/モニタ62による表示のための統合X線/内視鏡画像61を生成する。
図1及び2をなおも参照して、以下にて、コントローラネットワーク20による制御スキーム10の実行を説明する。
ロボット内視鏡校正段階11
X線画像空間35内の内視鏡45の遠位焦点端46の複数の異なる姿勢のX線画像36から、ロボット内視鏡キャリブレータ51によって長さ校正が実行される。
実際には、内視鏡45は、X線画像空間内の唯一の物体であってもよいし、他の物体(例えば、解剖学的ファントム物体)及び/又は患者を伴っていてもよい。患者ありの場合、好ましくは、患者に追加の電離放射線を導入する必要なく、診断手順中にX線画像36が収集される。
実際には、X線コントローラ30が、ユーザ指令されて、あるいはロボット内視鏡キャリブレータ51からのX線校正コマンド53に応答して、X線画像空間35内の内視鏡45の遠位焦点端46の異なる姿勢のX線画像36を収集するのに必要なように、X線源33及びイメージインテンシファイア34を位置付け得る。X線画像36の収集の最中に(すなわち、オンザフライで)、又はそれに続いて、長さ校正が実行され得る。さらに、ロボット内視鏡コントローラ40が、ユーザ指令されて、あるいはロボット内視鏡キャリブレータ51からのロボット校正コマンド54に応答して、長さ校正を容易にするのに必要なように、X線画像空間35内で遠位焦点端46を異なる姿勢にて位置付け得る。
RCM長さ校正では、RCM長さ校正部51aが、図5及び6A−6Eに関連してここで更に説明されることになるように、2つ以上のX線画像36を処理する。焦点長さ校正では、焦点長さ校正部51bが、図7及び8A−8Dに関連してここで更に説明されることになるように、3つ以上のX線画像36を処理する。実際には、校正部51a及び51bは、これらの長さ校正を順次又は同時に実行し得る。また、校正部51a及び51bは、更なるX線画像36を用いて再校正又は精緻化され得る当初の長さ校正を実行する。
画像統合段階12
長さ校正の間の及び/又はそれに続く任意の時点で、画像インテグレータ52によって画像統合が実行される。
実際には、段階12において、図9A−9Dに関連してここで更に説明されるように、以下に限られないが、X線ポイント投影技術、内視鏡ポイント投影技術、内視鏡オーバレイ・オン・X線技術、及びX線/内視鏡画像融合技術を含め、何らかの知られた画像統合技術が、画像インテグレータ52によって実行され得る。
ロボット内視鏡誘導段階13
当初の長さ校正及びその再校正の完了を受けて、及び何らかの精緻化校正中に、ロボット内視鏡キャリブレータ51によって提供された、長さ校正の情報を与える長さ校正データ55の処理を介して、ロボット内視鏡コントローラ40により、ロボット内視鏡42の誘導が実行される。
実際には、段階13において、以下に限られないが、X線画像36内の標的ポイントの選択を含め、何らかの知られたロボット誘導技術が、ロボット内視鏡コントローラ40によって実行され、それにより、ロボット内視鏡コントローラ40が、標的ポイントを内視鏡画像48内の中心に置いてX線画像空間35内に遠位焦点端46を位置付けるためのロボット作動コマンド41を生成し得る。
低侵襲処置
実際には、段階11及び/又は12は、段階13を組み入れる低侵襲処置の実行の前及び/又は最中に実行され得る。従って、段階11における校正コントローラ50による長さ校正は、ユーザ始動されてもよいし、X線画像36の最初の収集に応答したものであってもよい。何れの場合も、コントローラネットワーク20は、必要に応じて、当初の長さ校正の後まで低侵襲処置の実行を防止する安全対策を実行してもよい。
本発明の更なる理解を容易にするため、以下の図3−9の説明は、図3に示すロボット内視鏡を組み入れる長さ校正法の基本的な発明原理を教示する。この説明から、当業者は、他のロボット内視鏡へのこの長さ校正法の発明原理の適用の仕方を理解することになる。
図3を参照するに、極座標ロボット70は、回転軸RA1を持つアクチュエータ71と、回転軸RA2を持つアクチュエータ72と、支持アーク73と、回転軸EAを持つ金属製内視鏡80を保持するエンドイフェクタ75を含む器具アーク74とを使用する。支持アーク73は、アクチュエータ71及びアクチュエータ72に同軸接続され、器具アーク74は、アクチュエータ72に同軸接続されている。重要なことには、
(1)回転軸RA1、RA2及びEAは、極座標ロボット70の遠隔運動中心76で交差し、
(2)支持アーク73のベースアーチ長θは、回転軸RA1とRA2との間を延在し、
(3)器具アーク74の延在アーク長θE1は、回転軸RA1とEAとの間を延在し、
(4)アクチュエータ71は、内視鏡80の遠位焦点端82の幅広い動きを制御するために所望の角度φで回転軸RA1を中心にアーク73及び74を共に回転させるように命令されることができ、
(5)アクチュエータ72は、内視鏡80の遠位焦点端82の狙いを定めた動きを制御するために所望の角度φで回転軸RA2を中心に器具アーク74を回転させるように命令されることができ、
(6)エンドイフェクタ75は、手動で、又は制御されて、内視鏡80をその回転軸EAを中心に回転させる能力を持ち、
(7)RCM長さLRCMは、RCM76と遠位焦点端82との間の距離であり、且つ
(8)焦点長さ(図示せず)は、内視鏡80のアイピース81から見える遠位焦点端82から延在する内視鏡80の視野の長さである。
図3及び4を参照するに、X線モダリティ90は、X線画像空間94を確立するようにX線源92とイメージインテンシファイア93とを位置合わせしているCアーム91を使用する。X線テーブル95に取り付けられた受動アーム96にロボット70が取り付けられ、それにより、遠位焦点端82がX線画像空間94内に位置付けられ、また、RCM76は、X線画像空間94内に位置付けられることもあるし、そうでないこともある。
図3及び4をなおも参照するに、校正ワークステーション100は、モニタ101と、インタフェースプラットフォーム102(例えば、キーボード、ボタン、ダイアル、ジョイスティックなど)と、クライアントコンピュータ103と、ワークステーションコンピュータ103内に組み込まれたコントローラネットワーク104とを使用する。
コントローラネットワーク104は、X線コントローラ105と、ロボット内視鏡コントローラ106と、校正コントローラ107と、ディスプレイコントローラ108とを含んでいる。実際には、コントローラ105−108は、クライアントコンピュータ103の中で、分割されていてもよいし、何らかの程度で統合されていてもよい。代替例では、X線コントローラ105は、X線モダリティ90のワークステーション(図示せず)に組み込まれていてもよく、また、内視鏡コントローラ106は、ロボット70のワークステーション(図示せず)に組み込まれていてもよく、それにより、クライアントコンピュータ103は、必要に応じてX線コントローラ105及び/又は内視鏡コントローラ106にアクセスするためにモニタ101及びユーザインタフェース102を介したユーザインタフェースを提供する。このような代替例に関し、ディスプレイコントローラ108は、各ワークステーションに組み込まれてもよい。
ワークステーションコンピュータ103は、今から図5−9Dに関連してここで説明されるように、コントローラネットワーク104による長さ校正法の実行を支援するよう、極座標ロボット70、内視鏡80、及びX線モダリティ90に接続/結合される。
図5は、本発明のRCM長さ校正法を表すフローチャート110を例示している。
図3−5を参照するに、フローチャート110の理解を容易にするために、図6A−6Eに示されるような、X線画像空間94内の患者の心臓に対して異なる姿勢E1及びE2の遠位焦点端82の2つの例示的なX線画像97(X1)及び97(X2)が提供される。X線画像97の収集は、Cアーム91を静止して位置付けることと、ユーザ命令されるように、又は校正コントローラ107によって作動命令されるように、X線画像空間94内の遠位焦点端82の姿勢E1とE2との間でロボット70を動的に位置付けることとを含む。
図3−5を参照するに、フローチャートのステージS112は、校正コントローラ107が、X線画像97(X1)の画像平面内で内視鏡80の輪郭を描くことを含む。この目的で、校正コントローラ107は、以下の一連のステップを実行する。
第1に、校正コントローラ107は、黒色画素閾値を適用して、図6Aに示されるX線画像空間内の金属製内視鏡80の姿勢E1を表すX線画像97(X1)の高減衰領域を選択する。
第2に、校正コントローラ107は、輪郭フィッティング技術を実行して、フリーフォーム(自由造形)輪郭で内視鏡の外形を描く。輪郭フィッティング技術の例は、以下に限られないが、動的輪郭法及び境界線追跡法を含む。実際には、黒色画素閾値分け及び輪郭の短寸法性からのノイズに対処するために、最小の輪郭長さが使用され得る。
校正コントローラ107は、このフリーフォーム輪郭を、図6Cに示されるように内視鏡姿勢80(E1)の四辺で縁取られた多角形83(CP1)をフィッティングする最小二乗フィッティング法への入力として使用する。注目すべきことには、このステップは、遠近法による変形及び平面切断の関数として、内視鏡80がX線画像97(X1)内で凸四辺形として見え得ることに依拠している。
第3に、校正コントローラ107は、X線画像97(X1)の画像平面内で、輪郭多角形83(CP1)の遠位端から、内視鏡80(E1)の推定RCM長さを超える距離で延在する、図6Cに示されるような主軸84(PA1)を計算する。主軸84(PA1)は、以下に限られないがハフ変換を含め、何らかの知られたモデル化技術に従って計算され得る。
第4に、校正コントローラ107は、主軸84(P1)の垂線に沿って内視鏡80(E1)の平均厚さthxE1を計算する。内視鏡80(E1)の平均厚さthxE1は、以下に限られないがハフ変換を含め、何らかの知られたモデル化技術に従って計算され得る。
第5に、校正コントローラ107は、tE1=[xtE1,ytE1]として記録するX線座標空間内の位置にて、X線画像97(X1)内の内視鏡80(E1)の遠位焦点端を検出する。
これら5つのステップが、図6Bに示されるX線画像97(X2)に関して繰り返されることで、X線画像97(X2)の画像平面内で輪郭多角形83(CP2)の遠位端から延在する図6Dに示されるような主軸84(PA2)の計算と、主軸84(PA2)の垂線に沿った内視鏡80(E2)の平均厚さthxE2の計算と、tE2=[xtE2,ytE2]として記録されるX線座標空間内の位置での内視鏡80(E2)の遠位焦点端の検出とがもたらされる。
フローチャート110のステージS114は、校正コントローラ107が、図3に示されるような内視鏡RCM長さLRCMを計算することを含む。この目的のため、校正コントローラ107は、以下の一連のステップを実行する。
第1に、校正コントローラ107は、図6Eに示されるようなRCM交差85を、X線画像97(X1)及び97(X2)の等しい画像平面内での主軸84(PA1)と主軸84(PA2)との交差上の点として検出する。
第2に、校正コントローラ107は、RCM交差85と先に検出された内視鏡80(E1)の遠位焦点端との間の主軸84(PA1)のRCM長さLRCM1と、RCM交差85と先に検出された内視鏡80(E2)の遠位焦点端との間の主軸84(PA2)のRCM長さLRCM2とを計算する。実際には、RCM長さLRCM1及びRCM長さLRCM2は、画素数によって規定されるユークリッド距離として計算され得る。
第3に、校正コントローラ107は、次式[1]:
=f*(th/th) [1]
に従って、イメージインテンシファイア93からの内視鏡80の深さDを計算する。ただし、
fは、X線画像空間94の焦点長さであり(DICOMにおけるSIDタグから分かる)、
thは、既知の又は推定される内視鏡80の厚さであり、そして
thは、画像化された内視鏡80(E1)及び内視鏡80(E2)の平均厚さ(thxE1+thxE2)/2である。
実際には、内視鏡厚さthの推定に関し、大抵の商業的に知られた内視鏡は、5mm又は10mmの厚さを有している。従って、校正コントローラ107は、全ての取り得るサイズについて深さを計算し、更なる経験則を用いて内視鏡厚さthを決定し得る。例えば、Cアーム91の回転中心の付近±200mmに内視鏡80が配置されることが見込まれ得る。この情報を用いて、推定の目的で、適切な内視鏡厚さthが校正コントローラによって選択され得る。さらに、術中X線コントローラ105が患者平面を計算してもよく、これがX線モダリティ90のDICOM情報に追加され、それにより、校正コントローラは、患者平面に最も近い深さに合致する内視鏡厚さthを選択し得る。
X線撮像が数学的にピンホールカメラに等価であるとの概算を用いて、校正コントローラ107は、次式[2]:
RCM=(f*D)/LRCMX [2]
に従って、内視鏡RCM長さLRCMを計算する。ただし、
fは、X線画像空間94の焦点長さであり(DICOMにおけるSIDタグから分かる)、
は、式[1]に従った、イメージインテンシファイア93からの内視鏡80の深さであり、そして
RCMXは、画像化された内視鏡80(E1)及び内視鏡80(E2)の平均RCM長さ(LRCM1+LRCM2)/2である。
フローチャート110の終了を受けて、校正コントローラ107は、画像統合及びロボット内視鏡誘導の目的のため、ロボット内視鏡のRCM長さを校正されたことになる。
図7は、本発明のRCM長さ校正法を表すフローチャート120を例示している。
図3、4及び7を参照するに、フローチャート120の理解を容易にするために、図8A−8Dに示されるような、X線画像空間94内の患者の心臓に対して異なる姿勢E1、E2及びE3の遠位焦点端82の3つの例示的なX線画像97(X1)、97(X2)及び97(X3)が提供される。X線画像97の収集は、Cアーム91を静止して位置付けることと、ユーザ命令されるように、又は校正コントローラ107によって作動命令されるように、X線画像空間94内の遠位焦点端82の姿勢E1−E3の間でロボット70を動的に位置付けることとを含む。
フローチャート120は、Cアーム座標空間98(図8B)とX線画像空間94(図4)とが、ステージS114(図5)に関連してここで先述したようにして計算されるか、又は次式[3]及び[4]:
x=fx*(X/Z) [3]
y=fy*(Y/Z) [4]
に従ってDICOMから推定されるかである既知の焦点長さfx及び既知の深さ(Z)を介して関係付けられることを前提とする。ただし、
x及びyは、X線画像空間94(図3)でのインデックスであり、そして
X、Y、Zは、Cアーム座標空間98(図8B)の点(ポイント)である。
ロボット座標空間及び内視鏡座標空間は、内視鏡80の焦点長さfが分かっていないので校正されていない。ピンホールモデルが、次式[5]:
Figure 0006715823
に従うと仮定すると、Cアーム座標空間98内の3Dの点[X,Y,Z]に対し、[xe,ye]が内視鏡画像空間88(図8B)内の点となる。ただし、は、Cアーム座標と内視鏡座標との間での座標変換である。
カメラは内視鏡80の遠位焦点端にあり、ロボットイフェクタ端のロボットRCM76(図3)への変換は、ロボット運動学及びRCM長さLRCM(図3)から、以下の式[6]−[26]:
Figure 0006715823
に従って分かる。
従って、変換は、次式[27]:
は= [27]
によって表され得る。ただし、
は、Cアーム90からロボットイフェクタ先端75への変換であり、
は、ロボット70からロボットイフェクタ先端75への変換であり、そして、
は、Cアーム90からロボット70への変換である。
焦点長さfcを計算するため、フローチャート120は、X線画像と内視鏡画像との間のポイントマッチング[x y]←→[xe ye]と、と、Cアーム撮像モデルから取り出され得る3DポイントX,Y,Zとを使用する。
具体的には、フローチャート120のステージS122は、校正コントローラ107が、ロボット70をCアームに対してレジストレーションすることを含む。このレジストレーションは、6つの未知変数(3つの回転及び3つの並進)を決定するために各々2つのデータポイント(x及びy)を有する3つのX線画像97(図8A)を必要とする画像ベースの方法を用いて達成される。
第1に、全てのX線画像97について、校正コントローラ107は、X線画像空間94における内視鏡80の遠位焦点端の位置を検出するとともに、ロボット座標空間における検出された位置を記録する。
第2に、校正コントローラ107は、Cアーム91のモデル及び既知の深さから、Cアーム3D空間98における内視鏡80の遠位焦点端の位置を計算する。
第3に、校正コントローラ107は、検出/計算された位置から、知られたポイントベースのレジストレーションを実行する。実際には、校正コントローラ107は、レジストレーションの現在の残余誤差をワークステーションのユーザ/オペレータに指し示し、それにより、ユーザ/オペレータが、残余誤差を最小化するために、選択的に追加のX線画像を収集し得る。
フローチャート120のステージS124は、校正コントローラ107が、X線画像と内視鏡画像との間のポイントマッチング([x y]←→[xe ye])を実行ことを含む。実際には、双方の画像内で見える少なくとも1つのポイントが特定されなければならない。この特定は、例えば、図8Cに示されるように、X線画像97及び内視鏡画像86の双方内で動脈分岐部をマーキングすることによってなど、手動で行われ得る。他の例では、X線画像及び内視鏡画像が術前画像(例えば、MRI又はCT画像)に対してレジストレーションされる場合、校正コントローラ107は、例えば、図8Dに示されるように、X線画像97及び内視鏡画像86の中で校正コントローラ107によって特定されるレジストレーションされたMRI画像のポイントなど、双方の画像内で視認可能なポイントを特定し得る。
フローチャート120のステージS126は、校正コントローラ107が、ステージS122及びS124にて計算されたデータから、上述の式[5]:
Figure 0006715823
に従った式に従って、内視鏡の焦点長さfcを計算することを含む。
図5及び7を参照するに、実際には、校正コントローラ107は、フローチャート110及び120を順次又は同時に実行し得る。また、校正コントローラ107は、更なるX線画像を用いて再校正又は精緻化され得る当初の長さ校正を実行する。
段階12(図1)に関して先述したように、長さ校正により、知られた画像統合技術が、図9Aに例示的に示されるようなX線ポイント投影140、図9Bに例示的に示されるような内視鏡ポイント投影141、図9Cに例示的に示されるような内視鏡オーバレイ・オン・X線142ポイント投影、及び、図9Dに例示的に示されるようなX線/内視鏡画像融合によって実行され得る。
具体的には、図9Aを参照するに、X線ポイント投影140は、校正コントローラ107によってCアーム座標空間に三角測量されたX線画像97(X1)及び97(X2)の中でユーザ特定された標的ポイントが、双方の撮像モダリティのピンホールモデル及び内視鏡80の既知の校正を用いて、内視鏡80の画像空間へと投影される。例えば、図示のように、X線空間内で特定された狭窄が内視鏡画像空間上に投影されることで、内視鏡画像内でバイパスのための位置を特定することを可能にし得る。この投影は、内視鏡の視野の内側であることもあるし、外部で、画像の拡張平面上に投影されることもある。
図9Bを参照するに、同じ投影法を用いて、2つの内視鏡画像86からのポイントがX線画像97に投影される。このタイプの投影のため、校正コントローラ107は、Cアーム91の最適位置を計算することによってX線画像収集をガイドし、それにより、内視鏡画像の特定の部分が、遠近法で小さくなることを最小にして収集され、あるいは最小数のX線収集で発見される。
図9Cを参照するに、内視鏡画像のオーバレイ87が計算され、また、ロボット70の少なくとも1つの動きを受けてオーバレイ87がCアーム座標空間で再計算され、そして、X線画像97(X1)上に投影される。
図9Dを参照するに、X線画像97’及び内視鏡画像87が、同一の座標フレーム内で共に融合される。図示のように、校正コントローラ107は、内視鏡画像87の視点からX線画像97’が眺められるように、透視変換を用いてX線画像97(図9C)を変形する。内視鏡80と同じようにCアーム91を方向付けることが実際的でない(例えば、内視鏡80が、そのCアーム方向からのx線画像を妨害している)場合、この可視化は、内視鏡80の視野を拡大するのに役立つ。
段階13(図1)に関して先述したように、長さ校正及び画像統合により、今や、ロボット内視鏡70/80(図3)は、X線画像内での標的ポイントのユーザ選択によって、X線画像から誘導されることができ、それにより、ロボット内視鏡が、標的ポイントを内視鏡画像の中心とするように位置付けられることになる。
図1−9を参照するに、以下に限られないが、ワークフローの最小限の停止でロボット内視鏡を校正するロバストな手段を含め、本発明の数多くの利益が当業者によって理解されることになる。
また、ここに提供された教示に鑑みて当業者が理解するように、本開示/明細書に記載され且つ/或いは図1−9に描かれた機構、要素、コンポーネントなどは、電子部品/回路、ハードウェア、実行可能なソフトウェア、及び実行可能なファームウェアの様々な組み合わせで実装されることができ、また、単一の要素又は複数の要素に組み合わされ得る機能群を提供する。例えば、図1−9に示され/図示され/描かれた様々な機構、要素、コンポーネント等の機能は、専用のハードウェア、及び適切なソフトウェアに関連するソフトウェアを実行することが可能なハードウェアの使用を通じて提供され得る。プロセッサによって提供されるとき、これらの機能は、単一の専用プロセッサによって、単一の共有プロセッサによって、又は複数の個別のプロセッサによって提供されることができ、それらの一部が共有/多重化されてもよい。また、用語“プロセッサ”の明示的な使用は、ソフトウェアを実行することが可能なハードウェアを専ら指すようには解釈されるべきでなく、暗示的に、限定することなく、デジタル信号プロセッサ(“DSP”)ハードウェア、メモリ(例えば、ソフトウェアを格納する読み出し専用メモリ(“ROM”)、ランダムアクセスメモリ(“RAM”)、不揮発性ストレージなど)、並びにプロセスを実行及び/又は制御することが可能な(且つ/或いはコンフィギュラブルな)事実上あらゆる手段及び/又は機械(ハードウェア、ソフトウェア、ファームウェア、回路、これらの組み合わせなどを含む)を含み得る。
また、発明の原理、態様、及び実施形態、並びにこれらの具体的な例を記載するここでの全ての陳述は、それらの構造的及び機能的双方の均等物を包含することが意図されている。さらに、意図されることには、そのような均等物は、現在知られている均等物と将来開発される均等物(例えば、構造にかかわらず、同じ又は実質的に同様の機能を果たすことができる開発要素)との双方を含むものである。故に、例えば、ここに提供された教示に鑑みて当業者によって理解されるように、ここに提示されたブロック図は、発明の原理を具現化する例示的なシステムコンポーネント及び/又は回路の概念図を表し得る。同様に、ここに提供された教示に鑑みて当業者が理解するはずのことには、フローチャート、フロー図、及びこれらに類するものは、コンピュータ読み取り可能記憶媒体にて実質的に表されることができ且つコンピュータ、プロセッサ、又はプロセッシング能力を持つその他のデバイスによってそのように実行されることができる様々なプロセスを表し得る(そのようなコンピュータ又はプロセッサが明示的に示されていようとなかろうと)。
さらに、本発明の例示的な実施形態は、例えばコンピュータ又は何らかの命令実行システムによって又はそれとともに使用されるプログラムコード及び/又は命令を提供するコンピュータ使用可能及び/又はコンピュータ読み取り可能な記憶媒体からアクセス可能なコンピュータプログラムプロダクト又はアプリケーションモジュールの形態をとることができる。本開示によれば、コンピュータ使用可能又はコンピュータ読み取り可能な記憶媒体は、命令実行システム、装置又はデバイスによる使用又はそれとともにの使用のためにプログラムを例えば含む、格納する、通信する、伝播する、又は輸送することができる如何なる装置ともし得る。そのような例示的な媒体は、例えば、電子式、磁気式、光学式、電磁気式、赤外線式、又は半導体のシステム(又は装置若しくはデバイス)、又は伝搬媒体とし得る。コンピュータ読み取り可能媒体の例は、例えば、半導体メモリ若しくはソリッドステートメモリ、磁気テープ、リムーバブルコンピュータディスケット、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、フラッシュ(ドライブ)、リジッドな磁気ディスク及び光ディスクを含む。光ディスクの現行例は、コンパクトディスク読み出し専用メモリ(CD−ROM)、書換可能コンパクトディスク(CD−R/W)、及びDVDを含み得る。また、理解されるべきことには、今後開発され得る新しいコンピュータ読み取り可能媒体も、本発明及び開示の例示的な実施形態に従って使用又は参照され得るコンピュータ読み取り可能媒体と見なされるべきである。
なお、低侵襲処置のためのX線スイート内のロボット内視鏡に関する新規で独創的な校正手順の好適で例示的な実施形態を説明してきたが(これらの実施形態は例示的なものであって限定的なものではない)、図1−9を含め、ここに提供された教示を受けた当業者によって、変更及び変形が為され得る。故に、理解されるべきことには、本開示の好適で例示的な実施形態に、ここで開示された実施形態の範囲内である変更が為され得る。
また、企図されることには、本開示に従った装置を組み込む及び/又は実装する、又はそのような装置で使用/実装され得る、対応及び/又は関係するシステムも、本発明の範囲内であると見なされるものである。さらに、本開示に従った装置及び/又はシステムを製造及び/又は使用する対応及び/又は関係する方法も、本発明の範囲内であると見なされるものである。

Claims (15)

  1. X線モダリティのX線画像空間内に遠位端を持つ内視鏡を含んだロボット器具を校正するワークステーションであって、
    前記X線画像空間内の前記ロボット器具の異なる姿勢での前記遠位端の複数のX線画像の、前記X線モダリティによる生成に応答して、前記ロボット器具のRCM長さの校正を制御するように動作する校正コントローラと、
    前記校正コントローラによる前記ロボット器具の前記RCM長さの前記校正に応じて、前記X線画像空間内での前記ロボット器具の誘導を制御するように、前記校正コントローラと通信して動作するロボット器具コントローラと、
    を有するワークステーション。
  2. 前記校正コントローラは、前記X線画像が前記X線モダリティによって生成されるときに、前記ロボット器具の前記RCM長さの前記校正を制御するように動作する、請求項1に記載のワークステーション。
  3. 前記校正コントローラによる前記ロボット器具の前記RCM長さの前記校正の制御は、
    前記校正コントローラが、前記X線画像のうちの少なくとも2つに応じて、前記ロボット器具の前記RCM長さを計算するように動作すること
    を含む、請求項1に記載のワークステーション。
  4. 前記校正コントローラによる前記ロボット器具の前記RCM長さの計算は、
    前記校正コントローラが、前記X線画像のうちの前記少なくとも2つの各々の画像平面内で前記ロボット器具を輪郭描写するように動作すること
    を含む、請求項3に記載のワークステーション。
  5. 前記校正コントローラによる前記ロボット器具の前記RCM長さの前記計算は更に、
    前記校正コントローラが、前記少なくとも2つのX線画像の前記画像平面内で輪郭描写された前記ロボット器具の交差点の関数として、前記ロボット器具の前記RCM長さを計算するように動作すること
    を含む、請求項4に記載のワークステーション。
  6. 記校正コントローラは更に、前記X線画像の前記X線モダリティによる前記生成に応答して、また更に、前記X線画像空間の少なくとも1つの内視鏡画像の、前記ロボット器具による生成に応答して、前記ロボット器具の焦点長さの校正を制御するように動作する、
    請求項1に記載のワークステーション。
  7. 前記校正コントローラは、前記X線画像が前記X線モダリティによって生成され、且つ前記少なくとも1つの内視鏡画像が前記ロボット器具によって生成されるときに、前記ロボット器具の前記焦点長さの前記校正を制御するように動作する、請求項6に記載のワークステーション。
  8. 前記ロボット器具コントローラは更に、前記校正コントローラによる前記ロボット器具の前記RCM長さ及び前記焦点長さの前記校正に応じて、前記X線画像空間内での前記ロボット器具の誘導を制御するように、前記校正コントローラと通信して動作する、請求項7に記載のワークステーション。
  9. 前記校正コントローラは更に、前記ロボット器具の前記焦点長さの前記校正に応じて、前記X線画像と前記少なくとも1つの内視鏡画像とを統合するように動作する、請求項6に記載のワークステーション。
  10. 前記校正コントローラによる前記X線画像と前記少なくとも1つの内視鏡画像との前記統合の表示を制御するように、前記校正コントローラと通信して動作するディスプレイコントローラ、
    を更に有する請求項9に記載のワークステーション。
  11. 前記校正コントローラによる前記ロボット器具の前記焦点長さの前記校正の制御は、
    前記校正コントローラが、前記X線画像のうちの少なくとも3つ及び前記少なくとも1つの内視鏡画像に応じて、前記ロボット器具の前記焦点長さを計算するように動作すること
    を含む、請求項6に記載のワークステーション。
  12. 前記校正コントローラによる前記焦点長さの計算は更に、
    前記校正コントローラが、前記少なくとも3つのX線画像に応じて、前記ロボット器具に対して前記X線モダリティをレジストレーションするように動作すること
    を含む、請求項11に記載のワークステーション。
  13. 前記校正コントローラによる前記ロボット器具の前記焦点長さの前記計算は更に、
    前記校正コントローラが、前記ロボット器具に対する前記X線モダリティのレジストレーションに基づいて、前記少なくとも3つのX線画像と前記少なくとも1つの内視鏡画像との間でポイントマッチングを実行するように動作すること
    を含む、請求項12に記載のワークステーション。
  14. 前記校正コントローラによる前記ロボット器具の前記焦点長さの前記計算は更に、
    前記校正コントローラが、前記ロボット器具に対する前記X線モダリティの前記レジストレーションに応じて、また更に、前記少なくとも3つのX線画像と前記少なくとも1つの内視鏡画像との間での前記ポイントマッチングに応じて、前記ロボット器具の前記焦点長さを計算するように動作すること
    を含む、請求項13に記載のワークステーション。
  15. X線モダリティのX線画像空間内に遠位端を持つ内視鏡を含んだロボット器具を校正する校正コントローラであって、
    前記X線画像空間内の前記ロボット器具の異なる姿勢での前記遠位端の複数のX線画像の、前記X線モダリティによる生成に応答して、また更に、前記X線画像空間の少なくとも1つの内視鏡画像の、前記ロボット器具による生成に応答して、前記ロボット器具のRCM長さ及び焦点長さを校正するように動作するロボット器具キャリブレータと、
    前記ロボット器具キャリブレータによる前記ロボット器具の前記RCM長さ及び前記焦点長さの校正に応じて、前記X線画像と前記少なくとも1つの内視鏡画像とを統合するように、前記ロボット器具キャリブレータと通信して動作する画像インテグレータと、
    を有する校正コントローラ。
JP2017502117A 2014-07-15 2015-07-14 X線スイートにおける画像統合及びロボット内視鏡制御 Expired - Fee Related JP6715823B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201462024532P 2014-07-15 2014-07-15
US62/024,532 2014-07-15
PCT/IB2015/055305 WO2016009339A1 (en) 2014-07-15 2015-07-14 Image integration and robotic endoscope control in x-ray suite

Publications (2)

Publication Number Publication Date
JP2017525427A JP2017525427A (ja) 2017-09-07
JP6715823B2 true JP6715823B2 (ja) 2020-07-01

Family

ID=54151324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017502117A Expired - Fee Related JP6715823B2 (ja) 2014-07-15 2015-07-14 X線スイートにおける画像統合及びロボット内視鏡制御

Country Status (5)

Country Link
US (1) US10702346B2 (ja)
EP (1) EP3169264A1 (ja)
JP (1) JP6715823B2 (ja)
CN (1) CN106572887B (ja)
WO (1) WO2016009339A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023022257A1 (ko) * 2021-08-19 2023-02-23 한국로봇융합연구원 복강경 카메라 홀더 로봇 제어시스템 및 제어방법

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4755638B2 (ja) 2004-03-05 2011-08-24 ハンセン メディカル,インク. ロボットガイドカテーテルシステム
US10932691B2 (en) 2016-01-26 2021-03-02 Auris Health, Inc. Surgical tools having electromagnetic tracking components
US11399901B2 (en) 2016-03-31 2022-08-02 Koninklijke Philips N.V. Image guided robotic system for tumor aspiration
US11324554B2 (en) * 2016-04-08 2022-05-10 Auris Health, Inc. Floating electromagnetic field generator system and method of controlling the same
JP7133474B2 (ja) * 2016-05-31 2022-09-08 コーニンクレッカ フィリップス エヌ ヴェ 内視鏡画像及び超音波画像の画像ベースの融合
DE102016225613A1 (de) * 2016-12-20 2018-06-21 Kuka Roboter Gmbh Verfahren zum Kalibrieren eines Manipulators eines diagnostischen und/oder therapeutischen Manipulatorsystems
CN110678141A (zh) * 2017-03-31 2020-01-10 皇家飞利浦有限公司 无标记机器人跟踪系统、控制器和方法
EP3648674A1 (en) * 2017-07-07 2020-05-13 Koninklijke Philips N.V. Robotic instrument guide integration with an acoustic probe
US11925308B2 (en) * 2018-02-16 2024-03-12 Board Of Supervisors Of Louisiana State University And Agricultural And Mechanical College Ionizing radiation-free dental imaging by near-infrared fluorescence, and related systems
US11816831B2 (en) 2020-04-29 2023-11-14 Medtronic Navigation, Inc. System and method for navigating and illustrating a procedure
US11890060B2 (en) * 2020-04-29 2024-02-06 Medtronic Navigation, Inc. System and method for navigating and illustrating a procedure
US11596567B2 (en) * 2020-10-05 2023-03-07 Mazor Robotics Ltd. Systems and methods for determining and maintaining a center of rotation

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1450683A4 (en) * 2001-11-08 2009-11-11 Univ Johns Hopkins Med SYSTEM AND METHOD FOR ROBOT TARGETING BY FLUOROSCOPY BASED ON IMAGE ENHANCEMENT
EP1472579B1 (en) * 2002-02-06 2013-05-01 The Johns Hopkins University Remote center of motion robotic system
WO2003091839A2 (en) * 2002-04-25 2003-11-06 The John Hopkins University Robot for computed tomography interventions
EP1689290A2 (en) * 2003-10-21 2006-08-16 The Board of Trustees of The Leland Stanford Junior University Systems and methods for intraoperative targeting
US20060036162A1 (en) * 2004-02-02 2006-02-16 Ramin Shahidi Method and apparatus for guiding a medical instrument to a subsurface target site in a patient
EP1865850B1 (en) * 2005-03-29 2012-12-05 Koninklijke Philips Electronics N.V. Method and apparatus for the observation of a catheter in a vessel system
JP2006320427A (ja) * 2005-05-17 2006-11-30 Hitachi Medical Corp 内視鏡手術支援システム
US8620473B2 (en) * 2007-06-13 2013-12-31 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US8086004B2 (en) * 2008-01-15 2011-12-27 Accuray Incorporated Use of a single X-ray image for quality assurance of tracking
WO2011083374A1 (en) * 2010-01-08 2011-07-14 Koninklijke Philips Electronics N.V. Uncalibrated visual servoing using real-time velocity optimization
WO2011086431A1 (en) * 2010-01-13 2011-07-21 Koninklijke Philips Electronics N.V. Image integration based registration and navigation for endoscopic surgery
US20120071752A1 (en) * 2010-09-17 2012-03-22 Sewell Christopher M User interface and method for operating a robotic medical system
WO2012172474A1 (en) * 2011-06-17 2012-12-20 Koninklijke Philips Electronics N.V. System and method for guided injection during endoscopic surgery
CN104105455B (zh) 2011-12-03 2017-04-19 皇家飞利浦有限公司 内窥镜手术中的超声探头的机器人引导
JP2015506188A (ja) 2011-12-21 2015-03-02 コーニンクレッカ フィリップス エヌ ヴェ 容積測定モダリティからの構造の未較正内視鏡のビデオへのオーバレイ及び動き補償
US11278182B2 (en) * 2012-06-28 2022-03-22 Koninklijke Philips N.V. Enhanced visualization of blood vessels using a robotically steered endoscope
CN104411248B (zh) * 2012-06-28 2017-09-26 皇家飞利浦有限公司 在内窥镜外科手术中用于最佳图像采集的c型臂轨迹规划
BR112015001895A2 (pt) * 2012-08-02 2017-07-04 Koninklijke Philips Nv sistema cirúrgico robótico, e método robótico
KR101997566B1 (ko) * 2012-08-07 2019-07-08 삼성전자주식회사 수술 로봇 시스템 및 그 제어방법
US9057600B2 (en) * 2013-03-13 2015-06-16 Hansen Medical, Inc. Reducing incremental measurement sensor error
US9014851B2 (en) * 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
KR20150128049A (ko) * 2014-05-08 2015-11-18 삼성전자주식회사 수술 로봇 및 그 제어방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023022257A1 (ko) * 2021-08-19 2023-02-23 한국로봇융합연구원 복강경 카메라 홀더 로봇 제어시스템 및 제어방법

Also Published As

Publication number Publication date
WO2016009339A1 (en) 2016-01-21
JP2017525427A (ja) 2017-09-07
CN106572887A (zh) 2017-04-19
CN106572887B (zh) 2020-05-12
US20170196643A1 (en) 2017-07-13
US10702346B2 (en) 2020-07-07
EP3169264A1 (en) 2017-05-24

Similar Documents

Publication Publication Date Title
JP6715823B2 (ja) X線スイートにおける画像統合及びロボット内視鏡制御
US11759266B2 (en) Robotic systems for determining a roll of a medical device in luminal networks
US20220346886A1 (en) Systems and methods of pose estimation and calibration of perspective imaging system in image guided surgery
JP6714085B2 (ja) ロボット手術のために仮想現実デバイスを使用するシステム、コントローラ、及び方法
JP6835850B2 (ja) 手術ロボットの制御のためのシステム、制御ユニット、及び方法
US11564748B2 (en) Registration of a surgical image acquisition device using contour signatures
JP6290372B2 (ja) カスタム套管針を使用したロボット遠隔運動中心点の位置特定
US9629595B2 (en) Systems and methods for localizing, tracking and/or controlling medical instruments
KR20200073245A (ko) 항행(navigation)을 위한 이미지 기반 분지(branch) 감지 및 매핑
JP7041068B2 (ja) 剛性近位部及びフレキシブル遠位部を有するハイブリッドロボットを制御するための制御ユニット、システム、及び方法
US20160066768A1 (en) Robotic control of an endoscope from anatomical features
JP7451686B2 (ja) 器具画像信頼性システム及び方法
CN107847111B (zh) 根据体积图像的交互式平面切片的内窥镜引导

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170314

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200512

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200609

R150 Certificate of patent or registration of utility model

Ref document number: 6715823

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees