JP6251681B2 - 血管ツリー画像の内視鏡的位置合わせ - Google Patents

血管ツリー画像の内視鏡的位置合わせ Download PDF

Info

Publication number
JP6251681B2
JP6251681B2 JP2014537775A JP2014537775A JP6251681B2 JP 6251681 B2 JP6251681 B2 JP 6251681B2 JP 2014537775 A JP2014537775 A JP 2014537775A JP 2014537775 A JP2014537775 A JP 2014537775A JP 6251681 B2 JP6251681 B2 JP 6251681B2
Authority
JP
Japan
Prior art keywords
image
tree
arterial
blood vessel
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014537775A
Other languages
English (en)
Other versions
JP2015501183A (ja
Inventor
ポポヴィッチ,アレクサンドラ
エルハワリー,ハイサム
スティーヴン ホール,クリストファー
スティーヴン ホール,クリストファー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2015501183A publication Critical patent/JP2015501183A/ja
Application granted granted Critical
Publication of JP6251681B2 publication Critical patent/JP6251681B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Gynecology & Obstetrics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Quality & Reliability (AREA)
  • Endoscopes (AREA)

Description

本出願は、2011年9月13日に出願された、PCT/IB2011/053998「血管ツリー画像に基づく内視鏡のロボット制御」という名称の共同所有された特許出願の優先権を主張する。
本発明は、一般に、術前3次元(「3D」)血管ツリー画像を、術中内視鏡血管ツリー画像と術中位置合わせすることに関する。本発明は、詳細には、心臓の外科的手術の間における血管ツリーのトポロジの任意の変化に対処する方法を組み込んだ術中位置合わせに関する。
冠動脈バイパス術(「CABG」:Coronary Artery Bypass Grafting)は、閉塞した冠動脈の血管再生のための外科的手術である。約50万件の手術が、毎年米国で実施されている。従来のCABGでは、患者の胸骨が切開され、患者の心臓が、外科医に十分に露出される。心臓が露出しているにもかかわらず、いくつかの動脈は、それら動脈より上の脂肪組織層に起因して、部分的に見えないことがある。このような動脈に関して、外科医は、心臓表面を触診し、動脈からの脈打つ血液及び動脈の狭窄を感じることができる。しかしながら、このデータは、貧弱であり、外科的な計画を外科的な現場に移すには十分でないことがある。
最小侵襲性のCABGにおいて、外科医は、心臓表面を触診することができないので、従来のCABGの上述の問題が増幅される。さらに、最小侵襲性のCABGにおいて使用される外科器具の長さは、ツールの近位端からの触覚フィードバックを妨げる。
従来のCABGに関する問題に対処するための1つの知られている技術は、術中の部位を、術前3D冠動脈ツリーと位置合わせすることである。具体的には、光学的に追跡されるポインタが、開かれた心臓状況で動脈の位置をデジタル化するために使用され、位置データが、当分野で知られている反復的な最近接点(「ICP」:Iterative Closest Point)アルゴリズムを使用して術前ツリーと位置合わせされる。しかしながら、この技術は、デジタル化された動脈及び術前データをマッチングする任意の関連するアプローチの場合のように、小さいポートアクセスによって課される空間的制約のため、最小侵襲性のCABGに関して実際的でない。さらに、この技術は、動脈の大部分が目に見えること又は外科医によって触診されることを必要とするが、これは、最小侵襲性のCABGでは不可能である。
最小侵襲性のCABGに関する問題に対処するための1つの知られている技術は、心臓表面が、光学的に追跡される内視鏡を使用して再構成され、同じ表面の術前コンピュータトモグラフィ(「CT」:Computer Tomography)データとマッチングされる、位置合わせ方法を実施することである。しかしながら、この技術は、表面を導出するために使用される内視鏡ビューがあまりに小さい場合、表面ベースのマッチングを提案する任意の関連するアプローチと同様に、失敗することがある。さらに、心臓表面は、特定の表面特徴がなく相対的に滑らかであるので、この技術のアルゴリズムは、多くの場合、アルゴリズムの準最適の極大で機能する。
最小侵襲性のCABGに関する問題に対処するための別の知られている技術は、以前にラベル付けされたケース及びグラフベースのマッチングのデータベースを使用して、新しい患者から抽出される冠動脈ツリーをラベル付けすることである。しかしながら、この技術は、完全なツリーが利用可能な場合のみ機能し、その目標は、ジオメトリをマッチングすることではなく、ツリーをラベル付けすることである。
術前3D画像に対する大局的な位置合わせが達成されると、最小侵襲性のCABGのさらなる問題は、内視鏡の向き及びガイダンスである。位置合わせの目標は、吻合部位及び狭窄の位置特定を容易にすることである。標準の手順において、内視鏡は、アシスタントによって保持され、外科医は、2つの器具を保持する。外科医は、アシスタントに命令を出し、アシスタントは、それに応じて内視鏡を移動させる。この種の手順は、アシスタントが、一般に外科医の基準フレームで発行される外科医の命令を、アシスタントの基準フレーム及び内視鏡の基準フレームに直観的に変換する必要があるので、外科医の手−目の協調を妨げる。複数の座標系は、様々なハンドリングエラーを引き起こし、又は外科手術を長引かせ、又は冠動脈の誤った識別を引き起こし得る。
外科医が、外科医の頭部の検知される動きを通じて内視鏡を直接制御することを可能にするように設計される外科内視鏡アシスタントは、制御ループからアシスタントを除去することによって、それらの問題のいくつかを解決することができるが、外科医の基準フレームと内視鏡の基準フレームとの間の変換の問題は依然として残る。
本発明は、術前3次元(「3D」)画像(例えば、CT画像、コーンビームCT画像、3DX線画像、又はMRI画像)及び術中内視鏡画像に示される血管ツリーの各分岐部(例えば、動脈の各点、毛細血管の各点、静脈の各点、及び複数分岐される解剖学的構造)におけるグラフィック表現をマッチングする画像位置合わせ方法を提供する。この画像位置合わせ方法は、さらに、特にCABGといった外科的手術の間における血管ツリーのトポロジの任意の変化に対処することができる。
本発明の目的上、「分岐部」という語は、2以上のブランチに分岐する血管ツリーに沿う任意の点として、本明細書において広義に定義される。
本発明の第1の形態は、内視鏡及び内視鏡コントローラを用いる位置合わせシステムである。動作中において、内視鏡は、解剖学的領域内の血管ツリー(例えば、動脈ツリー、静脈ツリー、又は人体における他の任意の筒状構造)の術中内視鏡画像を生成し、内視鏡コントローラは、血管ツリーの術中内視鏡画像を、血管ツリーの術前3次元画像と画像位置合わせする。画像位置合わせすることは、血管ツリーの術中内視鏡画像内における血管ツリーの各分岐部のグラフィック表現を、血管ツリーの術前3次元画像内における血管ツリーの各分岐部のグラフィック表現と画像マッチングすることを含む。
本発明の第2の形態は、解剖学的領域内の血管ツリーの術前3次元画像を生成するステップと、解剖学的領域内の血管ツリーの術中内視鏡画像を生成するステップと、血管ツリーの術中内視鏡画像を、血管ツリーの術前3次元画像と画像位置合わせするステップと、を含む、画像位置合わせ方法である。画像位置合わせするステップは、血管ツリーの術中内視鏡画像内における血管ツリーの各分岐部のグラフィック表現を、血管ツリーの術前3次元画像内における血管ツリーの各分岐部のグラフィック表現と画像マッチングするステップを含む。
本明細書で用いられる「術前(pre-operative)」という語は、解剖学的領域の3次元画像を取得するために、解剖学的領域の内視鏡イメージングの前、最中、又は後に実行される任意のアクティビティを記述するものとして広義に定義される。本明細書で用いられる「術中(intra-operative)」という語は、解剖学的領域の内視鏡イメージングの間の、又は解剖学的領域の内視鏡イメージングに関連する任意のアクティビティを記述するものとして広義に定義される。解剖学的領域の内視鏡イメージングの例は、CABG、気管支鏡検査、大腸内視鏡検査、腹腔鏡検査、及び脳内視鏡検査を含むが、これらに限定されるものではない。
本発明の上述の形態及び他の形態並びに本発明の様々な特徴及び利点が、添付の図面を参照して理解される本発明の様々な実施形態の以下の詳細な説明から、さらに明らかになる。詳細な説明及び図面は、単に本発明を例示するものであって、本発明を限定するものではなく、本発明の範囲は、添付の特許請求の範囲及びそれと均等なものによって定められる。
本発明に従った、ロボットガイディングシステムの例示的な実施形態を示す図。 本発明に従った、ロボットガイダンス方法の例示的な実施形態を示すフローチャート。 図2に示されるフローチャートの例示的な外科的実施例を示す図。 本発明に従った、グラフマッチング方法の例示的な実施形態を示すフローチャート。 本発明に従った、血管ツリーのメイングラフの例示的な順序付けを示す図。 本発明に従った、血管ツリーのメイングラフの例示的な順序付けを示す図。 本発明に従った、幾何学的表現の内視鏡画像に対する例示的なオーバレイを示す図。 本発明に従った、図7に示されるオーバレイ内の例示的なロボットパスを示す図。 本発明に従った、静脈位置合わせ方法を示すフローチャート。 本発明に従った、静脈/動脈統合位置合わせ方法の第1の実施形態を示すフローチャート。 本発明に従った、静脈/動脈統合位置合わせ方法の第2の実施形態を示すフローチャート。 本発明に従った、位置合わせ修正方法の第2の実施形態を示すフローチャート。
図1に示されるように、ロボットガイディングシステムは、1以上の分岐部(すなわちブランチ)を有する血管ツリーの内視鏡イメージングを伴う任意の内視鏡手術のために、ロボットユニット10及び制御ユニット20を用いる。このような内視鏡手術の例は、最小侵襲性の心臓手術(例えば、冠動脈バイパス術又は僧帽弁置換術)を含むが、これに限定されるものではない。
ロボットユニット10は、ロボット11、ロボット11に堅固に取り付けられた内視鏡12、及び内視鏡12に取り付けられたビデオキャプチャ装置13を含む。
ロボット11は、特定の内視鏡手術用に必要に応じてエンドエフェクタを操作するための1以上の関節のモータ制御を備えるよう構造的に構成される任意のロボット装置として、本明細書において広義に定義される。実際、ロボット11は、4自由度を有することができ、例えば、剛体セグメントと連続的に接続された関節を有するシリアルロボット、並列に搭載される関節及び剛体セグメントを有するパラレルロボット(例えば、当分野で知られているStewartプラットフォーム)、又はシリアル運動力学及びパラレル運動力学の混合組合せであってよい。
内視鏡12は、身体の内側からイメージングを行う能力を備えるよう構造的に構成される任意の装置として、本明細書において広義に定義される。本発明の目的を達成するための内視鏡12の例は、可撓性又は剛性の任意のタイプのスコープ(例えば、内視鏡、関節鏡、気管支鏡、胆道鏡、結腸内視鏡、膀胱鏡、十二指腸内視鏡、胃鏡、子宮鏡、腹腔鏡、喉頭鏡、神経内視鏡、耳鏡、プッシュ腸鏡、鼻咽頭内視鏡、S状結腸鏡、副鼻腔内視鏡、胸鏡など)、及び画像システムを備えるスコープと同様の装置(例えばイメージング能力を有する入れ子式カニューレ)を含むが、これらに限定されるものではない。イメージングは、局所的であり、表面画像は、ファイバ光学素子、レンズ、及び小型化された(例えばCCDベースの)イメージングシステムによって、光学的に取得することができる。
実際、内視鏡12は、ロボット11のエンドエフェクタに搭載される。ロボット11のエンドエフェクタの姿勢は、ロボット11のアクチュエータの座標系の範囲におけるエンドエフェクタの位置及び向きである。内視鏡12が、ロボット11のエンドエフェクタに搭載される場合、解剖学的領域内における内視鏡12の視野の所与の姿勢は、ロボット座標系におけるロボット11のエンドエフェクタの個別の姿勢に対応する。したがって、内視鏡12によって生成される血管ツリーの各個別の内視鏡画像は、解剖学的領域内の内視鏡12の対応する姿勢に関連付けることができる。
ビデオキャプチャ装置13は、内視鏡12からの術中内視鏡ビデオ信号を、術中内視鏡画像(「IOEI」:Intra-Operative Endoscopic Image)14のコンピュータ読み取り可能な時間シーケンスに変換する能力を備えるよう構造的に構成される任意の装置として、本明細書において広義に定義される。実際、ビデオキャプチャ装置13は、術中内視鏡ビデオ信号から個別のデジタル静止画フレームを取得するために、任意のタイプのフレーム取り込み装置(frame grabber)を用いることができる。
図1を参照すると、制御ユニット20は、ロボットコントローラ21及び内視鏡コントローラ22を含む。
ロボットコントローラ21は、内視鏡手術用に必要に応じてロボット11のエンドエフェクタの姿勢を制御するために、1以上のロボットアクチュエータコマンド(「RAC」:Robot Actuator Command)26をロボット11に提供するよう構造的に構成される任意のコントローラとして、本明細書において広義に定義される。より詳しくは、ロボットコントローラ21は、内視鏡コントローラ22からの内視鏡位置コマンド(「EPC」:Endoscope Position Command)25を、ロボットアクチュエータコマンド26に変換する。例えば、内視鏡位置コマンド25は、解剖学的領域内における内視鏡12の視野の所望の3D位置に至る内視鏡パスを示すことができる。それによって、ロボットコントローラ21は、コマンド25を、内視鏡12を所望の3D位置へ移動させるのに必要なロボット11の各モータ用駆動電流を含むコマンド26に変換する。
内視鏡コントローラ22は、図2に例示的に示される本発明に従ったロボットガイダンス方法を実施するよう構造的に構成される任意のコントローラとして、本明細書において広義に定義される。このために、内視鏡コントローラ22は、画像処理モジュール(「IPM」:Image Processing Module)23を組み込むことができる。画像処理モジュール(「IPM」)23は、本発明の解剖学的対象の画像位置合わせを実行するよう構造的に構成される任意のモジュールとして、本明細書において広義に定義される。具体的には、解剖学的対象の画像位置合わせは、図2に示されるフローチャート30の段階S32及び段階S33によって例示的に実施されるような血管ツリー画像の位置合わせである。内視鏡コントローラ22は、視覚サーボモジュール(「VSM」:Visual Servo Module)24をさらに組み込むことができる。視覚サーボモジュール(「VSM」)24は、解剖学的領域内における内視鏡12の視野の所望の3D位置に至る内視鏡パスを示す内視鏡位置コマンド25を生成するよう構造的に構成される任意のモジュールとして、本明細書において広義に定義される。具体的には、内視鏡位置コマンド25は、図2に示されるフローチャート30の段階S34によって例示的に実施されるように、血管ツリー画像の位置合わせから導出される。
次に、フローチャート30の説明が、内視鏡コントローラ22のさらなる理解を容易にするために、本明細書において提供される。
図2を参照すると、フローチャート30の段階S31は、身体の任意の解剖学的領域における術前3D画像から、血管ツリー(例えば、動脈の分岐部、毛細血管の分岐部、又は静脈の分岐部)の幾何学的表現を抽出することを含む。例えば、図3に示されるように、3Dイメージング装置(例えば、CT装置、X線装置、又はMRI装置)は、患者50の左冠動脈51及び右冠動脈52を示す、患者50の胸部領域の術前3D画像42を生成するよう動作する。その後、血管ツリー抽出器43が、画像42から冠動脈ツリーの幾何学的表現44を抽出するよう動作する。冠動脈ツリーの幾何学的表現44は、データベース45に記憶することができる。実際、Philipsにより販売されているBrilliance iCTスキャナを使用して、画像42を生成し、画像42から冠動脈ツリーの3Dデータセットを抽出することができる。
図2を再び参照すると、フローチャート30の段階S32は、画像処理モジュール23が、血管ツリーの1以上の術中内視鏡画像14(図1)のグラフィック表現を、血管ツリーの術前3D画像44(図1)のグラフィック表現とマッチングすることを含む。例えば、図3に示されるように、内視鏡12は、ビデオキャプチャ装置13によってキャプチャされ術中内視鏡画像14に変換される、患者50の胸部領域の術中内視鏡検査ビデオを生成する。それにより、内視鏡コントローラ22の画像処理モジュール23は、冠動脈ツリーの1以上の術中内視鏡画像14のグラフィック表現を、冠動脈ツリーの術前3D画像44のグラフィック表現とマッチングする。1つの例示的な実施形態において、画像処理モジュール23は、図4に示されるフローチャート60によって例示的に表される本発明の血管ツリー画像マッチング方法を実行する。これは、冠動脈ツリーである血管ツリーのコンテキストにおいて、本明細書で説明される。
図4を参照すると、フローチャート60の段階S61は、画像処理モジュール23が、当分野で知られている任意の表現方法に従って、冠動脈ツリーの幾何学的表現から、冠動脈ツリーメイングラフを生成することを含む。例えば、段階S61に示されるように、冠動脈ツリーの幾何学的表現70は、冠動脈ツリーの幾何学的表現70の各分岐部(例えば、二分岐又は三分岐)を表すノードと、さらにノード間のブランチ接続とを有するメイングラフ71に変換される。段階S61は、術前(例えば、内視鏡外科手術の数日前又は患者50内に内視鏡12が導入される前の任意の時間)に実施されてもよいし、又は、Cアーム血管造影法若しくは他の適切なシステムによって術中に実施されてもよい。
フローチャート60の段階S62は、画像処理モジュール23が、当分野で知られている任意のグラフィック表現方法に従って、術中内視鏡画像14において目に見える冠動脈ツリーの一部から、冠動脈ツリーサブグラフを生成することを含む。具体的には、内視鏡12が、患者50に導入されることによって、画像処理モジュール23は、術中内視鏡画像14内の冠動脈の構造の検出を実施する。実際、いくつかの動脈の構造は目に見えるが、他の動脈の構造は、脂肪組織の層によって隠されることがある。したがって、画像処理モジュール23は、知られている画像処理動作によって、目に見える冠動脈の構造の自動検出(例えば、目に見える冠動脈の構造のはっきりした赤色による閾値検出)を実施することができ、又は、外科医は、入力装置を使用して、コンピュータディスプレイ上で目に見える冠動脈の構造の輪郭を手作業で描くことができる。動脈の構造が検出されると、画像処理モジュール23は、冠動脈ツリーメイングラフの生成と同様に、冠動脈ツリーグラフを生成する。例えば、段階S62に示されるように、冠動脈の構造の幾何学的表現72は、冠動脈ツリーの幾何学的表現72の各分岐部(例えば、二分岐又は三分岐)を表すノードと、さらにノード間のブランチ接続とを有するグラフ73に変換される。どちらのツリーも同じ人からのものであるので、内視鏡検査画像から導出されるグラフは、3D画像から導出されるグラフのサブグラフであることが理解されよう。
フローチャート60の段階S63は、画像処理モジュール23が、任意の知られているグラフマッチング方法(例えば、最大共通サブグラフ又はMcGregor共通サブグラフ)に従って、サブグラフをメイングラフとマッチングすることを含む。例えば、段階S63に示されるように、サブグラフ73のノードは、メイングラフ71のノードのサブセットとマッチングされる。
実際、サブグラフ73は、術中内視鏡画像14内で部分的に検出されることもあるし、又は、サブグラフ73のいくつかのノード/接続は、術中内視鏡画像14から欠けていることもある。段階S62のマッチング精度を向上させるために、メイングラフ71及びサブグラフ73の付加的な順序付けが、実施されてもよい。
一実施形態において、メイングラフ71の垂直方向のノード順序付けが、段階S61の画像スキャニングの間に、患者50の知られている向きに基づいて実施される。具体的には、メイングラフのノードは、実線矢印によって図5に例示的に示されるように、上から下への順序を維持するように、方向的に関連付けることができる。サブグラフ73に関して、内視鏡12に対する患者50の向きは、知られていないことがある。しかしながら、冠動脈ツリーのブランチは、それらが上から下へと広がるにつれて、ブランチの直径が小さくなることが分かるので、術中内視鏡画像14における動脈ブランチの変化する動脈サイズは、向きを示すことができる。
別の実施形態において、メイングラフ70の水平方向のノード順序付けは、段階S61の画像スキャニングの間に、患者50の知られている向きに基づいて実施することができる。具体的には、メイングラフのノードは、破線矢印によって図6に例示的に示されるように、左から右へのノード順序を維持するように、方向的に関連付けることができる。サブグラフ73に関して、内視鏡12に対する患者50の向きは知られていない可能性が高いので、サブグラフ73の水平方向のノード順序は、グラフィカルユーザインタフェースを介して、手術外科医又はアシスタントによって設定することができる。
順序付けの使用は、グラフをマッチングする時間を低下させることができ、可能性がある合致の数を低減することができるが、理論的には、グラフ間の複数の合致は、マッチングアルゴリズムによって、さらに得ることができる。複数の合致のこのようなケースは、フローチャート30の段階S33の間に対処される。
図2を再び参照すると、フローチャートの段階S33は、グラフのマッチングに基づいて、血管ツリーの術前3D画像44(図1)の幾何学的表現を、血管ツリーの術中内視鏡画像14にオーバレイすることを含む。これは、メイングラフに一意的に関連付けられる幾何学的表現を使用することによって行われる。したがって、全体のジオメトリは、パースペクティブ変換を使用して、術中内視鏡画像14に直接変換することができる。パースペクティブ変換は、(ホモグラフィマッチングのような)当分野で知られているマッチングアルゴリズムを使用して、術中内視鏡画像14及び術前3D画像44におけるノードから検出することができる。
例えば、図7は、術中内視鏡画像90のノード91〜ノード95と合致したノードを有する冠動脈ツリーの幾何学的表現80を示している。ノード91〜ノード95の間における各ノードペア間の距離を使用して、幾何学的表現80に関するスケーリングファクタを決定することができる。それにより、幾何学的表現80が、図示されるように術中内視鏡画像90にオーバレイすることを可能にする。
実際、段階S32(図2)のグラフマッチングが、複数の結果をもたらす場合、可能性のある全てのオーバレイを、外科医に対し表示することができる。それにより、外科医は、自分が最も見込みのある合致であると思うマッチング結果を、グラフィカルユーザインタフェースを介して選択することができる。外科医が、術中内視鏡画像14の少なくともいくつかの構造に対する内視鏡12の位置を知っている場合、選択は、相対的に単純であり得る。
図2を再び参照すると、フローチャート30の段階S34は、視覚サーボモジュール24が、血管ツリーの術前3D画像44(図1)の幾何学的表現の、血管ツリーの術中内視鏡画像14(図1)に対するオーバレイ内に、内視鏡パスを生成することを含む。視覚サーボモジュール24は、内視鏡パスに基づいて、ロボットコントローラ21に対する内視鏡位置コマンド25を生成し、それにより、解剖学的領域内の所望の位置に、内視鏡パスに沿って内視鏡12(図1)をガイドする。具体的には、正確なオーバレイが見つけられると、外科医が術前3D画像44上の選択する位置へ、内視鏡12をガイドするよう、ロボット11に命じることができる。外科医又はアシスタントは、血管ツリーの或る点を選択することができ、ロボット11は、任意の適切なパスに沿って、その所望の位置へ内視鏡12をガイドすることができる。例えば、図8に示されるように、ロボット11は、最短パス101に沿って所望の位置100へ、又は冠動脈パス102に沿って所望の位置100へ、内視鏡12を移動させることができる。冠動脈パス102は、ロボット11が内視鏡12を移動させる場合において外科医が目に見える動脈を観察することを可能にするので、冠動脈パス102は、好適な実施形態である。さらに、外科医が、マッチングが成功したかどうかを判定することを助けることができる。冠動脈パス102は、当分野で知られている方法(例えば、Dijkstra最短パスアルゴリズム)を使用して規定することができる。
実際、ロボット11の動きは、遠隔運動中心に関して非較正の視覚サーボを使用して命じることができ、内視鏡12の視野は、マッチング段階S32の間に、より大きいサブグラフを可能にするよう拡大することができる(例えば、当分野で知られているように、術中内視鏡画像14をステッチする)。
本明細書において前述したように、図2に示されるフローチャート30の段階S32及び段階S33は、単一の血管ツリーを含む、本発明の血管ツリー画像位置合わせを表す。さらに、段階S32及び段階S33の前述の説明は、段階S32及び段階S33の理解を容易にするために、冠動脈ツリーのコンテキストにおいて提供された。実際には、本発明の血管ツリー画像位置合わせは、身体の任意の解剖学的領域内における任意のタイプの2以上の血管ツリーを伴うこともある。
図9〜図11は、身体の任意の解剖学的領域内、特に心臓領域内での動脈ツリー及び静脈ツリーのコンテキストにおいて、段階S32及び/又は段階S33(図1)の追加の実施形態を示している。これらの実施形態は、本明細書において前に教示したフローチャート60(図4)の原理に従って、グラフの生成及びノードのマッチングを実施する。
図9を参照すると、フローチャート110は、静脈ツリーの術中内視鏡画像のメイングラフを静脈ツリーの術前画像とマッチングすることを含む、静脈ツリー画像位置合わせ方法を表している。このマッチングは、解剖学的領域の術中内視鏡画像を、解剖学的領域の術前3D画像と位置合わせする基礎となる。
具体的には、フローチャート110の段階S111は、画像処理モジュール23が、静脈ツリーの術中内視鏡画像と静脈ツリーの術前3D画像との間で、静脈ツリーグラフのマッチングを実行することを含む。例えば、図9の段階S111に示されるように、静脈ツリーの術前3D画像120のメイングラフ121と、静脈ツリーの術中内視鏡画像122のサブグラフ123とが生成され、サブグラフ123のノードが、メイングラフ121のノードの特定のサブセットとマッチングされる。この結果が、解剖学的領域の術中内視鏡画像と、解剖学的領域の術前3D画像との位置合わせである。
フローチャート110の段階S112は、画像処理モジュール23が、当分野で知られているように、解剖学的領域の術前画像内における、動脈ツリーの静脈ツリーに対する相対位置から導出される、動脈ツリーの術前画像のオーバレイの生成を実行する。例えば、図9の段階S112に示されるように、動脈ツリーの術前画像130の、動脈ツリーの術中内視鏡画像132に対するオーバレイは、(破線によって示されている)動脈ツリーの術前画像130の、静脈ツリーの術前画像120に対する相対位置から導出される。
図10を参照すると、フローチャート140は、(1)動脈ツリーの術中内視鏡画像のサブグラフと動脈ツリーの術前画像のメイングラフとの動脈ツリーのマッチングと、(2)静脈ツリーの術中内視鏡画像のサブグラフと静脈ツリーの術前画像のメイングラフとの静脈ツリーのマッチングと、の組合せを含む、血管ツリー画像位置合わせ方法を表している。
具体的には、フローチャート140の段階S141は、画像処理モジュール23が、動脈ツリーの術中内視鏡画像と動脈ツリーの術前3D画像との間で、動脈ツリーグラフのマッチングを実行することを含む。例えば、図10の段階S141に示されるように、動脈ツリーの術前3D画像130のメイングラフ131と、動脈ツリーの術中内視鏡画像132のサブグラフ133とが生成され、サブグラフ133のノードが、メイングラフ131のノードの特定のサブセットとマッチングされる。
フローチャート140の段階S142は、画像処理モジュール23が、静脈ツリーの術中内視鏡画像と静脈ツリーの術前3D画像との間で、静脈ツリーグラフのマッチングを実行することを含む。例えば、図10の段階S142に示されるように、静脈ツリーの術前3D画像120のメイングラフ121と、静脈ツリーの術中内視鏡画像122のサブグラフ123とが生成され、サブグラフ123のノードが、メイングラフ121のノードの特定のサブセットとマッチングされる。
フローチャート140の段階S143は、画像処理モジュール23が、当分野で知られているように、段階S141の動脈ツリーのマッチングと、段階S142の静脈ツリーのマッチングとを幾何学的に組み合わせることを含む。
実際、段階S141及び段階S142は、任意の順番で連続的に実行されてもよいし、又は、並行して実行されてもよい。
図11を参照すると、フローチャート150は、(1)動脈ツリーの術中内視鏡画像のサブグラフと動脈ツリーの術前画像のメイングラフとの動脈ツリーのマッチングと、(2)静脈ツリーの術中内視鏡画像のサブグラフと静脈ツリーの術前画像のメイングラフとの静脈ツリーのマッチングと、の統合を含む、血管ツリー画像位置合わせ方法を表している。
具体的には、フローチャート150の段階S151は、画像処理モジュール23が、動脈ツリーの術前画像及び静脈ツリーの術前画像のそれぞれから、動脈ツリーのメイングラフ及び静脈ツリーのメイングラフを生成することを含む。フローチャート150の段階S152は、動脈ツリーのメイングラフと静脈ツリーのメイングラフとを統合することを含む。実際、心臓領域に関しては、動脈ツリー及び静脈ツリーが現実的に接続される血管点は1つも存在しない。したがって、動脈ツリーのメイングラフと静脈ツリーのメイングラフとは、基本的に分離している。それでも、心臓領域の構造内において、動脈ノード及び静脈ノードがわずかな距離しか離れていない複数の点が存在し得る。これらのノードは、段階S152の目的上、何らかの関係性があるとみなすことができる。したがって、これらのノードにおいて結合された単一のツリーを構成することができる。
例えば、図11の段階S152に示されるように、静脈ツリーのメイングラフ121のノード124と、動脈ツリーのメイングラフ131のノード134とは、心臓領域の術前体積画像内において、わずかな距離しか離れていない。したがって、静脈ツリーのメイングラフ121のノード124と、動脈ツリーのメイングラフ131のノード134とは、心臓領域の術前体積画像内において、点161にて結合され、統合血管ツリーグラフ160が形成される。
フローチャート150の段階S153は、画像処理モジュール23が、動脈ツリーの術中内視鏡画像及び静脈ツリーの術中内視鏡画像のそれぞれから、動脈ツリーのサブグラフ及び静脈ツリーのサブグラフを生成することを含む。フローチャート150の段階S154は、動脈ツリーのサブグラフ及び静脈ツリーのサブグラフを、統合血管グラフとノードに関してマッチングすることを含む。例えば、図11の段階S154に示されるように、動脈ツリーの生成されたサブグラフ132と、静脈ツリーの生成されたサブグラフ122とが、統合血管グラフ160とマッチングされる。
実際、代替として、静脈ツリーのメイングラフの統合は、静脈ツリーのサブグラフと対応するメイングラフとの個別のマッチング時に生じてもよい。
図2を再び参照すると、段階S32〜段階S34は、一度に実行されてもよいし、又は、ロボット11が解剖学的領域内の所望の位置へ内視鏡12を移動させる時間まで周期的に実行されてもよいし、又は、外科医によって指示される回数実行されてもよい。
フローチャート130の代替実施形態において、外科手術が、特に心臓領域といった解剖学的領域における1以上の血管ツリーに対して実施される場合、段階S35が、画像位置合わせを更新するために、実行されてもよい。例えば、バイパスが完了した後、動脈ツリーの新たに導入されるトポロジが、心臓領域におけるバイパスの術中外科画像(例えば、内視鏡画像又はX線血管造影画像)内で目に見えるものとなり、心臓領域の術前体積画像では目に見えないものとなる。術中外科画像から提供される動脈ツリーが、本明細書において前述した本発明のグラフマッチングアルゴリズムを用いて、術前体積画像から提供される動脈ツリーとマッチングされる。位置合わせ時に、術前体積画像のメイングラフは、1つの新たなノード(遠位吻合部位)と1つの接続(バイパス)とを追加することにより、更新することができる。
図12に示されるフローチャート170は、段階S35及び段階S31(図2)の一実施形態を表している。フローチャート170の段階S171は、解剖学的領域の術中外科画像から、血管ツリーを抽出することを含む。段階S172は、術中外科画像を術前体積画像と位置合わせすることを含む。例えば、図12の段階S172に示されるように、動脈ツリー133の外科画像180が、バイパス181を示す画像180を含む術中内視鏡画像14又は術中X線血管造影画像15から抽出される。画像180のメイングラフ182が、バイパスを表す新たに接続されたノード183を伴って生成される。メイングラフ182は、術前体積画像のメイングラフとノードに関してマッチングされる(例えば、図10に示される動脈ツリー画像130及びメイングラフ131)。
フローチャート170の段階S173は、術前体積画像を更新することを含む。実際、更新された画像133は、完全な動脈ツリーを十分に示してもよいし、又は、完全な動脈ツリーのバイパスされた部分を取り除いてもよい。例えば、図12の段階S173に示されるように、術前体積画像133の更新された画像133aは、バイパス181を含む完全な動脈ツリーを示している。あるいは、術前体積画像133の更新された画像133bは、動脈ツリーのバイパスされた部分を除いた動脈ツリーを示している。
フローチャート170は、段階S32(図2)へ戻り、段階S32〜段階S34の間に、術中内視鏡画像14を術前体積画像44と再位置合わせし、ロボット11をガイドするために、更新された画像133が使用され得る。
図1を再び参照すると、実際、モジュール23及びモジュール24は、図示されるように、内視鏡コントローラ22内に一体化されたハードウェア、ソフトウェア、及び/又はファームウェアにより実装されてもよい。
本明細書における図1〜図12の説明から、当業者は、本発明を任意のタイプの血管に対して実施される任意のタイプの内視鏡手術に応用することを含め、本発明の多数の利点を理解するであろう。ただし、本発明の利点は、本発明を任意のタイプの血管に対して実施される任意のタイプの内視鏡手術に応用することに限定されるものではない。
例示的な態様、特徴、及び実施例を参照しながら、本発明について説明されたが、開示したシステム及び方法は、そのような例示的な態様、特徴、及び/又は実施例に限定されるものではない。そうではなく、本明細書で提供された説明から、開示したシステム及び方法は、本発明の趣旨又は範囲から逸脱することなく、様々な変形、変更、及び改良を受け入れる余地があることが当業者には容易に明らかになるであろう。したがって、本発明は、本発明の範囲内のそのような変形、変更、及び改良を明確に含むものである。

Claims (8)

  1. 解剖学的領域内の血管ツリーの術中内視鏡画像を生成するよう動作可能な内視鏡と、
    前記血管ツリーの前記術中内視鏡画像を、前記血管ツリーの術前3次元画像と画像位置合わせするよう動作可能な内視鏡コントローラと、を備え、
    前記画像位置合わせすることは、前記血管ツリーの前記術中内視鏡画像内における前記血管ツリーの各分岐部のグラフィック表現を、前記血管ツリーの前記術前3次元画像内における前記血管ツリーの各分岐部のグラフィック表現と画像マッチングすることを含む、画像位置合わせシステムであって、
    前記画像マッチングすることは、
    前記血管ツリーの前記術前3次元画像の幾何学的表現から導出されるメイングラフを生成することであって、前記メイングラフは、前記血管ツリーの前記術前3次元画像内における前記血管ツリーの各分岐部を表す接続されたノードのメインセットを含む、生成することと、
    前記血管ツリーの前記術中内視鏡画像の幾何学的表現から導出されるサブグラフを生成することであって、前記サブグラフは、前記血管ツリーの前記術中内視鏡画像内における前記血管ツリーの各分岐部を表す、接続されたノードの前記メインセットのサブセットを含む、生成することと、
    前記サブグラフを前記メイングラフとノードマッチングすることと、
    を含み、
    前記内視鏡コントローラは、前記血管ツリーのトポロジの術中の外科的変化に応じて、前記血管ツリーの前記術中内視鏡画像と、前記血管ツリーの前記術前3次元画像との画像位置合わせを術中に更新するようさらに動作可能であり、
    前記メイングラフは、前記血管ツリーの前記トポロジの術中の外科的変化を反映するよう術中に変更される、画像位置合わせシステム
  2. 動脈ツリー及び静脈ツリーを含む、解剖学的領域の術中内視鏡画像を生成するよう動作可能な内視鏡と、
    前記術中内視鏡画像内の前記動脈ツリーを、前記解剖学的領域の術前3次元画像と画像位置合わせするよう動作可能な内視鏡コントローラと、を備え、
    前記画像位置合わせすることは、前記解剖学的領域の前記術中内視鏡画像内における前記静脈ツリーの各分岐部のグラフィック表現を、前記解剖学的領域の前記術前3次元画像内における前記静脈ツリーの各分岐部のグラフィック表現と静脈画像マッチングすることを含む、画像位置合わせシステムであって、
    前記画像位置合わせすることは、前記解剖学的領域の前記術中内視鏡画像内における前記動脈ツリーの各分岐部のグラフィック表現を、前記解剖学的領域の前記術前3次元画像内における前記動脈ツリーの各分岐部のグラフィック表現と動脈画像マッチングすることを含み、
    前記動脈画像マッチングすることは、
    前記解剖学的領域の前記術前3次元画像の幾何学的表現から導出される動脈メイングラフを生成することであって、前記動脈メイングラフは、前記解剖学的領域の前記術前3次元画像内における前記動脈ツリーの各分岐部を表す動脈ノードのメインセットを含む、生成することと、
    前記解剖学的領域の前記術中内視鏡画像の幾何学的表現から導出される動脈サブグラフを生成することであって、前記動脈サブグラフは、前記解剖学的領域の前記術中内視鏡画像内における前記動脈ツリーの各分岐部を表す、動脈ノードの前記メインセットのサブセットを含む、生成することと、
    を含み、
    前記内視鏡コントローラは、血管ツリーのトポロジの術中の外科的変化に応じて、前記血管ツリーの前記術中内視鏡画像と、前記血管ツリーの前記術前3次元画像との画像位置合わせを術中に更新するようさらに動作可能であり、
    前記動脈メイングラフは、前記血管ツリーの前記トポロジの術中の外科的変化を反映するよう術中に変更される、画像位置合わせシステム
  3. 前記画像位置合わせすることは、前記解剖学的領域の前記術前3次元画像内における前記動脈ツリーの、前記解剖学的領域の前記術前3次元画像内における前記静脈ツリーに対する相対位置を決定することをさらに含む、請求項記載の画像位置合わせシステム。
  4. 前記静脈画像マッチングすることは、
    前記解剖学的領域の前記術前3次元画像の幾何学的表現から導出される静脈メイングラフを生成することであって、前記静脈メイングラフは、前記解剖学的領域の前記術前3次元画像内における前記静脈ツリーの各分岐部を表す静脈ノードのメインセットを含む、生成することと、
    前記解剖学的領域の前記術中内視鏡画像の幾何学的表現から導出される静脈サブグラフを生成することであって、前記静脈サブグラフは、前記解剖学的領域の前記術中内視鏡画像内における前記静脈ツリーの各分岐部を表す、静脈ノードの前記メインセットのサブセットを含む、生成することと
    を含む、請求項記載の画像位置合わせシステム。
  5. 前記静脈画像マッチングすることは、前記静脈サブグラフを前記静脈メイングラフと静脈ノードマッチングすることをさらに含み、
    前記動脈画像マッチングすることは、前記動脈サブグラフを前記動脈メイングラフと動脈ノードマッチングすることをさらに含み、
    前記画像位置合わせすることは、前記静脈ノードマッチングすることと、前記動脈ノードマッチングすることとの組合せをさらに含む、請求項記載の画像位置合わせシステム。
  6. 前記画像位置合わせすることは、前記静脈メイングラフ及び前記動脈メイングラフを統合することをさらに含み、
    前記静脈画像マッチングすることは、前記静脈サブグラフを、前記静脈メイングラフ及び前記動脈メイングラフを統合したものと静脈ノードマッチングすることをさらに含み、
    前記動脈画像マッチングすることは、前記動脈サブグラフを、前記静脈メイングラフ及び前記動脈メイングラフを統合したものと動脈ノードマッチングすることをさらに含む、請求項記載の画像位置合わせシステム。
  7. 前記動脈メイングラフの変更は、新たなノードを前記メイングラフに接続することを含み、前記新たなノードは、前記血管ツリーの追加の分岐部の外科的創出を表す、請求項記載の画像位置合わせシステム。
  8. 前記動脈メイングラフの変更は、前記メイングラフの前記ノードのうち1つのノードを分離することを含み、前記分離されたノードは、前記血管ツリーの前記分岐部のうち1つの分岐部の外科的除去を表す、請求項記載の画像位置合わせシステム。
JP2014537775A 2011-10-26 2012-10-19 血管ツリー画像の内視鏡的位置合わせ Active JP6251681B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161551513P 2011-10-26 2011-10-26
US61/551,513 2011-10-26
PCT/IB2012/055739 WO2013061225A1 (en) 2011-10-26 2012-10-19 Endoscopic registration of vessel tree images

Publications (2)

Publication Number Publication Date
JP2015501183A JP2015501183A (ja) 2015-01-15
JP6251681B2 true JP6251681B2 (ja) 2017-12-20

Family

ID=47425181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014537775A Active JP6251681B2 (ja) 2011-10-26 2012-10-19 血管ツリー画像の内視鏡的位置合わせ

Country Status (6)

Country Link
US (1) US10453174B2 (ja)
EP (1) EP2747695B1 (ja)
JP (1) JP6251681B2 (ja)
CN (1) CN103957832B (ja)
IN (1) IN2014CN03098A (ja)
WO (1) WO2013061225A1 (ja)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9968256B2 (en) 2007-03-08 2018-05-15 Sync-Rx Ltd. Automatic identification of a tool
US9305334B2 (en) 2007-03-08 2016-04-05 Sync-Rx, Ltd. Luminal background cleaning
US11064964B2 (en) 2007-03-08 2021-07-20 Sync-Rx, Ltd Determining a characteristic of a lumen by measuring velocity of a contrast agent
WO2014002095A2 (en) 2012-06-26 2014-01-03 Sync-Rx, Ltd. Flow-related image processing in luminal organs
EP2358269B1 (en) 2007-03-08 2019-04-10 Sync-RX, Ltd. Image processing and tool actuation for medical procedures
US11197651B2 (en) 2007-03-08 2021-12-14 Sync-Rx, Ltd. Identification and presentation of device-to-vessel relative motion
US9375164B2 (en) 2007-03-08 2016-06-28 Sync-Rx, Ltd. Co-use of endoluminal data and extraluminal imaging
WO2008107905A2 (en) 2007-03-08 2008-09-12 Sync-Rx, Ltd. Imaging and tools for use with moving organs
US9629571B2 (en) 2007-03-08 2017-04-25 Sync-Rx, Ltd. Co-use of endoluminal data and extraluminal imaging
US10716528B2 (en) 2007-03-08 2020-07-21 Sync-Rx, Ltd. Automatic display of previously-acquired endoluminal images
US9974509B2 (en) 2008-11-18 2018-05-22 Sync-Rx Ltd. Image super enhancement
US9095313B2 (en) 2008-11-18 2015-08-04 Sync-Rx, Ltd. Accounting for non-uniform longitudinal motion during movement of an endoluminal imaging probe
US8855744B2 (en) 2008-11-18 2014-10-07 Sync-Rx, Ltd. Displaying a device within an endoluminal image stack
US9144394B2 (en) 2008-11-18 2015-09-29 Sync-Rx, Ltd. Apparatus and methods for determining a plurality of local calibration factors for an image
US9101286B2 (en) 2008-11-18 2015-08-11 Sync-Rx, Ltd. Apparatus and methods for determining a dimension of a portion of a stack of endoluminal data points
US10362962B2 (en) 2008-11-18 2019-07-30 Synx-Rx, Ltd. Accounting for skipped imaging locations during movement of an endoluminal imaging probe
US11064903B2 (en) 2008-11-18 2021-07-20 Sync-Rx, Ltd Apparatus and methods for mapping a sequence of images to a roadmap image
JP5934071B2 (ja) * 2012-09-27 2016-06-15 富士フイルム株式会社 管状構造の最短経路探索装置および方法並びにプログラム
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
RU2692206C2 (ru) * 2013-05-09 2019-06-21 Конинклейке Филипс Н.В. Роботизированное управление эндоскопом на основе анатомических признаков
US11395702B2 (en) * 2013-09-06 2022-07-26 Koninklijke Philips N.V. Navigation system
US10013777B2 (en) 2013-11-25 2018-07-03 7D Surgical Inc. System and method for generating partial surface from volumetric data for registration to surface topology image data
CN105934216B (zh) * 2014-01-24 2019-09-17 皇家飞利浦有限公司 机器人引导系统、控制单元和装置
EP3102141B1 (en) 2014-02-04 2019-08-14 Koninklijke Philips N.V. A system for visualising an anatomical target
US9547940B1 (en) * 2014-09-12 2017-01-17 University Of South Florida Systems and methods for providing augmented reality in minimally invasive surgery
CN104306072B (zh) * 2014-11-07 2016-08-31 常州朗合医疗器械有限公司 医疗导航系统及方法
US9521988B2 (en) * 2015-02-17 2016-12-20 Siemens Healthcare Gmbh Vessel tree tracking in angiography videos
WO2017013521A1 (en) * 2015-07-23 2017-01-26 Koninklijke Philips N.V. Endoscope guidance from interactive planar slices of a volume image
US11564748B2 (en) 2015-12-29 2023-01-31 Koninklijke Philips N.V. Registration of a surgical image acquisition device using contour signatures
WO2017114855A1 (en) 2015-12-29 2017-07-06 Koninklijke Philips N.V. System, control unit and method for control of a surgical robot
KR102455671B1 (ko) * 2018-05-31 2022-10-20 아우리스 헬스, 인코포레이티드 이미지-기반 기도 분석 및 매핑
EP3643238A1 (en) * 2018-10-25 2020-04-29 Koninklijke Philips N.V. Image based guiding of an interventional device
CN109523536B (zh) * 2018-11-19 2020-10-16 复旦大学附属华山医院 颅内外血流重建术的搭桥血管确定方法及系统
KR102350998B1 (ko) 2020-03-04 2022-01-14 숭실대학교 산학협력단 혈관 특징 정보 기반 다중 모달리티 비강체 정합 방법, 이를 수행하기 위한 기록 매체 및 장치
DE102022201347A1 (de) 2022-02-09 2023-08-10 Siemens Healthcare Gmbh Verfahren und System zur automatisierten Bestimmung von Untersuchungsergebnissen in einer Bildsequenz

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002510230A (ja) * 1997-06-27 2002-04-02 ザ・ボード・オブ・トラスティーズ・オブ・ザ・リーランド・スタンフォード・ジュニア・ユニバーシティ 立体的画像ナビゲーション方法及び装置
US6711433B1 (en) * 1999-09-30 2004-03-23 Siemens Corporate Research, Inc. Method for providing a virtual contrast agent for augmented angioscopy
DE10323008A1 (de) * 2003-05-21 2004-12-23 Siemens Ag Verfahren zur automatischen Fusion von 2D-Fluoro-C-Bogen-Bildern mit präoperativen 3D-Bildern unter einmaliger Verwendung von Navigationsmarken
WO2005025404A2 (en) * 2003-09-08 2005-03-24 Vanderbilt University Apparatus and methods of cortical surface registration and deformation tracking for patient-to-image alignment in relation to image-guided surgery
JP2006198032A (ja) 2005-01-18 2006-08-03 Olympus Corp 手術支援システム
US7646903B2 (en) * 2005-06-22 2010-01-12 Siemens Medical Solutions Usa, Inc. System and method for path based tree matching
WO2008111070A2 (en) * 2007-03-12 2008-09-18 David Tolkowsky Devices and methods for performing medical procedures in tree-like luminal structures
CN102186404A (zh) * 2008-10-20 2011-09-14 皇家飞利浦电子股份有限公司 基于图像的定位方法和系统
WO2010046838A1 (en) * 2008-10-23 2010-04-29 Koninklijke Philips Electronics N.V. Cardiac- and/or respiratory-gated image acquisition system and method for virtual anatomy enriched real-time 2d imaging in interventional radiofrequency ablation or pacemaker placement procedures
BRPI1007726A2 (pt) * 2009-05-18 2017-01-31 Koninl Philips Electronics Nv método para registro baseado em imagem entre as imagens, sistema para registro baseado em imagem entre imagens, método para calibração de posição de câmera para endoscopia guiada e sistema para calibração de câmera para endoscopia guida
EP2559001B1 (en) * 2010-09-02 2018-07-11 Pie Medical Imaging BV Method and apparatus for quantitative analysis of a tree of recursively splitting tubular organs

Also Published As

Publication number Publication date
WO2013061225A1 (en) 2013-05-02
CN103957832A (zh) 2014-07-30
EP2747695A1 (en) 2014-07-02
US10453174B2 (en) 2019-10-22
CN103957832B (zh) 2016-09-28
JP2015501183A (ja) 2015-01-15
IN2014CN03098A (ja) 2015-07-03
EP2747695B1 (en) 2017-09-13
US20140301618A1 (en) 2014-10-09

Similar Documents

Publication Publication Date Title
JP6251681B2 (ja) 血管ツリー画像の内視鏡的位置合わせ
JP5955847B2 (ja) 血管ツリー画像に基づく内視鏡のロボット制御
JP6122875B2 (ja) 血管ツリー画像内での見えない分岐部の検出
JP6725423B2 (ja) 解剖学的標的を視覚化するシステム
EP2866638B1 (en) Enhanced visualization of blood vessels using a robotically steered endoscope
US11284777B2 (en) Robotic control of an endoscope from anatomical features
EP2838412A1 (en) Guidance tools to manually steer endoscope using pre-operative and intra-operative 3d images
US11779192B2 (en) Medical image viewer control from surgeon's camera
WO2012156873A1 (en) Endoscope segmentation correction for 3d-2d image overlay
CN104105439B (zh) 血管树图像内不可见的二分叉的检测

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170914

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171127

R150 Certificate of patent or registration of utility model

Ref document number: 6251681

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250