JP2015505502A - 血管ツリー画像内での見えない分岐部の検出 - Google Patents

血管ツリー画像内での見えない分岐部の検出 Download PDF

Info

Publication number
JP2015505502A
JP2015505502A JP2014555378A JP2014555378A JP2015505502A JP 2015505502 A JP2015505502 A JP 2015505502A JP 2014555378 A JP2014555378 A JP 2014555378A JP 2014555378 A JP2014555378 A JP 2014555378A JP 2015505502 A JP2015505502 A JP 2015505502A
Authority
JP
Japan
Prior art keywords
image
tree
blood vessel
endoscopic
visible
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014555378A
Other languages
English (en)
Other versions
JP6122875B2 (ja
Inventor
ポポヴィッチ,アレクサンドラ
エルハワリー,ハイサム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2015505502A publication Critical patent/JP2015505502A/ja
Application granted granted Critical
Publication of JP6122875B2 publication Critical patent/JP6122875B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

画像レジストレーションシステム、内視鏡(12)及び内視鏡コントローラ(22)である。動作時、内視鏡(12)は、解剖領域内の血管ツリーの術中内視鏡画像(14)を生成し、該画像は該術中内視鏡画像(14)内で見える前記血管ツリーの複数の枝を含み、該枝は、前記術中内視鏡画像(14)内では見えない前記血管ツリーの分岐部を示す。内視鏡コントローラ(22)は、前記の血管ツリー術中内視鏡画像を前記血管ツリーの術前3次元画像に画像レジストレーションする。前記画像レジストレーションは、前記血管ツリー術中内視鏡画像(14)内で見える前記血管ツリーの枝が示す前記血管ツリーの分岐部の図的表現を前記の血管ツリー術前3次元画像(44)内の前記血管ツリーの分岐部の図的表現に画像マッチングさせることを含む。

Description

本願は、「血管ツリー(Vessel Tree)画像に基づく内視鏡のロボット制御」と題する共同所有特許出願の利益を主張する。
本発明は一般に、術中内視鏡血管ツリー画像への術前三次元(3D)血管ツリー画像の術中レジストレーション(intra-operative registration)に関する。本発明は特に、臓器(例えば、心臓)の表面を覆う脂肪組織によって、内視鏡画像内では見えない(即ち、不可視な)血管ツリーの分岐部を検出するための方法を包含する術中レジストレーションに関する。
冠動脈バイパス移植術(「CABG」)は、閉塞した冠動脈を再建するための外科手術である。米国では、年間約500,000件の当該手術が行われている。従来の冠動脈バイパス移植術では、患者の胸骨が切開され、患者の心臓が外科医に完全に露出される。心臓が露出するにも関わらず、一部の動脈は、それらの上の脂肪組織層によって見えないことがある。そのような動脈の場合、外科医は心臓表面を触診して、該動脈から脈動する血液及び該動脈の狭窄の双方を感じ取る。しかしながら、このデータは乏しく、該データは手術部位に対する手術計画を実行に移すのに十分でないことがある。
低侵襲冠動脈バイパス移植術では、外科医が心臓表面を触診することができないため、先述した従来の冠動脈バイパス移植術の問題が増幅される。それに加えて、低侵襲冠動脈バイパス移植術で用いられる手術器具では、その長さ故に器具の近位端から何らかの感触フィードバックを得ることができない。
従来の冠動脈バイパス移植術の問題に対処する周知の技法の1つは、術前3D冠動脈ツリーに術中部位を位置合わせするというものである。具体的には、開心状態(open heart setting)で、光学追跡(optically tracked)ポインタを用いて動脈の位置をデジタル化し、該位置のデータを当該技術分野で周知の反復最近点(「ICP」)アルゴリズムを用いて術前の血管ツリーに位置合わせする。しかしながら、低侵襲冠動脈バイパス移植術ではポートアクセスが小さいために空間的な制約が課されることから、上記の技法は、該技法に関連するデジタル化した動脈と術前データとをマッチングさせるアプローチと同様に実現が困難である。また、この技法では動脈の殆どが見えているか又は外科医により触診される必要があるが、低侵襲冠動脈バイパス移植術ではそのようなことは不可能である。
上記の低侵襲冠動脈バイパス移植術の問題に対処する周知の技法の1つは、光学的に追跡される内視鏡を用いて心臓表面を再現し、それを同じ心臓表面の術前コンピュータ断層撮影(CT)データにマッチさせるレジストレーション方法を実行するというものである。しかしながら、上記の表面の導出に用いられる内視鏡の視野が小さすぎると、この技法は、該技法に関連する表面ベースのマッチングを提案するアプローチと同様に機能しないことがある。さらに、心臓表面には明確な表面特徴がなく比較的滑らかなため、この技法のアルゴリズムは、その極大値が不十分な(suboptimal local maximum)状態で動作する場合が多い。
低侵襲冠動脈バイパス移植術の問題に対処する他の周知の技法は、以前に分類した(labeled)冠動脈ツリーのデータベースを用いて新しい患者から抽出した冠動脈ツリーを分類し、マッチングに基づいてグラフ化するというものである。しかしながら、この技法は完全なツリーが利用可能な場合にのみ機能し、形状をマッチさせることよりもむしろツリーを分類することを目標としている。
低侵襲冠動脈バイパス移植術のさらなる問題は、術前3D画像に対するグローバルポジショニング(global positioning)が得られてからの内視鏡の向き及び誘導に関してである。レジストレーションの目的は吻合部と狭窄の局在確認(localization)を容易にすることである。標準的な状況では、内視鏡が助手によって保持される一方、外科医は2つの器具を保持している。外科医は助手に指示を与え、助手はその指示に従って内視鏡を動かす。このような状況では、助手の基準枠(frame of reference)及び内視鏡の基準枠に対して、外科医の基準枠で外科医の指示が出されるのが一般的であり、助手はその指示を直感的に理解する必要がある。そのため、外科医の手と目の協調が妨げられる。複数の座標系によって、取り扱い上の様々な誤りが起きたり、手術が長引いたり又は冠動脈の誤認が生じたりする場合がある。
外科医が、自身の頭で感じた動きにより内視鏡を直接制御できるようにするために設計された手術用の内視鏡アシスタント(endoscope assistant)は、制御ループから助手の存在を取り除くことでこれらの問題の一部を解消するかもしれないが、外科医の基準枠と内視鏡の基準枠との変換の問題が残る。
本発明は、術前3次元(「3D」)画像(例えば、CT画像、コーンビームCT画像、3次元X線画像又はMRI画像)及び術中内視鏡画像内に示される血管ツリーの各分岐部(例えば、動脈、毛細血管、静脈及び他の多分岐解剖構造の各点)の図的表現(graphical representation)をマッチングさせるための画像レジストレーション方法を提供する。本発明の画像レジストレーション方法は、臓器(例えば、心臓)の表面を覆う脂肪組織によって内視鏡画像内では見えない(即ち、不可視な)血管ツリーの分岐部に対処するものである。
本発明の目的のために、本明細書では、「分岐部」という用語は、血管ツリーに沿った2つ以上に枝分かれする任意の点として広く定義される。
本発明の第1の形態は、内視鏡及び内視鏡コントローラを用いるレジストレーションシステムである。動作時、内視鏡は、解剖領域内の血管ツリー(例えば、動脈ツリー、静脈ツリー又は人間の身体の他の任意の筒状構造)の術中内視鏡画像を生成し、内視鏡コントローラは、前記の血管ツリー術中内視鏡画像を前記血管ツリーの術前3次元画像に画像レジストレーションする。前記血管ツリー術中内視鏡画像は、該術中内視鏡画像内で見える前記血管ツリーの複数の枝を含み、該枝は前記術中内視鏡画像内では見えない前記血管ツリーの分岐部を示す。前記画像レジストレーションは、前記血管ツリー術中内視鏡画像内で見える前記血管ツリーの枝が示す前記血管ツリーの分岐部の図的表現を前記の血管ツリー術前3次元画像内の前記血管ツリーの分岐部の図的表現に画像マッチングさせることを含む。
本発明の第2の形態は画像レジストレーション方法である。該画像レジストレーション方法は、解剖領域内の血管ツリーの術前3次元画像を生成する工程;前記解剖領域内の前記血管ツリーの術中内視鏡画像を生成する工程;及び前記の血管ツリー術中内視鏡画像を前記の血管ツリー術前3次元画像に画像レジストレーションする工程;を含む。前記血管ツリー術中内視鏡画像は、該術中内視鏡画像内で見える前記血管ツリーの複数の枝を含み、該枝は前記術中内視鏡画像内では見えない前記血管ツリーの分岐部を示す。前記画像レジストレーション工程は、前記血管ツリー術中内視鏡画像内で見える前記血管ツリーの枝が示す前記血管ツリーの分岐部の図的表現を、前記血管ツリー術前3次元画像内の前記血管ツリーの分岐部の図的表現に画像マッチングさせることを含む。
本明細書で用いる「術前」という用語は、解剖領域の3次元画像を取得するために、該解剖領域の内視鏡撮像の前、最中又は後で行われる任意の行為を説明するためのものと広く定義され、本明細書で用いる「術中」という用語は、解剖領域の内視鏡撮像の間に行われるか又は関連する任意の行為を説明するためのものと広く定義される。解剖領域の内視鏡撮像の例としては、限定されないが、冠動脈バイパス移植術、気管支鏡検査、大腸内視鏡検査、腹腔鏡検査及び脳内視鏡検査が挙げられる。
本発明の上記の及び他の形態並びに本発明の様々な特徴及び利点は、添付の図面と併せて、下記の本発明の様々な実施形態の詳細な説明を読むことでさらに明らかとなる。下記の詳細な説明及び図面は、本発明を説明するためのものに過ぎず、本発明を限定しない。本発明の範囲は、添付の請求項及びその同等物によって規定される。
図1は、本発明に係るロボット誘導システムの例示の実施形態を示す。 図2は、本発明に係るロボット誘導方法の例示の実施形態を表すフローチャートを示す。 図3は、図2に示すフローチャートの例示の手術実施を示す。 図4は、本発明に係るグラフマッチング法の例示の実施形態を表すフローチャートを示す。 図5は、本発明に係る血管ツリーのメイングラフの例示の規則化を示す。 図6は、本発明に係る血管ツリーのメイングラフの例示の規則化を示す。 図7は、本発明に係る内視鏡画像への幾何学的表現の例示の重ね合わせを示す。 図8は、本発明に係る、図7に示すオーバーレイ内の例示のロボット経路を示す。 図9は、本発明に係る不可視分岐部検出方法を表すフローチャートを示す。 図10は、図9に示すフローチャートに係る多分岐血管ツリーの例示の分岐部検出を示す。 図11は、本発明に係る可視/不可視分岐部レジストレーション方法を表すフローチャートを示す。 図12は、本発明に係る分岐部レジストレーション改良方法を表すフローチャートを示す。
図1に示すように、ロボット誘導システムは、1つ以上の分岐部(即ち、枝)を有する血管ツリーの内視鏡撮像を伴う内視鏡処置のために、ロボットユニット10及び制御ユニット20を用いる。そのような内視鏡処置の例としては、限定されないが低侵襲心臓手術(例えば、冠動脈バイパス移植術又は僧帽弁置換術)が挙げられる。
ロボットユニット10は、ロボット11と、ロボット11に強固に取り付けられた内視鏡12と、内視鏡12に取り付けられた映像取込装置13とを含む。
本明細書では、ロボット11は、1つ以上の関節をモーター制御することで特定の内視鏡処置のためにエンドエフェクタを望み通りに操作するように構造上構成された任意のロボット装置として広く定義される。実際には、ロボット11は、例えば、不動部分(rigid segments)に連続的に接続された関節を有するシリアルロボット、並行な順番(parallel order)で取り付けられた関節及び不動部分を有するパラレルロボット(例えば、当該技術分野で周知のスチュワートプラットホーム)又はシリアル及びパラレル運動学の任意のハイブリッドな組み合わせ等の4自由度を有し得る。
本明細書では、内視鏡12は、身体の内側から撮像する能力を有するように構造上構成された任意の装置として広く定義される。本発明の目的のために、内視鏡12の例としては、限定されないが、柔軟性又は剛性のあらゆる内視鏡(例えば、内視鏡、関節鏡、気管支鏡、胆管鏡、結腸鏡、膀胱鏡、十二指腸鏡、胃カメラ、子宮鏡、腹腔鏡、喉頭鏡、神経鏡、耳鏡、プッシュ腸鏡(push enteroscope)、咽喉鏡、S状結腸鏡、副鼻腔鏡(sinuscope)、胸腔鏡、等)及び内視鏡に類似の、撮像システムを備えた任意の装置(例えば、撮像能力を有する入れ子(nested)カニューレ)が挙げられる。撮像は局所的であり、表面画像は光ファイバー、レンズ及び小型化(例えば、CCDベースの)撮像システムを用いて光学的に得られる。
実際には、内視鏡12はロボット11のエンドエフェクタに取り付けられる。ロボット11のエンドエフェクタの姿勢(pose)は、ロボットアクチュエータの座標系の範囲におけるエンドエフェクタの位置及び向きである。ロボット11のエンドエフェクタに取り付けられた内視鏡12により、解剖領域内の内視鏡12の視野の所定の姿勢は、ロボット座標系内のロボット11のエンドエフェクタの特有の姿勢に対応する。そのため、内視鏡12によって生成される血管ツリーの個々の内視鏡画像のそれぞれは、解剖領域内の内視鏡12の対応姿勢に関連し得る。
本明細書では、映像取込装置13は、内視鏡12からの術中内視鏡映像信号を、コンピュータに読み込み可能な時系列の術中内視鏡画像(「IOEI」)14に変換する能力を有するように構造上構成された任意の装置として広く定義される。実際には、映像取込装置13は、術中内視鏡映像信号から個々のデジタルスチールフレームを取り込む任意の種類のフレーム取り込み器を用い得る。
引き続き図1を参照して、制御ユニット20はロボットコントローラ21及び内視鏡コントローラ22を含む。
本明細書では、ロボットコントローラ21は、内視鏡処置のためにロボット11のエンドエフェクタの姿勢を望み通りに制御するため、1つ以上のロボットアクチュエーターコマンド(「RAC」)26をロボット11に提供するように構造上構成された任意のコントローラとして広く定義される。より具体的には、ロボットコントローラ21は、内視鏡コントローラ22からの内視鏡位置コマンド(「EPC」)25をロボットアクチュエーターコマンド26に変換する。例えば、内視鏡位置コマンド25は、解剖領域内の内視鏡12の視野の所望の3D位置に至る内視鏡経路を示し得る。それにより、ロボットコントローラ21はコマンド25を、ロボット11の各モーターに内視鏡12を該所望の3D位置に移動させるための作動電流を必要に応じて含むコマンド26に変換する。
本明細書では、内視鏡コントローラ22は、図2に例示の本発明に係るロボット誘導方法を実施するように構造上構成された任意のコントローラとして広く定義される。この目的を達成するために、内視鏡コントローラ22は画像処理モジュール(「IPM」)23を包含し得る。本明細書では、画像処理モジュール23は、本発明の解剖学的オブジェクトの画像レジストレーションを実行するように構造上構成された任意のモジュールとして広く定義される。特に、図2に示すフローチャート30のステージS32及びS33によって血管ツリー画像レジストレーションが例示的に実行される。内視鏡コントローラ22はビジュアルサーボモジュール(「VSM」)24をさらに包含し得る。本明細書では、ビジュアルサーボモジュール24は、解剖領域内の内視鏡12の視野の所望の3D位置に至る内視鏡経路を示す内視鏡位置コマンド25を生成するように構造上構成された任意のモジュールとして広く定義される。特に、内視鏡位置コマンド25は、図2に示すフローチャート30のステージS34によって例示的に実行される血管ツリー画像レジストレーションから得られる。
内視鏡コントローラ22のさらなる理解を容易にするために、フローチャート30を以下で説明する。
図2を参照して、フローチャート30のステージS31は、身体の任意の解剖領域の術前3D画像から血管ツリー(例えば、動脈、毛細血管又は静脈の分岐部)の幾何学的表現(geometrical representation)を抽出することを含む。例えば、図3に示すように、3D撮像装置(例えば、CT装置、X線装置又はMRI装置)を操作して、患者50の左冠動脈51及び右冠動脈52を示す、患者50の胸部の術前3D画像を生成する。その後、血管ツリー抽出器43を操作して、画像42から冠動脈ツリーの幾何学的表現44を抽出する。幾何学的表現44はデータベース45に保存され得る。実際には、画像42を生成し、画像42から冠動脈ツリーの3Dデータセットを抽出するのに、フィリップス社が販売するBrilliance iCTスキャナが用いられ得る。
図2に戻って、フローチャート30のステージS32は、画像処理モジュール23が血管ツリーの1つ以上の術中内視鏡画像14(図1)の図的表現を、血管ツリーの術前3D画像44(図1)の図的表現にマッチさせることを含む。例えば、図3に示すように、内視鏡12は、映像取込装置13によって取り込まれた患者50の胸部の術中内視映像を生成して、それを術中内視鏡画像14に変換する。それにより、内視鏡コントローラ22の画像処理モジュール23が、冠動脈ツリーの術中内視鏡画像14の図的表現を冠動脈ツリーの術前3D画像44の図的表現にマッチさせる。例示の実施形態では、画像処理モジュール23は、図4に示すフローチャート60が例示的に表す本発明の血管ツリー画像マッチング方法を実行する。ここでは、血管ツリーが冠動脈ツリーであるという文脈で該方法を説明する。
図4を参照して、フローチャート60のステージS61は、画像処理モジュール23が、当該技術分野で周知な任意の表現方法(representation method)に従って、冠動脈ツリーの幾何学的表現から冠動脈ツリーのメイングラフを生成することを含む。例えば、ステージS61に示すように、冠動脈ツリーの幾何学的表現70が、冠動脈ツリーの幾何学的表現70の各分岐部(例えば、2つ又は3つに分かれる分岐部)を表すノードを有し、ノード間の分岐継手をさらに有するメイングラフ71に変換される。ステージS61は、C型アームを有する血管造影(C-arm angiography)システム又は他の好適なシステムにより、術前(例えば、内視鏡手術の数日前又は患者50に内視鏡12を導入する前の任意の時間)又は術中に行われ得る。
フローチャート60のステージS62は、画像処理モジュール23が、当該技術分野で周知の任意の図的表現方法に従って、術中内視鏡画像14内で見える冠動脈ツリーの一部から冠動脈ツリー部分グラフ(subgraph)を生成することを含む。具体的には、内視鏡12が患者50に導入されることにより、画像処理モジュール23が術中内視鏡画像14内の冠動脈構造の検出を行う。実際には、一部の動脈構造は見えるが、他の動脈構造は脂肪組織の層によって隠れている。そのため、画像処理モジュール23が、周知の画像処理動作(例えば、見える冠動脈構造に特有の赤色による閾値検出)により見える冠動脈構造の自動検出を実行し得るか又は外科医が手動で入力装置を用いて、見える冠動脈構造の輪郭をコンピュータディスプレイ上で描画し得る。動脈構造が検出されると、画像処理モジュール23は、冠動脈ツリーのメイングラフの生成と同様に冠動脈ツリーの部分グラフを生成する。例えば、ステージS62に示すように、冠動脈構造の幾何学的表現72が、冠動脈ツリーの幾何学的表現72の各分岐部(例えば、2つ又は3つに分かれる分岐部)を表すノードを有し、ノード間の分岐継手をさらに有するグラフ73に変換される。双方のツリーは同一人物に由来するため、内視鏡画像に由来するグラフは、3D画像に由来するメイングラフの部分グラフであることが分かる。
フローチャート60のステージS63は、画像処理モジュール23が周知な任意のグラフマッチング法(例えば、最大共通部分グラフ又はマクレガー共通部分グラフ)に従って部分グラフをメイングラフにマッチングさせることを含む。例えば、ステージS63に示すように、部分グラフ73のノードがメイングラフ71のノードのサブセットにマッチングされる。
実際には、部分グラフ73は、術中内視鏡画像14内で部分的にしか検出されなかったり、部分グラフ73の一部のノード/継手が術中内視鏡画像14にはなかったりすることがある。ステージS62のマッチング精度を改善するために、メイングラフ71及び部分グラフ73の付加的な規則化(ordering)が実施され得る。
一実施形態では、ステージS61の画像走査の時に分かっている患者50の向きに基づいて、メイングラフ71のノードが垂直方向に規則化(vertical node ordering)される。具体的には、メイングラフのノードが、図5において実線矢印で例示するように上から下への規則を保つように方向的に結び付けられる。部分グラフ73では、内視鏡12に対する患者の向きが分からないことがある。しかしながら、冠動脈ツリーの枝が上から下に広がるにつれてそれらの径が減少するのであれば、術中内視鏡画像14内の動脈枝の様々な大きさは向きを示し得る。
他の実施形態では、ステージS61の画像走査時に分かっている患者50の向きに基づいて、メイングラフ70のノードが水平方向に規則化(horizontal node ordering)され得る。具体的には、メイングラフのノードが、図6において破線矢印で例示するように左右の規則を保つように方向的に結び付けられる。部分グラフ73では、内視鏡12に対する患者50の向きが分からない可能性が高いため、部分グラフ73のノードの水平方向への規則化は、グラフィカルユーザーインターフェースを介して手術を行う外科医又は助手によって設定され得る。
規則化を用いることでグラフのマッチングにかかる時間が減少し、考えられるマッチの数が少なくなるものの、理論的には、マッチングアルゴリズムによってグラフ間で複数のマッチが得られる可能性が依然としてある。フローチャート30のステージS33の間にそのような複数のマッチの問題が対処される。
再び図2を参照して、グラフのマッチングに基づいて、フローチャートのステージS33は、動脈ツリーの術中内視鏡画像14に動脈ツリーの術前3D画像44の幾何学的表現(図1)を重ねることを含む。これは、メイングラフに一意的に関連付けられた幾何学的表現を用いて行われる。そのため、透視変換(perspective transformation)を用いて形状全体が術中内視鏡画像14に直接変換され得る。この透視変換は、当該技術分野で周知のマッチングアルゴリズム(例えば、ホモグラフィマッチング)を用いて術前3D画像44のノード及び術中内視鏡画像14から検出され得る。
例えば、図7は、術中内視鏡画像90のノード91〜95にマッチするノードを有する冠動脈ツリーの幾何学的表現80を示す。ノード91〜95のうちの各対を成すノード間の距離を用いて幾何学的表現80の倍率を決定して、図示する術中内視鏡図90に幾何学的表現80を重ねることができるようにしてもよい。
実際には、ステージS32のグラフマッチング(図2)で複数の結果が得られた場合、可能性のあるオーバーレイの全てを外科医に表示することで、外科医はグラフィカルユーザーインターフェースを介して、自身が最も可能性の高いマッチであると考えるマッチ結果を選択し得る。術中内視鏡画像14内の少なくとも一部の構造に対する内視鏡12の位置を外科医が知っていれば、その選択は比較的容易であり得る。
再び図2を参照して、フローチャート30のステージS34は、ビジュアルサーボモジュール24が、血管ツリーの術中内視鏡画像14(図1)に重ねられた血管ツリーの術前3D画像44(図1)の幾何学的表現内に内視鏡経路を生成することを含む。その内視鏡経路に基づいて、ビジュアルサーボモジュール24はロボットコントローラ21に対する内視鏡位置コマンド25を生成する。それにより、内視鏡12(図1)が該内視鏡経路に沿って解剖領域内の所望の位置に誘導される。具体的には、正確なオーバーレイが発見されると、ロボット11は、外科医が術前3D画像44上で選択する位置に内視鏡12を誘導するよう命令を受け得る。外科医又は助手が血管ツリーのある点を選択し、ロボット11がその所望の位置に向けて内視鏡12を任意の好適な経路に沿って誘導し得る。例えば、図8に示すように、ロボット11は所望の位置100への最短経路101に沿って又は所望の位置100への冠動脈経路102に沿って内視鏡12を移動させ得る。冠動脈経路102であれば、ロボット11が内視鏡12を移動させるのに従って、外科医は可視動脈を観察することができるため、冠動脈経路102が好ましい実施形態である。それに加えて、マッチングが成功したかどうかを判断する上で外科医の助けとなり得る。冠動脈経路102は、当該技術分野で周知な方法を用いて定義され得る(例えば、ダイクストラ最短経路アルゴリズム)。
実際には、ロボット11の動作は、遠隔運動中心による未校正のビジュアルサーボを用いて命令され、マッチングステージS32時により大きな部分グラフが得られるように(例えば、当該技術分野で周知の術中内視鏡画像14の縫い合わせ)内視鏡12の視野が広げられ得る。
本明細書で前述したように、図2に示すフローチャート30のステージ32及び33は、1つの血管ツリーを伴う本発明の血管ツリー画像レジストレーションを表すものである。それに加えて、前述のステージS32及びS33の説明は、ステージS32及びS33の理解を容易にするために冠動脈ツリーに照らして述べた。実際には、本発明の血管ツリー画像レジストレーションは、身体の任意の解剖領域内にある2つ以上の任意の種類の血管を伴い得る。
再び図2を参照して、ステージS32では、術前データ44(図1)の血管ツリー(例えば、動脈ツリー)を内視鏡映像(図1)にマッチングさせるために、内視鏡の視界内で見える分岐点を用いる。実際には、本明細書で先に述べたように、目に見える分岐部の合計数は、術前データ44の血管ツリーを内視鏡映像14に正確にマッチングさせるのに十分でない可能性がある。また、内視鏡12は通例校正されておらず、内視鏡12を何らかの形で校正するとワークフローが大幅に滞り得ることを考えれば、血管ツリーの幾何学的情報(例えば、内視鏡画像14内の見える枝の形状)を幾何学的な観点(geometric terms)で変換することができない場合もある。
図9〜図12は、内視鏡映像14内では見えないかもしれない分岐部を血管ツリーの見える枝から検出するための、特に内視鏡映像14内では見えない動脈分岐部を動脈の見える部分から検出するステージS32の追加の実施形態を示す。これらの実施形態では、本明細書で先に教示したフローチャート60の原理(図4)に従って、グラフの生成及びノードのマッチングが行われる。
図9を参照して、フローチャート110は、解剖領域の術前3D画像に該解剖領域の術中内視鏡画像をレジストレーションする上での基準となる血管ツリーの見える枝から、内視鏡映像内では見えないかもしれない分岐部を検出する方法を表す。この方法の理解を容易にするために、ここでは、脂肪組織によって覆われているために又は心筋(心筋内動脈)によって内視鏡の視野内では見えない分岐部に照らして、フローチャート110を説明する。脂肪組織によって覆われているために又は心筋により分岐部が見えない状況は、冠動脈バイパス手術を必要とする患者にはよく見られることである。
フローチャート110のステージS111は、内視鏡の視野内で見える血管ツリーの枝部分を利用して、内視鏡の視野内では見えない分岐部を取り囲み得る多角形を作成することを含む。
具体的には、ステージS111では、外科医又は補助スタッフが、内視鏡映像に示される血管ツリーの見える部分に手動でマーキングすることを含む。例えば、ステージS111は動脈ツリーのサブツリー120を示す。内視鏡映像内ではマーキングされた3つの動脈部分121〜123が見えているが、該動脈ツリーの残りの部分、とりわけサブツリー120の分岐部の双方は脂肪に覆われている。
ステージS111は、血管ツリーの見えない分岐部を取り囲む多角形領域を描画する(delineate)ために、目に見えるマーキングされた枝部分から伸びた線を定義することをさらに含む。例えば、ステージS111は、サブツリー120の見えない分岐部を取り囲む領域を描画するために、部分121から伸びた線121x−121y、部分122から伸びた線122x−122y及び部分123から伸びた線123x−123yを示す。実際には、動脈は心臓の上から下に走ることから動脈が突然方向を変えて上方に行くようなことは考えられないため、各線とそれに対応する部分との間の角度が予め定義され得る。また、動脈ツリーの術前3D走査から最大可能角度が抽出され得る。
ステージS111に例示する3つ(triplet)の部分の場合、全ての部分からの線全てが重なる多角形領域(丸で示す)が多くて1つ存在する。これは、サブツリー120の分岐部の発見が見込まれる囲まれた領域である。線が重なり合わなければ、マーキングした枝部分121〜123は同じ動脈枝に属するか、分岐部がないか又はマーキングした枝部分121〜123は全く異なる枝に属する可能性が高い。
フローチャート110のステージS112は、ステージS111で描画した多角形領域から、該多角形領域内の分岐部を定義することを含む。一実施形態では、ステージS112に示すように、多角形領域の中心124が分岐部として定義され得る。代替の実施形態では、描画した多角形領域が内視鏡画像上で見えるようにされ得る。外科医は、組織又は近くの解剖構造についての自身の知識により及び/又は術前の走査データから、自身が分岐点の場所である可能性が最も高いと考える多角形領域内の点を手動で選択し得る。より具体的には、選択した血管の1つが解剖学的に特定できれば(例えば、左冠動脈前下行枝)、その血管構造の周りの術前画像を観察することで、可能性のある多角形領域内の分岐部を見事に推測できるようになる。
分岐点が算出又は選択されると、その新たな分岐点を用いて血管構造の図的表現が生成され得る。例えば、ステージS112は、見える枝部分121〜123によって定義される分岐部124に基づく図的表現125を示す。この図的表現125は、フローチャート60のための部分グラフ又はより大きな部分グラフの一部となり得る(図4)。
実際には、冠動脈は、殆どの患者に亘って形状及び形態が標準的な明確に定義された解剖構造だということを考えれば、理にかなっていない図的表現は定義した分岐点が誤っていることを示し得る。例えば、分岐点124が、動脈ツリーの解剖構造に鑑みれば極めて可能性が低い過度の曲線を描くことを特定の血管部分122に求める場合は、その誤った分岐点124に鑑みて図的表現125は理にかなわないと見做され得る。この場合、図的表現125が廃棄され、フローチャート110が再度実行され得る。
フローチャート110のさらなる理解を容易にするために、図10は、動脈ツリーのサブツリー130の見える4つの枝部分131〜134のマーキングを示す。計4つの多角形領域候補が、部分131〜134の重なり合う線x-yの可能な組み合わせの全てから描画されている。具体的には、部分131−132−133の線x−yが第1の多角形領域を形成し、部分132−133−134からの線x−yが第2の多角形領域を形成し、部分132−134からの線x−yが第3の多角形領域を形成し、部分133−134の線x−yが第4の多角形領域を形成する。これらの4つの多角形領域のうち、第1の多角形領域及び第2の多角形領域が3つの部分の重なりを含むため、それらの多角形領域のみが有効である。分岐部候補135は多角形領域131−132−133の中心であり、分岐部候補136は多角形領域132−133−134の中心である。多角形領域131−132−133は多角形領域132−133−134の内にあるため、2つの分岐部候補135及び136は一次ツリー(破線)を介してつながっていると考えられ得る。
実際には、動脈ツリーの内視鏡画像は見える分岐部と見えない分岐部とを有し得る。図11は、フローチャート60(図4)に従って部分グラフを生成するための可視/不可視分岐部レジストレーション方法を表すフローチャート140を示す。
フローチャート140のステージS141は、内視鏡画像内で見えるn個の分岐部Bの選択を含む。フローチャート140のステージS142は、フローチャート110(図9)に従って内視鏡画像内で見える枝部分の全ての選択を含む。フローチャート140のステージS143は、選択された見える枝部分から、k個の多角形領域Pを描画することを含み、フローチャート140のステージS144は、k個の見えない分岐部候補Cを定義することを含む。
フローチャート140のステージS145は、n個の見える分岐部Bの全てを、k個の見えない分岐部候補Cの全てと比較することを含む。分岐部の対(B、C)のどれかが同じ多角形領域に属していれば、見えない分岐部は見える分岐部を予測している可能性が高いため、それが廃棄される。残りのm個の見えない分岐部の全てが組み合わされて、フローチャート140のステージS146の間に最終的な分岐部のリストが作られる。そのため、最終的な分岐部のリストからフローチャート60のために部分グラフが生成され得る。
図9を参照して、臨床内視鏡は通例校正されておらず、何らかの形で校正を行うとワークフローが大幅に滞り得るため、見えない枝部分をマーキングするのに動脈ツリーの形状をそのまま用いることがではない。そのため、動脈ツリーの形状の尺度(scale)が分からない。図12は、ステージS32により最初の画像レジストレーションが行われた後で、術前3D画像から内視鏡画像内のオブジェクトの尺度を読み出し(図2)、ステージS33により術前3D画像の動脈が内視鏡画像に重ねられる(図2)レジストレーション改善方法を表すフローチャート150を示す。例えば、術前3D画像から、内視鏡画像内の任意の動脈部分オブジェクトの長さをSI単位で読み出すことができる。
具体的には、フローチャート150のステージS152は、重ね合わせを行った後でオブジェクトの、特に動脈の尺度を読み出すことを含む。オブジェクトの尺度及び動脈部分の形状の倍率はピクセルではなく国際単位(例えば、ミリメートル)である。これらの形状は、ポイントベースレジストレーション(例えば、当該技術分野で周知の反復最近点(ICP))を行うためにフローチャート150のステージS153で利用され、今度はそれがステージS32の初期画像レジストレーションの改善に使用される。
再び図1を参照して、実際には、モジュール23及び24は、図示の内視鏡コントローラ22と統合されたハードウェア、ソフトウェア及び/又はファームウェアによって実行され得る。
本明細書で述べた図1〜図12の説明から、当業者は、限定されないが、任意の種類の血管に対して行われる任意の種類の内視鏡手術への本発明の適用を含む本発明の数多くの利点が分かる。
本発明を例示の態様、特徴及び実施形態を参照して説明してきたが、開示のシステム及び方法はそのような例示の態様、特徴及び/又は実施形態に限定されない。むしろ、当業者には本明細書で述べた説明から既に明らかなように、開示のシステム及び方法は、本発明の精神又は範囲から逸脱することなく、変更、変形及び改善を許容する。従って、そのような変更、変形及び改善は明らかに本発明の範囲に含まれる。

Claims (20)

  1. 画像レジストレーションシステムであって、
    解剖領域内の血管ツリーの術中内視鏡画像を生成するように動作可能な内視鏡;及び
    前記の血管ツリー術中内視鏡画像を前記解剖領域内の前記血管ツリーの術前3次元画像に画像レジストレーションするように動作可能な内視鏡コントローラ;
    を含み、
    前記血管ツリー術中内視鏡画像は該術中内視鏡画像内で見える前記血管ツリーの複数の枝を含み、該枝は前記術中内視鏡画像内では見えない前記血管ツリーの分岐部を示し、
    前記画像レジストレーションは、前記血管ツリー術中内視鏡画像内で見える前記血管ツリーの枝が示す前記血管ツリーの分岐部の図的表現を、前記血管ツリー術前3次元画像内の前記血管ツリーの分岐部の図的表現に画像マッチングさせることを含む、画像レジストレーションシステム。
  2. 前記画像マッチングは:
    前記血管ツリー術前3次元画像の幾何学的表現に由来するメイングラフを生成すること;
    前記血管ツリー術中内視鏡画像の幾何学的表現に由来する部分グラフを生成すること;及び
    前記部分グラフを前記メイングラフにノードマッチングさせること;
    を含み、
    前記メイングラフは前記血管ツリー術前3次元画像内の前記血管ツリーの各分岐部を表すノードのメインセットを含み、
    前記部分グラフは前記ノードのメインセットのサブセットを含み、該サブセットの第1のノードは、前記血管ツリー術中内視鏡画像内で見える前記血管ツリーの枝が示す前記血管ツリーの分岐部を表す、請求項1に記載の画像レジストレーションシステム。
  3. 前記部分グラフを前記メイングラフに画像マッチングさせることは、前記メイングラフ内のノードを垂直方向及び水平方向のうちの少なくとも一方に規則化することを含む、請求項2に記載の画像レジストレーションシステム。
  4. 前記画像レジストレーションは、前記術中内視鏡画像内では見えない前記血管ツリーの分岐部を取り囲む多角形領域を、前記術中内視鏡画像上に描画することをさらに含む、請求項1に記載の画像レジストレーションシステム。
  5. 前記多角形領域の描画は:
    前記術中内視鏡画像内で見える前記血管ツリーの枝のそれぞれを枝部分としてマーキングすること;
    各枝部分から線を伸ばすこと;及び
    異なる枝部分の重なり合った線を描画することを含む、請求項4に記載の画像レジストレーションシステム。
  6. 前記画像レジストレーションは、前記術中内視鏡画像内では見えない前記血管ツリーの分岐部の検出として、前記多角形領域内で分岐部候補を定義することをさらに含む、請求項4に記載の画像レジストレーションシステム。
  7. 前記多角形領域内で前記分岐部候補を定義することは、前記多角形領域の中心を前記分岐部候補として特定することを含む、請求項6に記載の画像レジストレーションシステム。
  8. 前記多角形領域内で前記分岐部候補を定義することは、前記解剖領域の構造に基づいて、前記多角形領域内の点を前記分岐部候補として特定することを含む、請求項6に記載の画像レジストレーションシステム。
  9. 前記多角形領域内で前記分岐部候補を定義することは、前記血管ツリー術前3次元画像に基づいて、前記多角形領域内の点を前記分岐部候補として特定することを含む、請求項6に記載の画像レジストレーションシステム。
  10. 前記画像レジストレーションは、前記術中内視鏡画像内で見える分岐部の全てを選択することをさらに含み、
    前記画像マッチングは、前記見える分岐部及び前記見えない分岐部を利用して、前記血管ツリー術中内視鏡画像の幾何学的表現を生成することを含む、請求項1に記載の画像レジストレーションシステム。
  11. 前記画像レジストレーションは、前記血管ツリーの見えない分岐部を取り囲む多角形領域を、前記術中内視鏡画像上に描画することをさらに含み、前記見える分岐部は該多角形領域の外にある、請求項10に記載の画像レジストレーションシステム。
  12. 前記内視鏡コントローラは、前記血管ツリー術前3次元画像内の前記血管ツリーの尺度に基づいて、前記血管ツリー術中内視鏡画像の前記血管ツリー術前3次元画像への画像レジストレーションを改善するようにさらに動作可能である、請求項1に記載の画像レジストレーションシステム。
  13. 前記画像レジストレーションの改善は:
    前記血管ツリー術前3次元画像内の前記血管ツリーの尺度を利用して、前記術中内視鏡画像内で見える前記血管ツリーの各枝の形状を拡大縮小すること;及び
    前記術中内視鏡画像内で見える前記血管ツリーの各枝の形状の尺度を利用して、前記血管ツリー術中内視鏡画像の前記血管ツリー術前3次元画像へのポイントベースレジストレーションを行うことを含む、請求項1に記載の画像レジストレーションシステム。
  14. 前記内視鏡コントローラは、前記画像レジストレーションに従って、前記血管ツリー術前3次元画像の幾何学的表現を前記血管ツリー術中内視鏡画像に重ね合わせるようにさらに動作可能である、請求項1に記載の画像レジストレーションシステム。
  15. 前記血管ツリーは、動脈ツリー及び静脈ツリーのうちの一方である、請求項1に記載の画像レジストレーションシステム。
  16. 画像レジストレーション方法であって、
    解剖領域内の血管ツリーの術前3次元画像を生成する工程;
    前記解剖領域内の前記血管ツリーの術中内視鏡画像を生成する工程;及び
    前記の血管ツリー術中内視鏡画像を前記の血管ツリー術前3次元画像に画像レジストレーションする工程;
    を含み、
    前記血管ツリー術中内視鏡画像は、該術中内視鏡画像内で見える前記血管ツリーの複数の枝を含み、該枝は前記術中内視鏡画像内では見えない前記血管ツリーの分岐部を示し、
    前記画像レジストレーション工程は、前記血管ツリー術中内視鏡画像内で見える前記血管ツリーの枝が示す前記血管ツリーの分岐部の図的表現を、前記血管ツリー術前3次元画像内の前記血管ツリーの分岐部の図的表現に画像マッチングさせることを含む、画像レジストレーション方法。
  17. 前記画像マッチング工程は:
    前記血管ツリー術前3次元画像の幾何学的表現に由来するメイングラフを生成すること;
    前記血管ツリー術中内視鏡画像の幾何学的表現に由来する部分グラフを生成すること;及び
    前記部分グラフを前記メイングラフにノードマッチングさせること;
    を含み、
    前記メイングラフは前記血管ツリー術前3次元画像内の前記血管ツリーの各分岐部を表すノードのメインセットを含み、
    前記部分グラフは前記ノードのメインセットのサブセットを含み、該サブセットの第1のノードは、前記血管ツリー術中内視鏡画像内の前記血管ツリーの見える枝が示す前記血管ツリーの分岐部を表す、請求項16に記載の画像レジストレーション方法。
  18. 前記部分グラフを前記メイングラフに画像マッチングさせることは、前記メイングラフ内のノードを垂直方向及び水平方向のうちの少なくとも一方に規則化することを含む、請求項17に記載の画像レジストレーション方法。
  19. 前記内視鏡コントローラは、前記画像レジストレーション工程に従って、前記血管ツリー術前3次元画像の幾何学的表現を前記血管ツリー術中内視鏡画像に重ね合わせるようにさらに動作可能である、請求項16に記載の画像レジストレーション方法。
  20. 前記血管ツリーは、動脈ツリー及び静脈ツリーのうちの一方である、請求項16に記載の画像レジストレーション方法。
JP2014555378A 2012-02-06 2013-02-04 血管ツリー画像内での見えない分岐部の検出 Active JP6122875B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261595315P 2012-02-06 2012-02-06
US61/595,315 2012-02-06
PCT/IB2013/050938 WO2013118047A1 (en) 2012-02-06 2013-02-04 Invisible bifurcation detection within vessel tree images

Publications (2)

Publication Number Publication Date
JP2015505502A true JP2015505502A (ja) 2015-02-23
JP6122875B2 JP6122875B2 (ja) 2017-04-26

Family

ID=48044955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014555378A Active JP6122875B2 (ja) 2012-02-06 2013-02-04 血管ツリー画像内での見えない分岐部の検出

Country Status (6)

Country Link
US (1) US9280823B2 (ja)
EP (1) EP2811889B1 (ja)
JP (1) JP6122875B2 (ja)
BR (1) BR112014019059A8 (ja)
RU (1) RU2014136346A (ja)
WO (1) WO2013118047A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018521774A (ja) * 2015-07-23 2018-08-09 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ボリュームイメージの対話型平面スライスからの内視鏡誘導
KR102503882B1 (ko) * 2022-05-17 2023-02-27 주식회사 메디픽셀 심혈관 이미지의 3차원 재구성을 위한 cip 자동 검출 방법 및 시스템
WO2024203044A1 (ja) * 2023-03-31 2024-10-03 テルモ株式会社 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10758315B2 (en) 2012-06-21 2020-09-01 Globus Medical Inc. Method and system for improving 2D-3D registration convergence
US11857149B2 (en) 2012-06-21 2024-01-02 Globus Medical, Inc. Surgical robotic systems with target trajectory deviation monitoring and related methods
US11045267B2 (en) 2012-06-21 2021-06-29 Globus Medical, Inc. Surgical robotic automation with tracking markers
US11864745B2 (en) 2012-06-21 2024-01-09 Globus Medical, Inc. Surgical robotic system with retractor
US12004905B2 (en) 2012-06-21 2024-06-11 Globus Medical, Inc. Medical imaging systems using robotic actuators and related methods
US11963755B2 (en) 2012-06-21 2024-04-23 Globus Medical Inc. Apparatus for recording probe movement
US11253327B2 (en) 2012-06-21 2022-02-22 Globus Medical, Inc. Systems and methods for automatically changing an end-effector on a surgical robot
US11589771B2 (en) 2012-06-21 2023-02-28 Globus Medical Inc. Method for recording probe movement and determining an extent of matter removed
US11857266B2 (en) 2012-06-21 2024-01-02 Globus Medical, Inc. System for a surveillance marker in robotic-assisted surgery
US11974822B2 (en) 2012-06-21 2024-05-07 Globus Medical Inc. Method for a surveillance marker in robotic-assisted surgery
US11864839B2 (en) 2012-06-21 2024-01-09 Globus Medical Inc. Methods of adjusting a virtual implant and related surgical navigation systems
US11793570B2 (en) 2012-06-21 2023-10-24 Globus Medical Inc. Surgical robotic automation with tracking markers
US11786324B2 (en) 2012-06-21 2023-10-17 Globus Medical, Inc. Surgical robotic automation with tracking markers
US10799298B2 (en) 2012-06-21 2020-10-13 Globus Medical Inc. Robotic fluoroscopic navigation
US11399900B2 (en) 2012-06-21 2022-08-02 Globus Medical, Inc. Robotic systems providing co-registration using natural fiducials and related methods
US10874466B2 (en) 2012-06-21 2020-12-29 Globus Medical, Inc. System and method for surgical tool insertion using multiaxis force and moment feedback
US10624710B2 (en) 2012-06-21 2020-04-21 Globus Medical, Inc. System and method for measuring depth of instrumentation
US11896446B2 (en) 2012-06-21 2024-02-13 Globus Medical, Inc Surgical robotic automation with tracking markers
US9471989B2 (en) * 2013-06-03 2016-10-18 University Of Florida Research Foundation, Inc. Vascular anatomy modeling derived from 3-dimensional medical image processing
JP6043310B2 (ja) * 2014-03-31 2016-12-14 富士フイルム株式会社 画像処理装置、方法およびプログラム
JP6476041B2 (ja) * 2015-03-31 2019-02-27 株式会社Aze 医用画像診断装置、その制御方法、及びプログラム
GB201506842D0 (en) * 2015-04-22 2015-06-03 Ucl Business Plc And Schooling Steven Locally rigid vessel based registration for laparoscopic liver surgery
CN114822783A (zh) 2015-10-30 2022-07-29 佳能株式会社 医用图像处理装置及其控制方法
JP6496698B2 (ja) * 2015-10-30 2019-04-03 株式会社Aze 医用画像処理装置、その制御方法、及びプログラム
EP3397184A1 (en) 2015-12-29 2018-11-07 Koninklijke Philips N.V. System, control unit and method for control of a surgical robot
US11883217B2 (en) 2016-02-03 2024-01-30 Globus Medical, Inc. Portable medical imaging system and method
US20190069955A1 (en) 2016-03-17 2019-03-07 Koninklijke Philips N.V. Control unit, system and method for controlling hybrid robot having rigid proximal portion and flexible distal portion
USD843382S1 (en) * 2016-09-21 2019-03-19 Analytics For Life Display with graphical user interface
USD858532S1 (en) * 2016-09-21 2019-09-03 Analytics For Life Inc. Display screen with transitional graphical user interface
CN110575255B (zh) * 2018-06-07 2022-08-16 格罗伯斯医疗有限公司 使用自然基准提供共配准的机器人系统和相关方法
CN111493830B (zh) * 2020-04-24 2023-03-24 天津恒宇医疗科技有限公司 一种基于冠脉分叉病变的oct三维可视化系统及工作方法
DE102021207957A1 (de) 2021-07-23 2023-01-26 Siemens Healthcare Gmbh Computerimplementiertes Verfahren zur Auswertung eines angiographischen Computertomographiedatensatzes, Auswertungseinrichtung, Computerprogramm und elektronisch lesbarer Datenträger

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005278888A (ja) * 2004-03-29 2005-10-13 Olympus Corp 手技支援システム
JP2006198032A (ja) * 2005-01-18 2006-08-03 Olympus Corp 手術支援システム
JP2007044488A (ja) * 2005-06-22 2007-02-22 Siemens Corporate Res Inc パスベースのツリーマッチングのためのシステムおよび方法
JP2007244746A (ja) * 2006-03-17 2007-09-27 Olympus Medical Systems Corp 観察システム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10323008A1 (de) * 2003-05-21 2004-12-23 Siemens Ag Verfahren zur automatischen Fusion von 2D-Fluoro-C-Bogen-Bildern mit präoperativen 3D-Bildern unter einmaliger Verwendung von Navigationsmarken
US8233681B2 (en) * 2004-09-24 2012-07-31 The University Of North Carolina At Chapel Hill Methods, systems, and computer program products for hierarchical registration between a blood vessel and tissue surface model for a subject and a blood vessel and tissue surface image for the subject
DE102005023167B4 (de) * 2005-05-19 2008-01-03 Siemens Ag Verfahren und Vorrichtung zur Registrierung von 2D-Projektionsbildern relativ zu einem 3D-Bilddatensatz
US20070217665A1 (en) * 2006-02-13 2007-09-20 Siemens Corporate Research, Inc. System and Method For Image-Based Tree Matching And Registration
US7983459B2 (en) * 2006-10-25 2011-07-19 Rcadia Medical Imaging Ltd. Creating a blood vessel tree from imaging data
WO2008111070A2 (en) * 2007-03-12 2008-09-18 David Tolkowsky Devices and methods for performing medical procedures in tree-like luminal structures
US8170304B2 (en) * 2007-04-03 2012-05-01 Siemens Aktiengesellschaft Modeling cerebral aneurysms in medical images
US8086000B2 (en) * 2007-08-27 2011-12-27 Pie Medical Imaging B.V. Method, apparatus and computer program for quantitative bifurcation analysis on angiographic images
US20090163800A1 (en) * 2007-12-20 2009-06-25 Siemens Corporate Research, Inc. Tools and methods for visualization and motion compensation during electrophysiology procedures
US20100061611A1 (en) * 2008-09-11 2010-03-11 Siemens Corporate Research, Inc. Co-registration of coronary artery computed tomography and fluoroscopic sequence
US20110282151A1 (en) * 2008-10-20 2011-11-17 Koninklijke Philips Electronics N.V. Image-based localization method and system
US9524550B2 (en) * 2009-05-05 2016-12-20 Siemens Healthcare Gmbh System and method for coronary digital subtraction angiography
BRPI1007726A2 (pt) * 2009-05-18 2017-01-31 Koninl Philips Electronics Nv método para registro baseado em imagem entre as imagens, sistema para registro baseado em imagem entre imagens, método para calibração de posição de câmera para endoscopia guiada e sistema para calibração de câmera para endoscopia guida
WO2012035492A1 (en) 2010-09-15 2012-03-22 Koninklijke Philips Electronics N.V. Robotic control of an endoscope from blood vessel tree images
US9471989B2 (en) * 2013-06-03 2016-10-18 University Of Florida Research Foundation, Inc. Vascular anatomy modeling derived from 3-dimensional medical image processing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005278888A (ja) * 2004-03-29 2005-10-13 Olympus Corp 手技支援システム
JP2006198032A (ja) * 2005-01-18 2006-08-03 Olympus Corp 手術支援システム
JP2007044488A (ja) * 2005-06-22 2007-02-22 Siemens Corporate Res Inc パスベースのツリーマッチングのためのシステムおよび方法
JP2007244746A (ja) * 2006-03-17 2007-09-27 Olympus Medical Systems Corp 観察システム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018521774A (ja) * 2015-07-23 2018-08-09 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ボリュームイメージの対話型平面スライスからの内視鏡誘導
KR102503882B1 (ko) * 2022-05-17 2023-02-27 주식회사 메디픽셀 심혈관 이미지의 3차원 재구성을 위한 cip 자동 검출 방법 및 시스템
WO2023224369A1 (ko) * 2022-05-17 2023-11-23 주식회사 메디픽셀 심혈관 이미지의 3차원 재구성을 위한 cip 자동 검출 방법 및 시스템
WO2024203044A1 (ja) * 2023-03-31 2024-10-03 テルモ株式会社 画像処理装置、画像処理システム、画像表示方法、及び画像処理プログラム

Also Published As

Publication number Publication date
EP2811889B1 (en) 2018-11-28
JP6122875B2 (ja) 2017-04-26
EP2811889A1 (en) 2014-12-17
BR112014019059A8 (pt) 2017-07-11
US9280823B2 (en) 2016-03-08
US20150010225A1 (en) 2015-01-08
CN104105439A (zh) 2014-10-15
BR112014019059A2 (ja) 2017-06-20
RU2014136346A (ru) 2016-03-27
WO2013118047A1 (en) 2013-08-15

Similar Documents

Publication Publication Date Title
JP6122875B2 (ja) 血管ツリー画像内での見えない分岐部の検出
US10182704B2 (en) Robotic control of an endoscope from blood vessel tree images
JP6251681B2 (ja) 血管ツリー画像の内視鏡的位置合わせ
US10835344B2 (en) Display of preoperative and intraoperative images
EP3463032B1 (en) Image-based fusion of endoscopic image and ultrasound images
US10772684B2 (en) Spatial visualization of internal mammary artery during minimally invasive bypass surgery
EP2996617B1 (en) Robotic control of an endoscope from anatomical features
WO2012156873A1 (en) Endoscope segmentation correction for 3d-2d image overlay
US20230215059A1 (en) Three-dimensional model reconstruction
CN104105439B (zh) 血管树图像内不可见的二分叉的检测

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170403

R150 Certificate of patent or registration of utility model

Ref document number: 6122875

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250