JP2010510815A - Adaptive navigation technology for navigating a catheter through a body passage or cavity - Google Patents

Adaptive navigation technology for navigating a catheter through a body passage or cavity Download PDF

Info

Publication number
JP2010510815A
JP2010510815A JP2009535836A JP2009535836A JP2010510815A JP 2010510815 A JP2010510815 A JP 2010510815A JP 2009535836 A JP2009535836 A JP 2009535836A JP 2009535836 A JP2009535836 A JP 2009535836A JP 2010510815 A JP2010510815 A JP 2010510815A
Authority
JP
Japan
Prior art keywords
probe
path
network
lumen
voxels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009535836A
Other languages
Japanese (ja)
Inventor
ドリアン アバーブーフ,
オレン ウェインガーテン,
レオ ヨスコウィッツ,
イゴール マルコフ,
イワン ボロベイチク,
イーガル ウルチン,
ラン コーエン,
Original Assignee
スーパーディメンション, リミテッド
ドリアン アバーブーフ,
オレン ウェインガーテン,
レオ ヨスコウィッツ,
イゴール マルコフ,
イワン ボロベイチク,
イーガル ウルチン,
ラン コーエン,
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by スーパーディメンション, リミテッド, ドリアン アバーブーフ,, オレン ウェインガーテン,, レオ ヨスコウィッツ,, イゴール マルコフ,, イワン ボロベイチク,, イーガル ウルチン,, ラン コーエン, filed Critical スーパーディメンション, リミテッド
Priority claimed from PCT/IB2007/004576 external-priority patent/WO2008125910A2/en
Publication of JP2010510815A publication Critical patent/JP2010510815A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

標的への管腔ネットワークを介する経路を決定するための三次元モデルを構築するために、組み立てられた三次元画像を用いる方法。三次元モデルは、プローブの位置を追跡し記録すること、およびモデルとプローブの位置の表示との間でレジストレーションを継続的に調整することによって、プローブの実際の位置に自動的にレジストレーションされる。動きがモデルとプローブの表示との間のレジストレーションに対してより大きな影響を有するネットワークの末梢において、プローブがより小さい管腔に近づくにつれて、レジストレーションアルゴリズムは、動的(弾性)になる。A method of using an assembled 3D image to build a 3D model for determining a route through a luminal network to a target. The 3D model is automatically registered to the actual position of the probe by tracking and recording the position of the probe and by continuously adjusting the registration between the model and the display of the position of the probe. The The registration algorithm becomes dynamic (elastic) as the probe approaches a smaller lumen at the periphery of the network where movement has a greater effect on registration between the model and the representation of the probe.

Description

(関係する出願)
本出願は、Adaptive Navigation Methodという名称で2006年11月10日に出願された米国仮特許出願第60/865,379号、Adaptive Navigation Technique For Navigating A Catheter Through A Body Channel Or Cavityという名称で2006年11月28日に出願された米国仮特許出願第60/867,428号、およびAdaptive Navigation Technique For Navigating A Catheter Through A Body Channel Or Cavityという名称で2007年2月1日に出願された米国仮特許出願第60/887,663号への優先権を主張し、上記出願のすべては、本明細書で参照により援用される。
(Related application)
This application is U.S. Provisional Patent Application No. 60 / 865,379, filed on November 10, 2006, under the name Adaptive Navigation Method, and is named Adaptive Navigating Technology for Cathre Thorough A6. US Provisional Patent Application No. 60 / 867,428, filed on November 28, and Adaptive Navigation Technique for Navigating A Catheter Through A Body Channel Or Cavity, filed February 1, 2007 Claiming priority to Application No. 60 / 887,663, the above application All are incorporated by reference herein.

(本発明の背景)
肺動脈系に見られるもののような蛇行性の通路を通して予め決定された標的へのカテーテルの先端のナビゲーションを可能にするブレイクスルー技術が出現した。この技術は、身体のうちの標的とされるエリアの三次元デジタル地図に対する配置可能なガイド(LG;locatable guide)のリアルタイムの動きを比較する(当業者は、本発明が、いくつか例を挙げれば、循環器系、消化器系、肺動脈系など、任意の体腔または器官において用いられ得ることを認識するであろうが、説明の目的で肺の肺動脈気道が以下で用いられるであろう)。
(Background of the present invention)
Breakthrough techniques have emerged that allow navigation of the catheter tip to a predetermined target through tortuous passages such as those found in the pulmonary artery system. This technique compares the real-time movement of a placeable guide (LG) against a three-dimensional digital map of a targeted area of the body (the person skilled in the art will give some examples It will be appreciated that, for example, the pulmonary pulmonary airway will be used below for purposes of illustration, although it may be used in any body cavity or organ such as the circulatory system, digestive system, pulmonary artery system, etc.

そのような技術は、すべてGilboaまたはGilboa他に帰属する特許文献1、特許文献2、特許文献3、特許文献4、特許文献5、特許文献6、特許文献7、特許文献8、特許文献9、特許文献10、特許文献11、およびGilboaまたはGilboa他のいずれかに帰属する特許文献12、特許文献13、特許文献14、特許文献15で説明されている。これらの参照のすべては、それらの全体において本明細書で援用される。   Such technologies are all described in Patent Document 1, Patent Document 2, Patent Document 3, Patent Document 4, Patent Document 5, Patent Document 6, Patent Document 7, Patent Document 8, Patent Document 9, Patent Document 9, which belong to Gilboa or Gilboa et al. Patent Document 10, Patent Document 11, and Patent Document 12, Patent Document 13, Patent Document 14, and Patent Document 15 belonging to either Gilboa or Gilboa et al. All of these references are incorporated herein in their entirety.

米国特許第6,188,355号明細書US Pat. No. 6,188,355 米国特許第6,226,543号明細書US Pat. No. 6,226,543 米国特許第6,558,333号明細書US Pat. No. 6,558,333 米国特許第6,574,498号明細書US Pat. No. 6,574,498 米国特許第6,593,884号明細書US Pat. No. 6,593,884 米国特許第6,615,155号明細書US Pat. No. 6,615,155 米国特許第6,702,780号明細書US Pat. No. 6,702,780 米国特許第6,711,429号明細書US Pat. No. 6,711,429 米国特許第6,833,814号明細書US Pat. No. 6,833,814 米国特許第6,974,788号明細書US Pat. No. 6,974,788 米国特許第6,996,430号明細書US Pat. No. 6,996,430 米国特許出願公開第2002/0193686号明細書US Patent Application Publication No. 2002/0193686 米国特許出願公開第2003/0074011号明細書US Patent Application Publication No. 2003/0074011 米国特許出願公開第2003/0216639号明細書US Patent Application Publication No. 2003/0216639 米国特許出願公開第2004/0249267号明細書US Patent Application Publication No. 2004/0249267

この背景技術の一局面は、集合的に、肺動脈系を通るLGの実際の動きに対する三次元デジタル地図として用いられるCT画像のレジストレーションに関連する。ユーザーインターフェースは、再構成された画像の交差点に重ねられたLGの位置と同時に、x、y、およびzの方向からソフトウェアによって再構成される三つの別個のCTベースの画像を示す。CT画像が気道の実際の位置を正確に反映しない場合には、LGが進められるにつれて、LGは、すばやく気道の外にそれるように見え、それによってナビゲーションシステムの有用性を減ずる。   One aspect of this background art collectively relates to the registration of CT images used as a three-dimensional digital map for the actual movement of LG through the pulmonary artery system. The user interface shows three separate CT-based images that are reconstructed by software from the x, y, and z directions, as well as the position of the LG superimposed at the intersection of the reconstructed images. If the CT image does not accurately reflect the actual location of the airway, as the LG is advanced, the LG will appear to divert quickly out of the airway, thereby reducing the usefulness of the navigation system.

現在、肺の中心エリアの中の選ばれた公知の標識にあるレジストレーションポイントは、CTベースのデジタル地図を患者の胸部腔とレジストレーションまたは整列させるために用いられる。これらのレジストレーションポイントは、計画段階中に最初に選ばれ、内側の肺の表面上にマークされる。手順の始めに、患者の気道中で気管支鏡によって補助されたLGを用いて、対応する地点が接触され、記録される。そうすることは、LGの位置の正確な表現がモニター上に表示されるように、コンピューターがデジタル地図をLGから受け取ったデータと整列させることを可能にする。   Currently, registration points at selected known landmarks in the central area of the lung are used to register or align a CT-based digital map with the patient's chest cavity. These registration points are initially chosen during the planning phase and marked on the inner lung surface. At the beginning of the procedure, the corresponding points are touched and recorded using LG assisted by a bronchoscope in the patient's airway. Doing so allows the computer to align the digital map with the data received from the LG so that an accurate representation of the location of the LG is displayed on the monitor.

しかしながら、多様な要因に起因して、レジストレーションの正確さは、LGとレジストレーションポイントとの間の距離が増すにつれて減ずる。言い換えれば、ナビゲーションシステムは、正確さが最も必要とされる肺の末梢でより正確でなくなる。このことは、多様な要因に起因し、それらのうちの二つは、本発明の焦点である。第一の要因は、肺の構造が柔軟であるのに対して、現行のシステムによるデジタル地図として利用されるCTデジタル画像の硬直性に関係する。第二に、最後のレジストレーションポイントからの距離が増すにつれて、エラーが合成される。合成されたエラーは、柔軟な気道と結合して、CT画像上の気道の外側にあるように見えるLGとなる。   However, due to various factors, registration accuracy decreases as the distance between the LG and the registration point increases. In other words, the navigation system becomes less accurate at the periphery of the lung where accuracy is most needed. This is due to a variety of factors, two of which are the focus of the present invention. The first factor relates to the rigidity of CT digital images used as digital maps by current systems, while the lung structure is flexible. Second, errors are synthesized as the distance from the last registration point increases. The synthesized error combines with the flexible airway to become LG that appears to be outside the airway on the CT image.

累積する不正確さの結果として、既存のシステムの性能には限界がある。例えば、いったん気管支鏡が大きすぎて進めなくなると、既存のシステムは、柔軟性および生きている気道の内部の動きによって作られる不正確さを無視して、LGが標的の方向に進められているかどうかに関してユーザーへのガイダンスを提供する。加えて、標的へのガイダンス命令は、標的に通じる気道の幾何学的形態を考慮することなく与えられる。その結果、ユーザーは、LGを徐々に進め、LGが標的の方向に動いているかどうか見守る。そうでない場合には、LGが引っ込められ、ユーザーは、CT断面図上で標的を直接見るのでなく、標的に通じ得る別の気道を「感じる」。したがって、二つの問題が生じる。第一に、LGは、もはや気道内に配置されているように見えない。第二に、提供されたガイダンスは、ユーザーを論理的な経路に沿ってガイドせず、それは単に病変への大体の方向を提供するに過ぎない。   As a result of the accumulated inaccuracies, the performance of existing systems is limited. For example, once the bronchoscope is too large to proceed, the existing system ignores the flexibility and inaccuracies created by the movements inside the living airway and whether the LG is advanced in the direction of the target Provide guidance to users regarding In addition, guidance instructions to the target are provided without considering the airway geometry leading to the target. As a result, the user gradually advances LG and watches whether LG is moving in the direction of the target. Otherwise, the LG is retracted and the user “feels” another airway that can lead to the target rather than looking directly at the target on the CT cross section. Therefore, two problems arise. First, the LG no longer appears to be located in the airway. Second, the provided guidance does not guide the user along a logical path, it merely provides an approximate direction to the lesion.

本発明は、気管支気道の三次元仮想地図であるBTスケルトンを作成するためのユニークなアルゴリズムを用いることによって、およびLG経路をBTスケルトンに継続的かつ適応的にマッチさせることによって、これら二つの問題に取り組む。BTスケルトンおよびレジストレーションの正確さが増したことに起因して、三次元ガイダンスが気管支鏡の限界を超えて拡張される。   The present invention solves these two problems by using a unique algorithm to create a BT skeleton, a three-dimensional virtual map of the bronchial airway, and by continuously and adaptively matching the LG pathway to the BT skeleton. Work on. Due to the increased accuracy of the BT skeleton and registration, three-dimensional guidance is extended beyond the limits of bronchoscopes.

図1は、本発明のアルゴリズムの図による表現である。FIG. 1 is a diagrammatic representation of the algorithm of the present invention. 図2は、本発明の方法において遭遇されるエラー不確実性の根源の相対的な重要性を示す表である。FIG. 2 is a table showing the relative importance of the sources of error uncertainty encountered in the method of the present invention. 図3は、本発明の経路生成プロセスのステップを示すチャートである。FIG. 3 is a chart showing the steps of the route generation process of the present invention. 図4〜図13は、本発明の経路生成プロセス中のユーザーインターフェースのスクリーンキャプチャー(screen capture)である。4 to 13 are screen captures of the user interface during the path generation process of the present invention. 図4〜図13は、本発明の経路生成プロセス中のユーザーインターフェースのスクリーンキャプチャーである。4-13 are screen captures of the user interface during the path generation process of the present invention. 図4〜図13は、本発明の経路生成プロセス中のユーザーインターフェースのスクリーンキャプチャーである。4-13 are screen captures of the user interface during the path generation process of the present invention. 図4〜図13は、本発明の経路生成プロセス中のユーザーインターフェースのスクリーンキャプチャーである。4-13 are screen captures of the user interface during the path generation process of the present invention. 図4〜図13は、本発明の経路生成プロセス中のユーザーインターフェースのスクリーンキャプチャーである。4-13 are screen captures of the user interface during the path generation process of the present invention. 図4〜図13は、本発明の経路生成プロセス中のユーザーインターフェースのスクリーンキャプチャーである。4-13 are screen captures of the user interface during the path generation process of the present invention. 図4〜図13は、本発明の経路生成プロセス中のユーザーインターフェースのスクリーンキャプチャーである。4-13 are screen captures of the user interface during the path generation process of the present invention. 図4〜図13は、本発明の経路生成プロセス中のユーザーインターフェースのスクリーンキャプチャーである。4-13 are screen captures of the user interface during the path generation process of the present invention. 図4〜図13は、本発明の経路生成プロセス中のユーザーインターフェースのスクリーンキャプチャーである。4-13 are screen captures of the user interface during the path generation process of the present invention. 図4〜図13は、本発明の経路生成プロセス中のユーザーインターフェースのスクリーンキャプチャーである。4-13 are screen captures of the user interface during the path generation process of the present invention. 図14は、手順が患者に対して実行されている間の、本発明のユーザーインターフェースのスクリーンキャプチャーである。FIG. 14 is a screen capture of the user interface of the present invention while the procedure is being performed on a patient.

(本発明の詳細な説明)
(肺の中の標的への経路を生成する方法)
本発明は、標的への正確かつ論理的な経路が形成され得るようにBTスケルトンを生成するユニークな方法を含む。概して、この方法は、複数のCTスキャンから作られた三次元画像であるCTボリューム内部の気管を自動的に検出し、これをBTの生成のための出発点として用いるアルゴリズムから始まる。次いで、気管支内の空気を表すCTスキャンのそれらのボクセル(voxel)をマークするために、異なるセグメント化ステップが適用される。次いで、セグメント化され、フィルターに掛けられたデータがスケルトン化される、すなわち、感知された気道の中心線が定義され、解剖学的に有効な気道の仮想モデルを構築するために用いられる。
(Detailed Description of the Invention)
(How to generate a route to a target in the lung)
The present invention includes a unique method of generating a BT skeleton so that an accurate and logical path to the target can be formed. In general, the method begins with an algorithm that automatically detects the trachea inside the CT volume, which is a three-dimensional image made from multiple CT scans, and uses this as a starting point for BT generation. Different segmentation steps are then applied to mark those voxels of the CT scan representing air in the bronchi. The segmented and filtered data is then skeletonized, ie, the sensed airway centerline is defined and used to build an anatomically valid virtual model of the airway.

より具体的には、肺の中の標的への経路を生成する方法は、概略が次のようである。   More specifically, a method for generating a route to a target in the lung is as follows.

1.気管支ツリー生成
気管支ツリー生成は、バックグラウンドで進行する完全に自動的なプロセスであり、それゆえ、アプリケーションソフトウェアを用いて仕事をしている間、ユーザーに対して透過性である。
1. Bronchial tree generation Bronchial tree generation is a fully automatic process that runs in the background and is therefore transparent to the user while working with application software.

2.自動シードポイント検出
自動シードポイント検出は、CTボリュームの上部領域中の空気の密度を有する管状の物体を探すことによって気道を検出するアルゴリズムである。見つけ出された管状の物体の重心は、さらなるセグメント化のためのシードポイントとして定義される。
2. Automatic Seed Point Detection Automatic seed point detection is an algorithm that detects the airway by looking for a tubular object having a density of air in the upper region of the CT volume. The center of gravity of the found tubular object is defined as a seed point for further segmentation.

3.セグメント化:肺の空気の識別
セグメント化は、領域成長アルゴリズム(本明細書で参照によりその全体において援用されるHandbook of Medical Imaging, Processing and Analysis, Isaac N. Bankman, Academic Press, 2000の73ページを参照されたい)に基づくプロセスであり、そのアルゴリズムは、人体胸部のCTボリューム画像から気管支の気道を定義し、表示する。領域成長アルゴリズムの目的は、出発点であるシードポイントに連結され、以下の条件:これらの点のすべてにおけるハウンスフィールド(Hounsfield)値(HU)が予め定義された最大閾値より低い−−を満たす点の均一な領域を作成することである。
3. Segmentation: Lung Air Identification Segmentation is described in the Region Growth Algorithm (Handbook of Medical Imaging, Processing and Analysis, Isaac N. Bankman, Academic Press, 2000, page 73, incorporated herein by reference in its entirety. The algorithm defines and displays bronchial airways from CT volume images of the human chest. The purpose of the region growing algorithm is connected to the seed point that is the starting point, and satisfies the following condition: the Hounsfield value (HU) at all of these points is below a predefined maximum threshold It is to create a uniform region of points.

実装されたプロセスは、完全に自動化され、反復的で、次のいくつかのステップからなる。   The implemented process is fully automated, iterative and consists of several steps:

3.1 解剖学的特徴のセグメント化:
その目的は、管腔ネットワークの認識可能な特徴内の実体のボクセル(voxel=Volume Pixel)の部分をマーク(またはセグメント化)することである。この認識可能な特徴は、出発点として用いられる。例えば、管腔ネットワークである肺の気道の場合において、好ましくは気管が、解剖学的特徴として選択される。その結果、CT画像内のノイズおよび人工物によって引き起こされるバブルを避けながら、気管内の空気を表すボクセルの部分がマークされる。次いで、この目的のために、高い閾値を有する領域成長がボリューム内に適用される。例えば、血管が管腔ネットワークを構成する場合には、大動脈が解剖学的特徴として用いられ得る。
3.1 Segmentation of anatomical features:
Its purpose is to mark (or segment) the portion of the entity's voxel (voxel = Volume Pixel) within the recognizable features of the luminal network. This recognizable feature is used as a starting point. For example, in the case of a pulmonary airway that is a luminal network, preferably the trachea is selected as an anatomical feature. As a result, portions of voxels representing air in the trachea are marked while avoiding noise and artifact-induced bubbles in the CT image. For this purpose, region growth with a high threshold is then applied in the volume. For example, when blood vessels constitute a lumen network, the aorta can be used as an anatomical feature.

3.2 領域成長アルゴリズム用の適応可能な閾値検出:
3.2.1 ステップ3.1から、以前にセグメント化されたエリアの境界を出発し、領域成長アルゴリズムの多数の反復が実行される。各反復について、以下のステップが起きる。
3.2 Adaptive threshold detection for region growing algorithms:
3.2.1 From step 3.1, starting at the boundary of the previously segmented area, a number of iterations of the region growing algorithm are performed. For each iteration, the following steps occur:

3.2.1.1 閾値が定義され、閾値より低いすべてのボクセルは空気のみを含んでいると見なされ、その結果、セグメント化される。このプロセスは、反復的であるが、成長のレートおよび幾何学的形態は考慮されない。   3.2.1.1 A threshold is defined and all voxels below the threshold are considered to contain only air and are therefore segmented. This process is iterative, but the growth rate and geometry are not considered.

3.2.1.2 その反復についてセグメント化プロセスが完了した後で、シードポイントから生じる肺内部のセグメント化されたボクセルの全体数が記録される。   3.2.1.2 After the segmentation process is completed for that iteration, the total number of segmented voxels inside the lungs that originate from the seed point is recorded.

3.2.2 次に、閾値が増加され、次の反復が実行される。この反復が完了した後で、現在の反復と前の反復との間のセグメント化されたボクセルの数が比較される。   3.2.2 Next, the threshold is increased and the next iteration is performed. After this iteration is completed, the number of segmented voxels between the current iteration and the previous iteration is compared.

3.2.3 閾値が各反復とともに増加するので、各反復の結果、より大きな数の結合されたボクセルが生じ得る。閾値を増加させることは、より多くのボクセルが空気と見なされることを意味する。   3.2.3 Since the threshold increases with each iteration, each iteration can result in a larger number of combined voxels. Increasing the threshold means that more voxels are considered air.

3.2.4 二つの連続した反復の間のセグメント化されたボクセルの数の違いが実質的に増加してきた場合には、この出来事は、漏れと見なされる。実際に、そのことは、気管支壁がセグメント化によって、および肺中の空気に加えて「破られ」た場所では、外側の肺の空気は、ここではセグメント化されたボリュームに連結されることを意味する。したがって、現在の閾値が高すぎ、前の反復からの閾値が用いられるという結論が得られる。   3.2.4 This event is considered a leak if the difference in the number of segmented voxels between two consecutive iterations has increased substantially. In fact, it means that where the bronchial wall is “broken” by segmentation and in addition to air in the lungs, the outer lung air is now connected to the segmented volume. means. Therefore, a conclusion can be drawn that the current threshold is too high and the threshold from the previous iteration is used.

3.2.5 最後に、選択された閾値でセグメント化が実行される。今回、セグメント化の結果は、ステップ1に追加され、格納される。このことは、次のステップのために出発点として用いられる。   3.2.5 Finally, segmentation is performed with the selected threshold. This time, the segmentation result is added to step 1 and stored. This is used as a starting point for the next step.

3.3 漏れの制御:
このことは、追加のエリアをセグメント化することにより適応可能な閾値の局所値を用いて領域成長アルゴリズムの結果を改善するために必要とされる。セクション3.2の技術は、以前にセグメント化されたエリアのすべての境界点(組織上に位置する点)に対して適用される。
3.3 Leakage control:
This is required to improve the results of the region growing algorithm with adaptive threshold local values by segmenting additional areas. The technique of section 3.2 is applied to all boundary points (points on the tissue) of the previously segmented area.

3.4 幾何学制御波の伝播:
このことは、論文“Hybrid Segmentation and Exploration of the Human Lungs,” IEEE Visualization 2003, Dirk Bartz, Dirk Mayer, Jan Fischer, Sebastian Ley, Anxo del Ro, Stef Thust, Claus Peter Heussel, Hans−Ulrich Kauczor,およびWolfgang Strasserで説明され、その全体は、本明細書で参照により援用される。この論文は、成長している枝の幾何学的パラメーター制御の機構に起因するより高い閾値レベルを用いて、以前のステップに対する追加の改善を可能にする。
3.4 Propagation of geometric control waves:
This means that the paper "Hybrid Segmentation and Exploration of the Human Lungs," IEEE Visualization 2003, Dirk Bartz, Dirk Mayer, Jan Fischer, Sebastian Ley, Anxo del Ro, Stef Thust, Claus Peter Heussel, Hans-Ulrich Kauczor, and Wolfgang Described in Strasser, the entirety of which is incorporated herein by reference. This paper allows additional improvements over previous steps, using higher threshold levels due to the mechanism of geometric parameter control of growing branches.

3.5 「テンプレートマッチング」:
このアプローチは、Bartz他による上記論文に基づいており、不定の密度の値(−950HUと−775HUとの間)を有するテンプレート未満の候補エリアを評価する。このことは、二つの段階で組織される。第一の段階は、テンプレートを構築し、それらのテンプレートは、局所的なボクセルの近傍を評価するために第二段階で用いられる。第一に、2Dのテンプレートマッチングは、以前のセグメント化の境界ボクセルから出発する2Dの領域成長を適用する。閾値は、不定な密度値の区間(−775HU)の上の閾値から、選択されたボクセルの数が臨界未満となるまで多様である。なぜなら、それらが漏れ出なかったと仮定され得るからである。この選択されたボクセルのエリアに基づいて、可変の大きさの循環的なテンプレートが生成される。第二の段階において、我々は、2Dの領域成長を適用する。各々の結合されたセグメント化されたエリアの形は、第一段階からの循環的なテンプレートの組と比較される。ポジティブな比較結果が次いで選択され、セグメント化に追加される。
3.5 “Template matching”:
This approach is based on the above paper by Bartz et al. And evaluates candidate areas below the template with indefinite density values (between -950 HU and -775 HU). This is organized in two stages. The first stage builds templates, which are used in the second stage to evaluate the local voxel neighborhood. First, 2D template matching applies 2D region growth starting from previously segmented boundary voxels. The threshold varies from a threshold above an indefinite density value interval (−775 HU) until the number of selected voxels is less than critical. Because it can be assumed that they did not leak. Based on the selected voxel area, a cyclic template of variable size is generated. In the second stage we apply 2D region growth. The shape of each combined segmented area is compared to the cyclic template set from the first stage. Positive comparison results are then selected and added to the segmentation.

3.6 バブルフィルター:
最後にバブルフィルターが適用される。バブルフィルターは、形態的拡張(morphological dilation)と侵食操作(erosion operation)との組み合わせである。それは、最後のセグメント化されたエリアから小さなセグメント化されていない領域(バブル)を除去するために用いられる。これらのバブルは、CT画像のノイズの多い性質およびアーチファクトに起因して現れる。
3.6 Bubble filter:
Finally, a bubble filter is applied. Bubble filters are a combination of morphological dilation and erosion operations. It is used to remove small non-segmented areas (bubbles) from the last segmented area. These bubbles appear due to the noisy nature and artifacts of CT images.

4.スケルトン化および特徴計算
スケルトン化および特徴計算は、以前にセグメント化された気管支の中心線の抽出と、気管支気道の有効な解剖学的階層の構築と、気管支の直径および幾何学的特徴の計算と、各セグメント化された気管支の表面生成をいう。以下のステップが関係する。
4). Skeletonization and feature calculation Skeletonization and feature calculation involves extracting previously segmented bronchial centerlines, building an effective anatomical hierarchy of bronchial airways, calculating bronchial diameter and geometric features , Refers to the surface generation of each segmented bronchi. The following steps are involved:

4.1 希薄化アルゴリズム:
反復的物体低減技術は、論文A Sequential 3D Thinning Algorithm and Its Medical Applications, K’alm’an Pal’agyi, Eric Sorantin, Emese Balogh, Attila Kuba, Csongor Halmai, Bal’azs Erd”ohelyi,およびKlaus Hausegger, 17th Int. Conf. IPMI (2001) 409−415で説明されており、その論文の全体は、本明細書で参照により援用され、以前にセグメント化された気道を幾何学的なスケルトン表示に変換するために用いられる。
4.1 Dilution algorithm:
The iterative object reduction technique is described in the paper A Sequential 3D Thinning Algorithm and Its Medical Applications, K'alm'an Pal'Agyi, Eric Sortin, Emesa Blog, Atmel. 17th Int. Conf. IPMI (2001) 409-415, the entire article of which is hereby incorporated by reference and converts previously segmented airways into a geometric skeleton representation. Used for.

4.2 枝およびノードポイントの検出:
すべてのスケルトンボクセルの地図が生成される結果、各ボクセルについて、隣のボクセルのリストが得られる。三つ以上の隣のボクセルを有するボクセルは、「ノードポイント」と見なされる。二つの隣のボクセルを有するボクセルは、枝上の点と見なされる。全体のボクセル地図は、ノードおよび枝を有するグラフとして再配列される。
4.2 Branch and node point detection:
A map of all skeleton voxels is generated, resulting in a list of neighboring voxels for each voxel. A voxel with three or more neighboring voxels is considered a “node point”. A voxel with two neighboring voxels is considered a point on the branch. The entire voxel map is rearranged as a graph with nodes and branches.

4.3 偽の枝のフィルタリング:
このことは、以下のステップに関係する:
4.3.1 連結の切れた枝を識別して除去する。
4.3 Fake branch filtering:
This is related to the following steps:
4.3.1 Identify and remove disconnected branches.

4.3.2 共通のノードに連結した二つの枝のうちの最も長い枝を除去することによって、グラフのループを決定(resolve)する。   4.3.2 Resolve the loop of the graph by removing the longest of the two branches connected to the common node.

4.3.3 グラフ中の比較的短い葉を漏れの結果と見なして、除去する。   4.3.3 Remove relatively short leaves in the graph as a result of leakage.

4.3.4 互いに比較的近い葉を除去する。   4.3.4 Remove leaves that are relatively close to each other.

4.4 グラフをツリーに変換する:
1で見つけ出されたシードポイントに最も近い点として、グラフ上にルート(root)ポイントを見つけ出す。グラフは、バイナリツリーに変換される。枝は、多項式によって近似される。
4.4 Convert a graph to a tree:
The root point is found on the graph as the closest point to the seed point found in 1. The graph is converted into a binary tree. The branches are approximated by polynomials.

4.5 枝のラベリング:論理的および階層的:
このことは、論文Automated Nomenclature Labeling of the Bronchial Tree in 3D−CT Lung Images, Hiroko Kitaoka from Osaka University, Yongsup Park, Juerg Tschirren, Joseph Reinhardt, Milan Sonka, Goeffrey McLennan, and Eric A. Hoffman from University of Iowa, Lecture Notes in Computer Science, T. Dohi and R. Kikinis, Eds. Amsterdam, The Netherlands: Springer−Verlag, Oct. 2002, vol. 2489, pp. 1−11で説明された技術に従って実行され、この論文の全体は、本明細書で参照により援用される。
4.5 Labeling branches: logical and hierarchical:
This means that the paper Automated Nomenclature Labeling of the Bronchial Tree in 3D-CT Lung Images, Hiroko Kitaoka from Osaka University, Yongsup Park, Juerg Tschirren, Joseph Reinhardt, Milan Sonka, Goeffrey McLennan, and Eric A. Hoffman from University of Iowa, Lecture Notes in Computer Science, T.W. Dohi and R.D. Kikinis, Eds. Amsterdam, The Netherlands: Springer-Verlag, Oct. 2002, vol. 2489, pp. Carried out according to the techniques described in 1-11, the entirety of this article is hereby incorporated by reference.

4.6 ツリーの質の自動的評価
ツリーの質は、スケルトンの以下の主要部分の認識に基づいて評価される:
4.6.1 右下の葉(RLL)および右中央の葉(RML)、
4.6.2 右上の葉(RUL)
4.6.3 左上の葉(LUL)
4.6.4 左下の葉(LLL)
枝の番号および枝の長さの特徴は、各エリアについて別々に計算され、ツリーの質を評価するために統計的モデルまたは受容可能な解剖学のテンプレートと比較される。
4.6 Automatic Evaluation of Tree Quality Tree quality is evaluated based on recognition of the following key parts of the skeleton:
4.6.1 Lower right leaf (RLL) and right middle leaf (RML),
4.6.2 Upper right leaf (RUL)
4.6.3 Upper left leaf (LUL)
4.6.4 Lower left leaf (LLL)
The branch number and branch length features are calculated separately for each area and compared to a statistical model or acceptable anatomy template to assess tree quality.

4.7 気管支管の外部表面の抽出
容積測定のCTデータから気道表面を抽出するために、「マーチングキューブ(marching cube)」と呼ばれる広く公知の方法の修正が用いられる。
4.7 Extraction of the external surface of the bronchial tube In order to extract the airway surface from the volumetric CT data, a modification of a widely known method called the “marching cube” is used.

5.末梢の標的への経路を計画すること
このプロセスは、気管の入り口から標的エリアまでの経路を計画する。
5). Planning the path to the peripheral target This process plans the path from the tracheal entrance to the target area.

CT解像度が1で説明された自動的に生成される気管支ツリーの最終的な質を限定するので、ユーザーは、経路の微調整を実行することが可能になる。   Since the CT resolution limits the final quality of the automatically generated bronchial tree described at 1, the user can perform fine tuning of the path.

6.標的マーキング
計画ソフトウェアは、ヒトの肺の中の病変(標的)にナビゲートするための気管支鏡手順を計画するために用いられる。
6). Target marking The planning software is used to plan a bronchoscopic procedure to navigate to a lesion (target) in the human lung.

標的の中心および標的の寸法は、計画ソフトウェアを用いて手動でマークされる。   The target center and target dimensions are marked manually using the planning software.

7.経路の半自動的生成
この時点で自動的に生成された気管支ツリーと標的との両方がある。しかしながら、標的は、ツリーの外に位置し得る。このことは、以下を含むいくつかの理由で起きる。
7). Semi-automatic generation of paths There are both automatically generated bronchial trees and targets at this point. However, the target can be located outside the tree. This occurs for several reasons including:

−標的が組織の内部にあり得る。   -The target may be inside the tissue.

−いくつかの小さな気管支が、CT解像度の限界に起因して自動的に生成されたツリーからなくなり得る。   -Some small bronchi may disappear from the automatically generated tree due to CT resolution limitations.

したがって、ギャップが作り出され、手動で完成される。気管支ツリーの双方向ディスプレイとCT断面図との両方を用いて、ユーザーは、標的の中心と連結される気管支ツリー上の点を手動で選択する。これは、「エグジットポイント(exit point)」と呼ばれる。   Thus, a gap is created and manually completed. Using both the interactive display of the bronchial tree and the CT cross section, the user manually selects a point on the bronchial tree that is connected to the center of the target. This is referred to as an “exit point”.

気管から「エグジットポイント」への経路は、自動的に生成される。加えて、本来のツリーは、「エグジットポイント」と標的の中心とを連結する直線状の枝によって延長される。   A route from the trachea to the “exit point” is automatically generated. In addition, the original tree is extended by a straight branch connecting the “exit point” and the center of the target.

8.経路の微調整
CT断面図を用いて、ユーザーは、直観的なグラフィックユーザーインターフェースにより、介在する中間地点を定義して、自動的に作られた直線状の枝をセグメントに分割することをオプションで定義し得る。
8). Fine-tuning the path CT cross-sections allow the user to define an intermediate waypoint through an intuitive graphic user interface and optionally divide automatically created straight branches into segments Can be defined.

9.経路上のガイダンス
経路上のガイダンスは、計画された経路(緑で表示される)の内側に設置可能なツールを保持するように設計される。このアプローチにおいて経路は、自動的に生成される3Dのポリライン(poly−line)によって近似される。ポリラインセグメントは、頂点と連結される。各頂点は、我々のシステムの中では、介在する標的として定義される。ナビゲーション中に、介在する標的が到達されるときのナビゲーション中に、それは消失し、次の介在する標的が現れ、現在の標的となる。設置可能なツールの実際の位置を後継の介在する標的に連結する数学的ベクトルが計算される。この数学的ベクトルは、以下の命令セットを介して設置可能なツールの操作に翻訳される:
9.1 プッシュフォワードバックワード
9.2 特定の回転角度を設定する
9.3 ベンディング(bending)ON\OFFを適用する。
上記の方法によって生成されるBTの正確さを改善し得る付加的な方法が企図される。最初に、動脈血管が探知されてCTからなくなっている気道データを再生成するために用いられ得る。心臓から肺への動脈血管が肺胞で終わるので、肺胞につながる細気管支の位置に関する演繹(deduction)が行われ得る。第二に、多数の肺モデルから導かれるデータから作成された解剖学的アトラスが、生成されたBTの幾何学的形態を評価し、完成するために用いられ得る。すべての肺がユニークであるが、各肺は、解剖学的アトラスに描かれる共通の特質を有する。この情報は、なくなっているBTの幾何学データを演繹し、記入するために用いられ得る。
9. Path Guidance Path Guidance is designed to hold a tool that can be placed inside the planned path (shown in green). In this approach, the path is approximated by an automatically generated 3D poly-line. The polyline segment is connected to the vertex. Each vertex is defined as an intervening target in our system. During navigation, when an intervening target is reached during navigation, it disappears and the next intervening target appears and becomes the current target. A mathematical vector is calculated that connects the actual position of the installable tool to the successor intervening target. This mathematical vector is translated into a tool operation that can be installed via the following instruction set:
9.1 Push forward backward 9.2 Set specific rotation angle 9.3 Apply bending ON \ OFF.
Additional methods are contemplated that can improve the accuracy of the BT produced by the above method. Initially, it can be used to regenerate airway data in which arterial vessels are detected and missing from the CT. Since the arterial blood vessels from the heart to the lungs terminate in the alveoli, a deduction can be made regarding the location of the bronchioles leading to the alveoli. Second, an anatomical atlas created from data derived from multiple lung models can be used to evaluate and complete the generated BT geometry. All lungs are unique, but each lung has a common characteristic drawn in the anatomical atlas. This information can be used to deduct and fill in missing BT geometry data.

正確さはまた、多数のセンサーを利用することによって改善され得る。例えば、電磁的システムから位置および方位測定のデータを入手することは、多数の外部および/または多数の内部のセンサーを用いて実行され得る。これらは、長いワーキングチャネル(EWC)、設置可能なガイド(LG)、気管支鏡の上に位置し得るか、または肺の内側に付着され得る。   Accuracy can also be improved by utilizing multiple sensors. For example, obtaining position and orientation measurement data from an electromagnetic system can be performed using multiple external and / or multiple internal sensors. They can be located on a long working channel (EWC), a placeable guide (LG), a bronchoscope, or attached inside the lungs.

電磁的システムから入手される位置および方位測定のデータは、用いられるセンサーの数にかかわらず、CT解像度の限界に起因してBTからなくなっている任意の枝を完成するために用いられ得る。   Regardless of the number of sensors used, the position and orientation measurement data obtained from the electromagnetic system can be used to complete any branches that are missing from the BT due to CT resolution limitations.

各データの組が患者の呼吸周期中の異なる点を表す多数のCTデータの組を利用することによって、生成されたBT構造に柔軟性が追加され得ることもまた、企図される。例えば、三つのCTスキャンが撮影され得、一つが正常な呼吸周期中のピークの吸息点、一つが正常な呼吸周期中のピークの呼息点、および一つが両者の中間である。外部センサー部分は、CTで撮影されるこれらの多様な「スナップショット」中に胸部を記録するためにオプションで注目され得る。三つの位置のうちの各々における気管支の特徴の位置の違いに注目することは、呼吸周期中の特徴の動きの経路のそれぞれに関する情報を提供する。動きの経路は、三つの記録された点を連結することによって見積もられ得る。いったん柔軟なBTが生成されると、患者の外部の位置センサーは、患者の呼吸周期を検出するために、およびそれらの各動きの経路に沿っている多様な気管支の特徴の対応する位置を決定するために用いられ得る。   It is also contemplated that flexibility may be added to the generated BT structure by utilizing multiple CT data sets, where each data set represents a different point in the patient's respiratory cycle. For example, three CT scans may be taken, one with a peak inspiration point during a normal breathing cycle, one with a peak exhalation point during a normal breathing cycle, and one between the two. The external sensor portion can optionally be noted to record the chest during these various “snapshots” taken with CT. Note the difference in the location of the bronchial feature at each of the three locations, providing information about each of the feature movement paths during the respiratory cycle. The path of motion can be estimated by connecting the three recorded points. Once the flexible BT is generated, the patient's external position sensor determines the corresponding position of the various bronchial features along the path of their respective movements to detect the patient's respiratory cycle and Can be used to

このシミュレーションされた柔軟性は、各患者に対して個別に計算されて用いられ得るか、または、コストおよび多数のCTスキャンの放射線曝露を最小化することが所望される場合には、他の患者のためのモデルとして用いられ得る。解剖学的位置、患者の大きさ、性別年齢、呼吸周期のフェーズ等の関数として後で患者に合わせるために、いくつかのモデルがファイルに記録され、保管され得る。   This simulated flexibility can be calculated and used individually for each patient, or other patients if it is desired to minimize the cost and radiation exposure of multiple CT scans. Can be used as a model for Several models can be recorded and stored in a file for later adaptation to the patient as a function of anatomical location, patient size, sex age, respiratory cycle phase, and the like.

(適応的ナビゲーション方法)
本発明はまた、手順の間に自動的に生成されるBTスケルトンを患者に継続的かつ適応的にマッチさせるユニークな方法を提供する。概して、この方法は、LGが気道を通して進められるにつれて、LGの連続的配置を記録する。LGが気道を通って移動することが公知であるので、BTスケルトンは、LGが気道の中に現れるように継続的にマッチさせられる。よって、ナビゲーションの正確さは、LGが進められるにつれて、下がらないで、改善する。
(Adaptive navigation method)
The present invention also provides a unique method of continuously and adaptively matching a patient with a BT skeleton that is automatically generated during the procedure. In general, this method records the continuous placement of the LG as it is advanced through the airway. Since LG is known to move through the airway, the BT skeleton is continuously matched so that LG appears in the airway. Thus, the accuracy of navigation improves without going down as the LG is advanced.

より具体的には、この方法は、概略が以下のようである:
1.一般的な考慮事項
適応的スケルトンナビゲーション方法は、CTスキャンを用いて獲得される気管支ツリーの地図上の患者の気管支気道を通して導入される配置可能なガイド(「LG」)の現在の位置を検出するために開発される。このことは、気管支気道ツリー地図とセンサーデータ履歴という二つのデータセットの間のコンスタントかつ適応的な相関関係によって達成される。上記の相関関係は、二つのステップを介して実行される。
More specifically, this method is outlined as follows:
1. General Considerations An adaptive skeleton navigation method detects the current position of a placeable guide (“LG”) introduced through a patient's bronchial airway on a map of the bronchial tree acquired using a CT scan. Developed for. This is achieved by a constant and adaptive correlation between the two data sets, the bronchial airway tree map and the sensor data history. The above correlation is performed through two steps.

1)適応的なスケルトンベースのレジストレーション。   1) Adaptive skeleton based registration.

2)適応的なスケルトンベースのナビゲーション。   2) Adaptive skeleton-based navigation.

以下で詳細に説明されるこれらのステップは反復的に実行され得ることに留意されたい。
2.適応的スケルトンベースのレジストレーションアルゴリズム
このセクションは、適応的スケルトンベースのレジストレーションの提案されたアルゴリズムの説明を含む。レジストレーションは、概して、二つの異なる座標系の間の変換を計算する方法である。ここで、その目的は、気管支ツリー(BT)スケルトンを配置可能なガイド(LG)の経路にレジストレーションすることである。
Note that these steps described in detail below may be performed iteratively.
2. Adaptive Skeleton-Based Registration Algorithm This section contains a description of the proposed algorithm for adaptive skeleton-based registration. Registration is generally a way to calculate the transformation between two different coordinate systems. Here, the purpose is to register the bronchial tree (BT) skeleton into a guide (LG) path where it can be placed.

2.1 要求事項:
2.1.1 レジストレーションの正確さは、配置可能なガイドが下のレベルの管腔ネットワーク(例えば、気管支ツリー)および末梢の標的に近づくにつれて改善する。
2.1 Requirements:
2.1.1 Registration accuracy improves as the deployable guide approaches the lower level lumen network (eg, bronchial tree) and peripheral targets.

2.1.2 レジストレーションは、気管支ツリーの中のLGの位置に依存して、継続的かつ適応的に更新される。LG経路は、LGが気管支ツリーを通して操作されるときのLGの位置の履歴である。   2.1.2 The registration is updated continuously and adaptively depending on the position of the LG in the bronchial tree. The LG path is a history of the position of the LG as it is manipulated through the bronchial tree.

2.2 技術的問題:
2.2.1 BTスケルトンおよびLG経路からの幾何学的な3D/3Dの点(または他の物体)の対は、レジストレーションのベースである(例えば、図1中の対1−1’および2−2’を参照されたい)。
2.2 Technical issues:
2.2.1 Geometric 3D / 3D point (or other object) pairs from the BT skeleton and LG path are the basis of registration (eg, pair 1-1 ′ and See 2-2 ').

2.2.2 レジストレーションは、継続的かつ適応的である。「継続的」は、新たなLG経路点が獲得されるにつれてレジストレーションが継続的に(反復的に)再計算されることを意味する。「適応的」は、LGが標的に向かって進むにつれて、異なる点の対、重さ、およびレジストレーション方法が用いられることを意味する。   2.2.2 Registration is continuous and adaptive. “Continuous” means that the registration is continuously (repetitively) recalculated as new LG path points are acquired. “Adaptive” means that different pairs of points, weights, and registration methods are used as the LG progresses toward the target.

2.2.3 レジストレーションは、二つの主な段階からなり、全体の固定的レジストレーションと、それに続く局所の変形可能なレジストレーションとである。変形可能なレジストレーションは、下のレベルの気管支ツリーで、および末梢の標的の近くでのみ実行される。その考え方は、気管支が広いときに固定的レジストレーションを開始し、プローブの直径が気管支の直径に近づき気管支が柔軟になるときに、束縛的な(constrained)局所化された変形可能なレジストレーションに切り換えることである。   2.2.3 Registration consists of two main stages: an overall fixed registration followed by a local deformable registration. Deformable registration is performed only at the lower level bronchial tree and near the peripheral target. The idea is to start a fixed registration when the bronchi is wide, and to a constrained localized deformable registration when the probe diameter approaches the bronchial diameter and the bronchus becomes flexible. It is to switch.

2.2.4 全体の固定的レジストレーションは、アウトライアー除去を伴う高度な重み付けされた反復的最近接点(WICP)方法により実行される。ペアリングは、対になった物体の位置の距離と方向付けの差との重み付けされた関数を用いることによって実行される。最適化関数は、対になった点の距離の重み付けされた合計である。決定すべきパラメーターは、重み関数および用いるべき点の数である。   2.2.4 The entire fixed registration is performed by a highly weighted iterative closest point (WICP) method with outlier removal. Pairing is performed by using a weighted function of the distance between the positions of the paired objects and the orientation difference. The optimization function is a weighted sum of paired point distances. The parameters to be determined are the weight function and the number of points to be used.

2.2.5 局所の固定的でないレジストレーションは、閉じ込められた弾性レジストレーション方法を用いて実行され、対になった点は、スプリングに連結されて、最適化関数はスプリングの位置エネルギーである。   2.2.5 Local non-fixed registration is performed using a confined elastic registration method, the paired points are connected to the spring and the optimization function is the spring potential energy .

2.2.6 LG経路は、単調ではなく、したがってそれは、経路データが良質になるように、慎重にサンプリングされ、窓が取り付けられるべきである。   2.2.6 The LG path is not monotonous, so it should be carefully sampled and windowed so that the path data is of good quality.

2.2.7 正確さまたはレジストレーションは、ユーザーに定義された標識点がLGとともに入手されるときに改善する。   2.2.7 Accuracy or registration improves when user-defined landmarks are obtained with LG.

3. レジストレーションアルゴリズム
3.1 入力:CTスキャンからのBT経路、最初のレジストレーション推測(guess)、LGの位置(ストリーム)
3.2 出力:固定的レジストレーション(6パラメター)+局所の変形地図
3.3 アルゴリズム方法−図1は、BTスケルトン110を示す線と、気管支100を通るLG115の経路を示す第二の線120を有する実際の気管支100の概略を示す。LG115の経路120は、医師によって見られるBTスケルトンが実際の気管支の位置の正確な表示であるように、BTスケルトン110を実際の気管支100にレジストレーションするために用いられる。LG経路120は、複数の実際のLGの位置130を含む。対応する投影された点140は、BTスケルトン110上に示される。実際の点130と投影された点140との間の差は、スケルトン110と経路120との間の線(例えば、d1、d2)で表示される。引き続く図1への参照によって、レジストレーションアルゴリズムが説明される:
3.3.1 最初のレジストレーション推測により、第一のレジストレーションを実行する。変形をBTに適用する。最初のレジストレーション段階から獲得されたレジストレーション結果を用いる。
3. Registration algorithm 3.1 Input: BT path from CT scan, first registration guess, LG location (stream)
3.2 Output: Fixed Registration (6 parameters) + Local deformation map 3.3 Algorithm Method-FIG. 1 shows a line showing the BT skeleton 110 and a second line 120 showing the path of LG 115 through the bronchus 100 A schematic of an actual bronchus 100 having The LG 115 path 120 is used to register the BT skeleton 110 to the actual bronchus 100 so that the BT skeleton seen by the physician is an accurate representation of the actual bronchial position. The LG path 120 includes a plurality of actual LG locations 130. A corresponding projected point 140 is shown on the BT skeleton 110. The difference between the actual point 130 and the projected point 140 is represented by a line (eg, d1, d2) between the skeleton 110 and the path 120. Subsequent reference to FIG. 1 illustrates the registration algorithm:
3.3.1 Perform the first registration with the first registration guess. Apply deformation to BT. Use the registration results obtained from the initial registration stage.

3.3.2 標的への途中にある間:
3.3.2.1 センサーからLG位置の新たなストリームを獲得する。
3.3.2 While on the way to the target:
3.3.2.1 Obtain a new stream of LG positions from the sensor.

3.3.2.2 LG位置のストリーム上でクリーニング、散乱状態を収めること(declutter)および分類(重み付け)を実行する。   3.3.2.2 Perform cleaning, scattering (scatter) and classification (weighting) on the LG position stream.

3.3.2.3 最適化決定およびレジストレーション履歴に従ってLG位置ストリームの選択を実行する。   3.3.2.3 Perform LG position stream selection according to optimization decisions and registration history.

3.3.2.4 対になったセグメント/点を獲得するために、選択されたLG位置セグメント/点をBTスケルトン上に投影する。投影は、以下の基準を最適化することによって実行される。   3.3.2.4 Project the selected LG location segment / point onto the BT skeleton to obtain the paired segment / point. Projection is performed by optimizing the following criteria:

3.3.2.4.1 局所の気管支直径に対する最小の距離。   3.3.4.2.4.1 Minimum distance to local bronchial diameter.

3.3.2.4.2 最小の方向付けの差。   3.3.4.2.4.2 Minimum orientation difference.

3.3.2.4.3 経路上でマッチされた枝の点(p1、p2等)。   3.3.4.2.3 Matched branch points on the path (p1, p2, etc.).

3.3.2.5 全体の固定的レジストレーション:対になった点に重み付けをして、WICPを有する新たな固定的レジストレーションを獲得する。新たな計算された変形をLGに適用する。   3.3.2.5 Overall Fixed Registration: Weight the paired points to get a new fixed registration with WICP. Apply the new calculated deformation to LG.

3.3.2.6 局所の変形可能なレジストレーション:適切な(長いワーキングチャネル−EWCおよび気管支直径が互いに近いときのみ)場合には、選ばれたウィンドウ上で変形可能なレジストレーションを実行する。変形をBT局所の枝に適用する。この対応の有用性は、経験的に決定される。   3.3.2.6 Local deformable registration: If appropriate (only when long working channel-EWC and bronchial diameter are close to each other), perform deformable registration on the selected window . The transformation is applied to the BT local branch. The usefulness of this response is determined empirically.

3.3.3 レジストレーションがノイズセンサーデータの結果として悪くならない有効化:
3.3.3.1 呼吸の平均化または特定の局面によってLG履歴分類を実行する。最初のレジストレーションからの最大偏差を定義する。
3.3.3 Enabling registration not to be bad as a result of noise sensor data:
3.3.3.1 Perform LG history classification by breathing averaging or specific aspects. Define the maximum deviation from the initial registration.

3.3.3.2 LG履歴がほとんど気管支の内側にあることを確認する。   3.3.3.2 Make sure that the LG history is mostly inside the bronchi.

4. 適応的なスケルトンベースのナビゲーション
4.1 基本的な考え方
ナビゲーションの実装は、地図によるナビゲーションに類似しているであろう。盲目の人のためのPDA(パーソナルデジタルアシスタント)システムのようなGIS(地理情報システム)において、類似したタスクが実装されてきた。そのデータによって、より高いナビゲーションの正確さのためには、トポロジーが重要であることが証明されてきた。しかしながら、気管支ツリーの柔軟性および動きに起因して、問題は、上記とは実質的に異なっている。
4). Adaptive Skeleton-Based Navigation 4.1 Basic Concepts Navigation implementations will be similar to map navigation. Similar tasks have been implemented in GIS (Geographic Information Systems) such as PDA (Personal Digital Assistant) systems for blind people. The data has proven that topology is important for higher navigation accuracy. However, due to the flexibility and movement of the bronchial tree, the problem is substantially different from the above.

4.2 必要な入力情報
4.2.1 現在のセンサーの位置および方向付けのデータ
4.2.2 センサーの位置および方向付けのデータの履歴
4.2.3 レジストレーション(マトリックス)履歴
4.2.4 ナビゲーションの不確実性の根源
図2は、表の上部の最終エラーへのより高い寄与を有する値を備えた、重要性の順位におけるエラーの不確実性の根源を示す表である。この表に基づくエラー予測モデルが、ナビゲーションの不確実性を予測するために開発されるであろう。仮定された予測モデルは、計算された位置を囲む球であり、その球の半径は、位置の不確実性を含む。この球の半径は、時間および位置の関数である。
4.2 Required Input Information 4.2.1 Current Sensor Position and Orientation Data 4.2.2 History of Sensor Position and Orientation Data 4.2.3 Registration (Matrix) History 2.4 Sources of Navigation Uncertainty FIG. 2 is a table showing the sources of error uncertainty in importance ranking, with values having a higher contribution to the final error at the top of the table. An error prediction model based on this table will be developed to predict navigation uncertainty. The assumed prediction model is a sphere that encloses the calculated position, and the radius of the sphere includes position uncertainty. The radius of this sphere is a function of time and position.

(使用において)
図3〜13は、上記方法のいくつかの段階を示す。最初に、経路生成プロセスが説明される。図3は、経路生成ステップ10〜18を示すチャートである。図4〜13は、手順の前の計画段階中にこれらのステップを介してユーザーをガイドするユーザーインターフェースの表示である。
(In use)
3-13 show several steps of the above method. First, the path generation process is described. FIG. 3 is a chart showing the route generation steps 10 to 18. 4-13 are user interface displays that guide the user through these steps during the planning phase prior to the procedure.

標的を追加している、第一のステップ10に携わっているユーザーが図4に示されている。左上の象限は、患者の足元から頭のほうを見る視点から再構成されたCT断面図である。左下の象限は、面が患者が横たわっている台に平行になるように患者の正面から再構成されたCT断面図である。右上の象限は、患者のわき腹に向けられたCTから再構成された断面図である。照準用十字線は、標的とされるスポットをマークし、そのスポットは、CTから再構成されたすべての断面図の交差個所である。CT断面図の各々は、CTボリューム内の仮想気管支鏡を表す小さなカメラの投影を示す。右下の象限は、あたかもカメラから見られたような、BT内部からの標的とされるスポットの仮想気管支鏡画像である。図中で示される表示が単なる例であることは、留意に値する。ユーザーが異なる画像の必要性を感じる場合には、システムは、任意の角度からの画像が多様な象限に表示されることを可能にする。よって、システムは、完全に構成可能であり、ユーザーの好みにカスタマイズ可能である。   The user engaged in the first step 10 adding a target is shown in FIG. The upper left quadrant is a CT sectional view reconstructed from the viewpoint of looking at the head from the patient's foot. The lower left quadrant is a CT cross section reconstructed from the front of the patient so that the plane is parallel to the platform on which the patient lies. The upper right quadrant is a cross-sectional view reconstructed from CT directed to the patient's side. The crosshairs for aiming mark the targeted spot, which is the intersection of all cross-sectional views reconstructed from CT. Each of the CT cross sections shows a small camera projection representing a virtual bronchoscope in the CT volume. The lower right quadrant is a virtual bronchoscopic image of a targeted spot from inside the BT, as seen from the camera. It is worth noting that the display shown in the figure is just an example. If the user feels the need for different images, the system allows images from any angle to be displayed in various quadrants. Thus, the system is fully configurable and can be customized to user preferences.

図5で、ユーザーは、標的を選択済みで、ユーザーインターフェースの右上隅のユーザーメッセージボックス中にメッセージ「照準用十字線ポジショニング」が現れている。図6に見られるように、まさに最下部のボタン20を選択することは、標的をマークする。ユーザーは、ボックス22中の標的名を入力し得、よって図3の次のステップを始め得る。   In FIG. 5, the user has selected the target and the message “Aiming crosshair positioning” appears in the user message box in the upper right corner of the user interface. As can be seen in FIG. 6, selecting the very bottom button 20 marks the target. The user may enter the target name in box 22 and thus begin the next step of FIG.

図7は、ユーザーがわき腹の画像でなく右上の象限中のBTスケルトンを表示するオプションを有することを図示する。   FIG. 7 illustrates that the user has the option to display the BT skeleton in the upper right quadrant rather than the side image.

図8で、選択された標的が測定されている。図9では、名称が標的に付与されたところである。   In FIG. 8, the selected target is being measured. In FIG. 9, the name is given to the target.

図10で経路作成ステップ14が始まる。経路ボタン24が押され、経路に名称が与えられる。   In FIG. 10, the route creation step 14 begins. The route button 24 is pressed and a name is given to the route.

図11は、ステップ16をマークするエグジットポイントを示す。エグジットポイントは、地図上にマークされ、エグジットポイントから標的に直線が引かれる。目的地(エグジットポイント)を識別し終えると、経路が決定され得る。   FIG. 11 shows the exit point marking step 16. The exit point is marked on the map and a straight line is drawn from the exit point to the target. Once the destination (exit point) has been identified, the route can be determined.

次いで、図12および図13に見られるように、中間地点を追加するステップ18が完了する。中間地点は、エグジットポイントへの途中の曲がり角をマークすることによって、ユーザーが経路をたどるのを助けるために追加され得る。   Then, as seen in FIGS. 12 and 13, the step 18 of adding waypoints is complete. An intermediate point can be added to help the user follow the path by marking a corner on the way to the exit point.

図14は、患者に対して実施されている手順中のユーザーインターフェースを示す。右上の象限において、LGインジケーター30が可視の状態で三次元のBTスケルトンが示されている。上記のANアルゴリズムは、BTスケルトンが患者に対してレジストレーションされたままであることを保証する。   FIG. 14 shows the user interface during the procedure being performed on the patient. In the upper right quadrant, a three-dimensional BT skeleton is shown with the LG indicator 30 visible. The above AN algorithm ensures that the BT skeleton remains registered to the patient.

本発明は特定の実施形態および用途に関して説明されてきたが、当業者は、この教示を考慮して、主張される本発明の精神から逸脱または範囲を超えることなく付加的な実施形態および修正を生成し得る。したがって、本明細書中の図および説明が本発明の理解を容易にするための例として提供されること、および本発明の範囲を限定するように解釈されるべきでないことが、理解されるべきである。したがって、添付された文書中で参照される任意の付加的な文書がそれらの全体において本明細書で参照により援用されることが、留意されるべきである。   Although the present invention has been described with respect to particular embodiments and applications, those skilled in the art will be able to make additional embodiments and modifications in light of this teaching without departing from the spirit or scope of the claimed invention. Can be generated. Accordingly, it should be understood that the figures and descriptions herein are provided as examples to facilitate understanding of the invention and should not be construed as limiting the scope of the invention. It is. Thus, it should be noted that any additional documents referenced in the attached documents are hereby incorporated by reference in their entirety.

Claims (14)

身体の内側の標的への管腔内の経路を生成する方法であって、該方法は、
複数のスキャンを得るために患者を画像化することと、
複数のボクセルを含む該スキャンから3D画像ボリュームを作成することと、
該3D画像ボリューム中の標的を選択することと、
ネットワークに関係した解剖学的特徴を検出することと、
該ネットワークの該管腔の内側の空間を表すボクセルをセグメント化することと、
該セグメント化されたボクセルを用いて該管腔ネットワークのコンピューター化された三次元モデルを生成することと、
該管腔ネットワークの三次元モデル上の該標的への経路をマークすることと
を含む、方法。
A method of generating an intraluminal pathway to a target inside the body, the method comprising:
Imaging the patient to obtain multiple scans;
Creating a 3D image volume from the scan including a plurality of voxels;
Selecting a target in the 3D image volume;
Detecting anatomical features related to the network;
Segmenting voxels representing the space inside the lumen of the network;
Generating a computerized three-dimensional model of the lumen network using the segmented voxels;
Marking a route to the target on a three-dimensional model of the lumen network.
前記ネットワークに関係した解剖学的特徴を検出することは、気管を検出することを含む、請求項1に記載の方法。   The method of claim 1, wherein detecting an anatomical feature associated with the network includes detecting a trachea. 前記気管を検出することは、前記ネットワークの上部領域中に空気の密度を有する前記管腔ネットワーク中の管状の物体を探すことを含む、請求項2に記載の方法。   The method of claim 2, wherein detecting the trachea includes looking for a tubular object in the lumen network having a density of air in an upper region of the network. 前記ネットワークに関係した解剖学的特徴を検出することは、大動脈を検出することを含む、請求項1に記載の方法。   The method of claim 1, wherein detecting an anatomical feature associated with the network comprises detecting an aorta. 前記ネットワークのうちの前記管腔の内側の空間を表すボクセルをセグメント化することは、該ネットワークのうちの該管腔の内部に含まれた物質を表すボクセルをマークすることを含む、請求項1に記載の方法。   The segmenting voxels that represent the space inside the lumen of the network comprises marking voxels that represent material contained within the lumen of the network. The method described in 1. 前記ネットワークのうちの前記管腔の内側の物質を表すボクセルをセグメント化することは、画像化ノイズおよびアーチファクトによって引き起こされるバブルを回避することをさらに含む、請求項5に記載の方法。   The method of claim 5, wherein segmenting voxels representing material inside the lumen of the network further comprises avoiding bubbles caused by imaging noise and artifacts. 前記ネットワークのうちの前記管腔の内側の空間を表すボクセルをセグメント化することは、
a)閾値を定義することと、
b)該ネットワークに関係した前記解剖学的特徴の内側の中心点にシードポイントを定義することと、
c)該シードポイントから始めて該閾値に従ってすべての関係したボクセルをマークすることと、
d)マークされたボクセルの全部の数を記録することと、
e)該閾値を増加させることと、
f)ステップc)およびd)を繰り返し、それによって次の反復を始めることと、
g)該マークされたボクセルの数を該前の反復で決定された数と比較することと、
h)該増加が漏れに起因する該g)で決定された増加に対する限界を設定し、該e)で増加された閾値は、その限界に対して該前の反復から再設定され、それによって選択された閾値を構築することと、
i)該マークされたボクセルを該選択された閾値を用いてセグメント化することと、
j)該セグメント化されたボクセルを該シードポイントに追加し、それによって経路を成長させること、および該シードポイントを該経路の遠位の末端の中心に再設定することと、
k)ステップc)からj)を該経路が完全になるまで繰り返すことと
を含む、請求項1に記載の方法。
Segmenting voxels representing the space inside the lumen of the network comprises
a) defining a threshold;
b) defining a seed point at the center point inside the anatomical feature related to the network;
c) marking all relevant voxels starting from the seed point according to the threshold;
d) recording the total number of marked voxels;
e) increasing the threshold;
f) repeating steps c) and d) thereby starting the next iteration;
g) comparing the number of marked voxels with the number determined in the previous iteration;
h) Set the limit for the increase determined in g) where the increase is due to a leak, and the threshold increased in e) is reset from the previous iteration for that limit and selected accordingly Constructing a determined threshold;
i) segmenting the marked voxels with the selected threshold;
j) adding the segmented voxel to the seed point, thereby growing a path, and resetting the seed point to the center of the distal end of the path;
2. The method of claim 1, comprising: k) repeating steps c) to j) until the path is complete.
管腔ネットワークをプローブでナビゲートしながら、管腔ネットワークのコンピューターモデルを患者の実際の管腔ネットワークにレジストレーションする方法であって、該方法は、
プローブの実際の位置に関するデータを収集することと、
プローブの経路を構築するために連続するデータポイントを処理することと、
該プローブの位置を追跡しながら、該プローブの経路を管腔ネットワークのコンピューターモデル上の経路の形に反復的にレジストレーションすることと、
該プローブの経路が該経路の形の中にあるように該コンピューターモデルの位置を反復的に調整することと
を含む、方法。
A method of registering a computer model of a lumen network with a patient's actual lumen network while navigating the lumen network with a probe, the method comprising:
Collecting data on the actual position of the probe;
Processing consecutive data points to construct a probe path;
Repetitively registering the path of the probe in the form of a path on a computer model of a lumen network while tracking the position of the probe;
Repetitively adjusting the position of the computer model such that the path of the probe is within the shape of the path.
プローブの実際の位置に関するデータを収集することは、該プローブの先端から位置データを受け取ることを含む、請求項8に記載の方法。   The method of claim 8, wherein collecting data relating to an actual position of the probe includes receiving position data from a tip of the probe. プローブの経路を構築するために連続するデータポイントを処理することは、クリーニングを含む、請求項8に記載の方法。   The method of claim 8, wherein processing successive data points to construct a probe path includes cleaning. 前記プローブの位置を追跡しながら該プローブの経路を管腔ネットワークのコンピューターモデル上の経路の形に反復的にレジストレーションすることは、該プローブの位置を追跡しながら該プローブの経路を管腔ネットワークのコンピューターモデル上の経路の形に固定的にレジストレーションすることを含む、請求項8に記載の方法。   Iteratively registering the probe path in the form of a path on a computer model of the lumen network while tracking the position of the probe results in the path of the probe being tracked while tracking the position of the probe. 9. The method of claim 8, comprising fixed registration in the form of a path on the computer model. 前記プローブの位置を追跡しながら該プローブの経路を管腔ネットワークのコンピューターモデル上の経路の形に反復的にレジストレーションすることは、該プローブの位置を追跡しながら該プローブの経路を管腔ネットワークのコンピューターモデル上の経路の形に変形可能にレジストレーションすることを含む、請求項8に記載の方法。   Iteratively registering the probe path in the form of a path on a computer model of the lumen network while tracking the position of the probe results in the path of the probe being tracked while tracking the position of the probe. 9. The method of claim 8 comprising deformably registering in the form of a path on a computer model of the computer. 前記プローブの位置を追跡しながら該プローブの経路を管腔ネットワークのコンピューターモデル上の経路の形に反復的にレジストレーションすることは、
該プローブを含む管腔の直径が該プローブに対して大きい間、該プローブの位置を追跡しながら該プローブの経路を管腔ネットワークのコンピューターモデル上の経路の形に固定的にレジストレーションすることと、
該プローブを含む管腔の直径が該プローブに対して大きくない間、該プローブの位置を追跡しながら該プローブの経路を管腔ネットワークのコンピューターモデル上の経路の形に変形可能にレジストレーションすることと
を含む、請求項8に記載の方法。
Iteratively registering the path of the probe into the form of a path on a computer model of a lumen network while tracking the position of the probe
Registering the path of the probe fixedly in the form of a path on a computer model of the lumen network while tracking the position of the probe while the diameter of the lumen containing the probe is large relative to the probe; ,
While the diameter of the lumen containing the probe is not large relative to the probe, the probe path is deformably registered into a path on the computer model of the lumen network while tracking the position of the probe. The method according to claim 8, comprising:
前記プローブの位置を追跡しながら該プローブの経路を管腔ネットワークのコンピューターモデル上の経路の形に反復的にレジストレーションすることは、
プローブの位置のストリームを獲得することと、
プローブの位置の散乱状態を収め、プローブの位置に重みを付与することと、
投影のためにプローブの位置を選択することと、
選択されたプローブの位置をコンピューターモデル上に投影することと
を含む、請求項8に記載の方法。
Iteratively registering the path of the probe into the form of a path on a computer model of a lumen network while tracking the position of the probe
Acquiring a stream of probe positions;
Contain the scattering state of the probe position, weight the probe position,
Selecting the position of the probe for projection;
9. The method of claim 8, comprising projecting the position of the selected probe onto a computer model.
JP2009535836A 2006-11-28 2007-11-13 Adaptive navigation technology for navigating a catheter through a body passage or cavity Withdrawn JP2010510815A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US86742806P 2006-11-28 2006-11-28
US88766307P 2007-02-01 2007-02-01
PCT/IB2007/004576 WO2008125910A2 (en) 2006-11-10 2007-11-13 Adaptive navigation technique for navigating a catheter through a body channel or cavity

Publications (1)

Publication Number Publication Date
JP2010510815A true JP2010510815A (en) 2010-04-08

Family

ID=42211687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009535836A Withdrawn JP2010510815A (en) 2006-11-28 2007-11-13 Adaptive navigation technology for navigating a catheter through a body passage or cavity

Country Status (1)

Country Link
JP (1) JP2010510815A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014180545A (en) * 2013-03-15 2014-09-29 Covidien Lp Pathway planning system and method
JP2015504690A (en) * 2011-12-03 2015-02-16 コーニンクレッカ フィリップス エヌ ヴェ Automatic depth scrolling and orientation adjustment for semi-automatic route planning
JP2015102551A (en) * 2013-11-21 2015-06-04 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. Tracking of catheter from insertion point to heart using impedance measurement
JP2015519131A (en) * 2012-05-14 2015-07-09 インテュイティブ サージカル オペレーションズ, インコーポレイテッド System and method for deformation compensation using shape sensing
JP2016174930A (en) * 2010-02-01 2016-10-06 コビディエン エルピー Region-growing algorithm
JP2017523836A (en) * 2014-07-28 2017-08-24 インテュイティブ サージカル オペレーションズ, インコーポレイテッド System and method for segmentation during surgery
JP2017525418A (en) * 2014-07-02 2017-09-07 コヴィディエン リミテッド パートナーシップ Intelligent display
JP2017526399A (en) * 2014-07-02 2017-09-14 コヴィディエン リミテッド パートナーシップ Real-time automatic alignment feedback
US9905004B2 (en) 2014-03-31 2018-02-27 Fujifilm Corporation Image processing device, method, and recording medium having stored therein program
JP2018134389A (en) * 2017-02-23 2018-08-30 富士通株式会社 Image processing device and image processing method
CN109561832A (en) * 2016-08-17 2019-04-02 柯惠有限合伙公司 Breath cycle is predicted using soft spots feature and improves the method for end registration
US10262416B2 (en) 2013-03-15 2019-04-16 Covidien Lp Pathway planning system and method
US11200983B2 (en) 2013-03-15 2021-12-14 Covidien Lp Pathway planning system and method
JP7505081B2 (en) 2017-04-25 2024-06-24 バイオセンス・ウエブスター・(イスラエル)・リミテッド Endoscopic imaging of invasive procedures in narrow passages

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016174930A (en) * 2010-02-01 2016-10-06 コビディエン エルピー Region-growing algorithm
JP2015504690A (en) * 2011-12-03 2015-02-16 コーニンクレッカ フィリップス エヌ ヴェ Automatic depth scrolling and orientation adjustment for semi-automatic route planning
US10758212B2 (en) 2011-12-03 2020-09-01 Koninklijke Philips N.V. Automatic depth scrolling and orientation adjustment for semi-automated path planning
US10085671B2 (en) 2012-05-14 2018-10-02 Intuitive Surgical Operations, Inc. Systems and methods for deformation compensation using shape sensing
JP2015519131A (en) * 2012-05-14 2015-07-09 インテュイティブ サージカル オペレーションズ, インコーポレイテッド System and method for deformation compensation using shape sensing
US11678813B2 (en) 2012-05-14 2023-06-20 Intuitive Surgical Operations, Inc. Systems and methods for deformation compensation using shape sensing
JP2018149319A (en) * 2012-05-14 2018-09-27 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Systems and methods for deformation compensation using shape sensing
US11026594B2 (en) 2012-05-14 2021-06-08 Intuitive Surgical Operations, Inc. Systems and methods for deformation compensation using shape sensing
US11804308B2 (en) 2013-03-15 2023-10-31 Covidien Lp Pathway planning system and method
JP2014180545A (en) * 2013-03-15 2014-09-29 Covidien Lp Pathway planning system and method
US9925009B2 (en) 2013-03-15 2018-03-27 Covidien Lp Pathway planning system and method
US11200983B2 (en) 2013-03-15 2021-12-14 Covidien Lp Pathway planning system and method
JP2018175886A (en) * 2013-03-15 2018-11-15 コビディエン エルピー Pathway planning system and method
US10262416B2 (en) 2013-03-15 2019-04-16 Covidien Lp Pathway planning system and method
JP2015102551A (en) * 2013-11-21 2015-06-04 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. Tracking of catheter from insertion point to heart using impedance measurement
US9905004B2 (en) 2014-03-31 2018-02-27 Fujifilm Corporation Image processing device, method, and recording medium having stored therein program
JP2017526399A (en) * 2014-07-02 2017-09-14 コヴィディエン リミテッド パートナーシップ Real-time automatic alignment feedback
US10772532B2 (en) 2014-07-02 2020-09-15 Covidien Lp Real-time automatic registration feedback
US11188285B2 (en) 2014-07-02 2021-11-30 Covidien Lp Intelligent display
US11583205B2 (en) 2014-07-02 2023-02-21 Covidien Lp Real-time automatic registration feedback
JP2017525418A (en) * 2014-07-02 2017-09-07 コヴィディエン リミテッド パートナーシップ Intelligent display
US11793389B2 (en) 2014-07-02 2023-10-24 Covidien Lp Intelligent display
JP2020157108A (en) * 2014-07-28 2020-10-01 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Systems and methods for intraoperative segmentation
JP7072603B2 (en) 2014-07-28 2022-05-20 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Systems and methods for segmentation during surgery
JP2017523836A (en) * 2014-07-28 2017-08-24 インテュイティブ サージカル オペレーションズ, インコーポレイテッド System and method for segmentation during surgery
CN109561832A (en) * 2016-08-17 2019-04-02 柯惠有限合伙公司 Breath cycle is predicted using soft spots feature and improves the method for end registration
CN109561832B (en) * 2016-08-17 2022-06-24 柯惠有限合伙公司 Method for predicting respiratory cycle and improving end registration using soft-point features
JP2018134389A (en) * 2017-02-23 2018-08-30 富士通株式会社 Image processing device and image processing method
JP7505081B2 (en) 2017-04-25 2024-06-24 バイオセンス・ウエブスター・(イスラエル)・リミテッド Endoscopic imaging of invasive procedures in narrow passages

Similar Documents

Publication Publication Date Title
US11631174B2 (en) Adaptive navigation technique for navigating a catheter through a body channel or cavity
JP2010510815A (en) Adaptive navigation technology for navigating a catheter through a body passage or cavity
US11783498B2 (en) Feature-based registration method
US10687777B2 (en) Vascular data processing and image registration systems, methods, and apparatuses
JP6219396B2 (en) Positioning of medical devices in bifurcated anatomical structures
CN102843972B (en) For the image registration based on instrument that image and tubular structure are merged
US7822461B2 (en) System and method for endoscopic path planning
US20220092791A1 (en) Methods for the Segmentation of Lungs, Lung Vasculature and Lung Lobes from CT Data and Clinical Applications
JP2006246941A (en) Image processing apparatus and vessel tracking method
CN110301883B (en) Image-based guidance for navigating tubular networks
JP2023552577A (en) Dynamic deformation tracking for navigational bronchoscopy
Perchet et al. Advanced navigation tools for virtual bronchoscopy
WO2024150235A1 (en) Dynamic anatomy deformation tracking for in-vivo navigation
Atmosukarto et al. An interactive 3D user interface for guided bronchoscopy
CN116801828A (en) Dynamic deformation tracking for navigation bronchoscopy
CN117765038A (en) Pulmonary tracheal registration method, pulmonary tracheal registration system, computing device and computer storage medium
CN116636928A (en) Registration progress detection method and system for lung trachea and electronic equipment
CN116747015A (en) Registration method and system for lung trachea and electronic equipment

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110201