JP2008541859A5 - - Google Patents

Download PDF

Info

Publication number
JP2008541859A5
JP2008541859A5 JP2008513624A JP2008513624A JP2008541859A5 JP 2008541859 A5 JP2008541859 A5 JP 2008541859A5 JP 2008513624 A JP2008513624 A JP 2008513624A JP 2008513624 A JP2008513624 A JP 2008513624A JP 2008541859 A5 JP2008541859 A5 JP 2008541859A5
Authority
JP
Japan
Prior art keywords
image
virtual
registration
real
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008513624A
Other languages
Japanese (ja)
Other versions
JP2008541859A (en
JP5525727B2 (en
Filing date
Publication date
Priority claimed from US11/437,229 external-priority patent/US7756563B2/en
Application filed filed Critical
Publication of JP2008541859A publication Critical patent/JP2008541859A/en
Publication of JP2008541859A5 publication Critical patent/JP2008541859A5/ja
Application granted granted Critical
Publication of JP5525727B2 publication Critical patent/JP5525727B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

過去数年内に幾つかの案内方法が示唆されてきた[1−5]。それらの全ては、奥行きデータ及び視覚データの両方を得るために、気管表面のCTをベースとする(仮想)管腔内レンダリングを使用している。これらは、仮想レンダリング及び到来ビデオフレームを使用して気管支鏡の3D位置及び配向(姿勢)を見出すことを試みている。Bricaultらは、気管支鏡ビデオ(実)と3D CT仮想気管支鏡画像とを見当合わせする方法を提唱した[1]。この方法は、実画像の3D表面を見出すために陰影付け技術からの分割(セグメンテーション)及び形状を使用し、次いで計算された表面と仮想表面との3D−3Dレジストレーションを行う。 Several guidance methods have been suggested within the past few years [1-5]. All of them use CT-based (virtual) endoluminal rendering of the tracheal surface to obtain both depth and visual data. They attempt to find the 3D position and orientation (posture) of the bronchoscope using virtual rendering and incoming video frames. Bricault et al. Proposed a method for registering bronchoscopic video (actual) and 3D CT virtual bronchoscopic images [1]. This method uses segmentation and shape from the shading technique to find the 3D surface of the real image, and then performs 3D-3D registration of the calculated surface with the virtual surface.

Moriらは、必須マトリックスを計算し、次いでPowellの方法による画像レジストレーションを使用して残留運動の推定を行うことによって気管支鏡運動を推定するために、先ず、実フレーム全域にわたる1組の点を追跡する方法を提唱した[3]。参照文献[5]においてMoriらは、見当合わせされる画像面積を減少させるために、気管支鏡の運動及び新しい類似性の尺度の予測にカルマンフィルタを使用している。Helfertyらは、粗追跡及び精レジストレーションアプローチを使用している[2、6]。この追跡は、運動パラメータを推定するために、標準オプティカルフロー制約式及び仮想レンダリングからの奥行き情報を使用することによって実現されている。このレジストレーションは、シンプレックス方法を使用して実画像と仮想画像との間の相互情報を最大化することによって行われる。 To estimate the bronchoscopic motion by calculating the essential matrix and then estimating the residual motion using Powell's method image registration, first set a set of points across the real frame. Proposed a tracking method [3]. In reference [5], Mori et al. Use a Kalman filter to predict bronchoscopic motion and new similarity measures to reduce the image area that is registered . Helferty et al. Use a coarse tracking and fine registration approach [2, 6]. This tracking is achieved by using standard optical flow constraints and depth information from virtual rendering to estimate motion parameters. This registration is done by maximizing the mutual information between the real and virtual images using a simplex method.

本発明は、広義では、診断処置に関連して案内を提供するシステム及び方法に関する。本方法は、以前に取得した身体管腔の画像データを準備するステップと、身体管腔の生の画像データを取得するステップと、以前に取得した画像データと生の画像データとをリアルタイムで、またはほぼリアルタイムで見当合わせするステップとを含む。好ましい実施の形態においては、内視鏡、気管支鏡、結腸内視鏡、または腹腔鏡のような器具を案内するために、レジストレーションを使用する。 The present invention broadly relates to systems and methods for providing guidance in connection with diagnostic procedures. The method comprises the steps of preparing previously acquired image data of a body lumen, acquiring raw image data of the body lumen, and acquiring the previously acquired image data and the raw image data in real time, Or registering in near real time. In preferred embodiments, registration is used to guide an instrument such as an endoscope, bronchoscope, colonoscope, or laparoscope.

第2のステップは、複数の連続フレームにわたって追跡される複数の点を、現在の実フレームIRcから選択することである。好ましい実施の形態では、5フレームにわたって20点を追跡する。IVとIRcとは見当合わせされるから、我々は現在の奥行きマップから各点に関連付けられた奥行きWiを知る。第3のステップは、これらの点の新しい2D位置(ui,vi)を入手するために、次の5フレームにわたる対での対応を使用してこれら20点を追跡することである。第4のステップは、追跡した点の2D運動とそれらの初期奥行きWiを使用して、新しい姿勢(R、T)を推定することである。第5のステップにおいては、新しい姿勢(R、T)を使用して仮想画像IVが再レンダリングされる。第6のステップは、追跡に起因するドリフト誤差を斟酌するためにIVとIR5との間の精レジストレーションを行い、次いでIVを再レンダリングすることである。最後に、新しい現在の実フレームIRcとしてIR5が割当てられ、アルゴリズムは第2のステップへ戻って、連続案内のために第2のステップから第6のステップまでをループする。 The second step is to select a plurality of points to be tracked over a plurality of consecutive frames from the current real frame IRc . In the preferred embodiment, 20 points are tracked over 5 frames. Since I V and I Rc are registered , we know the depth W i associated with each point from the current depth map. The third step is to track these 20 points using a pairwise correspondence over the next 5 frames in order to obtain new 2D positions (u i , v i ) for these points. The fourth step is to estimate a new pose (R, T) using the 2D motion of the tracked points and their initial depth W i . In the fifth step, the virtual image I V is re-rendered using the new pose (R, T). The sixth step is to perform a fine registration between I V and I R5 to allow for drift errors due to tracking, and then re-render I V. Finally, I R5 is assigned as the new current real frame I Rc and the algorithm returns to the second step and loops from the second step to the sixth step for continuous guidance.

対応を使用するレジストレーション
2つのソースを見当合わせする高速手法は、追跡に使用したものと同一の方法を使用することである。唯一の差は、仮想画像IVと実画像IR5との間に対応が見出されることであろう。しかしながら、自己相関基準を使用してIR5上に点が選択される。殆どの情報が暗い領域内に含まれているから、点は、それらが全て暗い領域をサンプルするように選択される。選択された点は、ガウスのピラミッドセットアップにおけるマッチング基準としての相関を使用してIVとマッチされる。次のステップは、姿勢推定アルゴリズムを走らせ、推定された姿勢を使用してIVを更新することである。この方法は高速ではあるが、全ての画像対IV及びIR5のマッチングは良好ではない。この方法の精度は、気管内の分岐点からの気管支鏡の距離、及びIR5内に見られる分岐数に依存する。手動レジストレーションはこれと同じ方法を使用するが、対応点は手動で準備される。
Registration using correspondence A fast approach to registering two sources is to use the same method used for tracking. The only difference will be that a correspondence is found between the virtual image I V and the real image I R5 . However, a point is selected on I R5 using the autocorrelation criterion. Since most of the information is contained within the dark area, the points are selected so that they all sample the dark area. The selected points are matched to IV using correlation as a matching criterion in a Gaussian pyramid setup. The next step is to run the pose estimation algorithm and update the IV using the estimated pose. Although this method is fast, the matching of all image pairs I V and I R5 is not good. The accuracy of this method depends on the distance of the bronchoscope from the branch point in the trachea and the number of branches found in I R5 . Manual registration uses the same method, but the corresponding points are prepared manually.

Helfertyらが示した方法の目的は、実ソース画像を実目標画像に向けて繰り返しワープさせることによって、実ソース画像と実目標画像とを見当合わせすることである[6]。ソース画像またはオプティカルフロー2D画像運動(uxi,vyi)内の点の2D画像運動は、3D回転及び並進によって支配される。

Figure 2008541859
その導出は、セクション2.3に与えられているものと殆ど同一である。(ux,vy)を決定するために使用されるオプティカルフロー制約式は次の通りである。
Figure 2008541859
The purpose of the method presented by Helferty et al. Is to register the actual source image with the actual target image by repeatedly warping the actual source image towards the actual target image [6]. The 2D image motion of a point in the source image or optical flow 2D image motion (u xi , v yi ) is governed by 3D rotation and translation.
Figure 2008541859
The derivation is almost identical to that given in section 2.3. The optical flow constraint equation used to determine (u x , v y ) is as follows:
Figure 2008541859

気管樹枝分岐の内側の気管支鏡の運動を表す1組5枚の連続気管支鏡ビデオ(実)フレームを示している。A set of five consecutive bronchoscope video (real) frames showing bronchoscope motion inside the tracheal branch is shown. 気管支鏡の位置及び配向(姿勢)の現在の推定に基づく気管表面のCTをベースとする(仮想)管腔内レンダリングを示す図である。FIG. 10 shows a (virtual) intraluminal rendering based on CT of the tracheal surface based on current estimates of bronchoscope position and orientation (posture). 本発明の総合的方法を示す図である。FIG. 2 shows the overall method of the present invention. 1対の仮想画像に適用した手動レジストレーションステップを示す図である。FIG. 6 is a diagram illustrating a manual registration step applied to a pair of virtual images. 案内方法を開始させるために、仮想画像と実画像の初期レジストレーションのための手動レジストレーションステップの使用を示す図である。FIG. 6 illustrates the use of a manual registration step for initial registration of virtual and real images to initiate a guidance method. Luらによる姿勢推定方法を使用した結果を示す図であって、我々のドメインにおけるその不適合性を示している。Figure 3 shows the results of using the pose estimation method by Lu et al., Showing its incompatibility in our domain. 仮想画像IV上に入力点を与えた時の、実画像IR5上の計算された対応マッチング点を示す図である。It is a figure which shows the corresponding matching point calculated on real image IR5 when an input point is given on virtual image IV . 仮想画像及び実画像にレジストレーションステップを適用することによって得た結果を示す図である。It is a figure which shows the result obtained by applying a registration step to a virtual image and a real image. Helfertyらによるレジストレーションのためのオプティカルフローをベースとする方法を示す図である。FIG. 6 illustrates an optical flow based method for registration by Helferty et al. 精レジストレーションステップを示す図であって、図10aは、ビデオ画像IRc(図10b)、及び運動推定の後のワープされた仮想画像(図10c)と見当合わせされる仮想画像IVを示している。FIG. 10a shows a video image I Rc (FIG. 10b) and a virtual image I V registered with the warped virtual image after motion estimation (FIG. 10c). ing.

JP2008513624A 2005-05-23 2006-05-23 3D-CT registration with guidance method based on 3D-2D pose estimation and application to raw bronchoscopy Active JP5525727B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US68358805P 2005-05-23 2005-05-23
US60/683,588 2005-05-23
US11/437,229 2006-05-19
US11/437,229 US7756563B2 (en) 2005-05-23 2006-05-19 Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy
PCT/US2006/019926 WO2007008289A2 (en) 2005-05-23 2006-05-23 3d-2d pose estimation and 3d-ct registration for bronchoscopy

Publications (3)

Publication Number Publication Date
JP2008541859A JP2008541859A (en) 2008-11-27
JP2008541859A5 true JP2008541859A5 (en) 2012-06-14
JP5525727B2 JP5525727B2 (en) 2014-06-18

Family

ID=40148658

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008513624A Active JP5525727B2 (en) 2005-05-23 2006-05-23 3D-CT registration with guidance method based on 3D-2D pose estimation and application to raw bronchoscopy

Country Status (1)

Country Link
JP (1) JP5525727B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4922107B2 (en) * 2007-09-03 2012-04-25 オリンパスメディカルシステムズ株式会社 Endoscope device
EP2424422B1 (en) * 2009-04-29 2019-08-14 Koninklijke Philips N.V. Real-time depth estimation from monocular endoscope images
US20110184238A1 (en) * 2010-01-28 2011-07-28 The Penn State Research Foundation Image-based global registration system and method applicable to bronchoscopy guidance

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002510230A (en) * 1997-06-27 2002-04-02 ザ・ボード・オブ・トラスティーズ・オブ・ザ・リーランド・スタンフォード・ジュニア・ユニバーシティ Stereoscopic image navigation method and apparatus
JP4583658B2 (en) * 2001-05-22 2010-11-17 オリンパス株式会社 Endoscope system
JP4171833B2 (en) * 2002-03-19 2008-10-29 国立大学法人東京工業大学 Endoscope guidance device and method
US7822461B2 (en) * 2003-07-11 2010-10-26 Siemens Medical Solutions Usa, Inc. System and method for endoscopic path planning
JP4464640B2 (en) * 2003-09-01 2010-05-19 オリンパス株式会社 Industrial endoscope equipment

Similar Documents

Publication Publication Date Title
US7889905B2 (en) Fast 3D-2D image registration method with application to continuously guided endoscopy
Mori et al. Tracking of a bronchoscope using epipolar geometry analysis and intensity-based image registration of real and virtual endoscopic images
US10667679B2 (en) Image-based global registration system and method applicable to bronchoscopy guidance
US7756563B2 (en) Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy
CN102413756B (en) Real-time depth estimation from monocular endoscope images
Grasa et al. EKF monocular SLAM with relocalization for laparoscopic sequences
US20090010507A1 (en) System and method for generating a 3d model of anatomical structure using a plurality of 2d images
US20090041314A1 (en) Robust mosaicing method. notably with correction of motion distortions and tissue deformations for a vivo fibered microscopy
US20140105486A1 (en) Method for locating a camera and for 3d reconstruction in a partially known environment
Mountney et al. Dynamic view expansion for minimally invasive surgery using simultaneous localization and mapping
Shen et al. Robust camera localisation with depth reconstruction for bronchoscopic navigation
CN110381841A (en) Fixture and its application method for imaging of medical
CN112766416B (en) Digestive endoscope navigation method and digestive endoscope navigation system
JP2012165838A (en) Endoscope insertion support device
Merritt et al. Real-time CT-video registration for continuous endoscopic guidance
CN101241596B (en) Visual enhancement of interval changes using a temporal subtraction technique.
CN114663575A (en) Method, apparatus and computer-readable storage medium for image processing
KR101274530B1 (en) Chest image diagnosis system based on image warping, and method thereof
Rai et al. Combined video tracking and image-video registration for continuous bronchoscopic guidance
JP2008541859A5 (en)
CN101241597B (en) Visual enhancement of interval changes using a temporal subtraction technique
JP5525727B2 (en) 3D-CT registration with guidance method based on 3D-2D pose estimation and application to raw bronchoscopy
US20150202021A1 (en) Method for processing images of interventional radiology
Klein et al. Fiducial-free registration procedure for navigated bronchoscopy
CN115018890A (en) Three-dimensional model registration method and system