JP2008541859A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2008541859A5 JP2008541859A5 JP2008513624A JP2008513624A JP2008541859A5 JP 2008541859 A5 JP2008541859 A5 JP 2008541859A5 JP 2008513624 A JP2008513624 A JP 2008513624A JP 2008513624 A JP2008513624 A JP 2008513624A JP 2008541859 A5 JP2008541859 A5 JP 2008541859A5
- Authority
- JP
- Japan
- Prior art keywords
- image
- virtual
- registration
- real
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003287 optical Effects 0.000 description 4
- 230000000875 corresponding Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 210000003437 Trachea Anatomy 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000000034 method Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Description
過去数年内に幾つかの案内方法が示唆されてきた[1−5]。それらの全ては、奥行きデータ及び視覚データの両方を得るために、気管表面のCTをベースとする(仮想)管腔内レンダリングを使用している。これらは、仮想レンダリング及び到来ビデオフレームを使用して気管支鏡の3D位置及び配向(姿勢)を見出すことを試みている。Bricaultらは、気管支鏡ビデオ(実)と3D CT仮想気管支鏡画像とを見当合わせする方法を提唱した[1]。この方法は、実画像の3D表面を見出すために陰影付け技術からの分割(セグメンテーション)及び形状を使用し、次いで計算された表面と仮想表面との3D−3Dレジストレーションを行う。 Several guidance methods have been suggested within the past few years [1-5]. All of them use CT-based (virtual) endoluminal rendering of the tracheal surface to obtain both depth and visual data. They attempt to find the 3D position and orientation (posture) of the bronchoscope using virtual rendering and incoming video frames. Bricault et al. Proposed a method for registering bronchoscopic video (actual) and 3D CT virtual bronchoscopic images [1]. This method uses segmentation and shape from the shading technique to find the 3D surface of the real image, and then performs 3D-3D registration of the calculated surface with the virtual surface.
Moriらは、必須マトリックスを計算し、次いでPowellの方法による画像レジストレーションを使用して残留運動の推定を行うことによって気管支鏡運動を推定するために、先ず、実フレーム全域にわたる1組の点を追跡する方法を提唱した[3]。参照文献[5]においてMoriらは、見当合わせされる画像面積を減少させるために、気管支鏡の運動及び新しい類似性の尺度の予測にカルマンフィルタを使用している。Helfertyらは、粗追跡及び精レジストレーションアプローチを使用している[2、6]。この追跡は、運動パラメータを推定するために、標準オプティカルフロー制約式及び仮想レンダリングからの奥行き情報を使用することによって実現されている。このレジストレーションは、シンプレックス方法を使用して実画像と仮想画像との間の相互情報を最大化することによって行われる。 To estimate the bronchoscopic motion by calculating the essential matrix and then estimating the residual motion using Powell's method image registration, first set a set of points across the real frame. Proposed a tracking method [3]. In reference [5], Mori et al. Use a Kalman filter to predict bronchoscopic motion and new similarity measures to reduce the image area that is registered . Helferty et al. Use a coarse tracking and fine registration approach [2, 6]. This tracking is achieved by using standard optical flow constraints and depth information from virtual rendering to estimate motion parameters. This registration is done by maximizing the mutual information between the real and virtual images using a simplex method.
本発明は、広義では、診断処置に関連して案内を提供するシステム及び方法に関する。本方法は、以前に取得した身体管腔の画像データを準備するステップと、身体管腔の生の画像データを取得するステップと、以前に取得した画像データと生の画像データとをリアルタイムで、またはほぼリアルタイムで見当合わせするステップとを含む。好ましい実施の形態においては、内視鏡、気管支鏡、結腸内視鏡、または腹腔鏡のような器具を案内するために、レジストレーションを使用する。 The present invention broadly relates to systems and methods for providing guidance in connection with diagnostic procedures. The method comprises the steps of preparing previously acquired image data of a body lumen, acquiring raw image data of the body lumen, and acquiring the previously acquired image data and the raw image data in real time, Or registering in near real time. In preferred embodiments, registration is used to guide an instrument such as an endoscope, bronchoscope, colonoscope, or laparoscope.
第2のステップは、複数の連続フレームにわたって追跡される複数の点を、現在の実フレームIRcから選択することである。好ましい実施の形態では、5フレームにわたって20点を追跡する。IVとIRcとは見当合わせされるから、我々は現在の奥行きマップから各点に関連付けられた奥行きWiを知る。第3のステップは、これらの点の新しい2D位置(ui,vi)を入手するために、次の5フレームにわたる対での対応を使用してこれら20点を追跡することである。第4のステップは、追跡した点の2D運動とそれらの初期奥行きWiを使用して、新しい姿勢(R、T)を推定することである。第5のステップにおいては、新しい姿勢(R、T)を使用して仮想画像IVが再レンダリングされる。第6のステップは、追跡に起因するドリフト誤差を斟酌するためにIVとIR5との間の精レジストレーションを行い、次いでIVを再レンダリングすることである。最後に、新しい現在の実フレームIRcとしてIR5が割当てられ、アルゴリズムは第2のステップへ戻って、連続案内のために第2のステップから第6のステップまでをループする。 The second step is to select a plurality of points to be tracked over a plurality of consecutive frames from the current real frame IRc . In the preferred embodiment, 20 points are tracked over 5 frames. Since I V and I Rc are registered , we know the depth W i associated with each point from the current depth map. The third step is to track these 20 points using a pairwise correspondence over the next 5 frames in order to obtain new 2D positions (u i , v i ) for these points. The fourth step is to estimate a new pose (R, T) using the 2D motion of the tracked points and their initial depth W i . In the fifth step, the virtual image I V is re-rendered using the new pose (R, T). The sixth step is to perform a fine registration between I V and I R5 to allow for drift errors due to tracking, and then re-render I V. Finally, I R5 is assigned as the new current real frame I Rc and the algorithm returns to the second step and loops from the second step to the sixth step for continuous guidance.
対応を使用するレジストレーション
2つのソースを見当合わせする高速手法は、追跡に使用したものと同一の方法を使用することである。唯一の差は、仮想画像IVと実画像IR5との間に対応が見出されることであろう。しかしながら、自己相関基準を使用してIR5上に点が選択される。殆どの情報が暗い領域内に含まれているから、点は、それらが全て暗い領域をサンプルするように選択される。選択された点は、ガウスのピラミッドセットアップにおけるマッチング基準としての相関を使用してIVとマッチされる。次のステップは、姿勢推定アルゴリズムを走らせ、推定された姿勢を使用してIVを更新することである。この方法は高速ではあるが、全ての画像対IV及びIR5のマッチングは良好ではない。この方法の精度は、気管内の分岐点からの気管支鏡の距離、及びIR5内に見られる分岐数に依存する。手動レジストレーションはこれと同じ方法を使用するが、対応点は手動で準備される。
Registration using correspondence A fast approach to registering two sources is to use the same method used for tracking. The only difference will be that a correspondence is found between the virtual image I V and the real image I R5 . However, a point is selected on I R5 using the autocorrelation criterion. Since most of the information is contained within the dark area, the points are selected so that they all sample the dark area. The selected points are matched to IV using correlation as a matching criterion in a Gaussian pyramid setup. The next step is to run the pose estimation algorithm and update the IV using the estimated pose. Although this method is fast, the matching of all image pairs I V and I R5 is not good. The accuracy of this method depends on the distance of the bronchoscope from the branch point in the trachea and the number of branches found in I R5 . Manual registration uses the same method, but the corresponding points are prepared manually.
Helfertyらが示した方法の目的は、実ソース画像を実目標画像に向けて繰り返しワープさせることによって、実ソース画像と実目標画像とを見当合わせすることである[6]。ソース画像またはオプティカルフロー2D画像運動(uxi,vyi)内の点の2D画像運動は、3D回転及び並進によって支配される。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US68358805P | 2005-05-23 | 2005-05-23 | |
US60/683,588 | 2005-05-23 | ||
US11/437,229 | 2006-05-19 | ||
US11/437,229 US7756563B2 (en) | 2005-05-23 | 2006-05-19 | Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy |
PCT/US2006/019926 WO2007008289A2 (en) | 2005-05-23 | 2006-05-23 | 3d-2d pose estimation and 3d-ct registration for bronchoscopy |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2008541859A JP2008541859A (en) | 2008-11-27 |
JP2008541859A5 true JP2008541859A5 (en) | 2012-06-14 |
JP5525727B2 JP5525727B2 (en) | 2014-06-18 |
Family
ID=40148658
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008513624A Active JP5525727B2 (en) | 2005-05-23 | 2006-05-23 | 3D-CT registration with guidance method based on 3D-2D pose estimation and application to raw bronchoscopy |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5525727B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4922107B2 (en) * | 2007-09-03 | 2012-04-25 | オリンパスメディカルシステムズ株式会社 | Endoscope device |
EP2424422B1 (en) * | 2009-04-29 | 2019-08-14 | Koninklijke Philips N.V. | Real-time depth estimation from monocular endoscope images |
US20110184238A1 (en) * | 2010-01-28 | 2011-07-28 | The Penn State Research Foundation | Image-based global registration system and method applicable to bronchoscopy guidance |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002510230A (en) * | 1997-06-27 | 2002-04-02 | ザ・ボード・オブ・トラスティーズ・オブ・ザ・リーランド・スタンフォード・ジュニア・ユニバーシティ | Stereoscopic image navigation method and apparatus |
JP4583658B2 (en) * | 2001-05-22 | 2010-11-17 | オリンパス株式会社 | Endoscope system |
JP4171833B2 (en) * | 2002-03-19 | 2008-10-29 | 国立大学法人東京工業大学 | Endoscope guidance device and method |
US7822461B2 (en) * | 2003-07-11 | 2010-10-26 | Siemens Medical Solutions Usa, Inc. | System and method for endoscopic path planning |
JP4464640B2 (en) * | 2003-09-01 | 2010-05-19 | オリンパス株式会社 | Industrial endoscope equipment |
-
2006
- 2006-05-23 JP JP2008513624A patent/JP5525727B2/en active Active
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7889905B2 (en) | Fast 3D-2D image registration method with application to continuously guided endoscopy | |
Mori et al. | Tracking of a bronchoscope using epipolar geometry analysis and intensity-based image registration of real and virtual endoscopic images | |
US10667679B2 (en) | Image-based global registration system and method applicable to bronchoscopy guidance | |
US7756563B2 (en) | Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy | |
CN102413756B (en) | Real-time depth estimation from monocular endoscope images | |
Grasa et al. | EKF monocular SLAM with relocalization for laparoscopic sequences | |
US20090010507A1 (en) | System and method for generating a 3d model of anatomical structure using a plurality of 2d images | |
US20090041314A1 (en) | Robust mosaicing method. notably with correction of motion distortions and tissue deformations for a vivo fibered microscopy | |
US20140105486A1 (en) | Method for locating a camera and for 3d reconstruction in a partially known environment | |
Mountney et al. | Dynamic view expansion for minimally invasive surgery using simultaneous localization and mapping | |
Shen et al. | Robust camera localisation with depth reconstruction for bronchoscopic navigation | |
CN110381841A (en) | Fixture and its application method for imaging of medical | |
CN112766416B (en) | Digestive endoscope navigation method and digestive endoscope navigation system | |
JP2012165838A (en) | Endoscope insertion support device | |
Merritt et al. | Real-time CT-video registration for continuous endoscopic guidance | |
CN101241596B (en) | Visual enhancement of interval changes using a temporal subtraction technique. | |
CN114663575A (en) | Method, apparatus and computer-readable storage medium for image processing | |
KR101274530B1 (en) | Chest image diagnosis system based on image warping, and method thereof | |
Rai et al. | Combined video tracking and image-video registration for continuous bronchoscopic guidance | |
JP2008541859A5 (en) | ||
CN101241597B (en) | Visual enhancement of interval changes using a temporal subtraction technique | |
JP5525727B2 (en) | 3D-CT registration with guidance method based on 3D-2D pose estimation and application to raw bronchoscopy | |
US20150202021A1 (en) | Method for processing images of interventional radiology | |
Klein et al. | Fiducial-free registration procedure for navigated bronchoscopy | |
CN115018890A (en) | Three-dimensional model registration method and system |