JP2012525190A - 単眼の内視鏡画像からのリアルタイム深度推定 - Google Patents

単眼の内視鏡画像からのリアルタイム深度推定 Download PDF

Info

Publication number
JP2012525190A
JP2012525190A JP2012507853A JP2012507853A JP2012525190A JP 2012525190 A JP2012525190 A JP 2012525190A JP 2012507853 A JP2012507853 A JP 2012507853A JP 2012507853 A JP2012507853 A JP 2012507853A JP 2012525190 A JP2012525190 A JP 2012525190A
Authority
JP
Japan
Prior art keywords
endoscopic
endoscope
depth
image
monocular
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012507853A
Other languages
English (en)
Inventor
アレクサンドラ ポポヴィク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2012525190A publication Critical patent/JP2012525190A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/061Measuring instruments not otherwise provided for for measuring dimensions, e.g. length
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

内視鏡外科方法が、体の生体構造領域におけるターゲット位置へと内視鏡20を進めるステップと、内視鏡20がターゲット位置へと進められるとき、複数の内視鏡ビデオフレーム22を生成するステップとを含み、この内視鏡ビデオフレーム22が、生体構造領域の単眼の内視鏡画像を示す。単眼の内視鏡画像内の対象物の深度、例えば、気管支の単眼の内視鏡画像内の気管支壁の深度のリアルタイム推定のため、この方法は更に、生体構造領域の単眼の内視鏡画像のフレーム時系列における1つ又は複数の画像点の光学フローを決定するステップS41、この画像点の光学フローの関数として、単眼の内視鏡画像における対象物の深度を示す深度場を推定するステップS42とを含む。

Description

本発明は一般に、内視鏡に関する最小侵襲的手術に関する。本発明は特に、内視鏡から得られる画像に示される対象物のリアルタイム深度を推定することに関する。
一般に、最小侵襲的手術は内視鏡を利用する。内視鏡は、撮像能力を持つ長く柔軟な又は堅い管である。自然な開口部又は小さな切開を介して体に挿入されると、内視鏡は、外科医が手術を実行するとき、接眼レンズを通して又はスクリーンで見られることができる関心領域の画像を提供する。手術にとって本質的であるのは、外科医が対象物を回避しつつ、内視鏡を前進させることを可能にする、及び内視鏡のリアルタイムの位置追跡を容易にする、画像内の対象物の深度情報である。
しかしながら、内視鏡画像のフレームは2次元であり、従って外科医は、画像のスクリーンショットで見られる対象物の深度の感覚を失う場合がある。
本発明は、内視鏡ビデオフレームの2次元制約にもかかわらず深度マップを生成するため、単眼の内視鏡画像から内視鏡ビデオフレームを利用する技術を提供する。
本発明の1つの形式は、内視鏡及び内視鏡手術制御ユニットを使用する最小侵襲外科システムである。処理において、内視鏡が、体の生体構造領域内のターゲット位置へと進められるとき、この内視鏡が、複数の内視鏡ビデオフレームを生成する。内視鏡ビデオフレームは、生体構造領域の単眼の内視鏡画像を示す。単眼の内視鏡画像に含まれる対象物(例えば、気管支の単眼の内視鏡画像に含まれる気管支壁の形状)の深度のリアルタイム推定のため、内視鏡がターゲット位置へと進められるとき、内視鏡手術制御ユニットは、生体構造領域の単眼の内視鏡画像のフレーム時系列内の画像点の光学フローの関数として、生体構造領域の単眼の内視鏡画像における対象物の深度を示す深度場を推定するため、内視鏡ビデオフレームを受信する。
本発明の第2の形式は、体の生体構造領域におけるターゲット位置へと内視鏡を進めるステップと、内視鏡がターゲット位置へと進められるとき、複数の内視鏡ビデオフレームを生成するステップとを含む内視鏡外科方法である。ここで、内視鏡ビデオフレームが、生体構造領域の単眼の内視鏡画像を示す。単眼の内視鏡画像における対象物(例えば、気管支の単眼の内視鏡画像内の気管支壁の形)の深度のリアルタイム推定のため、この方法は更に、生体構造領域の単眼の内視鏡画像のフレーム時系列における1つ又は複数の画像点の光学フローを生成するステップと、画像点の光学フローの関数として、単眼の内視鏡画像における画像点の深度を示す深度場を推定するステップとを含む。
本発明による最小侵襲外科システムの例示的な実施形態を示す図である。 本発明による深度推定方法の例示的な実施形態のフローチャートを示す図である。 図2に示される本発明による深度推定方法の第1の例示的な実施形態のフローチャートを示す図である。 図3に示されるフローチャートの例示的な用途を示す図である。 既知の例示的な光学フローを示す図である。 既知の例示的な深度場を示す図である。 既知の例示的な深度マップを示す図である。 図2に示される本発明による深度推定方法の第2の例示的な実施形態のフローチャートを示す図である。
図1に示されるように、本発明の最小侵襲外科システム10は、内視鏡20及び内視鏡手術制御ユニット30を使用する。
本書において内視鏡20は、光ファィバ、レンズ、小型化された(例えばCCDベースの)撮像システム等を介して、(例えば、人間又は動物の)体の生体構造領域を内部的に撮像するよう構造的に構成される任意のデバイスとして広く規定される。内視鏡20の例は、以下に限定されるものではないが、任意のタイプのスコープ(例えば、気管支鏡、結腸鏡、腹腔鏡等)及び画像システムに備えられるスコープ(例えば、撮像カニューレ)に類似する任意のデバイスを含む。
本書においてユニット30の外部撮像デバイス31は、体の生体構造領域を外部的に撮像するよう構造的に構成される任意のデバイスとして広く規定される。外部撮像デバイス31の例は、以下に限定されるものではないが、コンピュータ断層撮影デバイス、磁気共鳴撮像デバイス、超音波デバイス及びX線デバイスを含む。
本書においてユニット30の内視鏡経路計画デバイス32は、内視鏡20を構成する(例えば、撮像カニューレを構成する)ため、及び/又は(例えば、気管支鏡の制御を処理するため)ターゲット位置に達するよう内視鏡20を制御するため、体の生体構造領域内のターゲット位置に達する運動学的な経路を事前に計画するよう構造的に構成される任意のデバイスとして広く規定される。内視鏡20が気管支鏡又は運動学的に同様なスコープであるような文脈において、2007年4月17日に公開されたTrovatoらによる「3D Tool Path Planning, Simulation and Control System」というタイトルの国際公開第2007/042986A2号により教示される経路計画技術が、外部撮像デバイス31により取得される生体構造領域の3Dデータセットにより示される体の生体構造領域(例えば、肺)内の内視鏡20に関する運動学的に正確な経路を生成するため、デバイス32により用いられることができる。内視鏡20が撮像ネストカニューレ又は運動学的に同様なデバイスである文脈において、2008年3月20日に公開されたTrovatoらによる「Active Cannula Configuration For Minimally Invasive Surgery」というタイトルの国際公開第2008/032230A1号により教示される経路計画/ネストカニューレ構成技術が、外部撮像デバイス31により取得される生体構造領域の3Dデータセットにより示される体の生体構造領域(例えば、肺)内のターゲット位置に到達するための内視鏡20に関する運動学的に正確な経路を生成するため、デバイス32により用いられることができる。
本書においてユニット30の内視鏡追跡デバイス33は、体の生体構造領域内の内視鏡20の位置を追跡するよう構造的に構成される任意のデバイスとして広く規定される。内視鏡追跡デバイス33の1つの例は、2008年10月20日に出願されたTrovatoらによる「Image-Based Localization Method and System」というタイトルの米国仮出願第61/106,669号(出願人整理番号010259US1)により教示される画像ベースの追跡ユニットである。内視鏡追跡デバイス33の別の例は、2004年10月4日に発行されたKonenらによる「Method and System for Image-Guided Interventional Endoscopic Procedures」というタイトルの米国特許第6,135,946号により教示される光学追跡デバイスである。内視鏡追跡デバイス33の追加的な例は、例えば、superDimension社からのinReach(登録商標)システムとして市販される電磁追跡ユニットといった任意の市販の電磁追跡ユニットである。
本書においてユニット30の深度推定デバイス34は、内視鏡20により取得されるフレーム時系列(即ち、任意のタイプの時間シーケンスにおける2つ又はこれ以上の画像)における画像点/特徴の実際の運動パターンから深度場を推定するよう構造的に構成される任意のデバイスとして広く規定される。実際、生体構造領域内のターゲット位置に達するよう内視鏡20の事前構成を生成する際、及び/又はこのターゲット位置に達するよう内視鏡20を制御するための運動学的な経路の事前計画を生成する際、深度推定デバイス34は、内視鏡経路計画デバイス32を容易にするため、深度場を推定するユニット30により利用されることができる。更に、内視鏡20からの内視鏡画像とデバイス31により取得される事前画像との位置合わせを容易にするため、及び/又は、内視鏡20がターゲット位置へと進められるとき、生体構造領域における内視鏡20の位置のリアルタイム追跡を強化するため、深度推定デバイス34は、深度場を推定するユニット30により実際に利用されることができる。更に、実際、深度推定デバイス34は、ユニット30からの他のデバイスとは独立して作動することができるか、又は、ユニット30の他のデバイスの1つに内部的に組み込まれることができる。
図2に示されるフローチャート40は、深度推定デバイス34(図1)により実行される本発明の深度推定方法を表す。この方法に関して、深度推定デバイス34は、内視鏡20により取得される単眼の内視鏡画像のフレーム時系列における画像点/特徴の運動の光学フローを決定するフローチャート40の段階S41を始める。段階S41の実行に続いて又は同時に、深度推定デバイス34は、光学フローから深度場を推定するため、フローチャート40の段階S42へ進む。ここで、深度場は、単眼の内視鏡画像における1つ又は複数の対象物の深度を示し、深度場推定は、フローチャート40の段階S43において、深度マップの表示に利用される。
図3に示されるフローチャート50は、フローチャート40(図2)の例示的な実施形態を表す。特に、デバイス34による光学フローの決定は、フローチャート50の段階S50の間、複数のベクトルを含むベクトル場の生成を含む。ここで、各ベクトルは、単眼の内視鏡画像内の(例えば、2つの単眼の内視鏡画像の間の)特定の画像点の運動を表す。例えば、図4に示されるように、内視鏡20が気管支61内の内視鏡経路21を横断するとき、内視鏡20により取得される患者60の気管支61のフレーム時系列22における各内視鏡ビデオフレームに関する画像点/特徴の運動の光学フローは、単眼の内視鏡画像に含まれる画像点の運動を表すベクトル(例えば、図5に示されるベクトル場70)により決定されることができる。
更に、2つの内視鏡ビデオフレームの間の内視鏡20の速度は、内視鏡追跡デバイス33により追跡される所与のフレームに対して、内視鏡20の相対的な位置から計算されることができる。このフレームは、連続的、又はフレーム間で内視鏡20により静止した対象物が観測されると仮定するといくらか遅延するものとすることができる。内視鏡20の速度が与えられると、内視鏡20の光学軸が内視鏡の運動と揃えられ、従って、拡張焦点(「FOE」)として知られる連続的なスライスにおいて動かない光学フロー上の点が内視鏡20の運動と揃えられるという事実の観点から、深度場がこの拡張焦点から推定されることができる。各点に関する深度情報は、(1)フローチャート50の段階S52により特定される、FOEからのすべての点の距離D、(2)すべての点における光学フローの振幅V、及び(3)内視鏡20の速度vを知ることにより計算されることができる。特に、深度推定デバイス34は、以下の式[1]
Z=v*D/V[1]
に基づき、フローチャート50の段階S53の間、各画像点に関する深度情報を計算する。ここで、Zは、画像点の深度である。この場合、X及びY位置は、内視鏡20の固有のパラメータ(例えば、焦点等)から計算されることができる。
例えば、図4に示されるように、内視鏡追跡デバイス33は、フレーム時系列23を生成する際、深度推定デバイス34が内視鏡20の速度vを決定することを可能にする追跡データ35を深度推定デバイス34に提供する。そのようなものとして、ベクトル場における特定されたFOEからのすべての画像点の距離Dとすべての点における光学フローの振幅Vを知ることに基づき、深度推定デバイス34は、深度場36(例えば、図6に示される深度場71)を推定するため、及び深度マップ37(例えば、図7に示されるカラーコード化された深度場72)を生成するため、フレーム時系列23の計算されたベクトル場内の各点に関するZ深度を計算する。
図8に示されるフローチャート80は、フローチャート40(図2)の別の実施形態を表す。フローチャート80は、同じシーンの2つの表示(即ち、わずかに異なる時間で撮られる2つの内視鏡ビデオフレーム)の立体視に基づかれる。特に、フローチャート80の段階S81の間ベクトル場が生成され、内視鏡20がデバイス33により追跡されるとすると、2つの表示に対する内視鏡20の相対的位置も知られる。この場合、座標系は、第1の表示を作成するカメラポーズに付けられる。従って、第1の表示に対する第2の表示を生成した既知のポーズは、3x3回転行列R及び3x1並進ベクトルtで規定される。更に、(例えば、カメラのデータシートから又は既知の較正方法から)内視鏡20の固有のカメラパラメータが知られると仮定すると、カメラ固有の3x3行列Kが規定されることができる。これらのデータから、フローチャート80の段階S82は、以下の式[2]及び[3]
Figure 2012525190
に基づく、第1の表示P1及び第2の表示P2に関する4x4投影行列の計算を含む。
フローチャート80の段階S83は、各画像点の深度を計算するため、投影行列の投影要素のジオメトリックトライアンギュレーション(geometric triangulation)を含む。
内視鏡20がデバイス33により追跡されない場合、同様な手順が、投影行列を推定するためベクトル場を用いて実行されることができる。この場合、深度が、スケール係数だけに対して推定され、現実の物理的な深度が知られることはない。
本発明が、例示的な側面、特徴及び実現を参照して説明されたが、開示されたシステム及び方法は、斯かる例示的な側面、特徴及び/又は実現に限定されるものではない。むしろ、本書に提供される記載から当業者には容易に明らかであるように、開示されたシステム及び方法は、本発明の精神又は範囲を逸脱しない範囲で、修正、変形及び拡張を許すものである。従って、本発明は、この範囲に含まれる斯かる修正、変形及び拡張を明示的に含むものである。

Claims (15)

  1. 最小侵襲外科システムであって、
    体の生体構造領域内のターゲット位置へと進められるとき、複数の内視鏡ビデオフレームを生成する内視鏡であって、前記内視鏡ビデオフレームが、前記生体構造領域の単眼の内視鏡画像を示す、内視鏡と、
    前記内視鏡が前記ターゲット位置へと進められるとき、前記内視鏡ビデオフレームを受信するため前記内視鏡と通信する内視鏡手術制御ユニットとを有し、
    前記内視鏡手術制御ユニットが、前記生体構造領域の前記単眼の内視鏡画像のフレーム時系列内の少なくとも1つの画像点の光学フローの関数として、前記生体構造領域の前記単眼の内視鏡画像における対象物の深度を示す深度場を推定するよう動作可能である、最小侵襲外科システム。
  2. 前記内視鏡手術制御ユニットが更に、深度場推定を表す深度マップ表示を生成するよう動作可能である、請求項1に記載の最小侵襲外科システム。
  3. 前記内視鏡手術制御ユニットが更に、前記深度場推定の関数として、前記体の生体構造領域の事前画像と前記単眼の内視鏡画像とを位置合わせするよう動作可能である、請求項1に記載の最小侵襲外科システム。
  4. 前記内視鏡手術制御ユニットが更に、前記生体構造領域における前記ターゲット位置に達するための前記内視鏡に関する運動学的な経路を事前に計画するよう動作可能である、請求項1に記載の最小侵襲外科システム。
  5. 前記内視鏡手術制御ユニットが更に、前記内視鏡が前記生体構造領域における前記ターゲット位置へと進められるとき、前記生体構造領域における前記内視鏡の位置を追跡するよう動作可能である、請求項1に記載の最小侵襲外科システム。
  6. 前記生体構造領域の前記単眼の内視鏡画像の前記フレーム時系列内の前記少なくとも1つの画像点の前記光学フローの生成が、前記生体構造領域における前記内視鏡の位置を追跡することを含む、請求項5に記載の最小侵襲外科システム。
  7. 前記内視鏡が、気管支鏡及びネストカニューレを含むグループの1つである、請求項1に記載の最小侵襲外科システム。
  8. 内視鏡外科方法において、
    体の生体構造領域におけるターゲット位置へと内視鏡を進めるステップと、
    前記内視鏡が前記ターゲット位置へと進められるとき、複数の内視鏡ビデオフレームを生成するステップであって、前記内視鏡ビデオフレームが、前記生体構造領域の単眼の内視鏡画像を示す、ステップと、
    前記生体構造領域の前記単眼の内視鏡画像のフレーム時系列における少なくとも1つの画像点の光学フローを決定するステップと、
    前記少なくとも1つの画像点の前記光学フローの関数として、前記単眼の内視鏡画像における対象物の深度を示す深度場を推定するステップとを有する、方法。
  9. 前記光学フローを決定するステップが、複数のベクトルを含むベクトル場を生成するステップを含み、
    各ベクトルが、前記フレーム時系列における前記画像点の1つの運動を示す、請求項8に記載の内視鏡外科方法。
  10. 前記深度場を推定するステップが、
    前記ベクトル場における拡張焦点を特定するステップと、
    前記拡張焦点からの各画像点の距離の関数として、各画像点に関する深度点を計算するステップとを含む、請求項9に記載の内視鏡外科方法。
  11. 前記深度場を推定するステップが、前記ベクトル場における各ベクトルの振幅の関数として、各画像点に関する深度点を計算するステップを含む、請求項9に記載の内視鏡外科方法。
  12. 前記深度場を推定するステップが、前記ベクトル場における各ベクトルの速度の関数として、画像点に関する深度点を計算するステップを含む、請求項9に記載の内視鏡外科方法。
  13. 前記深度場を推定するステップが、前記ベクトルの関数として、投影行列を計算するステップを含む、請求項9に記載の内視鏡外科方法。
  14. 前記深度場を推定するステップが、前記投影行列の投影要素のジオメトリックトライアンギュレーションの関数として、各画像点に関する深度点を計算するステップを含む、請求項13に記載の内視鏡外科方法。
  15. 前記深度場推定を表す深度マップを表示するステップを更に有する、請求項8に記載の内視鏡外科方法。
JP2012507853A 2009-04-29 2010-03-25 単眼の内視鏡画像からのリアルタイム深度推定 Pending JP2012525190A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US17372209P 2009-04-29 2009-04-29
US61/173,722 2009-04-29
PCT/IB2010/051316 WO2010125481A1 (en) 2009-04-29 2010-03-25 Real-time depth estimation from monocular endoscope images

Publications (1)

Publication Number Publication Date
JP2012525190A true JP2012525190A (ja) 2012-10-22

Family

ID=42269384

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012507853A Pending JP2012525190A (ja) 2009-04-29 2010-03-25 単眼の内視鏡画像からのリアルタイム深度推定

Country Status (7)

Country Link
US (1) US9750399B2 (ja)
EP (1) EP2424422B1 (ja)
JP (1) JP2012525190A (ja)
CN (1) CN102413756B (ja)
BR (1) BRPI1007100A2 (ja)
RU (1) RU2529380C2 (ja)
WO (1) WO2010125481A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020524355A (ja) * 2018-05-23 2020-08-13 浙江商▲湯▼科技▲開▼▲発▼有限公司Zhejiang Sensetime Technology Development Co., Ltd. 単眼画像の深度回復方法及び装置、コンピュータ機器

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9750399B2 (en) 2009-04-29 2017-09-05 Koninklijke Philips N.V. Real-time depth estimation from monocular endoscope images
US8672837B2 (en) 2010-06-24 2014-03-18 Hansen Medical, Inc. Methods and devices for controlling a shapeable medical device
WO2012075631A1 (en) 2010-12-08 2012-06-14 Industrial Technology Research Institute Methods for generating stereoscopic views from monoscopic endoscope images and systems using the same
WO2012106310A1 (en) * 2011-02-04 2012-08-09 The Penn State Research Foundation Method and device for determining the location of an endoscope
KR101941907B1 (ko) 2013-01-03 2019-01-24 삼성전자주식회사 깊이 정보를 이용하는 내시경 및 깊이 정보를 이용하는 내시경에 의한 용종 검출 방법
WO2014123130A1 (en) * 2013-02-05 2014-08-14 Olympus Corporation Robotic-assisted surgical system and control method thereof
US9057600B2 (en) 2013-03-13 2015-06-16 Hansen Medical, Inc. Reducing incremental measurement sensor error
US9629595B2 (en) 2013-03-15 2017-04-25 Hansen Medical, Inc. Systems and methods for localizing, tracking and/or controlling medical instruments
US9014851B2 (en) 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
US9271663B2 (en) 2013-03-15 2016-03-01 Hansen Medical, Inc. Flexible instrument localization from both remote and elongation sensors
CN104103062A (zh) * 2013-04-08 2014-10-15 富士通株式会社 图像处理设备和图像处理方法
US11020016B2 (en) 2013-05-30 2021-06-01 Auris Health, Inc. System and method for displaying anatomy and devices on a movable display
CN108778113B (zh) 2015-09-18 2022-04-15 奥瑞斯健康公司 管状网络的导航
US10143526B2 (en) 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
US10992917B2 (en) * 2016-06-17 2021-04-27 Sony Corporation Image processing device, image processing method, program, and image processing system that use parallax information
EP3264763A1 (en) * 2016-06-29 2018-01-03 Thomson Licensing Method and apparatus for improved significance flag coding using simple local predictor
US10244926B2 (en) 2016-12-28 2019-04-02 Auris Health, Inc. Detecting endolumenal buckling of flexible instruments
CN108990412B (zh) 2017-03-31 2022-03-22 奥瑞斯健康公司 补偿生理噪声的用于腔网络导航的机器人系统
US10022192B1 (en) 2017-06-23 2018-07-17 Auris Health, Inc. Automatically-initialized robotic systems for navigation of luminal networks
EP3644885B1 (en) 2017-06-28 2023-10-11 Auris Health, Inc. Electromagnetic field generator alignment
AU2018292281B2 (en) 2017-06-28 2023-03-30 Auris Health, Inc. Electromagnetic distortion detection
US11058493B2 (en) 2017-10-13 2021-07-13 Auris Health, Inc. Robotic system configured for navigation path tracing
US10555778B2 (en) 2017-10-13 2020-02-11 Auris Health, Inc. Image-based branch detection and mapping for navigation
WO2019104571A1 (zh) * 2017-11-30 2019-06-06 深圳市大疆创新科技有限公司 图像处理方法和设备
US11510736B2 (en) 2017-12-14 2022-11-29 Auris Health, Inc. System and method for estimating instrument location
EP3684283A4 (en) 2017-12-18 2021-07-14 Auris Health, Inc. METHODS AND SYSTEMS FOR MONITORING AND NAVIGATION OF INSTRUMENTS IN LUMINAL NETWORKS
CN108459417B (zh) * 2018-02-05 2020-06-26 华侨大学 一种单目窄带多光谱立体视觉系统及其使用方法
JP7225259B2 (ja) 2018-03-28 2023-02-20 オーリス ヘルス インコーポレイテッド 器具の推定位置を示すためのシステム及び方法
JP7214747B2 (ja) 2018-03-28 2023-01-30 オーリス ヘルス インコーポレイテッド 位置センサの位置合わせのためのシステム及び方法
CN114601559B (zh) 2018-05-30 2024-05-14 奥瑞斯健康公司 用于基于定位传感器的分支预测的系统和介质
KR102455671B1 (ko) 2018-05-31 2022-10-20 아우리스 헬스, 인코포레이티드 이미지-기반 기도 분석 및 매핑
CN112236083B (zh) 2018-05-31 2024-08-13 奥瑞斯健康公司 用于导航检测生理噪声的管腔网络的机器人系统和方法
EP3801189B1 (en) 2018-05-31 2024-09-11 Auris Health, Inc. Path-based navigation of tubular networks
RU2698402C1 (ru) * 2018-08-30 2019-08-26 Самсунг Электроникс Ко., Лтд. Способ обучения сверточной нейронной сети для восстановления изображения и система для формирования карты глубины изображения (варианты)
JP7536752B2 (ja) 2018-09-28 2024-08-20 オーリス ヘルス インコーポレイテッド 内視鏡支援経皮的医療処置のためのシステム及び方法
CN110490856B (zh) * 2019-05-06 2021-01-15 腾讯医疗健康(深圳)有限公司 医疗内窥镜图像的处理方法、系统、机器设备和介质
CN110473619B (zh) * 2019-08-16 2022-05-27 电子科技大学 基于深度学习的纤支镜插管辅助决策系统
JP2022546421A (ja) 2019-08-30 2022-11-04 オーリス ヘルス インコーポレイテッド 位置センサの重みベースの位置合わせのためのシステム及び方法
WO2021038495A1 (en) 2019-08-30 2021-03-04 Auris Health, Inc. Instrument image reliability systems and methods
WO2021044297A1 (en) 2019-09-03 2021-03-11 Auris Health, Inc. Electromagnetic distortion detection and compensation
EP4084720A4 (en) 2019-12-31 2024-01-17 Auris Health, Inc. ALIGNMENT TECHNIQUES FOR PERCUTANE ACCESS
EP4084721A4 (en) 2019-12-31 2024-01-03 Auris Health, Inc. IDENTIFICATION OF AN ANATOMIC FEATURE AND AIMING
WO2021137108A1 (en) 2019-12-31 2021-07-08 Auris Health, Inc. Alignment interfaces for percutaneous access
US12087007B2 (en) * 2021-03-31 2024-09-10 Auris Health, Inc. Vision-based 6DOF camera pose estimation in bronchoscopy
CN113379821B (zh) * 2021-06-23 2022-10-11 武汉大学 一种基于深度学习的稳定单目视频深度估计方法
US11928830B2 (en) 2021-12-22 2024-03-12 Honeywell International Inc. Systems and methods for generating three-dimensional reconstructions of environments
CN116965751B (zh) * 2022-11-28 2024-07-05 开立生物医疗科技(武汉)有限公司 内窥镜移动速度检测方法、装置、电子设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07162845A (ja) * 1993-12-02 1995-06-23 Honda Motor Co Ltd 移動物体検出装置
JPH07234935A (ja) * 1994-02-22 1995-09-05 Meidensha Corp 物体の3次元運動推定方法
JP2003518671A (ja) * 1999-12-28 2003-06-10 マルティ ケサニエミ オプティカル・フローおよび画像形成
WO2008024419A1 (en) * 2006-08-21 2008-02-28 Sti Medical Systems, Llc Computer aided analysis using video from endoscopes
JP2008541859A (ja) * 2005-05-23 2008-11-27 ザ ペン ステイト リサーチ ファンデーション 3d−2d姿勢推定に基づく案内方法及び生の気管支鏡検査への応用を有する3d−ctレジストレーション
JP2009511155A (ja) * 2005-10-11 2009-03-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3d器具経路計画立案、シミュレーションおよび制御システム

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4574199A (en) * 1983-01-27 1986-03-04 Diffracto Ltd. Sensing location of an object
US5243665A (en) * 1990-03-07 1993-09-07 Fmc Corporation Component surface distortion evaluation apparatus and method
US6384859B1 (en) 1995-03-29 2002-05-07 Sanyo Electric Co., Ltd. Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information
US5920394A (en) * 1995-09-01 1999-07-06 Research Corporation Technologies, Inc. Optical coordinate measuring machine
KR100234196B1 (ko) 1996-12-31 1999-12-15 윤종용 2차원 비디오 영상으로부터 높이 맵 생성방법
EP0926998B8 (en) 1997-06-23 2004-04-14 Koninklijke Philips Electronics N.V. Image guided surgery system
DE19961971B4 (de) * 1999-12-22 2009-10-22 Forschungszentrum Karlsruhe Gmbh Vorrichtung zum sicheren automatischen Nachführen eines Endoskops und Verfolgen eines Instruments
JP4195574B2 (ja) 2002-04-05 2008-12-10 日本放送協会 立体内視鏡
US6847728B2 (en) * 2002-12-09 2005-01-25 Sarnoff Corporation Dynamic depth recovery from multiple synchronized video streams
US8064684B2 (en) * 2003-04-16 2011-11-22 Massachusetts Institute Of Technology Methods and apparatus for visualizing volumetric data using deformable physical object
US20050084135A1 (en) 2003-10-17 2005-04-21 Mei Chen Method and system for estimating displacement in a pair of images
EP1705513A1 (en) 2003-12-19 2006-09-27 Enrique De Font-Réaulx-Rojas System for the stereoscopic viewing of real-time or static images
DE102004027709B4 (de) 2004-06-07 2006-08-10 Siemens Ag Verfahren der virtuellen Endoskopie zur medizinischen 3D-Bilddarstellung und -verarbeitung, Computertomografiegerät, Arbeitsstation und Computerprogrammprodukt
US20060020562A1 (en) 2004-07-21 2006-01-26 University Of Southern Mississippi Apparatus and method for estimating optical flow
EP2105698A1 (en) * 2005-04-11 2009-09-30 Faro Technologies, Inc. Three-dimensional coordinate measuring device
US8712115B2 (en) 2005-04-19 2014-04-29 Siemens Medical Solutions Usa, Inc. Real-time virtual endoscopy
US8073528B2 (en) * 2007-09-30 2011-12-06 Intuitive Surgical Operations, Inc. Tool tracking systems, methods and computer products for image guided surgery
US7756563B2 (en) 2005-05-23 2010-07-13 The Penn State Research Foundation Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy
EP1924197B1 (en) 2005-08-24 2017-10-11 Philips Electronics LTD System for navigated flexible endoscopy
EP1973595B1 (en) 2005-11-15 2018-10-31 The Johns Hopkins University An active cannula for bio-sensing and surgical intervention
US20070167714A1 (en) 2005-12-07 2007-07-19 Siemens Corporate Research, Inc. System and Method For Bronchoscopic Navigational Assistance
US9247865B2 (en) 2006-05-31 2016-02-02 National University Corporation Chiba University Three-dimensional-image forming device, three dimensional-image forming method and program
CN101516277B (zh) 2006-09-14 2013-02-13 皇家飞利浦电子股份有限公司 用于活动套管配置的系统和方法
TWI342436B (en) 2006-11-03 2011-05-21 Chimei Innolux Corp Backlight module and liquid crystal display using same
US8672836B2 (en) * 2007-01-31 2014-03-18 The Penn State Research Foundation Method and apparatus for continuous guidance of endoscopy
US7813538B2 (en) * 2007-04-17 2010-10-12 University Of Washington Shadowing pipe mosaicing algorithms with application to esophageal endoscopy
US8514218B2 (en) * 2007-08-14 2013-08-20 Siemens Aktiengesellschaft Image-based path planning for automated virtual colonoscopy navigation
JP4967062B2 (ja) * 2007-08-22 2012-07-04 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハー オプティカルフロー、運動学及び深さ情報を使用して、物体の適切な運動を推定する方法
US8547887B2 (en) 2007-12-31 2013-10-01 Shoretel, Inc. Wireless interface control to reduce power consumption
CN101271578B (zh) 2008-04-10 2010-06-02 清华大学 一种平面视频转立体视频技术中的深度序列生成方法
EP2303157A1 (en) * 2008-06-25 2011-04-06 Koninklijke Philips Electronics N.V. Nested cannulae for minimally invasive surgery
US9750399B2 (en) 2009-04-29 2017-09-05 Koninklijke Philips N.V. Real-time depth estimation from monocular endoscope images
JP5813651B2 (ja) * 2009-11-26 2015-11-17 ベルス・メステヒニーク・ゲーエムベーハー 測定オブジェクトの形状を触覚光学式に決定するための方法および装置
KR101428296B1 (ko) 2012-12-18 2014-08-08 현대오트론 주식회사 차량용 카메라 모듈 및 이를 포함하는 모니터링 시스템

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07162845A (ja) * 1993-12-02 1995-06-23 Honda Motor Co Ltd 移動物体検出装置
JPH07234935A (ja) * 1994-02-22 1995-09-05 Meidensha Corp 物体の3次元運動推定方法
JP2003518671A (ja) * 1999-12-28 2003-06-10 マルティ ケサニエミ オプティカル・フローおよび画像形成
JP2008541859A (ja) * 2005-05-23 2008-11-27 ザ ペン ステイト リサーチ ファンデーション 3d−2d姿勢推定に基づく案内方法及び生の気管支鏡検査への応用を有する3d−ctレジストレーション
JP2009511155A (ja) * 2005-10-11 2009-03-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3d器具経路計画立案、シミュレーションおよび制御システム
WO2008024419A1 (en) * 2006-08-21 2008-02-28 Sti Medical Systems, Llc Computer aided analysis using video from endoscopes

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020524355A (ja) * 2018-05-23 2020-08-13 浙江商▲湯▼科技▲開▼▲発▼有限公司Zhejiang Sensetime Technology Development Co., Ltd. 単眼画像の深度回復方法及び装置、コンピュータ機器
US11004221B2 (en) 2018-05-23 2021-05-11 Zhejiang Sensetime Technology Development Co., Ltd. Depth recovery methods and apparatuses for monocular image, and computer devices

Also Published As

Publication number Publication date
RU2011148415A (ru) 2013-06-10
CN102413756B (zh) 2015-04-01
BRPI1007100A2 (pt) 2016-03-01
WO2010125481A1 (en) 2010-11-04
EP2424422B1 (en) 2019-08-14
CN102413756A (zh) 2012-04-11
US20120056986A1 (en) 2012-03-08
US9750399B2 (en) 2017-09-05
EP2424422A1 (en) 2012-03-07
RU2529380C2 (ru) 2014-09-27

Similar Documents

Publication Publication Date Title
RU2529380C2 (ru) Оценка глубины в реальном времени по монокулярным изображениям эндоскопа
US20200315554A1 (en) Methods and systems for using multi view pose estimation
US11883118B2 (en) Using augmented reality in surgical navigation
JP7505081B2 (ja) 狭い通路における侵襲的手順の内視鏡画像
EP2523621B1 (en) Image integration based registration and navigation for endoscopic surgery
US9289267B2 (en) Method and apparatus for minimally invasive surgery using endoscopes
US8108072B2 (en) Methods and systems for robotic instrument tool tracking with adaptive fusion of kinematics information and image information
US20130281821A1 (en) Intraoperative camera calibration for endoscopic surgery
US8147503B2 (en) Methods of locating and tracking robotic instruments in robotic surgical systems
JP7513774B2 (ja) 内視鏡システム
US20130250081A1 (en) System and method for determining camera angles by using virtual planes derived from actual images
IL281915B1 (en) Computed tomography image correction using optical imaging with the help of location and direction tracking
JP2012528604A (ja) 距離ベースの位置追跡方法及びシステム
JP2013517031A5 (ja)
JP2012505695A (ja) 画像に基づくローカライゼーション方法及びシステム
WO2011094518A2 (en) Image-based global registration system and method applicable to bronchoscopy guidance
WO2013016286A2 (en) System and method for automatically determining calibration parameters of a fluoroscope
JP2012165838A (ja) 内視鏡挿入支援装置
Groch et al. 3D surface reconstruction for laparoscopic computer-assisted interventions: comparison of state-of-the-art methods
Keil et al. A real-time online video overlay navigation system for minimally invasive laparoscopic tumor resection
WO2023146902A1 (en) Two-phase instrument guidance for accurate endoscopic surgical procedures
Wengert et al. Fiducial-free endoscopic vertebra referencing
Girard et al. Active self-calibration of thoracoscopic images for assisted minimally invasive spinal surgery

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131227

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141114

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20141125

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20150123

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20151203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160302

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160929