JP2017055954A - 内視鏡位置特定装置、方法およびプログラム - Google Patents

内視鏡位置特定装置、方法およびプログラム Download PDF

Info

Publication number
JP2017055954A
JP2017055954A JP2015182839A JP2015182839A JP2017055954A JP 2017055954 A JP2017055954 A JP 2017055954A JP 2015182839 A JP2015182839 A JP 2015182839A JP 2015182839 A JP2015182839 A JP 2015182839A JP 2017055954 A JP2017055954 A JP 2017055954A
Authority
JP
Japan
Prior art keywords
endoscope
image
branch
virtual
endoscopic image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015182839A
Other languages
English (en)
Other versions
JP6594133B2 (ja
Inventor
王 彩華
Saika O
彩華 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2015182839A priority Critical patent/JP6594133B2/ja
Priority to US15/265,386 priority patent/US10561338B2/en
Publication of JP2017055954A publication Critical patent/JP2017055954A/ja
Application granted granted Critical
Publication of JP6594133B2 publication Critical patent/JP6594133B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • A61B5/066Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/267Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the respiratory tract, e.g. laryngoscopes, bronchoscopes
    • A61B1/2676Bronchoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6846Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
    • A61B5/6847Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive mounted on an invasive device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image

Abstract

【課題】内視鏡位置特定装置、方法およびプログラムにおいて、分岐位置におけるいずれの管状構造物に内視鏡が挿入されたかを特定できるようにする。【解決手段】画像取得部21が実内視鏡画像T0を取得し、仮想内視鏡画像生成部22が複数の分岐仮想内視鏡画像Kbを含む仮想内視鏡画像K0を生成する。対応仮想内視鏡画像決定部23が、内視鏡の現在位置から過去に一定時間内の複数の実内視鏡画像を取得し、複数の実内視鏡画像Tniと複数の分岐仮想内視鏡画像Kbとを比較して、内視鏡の現在位置から最も近い通過済みの分岐構造に対応する対応仮想内視鏡画像を決定する。マッチング部24が、複数の経路実内視鏡画像Tpと、複数の経路のそれぞれについての複数の経路仮想内視鏡画像Kpとのマッチングを行う。位置特定部25が、マッチングの結果に基づいて内視鏡先端3Bの現在位置の経路を特定する。【選択図】図2

Description

本発明は、気管支等の分岐構造を有する管状構造物へ内視鏡を挿入して管状構造物の観察を行うに際し、管状構造物内における内視鏡の位置を特定する内視鏡位置装置、方法およびプログラムに関するものである。
近年、患者の大腸や気管支等の管状構造物を内視鏡を用いて観察または処置を行う技術が注目されている。しかしながら、内視鏡画像は、CCD(Charge Coupled Device)等の撮像素子により管状構造物内部の色や質感が鮮明に表現された画像が得られる一方で、管状構造物の内部を2次元の画像に表すものである。このため、内視鏡画像が管状構造物内のどの位置を表しているものかを把握することが困難である。とくに、気管支用の内視鏡は、径が細く視野が狭いため、内視鏡の先端を目的とする位置まで到達させることは困難である。
そこで、CT(Computed Tomography)装置あるいはMRI(Magnetic Resonance Imaging)装置等のモダリティによる断層撮影により取得された3次元画像を用いて、実際に内視鏡によって撮影した画像と類似した仮想内視鏡画像を生成する手法が提案されている。この仮想内視鏡画像は、内視鏡を管状構造物内の目標とする位置まで導くためのナビゲーション画像として用いられる。しかしながら、ナビゲーション画像を用いても、気管支のような多段階に分岐する経路を有する構造物の場合、内視鏡の先端を目標とする位置まで短時間で到達させるのは熟練した技術を要する。
このため、3次元画像から管状構造物の画像を抽出し、管状構造物の画像と内視鏡により撮影を行うことにより取得した実際の内視鏡画像である実内視鏡画像とのマッチングを行い、内視鏡の現在位置における仮想内視鏡画像を管状構造物の3次元画像から生成して表示する手法が提案されている(特許文献1参照)。
一方、内視鏡を目標とする位置まで到達させるためには、管状構造物内の分岐位置において、目標とする位置に繋がる経路に内視鏡を進めることが重要である。このため、内視鏡により取得される実内視鏡画像と仮想内視鏡画像とにおいて、分岐位置のマッチングを行うことにより、内視鏡の現在の位置を特定する手法(特許文献2〜4参照)が提案されている。特許文献2〜4の手法によれば、内視鏡の現在位置を特定することができるため、仮想内視鏡画像の先端を目標とする位置まで容易に到達させることができる。
特開2013−150650号公報 特表2013−517909号公報 特表2012−505695号公報 国際公開第2011/102012号
上記特許文献1〜4の手法を用いることにより、仮想内視鏡画像上の分岐位置を特定することができる。しかしながら、内視鏡が分岐を通過して分岐と分岐との間の経路上に位置する場合、実内視鏡画像には管状構造物の内壁のみしか含まれないため、実内視鏡画像には構造的な特徴がほとんど含まれないものとなる。このため、分岐位置から先に内視鏡を進めた場合、分岐におけるいずれの経路に内視鏡を進めたかを認識することは、非常に困難である。このような場合、分岐位置まで内視鏡を戻した上で、挿入する経路を再度確認して、内視鏡を挿入し直せばよい。しかしながら、そのような作業は操作者および患者の負担が大きい。また、適切な経路であると考えて挿入した経路が誤った経路であった場合、次の分岐位置が現れるまで、経路を間違えたことが分からない。このような場合も、前の分岐位置まで内視鏡を戻して挿入をやり直す必要があるため、内視鏡を挿入するための作業の効率が非常に悪いものとなっている。
本発明は上記事情に鑑みなされたものであり、分岐位置におけるいずれの管状構造物に内視鏡が挿入されたかを特定できるようにすることを目的とする。
本発明による内視鏡位置特定装置は、被検体における複数の分岐構造を有する管状構造物内に挿入された内視鏡により生成された、管状構造物の内壁を表す実内視鏡画像を順次取得する実内視鏡画像取得手段と、
被検体の管状構造物を含む3次元画像から、複数の分岐構造を臨む複数の視点位置のそれぞれにおいて分岐構造を見た場合における管状構造物の内壁を表す複数の分岐仮想内視鏡画像を含む仮想内視鏡画像を生成する仮想内視鏡画像生成手段と、
内視鏡の現在位置から最も近い通過済みの分岐構造に対応する対応仮想内視鏡画像を決定する対応仮想内視鏡画像決定手段と、
3次元画像から生成された、対応仮想内視鏡画像を生成した対応分岐視点位置から少なくとも内視鏡の進行方向側にある複数の経路上のそれぞれについての複数の視点位置における複数の経路仮想内視鏡画像と、通過済みの分岐構造から内視鏡の現在位置までの経路上における複数の経路実内視鏡画像とのマッチングを、複数の経路毎に行うマッチング手段と、
マッチングの結果に基づいて、複数の経路における内視鏡の現在位置を特定する位置特定手段とを備えたことを特徴とするものである。
内視鏡を管状構造物に挿入する場合、分岐構造の手前は1つの管状構造物のみ存在するが、分岐構造から先は管状構造物は複数に分岐する。このため、内視鏡が移動可能な経路は、分岐構造の前は1つ存在し、分岐構造から先は複数存在する。「対応分岐視点位置から少なくとも内視鏡の進行方向側にある複数の経路」とは、対応分岐視点位置の先、すなわち内視鏡の進行方向側にある複数の経路のみであってもよく、複数の経路のそれぞれに、対応分岐視点位置の手前における1つの経路を含めた経路であってもよい。
「マッチング」とは、複数の経路毎に、複数の経路仮想内視鏡画像と複数の経路実内視鏡画像とがどの程度一致するかを表す指標値を算出することを意味し、この指標値がマッチングの結果となる。なお、指標値としては、例えば、複数の経路仮想内視鏡画像と複数の経路実内視鏡画像との類似度を用いることができる。
なお、本発明による内視鏡位置特定装置においては、位置特定手段による特定結果を出力する特定結果出力手段をさらに備えるものとしてもよい。
また、本発明による内視鏡位置特定装置においては、位置特定手段におる特定結果に基づいて、内視鏡が管状構造物の所望とする経路上に位置するか否かを判定する判定手段をさらに備えるものとしてもよい。
また、本発明による内視鏡位置特定装置においては、対応仮想内視鏡画像決定手段を、最も近い通過済みの分岐構造の位置における分岐実内視鏡画像を含む少なくとも1つの実内視鏡画像と、複数の分岐仮想内視鏡画像とを比較して、対応仮想内視鏡画像を決定するものとしてもよい。
また、本発明による内視鏡位置特定装置においては、対応仮想内視鏡画像決定手段を、管状構造物における通過済みの分岐構造に対応する対応分岐視点位置から、内視鏡の進行方向側の分岐視点位置において生成された分岐仮想内視鏡画像を少なくとも1つの実内視鏡画像と比較して、対応仮想内視鏡画像を決定するものとしてもよい。
また、本発明による内視鏡位置特定装置においては、分岐実内視鏡画像を特定する実内視鏡画像特定手段をさらに備えるものとしてもよい。
また、本発明による内視鏡位置特定装置においては、実内視鏡画像特定手段を、分岐実内視鏡画像を特定する処理を、あらかじめ定められた時間間隔で行うものとしてもよい。
また、本発明による内視鏡位置特定装置においては、仮想内視鏡画像生成手段を、対応仮想内視鏡画像の決定後、経路仮想内視鏡画像を生成するものとしてもよい。
また、本発明による内視鏡位置特定装置においては、仮想内視鏡画像生成手段を、3次元画像における管状構造物の経路に沿ってあらかじめ定められた間隔にて設定された、複数の分岐仮想内視鏡画像および経路仮想内視鏡画像を含む仮想内視鏡画像を生成し、
複数の視点位置の仮想内視鏡画像を記憶する第1の記憶手段をさらに備え、
マッチング手段を、第1の記憶手段から複数の経路仮想内視鏡画像を取得するものとしてもよい。
また、本発明による内視鏡位置特定装置においては、内視鏡の現在位置から通過済みの分岐構造の位置までの複数の実内視鏡画像を記憶する第2の記憶手段をさらに備えるものとしてもよい。
本発明による内視鏡位置特定方法は、被検体における複数の分岐構造を有する管状構造物内に挿入された内視鏡により生成された、管状構造物の内壁を表す実内視鏡画像を順次取得し、
被検体の管状構造物を含む3次元画像から、複数の分岐構造を臨む複数の視点位置のそれぞれにおいて分岐構造を見た場合における管状構造物の内壁を表す複数の分岐仮想内視鏡画像を含む仮想内視鏡画像を生成し、
内視鏡の現在位置から最も近い通過済みの分岐構造に対応する対応仮想内視鏡画像を決定し、
3次元画像から生成された、対応仮想内視鏡画像を生成した対応分岐視点位置から少なくとも内視鏡の進行方向側にある複数の経路上のそれぞれについての複数の視点位置における複数の経路仮想内視鏡画像と、通過済みの分岐構造から内視鏡の現在位置までの経路上における複数の経路実内視鏡画像とのマッチングを、複数の経路毎に行い、
マッチングの結果に基づいて、複数の経路における内視鏡の現在位置を特定することを特徴とするものである。
なお、本発明による内視鏡位置特定方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本発明によれば、複数の分岐仮想内視鏡画像から、最も近い通過済みの分岐構造に対応する対応仮想内視鏡画像が決定される。そして、3次元画像から生成された、対応仮想内視鏡画像を生成した対応分岐視点位置から少なくとも内視鏡の進行方向側にある複数の経路上のそれぞれについての複数の視点位置における複数の経路仮想内視鏡画像と、通過済みの分岐構造から内視鏡の現在位置までの経路上における複数の経路実内視鏡画像とのマッチングが、複数の経路毎に行われる。さらに、このマッチングの結果に基づいて、複数の経路における内視鏡の現在位置が特定される。このため、内視鏡の現在位置から最も近い通過済みの分岐構造から、内視鏡の進行方向において、いずれの経路に内視鏡が位置しているかを特定することができる。したがって、分岐構造を通過した後に、内視鏡が誤った経路にいるか正しい経路にいるかを容易に認識することができ、その結果、内視鏡を用いた診断を精度よく行うことができる。
本発明の実施形態による内視鏡位置特定装置を適用した、診断支援システムの概要を示すハードウェア構成図 コンピュータに分岐構造判定プログラムをインストールすることにより実現される第1の実施形態による内視鏡位置特定装置の概略構成を示す図 複数の実内視鏡画像の取得を説明するための図 複数の経路仮想内視鏡画像の取得を説明するための図 複数の経路実内視鏡画像の取得を説明するための図 ディスプレイに表示された特定結果および判定結果を示す図 ディスプレイに表示された特定結果および判定結果を示す図 第1の実施形態において行われる処理を示すフローチャート コンピュータに分岐構造判定プログラムをインストールすることにより実現される第2の実施形態による内視鏡位置特定装置の概略構成を示す図 ディスプレイに表示された操作者に対応仮想内視鏡画像を選択させる画像を示す図 第3の実施形態において行われる処理を示すフローチャート
以下、図面を参照して本発明の実施形態について説明する。図1は、本発明の実施形態による内視鏡位置特定装置を適用した、診断支援システムの概要を示すハードウェア構成図である。図1に示すように、このシステムでは、内視鏡装置3、3次元画像撮影装置4、画像保管サーバ5および内視鏡位置特定装置6が、ネットワーク8を経由して通信可能な状態で接続されている。
内視鏡装置3は、被検体の管状構造物の内部を撮影する内視鏡スコープ31、および撮影により得られた信号に基づいて管状構造物の内部の画像を生成するプロセッサ装置32等を備える。
内視鏡スコープ31は、操作部3Aに被検体の管状構造物内に挿入される挿入部が取り付けられたものであり、プロセッサ装置32に着脱可能に接続されたユニバーサルコードを介してプロセッサ装置32に接続されている。操作部3Aは、挿入部の先端3Bが所定の角度範囲内で上下方向および左右方向に湾曲するように動作を指令したり、内視鏡スコープ31の先端に取り付けられた穿刺針を操作して組織のサンプルの採取を行ったりするための各種ボタンを含む。本実施形態では、内視鏡スコープ31は気管支用の軟性鏡であり、被検体の気管支内に挿入される。そして、プロセッサ装置32に設けられた不図示の光源装置から光ファイバーで導かれた光が内視鏡スコープ31の挿入部の先端3Bから照射され、内視鏡スコープ31の撮像光学系により被検体の気管支内の画像が取得される。なお、内視鏡スコープ31の挿入部の先端3Bについて、説明を容易なものとするために、以降の説明においては内視鏡先端3Bと称するものとする。
プロセッサ装置32は、内視鏡スコープ31で撮影された撮影信号をデジタル画像信号に変換し、ホワイトバランス調整およびシェーディング補正等のデジタル信号処理によって画質の補正を行い、内視鏡画像T0を生成する。なお、生成される画像は、例えば30fps等の所定のフレームレートにより表される複数の内視鏡画像T0からなる動画像である。内視鏡画像T0は、画像保管サーバ5あるいは内視鏡位置特定装置6に送信される。ここで、以降の説明において、内視鏡装置3により撮影した内視鏡画像T0を、後述する仮想内視鏡画像と区別するために実内視鏡画像T0と称するものとする。
3次元画像撮影装置4は、被検体の検査対象部位を撮影することにより、その部位を表す3次元画像V0を生成する装置であり、具体的には、CT装置、MRI装置、PET(Positron Emission Tomography)、および超音波診断装置等である。この3次元画像撮影装置4により生成された3次元画像V0は画像保管サーバ5に送信され、保存される。本実施形態では、3次元画像撮影装置4は、気管支を含む胸部を撮影した3次元画像V0を生成する。
画像保管サーバ5は、各種データを保存して管理するコンピュータであり、大容量外部記憶装置およびデータベース管理用ソフトウェアを備えている。画像保管サーバ5は、ネットワーク8を介して他の装置と通信を行い、画像データ等を送受信する。具体的には内視鏡装置3で取得された実内視鏡画像T0および3次元画像撮影装置4で生成された3次元画像V0等の画像データをネットワーク経由で取得し、大容量外部記憶装置等の記録媒体に保存して管理する。なお、実内視鏡画像T0は、内視鏡先端3Bの移動に応じて順次取得される動画像データとなる。このため、実内視鏡画像T0は、画像保管サーバ5を経由することなく、内視鏡位置特定装置6に送信されることが好ましい。なお、画像データの格納形式やネットワーク8経由での各装置間の通信は、DICOM(Digital Imaging and Communication in Medicine)等のプロトコルに基づいている。
内視鏡位置特定装置6は、1台のコンピュータに、本実施形態の内視鏡位置特定プログラムをインストールしたものである。コンピュータは、診断を行う医師が直接操作するワークステーションあるいはパソコンでもよいし、もしくは、それらとネットワークを介して接続されたサーバコンピュータでもよい。内視鏡位置特定プログラムは、DVD(Digital Versatile Disc)あるいはCD−ROM(Compact Disk Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータにインストールされる。もしくは、ネットワークに接続されたサーバコンピュータの記憶装置、あるいはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて内視鏡位置特定装置6の使用者である医師が使用するコンピュータにダウンロードされ、インストールされる。
図2は、コンピュータに内視鏡位置特定プログラムをインストールすることにより実現される内視鏡位置特定装置の概略構成を示す図である。図2に示すように、内視鏡位置特定装置6は、標準的なワークステーションの構成として、CPU(Central Processing Unit)11、メモリ12およびストレージ13を備えている。また、内視鏡位置特定装置6には、ディスプレイ14と、マウス等の入力部15とが接続されている。
ストレージ13には、ネットワーク8を経由して内視鏡装置3、3次元画像撮影装置4および画像保管サーバ5等から取得した実内視鏡画像T0、3次元画像V0および内視鏡位置特定装置6での処理によって生成された画像等が記憶される。
また、メモリ12には、内視鏡位置特定プログラムが記憶されている。内視鏡位置特定プログラムは、CPU11に実行させる処理として、プロセッサ装置32が生成した実内視鏡画像T0を順次取得し、かつ3次元画像撮影装置4で生成された3次元画像V0等の画像データを取得する画像取得処理、気管支における複数の分岐構造を臨む複数の視点位置のそれぞれにおいて分岐構造を見た場合における気管支の内壁を表す複数の分岐仮想内視鏡画像を含む仮想内視鏡画像を3次元画像V0から生成する仮想内視鏡画像生成処理、内視鏡先端3Bの現在位置から最も近い通過済みの分岐構造に対応する対応仮想内視鏡画像を決定する対応仮想内視鏡画像決定処理、3次元画像V0から生成された、対応仮想内視鏡画像を生成した対応分岐視点位置から少なくとも内視鏡の進行方向側にある複数の経路上のそれぞれについての複数の視点位置における複数の経路仮想内視鏡画像と、通過済みの分岐構造から内視鏡の現在位置までの経路上における複数の経路実内視鏡画像とのマッチングを、複数の経路毎に行うマッチング処理、マッチングの結果に基づいて、複数の経路における内視鏡の現在位置を特定する位置特定処理、特定結果を出力する特定結果出力処理、並びに特定結果に基づいて、内視鏡が気管支の所望とする経路上に位置するか否かを判定する判定処理を規定する。
そして、CPU11がプログラムに従いこれらの処理を実行することで、コンピュータは、画像取得部21、仮想内視鏡画像生成部22、対応仮想内視鏡画像決定部23、マッチング部24、位置特定部25、特定結果出力部26および判定部27として機能する。なお、画像取得処理、仮想内視鏡画像生成処理、対応仮想内視鏡画像決定処理、マッチング処理、位置特定処理、特定結果出力処理および判定処理をそれぞれ行う複数のプロセッサを備えるものであってもよい。ここで、画像取得部21が実内視鏡画像取得手段に対応し、ストレージ13が第1および第2の記憶手段に対応する。
画像取得部21は、内視鏡装置3により気管支内を所定の視点位置において撮影した実内視鏡画像T0を順次取得し、かつ3次元画像V0を取得する。画像取得部21は、3次元画像V0が既にストレージ13に記憶されている場合には、ストレージ13から取得するようにしてもよい。実内視鏡画像T0はディスプレイ14に表示される。なお、画像取得部21は、取得した実内視鏡画像T0および3次元画像V0をストレージ13に記憶する。
仮想内視鏡画像生成部22は、気管支における複数の分岐構造を臨む複数の視点位置のそれぞれにおいて分岐構造を見た場合における気管支の内壁を表す複数の分岐仮想内視鏡画像を含む仮想内視鏡画像K0を3次元画像V0から生成する。以下、仮想内視鏡画像K0の生成について説明する。
仮想内視鏡画像生成部22は、まず3次元画像V0から気管支を抽出する。具体的には、仮想内視鏡画像生成部22は、例えば特開2010−220742号公報等に記載された手法を用いて、入力された3次元画像V0に含まれる気管支領域のグラフ構造を、3次元の気管支画像として抽出する。以下、このグラフ構造の抽出方法の一例を説明する。
3次元画像V0においては、気管支の内部の画素は空気領域に相当するため低い画素値を示す領域として表されるが、気管支壁は比較的高い画素値を示す円柱あるいは線状の構造物として表される。そこで、各画素毎に画素値の分布に基づく形状の構造解析を行って気管支を抽出する。
気管支は多段階に分岐し、末端に近づくほど気管支の径は小さくなっていく。仮想内視鏡画像生成部22は、異なるサイズの気管支を検出することができるように、3次元画像V0を多重解像度変換して解像度が異なる複数の3次元画像を生成し、各解像度の3次元画像毎に検出アルゴリズムを適用することにより、異なるサイズの管状構造物を検出する。
まず、各解像度において、3次元画像の各画素のヘッセ行列を算出し、ヘッセ行列の固有値の大小関係から管状構造物内の画素であるか否かを判定する。ヘッセ行列は、各軸(3次元画像のx軸、y軸、z軸)方向における濃度値の2階の偏微分係数を要素とする行列であり、下記の式(1)に示すように3×3行列となる。
任意の画素におけるヘッセ行列の固有値をλ1、λ2、λ3としたとき、固有値のうち2つの固有値が大きく、1つの固有値が0に近い場合、例えば、λ3、λ2≫λ1、λ1≒0を満たすとき、その画素は管状構造物であることが知られている。また、ヘッセ行列の最小の固有値(λ1≒0)に対応する固有ベクトルが管状構造物の主軸方向に一致する。
気管支はグラフ構造で表すことができるが、このようにして抽出された管状構造物は、腫瘍等の影響により、全ての管状構造物が繋がった1つのグラフ構造として検出されるとは限らない。そこで、3次元画像V0全体からの管状構造物の検出が終了した後、抽出された各管状構造物が一定の距離内にあり、かつ抽出された2つの管状構造物上の任意の点を結ぶ基本線の向きと各管状構造物の主軸方向とがなす角が一定角度以内であるかについて評価することにより、複数の管状構造物が接続されるものであるか否かを判定して、抽出された管状構造物の接続関係を再構築する。この再構築により、気管支のグラフ構造の抽出が完了する。
そして、仮想内視鏡画像生成部22は、抽出したグラフ構造を、開始点、端点、分岐点および辺に分類し、開始点、端点および分岐点を辺で連結することによって、気管支を表す3次元のグラフ構造を気管支画像として得ることができる。ここで、分岐点は、3以上の連結数を持つボクセルとなる。なお、グラフ構造の生成方法としては、上述した方法に限定されるものではなく、他の方法を採用するようにしてもよい。
さらに仮想内視鏡画像生成部22は、気管支のグラフ構造に沿って、気管支の開始点から端点までの経路に沿って、あらかじめ定められた間隔に設定された複数の視点位置を視点として設定する。なお、分岐点も視点として設定する。そして、視点から内視鏡先端3Bの進行方向に放射線状に伸ばした複数の視線上の3次元画像V0を所定の投影面に投影した中心投影による投影画像を,仮想内視鏡画像K0として取得する。なお、中心投影の具体的な方法としては、例えば公知のボリュームレンダリング手法等を用いることができる。また、仮想内視鏡画像K0の画角(視線の範囲)および視野の中心(投影方向の中心)は、使用者による入力等によってあらかじめ設定されているものとする。
生成された仮想内視鏡画像K0は、気管支のグラフ構造上の各視点とリンクされて、ストレージ13に保存される。とくに、分岐点を視点として生成した仮想内視鏡画像K0は、分岐仮想内視鏡画像Kbとなる。分岐仮想内視鏡画像Kbは、分岐点から分岐構造を見た場合における気管支の内壁を表すものとなる。分岐仮想内視鏡画像Kbはグラフ構造の分岐点とリンクされる。また、グラフ構造の辺上の視点における仮想内視鏡画像K0は、経路仮想内視鏡画像Kpとしてグラフ構造の辺上の視点とリンクされる。
対応仮想内視鏡画像決定部23は、複数の分岐仮想内視鏡画像Kbから、最も近い通過済みの分岐構造に対応する対応仮想内視鏡画像Kbcを決定する。具体的には、内視鏡先端3Bの現在位置から最も近い通過済みの分岐構造の位置における実内視鏡画像を含む少なくとも1つの実内視鏡画像T0と、複数の分岐仮想内視鏡画像Kbとを比較して、対応仮想内視鏡画像Kbcを決定する。
このため、対応仮想内視鏡画像決定部23は、現時点から過去一定時間内の複数の実内視鏡画像Tni(i=1〜m:mは画像数)をストレージ13から取得する。図3は複数の実内視鏡画像の取得を説明するための図である。ここで、被検体に挿入された内視鏡は、所望とされる位置まで気管支の端部の方向を進行方向として移動される。このため、現時点から過去の一定時間を適切に定めることにより、現時点から一定時間内の複数の実内視鏡画像T0には、分岐構造の位置における実内視鏡画像が含まれるものとなる。例えば、図3に示す気管支画像において、内視鏡先端3Bの現在位置を点40とし、そこから過去一定時間前に内視鏡先端3Bが点41に位置していたとする。点40と点41との間には分岐点42が含まれるため、複数の実内視鏡画像Tniには、分岐構造の位置における実内視鏡画像が含まれるものとなる。なお、一定時間は、例えば1分とすることができるが、これに限定されるものではない。また、分岐構造を含むものであれば現時点から過去一定時間内の1つの実内視鏡画像のみを取得するようにしてもよい。本実施形態においては、複数の実内視鏡画像Tniを取得するものとする。
対応仮想内視鏡画像決定部23は、複数の実内視鏡画像Tniと、複数の分岐仮想内視鏡画像Kbとを比較して、内視鏡先端3Bの現在位置から最も近い通過済みの分岐構造に対応する対応仮想内視鏡画像Kbcを決定する。具体的には、複数の実内視鏡画像Tniのそれぞれと、複数の分岐仮想内視鏡画像Kbとのそれぞれの相関値を総当たりで算出する。そして、最も高い相関値が算出された実内視鏡画像を分岐構造の位置における実内視鏡画像である分岐実内視鏡画像Tbcに決定し、最も高い相関値が算出された分岐仮想内視鏡画像Kbを対応仮想内視鏡画像Kbcに決定する。なお、対応仮想内視鏡画像Kbcを生成した気管支のグラフ構造上の分岐の視点位置が対応分岐視点位置となる。
なお、内視鏡の挿入が進み、対応仮想内視鏡画像決定部23において、既に内視鏡先端3Bが通過した分岐位置における対応仮想内視鏡画像Kbcが決定されている場合、複数の分岐仮想内視鏡画像Kbのうち、決定されている対応仮想内視鏡画像Kbcから内視鏡の進行方向側にある分岐仮想内視鏡画像Kbのみを用いて、対応仮想内視鏡画像Kbcを決定してもよい。また、気管支における内視鏡を挿入する経路が決定されている場合、その経路上にある分岐点とリンクされた分岐仮想内視鏡画像Kbのみを用いて、対応仮想内視鏡画像Kbcを決定してもよい。これにより、対応仮想内視鏡画像Kbcの決定のための演算量を低減して、処理を迅速に行うことができる。
マッチング部24は、対応仮想内視鏡画像Kbcを生成した対応分岐視点位置から内視鏡の進行方向側にある複数の経路上のそれぞれについての複数の視点位置における複数の経路仮想内視鏡画像Kpと、通過済みの分岐構造から内視鏡先端3Bの現在位置までの経路上における複数の経路実内視鏡画像とのマッチングを、複数の経路毎に行う。
図4は複数の経路仮想内視鏡画像の取得を説明するための図である。なお、図4および後述する図5においては、図の下側を内視鏡の進行方向とする。図4に示すように、対応仮想内視鏡画像Kbcを取得した分岐構造の位置、すなわち対応分岐視点位置を位置44とすると、位置44から内視鏡の進行方向側において、気管支は2つの経路45,46に分岐されている。マッチング部24は、対応分岐視点位置44からあらかじめ定められた複数の視点位置における複数の経路仮想内視鏡画像Kpを、経路45,46のそれぞれについてストレージ13から取得する。これにより、経路45においては対応分岐視点位置44から例えば位置47までの間において複数の経路仮想内視鏡画像Kp1が取得され、経路46においては対応分岐視点位置44から例えば位置48までの間において複数の経路仮想内視鏡画像Kp2が取得される。なお、対応分岐視点位置44からの経路45,46に、対応分岐視点位置44から内視鏡の進行方向とは反対側にある位置49までの経路50を含めて、経路仮想内視鏡画像Kpを取得するようにしてもよい。
図5は複数の経路実内視鏡画像の取得を説明するための図である。図5に示すように、分岐実内視鏡画像Tbcを取得した分岐構造の位置、すなわち分岐位置を位置51とする。マッチング部24は、分岐位置51から内視鏡先端3Bの現在位置52までの経路53上における複数の経路実内視鏡画像Tpをストレージ13から取得する。なお、分岐位置51からの経路53に、分岐位置51から内視鏡の進行方向とは反対側にある位置54までの経路55を含めて、経路実内視鏡画像Tpを取得するようにしてもよい。
そしてマッチング部24は、複数の経路実内視鏡画像Tpと、複数の経路仮想内視鏡画像Kp1および複数の経路仮想内視鏡画像Kp2のそれぞれとのマッチングを行う。マッチングは、複数の経路実内視鏡画像Tpと、複数の経路仮想内視鏡画像Kp1および複数の経路仮想内視鏡画像Kp2のそれぞれとの類似度を算出することにより行う。ここで、複数の画像同志の類似度の算出は、下記の式(2)により、複数の経路仮想内視鏡画像Kp1および複数の経路仮想内視鏡画像Kp2のそれぞれとの相関値を最大化することにより算出する。式(2)を用いる手法は動的計画法の手法であるDP(Dynamic programming)法である。
式(2)において、vkは経路仮想内視鏡画像Kpにおけるk番目の仮想内視鏡画像、rjkは複数の経路実内視鏡画像Tpにおける仮想内視鏡画像vkに対応する実内視鏡画像、Kは経路仮想内視鏡画像の数、S(v,rjk)は仮想内視鏡画像vkと実内視鏡画像rjkとの相関値を算出するための関数である。なお、経路仮想内視鏡画像と経路実内視鏡画像との数は異なるため、経路仮想内視鏡画像における仮想内視鏡画像と、経路実内視鏡画像Tkにおける実内視鏡画像とは必ずしも1対1に対応しない。このため、本実施形態においては、式(2)を用いて、経路仮想内視鏡画像に含まれる仮想内視鏡画像と経路実内視鏡画像に含まれる実内視鏡画像とで総当たりで相関値を算出し、その相関値を経路実内視鏡画像Tpおよび経路仮想内視鏡画像Kpが取得された順に2次元にマトリクス状に並べた場合における、各行または各列の最大値の和を類似度として算出する。なお、このマトリクスにおいて、経路仮想内視鏡画像Kpを横方向に、経路実内視鏡画像Tpを縦方向に並べた場合、式(2)は各行の最大値の和を算出するものとなる。
マッチング部24は、複数の経路仮想内視鏡画像Kkのそれぞれについて、式(2)を用いて類似度を算出し、類似度が最大となる経路仮想内視鏡画像Kpmaxを決定する。例えば、経路実内視鏡画像Tpと経路仮想内視鏡画像Kp1との類似度が、経路実内視鏡画像Tpと経路仮想内視鏡画像Kp2との類緯度よりも大きい場合、マッチング部24は、経路仮想内視鏡画像Kp1を、類似度が最大となる経路仮想内視鏡画像Kpmaxに決定する。
位置特定部25は、相関値が最大となる経路仮想内視鏡画像Kpmaxを取得した経路を、内視鏡先端3Bの現在位置の経路に特定する。
特定結果出力部26は、位置特定部25が特定した内視鏡先端3Bの現在位置の特定結果をディスプレイ14に表示することにより、特定結果を出力する。
判定部27は、位置特定部25が特定した内視鏡先端3Bの現在位置の特定結果に基づいて、内視鏡先端3Bが気管支の所望とする経路上に位置するか否かを判定する。
図6はディスプレイ14に表示された特定結果および判定結果を示す図である。図6に示すようにディスプレイ14には,現在の実内視鏡画像G0および気管支画像G1が表示される。気管支画像G1においては、内視鏡先端3Bの現在位置となる経路60の色が、気管支の他の経路の色と異なるものとされている。図6においては、ハッチングにより色が異なることを表している。なお、図6に示すように、内視鏡先端3Bの現在位置までの経路を破線61により示してもよく、内視鏡先端3Bの目標位置62を表示するようにしてもよい。
図6において内視鏡先端3Bの現在位置の経路60の先には目標位置62が存在する。このため、判定部27により、内視鏡先端3Bは、目標位置62に到達することが可能な所望とする経路上に位置すると判定される。したがって、気管支画像G1には「OK」の判定結果63が表示される。この場合、操作者はさらに内視鏡を目標位置62に向けて進めることができる。
一方、図7に示すように、内視鏡先端3Bの現在位置の経路60の先に目標位置62が存在しない場合、判定部27により、内視鏡先端3Bが気管支の所望とする経路上に位置しないと判定される。したがって、気管支画像G1には「NG」の判定結果63が表示される。この場合、操作者は、内視鏡を最も近い分岐位置まで戻し、正しい分岐位置に内視鏡を挿入する作業を行うことにより、内視鏡先端3Bを所望とする経路に進めることができる。
なお、内視鏡先端3Bが気管支の所望とする経路上に位置しないと判定された場合にのみ、判定結果63を表示してもよい。逆に、内視鏡先端3Bが気管支の所望とする経路上に位置すると判定された場合にのみ、判定結果63を表示してもよい。また、判定結果は音声等により出力してもよい。
次いで、第1の実施形態において行われる処理について説明する。図8は第1の実施形態において行われる処理を示すフローチャートである。なお、3次元画像V0は画像取得部21により取得されてストレージ13に保存されているものとする。まず、画像取得部21が実内視鏡画像T0を取得し(ステップST1)、仮想内視鏡画像生成部22が、3次元画像V0から気管支画像を生成し(ステップST2)、さらに複数の分岐仮想内視鏡画像Kbを含む仮想内視鏡画像K0を3次元画像V0から生成する(ステップST3)。仮想内視鏡画像生成部22は、仮想内視鏡画像K0を気管支のグラフ構造上の各視点とリンクさせてストレージ13に保存する(ステップST4)。
続いて、対応仮想内視鏡画像決定部23が、内視鏡先端3Bの現在位置から過去一定時間内の複数の実内視鏡画像Tniをストレージ13から取得する(ステップST5)。そして、対応仮想内視鏡画像決定部23は、複数の実内視鏡画像Tniと複数の分岐仮想内視鏡画像Kbとを比較して、内視鏡先端3Bの現在位置から最も近い通過済みの分岐構造に対応する対応仮想内視鏡画像Kbcを決定する(ステップST6)。
そして、マッチング部24が、複数の経路実内視鏡画像Tpと、複数の経路のそれぞれについての複数の経路仮想内視鏡画像Kpとのマッチングを行い(ステップST7)、位置特定部25が、内視鏡先端3Bの現在位置の経路を特定し(ステップST8)、判定部27が内視鏡先端3Bが気管支の所望とする経路上に位置するか否かを判定する(所望経路判定:ステップST9)。さらに、特定結果および判定結果がディスプレイ14に表示され(ステップST10)、処理を終了する。
このように、第1の実施形態によれば、内視鏡先端3Bの現在位置から最も近い通過済みの分岐構造から、内視鏡の進行方向において、いずれの経路に内視鏡先端3Bが位置しているかを特定することができる。したがって、分岐構造を通過した後に、内視鏡先端3Bが誤った経路にいるか正しい経路にいるかを容易に認識することができ、その結果、内視鏡を用いた診断を精度よく行うことができる。
また、位置の特定結果に基づいて、内視鏡先端3Bが気管支の所望とする経路上に位置するか否かを判定しているため、分岐構造を通過した後に、内視鏡先端3Bが誤った経路にいるか正しい経路にいるかを、より容易に認識することができる。
次いで、本発明の第2の実施形態について説明する。図9は第1の実施形態による内視鏡位置特定装置の概略構成を示す図である。なお、図9において図2と同一の構成については同一の参照番号を付与し,詳細な説明は省略する。第2の実施形態においては、最も近い通過済みの分岐構造の位置における分岐実内視鏡画像を特定する実内視鏡画像特定部28を備えた点が第1の実施形態と異なる。
実内視鏡画像特定部28は、画像取得部21が順次取得する実内視鏡画像T0が、分岐構造を含むか否かを常時判定し、分岐構造を含む実内視鏡画像T0を分岐実内視鏡画像Tbcに特定する。分岐構造を含むか否かの判定は、例えば、判別器を用いて行う。判別器は、分岐構造を含む複数の実内視鏡画像を学習データとする機械学習により生成される。この判別器は、実内視鏡画像を入力とし、実内視鏡画像が分岐構造を含む程度を表すスコアを出力する。実内視鏡画像特定部28は、判別器が出力したスコアがあらかじめ定められたしきい値を超える場合に、実内視鏡画像が分岐構造を含むと判別し、その実内視鏡画像を分岐実内視鏡画像Tbcに特定する。
ここで、マッチング部24においては、分岐位置から後、すなわち分岐位置から内視鏡先端3Bの進行方向における複数の経路実内視鏡画像Tpを用いている。第2の実施形態のように、あらかじめ分岐実内視鏡画像Tbcを特定することにより、ストレージ13には、最新の分岐実内視鏡画像Tbc以降の実内視鏡画像T0のみを保存しておけば、マッチング処理を行うことが可能である。したがって、第2の実施形態のように、分岐実内視鏡画像Tbcを特定し、分岐実内視鏡画像Tbc以降の実内視鏡画像T0のみを保存することにより、ストレージ13における実内視鏡画像T0の保存容量を低減することができる。
ここで、気管支において、分岐と分岐との間には気管支の経路が存在するため、内視鏡先端3Bを気管支に挿入する際に、分岐を通過してから次の分岐に到達するまではある程度の時間を要する。このため、第2の実施形態における分岐実内視鏡画像Tbcを特定する処理は、あらかじめ定められた時間、例えば数秒毎に行うようにしてもよい。これにより、内視鏡位置特定装置6が行う演算量を低減することができる。
なお、第2の実施形態における分岐実内視鏡画像Tbcの特定は、判別器を用いる手法に限定されるものではなく、テンプレートマッチングの手法を用いてもよい。この場合、典型的な分岐構造を含む1または複数の画像をテンプレートとして用いて、実内視鏡画像T0とテンプレートマッチングを行って相関値を算出すればよい。そして、相関値があらかじめ定められたしきい値を超えた場合に、その実内視鏡画像T0を分岐実内視鏡画像Tbcに特定すればよい。
また、テンプレートマッチングを行う際のテンプレートとして、複数の分岐仮想内視鏡画像Kbを用いてもよい。この場合、実内視鏡画像T0と全ての分岐仮想内視鏡画像Kbとのテンプレートマッチングを行った結果、分岐実内視鏡画像Tbcが特定された場合、対応仮想内視鏡画像決定部23において、テンプレートマッチングの結果、最も相関値が高かった分岐仮想内視鏡画像Kbを直ちに対応仮想内視鏡画像Kbcに決定することができる。このため、対応仮想内視鏡画像決定部23が行う処理のための演算量を軽減することができる。
また、ディスプレイ14に実内視鏡画像T0を表示し、操作者による実内視鏡画像T0が分岐実内視鏡画像Tbcであるかの判定結果の入力を入力部15から受け付けることにより、分岐実内視鏡画像Tbcを特定してもよい。この場合、図10に示すように、実内視鏡画像T0に加えて、複数の分岐仮想内視鏡画像Kbを表示してもよい。これにより、操作者は実内視鏡画像T0と分岐仮想内視鏡画像Kbとを比較して、表示された実内視鏡画像T0が分岐実内視鏡画像Tbcであるか否かを判定することができる。さらに、分岐実内視鏡画像Tbcに対応する対応仮想内視鏡画像Kbcの選択を受け付けることにより、分岐実内視鏡画像Tbcに加えて、対応仮想内視鏡画像Kbcを決定することもできる。
次いで、本発明の第3の実施形態について説明する。なお、第3の実施形態による内視鏡位置特定装置の構成は、上記第1および第2の実施形態による内視鏡位置特定装置の構成と同一であり、行われる処理のみが異なるため、装置の構成についての詳細な説明は省略する。上記第1および第2の実施形態においては、仮想内視鏡画像生成部22において、あらかじめ経路仮想内視鏡画像Kpを生成している。第3の実施形態においては、仮想内視鏡画像生成部22において、分岐仮想内視鏡画像Kbのみをあらかじめ生成し、対応仮想内視鏡画像Kbcが決定された後に、決定された対応仮想内視鏡画像Kbcがリンクされた分岐点から内視鏡先端3Bの進行方向にある複数の経路のそれぞれについて、経路仮想内視鏡画像Kpを生成するようにしたものである。
図11は第3の実施形態において行われる処理を示すフローチャートである。なお、3次元画像V0は画像取得部21により取得されてストレージ13に保存されているものとする。まず、画像取得部21が実内視鏡画像T0を取得し(ステップST21)、仮想内視鏡画像生成部22が、3次元画像V0から気管支画像を生成し(ステップST22)、さらに複数の分岐仮想内視鏡画像Kbのみを3次元画像V0から生成する(ステップST23)。仮想内視鏡画像生成部22は、分岐仮想内視鏡画像Kbを気管支のグラフ構造上の分岐点とリンクさせてストレージ13に保存する(ステップST24)。
続いて、対応仮想内視鏡画像決定部23が、内視鏡先端3Bの現在位置から過去一定時間内の複数の実内視鏡画像Tniをストレージ13から取得する(ステップST25)。そして、対応仮想内視鏡画像決定部23は、複数の実内視鏡画像Tniと複数の分岐仮想内視鏡画像Kbとを比較して、内視鏡先端3Bの現在位置から最も近い通過済みの分岐構造に対応する対応仮想内視鏡画像Kbcを決定する(ステップST26)。
その後、仮想内視鏡画像生成部22が、対応仮想内視鏡画像Kbcにリンクされた分岐点から内視鏡先端3Bの進行方向側にある複数の経路のそれぞれについて、複数の経路仮想内視鏡画像Kpを生成する(ステップST27)。
そして、マッチング部24が、複数の経路実内視鏡画像Tpと、複数の経路のそれぞれについての複数の経路仮想内視鏡画像Kpとのマッチングを行い(ステップST28)、位置特定部25が、内視鏡先端3Bの現在位置の経路を特定し(ステップST29)、判定部27が内視鏡先端3Bが気管支の所望とする経路上に位置するか否かを判定する(所望経路判定:ステップST30)。さらに、特定結果および判定結果がディスプレイ14に表示され(ステップST31)、処理を終了する。
このように、第3の実施形態においては、対応仮想内視鏡画像Kbcが決定された後に経路仮想内視鏡画像Kpを生成しているため、第1および第2の実施形態と比較して、ストレージ13に保存される仮想内視鏡画像K0のデータ量を低減することができる。また、全ての気管支の経路における経路仮想内視鏡画像Kpを生成しなくてもよいため、仮想内視鏡画像生成部22における演算量を低減することができる。
なお、上記各実施形態においては、内視鏡を分岐位置から気管支の目標位置に向けて挿入する際に、内視鏡先端3Bの現在位置を特定しているが、分岐位置から内視鏡先端3Bの進行方向における複数の経路の先に目標位置が存在する場合にも本発明を適用することができる。具体的には、分岐位置から第1の経路の先の第1の目標位置の観察後に、その分岐位置に戻り、第1の経路とは別の第2の経路の先の第2の目標位置を観察する場合にも、本発明を適用することができる。この場合において、第1の目標位置の観察後に第2の目標位置に内視鏡先端3Bを進めるためには、判定部27は、第2の経路を所望とする経路として、内視鏡先端3Bが所望とする経路上に位置するか否かを判定すればよい。
また、上記実施形態においては、3次元画像V0から気管支画像を抽出し、気管支画像を用いて仮想内視鏡画像K0を生成しているが、気管支画像を抽出することなく、3次元画像V0から仮想内視鏡画像K0を生成してもよい。
また、上記実施形態においては、内視鏡を被検体に実際に挿入する際に、内視鏡先端3の現在位置を特定しているが、実内視鏡画像T0を保存しておき、被検体の観察後に、内視鏡の挿入が正しく行われたかを検証したり、内視鏡挿入の教育に使用したりしてもよい。
また、上記実施形態においては、本発明の内視鏡位置特定装置を気管支の観察に適用した場合について説明したが、これに限定されるものではなく、血管のような分岐構造を有する管状構造物を内視鏡により観察する場合にも、本発明を適用できる。
以下、本発明の実施態様の作用効果について説明する。
位置の特定結果に基づいて、内視鏡が管状構造物の所望とする経路上に位置するか否かを判定することにより、分岐構造を通過した後に、内視鏡が誤った経路にいるか正しい経路にいるかを、より容易に認識することができる。
また、管状構造物における内視鏡の進行方向に対して、対応分岐視点位置から内視鏡の進行方向側の分岐視点位置において生成された分岐内視鏡画像を少なくとも1つの実内視鏡画像と比較して、対応仮想内視鏡画像を決定することにより、対応仮想内視鏡画像の決定のための演算量を低減することができる。
3 内視鏡装置
4 3次元画像撮影装置
5 画像保管サーバ
6 内視鏡位置特定装置
11 CPU
12 メモリ
13 ストレージ
14 ディスプレイ
15 入力部
21 画像取得部
22 仮想内視鏡画像生成部
23 対応仮想内視鏡画像決定部
24 マッチング部
25 位置特定部
26 特定結果出力部
27 判定部
28 実内視鏡画像特定部

Claims (12)

  1. 被検体における複数の分岐構造を有する管状構造物内に挿入された内視鏡により生成された、前記管状構造物の内壁を表す実内視鏡画像を順次取得する実内視鏡画像取得手段と、
    前記被検体の前記管状構造物を含む3次元画像から、前記複数の分岐構造を臨む複数の視点位置のそれぞれにおいて該分岐構造を見た場合における前記管状構造物の内壁を表す複数の分岐仮想内視鏡画像を含む仮想内視鏡画像を生成する仮想内視鏡画像生成手段と、
    前記内視鏡の現在位置から最も近い通過済みの分岐構造に対応する対応仮想内視鏡画像を決定する対応仮想内視鏡画像決定手段と、
    前記3次元画像から生成された、前記対応仮想内視鏡画像を生成した対応分岐視点位置から少なくとも前記内視鏡の進行方向側にある複数の経路上のそれぞれについての複数の視点位置における複数の経路仮想内視鏡画像と、前記通過済みの分岐構造から前記内視鏡の現在位置までの経路上における複数の経路実内視鏡画像とのマッチングを、前記複数の経路毎に行うマッチング手段と、
    前記マッチングの結果に基づいて、前記複数の経路における前記内視鏡の現在位置を特定する位置特定手段とを備えたことを特徴とする内視鏡位置特定装置。
  2. 前記位置特定手段による特定結果を出力する特定結果出力手段をさらに備えた請求項1記載の内視鏡位置特定装置。
  3. 前記位置特定手段におる特定結果に基づいて、前記内視鏡が前記管状構造物の所望とする経路上に位置するか否かを判定する判定手段をさらに備えた請求項1または2記載の内視鏡位置特定装置。
  4. 前記対応仮想内視鏡画像決定手段は、前記最も近い通過済みの分岐構造の位置における分岐実内視鏡画像を含む少なくとも1つの実内視鏡画像と、前記複数の分岐仮想内視鏡画像とを比較して、前記対応仮想内視鏡画像を決定する請求項1から3のいずれか1項記載の内視鏡位置特定装置。
  5. 前記対応仮想内視鏡画像決定手段は、前記管状構造物における通過済みの前記分岐構造に対応する前記対応分岐視点位置から、前記内視鏡の進行方向側の分岐視点位置において生成された分岐仮想内視鏡画像を前記少なくとも1つの実内視鏡画像と比較して、前記対応仮想内視鏡画像を決定する請求項4記載の内視鏡位置特定装置。
  6. 前記分岐実内視鏡画像を特定する実内視鏡画像特定手段をさらに備えた請求項4または5記載の内視鏡位置特定装置。
  7. 前記実内視鏡画像特定手段は、前記分岐実内視鏡画像を特定する処理を、あらかじめ定められた時間間隔で行う請求項6記載の内視鏡位置特定装置。
  8. 前記仮想内視鏡画像生成手段は、前記対応仮想内視鏡画像の決定後、前記経路仮想内視鏡画像を生成する請求項1から7のいずれか1項記載の内視鏡位置特定装置。
  9. 前記仮想内視鏡画像生成手段は、前記3次元画像における前記管状構造物の経路に沿ってあらかじめ定められた間隔にて設定された、前記複数の分岐仮想内視鏡画像および前記経路仮想内視鏡画像を含む前記仮想内視鏡画像を生成し、
    前記複数の視点位置の仮想内視鏡画像を記憶する第1の記憶手段をさらに備え、
    前記マッチング手段は、前記第1の記憶手段から前記複数の経路仮想内視鏡画像を取得する請求項1から7のいずれか1項記載の内視鏡位置特定装置。
  10. 前記内視鏡の現在位置から前記通過済みの分岐構造の位置までの複数の実内視鏡画像を記憶する第2の記憶手段をさらに備えた請求項1から9のいずれか1項記載の内視鏡位置特定装置。
  11. 被検体における複数の分岐構造を有する管状構造物内に挿入された内視鏡により生成された、前記管状構造物の内壁を表す実内視鏡画像を順次取得し、
    前記被検体の前記管状構造物を含む3次元画像から、前記複数の分岐構造を臨む複数の視点位置のそれぞれにおいて該分岐構造を見た場合における前記管状構造物の内壁を表す複数の分岐仮想内視鏡画像を含む仮想内視鏡画像を生成し、
    前記内視鏡の現在位置から最も近い通過済みの分岐構造に対応する対応仮想内視鏡画像を決定し、
    前記3次元画像から生成された、前記対応仮想内視鏡画像を生成した対応分岐視点位置から少なくとも前記内視鏡の進行方向側にある複数の経路上のそれぞれについての複数の視点位置における複数の経路仮想内視鏡画像と、前記通過済みの分岐構造から前記内視鏡の現在位置までの経路上における複数の経路実内視鏡画像とのマッチングを、前記複数の経路毎に行い、
    前記マッチングの結果に基づいて、前記複数の経路における前記内視鏡の現在位置を特定することを特徴とする内視鏡位置特定方法。
  12. 被検体における複数の分岐構造を有する管状構造物内に挿入された内視鏡により生成された、前記管状構造物の内壁を表す実内視鏡画像を順次取得する手順と、
    前記被検体の前記管状構造物を含む3次元画像から、前記複数の分岐構造を臨む複数の視点位置のそれぞれにおいて該分岐構造を見た場合における前記管状構造物の内壁を表す複数の分岐仮想内視鏡画像を含む仮想内視鏡画像を生成する手順と、
    前記内視鏡の現在位置から最も近い通過済みの分岐構造に対応する対応仮想内視鏡画像を決定する手順と、
    前記3次元画像から生成された、前記対応仮想内視鏡画像を生成した対応分岐視点位置から少なくとも前記内視鏡の進行方向側にある複数の経路上のそれぞれについての複数の視点位置における複数の経路仮想内視鏡画像と、前記通過済みの分岐構造から前記内視鏡の現在位置までの経路上における複数の経路実内視鏡画像とのマッチングを、前記複数の経路毎に行う手順と、
    前記マッチングの結果に基づいて、前記複数の経路における前記内視鏡の現在位置を特定する手順とをコンピュータに実行させることを特徴とする内視鏡位置特定プログラム。
JP2015182839A 2015-09-16 2015-09-16 内視鏡位置特定装置、内視鏡位置特定装置の作動方法および内視鏡位置特定プログラム Active JP6594133B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015182839A JP6594133B2 (ja) 2015-09-16 2015-09-16 内視鏡位置特定装置、内視鏡位置特定装置の作動方法および内視鏡位置特定プログラム
US15/265,386 US10561338B2 (en) 2015-09-16 2016-09-14 Endoscope position identifying apparatus, endoscope position identifying method, and recording medium having an endoscope position identifying program recorded therein

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015182839A JP6594133B2 (ja) 2015-09-16 2015-09-16 内視鏡位置特定装置、内視鏡位置特定装置の作動方法および内視鏡位置特定プログラム

Publications (2)

Publication Number Publication Date
JP2017055954A true JP2017055954A (ja) 2017-03-23
JP6594133B2 JP6594133B2 (ja) 2019-10-23

Family

ID=58259976

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015182839A Active JP6594133B2 (ja) 2015-09-16 2015-09-16 内視鏡位置特定装置、内視鏡位置特定装置の作動方法および内視鏡位置特定プログラム

Country Status (2)

Country Link
US (1) US10561338B2 (ja)
JP (1) JP6594133B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102014355B1 (ko) * 2018-02-20 2019-08-26 (주)휴톰 수술도구의 위치 정보 산출 방법 및 장치
WO2020059377A1 (ja) * 2018-09-20 2020-03-26 日本電気株式会社 位置推定装置、位置推定方法、及びコンピュータ読み取り可能な記録媒体
WO2021024301A1 (ja) * 2019-08-02 2021-02-11 Hoya株式会社 コンピュータプログラム、内視鏡用プロセッサ、及び情報処理方法
JP2021049314A (ja) * 2019-12-04 2021-04-01 株式会社Micotoテクノロジー 内視鏡画像処理システム
JP2021525123A (ja) * 2018-05-31 2021-09-24 オーリス ヘルス インコーポレイテッド 画像ベースの気道分析及びマッピング
JP2022546419A (ja) * 2019-08-30 2022-11-04 オーリス ヘルス インコーポレイテッド 器具画像信頼性システム及び方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2016323982A1 (en) * 2015-09-18 2018-04-12 Auris Health, Inc. Navigation of tubular networks
WO2018188466A1 (en) * 2017-04-12 2018-10-18 Bio-Medical Engineering (HK) Limited Automated steering systems and methods for a robotic endoscope
CN110621252B (zh) * 2017-04-18 2024-03-15 直观外科手术操作公司 用于监测图像引导程序的图形用户界面
US11625825B2 (en) 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images
WO2020194472A1 (ja) * 2019-03-25 2020-10-01 オリンパス株式会社 移動支援システム、移動支援方法、および移動支援プログラム
GB2600256B (en) * 2019-04-11 2024-02-21 Univ Pittsburgh Commonwealth Sys Higher Education Minimally invasive cell transplant procedure to induce the development of in vivo organogenesis
US10799090B1 (en) * 2019-06-13 2020-10-13 Verb Surgical Inc. Method and system for automatically turning on/off a light source for an endoscope during a surgery
CN112641514B (zh) * 2020-12-17 2022-10-18 杭州堃博生物科技有限公司 一种微创介入导航系统与方法
CN116433874A (zh) * 2021-12-31 2023-07-14 杭州堃博生物科技有限公司 支气管镜导航方法、装置、设备及存储介质
WO2023172109A1 (ko) * 2022-03-11 2023-09-14 주식회사 림사이언스 디지털 트윈을 이용하여 니들의 경로를 관리하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003265408A (ja) * 2002-03-19 2003-09-24 Mitsubishi Electric Corp 内視鏡誘導装置および方法
JP2004089483A (ja) * 2002-08-30 2004-03-25 Olympus Corp 内視鏡装置
JP2009056239A (ja) * 2007-09-03 2009-03-19 Olympus Medical Systems Corp 内視鏡装置
WO2012101888A1 (ja) * 2011-01-24 2012-08-02 オリンパスメディカルシステムズ株式会社 医療機器
JP2012200403A (ja) * 2011-03-25 2012-10-22 Fujifilm Corp 内視鏡挿入支援装置およびその動作方法、並びに内視鏡挿入支援プログラム
JP2013517909A (ja) * 2010-01-28 2013-05-20 ザ ペン ステイト リサーチ ファンデーション 気管支鏡検査法ガイダンスに適用される画像ベースのグローバル登録
WO2013111535A1 (ja) * 2012-01-24 2013-08-01 富士フイルム株式会社 内視鏡画像診断支援装置および方法並びにプログラム
WO2014141968A1 (ja) * 2013-03-12 2014-09-18 オリンパスメディカルシステムズ株式会社 内視鏡システム
WO2014156378A1 (ja) * 2013-03-27 2014-10-02 オリンパスメディカルシステムズ株式会社 内視鏡システム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1466552B1 (en) * 2002-07-31 2007-01-03 Olympus Corporation Endoscope
EP1543765A4 (en) * 2002-08-30 2009-01-07 Olympus Corp MEDICAL TREATMENT SYSTEM, ENDOSCOPE SYSTEM, ENDOSCOPE INSERTION OPERATION PROGRAM, AND ENDOSCOPE DEVICE
JP4899068B2 (ja) * 2006-05-02 2012-03-21 国立大学法人名古屋大学 医療画像観察支援装置
RU2011120186A (ru) * 2008-10-20 2012-11-27 Конинклейке Филипс Электроникс, Н.В. Способ и система локализации на основе изображений
JP4717935B2 (ja) 2009-03-23 2011-07-06 富士フイルム株式会社 画像処理装置および方法並びにプログラム
EP2377457B1 (en) 2010-02-22 2016-07-27 Olympus Corporation Medical apparatus
WO2012106320A1 (en) * 2011-02-04 2012-08-09 The Penn State Research Foundation Global and semi-global registration for image-based bronchoscopy guidance
US20120203067A1 (en) * 2011-02-04 2012-08-09 The Penn State Research Foundation Method and device for determining the location of an endoscope
IN2014MN01931A (ja) 2012-04-06 2015-07-10 Fuji Seiko Co Ltd
JP5934070B2 (ja) * 2012-09-26 2016-06-15 富士フイルム株式会社 仮想内視鏡画像生成装置およびその作動方法並びにプログラム
US20140180063A1 (en) * 2012-10-12 2014-06-26 Intuitive Surgical Operations, Inc. Determining position of medical device in branched anatomical structure

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003265408A (ja) * 2002-03-19 2003-09-24 Mitsubishi Electric Corp 内視鏡誘導装置および方法
JP2004089483A (ja) * 2002-08-30 2004-03-25 Olympus Corp 内視鏡装置
JP2009056239A (ja) * 2007-09-03 2009-03-19 Olympus Medical Systems Corp 内視鏡装置
JP2013517909A (ja) * 2010-01-28 2013-05-20 ザ ペン ステイト リサーチ ファンデーション 気管支鏡検査法ガイダンスに適用される画像ベースのグローバル登録
WO2012101888A1 (ja) * 2011-01-24 2012-08-02 オリンパスメディカルシステムズ株式会社 医療機器
JP2012200403A (ja) * 2011-03-25 2012-10-22 Fujifilm Corp 内視鏡挿入支援装置およびその動作方法、並びに内視鏡挿入支援プログラム
WO2013111535A1 (ja) * 2012-01-24 2013-08-01 富士フイルム株式会社 内視鏡画像診断支援装置および方法並びにプログラム
WO2014141968A1 (ja) * 2013-03-12 2014-09-18 オリンパスメディカルシステムズ株式会社 内視鏡システム
WO2014156378A1 (ja) * 2013-03-27 2014-10-02 オリンパスメディカルシステムズ株式会社 内視鏡システム

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102014355B1 (ko) * 2018-02-20 2019-08-26 (주)휴톰 수술도구의 위치 정보 산출 방법 및 장치
JP2021525123A (ja) * 2018-05-31 2021-09-24 オーリス ヘルス インコーポレイテッド 画像ベースの気道分析及びマッピング
JP7146949B2 (ja) 2018-05-31 2022-10-04 オーリス ヘルス インコーポレイテッド 画像ベースの気道分析及びマッピング
WO2020059377A1 (ja) * 2018-09-20 2020-03-26 日本電気株式会社 位置推定装置、位置推定方法、及びコンピュータ読み取り可能な記録媒体
JPWO2020059377A1 (ja) * 2018-09-20 2021-08-30 日本電気株式会社 位置推定装置、位置推定方法、及びプログラム
JP7040630B2 (ja) 2018-09-20 2022-03-23 日本電気株式会社 位置推定装置、位置推定方法、及びプログラム
WO2021024301A1 (ja) * 2019-08-02 2021-02-11 Hoya株式会社 コンピュータプログラム、内視鏡用プロセッサ、及び情報処理方法
JP7189355B2 (ja) 2019-08-02 2022-12-13 Hoya株式会社 コンピュータプログラム、内視鏡用プロセッサ、及び情報処理方法
JPWO2021024301A1 (ja) * 2019-08-02 2021-12-02 Hoya株式会社 コンピュータプログラム、内視鏡用プロセッサ、及び情報処理方法
JP2022546419A (ja) * 2019-08-30 2022-11-04 オーリス ヘルス インコーポレイテッド 器具画像信頼性システム及び方法
JP7451686B2 (ja) 2019-08-30 2024-03-18 オーリス ヘルス インコーポレイテッド 器具画像信頼性システム及び方法
US11944422B2 (en) 2019-08-30 2024-04-02 Auris Health, Inc. Image reliability determination for instrument localization
JP2021049314A (ja) * 2019-12-04 2021-04-01 株式会社Micotoテクノロジー 内視鏡画像処理システム

Also Published As

Publication number Publication date
US20170071504A1 (en) 2017-03-16
US10561338B2 (en) 2020-02-18
JP6594133B2 (ja) 2019-10-23

Similar Documents

Publication Publication Date Title
JP6594133B2 (ja) 内視鏡位置特定装置、内視鏡位置特定装置の作動方法および内視鏡位置特定プログラム
JP6348078B2 (ja) 分岐構造判定装置、分岐構造判定装置の作動方法および分岐構造判定プログラム
JP6371729B2 (ja) 内視鏡検査支援装置、内視鏡検査支援装置の作動方法および内視鏡支援プログラム
JP6254053B2 (ja) 内視鏡画像診断支援装置、システムおよびプログラム、並びに内視鏡画像診断支援装置の作動方法
US10085672B2 (en) Diagnostic endoscopic imaging support apparatus and method, and non-transitory computer readable medium on which is recorded diagnostic endoscopic imaging support program
US9516993B2 (en) Endoscope system
US8767057B2 (en) Image processing device, image processing method, and program
JP5785120B2 (ja) 医用画像診断支援装置および方法並びにプログラム
JP6824078B2 (ja) 内視鏡位置特定装置、方法およびプログラム
US10939800B2 (en) Examination support device, examination support method, and examination support program
JP2012200403A (ja) 内視鏡挿入支援装置およびその動作方法、並びに内視鏡挿入支援プログラム
US10970875B2 (en) Examination support device, examination support method, and examination support program
JP2012110549A (ja) 医用画像処理装置および方法、並びにプログラム
US10078906B2 (en) Device and method for image registration, and non-transitory recording medium
JP2013192741A (ja) 医用画像診断支援装置および方法並びにプログラム
JP5554028B2 (ja) 医用画像処理装置、医用画像処理プログラム、及びx線ct装置
JP7441934B2 (ja) 処理装置、内視鏡システム及び処理装置の作動方法
JP6745748B2 (ja) 内視鏡位置特定装置、その作動方法およびプログラム
JP5930539B2 (ja) 医用画像表示装置および方法並びにプログラム
JP7023195B2 (ja) 検査支援装置、方法およびプログラム
JP7462255B2 (ja) 内視鏡用形状計測システムおよび内視鏡用形状計測方法
KR20130112129A (ko) 가상 엔도스코프를 이용한 정합 정확도 향상 방법

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170522

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170908

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190924

R150 Certificate of patent or registration of utility model

Ref document number: 6594133

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250