JPWO2018230098A1 - 内視鏡システム、内視鏡システムの作動方法 - Google Patents

内視鏡システム、内視鏡システムの作動方法 Download PDF

Info

Publication number
JPWO2018230098A1
JPWO2018230098A1 JP2018564869A JP2018564869A JPWO2018230098A1 JP WO2018230098 A1 JPWO2018230098 A1 JP WO2018230098A1 JP 2018564869 A JP2018564869 A JP 2018564869A JP 2018564869 A JP2018564869 A JP 2018564869A JP WO2018230098 A1 JPWO2018230098 A1 JP WO2018230098A1
Authority
JP
Japan
Prior art keywords
dimensional
dimensional position
image
reliability
endoscope
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018564869A
Other languages
English (en)
Other versions
JP6478136B1 (ja
Inventor
秋本 俊也
俊也 秋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Application granted granted Critical
Publication of JP6478136B1 publication Critical patent/JP6478136B1/ja
Publication of JPWO2018230098A1 publication Critical patent/JPWO2018230098A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30084Kidney; Renal

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Astronomy & Astrophysics (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

被検体内を撮像して画像を取得する内視鏡(1)と、画像に基づいて被検体内における対象部分の3次元位置を推定する3次元位置推定部(22)と、内視鏡システムに係る所定のパラメータに基づいて3次元位置推定部(22)により推定された3次元位置の信頼度を判定する判定部(27)と、を備える内視鏡システム。

Description

本発明は、内視鏡により取得した画像に基づいて被検体内における対象部分の3次元位置を推定する内視鏡システム、内視鏡システムの作動方法に関する。
内視鏡により取得した画像に基づいて被検体内における対象部分の3次元位置を推定する技術は、従来より提案されている。
例えば、日本国特開2014−161355号公報には、撮像部の撮像により、被写体の像を含む撮像画像を取得する画像取得部と、撮像の際の撮像部から被写体までの距離に基づく距離情報を取得する距離情報取得部と、距離情報に基づいて、撮像画像に対して明るさ調整処理を行う明るさ改善部と、距離情報に基づいて、明るさ調整処理後の撮像画像に対して、被写体の構造を強調する強調処理を行う画像強調部と、を含む内視鏡装置が記載されている。
また、日本国特開2014−144034号公報には、被写体の像を含む撮像画像を取得する画像取得部と、その撮像画像を撮像する際の撮像部から被写体までの距離に基づく距離情報を取得する距離情報取得部と、距離情報に基づいて被写体の凹凸情報を抽出凹凸情報として取得する凹凸情報取得部と、撮像画像の所定領域毎に、抽出凹凸情報を除外または抑制するか否かの判定を行う判定部と、除外または抑制すると判定された所定領域の抽出凹凸情報を除外し、または凹凸の度合いを抑制する凹凸情報修正部と、を含む内視鏡装置が記載されている。
さらに、日本国特開2016−64281号公報には、光源部からの照明光を被写体に照射することにより得られた被写体像を含む撮像画像を取得する画像取得部と、撮像画像に基づいて特徴量を算出し、所定の特徴量を有する領域に基づいて注目領域を設定する注目領域設定部と、設定された注目領域に基づいて、照明光の光量を調光制御する調光制御部と、を含む内視鏡装置が記載されている。
上述したような、画像に基づいて推定された3次元位置は、例えば、被検体内における対象部分の形状を推定する際に用いられる。しかしながら、さまざまなノイズ等の影響で、推定された3次元位置は、推定精度が高いものと低いものとが混在することがある。こうした種々の推定精度の3次元位置に基づいて被検体内における対象部分の形状を推定すると、形状が正しく推定されないことがある。また、同一の対象部分を複数回観察して得た複数の画像から推定される3次元位置は、画像によって推定される3次元位置が一致せず、複数の画像に基づいて形状を正しく再現できないことがある。
本発明は上記事情に鑑みてなされたものであり、推定された3次元位置の信頼性を高めることを可能とする内視鏡システム、内視鏡システムの作動方法を提供することを目的としている。
本発明の一態様による内視鏡システムは、被検体内を撮像して画像を取得する内視鏡と、前記画像に基づいて、前記被検体内における対象部分の3次元位置を推定する3次元位置推定部と、内視鏡システムに係る所定のパラメータに基づいて、前記3次元位置推定部により推定された前記3次元位置の信頼度を判定する判定部と、を備える。
本発明の他の態様による内視鏡システムの作動方法は、3次元位置推定部が、内視鏡により被検体内を撮像して取得された画像に基づいて、前記被検体内における対象部分の3次元位置を推定するステップと、判定部が、内視鏡システムに係る所定のパラメータに基づいて、前記3次元位置推定部により推定された前記3次元位置の信頼度を判定するステップと、を有する。
本発明の実施形態1における内視鏡システムの構成を示すブロック図。 上記実施形態1における内視鏡システムの作用を示すフローチャート。 上記実施形態1の内視鏡システムにおいて、輝度に応じて設定される信頼度の一例を示す図。 上記実施形態1の内視鏡システムにおいて、輝度に応じてより簡易に設定される信頼度の例を示す図。 上記実施形態1の内視鏡システムにおける3次元位置削除の処理を示すフローチャート。 上記実施形態1において、内視鏡の先端がある位置にあるときに取得された画像に基づいて推定された3次元位置と、内視鏡の先端の位置とを直線で結ぶ様子を示す図。 上記実施形態1の内視鏡システムにおける3次元位置削除の処理の変形例を示すフローチャート。 本発明の実施形態2における内視鏡システムの構成を示すブロック図。 上記実施形態2における内視鏡システムの構成の変形例を示すブロック図。 上記実施形態2における内視鏡システムの作用を示すフローチャート。 上記実施形態2の内視鏡システムにおける移動時3次元位置削除の処理を示すフローチャート。 上記実施形態2において、被検体内における、内視鏡が画像を取得した撮像位置と、対象部分と、の位置関係の例を示す図。 上記実施形態2において、各撮像位置において取得された各画像における対象部分と、各画像からそれぞれ推定された3次元位置と、総合的なトータル3次元位置と、を示す図表。 上記実施形態2において、第1の撮像位置で取得された画像から推定された3次元位置に、内視鏡の先端の位置から直線を引く様子を示す図。 上記実施形態2において、図14で引いた直線に基づいて、3次元位置削除の処理を行う例を示す図。 上記実施形態2において、第2の撮像位置で取得された画像から推定された3次元位置に、内視鏡の先端の位置から直線を引く様子を示す図。 上記実施形態2において、図16で引いた直線に基づいて、3次元位置削除の処理を行う例を示す図。 上記実施形態2において、第3の撮像位置で取得された画像から推定された3次元位置に、内視鏡の先端の位置から直線を引く様子を示す図。 上記実施形態2において、図18で引いた直線に基づいて、3次元位置削除の処理を行う例を示す図。 本発明の実施形態3における内視鏡システムの作用を示すフローチャート。 上記実施形態3の内視鏡システムにおける3次元位置削除の処理を示すフローチャート。 上記実施形態3において、注目3次元位置に対して設定された信頼度に応じて設定される近傍範囲の大きさの一例を示す線図。 上記実施形態3において、3次元位置に対して設定された信頼度に応じて設定される近傍範囲の一例を示す線図。 本発明の実施形態4において、評価値変化量に応じて3次元位置の信頼度を設定する例を示す線図。 上記実施形態4において、3次元位置を取得した対象部分が写っている画素の、画像における光学中心からの距離に応じて、3次元位置の信頼度を設定する例を示す線図。 上記実施形態4において、3次元位置を取得した対象部分が写っている画素の色相に応じて3次元位置の信頼度を設定する例を示す線図。 上記実施形態4において、内視鏡の先端の移動速度に応じて3次元位置の信頼度を設定する例を示す線図。 上記実施形態4において、内視鏡の先端の位置の計測信頼度に応じて、3次元位置の信頼度を設定する例を示す線図。
以下、図面を参照して本発明の実施の形態を説明する。
[実施形態1]
図1から図7は本発明の実施形態1を示したものであり、図1は内視鏡システムの構成を示すブロック図である。
この内視鏡システムは、内視鏡1と、処理システム2と、光源3と、表示装置4と、を備えている。なお、図1に示す例では処理システム2と光源3とを別体としているが、一体であっても構わない。
内視鏡1は、3次元形状をなす被検体内を撮像して画像を取得する画像取得装置であり、撮像部11と、照射部12と、操作部13と、を備えている。これら内の撮像部11、および照射部12は例えば内視鏡1の挿入部の先端1a(図6等参照)の部分に配置され、操作部13は挿入部の手元側に連設されている。
なお、本実施形態においては、3次元形状をなす被検体として腎臓の腎盂腎杯を例に挙げるが、これに限定されるものではなく、内視鏡観察が可能な被検体であれば広く適用することができる。
照射部12は、光源3から例えばライトガイドを介して伝送された照明光を、被検体の内部へ向けて照射する。ただし、照射部12をLED等の発光源として構成し、光源3から供給された電力により照明光を発光する構成としても構わない。
撮像部11は、撮像素子11aを備え、照明光を照射された被検体の内部の光学像を対物光学系により結像して撮像素子11aにより光電変換を行うことで撮像し、撮像画像を生成して取得する。
操作部13は、画像の撮影、挿入部に湾曲部が設けられている場合には湾曲部の湾曲操作などの内視鏡1に係る各種の操作を行うためのものである。
処理システム2は、内視鏡1および光源3を制御すると共に、内視鏡1から取得された撮像画像を処理して、表示用の画像データを生成するものである。さらに、処理システム2は、取得した画像に基づいて被検体内の3次元位置D3P(図6等参照)を推定し、推定した3次元位置D3Pに基づいて被検体内の3次元画像を例えばガイド画像として生成し、表示装置4へ出力するようになっている。
この処理システム2は、画像処理部21と、3次元位置推定部22と、3次元画像生成部23と、画像合成出力部24と、制御部25と、を備えている。
画像処理部21は、撮像部11から出力された撮像画像に、例えば、同時化処理(あるいはデモザイキング処理)、ホワイトバランス処理、カラーマトリクス処理、ガンマ変換処理などの各種の画像処理を行って、内視鏡画像を生成する。
3次元位置推定部22は、画像(撮像素子11aにより取得された撮像画像、あるいは画像処理部21により処理された内視鏡画像)に基づいて、被検体内における対象部分の3次元位置D3Pを推定する。
具体的に、3次元位置推定部22は、後述する距離推定部26により推定された、内視鏡1の先端1aから被検体の対象部分までの距離と、画像における対象部分の位置(画像中における対象部分が写っている画素の位置)と、に基づいて、対象部分の3次元位置D3Pを推定するようになっている。
ここに、内視鏡1の対物光学系の構成は既知であり、画角などの情報は予め分かっている。このときには、内視鏡1により取得された画像中における対象部分が写っている画素の位置によって、内視鏡1の先端1aから見た対象部分の方位を知ることができる。従って、内視鏡1の先端1aから見た対象部分の距離および方位、すなわち、内視鏡1に対する対象部分の相対的な3次元位置(相対座標系における3次元位置)を知ることができる。
また、本実施形態においては、内視鏡1が被検体に対して固定的な位置関係に配置される(一例としては、腹腔鏡など)を想定しており、つまり、処置室内等の絶対座標系における内視鏡1自体の位置および方位が既知であるものとする。
こうして、絶対座標系における対象部分の3次元位置D3Pが、3次元位置推定部22により推定される。
3次元画像生成部23は、3次元位置推定部22により推定された3次元位置D3Pに基づいて、信頼度に応じた3次元形状画像を生成する。
より具体的に、3次元画像生成部23は、3次元位置推定部22により推定された被検体に係る複数の3次元位置D3Pに基づいて、例えばボール・ピボーティング(Ball-Pivoting)アルゴリズムなどの公知の方法を用いてポリゴンを算出し、複数のポリゴンにより構成される3次元形状画像(この3次元形状画像は、ポリゴンの構成により形状のみを示すものであってもよいし、さらに各ポリゴンに内視鏡画像を貼り付けたものであっても構わない)を生成する。
画像合成出力部24は、画像処理部21により生成された内視鏡画像と、3次元画像生成部23により生成された3次元形状画像とを、1つの画像に合成して表示装置4へ出力する。これにより、ユーザは、表示装置4を介して、3次元形状画像をガイドとしながら内視鏡1の挿入や抜脱を行い、内視鏡画像により被検体内を観察して処置等を行うことができる。
制御部25は、上述した画像処理部21、3次元位置推定部22、3次元画像生成部23、および画像合成出力部24と接続されていて、処理システム2の全体を制御すると共に、内視鏡1の制御、および光源3のオン/オフや光量などの制御も行うものである。
この制御部25は、距離推定部26と、判定部27と、を備えている。
距離推定部26は、画像に基づいて、内視鏡1と被検体との距離を推定する。ここに、距離推定部26が、画像に基づいて、内視鏡1の先端1aから被検体の対象部分までの距離を推定する方法の一例としては、次の方法が挙げられる。
被検体の各部位の光反射率が同一であると仮定すると、照射部12から照射され、被検体で反射されて戻ってくる戻り光は、内視鏡1の先端1aからの距離が遠いほど暗くなり、逆に距離が近いほど明るくなる。そこで、画像の輝度(画像に写っている対象部分の輝度)に応じて被検体の対象部分までの距離を推定することができる。
なお、ここでは画像の輝度に基づいて内視鏡1と被検体との距離を推定する方法を説明したが、これに限定されるものではない。例えば、内視鏡1が視差を有する複数の撮像部を備える構成の場合には、複数の撮像部から得られた複数の画像の位相差に基づいて内視鏡1と被検体との距離を算出するようにしてもよい。または、パターン照射方式あるいはTOF(Time Of Flight)方式などに基づいた距離画像センサを内視鏡システムが備えるように構成して、内視鏡1と被検体との距離を算出するようにしてもよい。
判定部27は、この内視鏡システムに係る所定のパラメータに基づいて、3次元位置推定部22により推定された3次元位置D3Pの信頼度を判定するものである。ここに、所定のパラメータは、本実施形態および後述する実施形態で説明するように、画像に写っている対象部分の輝度、被検体へ照射する照明光の光量を制御する光源絞り31の光源絞り値、画像を取得する撮像素子11aのゲイン、画像に写っている対象部分の、画像の光学中心に対する位置、画像に写っている対象部分の色相、内視鏡1の先端1aの移動速度、後述する計測部による計測値の信頼度の内の少なくとも1つを含む。
光源3は、被検体へ照射する照明光を発生するものであり、光の通過範囲を制限することで照明光の光量を制御する光源絞り31を備えている。
表示装置4は、画像合成出力部24から出力された、内視鏡画像と3次元形状画像とを含む画像を、観察可能に表示する。
次に、図2は、内視鏡システムの作用を示すフローチャートである。
内視鏡1が被検体内の所定位置および所定方位に設置されて位置方位が定まったところで、この処理を開始すると、画像の明るさが予め定められた初期値の明るさになるように、制御部25が、光源3の光源絞り31の光源絞り値や撮像部11から出力される撮像画像に対するゲインなどの撮影条件を設定する(ステップS1)。
そして、設定した撮影条件で撮像素子11aにより露光を行い、生成された撮像画像を撮像部11から出力することで、画像を取得する(ステップS2)。処理システム2は、取得した撮像画像を画像処理部21により処理して、内視鏡画像を生成する。
距離推定部26は、撮像画像または内視鏡画像に基づいて、例えば画像上の決められた位置の画素の輝度を用いて、内視鏡1の先端1aから画素に写っている被検体内の対象部分までの距離を推定する。ここに、決められた位置は、一般的に、画像上に複数箇所設定されており、従って、1枚の画像から推定される対象部分までの距離も複数となる。
3次元位置推定部22は、距離推定部26により推定された対象部分までの距離と、対象部分が写っている画素の画像内における位置と、内視鏡1の所定位置および所定方位とに基づいて、対象部分の3次元位置D3Pを推定する(ステップS3)。
判定部27は、3次元位置推定部22により推定された3次元位置D3Pの信頼度を判定して設定する(ステップS4)。
ここで、図3は輝度に応じて設定される信頼度の一例を示す図、図4は輝度に応じてより簡易に設定される信頼度の例を示す図である。
本実施形態においては、距離を推定するのに用いた画素の輝度に応じて、図3または図4に示すように、3次元位置D3Pの信頼度を判定して設定するようになっている。すなわち、本実施形態では、内視鏡システムに係る所定のパラメータとして、画像に写っている対象部分の輝度を用いている。
まず、図3は、輝度に応じて信頼度を連続的に変化させる例を示している。一方、図4は、輝度に応じて信頼度を不連続に変化させる部分を有する例となっており、図3に示す曲線を折れ線で近似することで処理の簡易化を図ったものである。
これら図3と図4の何れの例においても、画素の輝度が、低輝度域に入る場合には低い信頼度を与え、中輝度域に入る場合には高い信頼を与え、高輝度域に入る場合には輝度が高くなるにつれて単調減少する信頼度を与えるようになっている。
なお、図3および図4に示した信頼度曲線等は一例であるので、被検体や撮影環境などに応じて適宜の信頼度曲線等を構築するとよい。
こうして、3次元位置推定部22により推定された全ての3次元位置D3Pに対して信頼度を設定したら、制御部25は、形状算出の処理に進むか否かを判定する(ステップS5)。
ここで、まだ形状算出の処理に進まないと判定された場合には、制御部25は、撮影条件、つまり光源絞り31の光源絞り値や撮像画像に対するゲインなどの値を変化させる(ステップS6)。なお、このときには、内視鏡1の位置および方位は、上述した所定位置および所定方位が維持され、変化しないものとする。
そして、ステップS6により変化させた撮影条件の下で、上述したステップS2の処理を行って画像を取得する。こうしたステップS2〜S6の処理を複数回繰り返して行うことにより、撮影条件が異なる複数の画像が取得され、取得された複数の画像に基づいて、被検体内の同一の対象部分に対して複数の3次元位置D3Pが推定される。
撮影条件が異なる画像が必要な数だけ揃ったところで、ステップS5において形状算出の処理に進むと判定されて、同一の対象部分に対して推定された複数の3次元位置D3Pを信頼度に応じて削除する3次元位置削除の処理を、後で図5を参照して説明するように3次元画像生成部23が行う(ステップS7)。
こうして、信頼度が低い3次元位置D3Pが削除された後に残った3次元位置D3Pに基づいて、3次元画像生成部23が、上述したように、例えばボール・ピボーティング(Ball-Pivoting)アルゴリズムを用いてポリゴンを算出することで、複数のポリゴンにより構成される3次元形状画像を生成する(ステップS8)。
すなわち、3次元画像生成部23は、対象部分に対する複数の3次元位置D3Pが存在する場合に、信頼度が最も高い3次元位置D3P以外の3次元位置D3Pを削除し、削除後に残った3次元位置D3Pに基づいて3次元形状画像を生成するようになっている。
その後、この処理を終了するか否かを判定し(ステップS9)、終了しないと判定された場合にはステップS2へ戻って次の画像取得を行い、一方、終了すると判定された場合には、この処理を終える。
次に、図5は、内視鏡システムにおける3次元位置削除の処理を示すフローチャートである。
この処理を開始すると、内視鏡1の先端1aの位置(図6参照)と、先端1aの位置で取得した画像から推定された複数の3次元位置D3Pのそれぞれと、を結ぶ直線を設定する(ステップS11)。
なお、直線は、無限の長さをもつ直線であるに限るものではなく、有限の長さを持つ線分(内視鏡1の先端1aの位置と3次元位置D3Pを両端とする線分)であってもよいし、内視鏡1の先端1aの位置と3次元位置D3Pとの何れか一方から他方へ向かうベクトルであっても構わない。
図6は、内視鏡1の先端1aがある位置にあるときに取得された画像に基づいて推定された3次元位置D3Pと、内視鏡1の先端1aの位置とを直線で結ぶ様子を示す図である。
ステップS11の処理を終えると、次に、3次元位置D3Pの1つを注目位置とする処理が未だ行われていない未注目3次元位置D3Pがあるか否かを判定する(ステップS12)。
ここで、未注目3次元位置D3Pがあると判定された場合には、未注目3次元位置D3Pの内の、例えば信頼度が最も高い3次元位置D3Pの1つを、注目3次元位置D3Pに設定する(ステップS13)。
なお、ここで信頼度が最も高い3次元位置D3Pの1つを注目3次元位置D3Pに設定するのは、処理を効率的に行うためであるので、高い処理効率を求めないのであれば、信頼度が高い順に行うに限定されるものではない。
内視鏡1の先端1aの位置と注目3次元位置D3Pとを結ぶ直線上に、注目3次元位置D3P以外の他の3次元位置D3Pがあるか否かを判定する(ステップS14)。なお、数学的な点と直線、つまり、大きさが無限小の点と太さが無限小の直線との組み合わせでは、直線上に複数の点が存在することは極めて希となってしまう。そこで、この判定においては、他の3次元位置D3Pと、直線との少なくとも一方が、有限な大きさ(点でも面でもない3次元的な立体)であるとして扱う。
有限な大きさとして扱う第1の方法は、注目3次元位置D3Pを中心とした一定の大きさの領域(例えば、一定の半径の球領域)に対して、内視鏡1の先端1aの位置を頂点として接する円錐面を算出し、直線がこの円錐面内の立体領域(円錐)であるとして扱って、円錐が数学的な点である他の3次元位置D3Pと交わるかを判定する方法である。
また、第2の方法は、内視鏡1の先端1aの位置と注目3次元位置D3Pとを結ぶ直線が、一定の半径を持つ円柱であるとして扱って、円柱が数学的な点である他の3次元位置D3Pと交わるかを判定する方法である。
さらに、第3の方法は、内視鏡1の先端1aの位置と注目3次元位置D3Pとを結ぶ直線は数学的な直線であるが、他の3次元位置D3Pが一定の大きさを持った領域(例えば、一定の半径を持つ球領域)であるとして扱う方法である。
なお、上述した第1〜第3の方法を組み合わせても構わない。例えば、第3の方法においては数学的な直線として扱ったが、これに代えて、第1の方法で説明したような円錐、あるいは第2の方法で説明したような円柱を用いて、一定の大きさを持った他の3次元位置D3Pと交わるかを判定するようにしても構わない。
加えて、上述した第1〜第3の方法においては、他の3次元位置D3Pまたは直線の大きさを一定としたが、これに限定されるものではなく、3次元位置D3Pの信頼度に応じて大きさを設定するようにしてもよい。例えば、第1または第2の方法においては、注目3次元位置D3Pの信頼度に応じた半径に基づき、円錐または円柱を算出すればよい。また、第3の方法においては、他の3次元位置D3Pの信頼度に応じて、例えば球領域の半径を定めればよい。ここに、信頼度と半径(大きさ)との具体的な関係としては、例えば、信頼度が高い場合には半径を大きくし、信頼度が低い場合には半径を小さくする(つまり、信頼度の高さに対して半径が単調増加するようにする)とよい。
ここで、他の3次元位置D3Pがあると判定された場合には、注目3次元位置D3Pの信頼度が、他の3次元位置D3Pの信頼度以下であるか否かを判定する(ステップS15)。
そして、注目3次元位置D3Pの信頼度が他の3次元位置D3Pの信頼度よりも大きいと判定された場合には、他の3次元位置D3Pを削除する(ステップS16)。
続いて、注目している直線上にさらに他の3次元位置D3Pがあるか否かを判定する(ステップS17)。
ここで、さらに他の3次元位置D3Pがあると判定された場合には、ステップS15へ戻って、注目3次元位置D3Pの信頼度と、さらに他の3次元位置D3Pの信頼度と、に基づいて、上述したような信頼度の比較および3次元位置D3Pの削除の処理を行う。
一方、ステップS15において、注目3次元位置D3Pの信頼度が他の3次元位置D3Pの信頼度以下であると判定された場合には、注目3次元位置D3Pを削除する(ステップS18)。
このように3次元画像生成部23は、3次元位置推定部22により推定された複数の3次元位置D3Pの内の1つを注目3次元位置D3Pに設定し、注目3次元位置D3Pが推定された基となる画像が取得されたときの内視鏡1の先端1aの位置と、注目3次元位置D3Pとに直線を引いて、直線の上にある他の3次元位置D3Pの信頼度を注目3次元位置D3Pの信頼度と比較し、信頼度が低い方の注目3次元位置D3Pまたは他の3次元位置D3Pを削除するようになっている。
なお、ステップS15,S16,S18においては、信頼度が等しい場合に注目3次元位置D3Pを削除して他の3次元位置D3Pを残したが、これとは逆に、他の3次元位置D3Pを削除して注目3次元位置D3Pを残すように処理しても構わない。または、注目3次元位置D3Pと、注目3次元位置D3Pと信頼度が等しい他の3次元位置D3Pと、の平均3次元位置D3Pを新たに算出して、算出した平均3次元位置D3Pを残し、注目3次元位置D3Pおよび他の3次元位置D3Pの両方を削除するように処理してもよい。このように、信頼度が低い方の注目3次元位置D3Pを削除することは処理の基本であるが、信頼度が等しい複数の3次元位置D3Pがあるときに、どれを削除してどれを残すかは適宜に決定することが可能である。
ステップS18の処理を行った場合、ステップS17においてさらに他の3次元位置D3Pはないと判定された場合、あるいはステップS14において、直線上に他の3次元位置D3Pがないと判定された場合には、ステップS12へ戻って上述したような処理を行う。
こうして、ステップS12において、未注目3次元位置D3Pがないと判定された場合には、この処理から図2に示した処理にリターンする。
続いて、図7は、内視鏡システムにおける3次元位置削除の処理の変形例を示すフローチャートである。
この処理を開始すると、上述したステップS12およびステップS13の処理を行う。ただし、ステップS13においては、何れの未注目3次元位置D3Pを注目3次元位置D3Pに設定してもよく、信頼度が高い順に設定する必要はない。
そして、注目3次元位置D3Pの信頼度が、閾値未満であるか否かを判定する(ステップS15A)。この判定に用いる閾値は、予め設定された固定値でもよいし、全ての3次元位置D3Pの信頼度の統計に基づいて算出した値であっても構わない。
ここで、注目3次元位置D3Pの信頼度が閾値未満であると判定された場合には、ステップS18の処理を行って、注目3次元位置D3Pを削除する。
ステップS18の処理を行うか、またはステップS15Aにおいて注目3次元位置D3Pの信頼度が閾値以上であると判定された場合には、ステップS12へ戻って上述したような処理を行う。
こうして、ステップS12において、未注目3次元位置D3Pがないと判定された場合には、この処理から図2に示した処理にリターンする。
なお、信頼度が低い3次元位置D3Pを削除した結果残った3次元位置D3Pに基づき、3次元画像生成部23がポリゴンを算出して、3次元形状画像を生成しているが、残った3次元位置D3Pにも信頼度の大小がある。そこで、3次元画像生成部23は、3次元形状画像を生成する際に、高い信頼度の3次元位置D3Pから構築されたポリゴンと、低い信頼度の3次元位置D3Pから構築されたポリゴンとで、色を異ならせた(つまり、信頼度に応じて部分毎の色を異ならせた)3次元形状画像を生成するようにしても構わない。これによりユーザは、3次元形状画像における形状の信頼性が高い部分と、信頼性が低い部分とを、3次元形状画像を一目見ただけで簡単に識別することが可能となる。
このような実施形態1によれば、内視鏡システムに係る所定のパラメータに基づいて、3次元位置推定部22により推定された3次元位置D3Pの信頼度を判定するようにしたために、推定された3次元位置D3Pの信頼性を高めることが可能となる。
このとき、3次元画像生成部23が信頼度に応じた3次元形状画像を生成することで、信頼性を高めた3次元形状画像を観察することが可能となる。
特に、対象部分に対する複数の3次元位置D3Pが存在する場合に、信頼度が最も高い3次元位置D3P以外の3次元位置D3Pを削除し、削除後に残った3次元位置D3Pに基づいて3次元形状画像を生成することで、誤差が大きいと推定される3次元位置D3Pの影響を受けることなく、3次元形状を再現することができる。
また、複数の3次元位置D3Pの内の1つを注目3次元位置D3Pに設定し、注目3次元位置D3Pが推定された基となる画像が取得されたときの内視鏡1の先端1aの位置と、注目3次元位置D3Pとに直線を引いて、直線の上にある他の3次元位置D3Pの信頼度を注目3次元位置D3Pの信頼度と比較し、信頼度が低い方の注目3次元位置D3Pまたは他の3次元位置D3Pを削除することで、内視鏡1から見たときに重複する3次元位置D3Pを適切に削除することができる。
[実施形態2]
図8から図19は本発明の実施形態2を示したものであり、図8は内視鏡システムの構成を示すブロック図である。
この実施形態2において、上述の実施形態1と同様である部分については同一の符号を付すなどして説明を適宜省略し、主として異なる点についてのみ説明する。
上述した実施形態1では内視鏡1が被検体に対して固定的な位置関係に配置されることを想定していたが、本実施形態においては、内視鏡1を被検体内へ挿入しながら、被検体内の観察を行うこと、つまり、被検体に対する内視鏡1の位置関係が変化することを想定している。従って、本実施形態の内視鏡システムは、実施形態1の図1に示した構成に加えて、内視鏡1の位置情報および姿勢情報を取得する位置姿勢情報取得部を備えている。
まず、図8に示す構成では、内視鏡1は、上述した撮像部11と照射部12と操作部13とに加えて、例えば内視鏡1の挿入部の先端1aに配置された計測部である位置方位検出部14をさらに備えている。
位置方位検出部14は、内視鏡1の挿入部の先端1aの位置を検出して位置検出信号を出力すると共に、内視鏡1の挿入部の先端1aが向く方向を検出して方位検出信号を出力する。この位置方位検出部14は、空間座標である3軸(xyz軸)の座標および3軸周りの角度を例えば磁界などに基づいて検出するものとなっており、6Dセンサなどとも呼ばれる。
また、処理システム2の制御部25は、距離推定部26および判定部27に加えて、位置姿勢算出部28を備えている。
この位置姿勢算出部28は、位置方位検出部14により検出された位置検出信号および方位検出信号に基づいて、内視鏡1の先端1aの位置情報および姿勢情報を生成する。
こうして、位置方位検出部14および位置姿勢算出部28は、内視鏡1の位置情報および姿勢情報を取得する位置姿勢情報取得部を構成している。
位置姿勢算出部28により取得された内視鏡1の位置情報および姿勢情報は、3次元位置推定部22へ出力される。こうして、3次元位置推定部22は、内視鏡1から取得された画像に加えて、さらに位置姿勢算出部28から取得した位置情報および姿勢情報を用いて、被検体内の対象部分の3次元位置D3Pを推定するようになっている。
また、図9は、内視鏡システムの構成の変形例を示すブロック図である。
この図9に示す変形例においては、図8の位置方位検出部14および位置姿勢算出部28に代えて、処理システム2の制御部25内に位置姿勢推定部29が、位置姿勢情報取得部として設けられている。
内視鏡1の位置情報および姿勢情報は、センサ等により検出する技術以外に、画像等から推定する技術が知られている。そこで、この位置姿勢推定部29は、例えば、内視鏡1により取得された画像に基づいて、演算等を行うことにより内視鏡1の位置および姿勢を推定し、位置情報および姿勢情報を取得するものとなっている。取得した内視鏡1の位置情報および姿勢情報が、3次元位置推定部22による3次元位置D3Pの推定に用いられるのは上述と同様である。
次に、図10は、内視鏡システムの作用を示すフローチャートである。
この処理を開始すると、上述したステップS1〜S5の処理を行う。
そして、ステップS5において、まだ形状算出の処理に進まないと判定された場合には、内視鏡1の挿入等にともなって撮影位置(方位も含む、以下同様)が変化し、新たな撮影位置に応じて制御部25が撮影条件を変化させる(ステップS6B)。なお、ここで、上述した実施形態1と同様に、撮影位置が変化しなくても、撮影条件を意図的に変化させるようにしても構わない。
そして、変化された撮影条件および撮影位置の下で、上述したステップS2の処理を行って画像を取得する。こうしたステップS2〜S6Bの処理を複数回繰り返して行うことにより、撮影条件と撮影位置との少なくとも一方が異なる複数の画像が取得され、取得された複数の画像に基づいて、被検体内の同一の対象部分に対して複数の3次元位置D3Pが推定される。
ここで、図12は、被検体OBJ内における、内視鏡1が画像を取得した撮像位置P1〜P3と、対象部分OPと、の位置関係の例を示す図である。
内視鏡1が被検体OBJ内に挿入されると、先端1aの撮像位置は、例えばP1→P2→P3のように移動する。ここに、撮像位置P1〜P3は、撮像位置P1において画像が1枚取得され、内視鏡1が挿入された撮像位置P2において画像が1枚取得され、内視鏡1がさらに挿入された撮像位置P3においてさらに画像が1枚取得されたことを示している。
撮像位置が異なると、取得された画像における対象部分OPの写り方も異なる。
図13は、各撮像位置P1〜P3において取得された各画像における対象部分OPと、各画像からそれぞれ推定された3次元位置D3Pと、総合的なトータル3次元位置D3Pと、を示す図表である。
図13において、左から1番目の縦欄は、撮像位置が上述したP1〜P3の何れであるかを示している。
そして、左から2番目の縦欄が、各撮像位置において撮像された画像と、画像内における対象部分OPと、を示している。図示のように、撮像位置が対象部分OPに近接するにつれて、画像内における対象部分OPの大きさが大きくなっている。また、一般に、内視鏡1の方位が変化すれば、画像内における対象部分OPの位置も変化する。
また、左から3番目の縦欄は、各撮像位置において撮像された画像から推定された3次元位置D3Pと、実際の被検体OBJの位置と、を比較して示している。ここに、撮像位置P1において撮像された画像から推定された3次元位置を四角マークのD3P1により、撮像位置P2において撮像された画像から推定された3次元位置を丸マークのD3P2により、撮像位置P3において撮像された画像から推定された3次元位置を三角マークのD3P3により、それぞれ示している。
さらに、左から4番目の縦欄は、各撮像位置P1〜P3において撮像された各画像から推定された3次元位置D3P1〜D3P3をまとめて、実際の被検体OBJの位置と比較して示している。
複数の画像が得られて形状算出の処理に進むことがステップS5において判定されると、移動時3次元位置削除の処理を、後で図11を参照して説明するように3次元画像生成部23が行う(ステップS20)。
こうして、信頼度が低い3次元位置D3Pが削除された後に残った3次元位置D3Pに基づき、ステップS8において、3次元画像生成部23が上述したように3次元形状画像を生成する。
その後、ステップS9において、この処理を終了するか否かを判定し、終了しないと判定された場合にはステップS2へ戻って次の画像取得を行い、一方、終了すると判定された場合には、この処理を終える。
次に、図11は、内視鏡システムにおける移動時3次元位置削除の処理を示すフローチャートである。
図10のステップS20においてこの処理に入ると、画像取得時に位置姿勢情報取得部(図8に示した位置方位検出部14および位置姿勢算出部28、または図9に示した位置姿勢推定部29)により取得された内視鏡1の位置情報に基づいて、3次元形状画像を構築する空間における内視鏡1の先端1aの位置を設定する(ステップS21)。
内視鏡1の先端1aの位置が設定されれば、内視鏡1の先端1aの位置から相対的に見た対象部分の位置も、3次元形状画像を構築する空間において定まる。
そして、ステップS7において、ステップS21で設定した内視鏡1の先端1aの位置において取得した画像に基づき推定された3次元位置D3Pに着目して、図5に示した3次元位置削除の処理を行う。
その後、ステップS21においてまだ設定されていない内視鏡1の先端1aの位置があるか否かを判定する(ステップS22)。
ここで、未設定の内視鏡1の先端1aの位置があると判定された場合には、ステップS21へ戻って、内視鏡1の先端1aの次の位置を設定し、上述したような処理を行う。
図14は、第1の撮像位置P1で取得された画像から推定された3次元位置D3P1に、内視鏡1の先端1aの位置から直線を引く様子を示す図、図15は、図14で引いた直線に基づいて、3次元位置削除の処理を行う例を示す図である。
上述した図11のステップS21において、内視鏡1の先端1aの位置を第1の撮像位置P1に設定した場合には、この図14に示すような直線が引かれる。そして、1つの直線上に複数の3次元位置D3P(この3次元位置D3Pは、D3P1だけでなく、D3P2、D3P3などの他の撮像位置の画像に係る3次元位置も対象に含まれる)がある場合には、図5において説明したように、信頼度が低い方の3次元位置D3Pが削除される(信頼度が等しいときには何れか一つを残すか、または上述した平均3次元位置D3Pを新たに算出して残し、注目3次元位置D3Pおよび他の3次元位置D3Pの両方を削除する)。図14において6つある四角マークの3次元位置D3P1が、3次元位置削除の処理を行った後の図15においては1つ削除されて5つとなっている。
次に、図16は、第2の撮像位置P2で取得された画像から推定された3次元位置D3P2に、内視鏡1の先端1aの位置から直線を引く様子を示す図、図17は、図16で引いた直線に基づいて、3次元位置削除の処理を行う例を示す図である。
第1の撮像位置P1に着目した処理が終わったら、図11のステップS22からステップS21の処理へ戻って、次に第2の撮像位置P2に着目して、同様の処理を行う。すなわち、図16に示すように、先端1aの位置から各3次元位置D3P2までの直線を引いて、1つの直線上に複数の3次元位置D3Pがある場合に、信頼度が低い方の3次元位置D3Pが削除される(信頼度が等しいときには何れか一つを残すか、または上述した平均3次元位置D3Pを新たに算出して残し、注目3次元位置D3Pおよび他の3次元位置D3Pの両方を削除する)。
具体的に、図16において5つある四角マークの3次元位置D3P1および6つある丸マークの3次元位置D3P2が、3次元位置削除の処理を行った後の図17においては幾つか削除されて、それぞれ2つの四角マークおよび5つの丸マークとなっている。
図18は、第3の撮像位置P3で取得された画像から推定された3次元位置D3P3に、内視鏡1の先端1aの位置から直線を引く様子を示す図、図19は、図18で引いた直線に基づいて、3次元位置削除の処理を行う例を示す図である。
第2の撮像位置P2に着目した処理が終わったら、再び図11のステップS22からステップS21の処理へ戻って、次に第3の撮像位置P3に着目して、同様の処理を行う。すなわち、図18に示すように、先端1aの位置から各3次元位置D3P3までの直線を引いて、1つの直線上に複数の3次元位置D3Pがある場合に、信頼度が低い方の3次元位置D3Pが削除される(信頼度が等しいときには何れか一つを残すか、または上述した平均3次元位置D3Pを新たに算出して残し、注目3次元位置D3Pおよび他の3次元位置D3Pの両方を削除する)。
具体的に、図18において2つある四角マークの3次元位置D3P1、5つある丸マークの3次元位置D3P2、および6つある三角マークの3次元位置D3P3が、3次元位置削除の処理を行った後の図19においては幾つか削除されて、それぞれ2つの四角マーク、5つの丸マーク、および1つの三角マークとなっている。
このようにして、未設定の内視鏡1の先端1aの位置がある場合には、ステップS21において先端1aの次の位置を設定することを順次行い、その結果、ステップS22において、未設定の内視鏡1の先端1aの位置がないと判定された場合には、この処理から図10に示した処理にリターンする。
なお、上述では、画像が撮像された撮像位置の順に処理を行っているが、これに限定されるものではなく、撮像位置に関わらず、1つの3次元位置D3Pに着目して直線を引き、直線上に複数の3次元位置D3Pがある場合に、信頼度が低い方の3次元位置D3Pを削除する(信頼度が等しいときには何れか一つを残すか、または上述した平均3次元位置D3Pを新たに算出して残し、注目3次元位置D3Pおよび他の3次元位置D3Pの両方を削除する)、という処理を、着目する3次元位置D3Pを順次変更しながら行っても構わない。
このような実施形態2によれば、上述した実施形態1とほぼ同様の効果を奏するとともに、位置姿勢情報取得部により取得した内視鏡1の位置情報および姿勢情報を用いて対象部分OPの3次元位置D3Pを推定するようにしたために、内視鏡1を移動しながら、同じ対象部分OPを複数回観察して形状を推定する場合でも、形状を正しく推定し、ひいては正しく再現することができる。
また、位置姿勢情報取得部として計測部である位置方位検出部14および位置姿勢算出部28を用いる場合には、計測結果に基づいて、内視鏡1の位置情報および姿勢情報を正確に取得することができる。
一方、位置姿勢情報取得部として位置姿勢推定部29を用いる場合には、磁界発生装置などの構成を用いることなく内視鏡1の位置情報および姿勢情報を取得することができ、構成を簡単にすることが可能となる。
[実施形態3]
図20から図23は本発明の実施形態3を示したものであり、図20は内視鏡システムの作用を示すフローチャートである。
この実施形態3において、上述の実施形態1,2と同様である部分については同一の符号を付すなどして説明を適宜省略し、主として異なる点についてのみ説明する。
本実施形態は、上述した実施形態1に対して、3次元位置削除の処理を行うタイミングを異ならせ、かつ3次元位置削除の処理を行う方法を異ならせたものとなっている。なお、ここでは実施形態1をベースとして説明するが、3次元位置削除の処理を行うタイミングを異ならせることと、3次元位置削除の処理を行う方法を異ならせることと、の少なくとも一方を行う変更は、実施形態1,2の何れに対して適用しても構わない(すなわち、被検体に対する内視鏡1の位置関係が、固定的となる場合と、変化する場合と、の何れに対して適用しても構わない)。
具体的に、図20に示す処理を開始すると、ステップS1〜S4の処理を行った後に、3次元位置削除の処理を行う(ステップS30)。
つまり、上述した実施形態1,2においては、複数枚の画像を取得し終えて形状算出の処理に進むと判定されてから3次元位置削除の処理を行ったが、本実施形態は、1枚の画像を取得する毎に、3次元位置削除の処理を行うものとなっている。
その後、ステップS5において形状算出の処理に進むか否かを判定し、進まないと判定された場合にはステップS6の処理を行い、進むと判定された場合にはステップS8およびステップS9の処理に進む。そして、ステップS9において、この処理を終了すると判定された場合に、この処理を終える。
次に、図21は、内視鏡システムにおける3次元位置削除の処理を示すフローチャートである。
この処理を開始すると、ステップS12の処理を行って、未注目3次元位置D3Pがあると判定された場合に、未注目3次元位置D3Pの内の、信頼度が最も高い3次元位置D3Pの1つを、注目3次元位置D3Pに設定する(ステップS13C)。
続いて、注目3次元位置D3Pの信頼度に応じた範囲の近傍を、注目3次元位置D3Pに対して設定する(ステップS31)。
ここに、図22は、注目3次元位置D3Pに対して設定された信頼度に応じて設定される近傍範囲の大きさの一例を示す線図、図23は、3次元位置D3Pに対して設定された信頼度に応じて設定される近傍範囲の一例を示す線図である。
まず、図22に示すように、近傍範囲は、信頼度が高いほど大きくなるように設定される。その結果、図23に示すように、信頼度が高い3次元位置D3P2の近傍範囲NH2は最も大きく、信頼度が中である3次元位置D3P1の近傍範囲NH1は近傍範囲NH2よりも小さく、信頼度が小である3次元位置D3P3の近傍範囲NH3は近傍範囲NH1よりもさらに小さく設定される。
その後、注目3次元位置D3Pに対して設定された近傍範囲に、他の3次元位置D3Pがあるか否かを判定する(ステップS14C)。
ここで、他の3次元位置D3Pがあると判定された場合には、上述したステップS15の処理と、ステップS16またはステップS18の処理と、を行う。
ステップS16の処理を行った場合には、さらに、注目3次元位置D3Pに対して設定された近傍範囲に、さらに他の3次元位置D3Pがあるか否かを判定する(ステップS17C)。
ここで、さらに他の3次元位置D3Pがあると判定された場合には、ステップS15へ戻って、注目3次元位置D3Pの信頼度と、さらに他の3次元位置D3Pの信頼度と、に基づいて、上述したような信頼度の比較および3次元位置D3Pの削除の処理を行う。
このように3次元画像生成部23は、3次元位置推定部22により推定された複数の3次元位置D3Pの内の1つを注目3次元位置D3Pに設定し、注目3次元位置D3Pの信頼度に応じた大きさの近傍範囲を設定して、近傍範囲内にある他の3次元位置D3Pの信頼度を注目3次元位置D3Pの信頼度と比較し、信頼度が低い方の注目3次元位置D3Pまたは他の3次元位置D3Pを削除するようになっている。
ステップS18の処理を行った場合、ステップS17Cにおいてさらに他の3次元位置D3Pはないと判定された場合、あるいはステップS14Cにおいて、近傍範囲に他の3次元位置D3Pがないと判定された場合には、ステップS12へ戻って上述したような処理を行う。
こうして、ステップS12において、未注目3次元位置D3Pがないと判定された場合には、この処理から図20に示した処理にリターンする。
このような実施形態3によれば、上述した実施形態1,2とほぼ同様の効果を奏するとともに、注目3次元位置D3Pの信頼度に応じた大きさの近傍範囲を設定して、近傍範囲内にある他の3次元位置D3Pの信頼度を注目3次元位置D3Pの信頼度と比較し、信頼度が低い方の注目3次元位置D3Pまたは他の3次元位置D3Pを削除するようにしたために、近接した位置にある複数の3次元位置D3Pを、信頼度により適切に整理することができる。
このとき、信頼度が高い順に注目3次元位置D3Pを設定することで、効率的な処理を行うことが可能となる。
また、1枚の画像が取得される毎に3次元位置削除の処理を行うようにしたために、3次元位置D3Pを記憶するメモリの記憶容量を削減することができる。さらに、管理する3次元位置D3Pの数も少なくなるために、処理を高速化することができる。
[実施形態4]
図24から図28は本発明の実施形態4を示したものである。この実施形態4において、上述の実施形態1〜3と同様である部分については同一の符号を付すなどして説明を適宜省略し、主として異なる点についてのみ説明する。
上述した各実施形態においては、図3または図4に示したように、信頼度の設定を画像に写っている対象部分の輝度に応じて行っていた。これに対して本実施形態は、信頼度の設定に対する種々のバリエーションを与えるものとなっている。
まず、図24は、評価値変化量に応じて3次元位置D3Pの信頼度を設定する例を示す線図である。
ここに、評価値Eは、例えば光源絞り31の光源絞り値F、画像を取得する撮像素子11aのゲインG、などに応じて設定され、例えばFおよびGの2変数関数である評価関数fを用いて、次のように記載される。
E=f(F,G)
このように求められる評価値Eが、フレーム間でどれだけ変化したかが評価値変化量ΔEであり、現フレームの評価値をEn、現フレームの1つ前のフレームの評価値をE(n−1)とすると、例えば、
ΔE=En−E(n−1)
により求められる。
この評価値変化量ΔEが大きいと、例えば、内視鏡1の先端1aの方向が変化するなどにより、撮像対象となる部位が異なる部位に変化した等が生じたと考えられる。
従って、評価値変化量ΔEが大きい場合に信頼度を低く設定する様子を示すのが図24の線図である。
なお、上述した評価関数は一例であるので、光源絞り値FとゲインGとの何れか一方のみを用いる評価関数を用いてもよいし、その他の変数により値が変化する多変数関数などの評価関数を用いても構わない。
次に、図25は、3次元位置D3Pを取得した対象部分が写っている画素の、画像における光学中心からの距離に応じて、3次元位置D3Pの信頼度を設定する例を示す線図である。
内視鏡1の対物光学系は一般に広角であるために、画像の周辺には歪みがある。3次元位置D3Pを推定する際には、この歪みを補正した画像を用いるが、画像の周辺になるほど使用する画素の間隔が広がって補正の誤差が増えるために、画像の周辺部は中央部に比べて画質が低い。そこで、この図25に示す例は、画質が比較的高く保たれる領域の信頼度に比べて、画質が低くなる周辺部の信頼度を低くするようにしたものとなっている。
なお、ここでは、光学中心からの距離に応じて設定する例を説明したが、画質の相違は距離のみに依存するに限るものではない(例えば、光学中心からの距離は同一でも、左右方向と上下方向とで画質が異なるなど)ために、より一般には、画像に写っている対象部分の画像の光学中心に対する位置に応じて、3次元位置D3Pの信頼度を設定するとよい。例えば、光学中心に対する位置に応じて画像を複数の領域に分けて、領域毎に信頼度を与えるようにしてもよいし、光学中心に対する位置と信頼度との対応関係が記載されたテーブルを作成して制御部25内の記憶部に記憶するようにしても構わない。
続いて、図26は、3次元位置D3Pを取得した対象部分が写っている画素の色相に応じて3次元位置D3Pの信頼度を設定する例を示す線図である。
内視鏡1が例えば医療用内視鏡である場合には、被検体となる体腔内の多くは、特定の色相領域に入っている。そこで、この図26に示す例では、画像に写っている対象部分の色相が、赤と黄との間のオレンジ付近の色相領域に入る場合にのみ所定の信頼度を与え、それ以外の色相である場合に信頼度を低くする(この例では信頼度を0に設定する)ようにしている。
例えば、内視鏡1の先端1aからの距離が同一であっても、体腔内における血管部分と血管部分以外とでは輝度が異なる。従って、輝度に基づいて対象部分までの距離を推定すると、血管部分と血管部分以外とでは異なる距離として測定されてしまう。
一方、血管部分と血管部分以外とでは、輝度が異なるだけでなく、色相も異なる。そこで、図26に示すような特定の色相領域にのみ所定の信頼度を与える設定を行うことで、血管などの影響を受け難いようにして、推定される3次元位置D3Pの精度を向上することができる。
図27は、内視鏡1の先端1aの移動速度に応じて3次元位置D3Pの信頼度を設定する例を示す線図である。
内視鏡1の先端1aの移動速度が大きいと、取得される画像にブレが生じる。従って、内視鏡1の先端1aの移動速度が一定値以上であるときには、移動速度の大きさに応じて、信頼度を低く設定するようにしている。なお、内視鏡1の先端1aの移動速度は、例えば、図8に示した位置方位検出部14および位置姿勢算出部28により取得された複数フレームの位置情報に基づき算出することができる。内視鏡1の先端1aに速度センサ等を別途に設けて移動速度を検出するようにしても構わない。
図28は、内視鏡1の先端1aの位置の計測信頼度に応じて、3次元位置D3Pの信頼度を設定する例を示す線図である。
位置姿勢情報取得部として、図8に示したような計測部である位置方位検出部14および位置姿勢算出部28を用いる場合(具体的に、磁界センサ等を用いる場合)には、計測値の信頼度がどのくらい高いかを示す計測信頼度が得られる構成となっている。
そして、高い計測信頼度の内視鏡1の先端1aの位置に基づいて推定される3次元位置D3Pの信頼度は高く、逆に、低い計測信頼度の内視鏡1の先端1aの位置に基づいて推定される3次元位置D3Pの信頼度は低い。
従って、内視鏡1の先端1aの位置の計測信頼度がある一定値よりも低いときには、計測信頼度の低さに応じて、3次元位置D3Pの信頼度を低く設定するようにしている。
また、上述した幾つかの信頼度の設定方法は、1つのみを使用してもよいが、複数を組み合わせても構わない。
例えば、画像に写っている対象部分の輝度に基づき設定される信頼度をC1(図3または図4)、評価値変化量ΔEに基づき設定される信頼度をC2(図24)、光学中心からの距離(より一般には、光学中心に対する位置)に基づき設定される信頼度をC3(図25)、色相に基づき設定される信頼度をC4(図26)、内視鏡1の先端1aの移動速度に基づき設定される信頼度をC5(図27)、内視鏡1の先端1aの位置の計測信頼度に基づき設定される信頼度をC6(図28)とすると、トータル信頼度Cを、これら6つの信頼度C1,C2,C3,C4,C5,C6を用いた評価関数Cにより求めるようにしてもよい。
C=C(C1,C2,C3,C4,C5,C6)
このような実施形態4によれば、上述した実施形態1〜3とほぼ同様の効果を奏するとともに、所定のパラメータとして、画像に写っている対象部分の輝度、被検体へ照射する照明光の光量を制御する光源絞り値、画像を取得する撮像素子のゲイン、画像に写っている対象部分の画像の光学中心に対する位置、画像に写っている対象部分の色相、内視鏡1の先端1aの移動速度、計測部による計測値の信頼度の内の少なくとも1つを用いて、3次元位置D3Pの信頼度を判定するようにしたために、信頼度の精度を向上することができる。これにより、3次元画像生成部23により生成される3次元形状画像の、形状の再現性を向上することができる。
さらに、上述したトータル信頼度Cを用いるようにすれば、3次元位置D3Pの信頼度をより高い精度で設定することができ、3次元形状画像の形状再現性をさらに向上することが可能となる。
なお、上述した各部の処理は、ハードウェアとして構成された1つ以上のプロセッサが行うようにしてもよい。例えば、各部は、それぞれが電子回路として構成されたプロセッサであっても構わないし、FPGA(Field Programmable Gate Array)等の集積回路で構成されたプロセッサにおける各回路部であってもよい。あるいは、1つ以上のCPUで構成されるプロセッサが、記録媒体に記録された処理プログラムを読み込んで実行することにより、各部としての機能を実行するようにしても構わない。
また、上述では主として内視鏡システムについて説明したが、内視鏡システムを上述したように作動させる作動方法であってもよいし、コンピュータに内視鏡システムと同様の処理を行わせるための処理プログラム、該処理プログラムを記録するコンピュータにより読み取り可能な一時的でない記録媒体、等であっても構わない。
さらに、本発明は上述した実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明の態様を形成することができる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能であることは勿論である。
本出願は、2017年6月15日に日本国に出願された特願2017−117990号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲、図面に引用されたものとする。
本発明の一態様による内視鏡システムは、被検体内を撮像して画像を取得する内視鏡と、前記画像に基づいて、前記被検体内における対象部分の3次元位置を推定する3次元位置推定部と、内視鏡システムに係る所定のパラメータに基づいて、前記3次元位置推定部により推定された前記3次元位置の信頼度を判定する判定部と、前記対象部分に対する複数の3次元位置が存在する場合に、前記信頼度に応じて前記複数の3次元位置の内の所定の3次元位置を選択し、選択した前記所定の3次元位置に基づいて3次元形状画像を生成する3次元画像生成部と、を備える。
本発明の他の態様による内視鏡システムの作動方法は、3次元位置推定部が、内視鏡により被検体内を撮像して取得された画像に基づいて、前記被検体内における対象部分の3次元位置を推定するステップと、判定部が、内視鏡システムに係る所定のパラメータに基づいて、前記3次元位置推定部により推定された前記3次元位置の信頼度を判定するステップと、前記対象部分に対する複数の3次元位置が存在する場合に、前記信頼度に応じて前記複数の3次元位置の内の所定の3次元位置を選択し、選択した前記所定の3次元位置に基づいて3次元形状画像を生成するステップと、を有する。

Claims (14)

  1. 被検体内を撮像して画像を取得する内視鏡と、
    前記画像に基づいて、前記被検体内における対象部分の3次元位置を推定する3次元位置推定部と、
    内視鏡システムに係る所定のパラメータに基づいて、前記3次元位置推定部により推定された前記3次元位置の信頼度を判定する判定部と、
    を備えることを特徴とする内視鏡システム。
  2. 前記3次元位置推定部により推定された前記3次元位置に基づいて、前記信頼度に応じた3次元形状画像を生成する3次元画像生成部をさらに備えることを特徴とする請求項1に記載の内視鏡システム。
  3. 前記3次元画像生成部は、前記対象部分に対する複数の3次元位置が存在する場合に、前記信頼度が最も高い3次元位置以外の3次元位置を削除し、削除後に残った3次元位置に基づいて前記3次元形状画像を生成することを特徴とする請求項2に記載の内視鏡システム。
  4. 前記3次元画像生成部は、前記3次元位置推定部により推定された前記複数の3次元位置の内の1つを注目3次元位置に設定し、前記注目3次元位置が推定された基となる前記画像が取得されたときの前記内視鏡の先端位置と、前記注目3次元位置とに直線を引いて、前記直線の上にある他の3次元位置の信頼度を前記注目3次元位置の信頼度と比較し、信頼度が低い方の前記注目3次元位置または前記他の3次元位置を削除することを特徴とする請求項3に記載の内視鏡システム。
  5. 前記3次元画像生成部は、前記3次元位置推定部により推定された前記複数の3次元位置の内の1つを注目3次元位置に設定し、前記注目3次元位置の信頼度に応じた大きさの近傍範囲を設定して、前記近傍範囲内にある他の3次元位置の信頼度を前記注目3次元位置の信頼度と比較し、信頼度が低い方の前記注目3次元位置または前記他の3次元位置を削除することを特徴とする請求項3に記載の内視鏡システム。
  6. 前記3次元画像生成部は、前記3次元位置推定部により推定された前記複数の3次元位置の内の、前記信頼度が高い前記3次元位置から順に、前記注目3次元位置に設定することを特徴とする請求項4または請求項5に記載の内視鏡システム。
  7. 前記3次元画像生成部は、前記3次元位置推定部により推定された複数の3次元位置の内の、前記信頼度が閾値よりも低いと判定された3次元位置を削除し、削除後に残った3次元位置に基づいて前記3次元形状画像を生成することを特徴とする請求項2に記載の内視鏡システム。
  8. 前記3次元画像生成部は、前記信頼度に応じて部分毎の色を異ならせた前記3次元形状画像を生成することを特徴とする請求項2に記載の内視鏡システム。
  9. 前記画像に基づいて、前記内視鏡と前記被検体との距離を推定する距離推定部をさらに備え、
    前記3次元位置推定部は、前記距離推定部により推定された前記距離と、前記画像における前記対象部分の位置と、に基づいて、前記対象部分の前記3次元位置を推定することを特徴とする請求項1に記載の内視鏡システム。
  10. 前記内視鏡の位置情報および姿勢情報を取得する位置姿勢情報取得部をさらに備え、
    前記3次元位置推定部は、さらに前記位置情報および前記姿勢情報を用いて、前記対象部分の前記3次元位置を推定することを特徴とする請求項1に記載の内視鏡システム。
  11. 前記位置姿勢情報取得部は、前記内視鏡の位置および姿勢を計測して前記位置情報および前記姿勢情報を取得する計測部を備えることを特徴とする請求項10に記載の内視鏡システム。
  12. 前記所定のパラメータは、前記画像に写っている前記対象部分の輝度、前記被検体へ照射する照明光の光量を制御する光源絞り値、前記画像を取得する撮像素子のゲイン、前記画像に写っている前記対象部分の前記画像の光学中心に対する位置、前記画像に写っている前記対象部分の色相、前記内視鏡の先端の移動速度、前記計測部による計測値の信頼度の内の少なくとも1つを含むことを特徴とする請求項11に記載の内視鏡システム。
  13. 前記位置姿勢情報取得部は、前記内視鏡により取得された前記画像に基づいて前記内視鏡の位置および姿勢を推定し、前記位置情報および前記姿勢情報を取得する位置姿勢推定部を備えることを特徴とする請求項10に記載の内視鏡システム。
  14. 3次元位置推定部が、内視鏡により被検体内を撮像して取得された画像に基づいて、前記被検体内における対象部分の3次元位置を推定するステップと、
    判定部が、内視鏡システムに係る所定のパラメータに基づいて、前記3次元位置推定部により推定された前記3次元位置の信頼度を判定するステップと、
    を有することを特徴とする内視鏡システムの作動方法。
JP2018564869A 2017-06-15 2018-03-29 内視鏡システム、内視鏡システムの作動方法 Active JP6478136B1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017117990 2017-06-15
JP2017117990 2017-06-15
PCT/JP2018/013153 WO2018230098A1 (ja) 2017-06-15 2018-03-29 内視鏡システム、内視鏡システムの作動方法

Publications (2)

Publication Number Publication Date
JP6478136B1 JP6478136B1 (ja) 2019-03-06
JPWO2018230098A1 true JPWO2018230098A1 (ja) 2019-06-27

Family

ID=64659801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018564869A Active JP6478136B1 (ja) 2017-06-15 2018-03-29 内視鏡システム、内視鏡システムの作動方法

Country Status (4)

Country Link
US (1) US11432713B2 (ja)
JP (1) JP6478136B1 (ja)
CN (1) CN110740676B (ja)
WO (1) WO2018230098A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110325098A (zh) 2016-11-28 2019-10-11 适内有限责任公司 具有可分离一次性轴的内窥镜
JP2019098005A (ja) * 2017-12-06 2019-06-24 国立大学法人千葉大学 内視鏡画像処理プログラム、内視鏡システム及び内視鏡画像処理方法
CN112584738B (zh) * 2018-08-30 2024-04-23 奥林巴斯株式会社 记录装置、图像观察装置、观察系统、观察系统的控制方法及存储介质
USD1018844S1 (en) 2020-01-09 2024-03-19 Adaptivendo Llc Endoscope handle
JP7423740B2 (ja) * 2020-02-19 2024-01-29 オリンパス株式会社 内視鏡システム、管腔構造算出装置、管腔構造算出装置の作動方法及び管腔構造情報作成プログラム
CN111798387B (zh) * 2020-06-24 2024-06-11 海南大学 一种用于共聚焦内窥镜的图像处理方法及系统
USD1031035S1 (en) 2021-04-29 2024-06-11 Adaptivendo Llc Endoscope handle
JPWO2022230160A1 (ja) * 2021-04-30 2022-11-03

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4832927B2 (ja) * 2006-03-14 2011-12-07 オリンパスメディカルシステムズ株式会社 医療用画像処理装置及び医療用画像処理方法
JP2007260144A (ja) * 2006-03-28 2007-10-11 Olympus Medical Systems Corp 医療用画像処理装置及び医療用画像処理方法
WO2009107703A1 (ja) * 2008-02-27 2009-09-03 国立大学法人浜松医科大学 体内挿入器具の種類を識別可能な手術支援システム
JP5535725B2 (ja) * 2010-03-31 2014-07-02 富士フイルム株式会社 内視鏡観察支援システム、並びに、内視鏡観察支援装置、その作動方法およびプログラム
CN103561628B (zh) * 2012-03-06 2016-08-17 奥林巴斯株式会社 内窥镜系统
JP6112879B2 (ja) 2013-01-28 2017-04-12 オリンパス株式会社 画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム
JP2014161355A (ja) 2013-02-21 2014-09-08 Olympus Corp 画像処理装置、内視鏡装置、画像処理方法及びプログラム
CN104797186B (zh) * 2013-03-06 2016-10-12 奥林巴斯株式会社 内窥镜系统
JP6454489B2 (ja) * 2014-07-10 2019-01-16 オリンパス株式会社 観察システム
JP6346576B2 (ja) * 2015-02-27 2018-06-20 Hoya株式会社 画像処理装置
JPWO2016208664A1 (ja) * 2015-06-25 2018-04-12 オリンパス株式会社 内視鏡装置
JP6218991B2 (ja) * 2015-11-13 2017-10-25 オリンパス株式会社 内視鏡の状態推定装置の作動方法および内視鏡システム
JP6132901B2 (ja) 2015-12-25 2017-05-24 オリンパス株式会社 内視鏡装置

Also Published As

Publication number Publication date
JP6478136B1 (ja) 2019-03-06
CN110740676B (zh) 2022-02-25
CN110740676A (zh) 2020-01-31
US20200060528A1 (en) 2020-02-27
US11432713B2 (en) 2022-09-06
WO2018230098A1 (ja) 2018-12-20

Similar Documents

Publication Publication Date Title
JP6478136B1 (ja) 内視鏡システム、内視鏡システムの作動方法
JP6168879B2 (ja) 内視鏡装置、内視鏡装置の作動方法及びプログラム
JP7289653B2 (ja) 制御装置、内視鏡撮像装置、制御方法、プログラムおよび内視鏡システム
US10089737B2 (en) 3D corrected imaging
US9007602B2 (en) Three-dimensional measurement apparatus, three-dimensional measurement method, and computer-readable medium storing control program
WO2014115371A1 (ja) 画像処理装置、内視鏡装置、画像処理方法及び画像処理プログラム
US20150287192A1 (en) Image processing device, electronic device, endoscope apparatus, information storage device, and image processing method
JP4791595B2 (ja) 画像撮影装置、画像撮影方法および画像撮影プログラム
CN110136191B (zh) 用于体内对象的大小估计的系统和方法
US9826884B2 (en) Image processing device for correcting captured image based on extracted irregularity information and enhancement level, information storage device, and image processing method
JP2007241579A (ja) 特徴点検出装置及びその方法
WO2017145531A1 (ja) 医療用画像処理装置、システム、方法及びプログラム
JPWO2016170656A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
WO2020018931A1 (en) Systems and methods for multi-modal sensing of depth in vision systems for automated surgical robots
JP2024037130A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6603709B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2011170276A (ja) 内視鏡装置およびプログラム
JPWO2017158896A1 (ja) 画像処理装置、画像処理システム、画像処理装置の作動方法
CN113587895B (zh) 双目测距方法及装置
JP2016156702A (ja) 撮像装置および撮像方法
JP2022172637A (ja) 画像処理方法、画像処理装置、およびプログラム
CN116940274A (zh) 内窥镜用形状测量系统及内窥镜用形状测量方法
JP6335839B2 (ja) 医療装置、医療画像生成方法及び医療画像生成プログラム
JP2024524081A (ja) 深度ベースの自動露出管理
JP6426215B2 (ja) 内視鏡装置およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181210

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181210

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181210

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190123

R151 Written notification of patent or utility model registration

Ref document number: 6478136

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250