JP6218991B2 - 内視鏡の状態推定装置の作動方法および内視鏡システム - Google Patents

内視鏡の状態推定装置の作動方法および内視鏡システム Download PDF

Info

Publication number
JP6218991B2
JP6218991B2 JP2017519026A JP2017519026A JP6218991B2 JP 6218991 B2 JP6218991 B2 JP 6218991B2 JP 2017519026 A JP2017519026 A JP 2017519026A JP 2017519026 A JP2017519026 A JP 2017519026A JP 6218991 B2 JP6218991 B2 JP 6218991B2
Authority
JP
Japan
Prior art keywords
endoscope
estimation
image
unit
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017519026A
Other languages
English (en)
Other versions
JPWO2017081821A1 (ja
Inventor
井上 慎太郎
慎太郎 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Application granted granted Critical
Publication of JP6218991B2 publication Critical patent/JP6218991B2/ja
Publication of JPWO2017081821A1 publication Critical patent/JPWO2017081821A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • A61B1/053Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion being detachable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Description

本発明は、内視鏡の状態推定装置の作動方法および内視鏡システムに関する。
従来、内視鏡の位置や姿勢等を推定する様々な手法が知られている(たとえば特許文献1〜5参照)。
特開2005−338551号公報 国際公開第2012/117816号 特開2014−178328号公報 特開2007−301378号公報 特開2014−222551号公報
内視鏡の位置や姿勢等の状態を推定するための情報を算出する場合、算出に必要な要素が不十分であったり、誤差が蓄積されたりすることにより、推定精度が低下する場合がある。
本発明は、内視鏡の位置や姿勢等の状態の推定精度が低下しにくい内視鏡の状態推定装置の作動方法および内視鏡システムを提供することを目的とする。
本発明の第一の態様は、内視鏡が撮像する第一画像から第一特徴点を抽出する第一抽出ステップと、前記第一画像の取得後に前記内視鏡が撮像する第二画像から第二特徴点を抽出する第二抽出ステップと、前記第一特徴点と前記第二特徴点との対応付けをして対応点の座標を抽出する第三抽出ステップと、前記第一画像の取得時から前記第二画像の取得時までの前記内視鏡の位置及び姿勢の変化量を前記対応点の座標を用いて推定する第一推定ステップと、前記内視鏡の位置、姿勢、移動速度、及び加速度のうちの少なくとも1つを検知するために前記内視鏡に取り付けられたセンサを用いて前記第一画像の取得時から前記第二画像の取得時までの前記内視鏡の位置及び姿勢の変化量を推定する第二推定ステップと、前記第一推定ステップにおける推定精度および前記第二推定ステップにおける第二推定精度を算出し、前記推定精度および前記第二推定精度に基づいて前記第一推定ステップにおける推定結果と前記第二推定ステップにおける推定結果とのうち信頼性を有するいずれか一方を採用し、前記第二画像の取得時における前記内視鏡の位置及び姿勢を推定する第三推定ステップと、を含む内視鏡の状態推定装置の作動方法である。
本発明の第二の態様は、内視鏡が撮像する第一画像から第一特徴点を抽出する第一抽出ステップと、前記第一画像の取得後に前記内視鏡が撮像する第二画像から第二特徴点を抽出する第二抽出ステップと、前記第一特徴点と前記第二特徴点との対応付けをして対応点の座標を抽出する第三抽出ステップと、前記第一画像の取得時から前記第二画像の取得時までの前記内視鏡の位置及び姿勢の変化量を前記対応点の座標を用いて推定する第一推定ステップと、前記第一推定ステップにおける推定精度を算出して前記第一推定ステップにおける推定の信頼性の有無を判定する第一判定ステップと、前記内視鏡の位置、姿勢、移動速度、及び加速度のうちの少なくとも1つを検知するために前記内視鏡に取り付けられたセンサを用いて前記第一画像の取得時から前記第二画像の取得時までの前記内視鏡の位置及び姿勢の変化量を推定する第二推定ステップと、前記第二推定ステップにおける推定精度を算出して前記第二推定ステップにおける推定の信頼性の有無を判定する第二判定ステップと、前記第一判定ステップにおける判定結果と前記第二判定ステップにおける判定結果とに基づいて、前記第一推定ステップにおける推定結果と前記第二推定ステップにおける推定結果とのうち信頼性を有するいずれか一方を採用して前記第二画像の取得時における前記内視鏡の位置及び姿勢を推定する第三推定ステップとを含む内視鏡の状態推定装置の作動方法である。
前記第一推定ステップにおいて、前記第一推定ステップの直前に行われた前記第三推定ステップにより推定された前記内視鏡の位置及び姿勢並びに前記対応点の座標を用いて前記内視鏡の位置及び姿勢の変化量を推定してもよい。
また、上記態様の内視鏡の状態推定装置の作動方法は、前記第三推定ステップにより推定された前記内視鏡の位置及び姿勢に基づいて前記内視鏡の搖動中心の有無を判定して体内への内視鏡の刺入点の位置を推定する刺入点位置推定ステップをさらに備えていてもよい。
本発明の第三の態様は、内視鏡と、前記内視鏡を制御するためのシステム本体と、を備える内視鏡システムであって、前記システム本体は、前記内視鏡が撮像する第一画像から第一特徴点を抽出し、前記第一画像の取得後に前記内視鏡が撮像する第二画像から第二特徴点を抽出する特徴点抽出部と、前記第一特徴点と前記第二特徴点との対応付けをして対応点の座標を抽出する対応点抽出部と、前記第一画像の取得時から前記第二画像の取得時までの前記内視鏡の位置及び姿勢の変化量を前記対応点の座標を用いて推定する第一状態推定部と、前記内視鏡の位置、姿勢、移動速度、及び加速度のうちの少なくとも1つを検知するために前記内視鏡に取り付けられたセンサを用いて前記第一画像の取得時から前記第二画像の取得時までの前記内視鏡の位置及び姿勢の変化量を推定する第二状態推定部と、前記第一状態推定部における推定精度および前記第二状態推定部における第二推定精度を算出し、前記推定精度および前記第二推定精度に基づいて前記第一状態推定部における推定結果と前記第二状態推定部における推定結果とのうち信頼性を有するいずれか一方を採用し、前記第二画像の取得時における前記内視鏡の位置及び姿勢を推定する第三状態推定部と、を有する、内視鏡システムである。
本発明の第四の態様は、内視鏡と、前記内視鏡を制御するためのシステム本体と、を備える内視鏡システムであって、前記システム本体は、内視鏡が撮像する第一画像から第一特徴点を抽出し、前記第一画像の取得後に前記内視鏡が撮像する第二画像から第二特徴点を抽出する特徴点抽出部と、前記第一特徴点と前記第二特徴点との対応付けをして対応点の座標を抽出する対応点抽出部と、前記第一画像の取得時から前記第二画像の取得時までの前記内視鏡の位置及び姿勢の変化量を前記対応点の座標を用いて推定する第一状態推定部と、前記第一状態推定部における推定精度を算出して前記第一状態推定部における推定の信頼性の有無を判定する第一判定部と、前記内視鏡の位置、姿勢、移動速度、及び加速度のうちの少なくとも1つを検知するために前記内視鏡に取り付けられたセンサを用いて前記第一画像の取得時から前記第二画像の取得時までの前記内視鏡の位置及び姿勢の変化量を推定する第二状態推定部と、前記第二状態推定部における推定精度を算出して前記第二状態推定部における推定の信頼性の有無を判定する第二判定部と、前記第一判定部における判定結果と前記第二判定部における判定結果とに基づいて、前記第一状態推定部における推定結果と前記第二状態推定部における推定結果とのうち信頼性を有するいずれか一方を採用して前記第二画像の取得時における前記内視鏡の位置及び姿勢を推定する第三状態推定部と、を有する、内視鏡システムである。
また、上記態様の内視鏡システムは、前記第一状態推定部が、直前に第三状態推定部により推定された前記内視鏡の位置及び姿勢並びに前記対応点の座標を用いて前記内視鏡の位置及び姿勢の変化量を推定してもよい。
また、上記態様の内視鏡システムは、前記第三状態推定部に接続されており、前記第三状態推定部により推定された前記内視鏡の位置及び姿勢に基づいて前記内視鏡の搖動中心の有無を判定して体内への内視鏡の刺入点の位置を推定する刺入点推定部をさらに有してもよい。
本発明によれば、内視鏡の位置や姿勢等の状態の推定精度が低下しにくい内視鏡の状態推定装置の作動方法および内視鏡システムを提供することができる。
本発明の第1実施形態の内視鏡の状態推定装置の作動方法が適用される処置システムの模式図である。 同処置システムのブロック図である。 同処置システムにおける内視鏡の状態推定装置の作動方法を示すフローチャートである。 同実施形態の変形例の構成を示すブロック図である。 本発明の第2実施形態の内視鏡の状態推定装置の作動方法が適用される処置システムのブロック図である。 同処置システムにおける内視鏡の状態推定装置の作動方法を示すフローチャートである。 本発明の第3実施形態の内視鏡の状態推定装置の作動方法が適用される処置システムのブロック図である。 同処置システムにおける内視鏡の状態推定装置の作動方法を示すフローチャートである。 本発明の第4実施形態の内視鏡の状態推定装置の作動方法が適用される処置システムのブロック図である。
(第1実施形態)
本発明の第1実施形態について説明する。
本実施形態の内視鏡2の状態推定装置の作動方法は、内視鏡2を備えた処置システム1において内視鏡2の状態(内視鏡2の位置、姿勢、移動速度、及び加速度等)を推定するための方法である。
本実施形態における処置システム1の一例を図1〜図3で示して説明する。
図1に示すように、処置システム1は、内視鏡2と、センシングトロッカ10と、システム本体20とを備えている。
内視鏡2は、体内に挿入される挿入部3と、挿入部3の端部に配された把持部6とを備えている。
挿入部3は、体内を観察するための撮像部4と、筒状の軸部5とを有している。撮像部4は、システム本体20と電気的に接続されている。撮像部4は、所定のフレームレートで複数の画像を撮像することにより動画及び静止画を取得する(第一撮像ステップS101,第二撮像ステップS102)。
センシングトロッカ10は、内視鏡2の挿入部3を体内に導入するための筒状の部材である。さらに、センシングトロッカ10は、内視鏡2の位置及び姿勢を検知するためのセンサを有している。一例として、センシングトロッカ10は、患者の腹壁等に取り付けることができる筒状部11と、センシングトロッカ10の姿勢を検知するための姿勢検知センサ12と、筒状部11に対する挿入部3の挿入量を検知するための挿入量検知センサ13とを有している。姿勢検知センサ12及び挿入量検知センサ13は、システム本体20と電気的に接続され、内視鏡2の位置及び姿勢を検知する(検知ステップS107)。
システム本体20は、光源装置21と、画像処理装置22と、マッピング装置23と、モニタ34とを備えている。
光源装置21は、内視鏡2に照明光を伝えるために内視鏡2に接続される。
画像処理装置22は、内視鏡2が撮像した画像を映像信号としてモニタ34へ出力する。また、画像処理装置22は、内視鏡2が撮像した画像を静止画データとしてマッピング装置23へ出力する。
マッピング装置23は、センシングトロッカ10の姿勢検知センサ12及び挿入量検知センサ13と電気的に接続されている。また、マッピング装置23は、画像処理装置22と電気的に接続されている。マッピング装置23は、観測部24と、第一状態推定部28と、第一判定部29と、第二状態推定部30と、第二判定部31と、第三状態推定部32と、マップ構築部33とを備えている。
観測部24は、画像処理装置22と接続される。また、観測部24は、第一状態推定部28及び第一判定部29と接続されている。
観測部24は、記憶部25と、特徴点抽出部26と、対応点抽出部27とを備えている。
記憶部25は、画像処理装置22から出力された静止画データや、観測部24が算出したデータを記憶する。
特徴点抽出部26は、画像処理装置22から出力された静止画データのうち、所定時間あるいは所定のフレーム数だけ離れた2つの静止画データ(第一画像及び第二画像)を用いて、各静止画データ中の特徴点を抽出する。特徴点抽出部26は、第一画像中の特徴点及び第二画像中の特徴点を抽出して記憶部25に記憶させる。特徴点抽出部26は、並列動作する2つの特徴点抽出エンジンを含んでいる。本実施形態では、1つの特徴点抽出エンジンが1つの静止画データからの特徴点の抽出処理に割り当てられる(第一抽出ステップS103,第二抽出ステップS104)。これにより、静止画データ中の特徴点の数が膨大であっても処理の遅延が起こりにくい。
対応点抽出部27は、第一画像中の特徴点及び第二画像中の特徴点を読み込み、第一画像中の特徴点と第二画像中の特徴点との対応付けを行う。対応点抽出部27は、例えばSIFT(Scale-Invariant Feature Transform)やSURF(Speeded Up Robust Features)等の特徴点抽出アルゴリズムにより対応点の抽出を行う。対応点抽出部27は、対応点の抽出を行い、対応点の座標及び対応点の数を記憶部25に記憶させる(第三抽出ステップS105)。
第一状態推定部28は、対応点の座標を記憶部25から読み込み、第一画像の取得時から第二画像の取得時までの内視鏡2の移動量を算出する。さらに、第一状態推定部28は、第一画像の取得時における内視鏡2の位置及び姿勢と、算出した上記の移動量とに基づいて、第二画像の取得時における内視鏡2の位置及び姿勢を推定する(第一推定ステップS106)。第一状態推定部28は、推定結果を第三状態推定部32へと出力する。
第一判定部29は、対応点の数を記憶部25から読み込み、対応点の数が所定の閾値以上あるか否かを判定する(第一判定ステップS109)。第一判定部29における所定の閾値は、内視鏡2の移動量の算出が可能となる最小の対応点の数に基づいて予め設定されている。対応点の数が所定の閾値以上である場合には、第一判定部29は、第一状態推定部28による推定結果に信頼性があると判定し、第一状態推定部28による推定結果を第三状態推定部32が採用することを許可する(ステップS110)。対応点の数が所定の閾値未満である場合には、第一判定部29は、第一状態推定部28による推定結果に信頼性がないと判定し、第一状態推定部28による推定結果を第三状態推定部32が採用することを禁止する。対応点の数が所定の閾値未満である場合とは、例えば、第一画像と第二画像とに共通する部分がなく対応点が存在しない場合や、第一画像または第二画像が煙やミストにより視野不良状態で撮像されたものである場合等である。
第二状態推定部30は、センシングトロッカ10の姿勢検知センサ12及び挿入量検知センサ13と電気的に接続されている。第二状態推定部30は、姿勢検知センサ12及び挿入量検知センサ13による検知(検知ステップS107)の結果に基づいて、内視鏡2の位置及び姿勢を推定する(第二推定ステップS108)。第二状態推定部30は、推定結果を第三状態推定部32へと出力する。
第二判定部31は、センシングトロッカ10の姿勢検知センサ12及び挿入量検知センサ13と電気的に接続されている。第二判定部31は、姿勢検知センサ12及び挿入量検知センサ13から取得された検知結果が外乱の影響等を受けているか否かを判定することにより、第二状態推定部30における推定の信頼性の有無を判定する(第二判定ステップS111)。たとえば、姿勢検知センサ12と挿入量検知センサ13との両方が正常範囲内の検知結果を示している場合には、第二判定部31は、姿勢検知センサ12及び挿入量検知センサ13が外乱の影響等を受けておらず第二状態推定部30による推定結果に信頼性があると判定し、第二状態推定部30による推定結果を第三状態推定部32が採用することを許可する(ステップS112)。姿勢検知センサ12と挿入量検知センサ13との少なくともいずれかが外乱の影響等により異常値を示している場合には、第二判定部31は、第二状態推定部30による推定結果に信頼性がないと判定し、第二状態推定部30による推定結果を第三状態推定部32が採用することを禁止する。
第三状態推定部32は、第一状態推定部28から出力された推定結果及び第二状態推定部30から出力された推定結果を受け付け、第一判定部29及び第二判定部31における判定結果に基づいて、採用が許可されている推定結果を内視鏡2の状態情報として採用し、内視鏡2の状態情報をマップ構築部33へと出力する(第三推定ステップS113,算出ステップ)。本実施形態における状態情報は、内視鏡2の位置及び姿勢の情報を含んでいる。
なお、第一状態推定部28による推定結果と第二状態推定部30による推定結果の両方が信頼性を有するものである場合には、あらかじめ定めた優先順位に従って、第一状態推定部28による推定結果と第二状態推定部30による推定結果とのいずれか一方を第三状態推定部32が採用する。たとえば、本実施形態では、第一状態推定部28による推定結果と第二状態推定部30による推定結果の両方が信頼性を有するものである場合には、第一状態推定部28による推定結果を第三状態推定部32が採用する。
また、第一状態推定部28による推定結果と第二状態推定部30による推定結果の両方が信頼性を有していない場合には、第一状態推定部28による推定結果と第二状態推定部30による推定結果との双方を破棄する(ステップS114)。
マップ構築部33は、内視鏡2を用いて撮像された対象の地図を構築するとともに、構築された地図における内視鏡2の位置及び姿勢を推定する。一例として、マッピング装置23は、内視鏡2の撮像部4が撮像した画像を用いたVSLAM(Visual Simultaneous Localization and Mapping)技法により、体内の地図の構築と内視鏡2の位置及び姿勢の推定を行う。本実施形態では、第一状態推定部28による推定結果を第三状態推定部32が採用した場合には、撮像部4が撮像した画像(第一画像または第二画像)を用いて、体内の地図の構築と内視鏡2の位置及び姿勢の推定を行う。また、本実施形態では、第二状態推定部30による推定結果を第三状態推定部32が採用した場合には、体内の地図の構築を休止し、構築済みの地図における内視鏡2の位置及び姿勢の推定を行う。
マップ構築部33が構築した体内の地図は、例えば画像化されて、画像処理装置22を介してモニタ34へ出力可能であってもよい。
本実施形態では、撮像部4が撮像した画像を用いて内視鏡2の位置及び姿勢を推定することができるとともに、センシングトロッカ10に配された姿勢検知センサ12及び挿入量検知センサ13を用いて内視鏡2の位置及び姿勢を推定することができる。
また、本実施形態では、撮像部4が撮像した画像を用いた内視鏡2の位置及び姿勢の推定の信頼性がない場合には自動的に姿勢検知センサ12及び挿入量検知センサ13を用いた内視鏡2の位置及び姿勢の推定結果が第三状態推定部32により採用されるので、内視鏡2の位置及び姿勢の推定が中断されにくい。
また、本実施形態では、姿勢検知センサ12及び挿入量検知センサ13を用いた内視鏡2の位置及び姿勢の推定の信頼性がない場合には自動的に撮像部4が撮像した画像を用いた内視鏡2の位置及び姿勢の推定結果が第三状態推定部32により採用されるので、内視鏡2の位置及び姿勢の推定が中断されにくい。
このように、本実施形態では、内視鏡2の位置及び姿勢の推定に関して2系統の状態推定部(第一状態推定部28及び第二状態推定部30)が相互に補完し合うようになっているので、外乱に対するロバスト性が高い。
なお、第一状態推定部28及び第二状態推定部30は、内視鏡2の位置及び姿勢の他、内視鏡2の移動速度、内視鏡2の角速度、内視鏡2の加速度等を推定結果に含めるようになっていてもよい。
また、センシングトロッカ10は、加速度センサ,ジャイロセンサ,地磁気センサ等のセンサやその他公知のセンサを備えていてもよい。
また、第一判定部29において信頼性の有無を判定するための判定基準として、対応点の数の他、対応点の移動量(第一画像における対応点の座標と第二画像における対応点の座標との差など)、第一画像および第二画像における対応点の移動ベクトルの相関性、第一画像および第二画像におけるブレの程度、第一画像および第二画像における煙等による視野不良の程度、及び第一画像および第二画像におけるハレーション等による視野不良の程度等が含まれてもよい。
また、第二判定部31において信頼性の有無を判定するための判定基準として、検知原理が互いに異なる3つ以上のセンサをセンシングトロッカ10が備え、3つのセンサのうち1つが異常値を示していても他の2つのセンサが正常範囲内であれば信頼性を有すると第二判定部31が判定するようになっていてもよい。
また、内視鏡2の挿入部3は能動湾曲部を有していてもよい。この場合、内視鏡2の能動湾曲部の湾曲状態を検知するためのセンサを内視鏡2が備え、このセンサがセンシングトロッカ10の各センサと同様にマッピング装置23に電気的に接続されていることが好ましい。
(変形例)
上記実施形態の変形例について図4を用いて説明する。
本変形例では、マッピング装置23が状態予測部35を備えている点で上記の第1実施形態と異なっている。
状態予測部35は、第一状態推定部28に接続されており、第一状態推定部28による推定結果を受け付けて内視鏡2の位置及び姿勢の予測を行う。この場合、内視鏡2の位置及び姿勢を予め予測しておくことで、観測部24が抽出した対応点の座標の情報のみを利用する場合と比較して計算量を削減できる。
(第2実施形態)
本発明の第2実施形態について図5及び図6を用いて説明する。なお、以下の各実施形態において、第1実施形態と同様あるいは対応する構成要素には、第1実施形態と同一の符号が付され、重複する説明は省略される。また、以下の各実施形態における内視鏡の状態推定装置の作動方法のステップについても同様に、第1実施形態における処理と同様の処理には第1実施形態と同一の符号が付されている。
本実施形態では、上記の第1実施形態の変形例と比較して、第一状態推定部28と状態予測部35との間に更新部36が介在しており、さらに、第二状態推定部30が更新部36に接続されている。第一状態推定部28及び第二状態推定部30は、推定結果を更新部36へ出力する(ステップS201)。
また、第一判定部29及び第二判定部31は、上記第1実施形態と同様に第三状態推定部32に接続され、さらに上記の更新部36にも接続されている。
更新部36は、状態予測部35において、第一状態推定部28による推定結果と第二状態推定部30による推定結果とのうち、信頼性を有する方を選択して状態予測部35へ出力する。更新部36における信頼性の有無の判定は、第一判定部29および第二判定部31における判定結果に従う。
本実施形態では、例えば第一状態推定部28による推定結果が信頼性を有していない場合には、第二状態推定部30による推定結果が状態予測部35に入力される。このため、本実施形態では、信頼性の低い推定結果に基づいて状態予測部35が予測を行うのを防ぐことができる。
(第3実施形態)
本発明の第3実施形態について図7及び図8を用いて説明する。
本実施形態では、上記の第1実施形態の変形例と比較して、第三状態推定部32と状態予測部35とに接続された刺入点推定部37をさらに備えている点が異なっている。
刺入点推定部37は、第三状態推定部32から出力された状態情報を用いて、センシングトロッカ10が体壁に留置されている位置を推定する(刺入点位置推定ステップS301)。本実施形態においてセンシングトロッカ10が体壁に留置されている位置は、体内への内視鏡2の刺入点の位置である。
状態予測部35は、刺入点推定部37において刺入点の位置が推定された場合には、刺入点を搖動中心として内視鏡2が搖動するものとして、予測の計算範囲を制限する。本実施形態では、内視鏡2はセンシングトロッカ10により移動が制限されているので、センシングトロッカ10の位置(刺入点)が大きく移動するような内視鏡2の移動を予測する必要がない。このため、刺入点推定部37により刺入点の位置を推定することにより計算量を大幅に削減できる。さらに、内視鏡2は刺入点を搖動中心として搖動するものだと仮定した予測をすることができるので、予測モデルの精度を高めることができる。その結果、本実施形態によれば、内視鏡2の位置及び姿勢を短時間で精度よく推定することができる。
(第4実施形態)
本発明の第4実施形態について図9を用いて説明する。
本実施形態の処置システム1Aは、上記各実施形態に開示されたマッピング装置23とは構成が異なるマッピング装置23Aを備えている。また、マッピング装置23Aは、上記の各実施形態に開示されたマッピング装置23とは異なる方法で内視鏡2の状態を推定する。
本実施形態では、センシングトロッカ10に設けられた姿勢検知センサ12及び挿入量検知センサ13が状態予測部35に接続されている。また、本実施形態のマッピング装置23Aは、第一判定部29,第二判定部31,第二状態推定部30,及び第三状態推定部32(たとえば図2参照)を有していない。
さらに本実施形態では、第一状態推定部28による推定結果が内視鏡の状態情報としてマップ構築部33へ出力される。
本実施形態では、センシングトロッカ10に設けられた姿勢検知センサ12及び挿入量検知センサ13による検知結果は、状態予測部35における予測の処理において、第一状態推定部28による推定結果を補完する。これにより、本実施形態では、第一状態推定部28による推定結果のみを用いた予測よりも予測精度を高めることができる。
なお、本実施形態では、センシングトロッカ10に姿勢検知センサ12と挿入量検知センサ13との両方が設けられていることは必須でない。センシングトロッカ10又は内視鏡2に1つ以上のセンサが取り付けられて内視鏡2の位置、姿勢、移動速度、角速度、加速度等の情報を状態予測部35に出力できるようになっていれば、状態予測部35は、第一状態推定部28による推定結果のみを用いた予測よりも高精度の予測を行うことができる。
以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
本発明は、内視鏡及び内視鏡を含んだシステムに利用できる。
1,1A 処置システム
2 内視鏡
3 挿入部
4 撮像部
5 軸部
6 把持部
10 センシングトロッカ
11 筒状部
12 姿勢検知センサ
13 挿入量検知センサ
20 システム本体
21 光源装置
22 画像処理装置
23,23A マッピング装置
24 観測部
25 記憶部
26 特徴点抽出部
27 対応点抽出部
28 第一状態推定部
29 第一判定部
30 第二状態推定部
31 第二判定部
32 第三状態推定部
33 マップ構築部
34 モニタ
35 状態予測部
36 更新部
37 刺入点推定部

Claims (8)

  1. 内視鏡が撮像する第一画像から第一特徴点を抽出する第一抽出ステップと、
    前記第一画像の取得後に前記内視鏡が撮像する第二画像から第二特徴点を抽出する第二抽出ステップと、
    前記第一特徴点と前記第二特徴点との対応付けをして対応点の座標を抽出する第三抽出ステップと、
    前記第一画像の取得時から前記第二画像の取得時までの前記内視鏡の位置及び姿勢の変化量を前記対応点の座標を用いて推定する第一推定ステップと、
    前記内視鏡の位置、姿勢、移動速度、及び加速度のうちの少なくとも1つを検知するために前記内視鏡に取り付けられたセンサを用いて前記第一画像の取得時から前記第二画像の取得時までの前記内視鏡の位置及び姿勢の変化量を推定する第二推定ステップと、
    前記第一推定ステップにおける推定精度および前記第二推定ステップにおける第二推定精度を算出し、前記推定精度および前記第二推定精度に基づいて前記第一推定ステップにおける推定結果と前記第二推定ステップにおける推定結果とのうち信頼性を有するいずれか一方を採用し、前記第二画像の取得時における前記内視鏡の位置及び姿勢を推定する第三推定ステップと、
    を含む内視鏡の状態推定装置の作動方法。
  2. 内視鏡が撮像する第一画像から第一特徴点を抽出する第一抽出ステップと、
    前記第一画像の取得後に前記内視鏡が撮像する第二画像から第二特徴点を抽出する第二抽出ステップと、
    前記第一特徴点と前記第二特徴点との対応付けをして対応点の座標を抽出する第三抽出ステップと、
    前記第一画像の取得時から前記第二画像の取得時までの前記内視鏡の位置及び姿勢の変化量を前記対応点の座標を用いて推定する第一推定ステップと、
    前記第一推定ステップにおける推定精度を算出して前記第一推定ステップにおける推定の信頼性の有無を判定する第一判定ステップと、
    前記内視鏡の位置、姿勢、移動速度、及び加速度のうちの少なくとも1つを検知するために前記内視鏡に取り付けられたセンサを用いて前記第一画像の取得時から前記第二画像の取得時までの前記内視鏡の位置及び姿勢の変化量を推定する第二推定ステップと、
    前記第二推定ステップにおける推定精度を算出して前記第二推定ステップにおける推定の信頼性の有無を判定する第二判定ステップと、
    前記第一判定ステップにおける判定結果と前記第二判定ステップにおける判定結果とに基づいて、前記第一推定ステップにおける推定結果と前記第二推定ステップにおける推定結果とのうち信頼性を有するいずれか一方を採用して前記第二画像の取得時における前記内視鏡の位置及び姿勢を推定する第三推定ステップと、
    を含む内視鏡の状態推定装置の作動方法。
  3. 前記第一推定ステップにおいて、前記第一推定ステップの直前に行われた前記第三推定ステップにより推定された前記内視鏡の位置及び姿勢並びに前記対応点の座標を用いて前記内視鏡の位置及び姿勢の変化量を推定す
    求項2に記載の内視鏡の状態推定装置の作動方法。
  4. 前記第三推定ステップにより推定された前記内視鏡の位置及び姿勢に基づいて前記内視鏡の搖動中心の有無を判定して体内への前記内視鏡の刺入点の位置を推定する刺入点位置推定ステップをさらに備える
    請求項2に記載の内視鏡の状態推定装置の作動方法。
  5. 内視鏡と、前記内視鏡を制御するためのシステム本体と、を備える内視鏡システムであって、
    前記システム本体は、
    前記内視鏡が撮像する第一画像から第一特徴点を抽出し、前記第一画像の取得後に前記内視鏡が撮像する第二画像から第二特徴点を抽出する特徴点抽出部と、
    前記第一特徴点と前記第二特徴点との対応付けをして対応点の座標を抽出する対応点抽出部と、
    前記第一画像の取得時から前記第二画像の取得時までの前記内視鏡の位置及び姿勢の変化量を前記対応点の座標を用いて推定する第一状態推定部と、
    前記内視鏡の位置、姿勢、移動速度、及び加速度のうちの少なくとも1つを検知するために前記内視鏡に取り付けられたセンサを用いて前記第一画像の取得時から前記第二画像の取得時までの前記内視鏡の位置及び姿勢の変化量を推定する第二状態推定部と、
    前記第一状態推定部における推定精度および前記第二状態推定部における第二推定精度を算出し、前記推定精度および前記第二推定精度に基づいて前記第一状態推定部における推定結果と前記第二状態推定部における推定結果とのうち信頼性を有するいずれか一方を採用し、前記第二画像の取得時における前記内視鏡の位置及び姿勢を推定する第三状態推定部と、
    を有する、
    内視鏡システム。
  6. 内視鏡と、前記内視鏡を制御するためのシステム本体と、を備える内視鏡システムであって、
    前記システム本体は、
    前記内視鏡が撮像する第一画像から第一特徴点を抽出し、前記第一画像の取得後に前記内視鏡が撮像する第二画像から第二特徴点を抽出する特徴点抽出部と、
    前記第一特徴点と前記第二特徴点との対応付けをして対応点の座標を抽出する対応点抽出部と、
    前記第一画像の取得時から前記第二画像の取得時までの前記内視鏡の位置及び姿勢の変化量を前記対応点の座標を用いて推定する第一状態推定部と、
    前記第一状態推定部における推定精度を算出して前記第一状態推定部における推定の信頼性の有無を判定する第一判定部と、
    前記内視鏡の位置、姿勢、移動速度、及び加速度のうちの少なくとも1つを検知するために前記内視鏡に取り付けられたセンサを用いて前記第一画像の取得時から前記第二画像の取得時までの前記内視鏡の位置及び姿勢の変化量を推定する第二状態推定部と、
    前記第二状態推定部における推定精度を算出して前記第二状態推定部における推定の信頼性の有無を判定する第二判定部と、
    前記第一判定部における判定結果と前記第二判定部における判定結果とに基づいて、前記第一状態推定部における推定結果と前記第二状態推定部における推定結果とのうち信頼性を有するいずれか一方を採用して前記第二画像の取得時における前記内視鏡の位置及び姿勢を推定する第三状態推定部と、
    を有する、
    内視鏡システム。
  7. 前記第一状態推定部は、直前に第三状態推定部により推定された前記内視鏡の位置及び姿勢並びに前記対応点の座標を用いて前記内視鏡の位置及び姿勢の変化量を推定する、
    請求項6に記載の内視鏡システム。
  8. 前記第三状態推定部に接続されており、前記第三状態推定部により推定された前記内視鏡の位置及び姿勢に基づいて前記内視鏡の搖動中心の有無を判定して体内への前記内視鏡の刺入点の位置を推定する刺入点推定部をさらに有する、
    請求項6に記載の内視鏡システム。
JP2017519026A 2015-11-13 2015-11-13 内視鏡の状態推定装置の作動方法および内視鏡システム Active JP6218991B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/082021 WO2017081821A1 (ja) 2015-11-13 2015-11-13 内視鏡の状態推定方法

Publications (2)

Publication Number Publication Date
JP6218991B2 true JP6218991B2 (ja) 2017-10-25
JPWO2017081821A1 JPWO2017081821A1 (ja) 2017-11-09

Family

ID=58694897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017519026A Active JP6218991B2 (ja) 2015-11-13 2015-11-13 内視鏡の状態推定装置の作動方法および内視鏡システム

Country Status (3)

Country Link
US (1) US10869595B2 (ja)
JP (1) JP6218991B2 (ja)
WO (1) WO2017081821A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108990412B (zh) 2017-03-31 2022-03-22 奥瑞斯健康公司 补偿生理噪声的用于腔网络导航的机器人系统
CN110740676B (zh) * 2017-06-15 2022-02-25 奥林巴斯株式会社 内窥镜系统、内窥镜图像处理方法以及记录介质
WO2018230099A1 (ja) * 2017-06-15 2018-12-20 オリンパス株式会社 内視鏡システム、内視鏡システムの作動方法
JP6899276B2 (ja) * 2017-08-04 2021-07-07 Hoya株式会社 内視鏡形状表示装置、内視鏡システム
JP6967906B2 (ja) * 2017-08-04 2021-11-17 Hoya株式会社 内視鏡形状表示装置、及び内視鏡システム
JP7214757B2 (ja) * 2018-05-31 2023-01-30 オーリス ヘルス インコーポレイテッド 生理学的ノイズを検出する管腔網のナビゲーションのためのロボットシステム及び方法
CN111936030A (zh) * 2018-06-22 2020-11-13 奥林巴斯株式会社 界标估计方法及内窥镜装置
WO2021106140A1 (ja) * 2019-11-28 2021-06-03 オリンパス株式会社 内視鏡画像処理装置、内視鏡システム及び内視鏡画像処理装置の作動方法
WO2021140597A1 (ja) * 2020-01-08 2021-07-15 オリンパス株式会社 制御装置、内視鏡システム、および制御方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5728044A (en) * 1995-03-10 1998-03-17 Shan; Yansong Sensor device for spacial imaging of endoscopes
JP4436638B2 (ja) * 2002-08-30 2010-03-24 オリンパス株式会社 内視鏡装置及び内視鏡挿入動作プログラム
AU2003264354A1 (en) 2002-08-30 2004-04-30 Olympus Corporation Medical treatment system, endoscope system, endoscope insert operation program, and endoscope device
JP2005338551A (ja) 2004-05-28 2005-12-08 Olympus Corp 工業用内視鏡装置
US7841980B2 (en) * 2006-05-11 2010-11-30 Olympus Medical Systems Corp. Treatment system, trocar, treatment method and calibration method
IE20090299A1 (en) * 2008-04-15 2009-10-28 Trinity College Dublin An endoscopy system
US20120062714A1 (en) * 2009-05-08 2012-03-15 Koninklijke Philips Electronics N.V. Real-time scope tracking and branch labeling without electro-magnetic tracking and pre-operative scan roadmaps
JP5647878B2 (ja) 2010-05-31 2015-01-07 東北電力株式会社 鋼管内部腐食解析装置及び鋼管内部腐食解析方法
AU2011305154B2 (en) 2010-09-24 2015-02-05 Irobot Corporation Systems and methods for VSLAM optimization
WO2012117816A1 (ja) 2011-03-02 2012-09-07 オリンパスメディカルシステムズ株式会社 カプセル型内視鏡の位置検出装置、カプセル型内視鏡システムおよびカプセル型内視鏡の位置決定プログラム
WO2012125592A1 (en) 2011-03-15 2012-09-20 California Institute Of Technology Localized deposition of polymer film on nanocantilever chemical vapor sensors by surface-initiated atom transfer radical polymerization
KR102196291B1 (ko) * 2012-10-12 2020-12-30 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 분지형 해부학적 구조물 내에서의 의료 장치의 위치 결정
JP6091410B2 (ja) * 2013-12-26 2017-03-08 オリンパス株式会社 内視鏡装置の作動方法及び内視鏡システム
JP6218634B2 (ja) 2014-02-20 2017-10-25 オリンパス株式会社 内視鏡システム及び内視鏡の作動方法

Also Published As

Publication number Publication date
JPWO2017081821A1 (ja) 2017-11-09
US10869595B2 (en) 2020-12-22
US20180256017A1 (en) 2018-09-13
WO2017081821A1 (ja) 2017-05-18

Similar Documents

Publication Publication Date Title
JP6218991B2 (ja) 内視鏡の状態推定装置の作動方法および内視鏡システム
US11232583B2 (en) Device for and method of determining a pose of a camera
US8588512B2 (en) Localization method for a moving robot
US9330325B2 (en) Apparatus and method for reducing noise in fingerprint images
US20180120953A1 (en) Camera-Assisted Motion Estimation for Application Control
KR100912874B1 (ko) 이동 로봇의 리로케이션 방법 및 장치
JP2019509073A5 (ja)
JP2015108604A5 (ja)
JP2012163495A5 (ja)
JP2009074859A (ja) 運動計測装置及び位置計測装置
EP2457499A1 (en) Line-of-sight estimation device
JP2013228930A5 (ja)
JP2021071794A5 (ja)
JP2017127397A5 (ja)
JP2006090957A (ja) 移動体の周囲物体検出装置及び移動体の周囲物体検出方法
JP6711346B2 (ja) 状態推定装置とその方法およびプログラム
WO2013085139A1 (ko) 초음파 프로브의 위치 및 방향 추정 시스템 및 방법
JP7336223B2 (ja) 自己位置推定方法
JP7098972B2 (ja) 行動認識装置、行動認識システム、行動認識方法およびプログラム
US9245343B1 (en) Real-time image geo-registration processing
JP2011232822A5 (ja)
JP2010032415A (ja) 赤外画像追尾装置
US20210059614A1 (en) Sarcopenia evaluation method, sarcopenia evaluation device, and non-transitory computer-readable recording medium in which sarcopenia evaluation program is recorded
JP2009186422A (ja) 方位角計測装置及び方位角計測方法
JP7324956B1 (ja) 物体認識装置および物体認識方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170926

R151 Written notification of patent or utility model registration

Ref document number: 6218991

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250