JPWO2020059377A1 - 位置推定装置、位置推定方法、及びプログラム - Google Patents

位置推定装置、位置推定方法、及びプログラム Download PDF

Info

Publication number
JPWO2020059377A1
JPWO2020059377A1 JP2020548145A JP2020548145A JPWO2020059377A1 JP WO2020059377 A1 JPWO2020059377 A1 JP WO2020059377A1 JP 2020548145 A JP2020548145 A JP 2020548145A JP 2020548145 A JP2020548145 A JP 2020548145A JP WO2020059377 A1 JPWO2020059377 A1 JP WO2020059377A1
Authority
JP
Japan
Prior art keywords
living body
feature amount
position estimation
similarity
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020548145A
Other languages
English (en)
Other versions
JP7040630B2 (ja
Inventor
雅弘 西光
雅弘 西光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2020059377A1 publication Critical patent/JPWO2020059377A1/ja
Application granted granted Critical
Publication of JP7040630B2 publication Critical patent/JP7040630B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/31Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the rectum, e.g. proctoscopes, sigmoidoscopes, colonoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)

Abstract

位置推定装置1は、内視鏡を用いて撮像した生体内部画像から、生体内部画像の特徴量を抽出する、特徴量抽出部2と、特徴量を用いて、生体内部の複数の位置との類似度を出力する、類似度出力部3と、類似度を用いて、撮像している生体内部画像の生体内部における位置を推定する、推定部4とを有する。

Description

本発明は、生体内の撮影位置を推定する位置推定装置、位置推定方法に関し、更には、これらを実現するためのプログラムを記録したしているコンピュータ読み取り可能な記録媒体に関する。
施術において、生体内を撮影する場合、現在撮像している位置が、生体内のどの位置に該当するのかを、観察者はリアルタイムで正確に把握したい。その理由として、観察者は、生体内を撮像した画像を頼りに施術を実施するからである。
そこで、観察者に、生体内のどの位置を撮像しているかを、把握させるための技術が提案されている。例えば、X線検査装置を用いて内視鏡の挿入部の形状を撮像する装置、又は、磁気共鳴画像診断装置を用いて内視鏡の撮像部の位置、姿勢を検出する装置が提案されている。
また、関連する技術として、特許文献1には撮像部(内視鏡の挿入部の先端部)の位置を精度よく検出する内視鏡装置が開示されている。その内視鏡装置よれば、挿入部に設けられた複数の送信コイルを駆動させ、その送信コイルが発生する磁界を検出することで、先端部の位置、及び挿入部の形状を特定する。
特開2002−000546号公報
しかしながら、上述した技術では、X線検査装置、磁気共鳴画像診断装置などを用いて、撮像部の位置、及び内視鏡の挿入部の形状を検出しているため、施術が煩雑になる。また、高額な設備投資が必要となる。
また、特許文献1で開示された内視鏡装置では、位置及び形状検出装置を用いて、先端部の位置、及び挿入部の形状を特定できるが、施術中にリアルタイムに、観察者に生体内部の位置を把握させるものではない。
本発明の目的の一例は、生体内部画像を用いて生体の位置を推定する位置推定装置、位置推定方法、及びコンピュータ読み取り可能な記録媒体を提供することにある。
上記目的を達成するため、本発明の一側面における位置推定装置は、
内視鏡を用いて撮像した生体内部画像から、前記生体内部画像の特徴量を抽出する、特徴量抽出部と、
前記特徴量を用いて、生体内部の複数の位置との類似度を出力する、類似度出力部と、
前記類似度を用いて、撮像している前記生体内部画像の前記生体内部における位置を推定する、推定部と、
を有することを特徴とする。
また、上記目的を達成するため、本発明の一側面における位置推定方法は、
(a)内視鏡を用いて撮像した生体内部画像から、前記生体内部画像の特徴量を算出する、ステップと、
(b)前記特徴量を用いて、生体内部の複数の位置との類似度を出力する、ステップと、
(c)前記類似度を用いて、撮像している前記生体内部画像の前記生体内部における位置を推定する、ステップと、
を有することを特徴とする。
更に、上記目的を達成するため、本発明の一側面におけるプログラムをコンピュータ読み取り可能な記録媒体は、
コンピュータに、
(a)内視鏡を用いて撮像した生体内部画像から、前記生体内部画像の特徴量を算出する、ステップと、
(b)前記特徴量を用いて、生体内部の複数の位置との類似度を出力する、ステップと、
(c)前記類似度を用いて、撮像している前記生体内部画像の前記生体内部における位置を推定する、ステップと、
を実行させる命令を含む、プログラムを記録していることを特徴とする。
以上のように本発明によれば、生体内部画像を用いて生体の位置を推定することができる。
図1は、位置推定装置の一例を説明するための図である。 図2は、位置推定装置を有するシステムの一例を説明するための図である。 図3は、生体内部画像の一例を説明するための図である。 図4は、類似度結果の一例を説明するための図である。 図5は、推定結果の出力の一例を説明するための図である。 図6は、位置推定装置の動作の一例を説明するための図である。 図7は、代表的な生体内部画像を用いた場合の動作の一例を説明するための図である。 図8は、分類器を用いた場合の動作の一例を説明するための図である。 図9は、変形例における位置推定装置の動作の一例を説明するための図である。 図10は、位置推定装置を実現するコンピュータの一例を説明するための図である。
(実施の形態)
以下、本発明の実施の形態について、図1から図10を参照しながら説明する。
[装置構成]
最初に、図1を用いて、本実施の形態における位置推定装置1の構成について説明する。図1は、位置推定装置の一例を説明するための図である。
図1に示す位置推定装置1は、生体内部画像を用いて生体の位置を推定する装置である。また、図1に示すように、位置推定装置1は、特徴量抽出部2と、類似度出力部3と、推定部4とを有する。
このうち、特徴量抽出部2は、内視鏡を用いて撮像した生体内部画像から、生体内部画像の特徴量を抽出する。類似度出力部3は、特徴量を用いて、生体内部の複数の位置との類似度を出力する。推定部4は、類似度を用いて、撮像している生体内部画像の生体内部における位置を推定する。
このように、本実施の形態においては、撮像している生体内部画像だけを用いて、生体内部を撮像している位置を推定できる。その結果、X線検査装置、磁気共鳴画像診断装置などを用いなくても、生体内部を撮像している位置を推定できるので、高額な設備投資を必要としない。
また、撮像している生体内部画像だけを用いて、生体内部の撮像している位置を推定できるので、施術が煩雑にならないようにできる。更に、施術中にリアルタイムに、観察者に生体内部の位置を把握させることができる。
[システム構成]
続いて、図2を用いて、本実施の形態における位置推定装置1の構成をより具体的に説明する。図2は、位置推定装置を有するシステムの一例を説明するための図である。
図2に示すように、本実施の形態におけるシステムは、生体内部の撮像位置を推定する位置推定装置1と、内視鏡20と、出力装置21とを有する。また、図2において位置推定装置1は、特徴量抽出部2、類似度出力部3、推定部4に加えて、出力情報生成部22を有する。
内視鏡20は、生体内部を撮像した生体内部画像を、内視鏡20と接続されている位置推定装置1へ送信する。内視鏡20は、例えば、生体内部に挿入する挿入部と、挿入部の先端側に設けられている撮像部と、挿入部の湾曲、撮像部の撮像などを操作する操作部と、内視鏡20と位置推定装置1とを接続する接続部とを有する。また、挿入部の先端側には撮像部以外にも、照明部、送気、送水、吸引に用いるノズル、鉗子口などを有している。
出力装置21は、出力情報生成部22から出力可能な形式に変換された、後述する出力情報を取得し、その出力情報に基づいて生成した画像及び音声などを出力する。出力装置21は、例えば、液晶、有機EL(Electro Luminescence)、CRT(Cathode Ray Tube)を用いた画像表示装置、更にはスピーカなどの音声出力装置などを有している。なお、出力装置21は、プリンタなどの印刷装置でもよい。
特徴量抽出部2は、内視鏡20が撮像した生体内部画像を用いて、生体内部画像から特徴量を抽出する。具体的には、特徴量抽出部2は、まず、内視鏡20を用いて時系列に撮像した生体内部画像を取得する。続いて、特徴量抽出部2は、取得した生体内部画像から生体内部の対象部位に対応する特徴量を抽出する。
生体内部画像の特徴量は、例えば、大腸の場合、腸内のヒダの有無、ヒダの大きさ、ヒダの位置関係、腸の管径の大きさ、腸の形状、回盲弁の有無のうち少なくとも一つ以上を用いることが考えられる。具体的には、盲腸には回盲弁(バウヒン弁)があり、上行結腸は管径が広く、ヒダが大きく深い、横行結腸のヒダは三角形のような形状をなし、下行結腸はヒダが浅く管径は狭めであるという特徴がある。更に、大腸には、肝曲(肝臓湾曲部)、脾曲(脾臓湾曲部)、S状結腸、直腸、肛門などにも特徴がある。特に、S状結腸は複雑な湾曲をし、直腸は容量が大きく広い空間を有するという特徴を有する。
なお、画像の特徴量を抽出する方法としてLBP(Local Binary Pattern)が知られている。例えば、文献「T. Ojala, M. Pietikainen, and D. Harwood, “Performance evaluation of texture measures with classification based on Kullback discrimination of distributions,” In:Proc. IEEE Int.Conf. Patt. Recogn., 1994.」などを参照。
類似度出力部3は、特徴量を用いて、生体内部の複数の位置との類似度を出力する。具体的には、(1)類似度出力部3は、特徴量抽出部2において抽出した特徴量と、あらかじめ記憶した生体内部画像から抽出した特徴量とを用いて、類似度を算出する。又は、(2)類似度出力部3は、特徴量抽出部2において抽出した特徴量を入力とし、分類器を用いてスコア(類似度)を出力してもよい。分類器としては、ニューラルネットワークモデル、サポートベクターマシンなどを用いることができる。
(1)(2)について、図3を用いて説明する。図3は、生体内部画像の一例を説明するための図である。図3に示す生体内部画像は、大腸内を撮像した画像で、図3Aは盲腸を撮像した画像を示し、図3Bは上行結腸を撮像した画像を示し、図3Cは横行結腸を撮像した画像を示し、図3Dは下行結腸を撮像した画像を示している。
(1)について説明をする。(1)の場合、まず、生体内部をあらかじめ撮像し、撮像した生体内部画像から抽出した特徴量を記憶部に記憶しておく。例えば、図3に示すような、大腸内部の所定位置を代表する生体内部画像について特徴量を抽出し、大腸内部の位置を識別する位置識別情報(上行結腸、横行結腸、下行結腸、肝曲(肝臓湾曲部)、脾曲(脾臓湾曲部)、S状結腸、直腸、肛門などの名称を表す情報)と、その位置に対応する特徴量(腸内のヒダの有無、ヒダの大きさ、腸の管径の大きさ、腸の形状、回盲弁の有無などを表す情報)とを関連付けて記憶部に記憶しておく。なお、記憶部は、例えば、位置推定装置1内、又は、位置推定装置1の外部に設けられている。
次に、類似度出力部3は、特徴量抽出部2において抽出した特徴量と、あらかじめ記憶した生体内部画像から抽出した特徴量とを用いて、類似度を算出する。例えば、上行結腸が撮像された生体内部画像が入力された場合、図4に示すような結果となる。すなわち、上行結腸に対する類似度が最も高くなる。図4は、類似度結果の一例を説明するための図である。
(2)について説明をする。(2)の場合、まず、生体内部をあらかじめ撮像し、撮像した生体内部画像から抽出した特徴量を入力として、分類器(例えば、ニューラルネットワークモデル)のパラメータの学習をする。そして、学習した分類器を、類似度出力部3として用いる。
次に、類似度出力部3は、特徴量抽出部2において抽出した特徴量を入力し、分類器を用いてスコアを出力する。この出力は、分類器の入力に対する各クラスらしさを示すスコアであり類似度と見做すことができる。具体的には、上行結腸が撮像された生体内部画像が入力された場合、図4に示すような結果となる。
推定部4は、類似度出力部3が出力した類似度を用いて、撮像している生体内部画像の生体内部における位置を推定する。具体的には、推定部4は、図4に示す類似度を取得し、最も大きい類似度を選択し、選択した類似度に対応する識別情報を、撮像している生体内部画像が示す生体内部の位置とする。図4の例では、上行結腸を撮像していると推定する。
また、推定部4は、所定時間において推定した複数の生体内部画像の位置が同じ場合、生体内部画像の位置を決定する。例えば、所定時間において、盲腸、横行結腸、盲腸の順に推定結果を得た場合、横行結腸を推定結果として用いないようにする。理由は、盲腸と推定した後に、所定時間内に盲腸から横行結腸へと内視鏡を移動させることが困難であると考えられるので、このような結果を得た場合には、横行結腸との推定は誤推定と判定する。こうすることで、誤推定を削減することができる。
更に、推定部4は、類似度が所定値以上で、かつ最も大きい類似度に対応する識別情報を、撮像している生体内部画像が示す生体内部の位置とする。こうすることで、誤推定を削減することができる。なお、所定値は、実験、シミュレーションにより求めて設定する。
出力情報生成部22は、少なくとも類似度又は推定した位置又はそれら両方を出力装置21に出力するための表示情報を生成する。具体的には、出力情報生成部22は、図5に示すような表示を、出力装置21に表示するための出力情報を生成し、生成した出力情報を出力装置21に送信する。図5は、推定結果の出力の一例を説明するための図である。図5においては、大腸全体を表示するとともに、大腸内部の推定した位置が上行結腸であることを表示している。
続いて、出力装置21は、出力情報を取得した後、出力情報に基づいて、類似度と推定した位置とを表す画面、又は音声、又はそれら両方を出力する。図5の例においては、大腸の推定した位置を表す「上行結腸」と、類似度を表す「類似度:0.9」とを表示する。更に、上行結腸の範囲(破線範囲)を表示する。また、上行結腸の範囲を点滅させるなどしてもよい。ただし、表示方法は、上述した図5に示した表示に限定されるものではない。
[装置動作]
次に、本発明の実施の形態における位置推定装置1の動作について図6を用いて説明する。図6は、位置推定装置の動作の一例を説明するための図である。以下の説明においては、適宜図2から図5を参酌する。また、本実施の形態では、位置推定装置を動作させることにより、位置推定方法が実施される。よって、本実施の形態における位置推定方法の説明は、以下の位置推定装置1の動作説明に代える。
図6に示すように、最初に、特徴量抽出部2は、内視鏡20が撮像した生体内部画像を取得する(ステップA1)。続いて、特徴量抽出部2は、撮像した生体内部画像を用いて、生体内部画像から特徴量を抽出する(ステップA2)。
類似度出力部3は、生体内部画像の特徴量を用いて、生体内部の複数の位置との類似度を出力する(ステップA3)。具体的には、(1)類似度出力部3は、特徴量抽出部2において抽出した特徴量と、あらかじめ記憶した生体内部画像から抽出した特徴量とを用いて、類似度を算出する。又は、(2)類似度出力部3は、特徴量抽出部2において抽出した特徴量を入力とし、ニューラルネットワークモデル、サポートベクターマシンなどの分類器を用いて、スコアを出力する。
推定部4は、類似度出力部3が出力した類似度を用いて、撮像している生体内部画像の生体内部における位置を推定する(ステップA4)。また、推定部4は、所定時間において推定した少なくとも一つ以上の生体内部画像の位置が同じ場合、生体内部画像の位置を決定する。
出力情報生成部22は、少なくとも類似度又は推定した位置又はそれら両方を出力装置21に出力するための表示情報を生成する(ステップA5)。出力装置21は、出力情報を取得した後、出力情報に基づいて、類似度と推定した位置とを表す画面、又は音、又はそれら両方を出力する(ステップA6)。
続いて、位置推定装置1は、位置推定を行う処理を終了するための指示を取得した場合(ステップA7:Yes)、位置推定を終了する。また、位置推定装置1は、位置推定を行う処理を継続する場合(ステップA7:No)、ステップA1に移行して位置推定を継続する。
位置推定装置1の動作について、図7、図8を用いて、更に、具体的に説明する。
図7は、代表的な生体内部画像を用いた場合の動作の一例を説明するための図である。図8は、分類器を用いた場合の動作の一例を説明するための図である。
まず、図7を用いて、(1)類似度出力部3が、特徴量抽出部2において抽出した特徴量fと、あらかじめ記憶した代表的な生体内部画像から抽出した特徴量c(c1からc4……)とを用いて、類似度を算出する場合について説明する。
ステップA1において、特徴量抽出部2は、上行結腸を撮像した画像である生体内部画像71を取得する。続いて、ステップA2において、特徴量抽出部2は、取得した生体内部画像71を用いて特徴量fを抽出する。
続いて、ステップA3において、類似度出力部3は奥行き情報が関連付けられた生体内部画像の特徴量fと、あらかじめ記憶した代表的な生体内部画像から抽出した特徴量c(c1からc4……)を有する特徴量情報72とを用いて、識別情報ごとの類似度を算出する。その結果、類似度情報73を得る。類似度情報73は、例えば、図4に示すような結果となる。すなわち、上行結腸に対する類似度が最も高くなる。
続いて、ステップA4において、推定部4は、類似度情報73を用いて、撮像している生体内部画像の生体内部における位置を推定する。具体的には、推定部4は、取得した類似度のうち、最も大きい類似度を選択し、選択した類似度に対応する識別情報を、撮像している生体内部画像が示す生体内部の位置とする。なお、ステップA5において、推定部4は、所定時間において推定した少なくとも一つ以上の生体内部画像の位置が同じ場合、生体内部画像の位置を決定する。
続いて、ステップA5において、出力情報生成部22は、図5に示すような表示を、出力装置21に表示するための出力情報を生成し、生成した出力情報を出力装置21に送信する。続いて、ステップA6では、出力装置21は、出力情報を取得した後、出力情報に基づいて、類似度と推定した位置とを表す画面、又は音、又はそれら両方を出力する。
次に、図8を用いて、(2)特徴量抽出部2において抽出した特徴量を入力し、分類器を用いて、スコアを出力する場合について説明する。ステップA1からA2までの処理、及び、ステップA5からA7までの処理は同じであるので省略する。
(2)のステップA3において、類似度出力部3は、生体内部画像の特徴量fを入力として、分類器81を用いて、識別情報ごとのスコアとする。その結果、類似度出力部3は類似度情報82を得る。類似度情報82は、例えば、図4に示すような結果となる。すなわち、上行結腸に対する類似度が最も高くなる。
続いて、ステップA4において、推定部4は、類似度情報82を用いて、撮像している生体内部画像の生体内部における位置を推定する。具体的には、推定部4は、取得した類似度のうち、最も大きい類似度を選択し、選択した類似度に対応する識別情報を、撮像している生体内部画像が示す生体内部の位置とする。なお、ステップA4では、推定部4は、所定時間において推定した少なくとも一つ以上の生体内部画像の位置が同じ場合、生体内部画像の位置を決定する。更に、ステップA4において、推定部4は、類似度が所定値以上で、かつ最も大きい類似度に対応する識別情報を、撮像している生体内部画像が示す生体内部の位置としてもよい。
[変形例]
変形例について説明をする。変形例における位置推定装置1は、特徴量抽出部2が奥行き情報を抽出した場合、類似度を算出し、生体内部の位置を推定し、出力情報を生成し、出力情報に基づいて生体内部の位置を出力装置21に出力する。
変形例において、特徴量抽出部2は、更に、抽出する特徴量として、生体内部画像における生体内部の奥行き情報を抽出する。具体的には、特徴量抽出部2は、まず、内視鏡のレンズから腸の壁面までの奥行き(距離)を推定する。続いて、特徴量抽出部2は、生体内部画像中のヒダと、内視鏡のレンズから腸の壁面までの距離とを関連付けて、奥行き情報を生成する。なお、奥行き情報を抽出する処理は、特徴量抽出部2と分けてもよい。
奥行き情報は、例えば、文献「K. Karsch, C. Liu, and S. B. Kang, “Depth extraction from video using non-parametric sampling,”in European Conference on Computer Vision. Springer, 2012, pp. 775-788.」などに記載の技術を用いて求める。
また、変形例において、類似度出力部3は、奥行き情報を有する生体内部画像の特徴量を用いて類似度を算出する。具体的には、類似度出力部3は、奥行き情報があるか否かを判定し、奥行き情報を抽出した場合、生体内部画像の特徴量を用いて類似度を算出する。なお、奥行き情報が抽出できない場合、類似度出力部3は、類似度を算出しない。
推定部4は、奥行き情報を抽出した場合、算出した類似度を用いて、生体内部の位置を推定する。続いて、出力情報生成部22は、出力情報を生成して、出力情報を出力装置21へ出力する。出力装置21は、出力情報に基づいて生体内部の位置を出力装置21に出力する。なお、推定部4が奥行き情報を抽出していない場合、位置推定装置1は、出力情報に基づいて生体内部の位置を出力装置21に出力する。
続いて、変形例の位置推定装置1の動作について、図9を用いて説明をする。図9は、変形例における位置推定装置の動作の一例を説明するための図である。
図9に示すように、最初に、特徴量抽出部2は、内視鏡20が撮像した生体内部画像を取得する(ステップA1)。続いて、特徴量抽出部2は、撮像した生体内部画像を用いて、生体内部画像から特徴量を抽出する(ステップA2)。更に、ステップA2において、特徴量抽出部2は、抽出する特徴量として、生体内部画像における生体内部の奥行き情報を抽出する。
続いて、特徴量抽出部2は、生体内部画像が奥行き情報を有する画像であるか否かを判定し、撮像した生体内部画像に奥行き情報がある場合(ステップB1:Yes)、撮像した生体内部画像に奥行き情報を関連付ける(ステップB2)。
続いて、奥行き情報が抽出できた場合、類似度出力部3は、奥行き情報が関連付けられた生体内部画像の特徴量を用いて、生体内部の複数の位置との類似度を出力する(ステップA3)。具体的には、類似度出力部3は、上述した(1)又は(2)の処理を用いて、類似度を求める。
推定部4は、類似度出力部3が出力した類似度を用いて、撮像している生体内部画像の生体内部における位置を推定する(ステップA4)。また、推定部4は、所定時間において推定した少なくとも一つ以上の生体内部画像の位置が同じ場合、生体内部画像の位置を決定する。
出力情報生成部22は、少なくとも類似度又は推定した位置又はそれら両方を出力装置21に出力するための表示情報を生成する(ステップA5)。出力装置21は、出力情報を取得した後、出力情報に基づいて、類似度と推定した位置とを表す画面、又は音、又はそれら両方を出力する(ステップA6)。
続いて、位置推定装置1は、位置推定を行う処理を終了するための指示を取得した場合(ステップA7:Yes)、位置推定を終了する。また、位置推定装置1は、位置推定を行う処理を継続する場合(ステップA7:No)、ステップA1に移行して位置推定を継続する。
[本実施の形態の効果]
以上のように本実施の形態によれば、撮像している生体内部画像だけを用いて、生体内部を撮像している位置を推定できる。その結果、X線検査装置、磁気共鳴画像診断装置などを用いなくても、生体内部を撮像している位置を推定できるので、高額な設備投資を必要としない。
また、撮像している生体内部画像だけを用いて、生体内部を撮像している位置を推定できるので、施術が煩雑にならないようにできる。更に、施術中にリアルタイムに、観察者に生体内部の位置を把握させることができる。
更に、特徴量抽出部2より後の処理において、奥行き情報が有りの生体内部画像に対してのみ処理を行うので、処理時間を短縮させることができる。また、生体内部の位置推定をする精度を向上させることができる。
[プログラム]
本発明の実施の形態におけるプログラムは、コンピュータに、図5に示すステップA1からA7、図9に示すステップA1、A2、B1、B2、A3からA7を実行させるプログラムであればよい。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における位置推定装置と位置推定方法とを実現することができる。この場合、コンピュータのプロセッサは、特徴量抽出部2、類似度出力部3、推定部4、出力情報生成部22として機能し、処理を行なう。
また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されてもよい。この場合は、例えば、各コンピュータが、それぞれ、特徴量抽出部2、類似度出力部3、推定部4、出力情報生成部22のいずれかとして機能してもよい。
[物理構成]
ここで、実施の形態におけるプログラムを実行することによって、位置推定装置1を実現するコンピュータについて図10を用いて説明する。図10は、本発明の実施の形態における位置推定装置を実現するコンピュータの一例を示すブロック図である。
図9に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。なお、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていてもよい。
CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであってもよい。
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置があげられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記録媒体があげられる。
なお、本実施の形態における位置推定装置1は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、位置推定装置1は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
[付記]
以上の実施の形態に関し、更に以下の付記を開示する。上述した実施の形態の一部又は全部は、以下に記載する(付記1)から(付記21)により表現することができるが、以下の記載に限定されるものではない。
(付記1)
内視鏡を用いて撮像した生体内部画像から、前記生体内部画像の特徴量を抽出する、特徴量抽出部と、
前記特徴量を用いて、生体内部の複数の位置との類似度を出力する、類似度出力部と、
前記類似度を用いて、撮像している前記生体内部画像の前記生体内部における位置を推定する、推定部と、
を有することを特徴とする位置推定装置。
(付記2)
付記1に記載の位置推定装置であって、
前記特徴量抽出手段は、前記特徴量として奥行き情報を抽出する、
ことを特徴とする位置推定装置。
(付記3)
付記2に記載の位置推定装置であって、
類似度出力部は、前記奥行き情報を抽出した場合、前記生体内部画像の前記特徴量を用いて類似度を算出する
ことを特徴とする位置推定装置。
(付記4)
付記1から3のいずれか一つに記載の位置推定装置であって、
前記推定部は、所定時間において推定した複数の前記生体内部画像の位置が同じ場合、前記生体内部画像の位置を決定する
ことを特徴とする位置推定装置。
(付記5)
付記1から4のいずれか一つに記載の位置推定装置であって、
少なくとも前記類似度又は前記推定した位置又はそれら両方を表示装置に出力する表示情報を生成する、出力情報生成部を有する
ことを特徴とする位置推定装置。
(付記6)
付記1から5のいずれか一つに記載の位置推定装置であって、
前記生体内部画像の特徴量は、腸内のヒダの有無、前記ヒダの大きさ、前記ヒダの位置関係、前記腸の管径の大きさ、前記腸の形状、回盲弁の有無のうち少なくとも一つ以上を用いる
ことを特徴とする位置推定装置。
(付記7)
付記1から6のいずれか一つに記載の位置推定装置であって、
前記生体内部の位置は、少なくとも盲腸、上行結腸、横行結腸、下行結腸、S状結腸、直腸、肛門の位置のいずれか一つ以上を用いる
ことを特徴とする位置推定装置。
(付記8)
(a)内視鏡を用いて撮像した生体内部画像から、前記生体内部画像の特徴量を算出する、ステップと、
(b)前記特徴量を用いて、生体内部の複数の位置との類似度を出力する、ステップと、
(c)前記類似度を用いて、撮像している前記生体内部画像の前記生体内部における位置を推定する、ステップと、
を有することを特徴とする位置推定方法。
(付記9)
付記8に記載の位置推定方法であって、
前記(a)のステップにおいて、前記特徴量として奥行き情報を抽出する、
ことを特徴とする位置推定方法。
(付記10)
付記9に記載の位置推定方法であって、
前記(b)のステップにおいて、奥行き情報を抽出した場合、前記生体内部画像の前記特徴量を用いて類似度を算出する
ことを特徴とする位置推定方法。
(付記11)
付記8から10のいずれか一つに記載の位置推定方法であって、
前記(c)のステップにおいて、所定時間において推定した複数の前記生体内部画像の位置が同じ場合、前記生体内部画像の位置を決定する
ことを特徴とする位置推定方法。
(付記12)
付記8から11のいずれか一つに記載の位置推定方法であって、
(d)少なくとも前記類似度又は前記推定した位置又はそれら両方を表示装置に出力する表示情報を生成する、ステップを有する
ことを特徴とする位置推定方法。
(付記13)
付記8から12のいずれか一つに記載の位置推定方法であって、
前記生体内部画像の特徴量は、腸内のヒダの有無、前記ヒダの大きさ、前記ヒダの位置関係、前記腸の管径の大きさ、前記腸の形状、回盲弁の有無のうち少なくとも一つ以上を用いる
ことを特徴とする位置推定方法。
(付記14)
付記8から13のいずれか一つに記載の位置推定方法であって、
前記生体内部の位置は、少なくとも盲腸、上行結腸、横行結腸、下行結腸、S状結腸、直腸、肛門の位置のいずれか一つ以上を用いる
ことを特徴とする位置推定方法。
(付記15)
コンピュータに、
(a)内視鏡を用いて撮像した生体内部画像から、前記生体内部画像の特徴量を算出する、ステップと、
(b)前記特徴量を用いて、生体内部の複数の位置との類似度を出力する、ステップと、
(c)前記類似度を用いて、撮像している前記生体内部画像の前記生体内部における位置を推定する、ステップと、
を実行させる命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
(付記16)
付記15に記載のコンピュータ読み取り可能な記録媒体であって、
前記(a)のステップにおいて、前記特徴量として奥行き情報を抽出する、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記17)
付記16に記載のコンピュータ読み取り可能な記録媒体であって、
前記(b)のステップにおいて、奥行き情報を抽出した場合、前記生体内部画像の前記特徴量を用いて類似度を算出する
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記18)
付記15から17のいずれか一つに記載のコンピュータ読み取り可能な記録媒体であって、
前記(c)のステップにおいて、所定時間において推定した複数の前記生体内部画像の位置が同じ場合、前記生体内部画像の位置を決定する
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記19)
付記15から18のいずれか一つに記載のコンピュータ読み取り可能な記録媒体であって、
前記コンピュータに、
(d)少なくとも前記類似度又は前記推定した位置又はそれら両方を表示装置に出力する表示情報を生成する、ステップを実行させる
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記20)
付記15から19のいずれか一つに記載のコンピュータ読み取り可能な記録媒体であって、
前記生体内部画像の特徴量は、腸内のヒダの有無、前記ヒダの大きさ、前記ヒダの位置関係、前記腸の管径の大きさ、前記腸の形状、回盲弁の有無のうち少なくとも一つ以上を用いる
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記21)
付記15から20のいずれか一つに記載のコンピュータ読み取り可能な記録媒体であって、
前記生体内部の位置は、少なくとも盲腸、上行結腸、横行結腸、下行結腸、S状結腸、直腸、肛門の位置のいずれか一つ以上を用いる
ことを特徴とするコンピュータ読み取り可能な記録媒体。
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2018年9月20日に出願された日本出願特願2018−175740を基礎とする優先権を主張し、その開示の全てをここに取り込む。
以上のように本発明によれば、生体内部画像を用いて生体の位置を推定することができる。本発明は、生体内部画像を用いて生体の位置を推定することが必要な分野において有用である。
1 位置推定装置
2 特徴量抽出部
3 類似度出力部
4 推定部
20 内視鏡
21 出力装置
22 出力情報生成部
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
本発明は、生体内の撮影位置を推定する位置推定装置、位置推定方法に関し、更には、これらを実現するためのプログラムに関する。
本発明の目的の一例は、生体内部画像を用いて生体の位置を推定する位置推定装置、位置推定方法、及びプログラムを提供することにある。
また、上記目的を達成するため、本発明の一側面における位置推定方法は、
視鏡を用いて撮像した生体内部画像から、前記生体内部画像の特徴量を抽出する、ステップと、
記特徴量を用いて、生体内部の複数の位置との類似度を出力する、ステップと、
記類似度を用いて、撮像している前記生体内部画像の前記生体内部における位置を推定する、ステップと、
を有することを特徴とする。
更に、上記目的を達成するため、本発明の一側面におけるプログラムは
コンピュータに、
視鏡を用いて撮像した生体内部画像から、前記生体内部画像の特徴量を抽出する、ステップと、
記特徴量を用いて、生体内部の複数の位置との類似度を出力する、ステップと、
記類似度を用いて、撮像している前記生体内部画像の前記生体内部における位置を推定する、ステップと、
を実行させることを特徴とする。
続いて、ステップA4において、推定部4は、類似度情報73を用いて、撮像している生体内部画像の生体内部における位置を推定する。具体的には、推定部4は、取得した類似度のうち、最も大きい類似度を選択し、選択した類似度に対応する識別情報を、撮像している生体内部画像が示す生体内部の位置とする。なお、ステップAにおいて、推定部4は、所定時間において推定した少なくとも一つ以上の生体内部画像の位置が同じ場合、生体内部画像の位置を決定する。
推定部4は、奥行き情報を抽出した場合、算出した類似度を用いて、生体内部の位置を推定する。続いて、出力情報生成部22は、出力情報を生成して、出力情報を出力装置21へ出力する。出力装置21は、出力情報に基づいて生体内部の位置を出力装置21に出力する。なお、推定部4が奥行き情報を抽出していない場合、位置推定装置1は、出力情報に基づいて生体内部の位置を出力装置21に出力しない
[プログラム]
本発明の実施の形態におけるプログラムは、コンピュータに、図に示すステップA1からA7、図9に示すステップA1、A2、B1、B2、A3からA7を実行させるプログラムであればよい。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における位置推定装置と位置推定方法とを実現することができる。この場合、コンピュータのプロセッサは、特徴量抽出部2、類似度出力部3、推定部4、出力情報生成部22として機能し、処理を行なう。
10に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。なお、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていてもよい。
(付記2)
付記1に記載の位置推定装置であって、
前記特徴量抽出は、前記特徴量として奥行き情報を抽出する、
ことを特徴とする位置推定装置。
(付記8)
(a)内視鏡を用いて撮像した生体内部画像から、前記生体内部画像の特徴量を抽出する、ステップと、
(b)前記特徴量を用いて、生体内部の複数の位置との類似度を出力する、ステップと、
(c)前記類似度を用いて、撮像している前記生体内部画像の前記生体内部における位置を推定する、ステップと、
を有することを特徴とする位置推定方法。
(付記15)
コンピュータに、
(a)内視鏡を用いて撮像した生体内部画像から、前記生体内部画像の特徴量を抽出する、ステップと、
(b)前記特徴量を用いて、生体内部の複数の位置との類似度を出力する、ステップと、
(c)前記類似度を用いて、撮像している前記生体内部画像の前記生体内部における位置を推定する、ステップと、
を実行させるプログラム。
(付記16)
付記15に記載のプログラムであって、
前記(a)のステップにおいて、前記特徴量として奥行き情報を抽出する、
ことを特徴とするプログラム
(付記17)
付記16に記載のプログラムであって、
前記(b)のステップにおいて、奥行き情報を抽出した場合、前記生体内部画像の前記特徴量を用いて類似度を算出する
ことを特徴とするプログラム
(付記18)
付記15から17のいずれか一つに記載のプログラムであって、
前記(c)のステップにおいて、所定時間において推定した複数の前記生体内部画像の位置が同じ場合、前記生体内部画像の位置を決定する
ことを特徴とするプログラム
(付記19)
付記15から18のいずれか一つに記載のプログラムであって、
前記コンピュータに、
(d)少なくとも前記類似度又は前記推定した位置又はそれら両方を表示装置に出力する表示情報を生成する、ステップを実行させる
ことを特徴とするプログラム
(付記20)
付記15から19のいずれか一つに記載のプログラムであって、
前記生体内部画像の特徴量は、腸内のヒダの有無、前記ヒダの大きさ、前記ヒダの位置関係、前記腸の管径の大きさ、前記腸の形状、回盲弁の有無のうち少なくとも一つ以上を用いる
ことを特徴とするプログラム
(付記21)
付記15から20のいずれか一つに記載のプログラムであって、
前記生体内部の位置は、少なくとも盲腸、上行結腸、横行結腸、下行結腸、S状結腸、直腸、肛門の位置のいずれか一つ以上を用いる
ことを特徴とするプログラム

Claims (21)

  1. 内視鏡を用いて撮像した生体内部画像から、前記生体内部画像の特徴量を抽出する、特徴量抽出手段と、
    前記特徴量を用いて、生体内部の複数の位置との類似度を出力する、類似度出力手段と、
    前記類似度を用いて、撮像している前記生体内部画像の前記生体内部における位置を推定する、推定手段と、
    を有することを特徴とする位置推定装置。
  2. 請求項1に記載の位置推定装置であって、
    前記特徴量抽出手段は、前記特徴量として奥行き情報を抽出する、
    ことを特徴とする位置推定装置。
  3. 請求項2に記載の位置推定装置であって、
    前記類似度出力手段は、前記奥行き情報を抽出した場合、前記生体内部画像の前記特徴量を用いて類似度を算出する
    ことを特徴とする位置推定装置。
  4. 請求項1から3のいずれか一つに記載の位置推定装置であって、
    前記推定手段は、所定時間において推定した複数の前記生体内部画像の位置が同じ場合、前記生体内部画像の位置を決定する
    ことを特徴とする位置推定装置。
  5. 請求項1から4のいずれか一つに記載の位置推定装置であって、
    少なくとも前記類似度又は前記推定した位置又はそれら両方を表示装置に出力する表示情報を生成する、出力情報生成手段を有する
    ことを特徴とする位置推定装置。
  6. 請求項1から5のいずれか一つに記載の位置推定装置であって、
    前記生体内部画像の特徴量は、腸内のヒダの有無、前記ヒダの大きさ、前記ヒダの位置関係、前記腸の管径の大きさ、前記腸の形状、回盲弁の有無のうち少なくとも一つ以上を用いる
    ことを特徴とする位置推定装置。
  7. 請求項1から6のいずれか一つに記載の位置推定装置であって、
    前記生体内部の位置は、少なくとも盲腸、上行結腸、横行結腸、下行結腸、S状結腸、直腸、肛門の位置のいずれか一つ以上を用いる
    ことを特徴とする位置推定装置。
  8. (a)内視鏡を用いて撮像した生体内部画像から、前記生体内部画像の特徴量を算出し、
    (b)前記特徴量を用いて、生体内部の複数の位置との類似度を出力し、
    (c)前記類似度を用いて、撮像している前記生体内部画像の前記生体内部における位置を推定する
    ことを特徴とする位置推定方法。
  9. 請求項8に記載の位置推定方法であって、
    前記(a)において、前記特徴量として奥行き情報を抽出する
    ことを特徴とする位置推定方法。
  10. 請求項9に記載の位置推定方法であって、
    前記(b)において、奥行き情報を抽出した場合、前記生体内部画像の前記特徴量を用いて類似度を算出する
    ことを特徴とする位置推定方法。
  11. 請求項8から10のいずれか一つに記載の位置推定方法であって、
    前記(c)において、所定時間において推定した複数の前記生体内部画像の位置が同じ場合、前記生体内部画像の位置を決定する
    ことを特徴とする位置推定方法。
  12. 請求項8から11のいずれか一つに記載の位置推定方法であって、
    (d)少なくとも前記類似度又は前記推定した位置又はそれら両方を表示装置に出力する表示情報を生成する
    ことを特徴とする位置推定方法。
  13. 請求項8から12のいずれか一つに記載の位置推定方法であって、
    前記生体内部画像の特徴量は、腸内のヒダの有無、前記ヒダの大きさ、前記ヒダの位置関係、前記腸の管径の大きさ、前記腸の形状、回盲弁の有無のうち少なくとも一つ以上を用いる
    ことを特徴とする位置推定方法。
  14. 請求項8から13のいずれか一つに記載の位置推定方法であって、
    前記生体内部の位置は、少なくとも盲腸、上行結腸、横行結腸、下行結腸、S状結腸、直腸、肛門の位置のいずれか一つ以上を用いる
    ことを特徴とする位置推定方法。
  15. コンピュータに、
    (a)内視鏡を用いて撮像した生体内部画像から、前記生体内部画像の特徴量を算出する、ステップと、
    (b)前記特徴量を用いて、生体内部の複数の位置との類似度を出力する、ステップと、
    (c)前記類似度を用いて、撮像している前記生体内部画像の前記生体内部における位置を推定する、ステップと、
    を実行させる命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
  16. 請求項15に記載のコンピュータ読み取り可能な記録媒体であって、
    前記(a)のステップにおいて、前記特徴量として奥行き情報を抽出する、
    ことを特徴とするコンピュータ読み取り可能な記録媒体。
  17. 請求項16に記載のコンピュータ読み取り可能な記録媒体であって、
    前記(b)のステップにおいて、奥行き情報を抽出した場合、前記生体内部画像の前記特徴量を用いて類似度を算出する
    ことを特徴とするコンピュータ読み取り可能な記録媒体。
  18. 請求項15から17のいずれか一つに記載のコンピュータ読み取り可能な記録媒体であって、
    前記(c)のステップにおいて、所定時間において推定した複数の前記生体内部画像の位置が同じ場合、前記生体内部画像の位置を決定する
    ことを特徴とするコンピュータ読み取り可能な記録媒体。
  19. 請求項15から18のいずれか一つに記載のコンピュータ読み取り可能な記録媒体であって、
    前記コンピュータに、
    (d)少なくとも前記類似度又は前記推定した位置又はそれら両方を表示装置に出力する表示情報を生成する、ステップを実行させる
    ことを特徴とするコンピュータ読み取り可能な記録媒体。
  20. 請求項15から19のいずれか一つに記載のコンピュータ読み取り可能な記録媒体であって、
    前記生体内部画像の特徴量は、腸内のヒダの有無、前記ヒダの大きさ、前記ヒダの位置関係、前記腸の管径の大きさ、前記腸の形状、回盲弁の有無のうち少なくとも一つ以上を用いる
    ことを特徴とするコンピュータ読み取り可能な記録媒体。
  21. 請求項15から20のいずれか一つに記載のコンピュータ読み取り可能な記録媒体であって、
    前記生体内部の位置は、少なくとも盲腸、上行結腸、横行結腸、下行結腸、S状結腸、直腸、肛門の位置のいずれか一つ以上を用いる
    ことを特徴とするコンピュータ読み取り可能な記録媒体。
JP2020548145A 2018-09-20 2019-08-16 位置推定装置、位置推定方法、及びプログラム Active JP7040630B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018175740 2018-09-20
JP2018175740 2018-09-20
PCT/JP2019/032190 WO2020059377A1 (ja) 2018-09-20 2019-08-16 位置推定装置、位置推定方法、及びコンピュータ読み取り可能な記録媒体

Publications (2)

Publication Number Publication Date
JPWO2020059377A1 true JPWO2020059377A1 (ja) 2021-08-30
JP7040630B2 JP7040630B2 (ja) 2022-03-23

Family

ID=69887161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020548145A Active JP7040630B2 (ja) 2018-09-20 2019-08-16 位置推定装置、位置推定方法、及びプログラム

Country Status (4)

Country Link
US (1) US20220000338A1 (ja)
EP (1) EP3854294A4 (ja)
JP (1) JP7040630B2 (ja)
WO (1) WO2020059377A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11730491B2 (en) * 2020-08-10 2023-08-22 Kunnskap Medical, LLC Endoscopic image analysis and control component of an endoscopic system
DE112021005393T5 (de) * 2020-10-12 2023-08-31 Fujifilm Corporation Endoskopische bildaufnahmevorrichtung, endoskopisches bildaufnahmeverfahren und endoskopisches bildaufnahmeprogramm
WO2023089718A1 (ja) * 2021-11-18 2023-05-25 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003265408A (ja) * 2002-03-19 2003-09-24 Mitsubishi Electric Corp 内視鏡誘導装置および方法
JP2009056239A (ja) * 2007-09-03 2009-03-19 Olympus Medical Systems Corp 内視鏡装置
JP2009213627A (ja) * 2008-03-10 2009-09-24 Fujifilm Corp 内視鏡検査システム及びその検査方法
JP2016189812A (ja) * 2015-03-30 2016-11-10 富士フイルム株式会社 内視鏡撮影部位特定装置、方法、プログラム
JP2017055954A (ja) * 2015-09-16 2017-03-23 富士フイルム株式会社 内視鏡位置特定装置、方法およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002000546A (ja) 2000-06-19 2002-01-08 Olympus Optical Co Ltd 内視鏡装置
WO2014141968A1 (ja) * 2013-03-12 2014-09-18 オリンパスメディカルシステムズ株式会社 内視鏡システム
EP3136943A4 (en) * 2014-05-01 2017-12-27 EndoChoice, Inc. System and method of scanning a body cavity using a multiple viewing elements endoscope
WO2018012080A1 (ja) * 2016-07-12 2018-01-18 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び手術用ナビゲーションシステム
JP2018175740A (ja) 2017-04-21 2018-11-15 パナソニックIpマネジメント株式会社 空気浄化装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003265408A (ja) * 2002-03-19 2003-09-24 Mitsubishi Electric Corp 内視鏡誘導装置および方法
JP2009056239A (ja) * 2007-09-03 2009-03-19 Olympus Medical Systems Corp 内視鏡装置
JP2009213627A (ja) * 2008-03-10 2009-09-24 Fujifilm Corp 内視鏡検査システム及びその検査方法
JP2016189812A (ja) * 2015-03-30 2016-11-10 富士フイルム株式会社 内視鏡撮影部位特定装置、方法、プログラム
JP2017055954A (ja) * 2015-09-16 2017-03-23 富士フイルム株式会社 内視鏡位置特定装置、方法およびプログラム

Also Published As

Publication number Publication date
EP3854294A1 (en) 2021-07-28
EP3854294A4 (en) 2021-10-20
JP7040630B2 (ja) 2022-03-23
WO2020059377A1 (ja) 2020-03-26
US20220000338A1 (en) 2022-01-06

Similar Documents

Publication Publication Date Title
JP7040630B2 (ja) 位置推定装置、位置推定方法、及びプログラム
JP7227145B2 (ja) マッチムーブ用のハイブリッド追跡器のシステム及び方法
JP6942488B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP5554984B2 (ja) パターン認識方法およびパターン認識装置
US8879810B2 (en) Method and system for automatic lung segmentation in magnetic resonance imaging videos
JP2009187186A (ja) 画像処理装置および方法、並びにプログラム
JP2009146405A (ja) 人体姿勢推定システム、方法およびプログラム
JP7104375B2 (ja) 施術支援装置、施術支援方法、及びプログラム
JP2007233871A (ja) 画像処理装置、コンピュータの制御方法及びプログラム
WO2020232374A1 (en) Automated anatomic and regional location of disease features in colonoscopy videos
JP2019012360A (ja) 情報処理装置、プログラム及び情報処理方法
US11941498B2 (en) Facial motion detection and image correction method and apparatus
KR20160046399A (ko) 텍스쳐 맵 생성 방법 및 장치와 데이터 베이스 생성 방법
JP7080285B2 (ja) 動作特定装置、動作特定方法及び動作特定プログラム
JP2021144359A (ja) 学習装置、推定装置、学習方法、及びプログラム
JP2010146522A (ja) 顔画像追跡装置及び顔画像追跡方法並びにプログラム
JP6981543B2 (ja) 動作認識装置、動作認識方法、及びプログラム
JP7315033B2 (ja) 施術支援装置、施術支援方法、及びプログラム
JP2021105960A (ja) 医用情報処理装置
WO2020166528A1 (ja) 施術支援装置、施術支援方法、及びコンピュータ読み取り可能な記録媒体
US20220230342A1 (en) Information processing apparatus that estimates object depth, method therefor, and storage medium holding program therefor
WO2023007730A1 (ja) 情報処理システム、情報処理装置、情報処理方法、及び記録媒体
US20230351729A1 (en) Learning system, authentication system, learning method, computer program, learning model generation apparatus, and estimation apparatus
JP6777819B1 (ja) 動作特定装置、動作特定方法及び動作特定プログラム
JP6534411B2 (ja) 相対角度推定装置、相対角度推定方法、及び相対角度推定プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210302

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220221

R151 Written notification of patent or utility model registration

Ref document number: 7040630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151