JP7506264B2 - 画像処理装置、内視鏡装置及び画像処理装置の作動方法 - Google Patents

画像処理装置、内視鏡装置及び画像処理装置の作動方法 Download PDF

Info

Publication number
JP7506264B2
JP7506264B2 JP2023534507A JP2023534507A JP7506264B2 JP 7506264 B2 JP7506264 B2 JP 7506264B2 JP 2023534507 A JP2023534507 A JP 2023534507A JP 2023534507 A JP2023534507 A JP 2023534507A JP 7506264 B2 JP7506264 B2 JP 7506264B2
Authority
JP
Japan
Prior art keywords
organ model
endoscope
image
area
unobserved
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023534507A
Other languages
English (en)
Other versions
JPWO2023286196A1 (ja
Inventor
敬士 田中
大和 神田
誠 北村
健人 速水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Publication of JPWO2023286196A1 publication Critical patent/JPWO2023286196A1/ja
Application granted granted Critical
Publication of JP7506264B2 publication Critical patent/JP7506264B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00055Operational features of endoscopes provided with output arrangements for alerting the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Endoscopes (AREA)

Description

本発明は、未観察領域の表示を制御する画像処理装置、内視鏡装置及び画像処理装置の作動方法に関する。
近年、内視鏡を用いた内視鏡システムは、医療分野及び工業用分野において広く用いられている。例えば、医療分野においては、内視鏡を、被検体内における複雑な管腔形状を有する臓器の内部に挿入し、その内部の詳細な観察や検査に利用することがある。 このような内視鏡システムでは、術者が管腔臓器内のいずれの部位を内視鏡により観察したかを把握する機能を有するものもある。
例えば、内視鏡により観察した領域を提示するために、内視鏡により撮像して得た内視鏡画像から臓器の内腔形状を求めて3次元形状モデル画像をその場で生成し、生成した3次元形状モデル画像上に観察中における観察位置を表示する内視鏡システムもある。
また、日本国特開2020-154234号公報においては、内視鏡による所定の検査等の観察時に、観察済みの領域(以下、観察領域という)と観察済みでない領域(以下、未観察領域という)とを、3次元形状モデル画像上に識別可能に表示する技術が開示されている。日本国特開2020-154234号公報の提案では、未観察領域を3Dモデル上もしくは内視鏡により取得された検査画像を表示するモニタの検査画面内に表示している。術者は、検査画面内の表示及び3次元形状モデル画像上の表示によって、例えば被挿入体内のいずれの位置を観察しているかをある程度把握することができると共に、被検体内の全ての領域を観察したか否かを確認することができる。
しかしながら、検査画面内に表示されない未観察領域については、術者は3Dモデル上で位置を把握する必要がある。しかし、検査画面の天地方向と3Dモデルの天地方向とは一致していないことから、未観察領域の位置を認識しにくい。このため、内視鏡により未観察領域を観察するために、内視鏡をいずれの方向に動かせばよいか分かりづらく、観察範囲を未観察領域に移動させる(アクセスする)ことが困難である。
特開2020ー154234号公報
本発明は、未観察領域の位置の把握を容易にすることができる画像処理装置、内視鏡装置及び画像処理装置の作動方法を提供することを目的とする。
本発明の一態様による画像処理装置は、プロセッサを具備し、前記プロセッサは、
被検体内を観察中の内視鏡から画像情報を取得し、前記取得した画像情報から臓器モデルを生成し、前記臓器モデルのうち前記内視鏡が観察していない未観察領域を特定し、
前記臓器モデルに対する前記内視鏡撮像視野の天地及び方位を推定し、前記撮像視野の天地及び方位に基づき前記臓器モデルの表示方向を設定し、特定された前記未観察領域を前記臓器モデルと紐づけた臓器モデルをモニタに出力する。
本発明の一態様による内視鏡装置は、内視鏡と、プロセッサを含む画像処理装置と、モニタとを含み、前記プロセッサは、被検体内を観察中の内視鏡から画像情報を取得し、取得した前記画像情報から臓器モデルを生成し、前記臓器モデルのうち前記内視鏡が観察していない未観察領域を特定し、前記臓器モデルに対する前記内視鏡の位置および姿勢を推定し、前記内視鏡の位置および姿勢に基づき前記臓器モデルの表示方向を設定し、特定された前記未観察領域を前記臓器モデルと紐づけた臓器モデルを前記モニタに出力する。
本発明の一態様による画像処理装置の作動方法は、画像取得部とプロセッサとを備えた画像処理装置の作動方法であって、前記画像取得部が被検体内を観察中の内視鏡から画像情報を取得し、前記プロセッサが前記画像取得部にて取得した画像情報から臓器モデルを生成する臓器モデル生成し、前記臓器モデルのうち前記内視鏡が観察していない未観察領域を特定する未観察領域特定し、前記臓器モデルに対する前記内視鏡の位置および姿勢を推定する位置姿勢推定し、前記内視鏡の位置および姿勢に基づき前記臓器モデルの表示方向を設定し、特定された前記未観察領域を前記臓器モデルと紐づけた臓器モデルをモニタに出力する。
本発明によれば、未観察領域の位置の把握を容易にすることができるという効果を有する。
本発明の第1の実施形態に係る画像処理装置を含む内視鏡装置を示す概略構成図である。 図1中の内視鏡の構成を示す斜視図である。 図1中のプロセッサ20の具体的な構成の一例を示すブロック図である。 位置姿勢推定部24及びモデル生成部25による位置及び姿勢の推定処理並びに臓器モデル生成処理を説明するための説明図である。 図4に示した公知のStructure from Motion(SfM)を利用したVisual SLAM((Simultaneous Localization and Mapping)の処理を示すフローチャートである。 臓器モデル表示を説明するための説明図である。 臓器モデル表示を説明するための説明図である。 先端部33cの位置及び姿勢の求め方を説明するための説明図である。 第1の実施形態における動作を説明するためのフローチャートである。 第1の実施形態における臓器モデル表示の一例を示す説明図である。 表示内容制御部27による視点方向制御を説明するための説明図である。 変形例を示すフローチャートである。 図12の変形例を説明するための説明図である。 変形例を示すフローチャートである。 図14の変形例を説明するための説明図である。 変形例を示す説明図である。 変形例を示す説明図である。 変形例を示すフローチャートである。 本発明の第2の実施形態を示すフローチャートである。 オクルージョン領域の検出方法を説明するための説明図である。 オクルージョン領域の検出方法を説明するための説明図である。 表示内容制御部27によるオクルージョン領域の表示方法の一例を示す説明図である。 表示内容制御部27による撮影済み領域の表示方法の一例を示す説明図である。 検査画面外領域を説明するための説明図である。 検査画面外領域の表示方法の一例を示す説明図である。 検査画面外領域の表示方法の一例を示す説明図である。 検査画面外領域についての各種情報の表示例を示す説明図である。 本発明の第3の実施形態を示すフローチャートである。 管腔PA3内を先端部33c内の撮像素子31によって撮像している状態を示す説明図である。 距離dに応じた視点制御を説明するための説明図である。 距離dに応じた拡大率制御を説明するための説明図である。 距離に応じた強調表示を説明するための説明図である。 観察ルートに応じた表示制御を説明するための説明図である。
以下、図面を参照して本発明の実施の形態について詳細に説明する。
(第1の実施形態)
図1は本発明の第1の実施形態に係る画像処理装置を含む内視鏡装置を示す概略構成図である。また、図2は図1中の内視鏡の構成を示す斜視図である。本実施形態は、未観察領域を判定すると共に、内視鏡による検査画面の天地に基づいて、未観察領域を臓器モデル上に分かりやすく表示するものである。なお、本実施形態においては、被検体内を内視鏡により観察しながら、この観察時に内視鏡によって得られる検査画像を用いて、3次元形状の臓器モデルを生成することも可能である。この場合には、観察が進につれて、観察範囲までの臓器モデルが順次構築されて表示される。即ち、この場合には、臓器モデルの構築領域が観察領域となり、未構築領域が未観察領域となる。なお、未観察領域のうち、観察領域に囲まれた領域を狭義の未観察領域と定義し、以下明細書では、この狭義の未観察領域を未観察領域として扱う。
なお、本実施形態は、観察前に既に生成されている3次元形状の臓器モデル上に、未観察領域を分かりやすく表示するようになっていてもよい。なお、既存の臓器モデルとしては、以前の検査や観察において生成された臓器モデルや、所定の管腔臓器等について作成されている汎用の臓器モデルであってもよい。本実施の形態は観察前に臓器モデルが既に作成されている場合であっても、観察時と同時に臓器モデルを作成する場合のいずれにも適用可能である。
図1に示すように、内視鏡装置1は、画像処理装置10と、内視鏡30と、画像生成回路40と、磁場発生装置50と、モニタ60と、を含む。なお、磁場発生装置50は省略可能である。図2に示すように、内視鏡30は、操作部32と、可撓性を有する挿入部33と、信号線などを含むユニバーサルケーブル34とを有する。内視鏡30は、管状の挿入部33を体腔内に挿入する管状挿入装置であり、例えば大腸等に挿入されて体腔内を撮像する。ユニバーサルケーブル34の先端にはコネクタが設けられ、内視鏡30は、そのコネクタにより画像生成回路40に着脱可能に接続される。なお、ユニバーサルケーブル34及び挿入部33内には、図示しないライトガイドが挿通されており、内視鏡30は、図示しない光源装置からの照明光を、ライトガイドを通して挿入部33の先端から出射するように構成されている。
挿入部33は、挿入部33の基端から先端に向かって、可撓管部33aと、湾曲可能な湾曲部33bと、先端部33cとを有している。挿入部33が、被写体となる患者の管腔に挿入される。先端部33cの基端部は湾曲部33bの先端に接続され、湾曲部33bの基端部は可撓管部33aの先端に接続されている。先端部33cは、挿入部33の先端部すなわち内視鏡30の先端部であり、硬い先端硬質部である。
湾曲部33bは、操作部32に設けられた湾曲操作部材35(左右湾曲操作ノブ35a及び上下湾曲操作ノブ35b)に対する操作に応じて、所望の方向に湾曲可能である。湾曲操作部材35は、さらに、湾曲した湾曲部33bの位置を固定する固定ノブ14cを有している。術者は、挿入部33を大腸内に押し込みながら、あるいは大腸内から引き抜きながら、湾曲部33bを様々な方向に湾曲させることによって、患者の大腸内をくまなく観察することができる。なお、操作部32には、湾曲操作部材35の他にも、レリーズボタン、送気送水ボタン等の各種操作ボタンも設けられている。
本実施形態においては、上下湾曲操作ノブ35bにより上方向に操作した場合において挿入部33の先端部33c(以下、内視鏡先端ともいう)が移動(湾曲)する方向を天(上)方向とし、上下湾曲操作ノブ35bにより下方向に操作した場合において内視鏡先端が移動(湾曲)する方向を地(下)方向とし、左右湾曲操作ノブ35aにより右方向に操作した場合において内視鏡先端が移動(湾曲)する方向を右方向とし、左右湾曲操作ノブ35aにより左方向に操作した場合において内視鏡先端が移動(湾曲)する方向を左方向とする。
挿入部33の先端部33cには、撮像装置である撮像素子31が設けられている。撮像時には、光源装置からの照明光がライトガイドにより導光されて、先端部33cの先端面に設けた照明窓(図示せず)から被写体に照射される。被写体からの反射光は、先端部33cの先端面に設けた観察窓(図示せず)を経由して撮像素子31の撮像面に入射する。撮像素子31は、図示しない撮像光学系を経由して撮像面に入射した被写体光学像を光電変換して、撮像信号を得る。この撮像信号は、挿入部33内及びユニバーサルケーブル34内の図示しない信号線を経由して画像生成回路40に供給される。
撮像素子31は、内視鏡30の挿入部33の先端部33cに固定されており、内視鏡先端の天地の移動方向と、撮像素子31の垂直走査方向とは一致している。即ち、撮像素子31の垂直走査における開始側を内視鏡先端の天方向(上方向)に一致させ、終了側を内視鏡先端の地方向(下方向)に一致させるように、撮像素子31は配置される。即ち、撮像素子31の撮像視野の天地と内視鏡先端(先端部33c)の天地とは一致する。また、撮像素子31の天地、即ち、内視鏡先端の天地と、撮像素子31からの撮像信号に基づく検査画像の天地(上下)とは一致する。
画像生成回路40は、受信した撮像信号に対して所定の画像処理を行い、検査画像を生成するビデオプロセッサである。生成された検査画像の映像信号は、画像生成回路40からモニタ60へ出力され、ライブの検査画像が、モニタ60上に表示される。例えば、大腸検査を行う場合には、検査を行う医者は、挿入部33の先端部33cを患者の肛門から挿入し、モニタ60に表示される検査画像によって、患者の大腸内を観察することができる。
画像処理装置10は、画像取得部11、位置姿勢検出部12、表示インタフェース(以下、I/Fという)13及びプロセッサ20を含む。画像取得部11、位置姿勢検出部12、表示I/F13及びプロセッサ20は、バス14により互いに接続されている。
画像取得部11は、画像生成回路40からの検査画像を取り込む。プロセッサ20は、バス14を経由して検査画像を取り込み、取り込んだ検査画像に基づいて、未観察領域を検出すると共に臓器モデルを生成し、臓器モデル上に未観察領域を示す画像を重畳して表示するための表示データを生成する。表示I/F13は、バス14を経由してプロセッサ20からの表示データを取り込んで、モニタ60の表示画面に表示可能なフォーマットに変換した後モニタ60に出力する。
報知部としてのモニタ60は、画像生成回路40からの検査画像を表示画面上に表示すると共に、画像処理装置10からの臓器モデルを表示画面上に表示する。例えば、モニタ60は、PinP(Picture In Picture)機能を有していてもよく、検査画像と臓器モデルとを同時に表示することも可能である。また、報知部は視覚情報を用いた報知手段に限定されず、例えば音声により位置情報を伝えたり、操作指示を出したりするものであってもよい。
本実施形態においては、プロセッサ20は、未観察領域の位置を術者が把握し易いように表示するための表示データを作成する。
図3は図1中のプロセッサ20の具体的な構成の一例を示すブロック図である。
プロセッサ20は、中央処理装置(以下、CPUという)21、記憶部22、入出力部23、位置姿勢推定部24、モデル生成部25、未観察領域判定部26、表示内容制御部27を含む。記憶部22は、例えば、ROMやRAM等により構成される。CPU21は、記憶部22に記憶されたプログラムに従って動作してプロセッサ20の各部及び画像処理装置10の全体を制御する。
なお、プロセッサ20に構成された位置姿勢推定部24、モデル生成部25、未観察領域判定部26及び表示内容制御部27は、図示しないCPUを有しており、記憶部22に記憶されたプログラムに従って動作して所望の処理を実現するようになっていてもよく、また、それぞれの機能の一部又は全部を電子回路により実現するものであってもよい。また、CPU21がプロセッサ20の全ての機能を実現するようになっていてもよい。
入出力部23は、検査画像を一定の周期で取り込むインタフェースである。入出力部23は、例えば、30fpsのフレームレートで検査画像を取得する。なお、入出力部23が取り込む検査画像のフレームレートはこれに限定されるものではない。
位置姿勢推定部24は、バス28を経由して検査画像を取り込んで、撮像素子31の位置及び姿勢を推定する。また、モデル生成部25は、バス28を経由して検査画像を取り込んで、臓器モデルを生成する。なお、撮像素子31は、先端部33cの先端側に固定されているので、撮像素子31の位置及び姿勢は、先端部33cの位置及び姿勢と言ってもよい。また、撮像素子31の位置及び姿勢は、内視鏡先端の位置及び姿勢と言ってもよい。
図4は位置姿勢推定部24及びモデル生成部25による位置及び姿勢の推定処理(以下、トラッキングという)並びに臓器モデル生成処理を説明するための説明図である。図5は図4に示した公知のStructure from Motion(SfM)を利用したVisual SLAM((Simultaneous Localization and Mapping)の処理を示すフローチャートである。
Visual SLAMを用いることで、撮像素子31の位置及び姿勢、即ち、先端部33cの位置及び姿勢(内視鏡先端の位置及び姿勢)を推定できると共に、臓器モデルの生成が可能となる。なお、SfMを利用したVisual SLAMでは、撮像素子31の位置及び姿勢と被写体の3次元像、即ち、臓器モデルとを取得することができるので、説明の都合上、位置姿勢推定部24及びモデル生成部25の機能をCPU21がプログラム処理によって実現するものとして説明する。
先ず、CPU21は、初期化を実施する。キャリブレーションにより、位置及び姿勢推定に関する内視鏡30の各部の設定値は、CPU21において既知であるものとする。また、初期化により、CPU21は、先端部33cの初期位置及び姿勢を認識する。
CPU21は、図5のステップS11において、内視鏡30からの検査画像を順次取り込む。CPU21は、取り込んだ検査画像の特徴点の検出及びこの特徴点に対応する注目点の検出を行う。図4に示すように、時刻tにおいて内視鏡30の撮像素子31により、検査画像I1が取得されるものとする。以下、時刻t,t+1,t+2における先端部33cをそれぞれ先端部33cA,33cB,33cCとする。挿入部33を移動させながら撮像素子31による撮像を続けて、時刻t+1の先端部33cBの位置において撮像素子31により検査画像I2が取得され、時刻t+2の先端部33cCの位置において撮像素子31により検査画像I3が取得されるものとする。なお、CPU21において位置及び姿勢の推定並びに臓器モデル生成処理を行うための撮像素子31の撮像期間においては、撮像素子31の光学的特性、例えば、焦点距離、歪曲収差、ピクセルサイズ等については、変化しないものとする。
検査画像I1,I2,…は、順次CPU21に供給され、CPU21は、各検査画像I1,I2,…から特徴点を検出する。例えば、CPU21は、画像中において輝度勾配が所定の閾値以上となるコーナー部やエッジ部を特徴点として検出することができる。図4の例では、検査画像I1について特徴点F1Aが検出され、検査画像I2について検査画像I1の特徴点F1Aに対応する特徴点F1Bが検出されたことを示している。また、図4の例では、検査画像I2について特徴点F2Bが検出され、検査画像I3について検査画像I2の特徴点F2Bに対応する特徴点F2Cが検出されたことを示している。なお、各検査画像から検出される特徴点の数は特に限定されるものではない。
CPU21は、検査画像中の各特徴点について、他の検査画像の各特徴点との照合を行うことで、対応する特徴点を見つける。CPU21は、2枚の検査画像の互いに対応付けられた特徴点(特徴点ペア)の座標(検査画像中の位置)を取得し、取得した座標に基づいて、撮像素子31の位置および姿勢を算出する(ステップS12)。なお、この算出(トラッキング)に際して、CPU21は、先端部33cA,33cB,…相互の相対的な位置及び姿勢、即ち、各検査画像を取得した撮像素子31相互間の相対的な位置及び姿勢を保持する基本行列を用いてもよい。
撮像素子31の位置及び姿勢と、検査画像中の特徴点に対応する注目点とは相互に関係を有しており、一方が既知であれば、他方を推定可能である。CPU21は、撮像素子31の相対的な位置および姿勢に基づいて、被写体の3次元形状の復元処理を実行する。即ち、CPU21は、位置及び姿勢が既知となった先端部33cA,33cB,…の各撮像素子31によって得られる検査画像の対応する特徴点を用いて、三角測量の原理により、各特徴点に対する3次元像上の位置(以下、注目点という)を求める(以下、マッピングという)。図4の例では、特徴点F1A,F1Bは、3次元像中では注目点A1として求められ、特徴点F2B,F2Cは、3次元像中では注目点A2として求められることを示している。なお、CPU21が3次元像を復元する手法としては種々の手法を採用することができる。例えば、CPU21は、PMVS(Patch-based Multi-view Stereo)、および平行化ステレオによるマッチング処理等を採用してもよい。
CPU21は、撮像素子31が移動しながら撮像して得た検査画像を用いたトラッキングとマッピングとを繰り返すことにより、3次元像である臓器モデルの画像データを取得する(ステップS13)。こうして、位置姿勢推定部24において、先端部33cの位置(内視鏡先端の位置)及び姿勢が順次推定され、モデル生成部25において臓器モデルが順次作成される。
未観察領域判定部26は、モデル生成部25により生成される臓器モデル中の未観察領域を検出し(ステップS14)、当該未観察領域の臓器モデル上の位置情報を表示内容制御部27に出力する。なお、未観察領域判定部26は、モデル生成部25により順次生成される臓器モデルによって周囲が囲まれている領域を未観察領域として検出する。表示内容制御部27には、モデル生成部25からの画像データが与えられると共に、未観察領域判定部26からの未観察領域の位置情報が与えられる。表示内容制御部27は、臓器モデルの画像上に未観察領域を示す画像を合成した臓器モデル表示を表示するための表示データを生成して出力する。こうして、モニタ60の表示画面上に未観察領域の画像が重畳された臓器モデルが表示される(ステップS15)。
(撮像素子31の位置及び姿勢と検査画面及び臓器モデル表示との関係)
上述したように、撮像素子31は、内視鏡30の挿入部33の先端部33cに固定されており、内視鏡先端の移動方向の天地と、撮像素子31の天地とは一致している。また、撮像素子31によって取得した検査画像の天地は、撮像素子31(内視鏡先端)の移動方向の天地に一致する。撮像素子31によって取得された検査画像は、画像処理された後、モニタ60に供給される。なお、本実施形態においては、内視鏡先端の天地、先端部33cの天地及び撮像素子31の天地の語句は、同一の意味として使用する。また、内視鏡先端の位置及び姿勢、先端部33cの位置及び姿勢並びに撮像素子31の位置及び姿勢の語句についても、同一の意味として使用する。
モニタ60は、検査画像を表示画面上に表示する。モニタ60の表示画面のうち検査画像が表示される領域において映し出される画像を検査画面とする。検査画面の天地方向は、モニタ60の垂直走査方向に一致し、垂直走査の開始側(表示画面の天)を検査画面の天、終了側(表示画面の地)を検査画面の地とする。モニタ60は、検査画像の天地を表示画面の天地に一致させて表示する。即ち、検査画像の天地と検査画面の天地とは一致する。従って、上下湾曲操作ノブ35bによる内視鏡先端部33cの移動方向の天地と、検査画面の天地とは一致する。しかしながら、臓器モデル表示の天地は、検査画面の天地と一致しないことがある。
図6及び図7は臓器モデル表示を説明するための説明図である。図6は撮像素子31の撮影領域と先端部33cの向きとの関係及び検査画面を示している。また、図7はモニタ60の表示画面60a上に表示される臓器モデル及び図6に対応した撮影領域Riを示している。なお、図6及び図7において、撮影領域Ri、検査画面I4及び表示画面60a中のハッチング及び塗り潰しは、それぞれ内視鏡先端の天(上)又は地(下)に対応する方向を示している。
図6左側の例は、撮像素子31によって、体内のある撮影領域Riを撮影していることを示している。図6の左側では、内視鏡先端(先端部33c)の上方向は、図6の紙面下向きである。図6の右側は、この撮影領域Riの撮影によって得られる検査画面I4を示している。上述したように、検査画面I4の天地と内視鏡先端の天地とは一致している。従って、術者は、この検査画面I4を参照することで、内視鏡30を操作すべき方向を比較的容易に認識することができる。例えば、モニタ60の表示画面における検査画面I4の上端よりも図6の紙面上方向の位置に対応する被写体の領域を撮影しようとする場合には、術者は、上下湾曲操作ノブ35bを上方向に操作すればよい。
図7の臓器モデル表示IT1,IT2は、モニタ60の表示画面60a上に表示される臓器モデルP1iを示している。臓器モデルP1iは、人体の所定の管腔に基づいて作成されたものである。図7は、図6の左の撮影状態において、臓器モデルP1iに対応する管腔内の撮影領域Riを撮像素子31が撮像している状態の臓器モデル表示IT1,IT2を示している。なお、図7は紙面上方向が表示画面60aの上方向に対応する。即ち、臓器モデル表示IT1は、表示画面60a上における撮影領域の画像Riiの天地(内視鏡先端の天地)と、表示画面60aの天地とが逆の状態で表示されている。
従って、仮に、術者が、図7の臓器モデルP1iに対応する管腔の撮影領域Riよりも紙面上側の領域を撮影しようとする場合には、術者は、上下湾曲操作ノブ35bを下方向に操作する必要があり、術者は、内視鏡30の操作方向を直感的に把握しづらい。
そこで、本実施形態においては、表示内容制御部27は、検査画面の天地と、臓器モデルP1iの天地(上下)とを一致させるように臓器モデルP1iの画像を回転させて表示するようになっている。なお、臓器モデルの天地(上下)とは、撮像素子31による現在の検査画面を臓器モデル画像中に配置した場合における臓器モデル画像中の検査画面の天地によって定義する。即ち、表示内容制御部27は、図6の検査画面I4の天地と臓器モデル中の検査画面の天地とが、表示画面60a上で一致するように、臓器モデル画像を回転させて表示する。なお、表示内容制御部27は、例えば、公知の画像処理によって、表示する画像をX軸、Y軸及びZ軸を中心に回転させることが可能である。
表示内容制御部27は、図7の上段の臓器モデルP1iを回転させた、図7の下段の臓器モデル表示IT2を表示画面60a上に表示させる。図7の臓器モデル表示IT2は、図6の検査画面I4の天地と臓器モデルP1i中の撮影領域の画像Riiの天地との比較から明らかなように、内視鏡先端の天地と臓器モデルの天地(検査画面の天地)とが一致した状態で表示されている。従って、仮に、術者が、図7の臓器モデルP1i中の撮影領域の画像Riiよりも紙面下側の領域に対応する管腔の領域を撮影しようとする場合には、術者は、上下湾曲操作ノブ35bを下方向に操作すればよく、術者は、臓器モデル表示IT2から内視鏡30の操作方向を直感的に把握しやすい。
このように、表示内容制御部27は、検査画像の天地と臓器モデルの天地とを一致させるように、臓器モデル画像を配置した表示データを作成する。この結果、未観察領域判定部26によって判定された未観察領域についても、内視鏡先端部33cの天地と、臓器モデル上の未観察領域の表示の天地とが一致することになり、術者は、臓器モデル表示によって未観察領域の位置を容易に且つ直感的に認識することができる。
(位置検出の他の例)
なお、上記説明では、画像処理によって、先端部33cの位置及び姿勢を検出する例を説明したが、他の手法を採用して先端部33cの位置及び姿勢を検出してもよい。例えば、磁気センサを利用する手法が考えられる。例えば、挿入部33の先端部33cには、図1の破線にて示す磁気センサ36を配置する。磁気センサ36は、先端部33cの撮像素子31の近傍に配置され、撮像素子31の視点の位置と姿勢を検出するための検出装置である。磁気センサ36は、例えば、円筒状の2つのコイルを有し、これらの2つのコイルの2つの中心軸は、互いに直交する。即ち、磁気センサ36は、6軸のセンサであり、先端部33cの位置座標と向き(すなわちオイラー角)を検出する。磁気センサ36は検出信号を画像処理装置10に出力する。
一方、磁気センサ36の近傍の被検体外部には磁場を発生する磁場発生装置50(図1の破線)が設けられ、磁場発生装置50は、所定の磁場を発生する。磁気センサ36は、磁場発生装置50が発生する磁場を検出する。磁場発生装置50は、信号線を経由して画像処理装置10内の位置姿勢検出部12(破線部)と接続されている。こうして、位置姿勢検出部12は、磁気センサ36の検出結果に基づいて、先端部33cの位置及び姿勢、言い換えれば撮像素子31により取得される検査画像の視点の位置及び向きをリアルタイムに検出する。なお、磁気センサ36に代えて先端部33cに磁場発生素子を設け、磁場発生装置50に代えて患者の外部に磁気センサを設けるようにして磁場を検出するようにしてもよい。
位置姿勢検出部12は、磁場発生装置50に所定の磁場を発生させる。位置姿勢検出部12は、その磁場を磁気センサ36により検出し、その検出された磁場の検出信号から、撮像素子31の位置座標(x、y、z)と向き(すなわちオイラー角(ψ、θ、φ))のデータ、すなわち位置と姿勢の情報、をリアルタイムで生成する。すなわち、位置姿勢検出部12は、磁気センサ36からの検出信号に基づいて、撮像素子31の位置と向きの少なくとも一部の情報を含む3次元配置を検出する検出装置である。より具体的には、位置姿勢検出部12は、時間経過に伴う3次元配置の変化の情報である3次元配置時間変化情報を検出する。よって、位置姿勢検出部12は、複数の時点の挿入部33の3次元配置情報を取得する。
また、上記説明では、臓器モデルは、モデル生成部25において順次入力される検査画像に基づいて順次生成されるものと説明したが、既存の臓器モデルを用いてもよい。図8はこの場合における先端部33cの位置及び姿勢の求め方を説明するための説明図である。図8の例は、胃のシェーマ画像上に、現在の観察中の位置、即ち、撮像素子31により取得中の検査画像の位置を示したものである。この場合には、現在の取得中の検査画像の位置を先端部33cの位置としてもよい。
なお、本実施形態においては、既存の臓器モデルを用いる場合においても、表示内容制御部27は、検査画像の天地と臓器モデルの天地とを一致させるように、臓器モデル画像を配置した表示データを作成する。
次に、このように構成された実施形態の動作について図9から図10を参照して説明する。図9は第1の実施形態における動作を説明するためのフローチャートであり、図10は第1の実施形態における臓器モデル表示の一例を示す説明図である。
内視鏡装置1の電源が投入された後、挿入部33が検査対象に挿入され、検査が開始される。撮像素子31は、画像生成回路40に駆動されて、患者の体内を撮像して内視鏡画像を取得する(ステップS1)。撮像素子31からの撮像信号は画像生成回路40に供給されて所定の画像処理が施される。画像生成回路40は、撮像信号に基づく検査画像(内視鏡画像)を生成してモニタ60に出力する。こうして、モニタ60の表示画面60a上に、検査画像が表示される。
検査画像は、画像処理装置10にも供給される。画像取得部11は、受信した検査画像をプロセッサ20に供給する。プロセッサ20の入出力部23により検査画像は、位置姿勢推定部24及びモデル生成部25に供給される。位置姿勢推定部24及びモデル生成部25は、ステップS2,S3において、臓器モデルの生成及び先端部33c(内視鏡先端)の位置及び姿勢の推定を行う。モデル生成部25は、検査画像が与えられることにより、観察領域について臓器モデルを生成する。
未観察領域判定部26は、モデル生成部25により生成された臓器モデルに囲まれた未観察領域を判定し(ステップS4)、判定結果を表示内容制御部27に出力する。
表示内容制御部27は、モデル生成部25からの臓器モデルの画像に未観察領域の画像を重畳すると共に、臓器モデルの天地を、先端部33cの天地、即ち、検査画面の天地に一致させるための表示データを生成する(ステップS5)。表示内容制御部27からの表示データは、入出力部23を経由して表示I/F13に供給され、モニタ60に表示可能なフォーマットに変換されてモニタ60に供給される。こうして、モニタ60の表示画面60a上に、検査画面と未観察領域の画像が重畳された臓器モデルを含む臓器モデル表示とが表示される。臓器モデルの天地と検査画面の天地とは、内視鏡先端の天地に一致しており、術者は、表示画面60a上の表示から、未観察領域の位置を容易に、且つ直感的に把握することができる。
図10はこの場合の表示画面66a上の臓器モデル表示の一例を示している。図10に示す臓器モデル表示IT3は、臓器モデルP2iに未観察領域の画像Rui及び先端部33cの画像33ciが重畳されている。臓器モデル表示IT3は、臓器モデルP2iの天地が、図示しない検査画面の天地、内視鏡先端の天地に一致している。この結果、術者は、表示画面60a上の表示から、未観察領域の位置を容易に、且つ直感的に把握することができる。例えば、図10の臓器モデル表示IT3を見た術者は、未観察領域を観察するために、上下湾曲操作ノブ35bを上方向に操作すればよいことを直感的に把握することができる。
(視点方向制御)
表示内容制御部27は、更に、臓器モデルに対して視点方向制御を行ってもよい。
図11は表示内容制御部27による視点方向制御を説明するための説明図である。図11は視点方向制御を行った場合の臓器モデル表示IT3,IT4を示している。図11では左側に検査画面I5,I6を示し、右側に検査画面I5,I6にそれぞれ対応する臓器モデル表示IT3,IT4を示している。
検査画面I5は、撮像素子31により、管腔方向を撮像視野として撮像を行って得られたものである。即ち、撮像素子31の視線方向(撮像光学系の光軸方向)は、管腔方向に向いており、臓器モデル表示IT3では臓器モデルP2aiに重畳した先端部33cの画像33ci1によって、撮像素子31の視線方向が管腔方向であることを示している。即ち、表示内容制御部27は、図11の上右側に示すように、先端部33cの先端側が管腔方向を向くことを示す画像33ci1を配置した臓器モデル表示IT3を表示画面60a上に表示させる。
一方、検査画面I6は、撮像素子31により、管腔壁方向を撮像視野として撮像を行って得られたものである。この場合には、表示内容制御部27は、図11の下右側に示すように、臓器モデルP2biに重畳した先端部33cの画像33ci2によって先端部33cの先端側が管腔壁を向くように配置したことを示す臓器モデル表示IT4を表示画面60a上に表示させる。
例えば、臓器モデル表示IT3が表示画面60a上に表示されている状態で、術者が左右湾曲操作ノブ35aを操作して先端部33cを右側に湾曲させたことにより、図11の検査画面I6及び臓器モデル表示IT4が表示画面60aに表示されるものとする。この場合において、術者が検査画面I6の左端の紙面左側の領域を観察しようとする場合には、術者は左右湾曲操作ノブ35aを操作して先端部33cを左に湾曲させればよい。
このように、図11に示す視点方向制御を行うことにより、術者は、撮像素子31の撮像視野が管腔方向を向いているか管腔壁方向を向いているかを容易に且つ直感的に把握することができ、内視鏡30の操作性を向上させることができる。また図11には奥方向、手前方向など内視鏡の向きが分かるような情報を併せて表示してもよい。この様な情報としては言葉による情報や、「×」や「・」などの符号による情報、内視鏡を模したアイコンによる情報などが挙げられる。
このように本実施形態においては、表示する臓器モデル表示の天地を検査画面の天地に基づいて設定することにより、未観察領域の位置を容易に、且つ直感的に把握することを可能にすることができる。これにより、未観察領域の観察を行うための内視鏡の湾曲操作が容易となる。また、臓器モデル表示を撮像素子の視点方向に応じて表示しており、未観察領域の確認が一層容易となる。
(変形例)
図12は変形例を示すフローチャートである。また、図13は図12の変形例を説明するための説明図である。本変形例のハードウェア構成は第1の実施形態と同様である。この変形例は、撮像素子31の移動速度に応じて臓器モデル表示の表示拡大率を変更するものである。
表示内容制御部27は、第1の実施形態と同様の表示制御に加えて、撮像素子31の移動速度に応じて臓器モデルの表示拡大率を変更する。表示内容制御部27は、図12のステップS21において、検査画像を順次取り込み、検査画像に対する画像解析によって、撮像素子31の移動速度を検出する(ステップS22)。例えば、表示内容制御部27は、検査画像のフレームレートと、先端部33cの位置の変化から撮像素子31の移動速度を求めてもよい。表示内容制御部27は、移動速度が速い程臓器モデルの表示拡大率を小さくし、移動速度が遅い程臓器モデルの表示拡大率を大きくするための表示データを生成する(ステップS23)。なお、表示内容制御部27は、撮像素子31の移動速度の段階を判定し、判定した段階毎に移動速度が速い程臓器モデルの表示拡大率を小さくし、移動速度が遅い程臓器モデルの表示拡大率を大きくするカテゴリ表示を行うための表示データを生成するようになっていてもよい。
図13は移動速度に応じて、臓器モデルの表示拡大率を変更する例を示している。図13の例では、臓器モデル表示IT5Sは、撮像素子31の移動速度が所定の高速の場合における表示を示しており、臓器モデル表示IT5Lは、撮像素子31の移動速度が所定の低速の場合における表示を示している。
臓器モデル表示IT5S,IT5Lは、例えば、同一被検体の腸管の臓器モデルに基づくものである。例えば、術者が挿入部33を腸管内に挿入し抜去することによってプロセッサ20により腸管の臓器モデルを作成する。術者は、挿入部33を腸管から引き抜きながら腸管内の検査を行う。なお、図13において矢印は、撮像素子31の撮像方向を示している。即ち、図13の例では、作成する臓器モデルのうち主に撮像方向の所定範囲の臓器モデルを表示する例を示している。
臓器モデル表示IT5Sは、臓器モデルの先端から略撮像素子31の位置までの比較的広い範囲の臓器モデルを比較的小さい表示拡大率で表示していることを示している。また、臓器モデル表示IT5Lは、撮像素子31の位置近傍の比較的狭い範囲の臓器モデルを比較的大きい表示拡大率で表示していることを示している。
例えば、挿入部33を比較的高速に挿抜する場合には、例えば臓器モデル表示IT5Sのように臓器モデルの比較的広い範囲が表示されることから、移動の確認が容易となる。一方、撮像素子31により所望の観察対象領域を詳細に確認する場合等においては、挿入部33の挿抜の速度は比較的低速となり、臓器モデル表示IT5Lのように臓器モデルの比較的狭い範囲が大きな表示拡大率で表示されることから、所望の観察対象領域を詳細に確認することが可能となる。
このようにこの変形例では、撮像素子31の移動速度に応じた表示拡大率で臓器モデルを表示することから、観察対象領域の観察が容易となる。
(変形例)
図14は変形例を示すフローチャートである。また、図15は図14の変形例を説明するための説明図である。本変形例のハードウェア構成は第1の実施形態と同様である。この変形例は、撮像素子31が臓器間を移動する場合に表示する臓器モデルを切換えるものである。なお、図15中の矢印の向きは、撮像素子31による撮像方向を示している。
表示内容制御部27は、第1の実施形態と同様の表示制御に加えて、撮像素子31による検査画像に応じて臓器の切換りを判定して、臓器モデル表示を切換える。表示内容制御部27は、図14のステップS31において、検査画像を取り込む。表示内容制御部27は、検査画像と臓器同士の切換り部とを比較し(ステップS32)、検査画像が切換り部の画像であるか否かを判定する。例えば、表示内容制御部27は、AI(人工知能)を利用して臓器同士の切換り部を判定してもよい。例えば、臓器同士が接する部分(切換り部)の複数の検査画像を取得し、当該検査画像を教師データとして深層学習を行うことにより、推論モデルを生成しておく。表示内容制御部27はこの推論モデルを用いることで、検査画像が切換り部であるか否かを判定して、判定結果を得るものであってもよい。
表示内容制御部27は、先端部33c(撮像素子31)が切換り部を通過したことを検出すると(ステップS33)、切換り前に表示している臓器モデルに代えて、切換り後の臓器についての臓器モデルを表示するための表示データを生成する(ステップS34)。
図15は臓器モデルの切換えを説明するためものである。図15の例は食道の臓器モデルから胃の臓器モデルへの変更の例を示している。臓器モデルT6は、食道の臓器モデルを示し、臓器モデルT7は、胃の臓器モデルを示している。例えば、挿入部33を食道から胃に向かって挿入する場合には、撮像素子31は図15の矢印に示す方向に進行しながら食道を撮像する。これにより、図15の左側に示すように、撮像素子31からの検査画像に基づいて臓器モデルT6が順次作成される。撮像素子31が食道と胃の境界である切換り部T6L近傍に到達すると、撮像素子31により切換り部T6Lが撮像される(図15の中央)。更に、撮像素子31が矢印方向に進行すると、先端部33cは切換り部切換り部T6Lを通過する。そうすると、図17の右側に示すように、表示内容制御部27は、先端部33cが食道と胃の切換り部T6Lを通過したことを検出し、表示するモデル画像を臓器モデルT7に切換えて表示する。
このようにこの変形例では、撮像素子31が臓器間を移動する毎に、移動する臓器に応じた臓器モデルを表示するようになっており、観察対象領域の観察が容易となる。なお、図14の例では、切換り部の画像によって、先端部33cが次の臓器に移動したことを検出する例を示したが、先端部33cが臓器間を移動したことの検出方法としては各種の方法を採用することができる。例えば、食道から胃への移動の検出は、管腔サイズを求め、管腔が所定倍のサイズに変化したことによって、食道から胃への移動を検出するようになっていてもよい。
なお、図15の例では、臓器モデル表示の表示の向きを示していないが、第1の実施形態と同様に、表示する臓器モデルの天地を検査画面の天地に一致させた臓器モデル表示を表示する。
(変形例)
図16及び図17は変形例を示す説明図である。図16は上記実施形態及び各変形例における臓器モデル表示上に撮像素子31による撮影領域を示す表示を加えたものである。また、図17は上記各臓器モデル表示上に、現在の内視鏡先端の位置及び姿勢を示す表示を加えたものである。
表示内容制御部27は、図16及び図17に示す臓器モデル表示を行うための表示データを作成する。図16において、臓器モデル表示IT7は、管腔の臓器モデルIT7aiと先端部33cの画像33ci3と撮影領域の画像IT7biとを含む。術者は、図16の臓器モデル表示によって、現在の撮影領域を容易に認識することができる。
図17において、臓器モデル表示IT8は、管腔の臓器モデルIT8aiの画像と先端部33cの画像33ci4とを含む。画像33ci4は、4角錐の底面によって、撮像素子31の撮像面に平行な面を表しており、例えば、挿入部33の管腔への挿入によって、四角錐の頂点から底面の中心に向かう方向に先端部33cの中心軸が配置され、撮像素子31の撮像方向が四角錐の頂点から底面の中心に向かう方向に向かっていることを示している。術者は、図17の臓器モデル表示によって、現在の内視鏡30先端の挿入方向及び撮影方向を容易に認識することができる。なお、図17では、先端部33cを四角錐で示したが、どのような形状で示してもよく、例えば、実際の先端部33cの形状に応じた形状の画像を表示してもよい。
(変形例)
図18は変形例を示すフローチャートである。本変形例のハードウェア構成は第1の実施形態と同様である。この変形例は、未観察領域の表示のオン、オフを制御するものである。
図18のステップS41において、モデル生成部25は臓器モデルを生成する。表示内容制御部27は、臓器モデル表示のための表示データを生成する。モニタ60の表示画面60a上には、臓器モデルが表示される。未観察領域判定部26は、ステップS42において、未観察領域を検出する。
表示内容制御部27は、ステップS43において、現在のフェーズが、臓器を観察して病変部の候補を探す観察フェーズであるか、病変部の診断を行う診断フェーズであるか、病変部に対して処置を行う処置フェーズであるかを判定する。例えば、表示内容制御部27は、撮像素子31と撮影対象との距離が所定の閾値以下の場合には診断フェーズと判定してもよい。また、表示内容制御部27は、撮像素子31の移動速度が所定の閾値速度以下の場合には診断フェーズ又は処置フェーズと判定してもよい。
表示内容制御部27は、フェーズの判定の結果観察フェーズであるものと判定した(S44のYES判定)場合には、ステップS45において、臓器モデル画像に未観察領域の画像を重ねて表示し、診断フェーズ又は処置フェーズと判定した場合(S44のNO判定)には、未観察領域の画像を表示しない。
これにより、診断や処置を行う場合に、未観察領域の表示によって、病変部を確認し難くなることを防止することができる。
(第2の実施形態)
図19は本発明の第2の実施形態を示すフローチャートである。本実施形態のハードウェア構成は図1から図3の第1実施形態と同様である。本実施形態は未観察領域を所定の規則に従って分類し、分類結果に応じて未観察領域の表示を制御するものである。第1の実施形態では3次元の臓器モデルの表示の向きを制御することで、未観察領域の位置の把握を容易にすることを可能にしたが、本実施形態では臓器モデルや検査画面上において未観察領域の種類毎の位置の把握を容易にするものである。
本実施形態においては、未観察領域を、(1)オクルージョン領域、(2)観察時間の短い領域、(3)撮影済み領域、(4)検査画面外領域の4つの分類項目に分類することで表示を最適化する。これにより、術者は、何が原因で未観察領域になっているか等を把握することができ、次に観察すべき位置等の判断の一助とすることができる場合がある。
(1)オクルージョン領域は、遮蔽物により未観察領域となっている領域のことであり、例えば、襞裏や残渣,泡によるオクルージョン領域が考えられる。
(2)観察時間の短い領域は、スコープ先端の移動速度が速いことで観察できていない領域をいう。
(3)撮影済み領域は、未観察領域から撮影済みとなった領域である。
(4)検査画面外領域は、現在の撮像範囲外に存在する検査画面外の未観察領域のことである。
プロセッサ20中のCPU21は、未観察領域を上記(1)~(4)の各領域の少なくとも1つ以上に分類する。CPU21は、未観察領域判定部26から未観察領域の情報を取得すると共に、位置姿勢推定部24から撮像素子31の位置及び姿勢の情報を取得して、未観察領域を撮像素子31の位置及び姿勢に基づいて分類する。CPU21は各領域の分類結果を表示内容制御部27に与える。表示内容制御部27は、(1)~(4)の未観察領域毎に設定された表示形態の表示データを作成する。
(オクルージョン領域)
図20及び図21はオクルージョン領域の検出方法を説明するための説明図である。
CPU21は、襞などの視野を遮るオクルージョン要素の存在によりオクルージョンとなっている可能性が高い領域(以下、オクルージョン領域と記載)を検出する。例えば、CPU21は、検査対象の管腔内の襞や、管腔内に存在する残渣、泡、出血等をオクルージョン要素として検出する。例えば、CPU21は、AIを利用してオクルージョン要素を判定してもよい。例えば、オクルージョン要素を含む複数の検査画像を取得し、当該検査画像を教師データとして深層学習を行うことにより、推論モデルを生成しておく。CPU21はこの推論モデルを用いることで、検査画像中からオクルージョン要素及びオクルージョン領域を判定してもよい。
図20は管腔PA1内に襞PA1aが存在し、この襞PA1aがオクルージョン要素PA1bとなって、未観察領域PA1cが生じている例を示している。CPU21は、オクルージョン要素から先端部33cの先端への方向とは逆方向に所定の距離Dの探索領域を設定する。図21では、枠で囲われた探索領域PA1dを示している。CPU21は、当該探索領域PA1d内に存在する未観察領域PA1cをオクルージョン領域に設定する。なお、CPU21は、オクルージョン要素毎に距離Dの設定を変更してもよい。CPU21は、オクルージョン領域についての情報を表示内容制御部27に与える。表示内容制御部27は、検査画面中にオクルージョン領域であることを示す表示を行う。
また、未観察領域として判定済の領域を用いてオクルージョン領域を検出する方法もある。図20を用いて説明すると未観察領域PA1cと内視鏡位置とを結ぶ領域の間にオクルージョン要素PA1bが検出された場合に、未観察領域PA1cをオクルージョン領域として分類する。未観察領域をベースにオクルージョン要素を探索した場合、計算量をより減らすことができるという利点がある。
図22は表示内容制御部27によるオクルージョン領域の表示方法の一例を示す説明図である。
図22の左側は、検査画面I11内に存在するオクルージョン領域I11aをハッチングにより表示した例を示している。また、例えば、オクルージョン領域I11aを輪郭枠線、矩形枠線で表示してもよく、塗りつぶして表示してもよい。図22の右側は、オクルージョン領域I11bを矩形枠線で表示した例を示している。また、表示内容制御部27は、オクルージョン領域をオクルージョン要素に応じた表示色で表示するようにしてもよい。
(観察時間の短い領域)
CPU21は、例えば、検査画像のフレームレートと、先端部33cの位置の変化から撮像素子31の移動速度を算出する。CPU21は、位置姿勢推定部24から撮像素子31の位置の情報を取得し、未観察領域判定部26から未観察領域の位置の情報を取得して、未観察領域を通過する撮像素子31の移動速度を求める。
CPU21は、未観察領域を通過する撮像素子31の移動速度が所定の閾値以上の場合には、当該未観察領域を観察時間の短い領域に分類する。CPU21は、観察時間の短い領域についての情報を表示内容制御部27に与える。表示内容制御部27は、検査画面中に観察時間の短い領域であることを示す表示を行う。
表示内容制御部27は、観察時間の短い領域については、分類されている他の分類の表示方法に準じた表示形態で表示する。なお、この場合、表示内容制御部27は、表示色や線種類(実線/点線)を変更することで,観察時間の短い領域であることが分かるように表示する。
(撮影済み領域)
CPU21は、未観察領域判定部26から未観察領域についての情報を取得する。未観察領域判定部26は逐次未観察領域を判定しており、未観察領域判定部26からの情報によって、CPU21は、未観察領域が撮影済み領域に変化したことを把握することができる。CPU21は、撮影済み領域についての情報を表示内容制御部27に与える。表示内容制御部27は、撮影済み領域であることを示す表示を行う。また、CPU21は、未観察領域が撮影済領域に変化したことを所定のタイミングでユーザーに報知してもよい。
なお、CPU21は、未観察領域の位置を術者に通知するようになっていてもよい。術者が挿入部33を移動させて撮像素子31により未観察領域を撮影することで、この未観察領域は撮影済み領域に分類されることになる。
図23は表示内容制御部27による撮影済み領域の表示方法の一例を示す説明図である。
図23の左側は、検査画面I12A内に存在するオクルージョン領域等の未観察領域I12Aaをハッチングにより表示した例を示している。図23の右側の検査画面I12Bは、図23の左側の未観察領域I12Aaが撮影されて撮影済み領域I12Baとなったことを、破線枠線にて示している。なお、表示内容制御部27は、未観察領域I12Aaの表示方法と異なる表示方法によって撮影が行われて撮影済み領域I12Baとなったことを示せればよく、図23の表示方法に限定されるものではなく、各種表示方法を採用することができる。
(検査画面外領域)
図24は検査画面外領域を説明するための説明図である。
図24は管腔PA2内を先端部33c内の撮像素子31によって撮像している状態を示している。管腔PA2の矩形の枠は撮像素子31の撮像範囲PA2aを示している。即ち、図24の例では、ハッチングで示した未観察領域は、撮像範囲PA2aの範囲外、即ち、撮像素子31によって得られる検査画面外に存在する検査画面外領域PA2bである。
CPU21は、モデル生成部25及び未観察領域判定部26から撮影領域及び未観察領域に関する情報が与えられて、撮影領域外の未観察領域を検査画面外領域として分類する。CPU21は、検査画面外領域の分類結果を表示内容制御部27に出力する。表示内容制御部27は、検査画面外領域であることを示す表示を行う。
図25及び図26は検査画面外領域の表示方法の一例を示す説明図である。
図25の上段は、検査画面I13外に存在する検査画面外領域の方向及び距離を線分I13aによって表示する例を示している。線分I13aの表示位置及び種類により、検査画面外領域の方向及び距離を示す。即ち、線分I13aを検査画面I13の4辺のいずれの辺上に配置するかによって検査画面外領域の方向を示す。また、線分I13aの細線、破線、太線によって検査画面外領域が、撮影範囲から近距離にあるか、中距離にあるか、遠距離にあるかを示す。図25の上段の例では、検査画面外領域は、撮影範囲(検査画面)の天方向であって、遠距離に存在すること示している。なお、近距離、中距離、遠距離の閾値は、CPU21によって適宜設定変更可能である。なお、検査画面外領域までの距離及び方向については、線分の色や明るさ、太さ、長さ、種類等を変化させることで表現可能である。
図25の下段は、検査画面I13外に存在する検査画面外領域の方向及び距離を矢印I14aによって表示する例を示している。矢印I14aの向き及び太さにより、検査画面外領域の方向及び距離を示す。即ち、矢印I14aの向きによって検査画面外領域の方向を示す。また、矢印I14aの太さによって検査画面外領域が、撮影範囲から近距離にあるか、中距離にあるか、遠距離にあるかを示す。図25の下段の例では、矢印I14aが太いほど距離が近いことを示す。図25の下段の例は、検査画面外領域が、撮影範囲(検査画面)の斜め天方向であって、中距離に存在すること示している。なお、近距離、中距離、遠距離の閾値は、CPU21によって適宜設定変更可能である。なお、検査画面外領域までの距離及び方向については、矢印の色や明るさ、太さ、長さ、種類等を変化させることで表現可能である。また、図25では撮影範囲を基準にした検査画面外領域の方向を示す例を示したが、撮影範囲から検査画面外領域までのルートを表示するようになっていてもよい。
図26は検査画面外領域が位置する臓器名を示す例である。図26においては、検査画面I15外に存在する検査画面外領域の位置を、検査画面外領域が存在する臓器名で表している。図26の例では、臓器名表示I15aにより、検査画面外領域が上行結腸の部分に存在することを示している。
また、表示内容制御部27は、検査画面外領域についての各種情報を検査画面上に表示してもよい。CPU21は、未観察領域判定部26から情報を取得することで、検査画面外領域についての各種情報を取得し、取得した情報を表示内容制御部27に出力する。表示内容制御部27は、CPU21からの情報に基づく表示を検査画面上に表示する。
図27は検査画面外領域についての各種情報の表示例を示す説明図である。
図27の上段は、検査画面I16外に存在する検査画面外領域の数をカテゴリ表示する例を示している。例えば、表示内容制御部27は、検査画面外領域が5箇所以上の場合には「多」のカテゴリ表示I16aを表示し、検査画面外領域が5箇所未満の場合には「少」のカテゴリ表示I16aを表示する。図27の上段の例は、検査画面外領域が5箇所未満であることを示している。
図27の中段は、検査画面I17外に存在する検査画面外領域の数の絶対数表示I17aを表示する例を示している。図27の中段の例は、検査画面外領域の数が3であることを示している。
図27の下段は、検査画面I18外に存在する検査画面外領域のサイズをカテゴリ表示する例を示している。例えば、表示内容制御部27は、検査画面外領域のサイズを3段階に分けて、小さいサイズから大きいサイズに向かって「小」、「中」、「大」のカテゴリ表示I18aを表示してもよい。図27の下段の例は、検査画面外領域のサイズが中サイズであることを示している。
次に、このように構成された実施形態の動作について図19を参照して説明する。
内視鏡装置1の電源が投入された後、挿入部33が検査対象に挿入され、検査が開始される。撮像素子31は、画像生成回路40に駆動されて、患者の体内を撮像して複数枚の内視鏡画像を取得する(ステップS51)。撮像素子31からの撮像信号は画像生成回路40に供給されて所定の画像処理が施される。画像生成回路40は、撮像信号に基づく検査画像(内視鏡画像)を生成してモニタ60に出力する。こうして、モニタ60の表示画面60a上に、検査画像が表示される。
位置姿勢検出部12は、磁場発生装置50からの磁気センサデータを用いて内視鏡先端の位置を推定する(ステップS52)。位置姿勢検出部12が推定した内視鏡先端の位置及び姿勢は、プロセッサ20に供給される。また、画像生成回路40からの検査画像は、画像処理装置10にも供給される。画像取得部11は、受信した検査画像をプロセッサ20に供給する。プロセッサ20の入出力部23により検査画像は、モデル生成部25に供給される。モデル生成部25は、ステップS53において、臓器モデルを生成する(ステップS53)。
未観察領域判定部26は、モデル生成部25により生成された臓器モデルに囲まれた未観察領域を判定し(ステップS54)、判定結果をCPU21及び表示内容制御部27に出力する。CPU21は、未観察領域と内視鏡先端の位置関係に基づいて、未観察領域を、オクルージョン領域、観察時間の短い領域、撮影済み領域及び検査画面外領域に分類し、分類結果を表示内容制御部27に出力する。表示内容制御部27は、分類結果に応じて、検査画面及び臓器モデルをモニタ60の表示画面60a上に表示する(ステップS56)。
このように、本実施形態においては、未観察領域を、オクルージョン領域、観察時間の短い領域、撮影済み領域及び検査画面外領域の4つの分類項目に分類して表示していることから、術者は、何が原因で未観察領域になっているか等を把握することができ、次に観察すべき位置等の判断の一助とすることができる。
(第3の実施形態)
図28は本発明の第3の実施形態を示すフローチャートである。本実施形態のハードウェア構成は図1から図3の第1実施形態と同様である。本実施形態は未観察領域を内視鏡先端からの距離、検査フェーズ、観察ルートからの関係に基づいて表示を制御するものである。
CPU21は、未観察領域の表示制御のために、未観察領域と内視鏡先端との距離(ユークリッド距離)を算出する。CPU21は、位置姿勢推定部24から内視鏡先端の位置情報を取得し、未観察領域判定部26から未観察領域の位置情報を取得することで、未観察領域と内視鏡先端との距離を求める。
また、CPU21は、未観察領域の表示制御のために、診断、処置フェーズを判定すると共に、挿入部33の挿入抜去の困難な箇所を判定する。例えば、CPU21は、挿入や抜去の操作難易度が高い箇所における検査画像を教師データとして深層学習を行うことにより推論モデルを生成し、この推論モデルを用いることで、操作難易度が高い箇所を判定することが可能である。また、CPU21は、内視鏡30からの操作信号やAIを用いた処置具判定等によって、術者が集中した作業を行う必要がある診断や処置のフェーズを判定してもよい。また、CPU21は、未観察領域の表示制御のために、観察ルートの情報を取得する。例えば、CPU21は、記憶部22に観察ルートの情報を記憶させておき、位置姿勢推定部24、モデル生成部25及び未観察領域判定部26の出力を利用することで、観察ルート上のいずれの位置を観察中であるかを判定することが可能である。また、CPU21は、ユーザーに対して未観察領域へ到達するための操作方法情報を出力してもよい。例えば内視鏡先端をアップさせる、内視鏡を引き戻す、内視鏡を押し込むなどの情報を出力しても良い。
CPU21は、取得した各種情報を表示内容制御部27に出力する。表示内容制御部27は、CPU21からの各種情報に基づいて、未観察領域の表示を制御する。
(距離表示制御)
図29は管腔PA3内を先端部33c内の撮像素子31によって撮像している状態を示す説明図である。管腔PA3にはハッチングで示した未観察領域PA3aが存在する。CPU21は、モデル生成時に算出した未観察領域PA3aの座標と内視鏡先端の座標とのユークリッド距離を、撮像素子31と未観察領域PA3aとの間の距離dとして算出する。CPU21は、距離dの情報を表示内容制御部27に出力する。また、CPU21は、表示のオン、オフを決定するための閾値θを生成して表示内容制御部27に出力する。
臓器モデル生成の過程においては、撮像素子31の近傍の領域は未観察領域となる部分が多く、撮像素子31近傍の領域を未観察領域として検査画面上に表示すると、観察部位の視認性が低下し、観察し難くなることが考えられる。そこで、本実施形態では閾値θよりも近い距離に存在する未観察領域については表示しないように制御する。
表示内容制御部27は、未観察領域判定部26から未観察領域についての情報が与えられると共に、CPU21から各未観察領域に距離d及び閾値θの情報が与えられる。表示内容制御部27は、未観察領域との距離dが閾値θを超えた場合には、当該未観察領域を検査画面上に表示する。
また、CPU21は、撮像素子31が操作難易度の高い部位を通過する前に閾値θの値を小さくする。例えば、大腸検査において、S状結腸や脾彎曲部等のように、挿入部33の挿入や抜去の難しい部位の手前では閾値θを小さくする。これにより、検査画面上には、撮像素子31から比較的近い距離の未観察領域も表示されることになる。術者は、未観察領域がなくなるように、挿入部33の湾曲操作を行う。これにより、このような部位において未観察領域が見過ごされ難くなり、挿入部33の挿入、抜去を何度も繰り返してしまうことを防ぐことができる。
また、CPU21は、診断や処置の直後は閾値θを小さくする。診断や処置時等においては、術者は一定箇所に一定時間集中して作業を行うことが多い。そうすると、このような箇所の作業の前に観察すべきと記憶していた未観察領域について、観察し忘れてしまうことが考えられる。そこで、このような処置の直後においては、撮像素子31から比較的近い距離の未観察領域も表示する。例えば、CPU21は、通常光観察とNBI(狭帯域光)観察の切換えや、拡大、縮小操作等の検出、AIを用いた処置具検出等によって、このようなフェーズを認識して閾値θを小さくする。
(視点制御)
図30は距離dに応じた視点制御を説明するための説明図である。表示内容制御部27は、距離dに応じて、臓器モデルの表示視点を制御してもよい。
図30の上段は、距離dが比較的小さい場合の臓器モデル表示IT11を示しており、図30の下段は、距離dが比較的大きい場合の臓器モデル表示IT12を示している。図30の上段に示す臓器モデル表示IT11は、管腔の臓器モデルの画像IT11aiと撮像素子31の画像33aiと、未観察領域の画像Ru11とを含み、撮像素子31の進行方向の視点で表示したものである。
図30の下段に示す臓器モデル表示IT12は、管腔の臓器モデルの画像IT12aiと撮像素子31の画像33biと、未観察領域の画像Ru12とを含み、臓器モデル表示IT12を俯瞰した視点で表示したものである。
(拡大率制御)
図31は距離dに応じた拡大率制御を説明するための説明図である。表示内容制御部27は、距離dに応じて、臓器モデルの拡大率を制御してもよい。
図31の上段臓器モデル表示IT13Lは、撮像素子31と未観察領域との距離dが比較的小さい場合における表示を示しており、臓器モデル表示IT13Sは、撮像素子31の未観察領域との距離dが比較的大きい場合における表示を示している。
臓器モデル表示IT13S,IT13Lは、例えば、同一被検体の腸管の臓器モデルに基づくものである。臓器モデル表示IT13Sは、臓器モデルの先端から略撮像素子31の位置までの比較的広い範囲の臓器モデルを比較的小さい表示拡大率で表示していることを示している。臓器モデル表示IT13Sは、臓器モデルの画像IT13Siと撮像素子31の画像31bSiと未観察領域の画像Ru13Sとを含む。
また、臓器モデル表示IT5Lは、撮像素子31の位置近傍の比較的狭い範囲の臓器モデルを比較的大きい表示拡大率で表示していることを示している。臓器モデル表示IT13Lは、臓器モデルの画像IT13Liと撮像素子31の画像31bLiと未観察領域の画像Ru13Lとを含む。
(強調)
図32は距離に応じた強調表示を説明するための説明図である。表示内容制御部27は、距離dに応じて、未観察領域の強調度合いを制御してもよい。
図32の左側は、検査画面I31内に存在する未観察領域を四角枠の画像I31aによって示している。この未観察領域と撮像素子31との距離dは、撮像素子31が移動することによって変化する。図32の中央はこの場合の検査画面I32の例を示しており、撮像素子31の移動によって距離dが大きくなった例を示している。表示内容制御部27は、距離dが第1の閾値以上になった場合には、未観察領域を示す四角枠の画像I32aを点滅表示してもよい。
撮像素子31が移動することによって距離dが更に大きくなるものとする。図32の右側はこの場合の検査画面I33の表示例を示している。表示内容制御部27は、距離dが第1の閾値以上の場合には、未観察領域を示す四角枠の画像I33aの点滅速度を距離dに応じて速くする。
このような未観察領域の強調表示によって、術者が未観察領域を見落としてしまうことを防止する。なお、点滅制御だけでなく、輝度の変化や四角枠の太さを変化させる等の各種強調表示を採用してもよい。
(観察ルート逸脱)
図33は観察ルートに応じた表示制御を説明するための説明図である。表示内容制御部27は、観察ルートに応じて、臓器モデルの表示制御を行ってもよい。
CPU21は、臓器の観察ルートの情報を取得し、取得した情報を表示内容制御部27に出力する。表示内容制御部27は、内視鏡先端位置の領域の観察ルート順番と、未観察領域位置の観察ルート順番とを比較して、未観察領域位置の観察ルート順番が後の場合には当該未観察領域は表示しない。
図33は胃の臓器モデル表示IT14iを示している。なお、臓器モデル表示IT14i中の区画及び各区画中の数字は、観察ルートの順番を示すものであり、画面上では表示は省略される。図33の中段においてハッチングの画像IT14aiは未観察領域が区画2に存在することを示しており、図33の下段においてハッチングの画像IT14biは未観察領域が区画5に存在することを示している。
このように、区画2及び区画5に、未観察領域が存在するものとする。撮像素子31による観察は、区画1から区画の番号順に行われる。いま、撮像素子31が区画2に位置して区画2の領域を観察中であるものとする。この場合には、図33の中段に示すように、表示内容制御部27は、区画2の未観察領域を示す画像IT14aiを表示し、観察中の区画よりも観察ルート順番が後の区画5の未観察領域については表示しない。
観察が進んで、撮像素子31が区画5に到達して区画5の領域を観察する状態になるものとする。そうすると、図33の下段に示すように、表示内容制御部27は、区画5の未観察領域を示す画像IT14biを表示する。
このように、観察ルートに応じて未観察領域の表示を制御していることから、観察をスムーズに行いやすくなる。
なお、図33の例では、現在観察中の区画よりも観察ルート順番が後の区画については未観察領域を表示しない例を示したが、低輝度で表示する等の手法を採用してもよい。
次に、このように構成された実施形態の動作について図28を参照して説明する。
内視鏡装置1の電源が投入された後、挿入部33が検査対象に挿入され、検査が開始される。撮像素子31は、画像生成回路40に駆動されて、患者の体内を撮像して複数枚の内視鏡画像を取得する(ステップS61)。撮像素子31からの撮像信号は画像生成回路40に供給されて所定の画像処理が施される。画像生成回路40は、撮像信号に基づく検査画像(内視鏡画像)を生成してモニタ60に出力する。こうして、モニタ60の表示画面60a上に、検査画像が表示される。
画像生成回路40からの検査画像は、画像処理装置10にも供給される。画像取得部11は、受信した検査画像をプロセッサ20に供給する。プロセッサ20の入出力部23により検査画像は、位置姿勢推定部24及びモデル生成部25に供給される。モデル生成部25は、臓器モデルを生成し(ステップS62)、位置姿勢推定部24は、内視鏡先端位置を求める(ステップS63)。
未観察領域判定部26は、モデル生成部25により生成された臓器モデルに囲まれた未観察領域を判定し(ステップS64)、判定結果をCPU21及び表示内容制御部27に出力する。CPU21は、未観察領域と内視鏡先端の位置関係に基づいて、未観察領域と内視鏡先端との間の距離dを算出すると共に閾値θを求める。CPU21は、距離d及び閾値θを表示内容制御部27に出力して表示を制御する(ステップS65)。
CPU21は、検査フェーズを判定し、判定結果を表示内容制御部27に与えて表示を制御する(ステップS66)。また、CPU21は、各未観察領域について観察ルートから逸脱した未観察領域であるか否かを判定し、判定結果を表示内容制御部27に与えて表示を制御する(ステップS67)。表示内容制御部27は、CPU21の出力に基づいて表示を制御する(ステップS68)。なお、ステップS65~S68については、これらの処理の少なくとも1つを実行すればよく、また、実行順も特に限定されるものではない。
このように、本実施形態においては、内視鏡先端との距離、検査フェーズ、観察ルートに基づいて未観察領域の表示を制御していることから、術者は、検査画面や臓器モデルによる観察がしやすくなるという効果がある。
本発明は、上記各実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。

Claims (12)

  1. プロセッサを具備し、
    前記プロセッサは、
    被検体内を観察中の内視鏡から画像情報を取得し、
    前記取得した画像情報から臓器モデルを生成し、
    前記臓器モデルのうち前記内視鏡が観察していない未観察領域を特定し、
    前記臓器モデルに対する前記内視鏡の撮像視野の天地及び方位を推定し、
    前記撮像視野の天地及び方位に基づき前記臓器モデルの表示方向を設定し、
    特定された前記未観察領域を前記臓器モデルと紐づけた臓器モデルをモニタに出力することを特徴とする画像処理装置。
  2. 前記プロセッサは、前記臓器モデルの天地方向と、前記内視鏡の観察画像の天地方向とを一致させる
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記プロセッサは、表示中の前記臓器モデルを前記内視鏡の視点に合わせて回転させる視点方向制御を行う
    ことを特徴とする請求項1に記載の画像処理装置。
  4. 前記プロセッサは、撮影領域を前記臓器モデル上に表示する
    ことを特徴とする請求項1に記載の画像処理装置。
  5. 前記プロセッサは、前記未観察領域と前記内視鏡の位置関係情報を表示する
    ことを特徴とする請求項1に記載の画像処理装置。
  6. 前記位置関係情報は、前記内視鏡の先端位置から前記未観察領域へのルートを示す情報である
    ことを特徴とする請求項5に記載の画像処理装置。
  7. 前記位置関係情報は、前記内視鏡の先端位置から前記未観察領域までの距離を示す情報である
    ことを特徴とする請求項5に記載の画像処理装置。
  8. 前記プロセッサは、前記内視鏡を現在位置から前記未観察領域に向けて、ユーザーが移動させるための内視鏡操作情報を報知部に出力する
    ことを特徴とする請求項1に記載の画像処理装置。
  9. 前記プロセッサは、前記未観察領域の位置する臓器名を表示する
    ことを特徴とする請求項1に記載の画像処理装置。
  10. 前記プロセッサは、前記未観察領域の数または面積を表示する
    ことを特徴とする請求項1に記載の画像処理装置。
  11. 内視鏡と、
    プロセッサを含む画像処理装置と、
    モニタとを含み、
    前記プロセッサは、
    被検体内を観察中の内視鏡から画像情報を取得し、
    取得した前記画像情報から臓器モデルを生成し、
    前記臓器モデルのうち前記内視鏡が観察していない未観察領域を特定し、
    前記臓器モデルに対する前記内視鏡の位置および姿勢を推定し、
    前記内視鏡の位置および姿勢に基づき前記臓器モデルの表示方向を設定し、
    特定された前記未観察領域を前記臓器モデルと紐づけた臓器モデルを前記モニタに出力する
    ことを特徴とする内視鏡装置。
  12. 画像取得部とプロセッサとを備えた画像処理装置の作動方法であって、
    前記画像取得部が被検体内を観察中の内視鏡から画像情報を取得し、
    前記プロセッサが前記画像取得部にて取得した画像情報から臓器モデルを生成する臓器モデル生成し、前記臓器モデルのうち前記内視鏡が観察していない未観察領域を特定する未観察領域特定し、前記臓器モデルに対する前記内視鏡の位置および姿勢を推定する位置姿勢推定し、前記内視鏡の位置および姿勢に基づき前記臓器モデルの表示方向を設定し、特定された前記未観察領域を前記臓器モデルと紐づけた臓器モデルをモニタに出力することを特徴とする画像処理装置の作動方法。
JP2023534507A 2021-07-14 2021-07-14 画像処理装置、内視鏡装置及び画像処理装置の作動方法 Active JP7506264B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/026430 WO2023286196A1 (ja) 2021-07-14 2021-07-14 画像処理装置、内視鏡装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2023286196A1 JPWO2023286196A1 (ja) 2023-01-19
JP7506264B2 true JP7506264B2 (ja) 2024-06-25

Family

ID=84919922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023534507A Active JP7506264B2 (ja) 2021-07-14 2021-07-14 画像処理装置、内視鏡装置及び画像処理装置の作動方法

Country Status (4)

Country Link
US (1) US20240062471A1 (ja)
JP (1) JP7506264B2 (ja)
CN (1) CN117255642A (ja)
WO (1) WO2023286196A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014083289A (ja) 2012-10-25 2014-05-12 Olympus Corp 挿入システム、挿入支援装置、挿入支援方法及びプログラム
WO2014168128A1 (ja) 2013-04-12 2014-10-16 オリンパスメディカルシステムズ株式会社 内視鏡システム及び内視鏡システムの作動方法
WO2019130868A1 (ja) 2017-12-25 2019-07-04 富士フイルム株式会社 画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014083289A (ja) 2012-10-25 2014-05-12 Olympus Corp 挿入システム、挿入支援装置、挿入支援方法及びプログラム
WO2014168128A1 (ja) 2013-04-12 2014-10-16 オリンパスメディカルシステムズ株式会社 内視鏡システム及び内視鏡システムの作動方法
WO2019130868A1 (ja) 2017-12-25 2019-07-04 富士フイルム株式会社 画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
US20240062471A1 (en) 2024-02-22
JPWO2023286196A1 (ja) 2023-01-19
WO2023286196A1 (ja) 2023-01-19
CN117255642A (zh) 2023-12-19

Similar Documents

Publication Publication Date Title
US20220192777A1 (en) Medical observation system, control device, and control method
CN105188594B (zh) 根据解剖特征对内窥镜的机器人控制
JP6254053B2 (ja) 内視鏡画像診断支援装置、システムおよびプログラム、並びに内視鏡画像診断支援装置の作動方法
WO2013141155A1 (ja) 画像内遮蔽領域の画像補完システム、画像処理装置及びそのプログラム
JP5750669B2 (ja) 内視鏡システム
WO2020261956A1 (en) Medical tool control system, controller, and non-transitory computer readable storage
KR20140108066A (ko) 내시경 시스템 및 그 제어방법
WO2021166103A1 (ja) 内視鏡システム、管腔構造算出装置及び管腔構造情報の作成方法
CN110461205A (zh) 手术成像系统、手术用图像处理设备以及用于控制成像过程的方法
JPWO2015046152A1 (ja) 内視鏡システム
WO2021171465A1 (ja) 内視鏡システム及び内視鏡システムによる管腔走査方法
WO2022019318A2 (en) Medical arm control system, medical arm control method, medical arm simulator, medical arm learning model, and associated programs
CN111067468A (zh) 用于控制内窥镜系统的方法、设备及存储介质
JPWO2020054566A1 (ja) 医療用観察システム、医療用観察装置及び医療用観察方法
US20240115338A1 (en) Endoscope master-slave motion control method and surgical robot system
US20220409030A1 (en) Processing device, endoscope system, and method for processing captured image
CN114980793A (zh) 内窥镜检查辅助装置、内窥镜检查辅助装置的工作方法以及程序
CA3190749A1 (en) Devices, systems, and methods for identifying unexamined regions during a medical procedure
JP7464060B2 (ja) 画像処理装置、制御方法及びプログラム
US20240057847A1 (en) Endoscope system, lumen structure calculation system, and method for creating lumen structure information
JP7506264B2 (ja) 画像処理装置、内視鏡装置及び画像処理装置の作動方法
KR101601021B1 (ko) 자이로 센서를 이용한 3d 내시경 시스템
WO2022202520A1 (ja) 医療情報処理装置、内視鏡システム、医療情報処理方法、及び医療情報処理プログラム
KR20200132174A (ko) 증강현실 대장 내시경 시스템 및 이를 이용한 모니터링 방법
WO2024029502A1 (ja) 内視鏡検査支援装置、内視鏡検査支援方法、及び、記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240529

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20240529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240613

R150 Certificate of patent or registration of utility model

Ref document number: 7506264

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150