JP6242543B2 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP6242543B2
JP6242543B2 JP2017521261A JP2017521261A JP6242543B2 JP 6242543 B2 JP6242543 B2 JP 6242543B2 JP 2017521261 A JP2017521261 A JP 2017521261A JP 2017521261 A JP2017521261 A JP 2017521261A JP 6242543 B2 JP6242543 B2 JP 6242543B2
Authority
JP
Japan
Prior art keywords
image
region
unit
dimensional
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017521261A
Other languages
English (en)
Other versions
JPWO2017057330A1 (ja
Inventor
秋本 俊也
俊也 秋本
誠一 伊藤
誠一 伊藤
大西 順一
順一 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of JPWO2017057330A1 publication Critical patent/JPWO2017057330A1/ja
Application granted granted Critical
Publication of JP6242543B2 publication Critical patent/JP6242543B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/0002Operational features of endoscopes provided with data storages
    • A61B1/00022Operational features of endoscopes provided with data storages removable
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00112Connection or coupling means
    • A61B1/00117Optical cables in or with an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00112Connection or coupling means
    • A61B1/00121Connectors, fasteners and adapters, e.g. on the endoscope handle
    • A61B1/00126Connectors, fasteners and adapters, e.g. on the endoscope handle optical, e.g. for light supply cables
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0669Endoscope light sources at proximal end of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/07Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/307Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the urinary organs, e.g. urethroscopes, cystoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/062Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/14507Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue specially adapted for measuring characteristics of body fluids other than blood
    • A61B5/1451Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue specially adapted for measuring characteristics of body fluids other than blood for interstitial fluid
    • A61B5/14514Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue specially adapted for measuring characteristics of body fluids other than blood for interstitial fluid using means for aiding extraction of interstitial fluid, e.g. microneedles or suction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/30Polynomial surface description
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Urology & Nephrology (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Algebra (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Description

本発明は、内視鏡を用いて被検体を観察する際に用いられる画像処理装置及び画像処理方法に関する。
近年、内視鏡を用いた内視鏡システムは、医療分野及び工業用分野において広く用いられている。例えば、医療分野においては、内視鏡を被検体内における複雑な管腔形状を有する臓器の内部に挿入し、その内部を詳細に観察又は検査することが必要になる場合がある。
例えば、日本国特許第5354494号の従来例は、内視鏡により観察した領域を提示するために、内視鏡により撮像した内視鏡画像から臓器の内腔形状を生成し、表示する内視鏡システムが提案されている。
このように、内視鏡により取得される画像は、2次元画像であるため、2次元画像から3次元形状画像を生成することが必要になる。そして、日本国特許第5354494号では、2次元画像から3次元形状画像を生成するアルゴリズムが提案されているものの、当該生成された3次元形状画像がどのように表示されるかについては開示も示唆もなされていない。すなわち、日本国特許第5354494号によれば、3次元形状画像をユーザに見易く表示する機能が欠けている。
本発明は上述した点に鑑みてなされたもので、未構築領域を視認し易く表示する3次元モデル画像を生成する画像処理装置及び画像処理方法を提供することを目的とする。
本発明の一態様の画像処理装置は、被検体内を撮像する撮像装置から前記被検体内における領域に関する撮像信号が入力された場合に前記撮像信号に基づいて前記領域の形状を示す3次元データを生成する3次元モデル構築部と、前記3次元モデル構築部により生成された前記3次元データに対して、前記撮像装置により撮像された領域である構築領域と、前記撮像装置により未だ撮像されていない領域である未構築領域と、の境界領域を視認可能とする処理を行うとともに3次元画像を生成す画像生成部と、を備える。
本発明の一態様の画像処理方法は、3次元モデル構築部が、被検体内を撮像する撮像装置から前記被検体内における領域に関する撮像信号が入力された場合に前記撮像信号に基づいて前記領域の形状を示す3次元データを生成し、画像生成部が、前記3次元モデル構築部により生成された前記3次元データに対して、前記撮像装置により撮像された領域である構築領域と、前記撮像装置により未だ撮像されていない領域である未構築領域と、の境界領域を視認可能とする処理を行うとともに3次元画像を生成する。
図1は本発明の第1の実施形態の内視鏡システムの全体構成を示す図。 図2は第1の実施形態における画像処理装置の構成を示す図。 図3Aは内視鏡の挿入部が挿入された状態の腎盂・腎杯を示す説明図。 図3Bは内視鏡の挿入動作に伴う観察領域の変化に応じてモニタに表示される3Dモデル画像が更新される様子の一例を示す図。 図3Cは内視鏡の挿入動作に伴う観察領域の変化に応じてモニタに表示される3Dモデル画像が更新される様子の一例を示す図。 図3Dは内視鏡の挿入動作に伴う観察領域の変化に応じてモニタに表示される3Dモデル画像が更新される様子の一例を示す図。 図4は3Dモデル画像の構築に使用されるポリゴンとしての3角形の頂点に順序に対応する表の面と、法線ベクトルとの関係を示す図。 図5は第1の実施形態の画像処理方法の処理を示すフローチャート。 図6は第1の実施形態の処理内容を示すフローチャート。 図7は3D形状の面にポリゴンを設定した様子を示す説明図。 図8は図6における法線ベクトルを設定し、内面と外面の判定をする処理の詳細を示すフローチャート。 図9は、図7のように設定した際に作成されるポリゴンリストを示す図。 図10は、図9のポリゴンリストに対して、法線ベクトルを設定して生成されるポリゴンリストを示す図。 図11は 観察された内面を描画するように設定され、隣接する各ポリゴンに、それぞれ法線ベクトルが設定された様子を示す図。 図12は先端部に位置センサが設けられている場合、位置センサの位置情報を用いて法線ベクトルの向きを判定する動作の説明図。 図13は強調表示を選択しない場合にモニタに表示される3Dモデル画像を示す図。 図14は3Dモデル画像における境界周辺を模式的に示す図。 図15は、図14の場合に対応したポリゴンリストを示す図。 図16は境界辺の抽出により、作成される境界リストを示す図。 図17は強調表示が選択された場合にモニタに表示される3Dモデル画像を示す図。 図18は第1の実施形態の内視鏡システムの第1変形例の処理内容を示すフローチャート。 図19は、図18の動作説明用の説明図。 図20は第1変形例において強調表示が選択された場合にモニタに表示される3Dモデル画像を示す図。 図21は第1の実施形態の内視鏡システムの第2変形例の処理内容を示すフローチャート。 図22は第2変形例の処理の説明図。 図23は第2変形例により生成され、モニタに表示される3Dモデル画像を示す図。 図24は第1の実施形態の内視鏡システムの第3変形例の処理内容を示すフローチャート。 図25は第3変形例の処理の説明図。 図26は第3変形例により生成され、モニタに表示される3Dモデル画像を示す図。 図27は第1の実施形態の内視鏡システムの第4変形例の処理内容を示すフローチャート。 図28は第4変形例の処理の説明図。 図29は第4変形例により生成され、モニタに表示される3Dモデル画像を示す図。 図30Aは第1の実施形態の第5変形例における画像処理装置の構成を示す図。 図30Bは第1の実施形態の内視鏡システムの第5変形例の処理内容を示すフローチャート。 図31は第5変形例により生成され、モニタに表示される3Dモデル画像を示す図。 図32は第1の実施形態の内視鏡システムの第6変形例の処理内容を示すフローチャート。 図33は第6変形例により生成され、モニタに表示される3Dモデル画像を示す図。 図34は第1の実施形態の第7変形例における画像処理装置の構成を示す図。 図35は第7変形例の処理内容を示すフローチャート。 図36は強調表示と指標表示が選択された場合において第7変形例により生成され、モニタに表示される3Dモデル画像を示す図。 図37は強調表示が選択されない状態において指標表示が選択された場合において第7変形例により生成され、モニタに表示される3Dモデル画像を示す図。 図38は第1の実施形態の第8変形例における指標を生成する処理内容を示すフローチャート。 図39は図38の説明図。 図40は図38の変形例の説明図。 図41は第8変形例により生成され、モニタに表示される3Dモデル画像を示す図。 図42は第1の実施形態の第9変形例における画像処理装置の構成を示す図。 図43Aは第9変形例により生成され、モニタに表示される3Dモデル画像を示す図。 図43Bは回転する前の3Dモデル画像を示す図。 図43Cは回転する前の3Dモデル画像を示す図。 図43Dは未構築領域を拡大して表示する場合の説明図。 図44は第1の実施形態の第10変形例における画像処理装置の構成を示す図。 図45は閾値以下及び閾値以上の境界を有する3D形状データを示す図。 図46は判定部による判定対象の3D形状データとその主成分の軸の方向を示す図。 図47は図46の境界の座標を第1主成分の軸に垂直な面に投影した図。 図48は第1の実施形態の第11変形例における画像処理装置の構成を示す図。 図49は第11変形例の処理内容を示すフローチャート。 図50は第11変形例の処理の説明図。 図51は第11変形例により生成される芯線画像を示す図。 図52は第1の実施形態の第12変形例における画像処理装置の構成を示す図。
以下、図面を参照して本発明の実施形態を説明する。
(第1の実施形態)
図1に示す内視鏡システム1は、被検体内に挿入される内視鏡2Aと、該内視鏡2Aに照明光を供給する光源装置3と、内視鏡2Aに設けられた撮像部に対する信号処理を行う信号処理装置としてのビデオプロセッサ4と、ビデオプロセッサ4により生成された内視鏡画像を表示する内視鏡画像表示装置としてのモニタ5と、内視鏡2A内に設けられたセンサに基づいて内視鏡2Aの挿入部形状を検出する挿入部形状検出装置としてのUPD装置6と、2次元画像から3次元(3Dとも表記)モデル画像を生成する画像処理を行う画像処理装置7と、該画像処理装置7により生成した3Dモデル画像を表示する表示装置としてのモニタ8とを有する。なお、図1に実線で示すUPD装置6と別体の画像処理装置7の代わりに、点線で示すようにUPD装置6を含む構成の画像処理装置7Aを用いるようにしても良い。また、3次元モデル画像を生成する処理に位置情報も画像から推定する場合はUPD装置6を設けなくてもよい。
内視鏡2Aは、患者9における観察対象の被検体となる所定の管腔臓器(単に管腔臓器とも言う)の一部を形成する例えば尿管10内に挿入される挿入部11と、この挿入部11の後端(基端)に設けられた操作部12と、操作部12から延出されるユニバーサルケーブル13とを有し、ユニバーサルケーブル13の端部に設けたライトガイドコネクタ14は、光源装置3のライトガイドコネクタ受けに着脱自在に接続される。
なお、尿管10は、その深部側において腎盂51a、腎杯51bに連通する(図3A参照)。
挿入部11は、その先端に設けられた先端部15と、該先端部15の後端に設けられた湾曲可能な湾曲部16と、該湾曲部16の後端から操作部12の前端まで延びる可撓性を有する可撓管部17とを有する。
操作部12には湾曲部16を湾曲操作するための湾曲操作ノブ18が設けられている。
図1における一部の拡大図で示すように挿入部11内には、照明光を伝送するライトガイド19が挿通されており、このライトガイド19の先端は、先端部15の照明窓に取り付けられ、ライトガイド19の後端は、ライトガイドコネクタ14に至る。
ライトガイドコネクタ14には、光源装置3の光源ランプ21で発生した照明光が集光レンズ22により集光されて入射され、ライトガイド19は伝送した照明光を照明窓に取り付けられた先端面から出射する。
照明光により照明された管腔臓器内の観察対象部位(被写体とも言う)は、先端部15の照明窓に隣接して設けられた観察窓(撮像窓)に取り付けられた対物光学系23によりその結像位置に光学像が結像される。対物光学系23の結像位置には、撮像素子としての例えば電荷結合素子(CCDと略記)24の撮像面が配置される。このCCD24は、所定の画角(視野角)を有する。
対物光学系23と、CCD24は、管腔臓器内を撮像する撮像部(又は撮像装置)25を形成する。なお、CCD24の画角は、対物光学系23の光学特性(例えば焦点距離)にも依存するために、対物光学系23の光学特性を考慮に入れた撮像部25の画角や、または対物光学系を用いて観察する場合の画角と言うこともできる。
CCD24は、挿入部11内などを挿通された信号線26の一端と接続され、該信号線26の他端はライトガイドコネクタ14に接続される接続ケーブル27(内の信号線)を介して該接続ケーブル27の端部の信号コネクタ28に至る。この信号コネクタ28はビデオプロセッサ4の信号コネクタ受けに着脱自在に接続される。
ビデオプロセッサ4は、CCD駆動信号を発生するドライバ31と、CCD24の出力信号に対する信号処理を行い、モニタ5に内視鏡画像として表示する画像信号(映像信号)を生成する信号処理回路32とを有する。ドライバ31は、信号線26等を介してCCD24にCCD駆動信号を印加し、CCD駆動信号の印加によりCCD24は、撮像面に結像された光学像を光電変換した撮像信号を出力信号として出力する。
すなわち、撮像部25は、対物光学系23及びCCD24を具備し、挿入部11からの照明光が照射される被検体の内部の領域からの戻り光を受光して2次元撮像信号を順次生成するとともに、当該生成した2次元撮像信号を出力するように構成されている。
CCD24から出力される撮像信号は、信号処理回路32により画像信号に変換され、信号処理回路32は、出力端からモニタ5に画像信号を出力する。モニタ5は、CCD24の撮像面に結像された所定の画角(の範囲)で撮像された光学像に対応する画像を内視鏡画像表示エリア(単に画像表示エリアと略記)5aにおいて内視鏡画像として表示する。図1においては、CCD24の撮像面が例えば正方形の場合において、その4つの隅を切り欠いた8角形に近い内視鏡画像を表示する様子を示す。
内視鏡2Aは、例えばライトガイドコネクタ14内に、該内視鏡2Aに固有の情報を格納したメモリ30を有し、このメモリ30は、内視鏡2Aに搭載されたCCD24が有する画角を表す情報としての画角データ(又は画角情報)を格納している。また、光源装置3は、ライトガイドコネクタ14が光源装置3に接続された際に、光源装置3内部に設けた読出回路29aが、メモリ30に接続された電気接点を介して画角データを読み出す。
読出回路29aは、読み出した画角データを、通信線29bを介して画像処理装置7に出力する。また、読出回路29aは、読み出したCCD24の画素数データを通信線29cを介してビデオプロセッサ4のドライバ31と信号処理回路32に出力する。ドライバ31は、入力された画素数データに応じたCCD駆動信号を発生し、信号処理回路32は画素数データに対応した信号処理を行う。
なお、図1に示す構成例においてはメモリ30の固有の情報を読み出す読出回路29aを光源装置3に設けた場合で示しているが、読出回路29aをビデオプロセッサ4に設けるようにしても良い。
上記信号処理回路32は、生成した例えばデジタルの画像信号としての2次元の内視鏡画像データ(画像データとも言う)を画像処理装置7に入力する入力部を形成する。
挿入部11内には、挿入部11が被検体内に挿入された場合の挿入形状を検出するためのセンサとなる複数のソースコイル34が挿入部11の長手方向に沿って、適宜の間隔で配置されている。また、先端部15内においては、挿入部11の長手方向に沿って配置された2つのソースコイル34a,34bと、例えば2つのソースコイル34a,34bを結ぶ線分と直交する方向に配置されたソースコイル34cとが配置されている。そして、ソースコイル34a,34bを結ぶ線分方向が撮像部25を構成する対物光学系23の光軸方向(又は視線方向)とほぼ一致し、3つのソースコイル34a,34b,34cを含む面がCCD24の撮像面における上下方向にほぼ一致するように配置されている。
このため、UPD装置6内の後述するソースコイル位置検出回路39は、3つのソースコイル34a,34b,34cの3次元位置を検出することにより、先端部15の3次元位置及び先端部15の長手方向を検出することができると言えるし、先端部15においての3つのソースコイル34a,34b,34cの3次元位置を検出することにより、3つのソースコイル34a,34b,34cからそれぞれ既知の距離離れて配置された撮像部25を構成する対物光学系23の3次元位置及び対物光学系23の視線方向(光軸方向)を検出することができるとも言える。
ソースコイル位置検出回路39は、対物光学系23の3次元位置及び視線方向の情報を取得する情報取得部を形成する。
なお、図1に示す内視鏡2Aにおける撮像部25は、対物光学系23の結像位置にCCD24の撮像面を配置した構成であるが、対物光学系23とCCDとの間に対物光学系23の光学像を伝送するイメージガイドを用いた構成の撮像部を備えた内視鏡の場合にも適用できる。
3つのソースコイル34a,34b,34cを含む上記複数のソースコイル34は、複数の信号線35の一端に接続され、複数の信号線35の他端は、ライトガイドコネクタ14から延出されるケーブル36と接続され、該ケーブル36の端部の信号コネクタ36aはUPD装置6の信号コネクタ受けに着脱自在に接続される。
UPD装置6は、上記複数のソースコイル34を駆動して、各ソースコイル34の周囲に交流磁場を発生させるソースコイル駆動回路37と、各ソースコイルが発生する磁場を検出して、各ソースコイルの3次元位置を検出するための複数のセンスコイルからなるセンスコイルユニット38と、複数のセンスコイルによる検出信号により、各ソースコイルの3次元位置を検出するソースコイル位置検出回路39と、ソースコイル位置検出回路39により検出された、各ソースコイルの3次元位置から挿入部11の挿入形状を検出して挿入形状の画像を生成する挿入形状検出回路40とを有する。
各ソースコイルの3次元位置は、UPD装置6による座標系の下で検出され、この座標系で3次元位置が管理される。
上述したように上記ソースコイル位置検出回路39は、対物光学系23の観察位置(3次元位置)及び視線方向の情報を取得する情報取得部を構成する。より狭義には、ソースコイル位置検出回路39と3つのソースコイル34a,34b,34cは、対物光学系23の観察位置及び視線方向の情報を取得する情報取得部を構成するとも言える。
本実施形態の内視鏡システム1(及び画像処理装置7)は、図1において2点鎖線により示す内視鏡2Bを(内視鏡2Aの代わりに)用いることもできる。
この内視鏡2Bは、内視鏡2Aにおいてのソースコイル34を有しない挿入部11を備える。このため、先端部15内にも、拡大図に示すようにソースコイル34a,34b,34cが配置されていない内視鏡である。この内視鏡2Bが、光源装置3と、ビデオプロセッサ4に接続された場合、ライトガイドコネクタ14内のメモリ30の固有情報を読出回路29aが読み出し、画像処理装置7に出力する。画像処理装置7は、内視鏡2Bが、ソースコイルが設けられていない種別の内視鏡であることを認識する。
また、画像処理装置7は、UPD装置6を使用しないで、画像処理により対物光学系23の観察位置及び視線方向を推定する。
また、本実施形態の内視鏡システム1においては、図示しないが、先端部15内に、先端部15に設けられた対物光学系23の観察位置及び視線方向を検出可能にするソースコイル34a,34b,34cを設けた内視鏡(2Cとする)を用いて、腎盂・腎杯内を検査することもできる。
このように本実施形態においては、内視鏡2I(I=A,B,C)に設けられた識別情報を利用して、位置センサを有する内視鏡2A(又は2C)と、位置センサを有しない内視鏡2Bとのいずれの内視鏡においても、腎盂・腎杯内を検査し、検査した際に取得される2次元の画像データから、後述するように3Dモデル画像を構築する。
内視鏡2Aが使用されている場合においては、上記挿入形状検出回路40は、内視鏡2Aの挿入形状の画像信号を出力する第1の出力端と、ソースコイル位置検出回路39が検出した対物光学系23の観察位置及び視線方向のデータ(位置及び方向データとも言う)を出力する第2の出力端とを有する。そして、第2の出力端から画像処理装置7に、観察位置及び視線方向のデータを出力する。なお、第2の出力端から出力する観察位置及び視線方向のデータを、情報取得部を構成するソースコイル位置検出回路39が出力するようにしても良い。
図2は、画像処理装置7の構成を示す。画像処理装置7は、画像処理装置7の動作制御を行う制御部41と、3D形状データ(又は3Dモデルデータ)と3Dモデル画像を生成(又は構築)する画像処理部42と、画像データ等の情報を記憶する情報記憶部43とを有する。
また、画像処理部42により生成された3Dモデル画像の画像信号は、モニタ8に出力され、モニタ8は画像処理部42により生成された3Dモデル画像を表示する。
また、制御部41と画像処理部42は、キーボード、マウス等から構成される入力装置44と接続され、術者等のユーザは、入力装置44の表示色設定部44aから3Dモデル画像を表示する場合の表示色の選択(又は設定)を行ったり、強調表示選択部44bにより3Dモデル画像の構築領域と、未構築領域の境界を視認し易いように強調表示の選択を行うことができるようにしている。なお、入力装置44から画像処理部42に画像処理を行う場合のパラメータ等を入力することもできる。
制御部41は、中央処理装置(CPU)等から構成され、入力装置44からの設定又は選択に応じて、画像処理部42の画像処理の動作を制御する処理制御部41aの機能を持つ。
また、制御部41には、内視鏡2Iに固有の識別情報がメモリ30から入力され、制御部41は、識別情報における内視鏡2Iの種別情報により位置センサを有しない内視鏡2Bか、位置センサを有する内視鏡2A又は2Cかの識別を行う。
そして、位置センサを有しない内視鏡2Bが使用されている場合には、画像処理部42が位置センサを有する内視鏡2A又は2Cの場合にUPD装置6により取得される撮像部25又は対物光学系23の観察位置、視線方向を推定するように制御する。
この場合には、画像処理部42は、例えば2次元の内視鏡画像データの輝度値等を利用することにより、図2において点線で示すようにこの内視鏡2Bの(撮像部25又は対物光学系23の)観察位置、視線方向を推定する処理を行う観察位置、視線方向推定処理部42dの機能を持つ。また、観察位置、視線方向推定処理部42dにより推定された観察位置、視線方向のデータは、情報記憶部43の記憶領域に設けた観察位置、視線方向データ記憶部43aに記憶される。なお、撮像部25又は対物光学系23の観察位置の代わりに、先端部15の位置を推定しても良い。
画像処理部42は、CPUやデジタルシグナルプロセッサ(DSP)等により構成され、ビデオプロセッサ4から入力される2次元の内視鏡画像データから3D形状データ(又は3Dモデルデータ)を生成(又は構築)する3D形状データ構築部42aと、この3D形状データ構築部42aにより生成(又は構築)された3D形状データに対して、内視鏡の撮像部25により観察(又は撮像)された2次元の画像領域に対応して構築された3Dモデル画像の構築領域を生成すると共に、内視鏡の撮像部25により観察されていない2次元の画像領域に対応する3Dモデル画像の未構築領域を視認可能(視認し易いよう)にする3Dモデル画像を生成する画像生成部42bとを有する。画像生成部42bは、前記3Dモデル画像の未構築領域を視覚的に確認できるように表示するための3Dモデル画像を生成(又は構築)すると表現しても良い。画像生成部42bにより生成された3Dモデル画像は、表示装置としてのモニタ8に出力され、モニタ8において表示される。画像生成部42bは、3Dモデル画像(又は3Dモデルデータの画像)を表示装置に出力する出力部の機能を持つ。
画像処理部42は、挿入動作に伴う2次元データに含まれる(3次元領域に対応する2次元)領域の変化に基づいて3D形状データ等を更新する処理を行う画像更新処理部42oを有する。なお、図2では画像生成部42bの外部に画像更新処理部42oを設けた例を示しているが、画像生成部42bの内部に画像更新処理部42oを設けるようにしても良い。換言すると、画像生成部42bが画像更新処理部42oを備える構成にしても良い。また、画像更新処理部42oは、後述の各変形例における画像処理装置に設けられていてもよい(図示省略)。
なお、画像処理部42及びその内部の3D形状データ構築部42a、画像生成部42b等をCPU、DSPの他に、プログラムにより構成されるハードウェアとなるLSI(Large-Scale Integration)となるFPGA(Field Programmable Gate Array)により構成したり、その他の専用の電子回路により構成しても良い。
この画像生成部42bは、3D形状データ構築部42aにより生成(又は構築)された3D形状データに対して、3D形状データにおけるそれぞれの3次元の局所領域を(近似的に)表す2次元の多角形としてのポリゴンを設定し、設定されたポリゴンに対する画像処理を行うポリゴン処理部42cを有する。なお、図2においては、画像生成部42bが、ポリゴン処理部42cを内部に備える構成例で示しているが、実質的にポリゴン処理部42cが画像生成部42bを形成すると見なすこともできる。
また、画像処理部42は、上記のように、位置センサを有しない内視鏡2Bが使用される場合には、この内視鏡2Bによる(撮像部25又は対物光学系23の)観察位置、視線方向を推定する観察位置、視線方向推定処理部42dを有する。
情報記憶部43は、フラッシュメモリ、RAM、USBメモリ、ハードディスク装置等により構成され、内視鏡のメモリ30から取得される画角データを記憶すると共に、観察位置、視線方向推定処理部42dにより推定、又はUPD装置6から取得される観察位置、視線方向データを記憶する位置・方向データ記憶部43aと、画像処理部42の3Dモデル画像データ等を記憶する画像データ記憶部43bと、構築された3Dモデル画像の構築領域と、構築領域の境界となる境界データを記憶する境界データ記憶部43cとを有する。
内視鏡2Iの挿入部11は、図3Aに示すように3次元の管腔形状の尿管10内に挿入され、さらにその深部側の腎盂・腎杯51が検査される。その場合、挿入部11の先端部15に配置された撮像部25は、その画角内の領域を撮像し、信号処理回路32は、撮像部25から順次入力される撮像信号に対する信号処理を行い、2次元画像を生成する。
なお、図3Aにおいては、尿管10の深部側の腎盂・腎杯51において、点線で示す領域が腎盂51aであり、その深部側に腎杯51bが形成されている。
2次元画像データが入力される3D形状データ構築部42aは、UPD装置6による観察位置、視線方向データを用いて、又は観察位置、視線方向推定処理部42dにより推定された観察位置、視線方向データを用いて、内視鏡2Iの撮像部25により撮像(観察)された2次元画像データに対応する3D形状データを生成する。
この場合、3D形状データ構築部42aは、例えば日本国特許第5354494号の公報に記載された方法や、この公報以外に公知となるShape from Shading 法のように1枚の2次元画像から対応する3D形状を推定しても良い。また、2枚以上の画像を用いるステレオ法、単眼移動視による3次元形状推定法、SLAM法、位置センサと組み合わせて3D形状を推定する手法でも良い。また、3D形状を推定する場合、外部のCT装置等の断層像取得装置から取得した3D画像データを参照して3D形状データを構築するようにしても良い。
ここで、画像処理部42が内視鏡2Iの挿入動作に伴う観察領域(の2次元データ)の変化に応じて3Dモデルデータを生成する際の具体的な手法を説明する。
3D形状データ構築部42aは、撮像部25から出力される被検体の2次元撮像信号に含まれる領域から3D形状データを生成する。
画像更新処理部42oは、3D形状データ構築部42aにより生成された3Dモデル画像を、内視鏡2Iの挿入動作に伴う2次元データの変化に基づいて更新するための処理を行う。
具体的には、3D形状データ構築部42aは、例えば、被検体の内部の第1の領域からの戻り光を受光した際に撮像部25において生成される第1の2次元撮像信号が入力された場合に、当該第1の2次元撮像信号に含まれる当該第1の領域に対応する第1の3D形状データを生成する。また、画像更新処理部42oは、3D形状データ構築部42aにより生成された第1の3D形状データを画像データ記憶部43bに記憶する。
3D形状データ構築部42aは、第1の3D形状データを画像データ記憶部に記憶した後で、第1の領域とは異なる第2の領域からの戻り光を受光した際に撮像部25において生成される第2の2次元撮像信号が入力された場合に、当該第2の2次元撮像信号に含まれる当該第2の領域に対応する第2の3D形状データを生成する。また、画像更新処理部42oは、第1の3D形状データに追加して、3D形状データ構築部42aにより生成された第2の3D形状データを画像データ記憶部43bに記憶する。
そして、画像更新処理部42oは、画像データ記憶部43bに記憶された第1の3D形状データと第2の3D形状データとを合成して現在の3Dモデル画像を生成し、当該生成した3Dモデル画像をモニタ8に出力する。
従って、内視鏡2Iの先端部15が挿入動作により移動した場合には、3Dモデル画像の生成を開始した状態から現在の先端部15の観察状態に至るまでの過去に観察された内視鏡画像に含まれる領域に対応する3Dモデル画像がモニタ8に表示される。また、モニタ8に表示される3Dモデル画像の表示領域は、時間の経過と共に拡大する。
なお、画像更新処理部42oを用いてモニタ8において3Dモデル画像を表示する場合には、観察済みの構築領域のみに対応する(第2の)3Dモデル画像を表示することができるが、未構築領域を視認可能とした(第1の)3Dモデル画像を表示する方がユーザの利便性が向上する。そのため、以下の説明では、主に未構築領域を視認可能とした(第1の)3Dモデル画像を表示する例で説明する。
画像更新処理部42oは、入力される2次元データを形成する内視鏡画像データに含まれる領域の変化に基づいて、(第1の)3Dモデル画像を更新する。画像更新処理部42oは、入力される現在の内視鏡画像データと、その直前の(第1の)3Dモデル画像の生成に用いられた内視鏡画像データとを比較する。
そして、画像更新処理部42oは、比較結果として予め設定した閾値以上の変化量が検出された場合に、現在の内視鏡画像データに基づく(第1の)3Dモデル画像により、過去の(第1の)3Dモデル画像を更新する。
なお、画像更新処理部42oは、(第1の)3Dモデル画像を更新する際に、例えば、内視鏡2Iの挿入動作に伴って変化する内視鏡2Iの先端位置の情報を利用しても良い。また、このような処理を実現するために、例えば、図2において点線で示すように、画像処理装置7に位置情報取得部81を設けても良い。
位置情報取得部81は、内視鏡2Iの挿入部11の先端部15の先端位置を示す情報である先端位置情報を取得し、当該取得した先端位置情報を画像更新処理部42oに出力する。
画像更新処理部42oは、位置情報取得部81から入力される先端位置情報に応じた先端位置が以前の位置から変化したか否かを判定する。そして、画像更新処理部42oは、位置情報取得部81から入力される先端位置情報に応じた先端位置が以前の位置から変化したとの判定結果を得た場合に、当該判定結果を得たタイミングにおいて入力された2次元データに基づく(第1の)3Dモデル画像部分を含む現在の(第1の)3Dモデル画像を生成する。すなわち、画像更新処理部42oは、変化前の(第1の)3Dモデル画像を(変化後の新しい第1の)3Dモデル画像に更新する。
または、(第1の)3Dモデル画像と過去の(第1の)3Dモデル画像のそれぞれの重心を算出し、比較結果として予め設定した閾値以上の変化量が検出された場合に、更新してもよい。
また、例えば、ユーザによる入力装置44の操作に応じ、画像更新処理部42oが(第1の)3Dモデル画像を更新する際に用いる情報を、2次元データまたは先端位置または重心のいずれかから選択できるようにしても良く、あるいは、2次元データ及び先端位置及び重心のすべてを選択できるようにしても良い。つまり、入力装置44は、画像更新処理部42oが(第1の)3Dモデル画像を更新する際に用いる2つ(又は2種類)の情報のうちの少なくとも1つを選択する選択部としての機能を具備している。
本内視鏡システムは、3次元形状を有する被検体の内部を観察する内視鏡2Iと、前記内視鏡2Iにより観察された前記被検体の(内部の)2次元データを入力する入力部を形成するビデオプロセッサ4の信号処理回路32と、前記入力部により入力された前記被検体の2次元データに含まれる領域に基づいて、表示部としてのモニタ8へ出力するための前記被検体の形状を示す3次元モデル画像を生成する3次元モデル画像生成部を形成する3D形状データ構築部42a又は画像生成部42bと、前記表示部へ出力するための前記3次元モデル画像に対して、前記内視鏡2Iの挿入動作に伴う前記2次元データに含まれる前記領域の変化に基づいて前記3次元モデル画像を更新し、当該更新した前記3次元モデル画像を前記表示部へ出力する画像更新処理部42oと、を備えている。
また、画像更新処理部42oは、第1の3D形状データと第2の3D形状データとを画像データ記憶部43bに記憶してから3Dモデル画像を生成し、当該生成した3Dモデル画像をモニタ8に出力するような処理を行うものに限らず、当該処理以外の他の処理を行うことにより生成した3Dモデル画像をモニタ8に出力するものであってもよい。
具体的には、画像更新処理部42oは、例えば、第1の3D形状データのみを画像データ記憶部43bに記憶し、画像データ記憶部43bから読み込んだ当該第1の3D形状データと、当該第1の3D形状データを画像データ記憶部43bに記憶した後に入力される第2の3D形状データと、を合成して3Dモデル画像を生成し、当該生成した3Dモデル画像をモニタ8に出力するような処理を行うものであってもよい。または、画像更新処理部42oは、例えば、第1の3D形状データと第2の3D形状データとを画像データ記憶部43bに記憶せずに合成することにより3Dモデル画像を生成し、当該3Dモデル画像を画像データ記憶部43bに記憶し、画像データ記憶部43bから読み込んだ当該3Dモデル画像をモニタ8に出力するような処理を行うものであってもよい。
また、画像更新処理部42oは、3D形状データ構築部42aにより生成された3D形状データを画像データ記憶部43bに記憶するものに限らず、被検体の内部からの戻り光を受光した際に撮像部25において生成される2次元撮像信号を画像データ記憶部43bに記憶するようにしても良い。
具体的には、画像更新処理部42oは、例えば、被検体の内部の第1の領域からの戻り光を受光した際に撮像部25において生成される第1の2次元撮像信号が入力された場合に、当該第1の2次元撮像信号を画像データ記憶部43bに記憶する。
画像更新処理部42oは、第1の2次元撮像信号を画像データ記憶部43bに記憶した後で、第1の領域とは異なる第2の領域からの戻り光を受光した際に撮像部25において生成される第2の2次元撮像信号が入力された場合に、当該第1の2次元撮像信号に追加して、当該第2の2次元撮像信号を画像データ記憶部43bへ記憶する。
そして、画像更新処理部42oは、画像データ記憶部43bに記憶された第1の撮像信号及び第2の撮像信号に基づき、第1の領域及び第2の領域に対応する3次元モデル画像を生成してモニタ8へ出力する。
次に、画像更新処理部42oが、第1の領域と第2の領域に対応する3次元モデル画像をモニタ8に出力するタイミングである表示タイミングについて説明する。
画像更新処理部42oは、例えば、画像データ記憶部43bに記憶された3D形状データを所定期間毎(例えば1秒毎)に更新しつつモニタ8に出力する。そして、このような画像更新処理部42oの処理によれば、画像処理装置7に順次入力される被写体内部の2次元撮像信号に対応する3次元モデル画像を更新しつつモニタ8に表示させることができる。
なお、画像更新処理部42oは、例えば、ユーザによる入力装置44の操作に応じ、画像を更新するための合図としてのトリガ信号が入力された場合に、画像データ記憶部43bに記憶された3D形状データを所定期間毎(例えば1秒毎)に更新しつつ、当該3D形状データに応じた3次元モデル画像を生成してモニタ8に出力するようにしてもよい。そして、このような画像更新処理部42oの処理によれば、所望のタイミングで3次元モデル画像を更新しつつモニタ8に表示させることができるため、ユーザの利便性を向上させることができる。
また、画像更新処理部42oは、例えば、撮像部25により生成された2次元撮像信号に対応する内視鏡画像内において、バスケット等の処置具が映っていないことを検知した場合に(すなわち、病変部の治療中でなく管路に挿入されている状態であることを検知した場合に)、3次元モデル画像を更新しつつモニタ8に出力するようにしてもよい。
そして、以上に述べたような処理によれば、例えば、腎盂・腎杯内に挿入された内視鏡2Iの挿入動作に伴う観察領域(の2次元データ)の変化に応じ、モニタ8(における内視鏡画像に隣接する表示領域)に表示される3Dモデル画像が、図3BのI3oa→図3CのI3ob→図3DのI3ocの順に更新される。
図3Bの3Dモデル画像I3oaは、同図の右側に示す挿入位置までにおいて観察された内視鏡画像に基づいて生成された画像である。また、3Dモデル画像I3oaにおける上端部分は、観察された観察領域に対応する構築領域と、未観察領域との境界Baとなり、この境界Ba部分が、構築領域と異なる色で表示される。
なお、図3Bの3Dモデル画像I3oa中における矢印は、内視鏡2Aの先端部15の位置及びその方向を示している(図3C及び図3Dにおいても同様)。3Dモデル画像I3oa中に、内視鏡2Aの先端部15の位置及びその方向を示す指標となる上記矢印を重畳するようにしても良い。
図3Cの3Dモデル画像I3obは、図3Bの3Dモデル画像I3oaにおいての未構築領域部分に構築領域が追加されて更新された3Dモデル画像となる。
また、図3Cの3Dモデル画像I3obは、挿入の途中において分岐部が存在していたために複数の未構築領域に臨む境界Bb,Bc,Bdが発生する。なお、境界Bdは、分岐部に起因しない部分を含んでいる。
図3Dの3Dモデル画像I3ocは、図3Cの3Dモデル画像I3obにおいてその上部側の未構築領域に構築領域が追加されて更新された3Dモデル画像となる。
本実施形態においては、内視鏡2Iの挿入部11は、管腔形状の尿管10を経てその深部側の管腔形状の腎盂・腎杯51内に挿入される。そして、この場合、3D形状データ構築部42aは、管腔形状の臓器の内面を観察した場合の中空の3D形状データを構築する。
3D形状データ構築部42aにより構築された3D形状データに対して、画像生成部42b(のポリゴン処理部42c)は、ポリゴンを設定して、ポリゴンを用いた3Dモデル画像を生成する。本実施形態においては、3D形状データの表面にポリゴンとしての3角形を貼り付ける如くの処理を行い、3Dモデル画像を生成する。つまり、3Dモデル画像は、図4に示すように3角形のポリゴンを採用している。一般的には、ポリゴンとして、3角形、又は4角形が多用されるが、本実施形態においては3角形のポリゴンを用いる。なお、3D形状データ構築部42aが3D形状データではなく、3Dモデル画像を直接、生成(又は構築)してもよい。
ポリゴンは、面、辺、頂点に分解でき、頂点は3D座標で記述される。面には、表裏があり、面に対して1つの垂直な法線ベクトルが設定される。
更に、ポリゴンの頂点を記述する順番で面の表が設定される。例えば、図4に示すように3つの頂点v1,v2,v3の順に記述した時の表(の面)の表裏と、法線ベクトルvnの向きとが対応する。
そして、後述するように、法線ベクトルを設定することにより、法線ベクトルが設定されたポリゴンの表裏、換言するとポリゴンを用いて形成される(観察された領域を表す)3Dモデル画像上における各ポリゴンが管腔臓器の内面(又は内壁)に該当するか外面(または外壁)に該当するかの判定を行う。本実施形態においては、管腔臓器の内面を観察又は検査することを主目的とするため、管腔臓器の内面をポリゴンの面の表(そして管腔臓器の外面をポリゴンの面の裏)に対応付けた場合で説明する。より複雑な被検体として、管腔構造体を内部に含む場合において、管腔構造体の内面とその外面とを検査するような場合においても、内面と外面を区別(判別)するため、そのような複雑な被検体に対しても適用することができる。
なお、後述する図6において説明するように挿入部11の挿入位置が移動し、撮像部25により観察されて取得された2次元画像の領域が変化すると、画像処理部42は、変化した領域の3D形状データが、変化前の3D形状データを更新するように生成し、更新された領域上に新たにポリゴンを、法線ベクトルを用いて適切に設定し、3Dモデル画像を追加(更新)するようにして生成する処理を繰り返す。
また、画像生成部42bは、ポリゴンを追加する場合、法線ベクトルを用いて、観察されたポリゴンの局所的な領域の面が内面(内壁)か外面(外壁)かの判別を行う内面外面判別部42eの機能を持つ。
また、入力装置44の強調表示選択部44bにより境界を強調する強調表示が選択された場合には、画像生成部42bは、3Dモデル画像における(観察されて構築された領域としての)構築領域の境界領域(この境界領域は、観察されていない未構築の領域としての未構築領域の境界ともなる)を強調して表示するための境界強調処理部42fの機能を持つ。この境界強調処理部42fは、ユーザにより強調表示選択部44bから強調表示が選択されない場合には、境界領域(境界部分)を強調する処理を行わない。
このようにユーザは、3Dモデル画像をモニタ8において表示する場合、未構築領域の境界を視認し易いように強調表示することを選択したり、強調表示することを選択しないで3Dモデル画像をモニタ8において表示することの選択ができる。
また、画像生成部42bは、3Dモデル画像を形成する構築された(換言すると観察された)ポリゴンの面が内面と外面との判別結果に応じて内面と外面とを異なる色で着色する(ポリゴン)着色処理部42gを有する。なお、異なる色で着色せずに異なるテクスチャをポリゴンに貼りつけてもよい。以下の説明では、表示色設定部44aにより(観察された、つまり観察済みの)内面を灰色、(観察されていない、つまり未観察の)外面を白色に着色するように設定した場合で説明する。灰色として白に近い灰色に設定しても良い。内面を灰色、外面を白色の場合に限定されるものでない(表示色設定部44aによる設定の色に対応した着色処理部42gが着色を行う)。
なお、本実施形態においては、管腔臓器の内面を観察対象としている通常の観察モードにおいては、観察していない領域は、撮像部25により撮像されてない管腔臓器の内面となる。
そして、内視鏡2Iによる観察、検査の最中等において、観察されない領域を術者が視認可能なように3Dモデル画像上において表示しようとする場合、図3Aに示した腎盂・腎杯51に近い形状の3Dモデル画像で表示すると、観察されない領域となる3Dモデル画像上での未構築領域が存在した場合、その未構築領域を3D空間において視覚的に把握し易い画像にすることができる。
このため、本実施形態においては、画像処理部42は、図3Aに示した管腔臓器としての腎盂・腎杯51を紙面に垂直な上方を視点とするような所定方向から、腎盂・腎杯51の3Dモデル画像を、ポリゴンを用いて生成する。
また、このように視点を管腔臓器の外側に設定した場合には、実際に観察した領域が管腔の内面に存在しても、管腔外面に設定した視点側から見た3Dモデル画像上においては、観察された構築領域として視認し易いように表示し難くなる。
これを回避するために、以下の(a),(b)及び(c)のいずれかのようにしても良い。(a),(b)では、二重(又は多重)の管状構造の場合にも適用できる場合であり、(c)は腎盂のような一重の管状構造の場合に適用する場合である。
(a)視点側から(描画された)3Dモデル画像を見た場合、3Dモデル画像上における観察された構築領域を覆う外面の領域を内面の色としての灰色と外面の色としての白色と異なる表示色(例えば緑色)に着色する。(b)又は、図3Aにおいて2点鎖線で示すように、例えば視点となる紙面に垂直となる上方位置に照明用の光源Lsを設定し、この光源Lsから放射状に出射される照明光により3Dモデル画像上における観察された構築領域を覆う外面領域を、照明用の光源Lsの照明光の色で着色した表示色(例えば緑色)で表示するようにしても良い。
(c)又は、管腔臓器の内面のみを観察対象としていることに限定した場合には、管腔臓器の外面は観察対象でないために、観察された管腔臓器の内面を外面が覆っている場合には、その外面を内面の灰色と異なる色の表示色で表示するようにしても良い。この場合には、外面で覆われた観察済みの内面を表示する場合の表示色として白色に設定しても良い。以下においては、観察された管腔臓器の内面を覆っている場合の外面を表示する表示色を、少なくとも(観察済みであり、外面で覆われていない内面を直接的(露呈するように)に表示する場合の色となる)灰色と異なる(又は識別し易い)表示色を用いる。本明細書では、このように観察済みの内面を外面で覆っている状態のその外面を、観察済みの内面を直接、露呈した状態で観察した場合の色(例えば灰色)と異なる色としての表示色を用いる。
また、本実施形態においては、3Dモデル画像の背景部分を、3Dモデル画像の表示に用いられる観察済みの内面を表示する色(となる灰色)、二重管状構造において外面で観察済みの内面が外面で覆われている状態の外面の表示色(となる例えば緑色)とは異なる背景色(例えば青色)に設定し、観察された構築領域と共に、構築領域と未構築領域の境界となる境界領域を視認し易く(表示)する。また、強調表示の選択を行うことにより、着色処理部42gは、境界領域をより視認し易くするように、灰色、表示色及び背景色と異なる色(例えば赤色)に着色する。
なお、図1においては、画像処理装置7は、内視鏡装置を構成するビデオプロセッサ4、光源装置3と別体で構成されているが、画像処理装置7をビデオプロセッサ4や、光源装置3と同じ筐体内に設けるようにしても良い。
本実施形態の内視鏡システム1は、3次元形状を有する被検体としての尿管10、腎盂・腎杯51の内部を観察する内視鏡2Iと、前記内視鏡2Iにより観察された前記被検体の(内部の)2次元データを入力する入力部を形成するビデオプロセッサ4の信号処理回路32と、前記入力部により入力された前記被検体の2次元データに基づいて、前記被検体の3次元モデルデータ又は3次元形状データを生成(又は構築)する3次元モデル構築部を形成する3D形状データ構築部42aと、前記3次元モデル構築部により構築された構築領域の前記3次元モデルデータに基づいて、前記被検体における観察されていない領域としての未構築領域を視認可能な(換言すると、未構築領域を視認し易くする又は未構築領域を視認できる)3次元モデル画像を生成する画像生成部42bと、を備えることを特徴とする。
また、図5に示すように本実施形態における画像処理方法は、3次元形状を有する被検体としての尿管10、腎盂・腎杯51の内部を観察する内視鏡2Iにより観察された前記被検体の(内部の)2次元データとして2次元画像データをビデオプロセッサ4の信号処理回路32が画像処理装置7に入力する入力ステップS1と、前記入力ステップS1により入力された前記被検体の2次元データ(2Dデータ)に基づいて、3D形状データ構築部42aが前記被検体の3次元モデルデータ(3D形状データ)を生成(又は構築)する3次元モデル構築ステップS2と、前記3次元モデル構築ステップS2により構築された構築領域の前記3次元モデルデータに基づいて、画像生成部42bが前記被検体における観察されていない領域としての未構築領域を視認可能な(換言すると、未構築領域を視認し易くする又は未構築領域を視認可能に表示するための)3次元モデル画像を生成する画像生成ステップS3と、を備えることを特徴とする。なお、図5の処理内容は、以下に説明する図6の処理内容における概要となる。
次に図6を参照して、本実施形態の動作を説明する。図6は、本実施形態の内視鏡システム1の主要な処理手順を示す。なお、図6の処理において、強調表示を選択しない場合と、選択する場合とを分けたシステム構成や画像処理方法にしても良い。
術者は、図1に示すように光源装置3とビデオプロセッサ4に画像処理装置7を接続し、光源装置3とビデオプロセッサ4に内視鏡2A又は2B又は2Cを接続して内視鏡検査を行う。この場合、内視鏡2Iの挿入部11を患者9の尿管10内に挿入する。そして、図3Aに示すような尿管10を経て、図6のステップS11に示すように内視鏡2Iの挿入部11を、深部側の腎盂・腎杯51内に挿入する。
挿入部11の先端部15には、撮像部25が設けてあり、撮像部25は、撮像部25の画角内で撮像(観察)した撮像信号をビデオプロセッサ4の信号処理回路32に入力する。
ステップS12に示すように信号処理回路32は、撮像部25により撮像した撮像信号に対する信号処理を行い、撮像部25により観察した2次元画像を生成(取得)する。また、信号処理回路32は、生成した2次元画像(のA/D変換された2次元画像データ)を画像処理装置7の画像処理部42に入力する。
ステップS13に示すように画像処理部42の3D形状データ構築部42aは、入力された2次元画像データから、位置センサを備えた内視鏡2A(又は2C)の場合には位置センサの情報を利用して、位置センサを有しない内視鏡2Bの場合には画像処理により(撮像部25で)観察した画像領域に対応する3D形状を推定し、3Dモデルデータとしての3D形状データを推定し、3D形状データを生成する。
2次元画像データから、3D形状データを生成する方法としては上述した手法を利用することができる。
次のステップS14において画像生成部42bは、ポリゴンを用いて3Dモデル画像を生成する。図6に示すようにループ状に類似の処理を繰り返す。そのため、2回目以降においては、ステップS14の処理は、1回前におけるポリゴンを用いて3Dモデル画像を生成した処理を続行することになる(新たなポリゴンに対する3Dモデル画像を生成し、以前の3Dモデル画像を更新する)。
次のステップS15においてポリゴン処理部42cは、ステップS13において生成された3D形状データを基にしてマーチングキューブ法など公知の手法を用いてポリゴンを生成する。図7は、ステップS13において生成された3D形状データを基にしてポリゴンを生成する様子を示す。
管腔を表すように生成された3D形状データ(図7において輪郭形状部分)I3aにおいて、管腔を横から見た場合の管腔外面にポリゴンを設定して3Dモデル画像I3bを生成する。
なお、さらに着色処理がされて3Dモデル画像I3cが生成され、モニタ8に表示される。図7においては、ポリゴンp01,P02,p03,p04等を示す。
次のステップS16においてポリゴン処理部42cは、前のステップS15において設定した各ポリゴンに対して、(観察された領域が内面であるか否かを判別するために)それぞれ法線ベクトルを設定する。
次のステップS17において画像生成部42bの内面外面判別部42eは、法線ベクトルを用いて観察された領域が内面であるか否かを判別する。ステップS16及びS17の処理に関しては、図8を参照して後で説明する。
次のステップS18において画像生成部42bの着色処理部42gは、前のステップS17の判別結果に応じて、観察された領域を表すポリゴンの面を(内面の場合には灰色、外面の場合には白色とするように)着色する。
次のステップS19において制御部31(又は画像生成部42bの境界強調処理部)は、強調表示が選択されているか否かを判定する。強調表示が選択されていない場合には、次のステップS20の処理に移る。そして、次のステップS20の次にステップS21,S22の処理を行う。
これに対して、強調表示が選択されている場合には、ステップS23,S24,S25の処理を行った後、ステップS20の処理に移る。
ステップS20において画像生成部42bの着色処理部42gは、(3Dモデル画像の外部又は離間して設定された位置における)所定の方向から見た3Dモデル画像の構築領域における観察済のポリゴンの面が内面の場合において外面により隠れる場合に対応した着色をする。
上述した二重管状構造のように、所定の方向から見た3Dモデル画像の構築領域における観察済のポリゴンの面が内面であり、この内面が外面により覆われている状態の3Dモデル画像として表示する場合には、当該外面の色を、観察済の内面を表す表示色の灰色、観察済の場合の外面の色としての白色、及び背景色とは異なる表示色(例えば緑色)で着色する。なお、3Dモデル画像を表示する場合において、観察済みの内面が露呈する状態となる当該内面は、ステップS18における着色処理の灰色のままとなる。
ステップS20の処理の後のステップS21において画像処理部42又は画像生成部42bは、(上述した処理により)生成した3Dモデル画像の画像信号をモニタ8に出力し、モニタ8は生成された3Dモデル画像を表示する。
次のステップS22において制御部41は、術者が検査終了の指示入力を例えば入力装置44から行ったか否かを判定する。
検査終了の指示入力がされない場合には、ステップS11又はステップS12の処理に戻り、上述した処理を繰り返す。つまり、挿入部11が腎盂・腎杯51内において移動されると、撮像部25により移動後に新たに観察された領域に対応する3D形状データを生成し、その3D形状データに対する3Dモデル画像を生成する処理を繰り返す。
一方、検査終了の指示入力が行われた場合には、ステップS26に示すように画像処理部42は、3Dモデル画像を生成する処理を終了し、図6の処理が終了する。
図13は、強調表示が選択されない場合(ステップS23,S24,S25の処理を行わない場合)において、上記の処理を繰り返す途中において、例えばステップS21の処理後においてモニタ8に表示される3Dモデル画像I3cを示す。
次に図8を参照して、図6のステップS16,S17の処理を説明する。ステップS15の処理により図7に示したように観察された領域の3D形状データI3aに複数のポリゴンp01,p02,p03,p04等が設定される。これらのポリゴンpj(j=01,02,03,…)は、図9に示す表形式のポリゴンリストとして情報記憶部43に記憶(格納)される。各ポリゴンpjの3つの頂点v1,v2,v3は、3次元の位置ベクトル値XXXXによりそれぞれ決定する。なお、ポリゴンリストは、各ポリゴンの構成を示すものである。
図8における最初のステップS31においてポリゴン処理部42cは、ポリゴンを選択する。図9に示すようにXXXXで示す法線ベクトルが設定されているポリゴンp01に隣接するポリゴンp02を選択する。なお、ポリゴンp01に対しては、図4において説明したように法線ベクトルvn1が観察された内面を表す表の向きに設定される。
次のステップS32においてポリゴン処理部42cは、ポリゴンp02に対して、その法線ベクトルvn2を
vn2=(v2−v1)×(v3−v1)
により計算(算出)する。なお、記載を簡略化するために、頂点v1,v2,v3の3次元位置をv1,v2,v3で流用し、例えばv2−v1は3次元位置v1から3次元位置v2に至るベクトルを表す。
次のステップS33においてポリゴン処理部42cは、ポリゴンp02の法線ベクトルvn2の向き(又は極性)が、登録されているポリゴンp01の法線ベクトルvn1の向きと同じであるか判定する。
この判定を行うために、ポリゴン処理部42cは、ポリゴンp02に90度以上の角度をもって隣接するポリゴンp01の法線ベクトルvn1と、ポリゴンp02の法線ベクトルvn2との内積を計算し、内積の値が0以上であれば向きが同じであると判定し、0未満となる場合には向きが反転していると判定する。
ステップS33において向きが反転していると判定した場合には、次のステップS35においてポリゴン処理部42cは、法線ベクトルvn2の向きを修正する。例えば法線ベクトルvn2に−1を乗算して修正して登録すると共に、ポリゴンリストの位置ベクトルv2、v3を入れ替える。
ステップS34の後、又はステップS33において向きが同じであると判定された場合には、ステップS35においてポリゴン処理部42cは、全てのポリゴンに法線ベクトルが有る(設定した)かの判定を行う。
法線ベクトルが無いポリゴンが存在する場合には、最初のステップS31の処理に戻り、全てのポリゴンに法線ベクトルが有る場合には、図8の処理を終了する。図10は、図9のポリゴンリストに対して法線ベクトルが設定されたポリゴンリストを示す。また、図11は、図8の処理により、ポリゴンp01に隣接するポリゴンp02等に法線ベクトルvn2等が設定された様子を示す。なお、図11において、ポリゴン02〜04の上部側が管腔臓器の内面である(そして下側が外面となる)。
上記の説明においては、図8におけるステップS33の判定処理として、内積を用いて法線ベクトルの向きが同じであるか否かを判定していた。この方法は位置センサを有しない内視鏡2Bの場合においても使用できる方法である。
これに対して、先端部15に位置センサを備えた内視鏡2A(又は2C)の場合には、図12に示すように位置センサの情報を用いて法線ベクトルの向きが隣接する登録された法線ベクトルの向きと同じであるか否かを判定するようにしても良い。
図12に示すように判定対象のポリゴンpkの重心Gと3D形状の推定に使用した2次元画像を取得したときの先端部15の位置P15を結ぶベクトルv15と、ポリゴンpkの法線ベクトルvnkとの内積を計算し、内積の値が0以上であれば向きが同じであると判定し、0未満となる場合には向きが反転していると判定する。図12においては、両ベクトルの成す角θは90°より小さく、内積は0以上となる。
このため、図12において例えば点線で示すように隣接するポリゴン(図12ではp03)の内面から鈍角を成すようなポリゴンp04′の内面を観察することはできない(ため、そのようなポリゴンは生成されず、法線ベクトルの向きの判定を行うことがない)。
このように強調表示が選択されない状態においては、モニタ8には、図13に示すような3Dモデル画像I3bが背景色とは異なる色で表示される。
図13に示すように下方の尿管側から上方の腎盂・腎杯側に至る管腔臓器の大部分が(一部欠落した状態で)ポリゴンで描画され、また管腔臓器の外側の面を表すポリゴンの(外側の)面が白っぽい色(例えば緑色)で表示されている。なお、3Dモデル画像I3cにおけるポリゴンの周囲は、青色等の背景色で表示される。
また、図13において、下腎杯の一部分に灰色で着色された内面の一部が表示され、また、その上側となる中腎杯の一部にも、灰色で着色された内面が表示されている。又、図13における上腎杯にも、境界が露呈している。
術者はこのように内面が所定の色で着色されて表示されるような3Dモデル画像I3cから、所定の色で着色された内面を境界領域として、観察していないために構築及び着色されていない未構築領域が視覚的に存在することを容易に把握することができる。
このように、図13に示すように表示する3Dモデル画像I3cは、術者が未構築領域を視認し易いように表示する3次元モデル画像となる。
なお、図13に示すような3Dモデル画像I3cを生成した場合、閉じた管腔臓器の外側から、通常、観察できない内面の一部の領域が、視認し易い色で表示されることにより、その領域に隣接する領域が観察されていない未構築領域であることを視覚的に認識することができる。
しかし、例えば図13における上腎杯のように観察済みの内面が、手前側の外面に隠れて表示されず、かつその境界形状が開口していることを視覚し難い形状になっていると、その部分に未構築領域が存在することを見逃す可能性がある。勿論、術者は、観察又は検査を行う管腔臓器の形状を把握しているため、見逃す可能性は低くなるが、術者が内視鏡検査を円滑に行い易くするために、術者の負担を出来るだけ軽減できるようにすることが望まれる。
そのような場合のために本実施形態においては、強調表示を選択することができ、強調表示を選択した場合には図6におけるステップS23,S24、S25の処理を行う。
強調表示を選択した場合には、ステップS23において境界強調処理部42fは、ポリゴンリストの情報を利用して境界領域のポリゴンの辺を探索(又は抽出)する処理を行う。
検査対象の管腔臓器が腎盂・腎杯51の場合においては、腎盂51aから複数の腎杯51b側に分岐する。図7に示した例では、各ポリゴンpiの3つの辺はそれぞれ隣接するポリゴンの辺と共有する。
これに対して、構築された構築領域の端となり、未構築領域との境界領域のポリゴンにおいては共有しない辺が発生する。図14は、境界周辺のポリゴンを模式的に示し、また図15は図14のポリゴンに対応するポリゴンリストを示す。
図14においては、ポリゴンp12の辺e14と、ポリゴンp14の辺e18とが境界辺を示し、この右側が未構築領域となる。図14においては境界辺を太い線で示している。実際には、境界辺はより多くの辺から構成される場合が一般的である。なお、図14において、辺e11,e17,e21は、ポリゴンp11,p13,p15と、点線で示すポリゴンp17,p18,p19により共有される。また、辺e12,e20は、ポリゴンp11,p15と2点鎖線で示すポリゴンp10,p16とで共有される。
図14の場合には、ポリゴンリストは図15に示すようになり、ポリゴンリストには、ポリゴンp12の辺e14と、ポリゴンp14の辺e18とが1回のみ現れ、他の辺は2回現れる。従って、ポリゴン処理部42cは、境界領域(のポリゴン)を探索する処理としてポリゴンリストから1回のみ現れる辺を境界辺として抽出する。換言すると、ポリゴン処理部42cは、観察済みの構築領域を表す全てのポリゴンのリストとしての ポリゴンリストにおいて(3次元的に隣接する)複数のポリゴンにより共有されない(つまり1つのポリゴンのみが持つ)辺を境界辺として抽出する。
なお、図15のポリゴンリストにおいて最も右側の欄には、観察されたポリゴンの面が内面か外面かの判別結果に応じて着色される色が設定される。図15では、内面が観察されているので、灰色を示すGが設定されている。
次のステップS24において境界強調処理部42fは、前のステップS23において抽出した情報により境界リストを作成し、作成したことを着色処理部42gに通知する。
図16はステップS24において生成される境界リストを示す。図16に示す境界リストは、ステップS23の処理までにおいて探索(抽出)された1回のみ現れるポリゴンの境界辺のリストである。
次のステップS25において着色処理部42gは、境界リストを参照して、境界辺を術者等のユーザが視認し易い色(例えば赤色)の境界色で着色する。この場合、境界辺を描画する線の太さを大きく(太く)し、着色した境界辺をより視認し易いようにしても良い。また、図16に示す境界リストにおいては、最も右側の欄に、着色処理部42gにより境界辺が着色される強調色(境界色)を示している。図16の具体例では、着色される強調色として赤色を示すRが記載されている。また、境界辺から閾値以下の距離となる境界領域を赤色等の境界色又は強調色で着色しても良い。
なお、境界辺を着色する処理をステップS25において行う場合に限定されるものでなく、ステップS20の処理において、境界強調の選択の有無に応じて(S25の処理を)行うようにしても良い。
なお、上述したように図6の処理はループ状に類似した処理を繰り返すため、境界強調を選択した場合においても、挿入部11の移動により、撮像部25が撮像する領域が変化すると、変化前のポリゴンリストや境界リストが更新される。
このようにして、境界強調が選択された場合には、モニタ8に表示される図13に対応する3Dモデル画像I3dは図17に示すようになる。
図17に示す3Dモデル画像I3dは、図13に示す3Dモデル画像I3cにおいて、境界領域のポリゴンの境界辺が強調色で着色されたものとなっている。図17に示すように構築領域のポリゴンにおける未構築領域との境界となるポリゴンの境界辺が強調色で着色されるので、術者等のユーザは、境界辺に隣接する未構築領域を視認し易い状態で把握することができる。なお、図17ではモノクロ表示で示しているので、輪郭よりも太い線で示している境界辺は、輪郭と大きく異なっていないように見られるが、境界辺は、目立つ強調色で表示される。従って、カラーで表示するモニタ8で3Dモデル画像I3dを表示した場合には、境界辺は輪郭と大きく異なる状態で視認できる。モノクロ表示でも境界辺を輪郭と識別し易いように、輪郭よりも、閾値以上に太い線、又は輪郭の線の太さの数倍以上、太い線で境界辺を表示するようにしても良い。
このように本実施形態の内視鏡システム及び画像処理方法によれば、未構築領域を視認し易く表示する3次元モデル画像を生成することができる。
また、本実施形態において、強調表示を選択した場合には、構築領域と未構築領域との境界を強調して表示する3Dモデル画像I3dを生成するため、術者等のユーザは、未構築領域をより視認し易い状態で把握することができる。
次に第1の実施形態の第1変形例を説明する。本変形例は、第1の実施形態と殆ど同様の構成であるが、強調表示が選択された場合における処理が第1の実施形態における境界辺を強調する代わりに、境界辺を含む面を強調する処理にしている。
図18は本変形例の処理内容を示す。図18は、図6においてのステップS24の境界リストを作成(変更)する処理を、ステップS24′に示すポリゴンリストの色を変更する処理に変更し、ステップS25の境界辺を着色する処理を、ステップS25′の境界面を着色する処理に変更している。以下、第1の実施形態と異なる処理部分を説明する。
ステップS19において強調表示が選択された場合には、第1の実施形態の場合と同様にステップS23において境界を探索する処理を行う。ステップS23の処理において、図15に示したようなポリゴンリストが作成され、さらに図16に示すような境界辺を持つポリゴンが抽出される。
次のステップS24′において境界強調処理部42fは、例えば図19に示すように境界辺を含むポリゴンリストの色を、視認し易い色(強調色)に変更する。
図19のポリゴンリストは、図15のポリゴンリストにおける境界辺e14とe18を含むポリゴンp12,p14の色を灰色から赤色に変更する。
簡潔に述べると、図16の強調色は境界辺を強調する色であったが、本変形例は境界辺を含むポリゴンの面を強調する強調色にする。なお、この場合、面を強調色として境界辺を含むようにしても良い。
次のステップS25′において境界強調処理部42fは、強調色に変更されたポリゴンの面を強調色で着色した後、ステップS20の処理に移る。
図20は本変形例により生成され、モニタ8に表示される3Dモデル画像I3eを示す。図20では境界に臨む辺を持つポリゴン(つまり境界のポリゴン)の色を強調色(図20では具体的に赤色Rとした場合で)示している。また、図20では境界辺も、赤色で強調して表示した例を示す。
本変形例によれば、第1の実施形態とほぼ同様の効果を有する。具体的には強調表示を選択しないと、第1の実施形態において強調表示を選択しない場合と同じ効果となり、強調表示を選択すると、境界のポリゴンの境界辺を含む境界面を視認し易い強調色で表示するため、術者が観察領域の境界の未観察領域を把握易くする効果がある。
次に第1の実施形態の第2変形例を説明する。本変形例は、第1の実施形態と殆ど同様の構成であるが、強調表示が選択された場合における処理が第1の実施形態と異なる処理を行う。本変形例では、図2における画像生成部42bにおける境界強調処理部42fが、強調表示の選択に対応した強調処理部(42f′とする)に変更されている(処理結果は、境界強調処理部42fによる結果と類似した内容となる)。
図21は、本変形例の処理を示す。図21において強調表示が選択されない場合には、第1の実施形態と同様の処理となる。一方、強調表示が選択された場合にはステップS41に示すように強調処理部42f′は、1回前の3次元形状の推定の後に設定されたポリゴンリストから今回、追加されたポリゴンを算出する。
なお、1回目の処理においてはポリゴンリストが空欄の状態から追加されたことになるため、全ポリゴンが対象となる。
図22は、1回目の処理において取得された斜線で示すポリゴン(の範囲)に対して、2回目の処理において取得された追加のポリゴンの範囲を示す。次のステップS42において強調処理部42f′は、関心領域を設定し、ポリゴンを複数のサブブロックに分割する。
図22に示すように強調処理部42f′は、追加のポリゴンの範囲内において、ポリゴンの頂点(又は重心)を中心として例えば円形の関心領域を設定し、関心領域を例えば点線で示す4等分のサブブロックに分割する。実際には、3次元的なポリゴン面に対して、例えば球形の関心領域を設定して、複数のサブブロックに分割する。
図22においては、着目する頂点vr1,vr2においてそれぞれ関心領域R1,R2を設定し、関心領域R1を4つのサブブロックR1a、R1b、R1c、R1dに、関心領域R2を4つのサブブロックR2a、R2b、R2c、R2dにそれぞれ分割した様子を示す。
次のステップS43において強調処理部42f′は、サブブロック毎のポリゴンの頂点(又は重心)の密度又は頂点数を計算する。さらに、強調処理部42f′は、サブブロック間のポリゴンの頂点(又は重心)の密度又は頂点数の偏りが有るか否かを計算する。
関心領域R1の場合には、各サブブロックは、連続的に形成されたポリゴンの頂点などをそれぞれ複数、含む状態となり、サブブロック間での密度又は頂点数の偏りは小さいのに対して、関心領域R2の場合には、サブブロックR2b、R2cとサブブロックR2a、R2dとは、サブブロック間での密度又は頂点数の偏りが大きい。サブブロックR2b、R2cは、関心領域R1の場合のサブブロックR1a等とほぼ同じ値となるが、サブブロックR2a、R2dは、ポリゴンの頂点(又は重心)を境界以外で含まないため、サブブロックR2b、R2cの場合よりは小さな値となる。そして、サブブロックR2b、R2cの場合と、サブブロックR2a、R2dの場合とでは、頂点数の偏りが大きくなる。
次のステップS43において強調処理部42f′は、サブブロック間においてポリゴンの頂点(又は重心)の密度又は頂点数の偏りが(偏りの閾値以上に)有り、かつポリゴンの頂点(又は重心)の密度又は頂点数が閾値以下である条件に該当するポリゴン、又は当該ポリゴンの頂点を視認し易い色(赤等の強調色)で着色する処理を行う。図22では例えば頂点vr2,vr3,vr4又はこれらを共有するポリゴンが着色される。ステップS44の処理の後、またはステップS45を行った後、ステップS20の処理に進む。
また、ユーザは、このように着色した場合において、より視認し易くする視認性を確保するために着色範囲を拡大する選択を入力装置44の強調表示選択部44bから行うことができるようにしている。着色範囲を拡大する選択がされた場合には、以下のように着色範囲を拡大する処理が行われる。
上述した密度等に偏りがある条件(第1の条件とする)に該当するポリゴン又はポリゴンの頂点を着色する処理S44に対して、図21において点線で示すステップS45において強調処理部42f′は、更に着色範囲を拡大する。上記のように点線で示すステップS45の処理は、選択された場合に行われる。
強調処理部42f′は、第1の条件に該当するポリゴン(の頂点)を、ステップS44に示すように着色したが、ステップS45において第1の条件に合致したポリゴン(の頂点)を中心として一定の距離内にあり、第1の条件に合致したポリゴン(の頂点)と同じタイミングで追加されたポリゴン(の頂点)も、同様に着色する。
この場合には、図22における最も上で水平方向に沿ったポリゴン、又は上から2番目までの水平方向に沿ったポリゴン等が着色される。一定の距離をより大きくすることにより、着色するポリゴンの範囲をより大きくすることもできる。
なお、新たに追加した点の周辺に境界がある場合の点(図22のvr2,vr3,vr4)も視認し易い色に着色する第2の条件に該当すると見なしても良い。
図23は、本変形例による3Dモデル画像I3fの表示例を示す。この3Dモデル画像I3fは、図20の3Dモデル画像I3eとほぼ同じ表示となる。なお、図23では、図20における境界に臨むポリゴン等が強調色としてのRで着色されているような表記を省略している。本変形例によれば、第1の実施形態とほぼ同様の効果を有する。つまり、強調表示を選択しない場合には第1の実施形態において強調表示を選択しない場合と同じ効果となり、また強調表示を選択した場合には第1の実施形態において強調表示を選択した場合と同様に、構築されたポリゴンの境界領域を視認し易い色で目立つように表示することができる。このため、境界領域に隣接し、観察されていない未構築領域を容易に把握し易くなる。
次に第1の実施形態の第3変形例を説明する。
本変形例は、第1の実施形態において強調表示が選択されない場合においても、強調表示を選択した場合と類似した表示を行う場合に該当する。
このため、本変形例は、図2における構成において、入力装置44は強調表示選択部44bを有しない構成に該当し、境界強調処理部42fを設ける必要がないが、実質的には境界強調処理部42fに近い処理をする。その他の構成は、第1の実施形態と殆ど同じ構成である。
図24は本変形例の処理内容を示す。図24に示すフローチャートは、図6のフローチャートに近い処理であるため、異なる部分のみを説明する。
ステップS1からステップS18までは、図6と同じ処理であり、ステップS18の処理の後、ステップS51においてポリゴン処理部42cは、観察していない領域を探索する処理を行う。
上述したようにステップS13において3次元形状の推定を行い、観察された領域の面にポリゴンを貼り付けるような処理をして3Dモデル画像を生成する処理を行うが、観察された領域の境界に観察されていない領域が、(観察された領域に隣接して)例えば円形状の開口部として存在した場合、この開口部にポリゴンを貼り付けて、観察した領域の面の場合のような処理を行う可能性がある。
このため、本変形例では、ステップS51の観察していない領域を探索する処理として、注目する領域に設定したポリゴンの法線と、このポリゴンに隣接し、観察済みの領域に設定されたポリゴンの法線とのなす角を計算し、そのなす角が90°程度の閾値以上か否かの判定を行う。
次のステップS52においてポリゴン処理部42cは、上記2つの法線のなす角が閾値以上となるポリゴンを抽出する。
図25は、本変形例の動作の説明図を示す。図25は例えば水平方向に延びる観察済みの管腔形状部分にポリゴンが設定され、その右端に未観察の領域となる略円形状の開口部Oが存在する様子を示す。
この場合、開口部Oに隣接する観察済みの領域に設定したポリゴンの場合と同様に、開口部Oにポリゴンを設定する処理が行われる場合があり得る。この場合には、観察済みで開口部Oの境界に隣接する領域に設定したポリゴンの法線Ln1と、このポリゴンに隣接し、開口部Oを塞ぐように設定したポリゴンpO1の法線Lo1とのなす角は、観察済みの領域において隣接する2つのポリゴンにそれぞれ設定した2つの法線Lni,Lni+1がなす角に比べて遥かに大きな角となり、閾値以上となる。
図25では法線Ln1とLo1との他に、法線Ln2と開口部Oを塞ぐように設定したポリゴンpO2の法線Lo2も示している。
次のステップS53において着色処理部42gは、2つの法線のなす角が閾値以上となる複数のポリゴン(図25におけるポリゴンpO1,pO2)と、複数のポリゴンに囲まれたポリゴン(ポリゴンpO1,pO2の間のポリゴンpO3)の色を観察済みの領域と異なる色(例えば赤色)で着色する。ステップS53の処理の後、ステップS20の処理に移る。
図26は、本変形例による3Dモデル画像I3gを示す。図26では未観察の領域が赤色で表示される。
本変形例によれば、観察された観察済みの領域のポリゴンに隣接し、未観察の領域にポリゴンを設定した場合にも、そのポリゴンを着色して未観察の領域であることを視認し易くできる。
次に第1の実施形態の第4変形例を説明する。
本変形例は、観察領域と未観察の領域との境界の形状を単純化して、(複雑な形状がノイズに起因する等と誤認識する虞を解消し)未観察の領域を把握し易くする。
本変形例は、図2における構成において、入力装置44は強調表示選択部44bの代わりに平滑化を選択する平滑化選択部(44cとする)を有し、また画像生成部42bは、境界強調処理部42fの代わりに平滑化処理を行う平滑化処理部(42hとする)を有する。その他の構成は、第1の実施形態と殆ど同じ構成である。
図27は本変形例の処理内容を示す。図27の処理は、図6の処理に類似するため、異なる部分のみ説明する。
図27の処理は、図6におけるステップS19の処理が、ステップS61の平滑化を選択するか否かの処理に変更される。
また、ステップS23の境界の探索の処理の後、ステップS62の平滑化の処理を行い、この平滑化の処理後にステップS63において更に境界の探索の処理を行い、境界リストの作成(更新)を行うようにしている。
本変形例においては、上記のように観察領域と未観察の領域との境界の形状を単純化して表示するため、ステップS62の平滑化の処理を行う前のポリゴンリストを例えば情報記憶部43に保持し、保持されたコピーをポリゴンリストにセットし、3Dモデル画像の生成に使用する(コピーされたポリゴンリストは平滑化により変更されるが、情報記憶部43には変更されないものが保持される)。
図27のステップS61の処理において、平滑化が選択されない場合には、ステップS20に移り、第1の実施形態において説明した処理が行われる。
一方、平滑化が選択された場合には、ステップS23においてポリゴン処理部42cは、境界を探索する処理を行う。
ステップS23の境界を探索する処理は、例えば図14〜図16を参照して説明した。境界を探索する処理により、例えば図28に示すようにポリゴンの境界が抽出される場合がある。図28は、図25に示した管腔形状のポリゴンの境界部分が凹凸部を有する複雑な形状になった様子を模式的に示す。
次のステップS62において平滑化処理部42hは、平滑化の処理を行う。平滑化処理部42hは、境界領域の複数のポリゴンにおける重心(又は頂点)の位置からの距離が最小となるような(曲率の変化量を適宜の範囲内に制限した)曲面Plを、最小二乗法等を適用して算出する。隣接するポリゴンにおいての凹凸の程度が激しいような場合には、境界に臨む全てのポリゴンに対して最小二乗法を適用する場合に限定されるものでなく、一部のポリゴンにのみ適用しても良い。
更に、平滑化処理部42hは、曲面Plの外側となるポリゴン部分を削除する処理を行う。図28においては、削除されるポリゴン部分を斜線で示している。
次のステップS63において平滑化処理部42h(又はポリゴン処理部42c)は、上記の処理(ステップS23、S62,S63)による処理に対応して、境界領域を形成するポリゴンを探索する。例えば、図28に示すように曲面Plにより一部が削除されたポリゴン(例えば符号を付けた1つのポリゴンpk)と、境界に辺が臨むポリゴンpaを探索する処理を行う。
そして、次のステップS64において、探索の処理により抽出されたこれらのポリゴンの辺を境界辺とする境界リストを作成(更新)する。このとき、曲面Plにより一部が削除されたポリゴンに対しては形状が三角形となるように新たに頂点を追加して分割する。なお、図28における上記ポリゴンpkにおいては、境界辺は、曲面Plにより一部が削除された辺ek1,ek2,と曲面Plによる辺epとなる。この場合、曲面Plによる辺epは、ポリゴンpk面内における両端を結ぶ直線状の辺で近似する。
次のステップS25において着色処理部42gは、境界リストに記載されたポリゴンの境界辺を視認し易い色で着色する処理を行い、その後、ステップS20の処理に移る。
図29はこのようにして生成され、モニタ8で表示される3Dモデル画像I3hを示す。本変形例によれば、境界部分において複雑な形状であると、単純化した境界辺として、視認し易い色で表示するため、未観察領域を把握し易くなる。
なお、曲面Plによりポリゴンを分割することをしないで、以下の方法で処理してもよい。
ステップS62において平滑化処理部42hは、曲面Plの外側となる頂点を探索する。次のステップS63において平滑化処理部42h(又はポリゴン処理部42c)は、曲面Plの外側にある頂点を含むポリゴンをコピーされたポリゴンリストから削除する処理を行う。次のステップS63において平滑化処理部42h(又はポリゴン処理部42c)は、上記の処理(ステップS23、S62,S63)による処理に対応して、曲面Plの外側にある頂点を含むポリゴンをコピーされたポリゴンリストから削除する処理を行い、他の変形例で説明した境界の探索を行う。
次に第1の実施形態の第5変形例を説明する。
第1の実施形態においては、強調表示を選択した場合、境界領域のポリゴンの辺を境界辺として抽出して、境界辺を視認し易いように着色する処理を行ったが、本変形例は3次元形状をポリゴンで表現するのではなく(例えばポリゴンにおける重心位置の点又は頂点に対応する)点で表す場合において、(ポリゴンの)境界辺の代わりに境界の点を境界点として抽出する処理を行い、境界点を視認し易いように着色する処理を行う。
このため、本変形例は、図2の構成において境界強調処理部42fが境界点を強調する処理を行う構成となる。図30Aは、本変形例における画像処理装置7′の構成を示す。本変形例における画像処理装置7′は、3次元形状をポリゴンで表示する処理等を行わないため、図2におけるポリゴン処理部42cと、内面外面判別部42eを有しない。その他の構成は、第1の実施形態と殆ど同じ構成である。
図30Bは、本変形例の処理内容を示す。図30Bに示すフローチャートは、図6のフローチャートに近い処理であるため、異なる部分のみを説明する。図30Bのフローチャートは、図6におけるステップS15〜S20の処理を行わない。このため、ステップS14の処理の後、ステップS23、S24の処理に移り、図6におけるステップS25の境界辺を着色する処理をステップS71に示すように境界点を着色する処理に変更した内容となり、ステップS71の処理の後、ステップS21の処理に移る。但し、以下に説明するように図6と同じステップS24の境界リストを作成(変更)する処理の内容等が第1の実施形態の場合と若干異なる処理内容となる。
ステップS23において境界強調処理部42fは、境界を探索して境界点を抽出する処理として、第2変形例において図22を参照して説明した処理(第1の条件又は第2の条件の少なくとも一方の条件を満たす処理)により境界点を抽出しても良い。
つまり、第1の条件として、注目する点(重心又は頂点)に対して複数の関心領域を設定し、関心領域毎のサブブロックでの点の密度等の計算し、密度等に偏りがあり、密度の値が閾値以下となる条件を満たす点を境界点として抽出する。
又は、第2の条件として、新たに追加した点の周辺に境界がある場合の点を境界点として抽出する。図22の場合には、境界点としてvr2,vr3,vr4等が抽出される。
図31は、本変形例により生成され、モニタ8に表示される3Dモデル画像I3iを示す。図31に示すように境界領域の点が視認し易い色で表示される。なお、境界領域の点を太い点(面積を膨張させた点)として、視認し易い色(強調色)で着色するようにしても良い。また、境界領域の点における隣接する2点間の中点に対しても、視認し易い色で表示するようにしても良い。
本変形例によれば、観察された構築領域と、観察されていない未構築領域の境界となる点が視認し易い色で表示されるため、未構築領域を把握し易い。なお、上記の境界点における隣接する境界点を結ぶ線(境界線と言う)を引き、着色処理部42gが、境界線も視認し易い色で着色するようにしても良い。 また、境界点から閾値以下の距離内に含まれる点も太い点(面積を膨張させた点)として、視認し易い色(強調色)で着色するようにしても良い。
なお、本変形例において、3次元形状を観察済みのポリゴンの重心で表示する場合が考えられる。この場合は、ポリゴンの重心を求める処理を行う。以下に説明する第6変形例の場合においても、同様に適用しても良い。
第5変形例における図30BにおけるステップS71の処理において、更に境界点近傍となる周辺の点も境界点と同様に視認し易い色で着色するようにしても良い(図33参照)。この場合とほぼ同様の処理結果となる第1の実施形態の第6変形例を説明する。
第6変形例は、第5変形例においての境界点とその周辺の点を視認し易い色で着色するように強調するものであり、第5変形例と同じ構成である。
図32は、本変形例の処理内容を示す。図32に示す処理は、図30Bに示す第1の実施形態の第5変形例の処理に類似しており、ステップS14の処理の後、ステップS81〜S83の処理を行い、ステップS83の処理の後、ステップS21の処理に移る。ステップS14の処理の後、ステップS81に示すように境界強調処理部42fは、1回前から追加された点を算出する処理を行う。
追加された点の範囲の例は、例えば図22において説明したポリゴンの場合と同じである。次のステップS82において境界強調処理部42fは、追加された点のリストである点リストにおける新たに追加された点を、観察された色とは異なる色(例えば赤色)に変更する。また、境界強調処理部42fは、点リストにおいて新たに追加した点から閾値以上となる距離にある、前記異なる色の点の色を、観察された色に戻す処理を行う。
次のステップS83において着色処理部42gは、前のステップS82までのポリゴンリストに記載された色に従って、ポリゴンの点を着色する処理を行い、ステップS21の処理に移る。
本変形例による3Dモデル画像I3jを図33に示す。図31の場合においての境界点の他に、その周辺の点も同様の色で着色して表示するため、術者は未観察領域を確認し易くなる。
また、例えば、ユーザによる入力装置44の操作に応じ、未観察領域のみを表示してもよい。観察領域が見えなくなることで、観察領域の裏側にある未観察領域を術者は確認し易くなる。なお、未観察領域のみを表示する機能は他の実施例や変形例に設けてもよい。
次に第1の実施形態の第7変形例を説明する。本変形例は、例えば第1の実施形態において指標の付加が選択された場合には、未観察領域を示す指標を付加して表示する。図34は本変形例における画像処理装置7Bの構成を示す。
この画像処理装置7Bは、図2の画像処理装置7において、入力装置44は、指標の表示を選択する指標表示選択部44dを有し、また画像生成部42bは、未観察の領域に指標を付加する指標付加部42iを有する。その他の構成は、第1の実施形態と同様である。図35は、本変形例の処理内容を示す。
図35のフローチャートは図6のフローチャートにおいて、さらに指標の表示の選択結果に応じて指標を表示するための処理を追加して行う処理内容となる。
ステップS19において強調表示が選択された場合には、ステップS23,24の処理を行った後、ステップS85において制御部41は、指標の表示が選択されたか否かを判定する。指標の表示が選択されない場合には、ステップS25の処理に移り、逆に指標の表示が選択された場合には、ステップS86において指標付加部42iは、付加して表示するための指標を算出する処理を行った後、ステップS25の処理に移る。
指標付加部42iは、
a.境界となった辺を含む面を算出する。
b.次に境界の点の重心を算出する。
c.次に、aにおいて算出した面の法線に平行、かつ境界の点の重心から一定距離にある点を算出し、指標を追加する。
この場合の3Dモデル画像I3kを図36に示す。図36は、図17の3Dモデル画像I3dに更に指標が付加した図となる。
また、図35においてのステップS19において強調表示が選択されない場合には、ステップS87において制御部41は、指標の表示が選択されたか否かを判定する。指標の表示が選択されない場合には、ステップS20の処理に移り、逆に指標の表示が選択された場合には、ステップS88においてステップS23と同様に境界を探索する処理を行った後、ステップS89において指標付加部42iは、付加して表示するための指標を算出する処理を行った後、ステップS20の処理に移る。
この場合の3Dモデル画像I3lを図37に示す。図37は、図13の3Dモデル画像I3cに更に指標が付加した図となる。なお、指標は、例えば黄色に着色される。
本変形例によれば、第1の実施形態のような3Dモデル画像I3c、I3dを表示するような選択ができると共に、さらに指標を付加した3Dモデル画像I3l、I3kを表示するような選択ができる。また、3Dモデル画像I13e、I13f、I13g、I13h、I13i、I13jに対して同様の処理を追加して、指標を表示してもよい。
次に第1の実施形態の第8変形例を説明する。第7変形例においては、3Dモデル画像I3c,I3dの外側に境界又は未観察領域を矢印で示す指標を表示する例を説明した。これに対して、以下に説明するように3Dモデル画像の管腔内部に設定した光源から光が未観察領域となる開口部から漏れているような指標の表示を行うようにしても良い。
本変形例の処理は、第7変形例における図36におけるステップS86又はS89の指標を算出する処理を図39に示す指標を生成する処理に変更したものとなるのみである。なお、指標付加部42iは、以下の図38等の処理を行う際の所定の面積以上となる前記未構築領域の開口部を抽出する開口部抽出部と、管腔の内部側に引かれた法線上の位置に点光源を設定する光源設定部と、の機能を備える。
図38は、本変形例における指標を生成する処理内容を示す。
指標を生成する処理が開始すると、最初のステップS91において指標付加部42iは、規定面積以上の未観察領域となる開口部を求める。図39は、図38の処理の説明図を示し、管腔臓器における規定面積(又は所定面積)以上の未観察領域となる開口部61を示す。
次のステップS92において指標付加部42iは、開口部61を構成する点の重心からの法線62を(管腔内部側に)設定する。図39における右側の図に示すように、この法線62は、重心66と、開口部61を構成する点のうち、前記重心66に最も近い点67および前記重心66に最も遠い点68の合計3点を通る面に対する法線62で、重心66から単位長で延びる。その方向は、3Dモデルを形成するポリゴンの多い方向である。なお、上記3点の他に、開口部61上に適宜に設定した3つの代表点でも良い。
次のステップS93において指標付加部42iは、開口部61の重心66の位置からの法線62に沿った規定の長さの(管腔内部の)位置に点光源63を設定する。
次のステップS94において指標付加部42iは、点光源63から開口部61(上の各点)を通り、開口部61の外側に延びる線分64を引く。
次のステップS95において指標付加部42iは、線分64を点光源63の色(例えば黄色)で着色する。図38に示すような処理の他に、以下のような処理を行うようにして指標を付加する表示を行うようにしても良い。以下の処理においても、図38のステップS91〜S93までは同じである。
ステップS93の次のステップとして、図40における最も上の図に示すように開口部61における重心66を挟むように対向する2点と、点光源63を結ぶ線分(点線で示す線分)64aを引き、2点から開口部61の外側に伸びる線分(実線で示す線分)65bと、2点間を結ぶ線分と、を結ぶ多角形の領域(斜線で示す領域)を点光源の色で着色して指標65とする。 換言すると、点光源63から、重心66を挟むように対向する開口部61上の2点を通る2つの線分がなす角度以内で、前記開口部61の外側となる領域を点光源63の色で着色して指標65を形成する。
なお、表示画面に垂直な軸をZ軸とすると、図40における最も下の図に示すように法線62がZ軸に対する角度θが、ある角度以内(例えば45度以内)の場合、太い斜線で示す開口部61内を着色し表示する。
図41は、本変形例における強調表示と指標表示を選択した場合の3Dモデル画像I3mを示す。
図41に示すように強調表示と共に、未観察領域を示すために未観察領域に臨む開口から光が漏れるような指標(図41では斜線で示す部分)65が表示されることにより、規定面積以上の未観察領域が存在する様子が視認し易い状態で認識できる。
次に第1の実施形態の第9変形例を説明する。上述した第1の実施形態及びその変形例においては、図13,図17,図20,図23等に示したように所定の方向から見た場合の3Dモデル画像を生成し、表示するようにしていた。
図42は、本変形例における画像処理装置7Cの構成を示す。
本変形例においては、第1の実施形態における図2の構成において画像生成部42bは、さらに3Dモデル画像を回転する回転処理部42jと、境界(領域)又は未観察領域又は未構築領域の数を計数する領域計数部(領域カウント部)42kとを有する。
そして、回転処理部42jにより所定の方向から見た場合の3Dモデル画像を、その芯線の回り等において回転し、所定の方向から見た場合の3Dモデル画像を正面画像とした場合、所定の方向の反対側となる背面から見た背面画像とを並べて表示したり、更に術者が選択した複数の方向から見た3Dモデル画像を並べて表示したりすることができるようにしている。そして、境界の見落としを防止できるようにしている。
例えば、領域計数部(領域カウント部)42kが、所定の方向から見た正面画像における未構築領域の数が0の場合には、その数が1以上となるように回転処理部42jにより3Dモデル画像を回転させるようにしても良い(但し、未構築領域が全く存在しない場合を除く)。また、画像生成部42bは、3次元モデルデータの未構築領域が視認不可となった場合、3次元モデルデータに対して回転処理を施し、未構築領域を視認可能にする3次元モデル画像を生成し、その3次元モデル画像を表示するようにしても良い。
また、図43Aに示すように、本変形例の3Dモデル画像I3nとして、所定方向から見た場合に正面側に現れる境界(又は未観察領域)を強調して表示する例えば3Dモデル画像I3dの他に、背面側から見た場合に現れる背面側の境界Bbを正面側に現れる境界を表す色(例えば赤色)とは異なる色(例えば紫色、なお背景の色は薄い青色であり両色は区別が付く)で点線で示すようにしても良い。
また、3Dモデル画像I3oにおいて、領域計数部42kにより計数した離散的に存在する境界(領域)の計数値をモニタ8の表示画面内に表示するようにしても良い(図43Aでは計数値は4)。
図43Aに示すように表示することにより、所定方向(正面)から見た場合には現れない背面側に現れる境界を、正面の場合の境界を表す色と異なる色で表示することにより、背面側の境界の見落としを防止できると共に、計数値の表示によっても境界の見落としを有効に防止できる。その他、第1の実施形態と同様の効果を有する。
なお、この他に、境界のみ又は境界領域のみを表示し、観察済みの3Dモデル形状を表示しないようにしても良い。例えば、図43Aにおける4つの境界(領域)のみを表示するようにしても良い。この場合には、境界(領域)が中空に浮いて表示されるイメージとなる。又は、3Dモデル形状の輪郭を2点鎖線などで表示し、その3Dモデル形状の輪郭上に境界(領域)を表示し、境界(領域)が3D形状におけるどのような位置や境界形状になっているかを把握し易くするように表示するようにしても良い。このように表示した場合も、境界の見落としを有効に防止できる。
また、以下のように3Dモデル画像を回転して表示するようにしても良い。
未構築領域が、モニタ8の表面上においてユーザから見て構築領域の裏(背面)側に配置されて重畳され、ユーザが視認不可能になったことを検知すると、その未構築領域が視認し易い正面となるように回転処理部42jが3Dモデル画像を自動回転するようにしても良い。
また、未構築領域が複数存在する場合、面積が大きい未構築領域が、正面となるように回転処理部42jが3Dモデル画像を自動回転するようにしても良い。
例えば、図43Bに示す回転処理目の3Dモデル画像I3n−1を、図43Cに示すように面積が大きい未構築領域が、正面となるように回転して表示するようにしても良い。なお、図43B及び図43Cでは、モニタ8の表示画面に内視鏡画像と、3Dモデル画像I3n−1とが左右に配置した状態で示している。また、表示画面の右側には、3Dモデル画像I3n−1でモデル化されて表示される腎盂・腎杯の3D形状を示している。
また、未構築領域が複数存在する場合、内視鏡2Iの先端位置に最も近い未構築領域が正面になるように回転処理部42jが3Dモデル画像を自動回転するようにしても良い。
なお、未構築領域を拡大して表示するようにしても良い。未構築領域を視認し易く表示するために、未観察領域を大きく拡大して表示するようにしても良い。
例えば、図43Dにおいて点線で示すように未構築領域Bu1が裏(背面)側において、存在した場合には、その未構築領域Bu1を覆う手前側の構築領域部分よりも拡大した未構築領域Bu2のように表示することにより、未構築領域(の一部)を視認できるようにしても良い。
なお、裏(背面)側においての未構築領域に限らず、全ての未構築領域を拡大表示して、未構築領域をより視認し易いようにしても良い。
次に第1の実施形態の第10変形例を説明する。図44は第10変形例における画像処理装置7Dを示す。本変形例は、図42に示す第9変形例の画像処理装置7Cにおいて、画像生成部42bは、更に未構築領域のサイズを算出するサイズ算出部42lを有する。また、サイズ算出部42lは、未構築領域のサイズが閾値以下か否かを判定する判定部42mの機能を持つ。なお、サイズ算出部42lの外部に、判定部42mを設けるようにしても良い。その他は、第9変形例と同様の構成である。
本変形例におけるサイズ算出部42lは、領域計数部42kにより計数された各未構築領域の面積のサイズを算出する。そして、算出された未構築領域のサイズが閾値以下の場合には、その未構築領域(の境界)を視認し易いように強調して表示する処理を行わないようにすると共に、未構築領域の数に含めないようにする。
図45は、閾値以下の境界B1と、閾値を超える境界B2とを有する3D形状データを示す。境界B2は、赤色等の視認し易い色(例えば赤色)で強調するように表示され、これに対して境界B1は、観察する必要性がない小さな面積であるため、強調する処理を行わないか、その境界の開口をポリゴンで塞ぐ処理を行う(又はその開口をポリゴンで塞ぎ、擬似的に観察領域とする処理を行う)。換言すると、閾値以下の境界B1を持つ未構築領域に対しては、視認可能にする処理や、視認し易くする処理を施さないと言っても良い。
また、本変形例として、判定部42mが、強調する処理を行うか否かを判定する場合、上記のように未構築領域又は境界の面積が閾値以下か否かにより判定する条件に限らず、以下の条件により判定しても良い。
つまり、判定部42mは、以下の条件A〜Cの少なくとも1つを満たす場合、強調処理を行わないか、擬似的に観察領域とする。
A.境界の長さが長さの閾値以下の場合、
B.境界を構成する頂点の数が頂点の数の閾値以下の場合、
C.境界の座標を主成分分析したときの第2主成分の最大と最小の差、又は第3主成分の最大と最小の差が成分の閾値以下の場合、
図46は、条件Cの説明図を示す。図46は管腔の3D形状データを示し、右端が複雑な形状の境界Bとなり、管腔の長手方向が第1主成分の軸A1となり、紙面内において第1主成分の軸A1に垂直な方向が第2主成分の軸A2、紙面に垂直な方向が第3主成分の軸A3となる。
次に、第1主成分の軸A1に、垂直な面に境界の座標を投影する。図47は、投影した場合の図を示す。図47に示す平面における各軸に平行な向きでの長さを求め、判定部42mは、第2主成分の最大と最小の差、又は第3主成分の最大と最小の差が成分の閾値以下か否かを判定する。図47では第2主成分の最大の長さL1と、第3主成分の最大の長さL2とを示している。
本変形例によれば、第9変形例の効果を有すると共に、さらに観察する必要性が無い小さな境界を表示しないようにして無駄な表示を行わないようにできる。
次に第1の実施形態の第11変形例を説明する。図48は第11変形例における画像処理装置7Eを示す。図48の画像処理装置7Eは、図2の画像処理装置7において更に3D形状データに芯線を生成する芯線生成部42nを有する。また、入力装置44は、3Dモデル画像を芯線で表示する芯線表示選択部44eを有する。
本変形例においては、入力装置44において、芯線表示選択部44eにより3Dモデル画像を芯線で表示する選択を行わない場合には第1の実施形態と同様の処理となり、芯線表示選択部44eにより芯線で表示する選択を行った場合には、図49に示す処理を行う。
次に図49の処理を説明する。図49の処理が開始すると、ステップS101において画像処理部42は、ビデオプロセッサ4から2D画像を取得し、時間的にほぼ連続して入力される2D画像から3D形状を構築する。この具体的な方法として、前述の図6のステップS11からステップS20と同様の処理により(マーチングキューブ法などにより)2D画像から3D形状を形成することができる。
ステップS102で芯線作成モード切り替え判断がされると、3D形状構築を終了し、芯線作成モードへ移行する。芯線作成モード切替判断は、操作者による操作手段入力もしくは、3D形状の構築の進行度合いを処理装置で判断することなどで可能となる。
芯線作成モード切替後、ステップS103にてステップS101で作成された形状の芯線の作成を行う。なお、芯線化処理については、公知な方法を採用することができ、たとえば“安江正宏,森 健策,齋藤豊文,他:3次元濃淡画像の細線化法と医用画像への応用における能力の比較評価.電子情報通信学会論文誌J79‐D‐H(10):1664-1674,1996”や、“齋藤豊文,番正聡志,鳥脇純一郎:ユークリッド距離に基づくスケルトンを用いた3次元細線化手法の改善−ひげの発生を制御できる−手法.電子情報通信学会論文誌(E日刷中),2001”などに記載の方法を用いることができる。
芯線作成後、ステップS104にて3D形状の未観察領域を示す異なる色の着色領域から芯線に向かった垂線と芯線の交点の位置を導出する。それを模擬的に表したのが図50である。図50では3D形状上に未観察領域を示すRm1およびRm2(図50では斜線で示している着色領域)が存在する。ステップS103で既に形成された点線で示される芯線に向かい、未観察領域Rm1およびRm2より垂線を下ろす。この垂線と芯線の交点は芯線上の実線で示す線分L1,L2で示される。そしてステップS105にてこの線分L1,L2を芯線のほかの領域と異なる色(例えば赤色)で着色する。
ここまでの処理により、観察済み領域および未観察領域を擬似的に示す芯線を表示させる(ステップS106)。
芯線の形成および表示ができた後、芯線作成モードを終了する(ステップS107)。
次に、ステップS108により、取り込まれた観察位置視線方向データより観察位置・視線方向推定処理部は内視鏡の観察位置・視線方向を推定する。
さらに、ステップS108で推定した観察位置を芯線上に擬似的に示すため、ステップS109にて観察位置の芯線上への移動計算を行う。このステップS109では、推定された観察位置と芯線の距離が最も小さくなる芯線上の点に推定された観察位置を移動させる。
ステップS110ではステップS109で推定された擬似的な観察位置を芯線と共に表示する。これにより、操作者は未観察領域に近づいたかどうかを判断することができる。
この表示は検査終了(ステップS111)の判断がされるまでステップS108までさかのぼり繰り返される。
図51は、ステップS106を終えた状態の一例を示しており、未観察領域Rm1及びRm2を含む観察領域において生成された芯線画像Icを示す。図51において、芯線71と線分72による芯線とは異なる色で表示され、術者等のユーザは、線分72による芯線から容易に未観察領域が存在することを視認できる。
上述した第1の実施形態から第11変形例までの機能を持つ画像処理装置を設けるようにしても良い。図52は、そのような機能を持つ第12変形例における画像処理装置7Gを示す。図52に示す画像処理装置7Gにおける画像生成部42bにおける構成要素や入力装置44における各構成要素に関しては、既に説明したものであるので、その説明を省略する。本変形例によれば、術者等のユーザは、モニタ8において表示する場合の3Dモデル画像の表示形態を選択する選択肢が増え、上述した効果の他に、ユーザの要望により広く対応できる3Dモデル画像を表示することができる。
なお、上述した変形例を含む第1の実施形態において、内視鏡2A等は可撓性(又は軟性)の挿入部11を有する軟性内視鏡の場合に限定されるものでなく、硬性の挿入部を有する硬性内視鏡を用いた場合にも適用できる。
また、本発明は、また、医療分野において用いられる医療用内視鏡の場合の他に、工業用分野において用いられる工業用内視鏡を用いてプラント等の内部を観察、検査する場合にも適用できる。
また、上述した変形例を含む実施形態を部分的に組み合わせて異なる実施形態を構成しても良い。更に、ポリゴン(多角形)の内面(内壁面又は内壁領域)と外面(外壁面又は外壁領域)とを異なる色で着色せずに強調表示のみを実施してもよい。
また、複数の請求項を1つの請求項に統合することはもとより、1つの請求項の内容を複数の請求項に分割しても良い。
本出願は、2015年9月28日に日本国に出願された特願2015−190133号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲、図面に引用されたものとする。

Claims (19)

  1. 被検体内を撮像する撮像装置から前記被検体内における領域に関する撮像信号が入力された場合に前記撮像信号に基づいて前記領域の形状を示す3次元データを生成する3次元モデル構築部と、
    前記3次元モデル構築部により生成された前記3次元データに対して、前記撮像装置により撮像された領域である構築領域と、前記撮像装置により未だ撮像されていない領域である未構築領域と、の境界領域を視認可能とする処理を行うとともに3次元画像を生成す画像生成部と、
    を備えることを特徴とする画像処理装置。
  2. 前記3次元モデル構築部は、前記撮像装置から前記被検体内における第1の領域に関する第1の撮像信号が入力された場合に前記第1の撮像信号に基づいて前記第1の領域の形状を示す3次元データを生成し、
    前記画像生成部は、前記第1の領域の形状を示す3次元データに基づく3次元画像を生成して表示部へ出力し、
    更に、前記3次元モデル構築部は、前記第1の撮像信号が入力された後に前記撮像装置から前記第1の領域とは異なる領域を含む第2の領域に関する第2の撮像信号が入力された場合に、前記第2の撮像信号に基づく前記第2の領域の形状を示す3次元データを生成し、
    更に、前記画像生成部は、前記第2の領域の形状を示す3次元データに基づいて、前記第1の領域と前記第2の領域との3次元画像を生成して前記表示部へ出力することを特徴とする請求項1に記載の画像処理装置。
  3. 前記3次元モデル構築部は、前記第1の撮像信号よりも後に前記撮像装置から入力される撮像信号のうち、前記第1の撮像信号に含まれる前記第1の領域に対して所定の変化量が検出された撮像信号を前記第2の撮像信号とすることを特徴とする請求項2に記載の画像処理装置。
  4. 前記画像生成部は、前記第1の領域の形状を示す3次元データと、前記第2の領域の形状を示す3次元データと、を合成することにより3次元画像を生成して前記表示部へ出力することを特徴とする請求項2に記載の画像処理装置。
  5. 前記3次元モデル構築部は、前記第1の撮像信号に基づいて生成した前記第1の領域の形状を示す3次元データを記憶部へ格納し、前記第2の撮像信号に基づいて生成した前記第2の領域の形状を示す3次元データを前記記憶部へ追加して格納し、
    前記画像生成部は、前記記憶部に格納された前記第1の領域の形状を示す3次元データ及び前記第2の領域の形状を示す3次元データを合成することにより3次元画像を生成して前記表示部へ出力することを特徴とする請求項2に記載の画像処理装置。
  6. 前記3次元モデル構築部は、前記第1の撮像信号が入力された場合に、前記第1の領域の形状を示す3次元データを生成する代わりに前記第1の撮像信号を記憶部へ格納し、前記第2の撮像信号が入力された場合に、前記第2の領域の形状を示す3次元データを生成する代わりに前記第2の撮像信号を前記記憶部へ格納し、
    前記画像生成部は、前記記憶部に格納された前記第1の撮像信号及び前記第2の撮像信号に基づいて3次元画像を生成して前記表示部へ出力することを特徴とする請求項2に記載の画像処理装置。
  7. 前記被検体内に挿入される挿入部の先端位置を示す情報である先端位置情報を取得する位置情報取得部を更に備え、
    前記3次元モデル構築部及び前記画像生成部は、前記挿入部の挿入動作に伴う前記先端位置情報の変化に基づいて3次元画像を生成することを特徴とする請求項1に記載の画像処理装置。
  8. 前記画像生成部は、前記被検体の3次元画像を生成する際に、前記3次元モデル構築部により構築された3次元データの内壁領域の色と外壁領域の色とを異ならせるための処理を行うことを特徴とする請求項1に記載の画像処理装置。
  9. 前記画像生成部は、前記3次元モデル構築部により構築された3次元データに対して、前記被検体の3次元画像における管腔の前記未構築領域と構築領域との境界領域を平滑化して略曲線で表現するための処理を行うことを特徴とする請求項1に記載の画像処理装置。
  10. 前記画像生成部は、前記被検体の3次元画像を生成する際に、前記未構築領域の周辺領域に対して指標情報を付加することを特徴とする請求項1に記載の画像処理装置。
  11. 前記画像生成部は、前記未構築領域が視認不可となった場合に、前記3次元モデル構築部により構築された3次元データに対して回転処理を施すことにより、当該視認不可となった未構築領域を視認可能とするための処理を行うこと特徴とする請求項1に記載の画像処理装置。
  12. 前記画像生成部は、前記未構築領域が視認不可となった場合に、当該視認不可となった未構築領域を他の未構築領域とは異なる色で示すための処理を行うこと特徴とする請求項1に記載の画像処理装置。
  13. 前記画像生成部は、前記3次元モデル構築部により構築された3次元データにおける前記未構築領域の数を算出し、前記未構築領域の数を表示部に表示するための処理を行うことを特徴とする請求項1に記載の画像処理装置。
  14. 前記画像生成部は、前記3次元モデル構築部により構築された3次元データにおける各々の前記未構築領域のサイズを算出するサイズ算出部と、
    前記サイズ算出部により算出された前記サイズが所定の閾値より小さいか否かを判定する判定部と、を備え、
    前記判定部により前記サイズが前記所定の閾値より小さいと判定された前記未構築領域に対して、視認可能にする処理を施さないことを特徴とする請求項1に記載の画像処理装置。
  15. 前記画像生成部は、前記3次元モデル構築部により構築された3次元データに対して、前記被検体の3次元画像における管腔の前記未構築領域と構築領域との境界領域のみを視認可能とするための処理を行うことを特徴とする請求項1に記載の画像処理装置。
  16. 前記画像生成部は、前記3次元モデル構築部により構築された3次元データの芯線データを生成する芯線生成部をさらに備え、
    前記芯線データに対して、前記未構築領域に対応する領域の色を異ならせた芯線画像を生成することを特徴とする請求項1に記載の画像処理装置。
  17. 前記画像生成部は、前記3次元モデル構築部により構築された3次元データに対して、前記被検体の3次元画像における管腔の前記未構築領域と構築領域との境界領域の色を可変にするための処理を行うことを特徴とする請求項1に記載の画像処理装置。
  18. 前記未構築領域は、内視鏡により観察されていない前記被検体の内部の領域であることを特徴とする請求項1記載の画像処理装置。
  19. 3次元モデル構築部が、被検体内を撮像する撮像装置から前記被検体内における領域に関する撮像信号が入力された場合に前記撮像信号に基づいて前記領域の形状を示す3次元データを生成し、
    画像生成部が、前記3次元モデル構築部により生成された前記3次元データに対して、前記撮像装置により撮像された領域である構築領域と、前記撮像装置により未だ撮像されていない領域である未構築領域と、の境界領域を視認可能とする処理を行うとともに3次元画像を生成する
    ことを特徴とする画像処理方法。
JP2017521261A 2015-09-28 2016-09-27 画像処理装置及び画像処理方法 Active JP6242543B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015190133 2015-09-28
JP2015190133 2015-09-28
PCT/JP2016/078396 WO2017057330A1 (ja) 2015-09-28 2016-09-27 内視鏡システム及び画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2017057330A1 JPWO2017057330A1 (ja) 2017-10-12
JP6242543B2 true JP6242543B2 (ja) 2017-12-06

Family

ID=58423535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017521261A Active JP6242543B2 (ja) 2015-09-28 2016-09-27 画像処理装置及び画像処理方法

Country Status (4)

Country Link
US (1) US20180214006A1 (ja)
JP (1) JP6242543B2 (ja)
CN (1) CN108135453B (ja)
WO (1) WO2017057330A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110769731B (zh) * 2017-06-15 2022-02-25 奥林巴斯株式会社 内窥镜系统、内窥镜用处理系统、图像处理方法
JP2019098005A (ja) * 2017-12-06 2019-06-24 国立大学法人千葉大学 内視鏡画像処理プログラム、内視鏡システム及び内視鏡画像処理方法
US11200713B2 (en) * 2018-10-05 2021-12-14 Amitabha Gupta Systems and methods for enhancing vision
US20220148209A1 (en) * 2019-03-25 2022-05-12 Sony Group Corporation Medical system, signal processing device, and signal processing method
EP4094673A4 (en) * 2020-01-20 2023-07-12 FUJIFILM Corporation MEDICAL IMAGE PROCESSING DEVICE, MEDICAL IMAGE PROCESSING DEVICE OPERATION METHOD, AND ENDOSCOPIC SYSTEM
CN111275693B (zh) * 2020-02-03 2023-04-07 北京明略软件系统有限公司 一种图像中物体的计数方法、计数装置及可读存储介质
JP7441934B2 (ja) * 2020-02-27 2024-03-01 オリンパス株式会社 処理装置、内視鏡システム及び処理装置の作動方法
WO2021221017A1 (ja) * 2020-04-28 2021-11-04 Hoya株式会社 内視鏡システム
WO2022202520A1 (ja) * 2021-03-26 2022-09-29 富士フイルム株式会社 医療情報処理装置、内視鏡システム、医療情報処理方法、及び医療情報処理プログラム
JPWO2022230160A1 (ja) * 2021-04-30 2022-11-03
WO2023119373A1 (ja) * 2021-12-20 2023-06-29 オリンパスメディカルシステムズ株式会社 画像処理装置、画像処理方法、プログラム、およびプログラムを記録している不揮発性記憶媒体

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7300398B2 (en) * 2003-08-14 2007-11-27 Siemens Medical Solutions Usa, Inc. Method and apparatus for registration of virtual endoscopic images
JP2005305006A (ja) * 2004-04-26 2005-11-04 Iden Videotronics:Kk カプセル型内視鏡の適応型撮影タイミングの決定方法
US8035637B2 (en) * 2006-01-20 2011-10-11 3M Innovative Properties Company Three-dimensional scan recovery
JP2007260144A (ja) * 2006-03-28 2007-10-11 Olympus Medical Systems Corp 医療用画像処理装置及び医療用画像処理方法
US20080033302A1 (en) * 2006-04-21 2008-02-07 Siemens Corporate Research, Inc. System and method for semi-automatic aortic aneurysm analysis
WO2008093517A1 (ja) * 2007-01-31 2008-08-07 National University Corporation Hamamatsu University School Of Medicine 手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラム
WO2009001298A2 (en) * 2007-06-26 2008-12-31 Densys Ltd. Supplemental scene reference surface devices for three-dimensional mapping
JPWO2009084345A1 (ja) * 2007-12-28 2011-05-19 オリンパスメディカルシステムズ株式会社 医療機器システム
US20110187707A1 (en) * 2008-02-15 2011-08-04 The Research Foundation Of State University Of New York System and method for virtually augmented endoscopy
JP5354494B2 (ja) * 2009-04-21 2013-11-27 国立大学法人 千葉大学 3次元画像生成装置、3次元画像生成方法、及びプログラム
JP5421828B2 (ja) * 2010-03-17 2014-02-19 富士フイルム株式会社 内視鏡観察支援システム、並びに、内視鏡観察支援装置、その作動方法およびプログラム
DE102011078212B4 (de) * 2011-06-28 2017-06-29 Scopis Gmbh Verfahren und Vorrichtung zum Darstellen eines Objektes
JP6015501B2 (ja) * 2012-06-01 2016-10-26 ソニー株式会社 歯用装置及び医療用装置
JP5961504B2 (ja) * 2012-09-26 2016-08-02 富士フイルム株式会社 仮想内視鏡画像生成装置およびその作動方法並びにプログラム
US9386908B2 (en) * 2013-01-29 2016-07-12 Gyrus Acmi, Inc. (D.B.A. Olympus Surgical Technologies America) Navigation using a pre-acquired image
JP5887367B2 (ja) * 2014-01-30 2016-03-16 富士フイルム株式会社 プロセッサ装置、内視鏡システム、及び内視鏡システムの作動方法
EP2904988B1 (de) * 2014-02-05 2020-04-01 Sirona Dental Systems GmbH Verfahren zur intraoralen dreidimensionalen Vermessung
JP6323183B2 (ja) * 2014-06-04 2018-05-16 ソニー株式会社 画像処理装置および画像処理方法
WO2015194242A1 (ja) * 2014-06-18 2015-12-23 オリンパス株式会社 画像処理装置

Also Published As

Publication number Publication date
WO2017057330A1 (ja) 2017-04-06
JPWO2017057330A1 (ja) 2017-10-12
CN108135453B (zh) 2021-03-23
CN108135453A (zh) 2018-06-08
US20180214006A1 (en) 2018-08-02

Similar Documents

Publication Publication Date Title
JP6242543B2 (ja) 画像処理装置及び画像処理方法
EP2888991B1 (en) Endoscope system
US9516993B2 (en) Endoscope system
JP5718537B2 (ja) 内視鏡システム
JP5715311B2 (ja) 内視鏡システム
JP6045417B2 (ja) 画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理装置の作動方法
WO2016143312A1 (ja) 分岐構造判定装置、方法およびプログラム
JP6967602B2 (ja) 検査支援装置、内視鏡装置、内視鏡装置の作動方法、及び検査支援プログラム
JP5977900B2 (ja) 画像処理装置
JP5748520B2 (ja) 内視鏡挿入支援装置およびその作動方法、並びに内視鏡挿入支援プログラム
JPWO2014156378A1 (ja) 内視鏡システム
JP5326064B2 (ja) 画像処理装置
JP2017225700A (ja) 観察支援装置及び内視鏡システム
WO2017212725A1 (ja) 医療用観察システム
JP7385731B2 (ja) 内視鏡システム、画像処理装置の作動方法及び内視鏡
JP6150555B2 (ja) 内視鏡装置、内視鏡装置の作動方法及び画像処理プログラム
JP5613353B2 (ja) 医療装置
JP5554028B2 (ja) 医用画像処理装置、医用画像処理プログラム、及びx線ct装置
US20170100019A1 (en) Medical equipment system and operation method of medical equipment system
US20210052146A1 (en) Systems and methods for selectively varying resolutions
Suter et al. Macro-optical color assessment of the pulmonary airways with subsequent three-dimensional multidetector-x-ray-computed-tomography<? xpp qa?> assisted display
JP6211239B1 (ja) 内視鏡装置

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171107

R151 Written notification of patent or utility model registration

Ref document number: 6242543

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250