JP6242543B2 - 画像処理装置及び画像処理方法 - Google Patents
画像処理装置及び画像処理方法 Download PDFInfo
- Publication number
- JP6242543B2 JP6242543B2 JP2017521261A JP2017521261A JP6242543B2 JP 6242543 B2 JP6242543 B2 JP 6242543B2 JP 2017521261 A JP2017521261 A JP 2017521261A JP 2017521261 A JP2017521261 A JP 2017521261A JP 6242543 B2 JP6242543 B2 JP 6242543B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- unit
- dimensional
- boundary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 321
- 238000003672 processing method Methods 0.000 title claims description 9
- 238000000034 method Methods 0.000 claims description 150
- 230000008569 process Effects 0.000 claims description 128
- 238000003384 imaging method Methods 0.000 claims description 104
- 238000010276 construction Methods 0.000 claims description 71
- 238000003780 insertion Methods 0.000 claims description 49
- 230000037431 insertion Effects 0.000 claims description 49
- 230000008859 change Effects 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000002093 peripheral effect Effects 0.000 claims description 2
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 230000004048 modification Effects 0.000 description 104
- 238000012986 modification Methods 0.000 description 104
- 238000010586 diagram Methods 0.000 description 54
- 239000013598 vector Substances 0.000 description 37
- 238000004040 coloring Methods 0.000 description 36
- 230000003287 optical effect Effects 0.000 description 30
- 210000000056 organ Anatomy 0.000 description 27
- 238000013500 data storage Methods 0.000 description 23
- 210000003734 kidney Anatomy 0.000 description 21
- 210000000244 kidney pelvis Anatomy 0.000 description 21
- 230000005484 gravity Effects 0.000 description 19
- 238000009499 grossing Methods 0.000 description 19
- 238000005286 illumination Methods 0.000 description 13
- 238000001514 detection method Methods 0.000 description 12
- 239000003086 colorant Substances 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 210000000626 ureter Anatomy 0.000 description 10
- 230000000694 effects Effects 0.000 description 7
- 238000005452 bending Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 230000001965 increasing effect Effects 0.000 description 3
- 238000007689 inspection Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000004441 surface measurement Methods 0.000 description 2
- 238000010835 comparative analysis Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000009751 slip forming Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000095—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/0002—Operational features of endoscopes provided with data storages
- A61B1/00022—Operational features of endoscopes provided with data storages removable
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/0005—Display arrangement combining images e.g. side-by-side, superimposed or tiled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00112—Connection or coupling means
- A61B1/00117—Optical cables in or with an endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00112—Connection or coupling means
- A61B1/00121—Connectors, fasteners and adapters, e.g. on the endoscope handle
- A61B1/00126—Connectors, fasteners and adapters, e.g. on the endoscope handle optical, e.g. for light supply cables
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00163—Optical arrangements
- A61B1/00194—Optical arrangements adapted for three-dimensional imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/0661—Endoscope light sources
- A61B1/0669—Endoscope light sources at proximal end of an endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/07—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/307—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the urinary organs, e.g. urethroscopes, cystoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
- A61B5/062—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/145—Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
- A61B5/14507—Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue specially adapted for measuring characteristics of body fluids other than blood
- A61B5/1451—Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue specially adapted for measuring characteristics of body fluids other than blood for interstitial fluid
- A61B5/14514—Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue specially adapted for measuring characteristics of body fluids other than blood for interstitial fluid using means for aiding extraction of interstitial fluid, e.g. microneedles or suction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/30—Polynomial surface description
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/367—Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Optics & Photonics (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Urology & Nephrology (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Algebra (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Endoscopes (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Description
例えば、日本国特許第5354494号の従来例は、内視鏡により観察した領域を提示するために、内視鏡により撮像した内視鏡画像から臓器の内腔形状を生成し、表示する内視鏡システムが提案されている。
このように、内視鏡により取得される画像は、2次元画像であるため、2次元画像から3次元形状画像を生成することが必要になる。そして、日本国特許第5354494号では、2次元画像から3次元形状画像を生成するアルゴリズムが提案されているものの、当該生成された3次元形状画像がどのように表示されるかについては開示も示唆もなされていない。すなわち、日本国特許第5354494号によれば、3次元形状画像をユーザに見易く表示する機能が欠けている。
(第1の実施形態)
図1に示す内視鏡システム1は、被検体内に挿入される内視鏡2Aと、該内視鏡2Aに照明光を供給する光源装置3と、内視鏡2Aに設けられた撮像部に対する信号処理を行う信号処理装置としてのビデオプロセッサ4と、ビデオプロセッサ4により生成された内視鏡画像を表示する内視鏡画像表示装置としてのモニタ5と、内視鏡2A内に設けられたセンサに基づいて内視鏡2Aの挿入部形状を検出する挿入部形状検出装置としてのUPD装置6と、2次元画像から3次元(3Dとも表記)モデル画像を生成する画像処理を行う画像処理装置7と、該画像処理装置7により生成した3Dモデル画像を表示する表示装置としてのモニタ8とを有する。なお、図1に実線で示すUPD装置6と別体の画像処理装置7の代わりに、点線で示すようにUPD装置6を含む構成の画像処理装置7Aを用いるようにしても良い。また、3次元モデル画像を生成する処理に位置情報も画像から推定する場合はUPD装置6を設けなくてもよい。
内視鏡2Aは、患者9における観察対象の被検体となる所定の管腔臓器(単に管腔臓器とも言う)の一部を形成する例えば尿管10内に挿入される挿入部11と、この挿入部11の後端(基端)に設けられた操作部12と、操作部12から延出されるユニバーサルケーブル13とを有し、ユニバーサルケーブル13の端部に設けたライトガイドコネクタ14は、光源装置3のライトガイドコネクタ受けに着脱自在に接続される。
挿入部11は、その先端に設けられた先端部15と、該先端部15の後端に設けられた湾曲可能な湾曲部16と、該湾曲部16の後端から操作部12の前端まで延びる可撓性を有する可撓管部17とを有する。
操作部12には湾曲部16を湾曲操作するための湾曲操作ノブ18が設けられている。
図1における一部の拡大図で示すように挿入部11内には、照明光を伝送するライトガイド19が挿通されており、このライトガイド19の先端は、先端部15の照明窓に取り付けられ、ライトガイド19の後端は、ライトガイドコネクタ14に至る。
ライトガイドコネクタ14には、光源装置3の光源ランプ21で発生した照明光が集光レンズ22により集光されて入射され、ライトガイド19は伝送した照明光を照明窓に取り付けられた先端面から出射する。
照明光により照明された管腔臓器内の観察対象部位(被写体とも言う)は、先端部15の照明窓に隣接して設けられた観察窓(撮像窓)に取り付けられた対物光学系23によりその結像位置に光学像が結像される。対物光学系23の結像位置には、撮像素子としての例えば電荷結合素子(CCDと略記)24の撮像面が配置される。このCCD24は、所定の画角(視野角)を有する。
CCD24は、挿入部11内などを挿通された信号線26の一端と接続され、該信号線26の他端はライトガイドコネクタ14に接続される接続ケーブル27(内の信号線)を介して該接続ケーブル27の端部の信号コネクタ28に至る。この信号コネクタ28はビデオプロセッサ4の信号コネクタ受けに着脱自在に接続される。
ビデオプロセッサ4は、CCD駆動信号を発生するドライバ31と、CCD24の出力信号に対する信号処理を行い、モニタ5に内視鏡画像として表示する画像信号(映像信号)を生成する信号処理回路32とを有する。ドライバ31は、信号線26等を介してCCD24にCCD駆動信号を印加し、CCD駆動信号の印加によりCCD24は、撮像面に結像された光学像を光電変換した撮像信号を出力信号として出力する。
内視鏡2Aは、例えばライトガイドコネクタ14内に、該内視鏡2Aに固有の情報を格納したメモリ30を有し、このメモリ30は、内視鏡2Aに搭載されたCCD24が有する画角を表す情報としての画角データ(又は画角情報)を格納している。また、光源装置3は、ライトガイドコネクタ14が光源装置3に接続された際に、光源装置3内部に設けた読出回路29aが、メモリ30に接続された電気接点を介して画角データを読み出す。
読出回路29aは、読み出した画角データを、通信線29bを介して画像処理装置7に出力する。また、読出回路29aは、読み出したCCD24の画素数データを通信線29cを介してビデオプロセッサ4のドライバ31と信号処理回路32に出力する。ドライバ31は、入力された画素数データに応じたCCD駆動信号を発生し、信号処理回路32は画素数データに対応した信号処理を行う。
上記信号処理回路32は、生成した例えばデジタルの画像信号としての2次元の内視鏡画像データ(画像データとも言う)を画像処理装置7に入力する入力部を形成する。
挿入部11内には、挿入部11が被検体内に挿入された場合の挿入形状を検出するためのセンサとなる複数のソースコイル34が挿入部11の長手方向に沿って、適宜の間隔で配置されている。また、先端部15内においては、挿入部11の長手方向に沿って配置された2つのソースコイル34a,34bと、例えば2つのソースコイル34a,34bを結ぶ線分と直交する方向に配置されたソースコイル34cとが配置されている。そして、ソースコイル34a,34bを結ぶ線分方向が撮像部25を構成する対物光学系23の光軸方向(又は視線方向)とほぼ一致し、3つのソースコイル34a,34b,34cを含む面がCCD24の撮像面における上下方向にほぼ一致するように配置されている。
ソースコイル位置検出回路39は、対物光学系23の3次元位置及び視線方向の情報を取得する情報取得部を形成する。
なお、図1に示す内視鏡2Aにおける撮像部25は、対物光学系23の結像位置にCCD24の撮像面を配置した構成であるが、対物光学系23とCCDとの間に対物光学系23の光学像を伝送するイメージガイドを用いた構成の撮像部を備えた内視鏡の場合にも適用できる。
UPD装置6は、上記複数のソースコイル34を駆動して、各ソースコイル34の周囲に交流磁場を発生させるソースコイル駆動回路37と、各ソースコイルが発生する磁場を検出して、各ソースコイルの3次元位置を検出するための複数のセンスコイルからなるセンスコイルユニット38と、複数のセンスコイルによる検出信号により、各ソースコイルの3次元位置を検出するソースコイル位置検出回路39と、ソースコイル位置検出回路39により検出された、各ソースコイルの3次元位置から挿入部11の挿入形状を検出して挿入形状の画像を生成する挿入形状検出回路40とを有する。
各ソースコイルの3次元位置は、UPD装置6による座標系の下で検出され、この座標系で3次元位置が管理される。
本実施形態の内視鏡システム1(及び画像処理装置7)は、図1において2点鎖線により示す内視鏡2Bを(内視鏡2Aの代わりに)用いることもできる。
この内視鏡2Bは、内視鏡2Aにおいてのソースコイル34を有しない挿入部11を備える。このため、先端部15内にも、拡大図に示すようにソースコイル34a,34b,34cが配置されていない内視鏡である。この内視鏡2Bが、光源装置3と、ビデオプロセッサ4に接続された場合、ライトガイドコネクタ14内のメモリ30の固有情報を読出回路29aが読み出し、画像処理装置7に出力する。画像処理装置7は、内視鏡2Bが、ソースコイルが設けられていない種別の内視鏡であることを認識する。
また、画像処理装置7は、UPD装置6を使用しないで、画像処理により対物光学系23の観察位置及び視線方向を推定する。
このように本実施形態においては、内視鏡2I(I=A,B,C)に設けられた識別情報を利用して、位置センサを有する内視鏡2A(又は2C)と、位置センサを有しない内視鏡2Bとのいずれの内視鏡においても、腎盂・腎杯内を検査し、検査した際に取得される2次元の画像データから、後述するように3Dモデル画像を構築する。
内視鏡2Aが使用されている場合においては、上記挿入形状検出回路40は、内視鏡2Aの挿入形状の画像信号を出力する第1の出力端と、ソースコイル位置検出回路39が検出した対物光学系23の観察位置及び視線方向のデータ(位置及び方向データとも言う)を出力する第2の出力端とを有する。そして、第2の出力端から画像処理装置7に、観察位置及び視線方向のデータを出力する。なお、第2の出力端から出力する観察位置及び視線方向のデータを、情報取得部を構成するソースコイル位置検出回路39が出力するようにしても良い。
また、画像処理部42により生成された3Dモデル画像の画像信号は、モニタ8に出力され、モニタ8は画像処理部42により生成された3Dモデル画像を表示する。
制御部41は、中央処理装置(CPU)等から構成され、入力装置44からの設定又は選択に応じて、画像処理部42の画像処理の動作を制御する処理制御部41aの機能を持つ。
そして、位置センサを有しない内視鏡2Bが使用されている場合には、画像処理部42が位置センサを有する内視鏡2A又は2Cの場合にUPD装置6により取得される撮像部25又は対物光学系23の観察位置、視線方向を推定するように制御する。
この場合には、画像処理部42は、例えば2次元の内視鏡画像データの輝度値等を利用することにより、図2において点線で示すようにこの内視鏡2Bの(撮像部25又は対物光学系23の)観察位置、視線方向を推定する処理を行う観察位置、視線方向推定処理部42dの機能を持つ。また、観察位置、視線方向推定処理部42dにより推定された観察位置、視線方向のデータは、情報記憶部43の記憶領域に設けた観察位置、視線方向データ記憶部43aに記憶される。なお、撮像部25又は対物光学系23の観察位置の代わりに、先端部15の位置を推定しても良い。
また、画像処理部42は、上記のように、位置センサを有しない内視鏡2Bが使用される場合には、この内視鏡2Bによる(撮像部25又は対物光学系23の)観察位置、視線方向を推定する観察位置、視線方向推定処理部42dを有する。
なお、図3Aにおいては、尿管10の深部側の腎盂・腎杯51において、点線で示す領域が腎盂51aであり、その深部側に腎杯51bが形成されている。
2次元画像データが入力される3D形状データ構築部42aは、UPD装置6による観察位置、視線方向データを用いて、又は観察位置、視線方向推定処理部42dにより推定された観察位置、視線方向データを用いて、内視鏡2Iの撮像部25により撮像(観察)された2次元画像データに対応する3D形状データを生成する。
この場合、3D形状データ構築部42aは、例えば日本国特許第5354494号の公報に記載された方法や、この公報以外に公知となるShape from Shading 法のように1枚の2次元画像から対応する3D形状を推定しても良い。また、2枚以上の画像を用いるステレオ法、単眼移動視による3次元形状推定法、SLAM法、位置センサと組み合わせて3D形状を推定する手法でも良い。また、3D形状を推定する場合、外部のCT装置等の断層像取得装置から取得した3D画像データを参照して3D形状データを構築するようにしても良い。
3D形状データ構築部42aにより構築された3D形状データに対して、画像生成部42b(のポリゴン処理部42c)は、ポリゴンを設定して、ポリゴンを用いた3Dモデル画像を生成する。本実施形態においては、3D形状データの表面にポリゴンとしての3角形を貼り付ける如くの処理を行い、3Dモデル画像を生成する。つまり、3Dモデル画像は、図4に示すように3角形のポリゴンを採用している。一般的には、ポリゴンとして、3角形、又は4角形が多用されるが、本実施形態においては3角形のポリゴンを用いる。なお、3D形状データ構築部42aが3D形状データではなく、3Dモデル画像を直接、生成(又は構築)してもよい。
ポリゴンは、面、辺、頂点に分解でき、頂点は3D座標で記述される。面には、表裏があり、面に対して1つの垂直な法線ベクトルが設定される。
更に、ポリゴンの頂点を記述する順番で面の表が設定される。例えば、図4に示すように3つの頂点v1,v2,v3の順に記述した時の表(の面)の表裏と、法線ベクトルvnの向きとが対応する。
なお、後述する図6において説明するように挿入部11の挿入位置が移動し、撮像部25により観察されて取得された2次元画像の領域が変化すると、画像処理部42は、変化した領域の3D形状データが、変化前の3D形状データを更新するように生成し、更新された領域上に新たにポリゴンを、法線ベクトルを用いて適切に設定し、3Dモデル画像を追加(更新)するようにして生成する処理を繰り返す。
また、画像生成部42bは、ポリゴンを追加する場合、法線ベクトルを用いて、観察されたポリゴンの局所的な領域の面が内面(内壁)か外面(外壁)かの判別を行う内面外面判別部42eの機能を持つ。
このようにユーザは、3Dモデル画像をモニタ8において表示する場合、未構築領域の境界を視認し易いように強調表示することを選択したり、強調表示することを選択しないで3Dモデル画像をモニタ8において表示することの選択ができる。
また、画像生成部42bは、3Dモデル画像を形成する構築された(換言すると観察された)ポリゴンの面が内面と外面との判別結果に応じて内面と外面とを異なる色で着色する(ポリゴン)着色処理部42gを有する。なお、異なる色で着色せずに異なるテクスチャをポリゴンに貼りつけてもよい。以下の説明では、表示色設定部44aにより(観察された、つまり観察済みの)内面を灰色、(観察されていない、つまり未観察の)外面を白色に着色するように設定した場合で説明する。灰色として白に近い灰色に設定しても良い。内面を灰色、外面を白色の場合に限定されるものでない(表示色設定部44aによる設定の色に対応した着色処理部42gが着色を行う)。
そして、内視鏡2Iによる観察、検査の最中等において、観察されない領域を術者が視認可能なように3Dモデル画像上において表示しようとする場合、図3Aに示した腎盂・腎杯51に近い形状の3Dモデル画像で表示すると、観察されない領域となる3Dモデル画像上での未構築領域が存在した場合、その未構築領域を3D空間において視覚的に把握し易い画像にすることができる。
このため、本実施形態においては、画像処理部42は、図3Aに示した管腔臓器としての腎盂・腎杯51を紙面に垂直な上方を視点とするような所定方向から、腎盂・腎杯51の3Dモデル画像を、ポリゴンを用いて生成する。
また、このように視点を管腔臓器の外側に設定した場合には、実際に観察した領域が管腔の内面に存在しても、管腔外面に設定した視点側から見た3Dモデル画像上においては、観察された構築領域として視認し易いように表示し難くなる。
(a)視点側から(描画された)3Dモデル画像を見た場合、3Dモデル画像上における観察された構築領域を覆う外面の領域を内面の色としての灰色と外面の色としての白色と異なる表示色(例えば緑色)に着色する。(b)又は、図3Aにおいて2点鎖線で示すように、例えば視点となる紙面に垂直となる上方位置に照明用の光源Lsを設定し、この光源Lsから放射状に出射される照明光により3Dモデル画像上における観察された構築領域を覆う外面領域を、照明用の光源Lsの照明光の色で着色した表示色(例えば緑色)で表示するようにしても良い。
(c)又は、管腔臓器の内面のみを観察対象としていることに限定した場合には、管腔臓器の外面は観察対象でないために、観察された管腔臓器の内面を外面が覆っている場合には、その外面を内面の灰色と異なる色の表示色で表示するようにしても良い。この場合には、外面で覆われた観察済みの内面を表示する場合の表示色として白色に設定しても良い。以下においては、観察された管腔臓器の内面を覆っている場合の外面を表示する表示色を、少なくとも(観察済みであり、外面で覆われていない内面を直接的(露呈するように)に表示する場合の色となる)灰色と異なる(又は識別し易い)表示色を用いる。本明細書では、このように観察済みの内面を外面で覆っている状態のその外面を、観察済みの内面を直接、露呈した状態で観察した場合の色(例えば灰色)と異なる色としての表示色を用いる。
本実施形態の内視鏡システム1は、3次元形状を有する被検体としての尿管10、腎盂・腎杯51の内部を観察する内視鏡2Iと、前記内視鏡2Iにより観察された前記被検体の(内部の)2次元データを入力する入力部を形成するビデオプロセッサ4の信号処理回路32と、前記入力部により入力された前記被検体の2次元データに基づいて、前記被検体の3次元モデルデータ又は3次元形状データを生成(又は構築)する3次元モデル構築部を形成する3D形状データ構築部42aと、前記3次元モデル構築部により構築された構築領域の前記3次元モデルデータに基づいて、前記被検体における観察されていない領域としての未構築領域を視認可能な(換言すると、未構築領域を視認し易くする又は未構築領域を視認できる)3次元モデル画像を生成する画像生成部42bと、を備えることを特徴とする。
次に図6を参照して、本実施形態の動作を説明する。図6は、本実施形態の内視鏡システム1の主要な処理手順を示す。なお、図6の処理において、強調表示を選択しない場合と、選択する場合とを分けたシステム構成や画像処理方法にしても良い。
挿入部11の先端部15には、撮像部25が設けてあり、撮像部25は、撮像部25の画角内で撮像(観察)した撮像信号をビデオプロセッサ4の信号処理回路32に入力する。
ステップS12に示すように信号処理回路32は、撮像部25により撮像した撮像信号に対する信号処理を行い、撮像部25により観察した2次元画像を生成(取得)する。また、信号処理回路32は、生成した2次元画像(のA/D変換された2次元画像データ)を画像処理装置7の画像処理部42に入力する。
ステップS13に示すように画像処理部42の3D形状データ構築部42aは、入力された2次元画像データから、位置センサを備えた内視鏡2A(又は2C)の場合には位置センサの情報を利用して、位置センサを有しない内視鏡2Bの場合には画像処理により(撮像部25で)観察した画像領域に対応する3D形状を推定し、3Dモデルデータとしての3D形状データを推定し、3D形状データを生成する。
次のステップS14において画像生成部42bは、ポリゴンを用いて3Dモデル画像を生成する。図6に示すようにループ状に類似の処理を繰り返す。そのため、2回目以降においては、ステップS14の処理は、1回前におけるポリゴンを用いて3Dモデル画像を生成した処理を続行することになる(新たなポリゴンに対する3Dモデル画像を生成し、以前の3Dモデル画像を更新する)。
次のステップS15においてポリゴン処理部42cは、ステップS13において生成された3D形状データを基にしてマーチングキューブ法など公知の手法を用いてポリゴンを生成する。図7は、ステップS13において生成された3D形状データを基にしてポリゴンを生成する様子を示す。
管腔を表すように生成された3D形状データ(図7において輪郭形状部分)I3aにおいて、管腔を横から見た場合の管腔外面にポリゴンを設定して3Dモデル画像I3bを生成する。
次のステップS16においてポリゴン処理部42cは、前のステップS15において設定した各ポリゴンに対して、(観察された領域が内面であるか否かを判別するために)それぞれ法線ベクトルを設定する。
次のステップS17において画像生成部42bの内面外面判別部42eは、法線ベクトルを用いて観察された領域が内面であるか否かを判別する。ステップS16及びS17の処理に関しては、図8を参照して後で説明する。
次のステップS18において画像生成部42bの着色処理部42gは、前のステップS17の判別結果に応じて、観察された領域を表すポリゴンの面を(内面の場合には灰色、外面の場合には白色とするように)着色する。
次のステップS19において制御部31(又は画像生成部42bの境界強調処理部)は、強調表示が選択されているか否かを判定する。強調表示が選択されていない場合には、次のステップS20の処理に移る。そして、次のステップS20の次にステップS21,S22の処理を行う。
ステップS20において画像生成部42bの着色処理部42gは、(3Dモデル画像の外部又は離間して設定された位置における)所定の方向から見た3Dモデル画像の構築領域における観察済のポリゴンの面が内面の場合において外面により隠れる場合に対応した着色をする。
上述した二重管状構造のように、所定の方向から見た3Dモデル画像の構築領域における観察済のポリゴンの面が内面であり、この内面が外面により覆われている状態の3Dモデル画像として表示する場合には、当該外面の色を、観察済の内面を表す表示色の灰色、観察済の場合の外面の色としての白色、及び背景色とは異なる表示色(例えば緑色)で着色する。なお、3Dモデル画像を表示する場合において、観察済みの内面が露呈する状態となる当該内面は、ステップS18における着色処理の灰色のままとなる。
ステップS20の処理の後のステップS21において画像処理部42又は画像生成部42bは、(上述した処理により)生成した3Dモデル画像の画像信号をモニタ8に出力し、モニタ8は生成された3Dモデル画像を表示する。
次のステップS22において制御部41は、術者が検査終了の指示入力を例えば入力装置44から行ったか否かを判定する。
一方、検査終了の指示入力が行われた場合には、ステップS26に示すように画像処理部42は、3Dモデル画像を生成する処理を終了し、図6の処理が終了する。
図13は、強調表示が選択されない場合(ステップS23,S24,S25の処理を行わない場合)において、上記の処理を繰り返す途中において、例えばステップS21の処理後においてモニタ8に表示される3Dモデル画像I3cを示す。
次に図8を参照して、図6のステップS16,S17の処理を説明する。ステップS15の処理により図7に示したように観察された領域の3D形状データI3aに複数のポリゴンp01,p02,p03,p04等が設定される。これらのポリゴンpj(j=01,02,03,…)は、図9に示す表形式のポリゴンリストとして情報記憶部43に記憶(格納)される。各ポリゴンpjの3つの頂点v1,v2,v3は、3次元の位置ベクトル値XXXXによりそれぞれ決定する。なお、ポリゴンリストは、各ポリゴンの構成を示すものである。
次のステップS32においてポリゴン処理部42cは、ポリゴンp02に対して、その法線ベクトルvn2を
vn2=(v2−v1)×(v3−v1)
により計算(算出)する。なお、記載を簡略化するために、頂点v1,v2,v3の3次元位置をv1,v2,v3で流用し、例えばv2−v1は3次元位置v1から3次元位置v2に至るベクトルを表す。
次のステップS33においてポリゴン処理部42cは、ポリゴンp02の法線ベクトルvn2の向き(又は極性)が、登録されているポリゴンp01の法線ベクトルvn1の向きと同じであるか判定する。
ステップS34の後、又はステップS33において向きが同じであると判定された場合には、ステップS35においてポリゴン処理部42cは、全てのポリゴンに法線ベクトルが有る(設定した)かの判定を行う。
法線ベクトルが無いポリゴンが存在する場合には、最初のステップS31の処理に戻り、全てのポリゴンに法線ベクトルが有る場合には、図8の処理を終了する。図10は、図9のポリゴンリストに対して法線ベクトルが設定されたポリゴンリストを示す。また、図11は、図8の処理により、ポリゴンp01に隣接するポリゴンp02等に法線ベクトルvn2等が設定された様子を示す。なお、図11において、ポリゴン02〜04の上部側が管腔臓器の内面である(そして下側が外面となる)。
これに対して、先端部15に位置センサを備えた内視鏡2A(又は2C)の場合には、図12に示すように位置センサの情報を用いて法線ベクトルの向きが隣接する登録された法線ベクトルの向きと同じであるか否かを判定するようにしても良い。
図12に示すように判定対象のポリゴンpkの重心Gと3D形状の推定に使用した2次元画像を取得したときの先端部15の位置P15を結ぶベクトルv15と、ポリゴンpkの法線ベクトルvnkとの内積を計算し、内積の値が0以上であれば向きが同じであると判定し、0未満となる場合には向きが反転していると判定する。図12においては、両ベクトルの成す角θは90°より小さく、内積は0以上となる。
このため、図12において例えば点線で示すように隣接するポリゴン(図12ではp03)の内面から鈍角を成すようなポリゴンp04′の内面を観察することはできない(ため、そのようなポリゴンは生成されず、法線ベクトルの向きの判定を行うことがない)。
図13に示すように下方の尿管側から上方の腎盂・腎杯側に至る管腔臓器の大部分が(一部欠落した状態で)ポリゴンで描画され、また管腔臓器の外側の面を表すポリゴンの(外側の)面が白っぽい色(例えば緑色)で表示されている。なお、3Dモデル画像I3cにおけるポリゴンの周囲は、青色等の背景色で表示される。
また、図13において、下腎杯の一部分に灰色で着色された内面の一部が表示され、また、その上側となる中腎杯の一部にも、灰色で着色された内面が表示されている。又、図13における上腎杯にも、境界が露呈している。
術者はこのように内面が所定の色で着色されて表示されるような3Dモデル画像I3cから、所定の色で着色された内面を境界領域として、観察していないために構築及び着色されていない未構築領域が視覚的に存在することを容易に把握することができる。
このように、図13に示すように表示する3Dモデル画像I3cは、術者が未構築領域を視認し易いように表示する3次元モデル画像となる。
なお、図13に示すような3Dモデル画像I3cを生成した場合、閉じた管腔臓器の外側から、通常、観察できない内面の一部の領域が、視認し易い色で表示されることにより、その領域に隣接する領域が観察されていない未構築領域であることを視覚的に認識することができる。
しかし、例えば図13における上腎杯のように観察済みの内面が、手前側の外面に隠れて表示されず、かつその境界形状が開口していることを視覚し難い形状になっていると、その部分に未構築領域が存在することを見逃す可能性がある。勿論、術者は、観察又は検査を行う管腔臓器の形状を把握しているため、見逃す可能性は低くなるが、術者が内視鏡検査を円滑に行い易くするために、術者の負担を出来るだけ軽減できるようにすることが望まれる。
そのような場合のために本実施形態においては、強調表示を選択することができ、強調表示を選択した場合には図6におけるステップS23,S24、S25の処理を行う。
検査対象の管腔臓器が腎盂・腎杯51の場合においては、腎盂51aから複数の腎杯51b側に分岐する。図7に示した例では、各ポリゴンpiの3つの辺はそれぞれ隣接するポリゴンの辺と共有する。
これに対して、構築された構築領域の端となり、未構築領域との境界領域のポリゴンにおいては共有しない辺が発生する。図14は、境界周辺のポリゴンを模式的に示し、また図15は図14のポリゴンに対応するポリゴンリストを示す。
図14においては、ポリゴンp12の辺e14と、ポリゴンp14の辺e18とが境界辺を示し、この右側が未構築領域となる。図14においては境界辺を太い線で示している。実際には、境界辺はより多くの辺から構成される場合が一般的である。なお、図14において、辺e11,e17,e21は、ポリゴンp11,p13,p15と、点線で示すポリゴンp17,p18,p19により共有される。また、辺e12,e20は、ポリゴンp11,p15と2点鎖線で示すポリゴンp10,p16とで共有される。
次のステップS24において境界強調処理部42fは、前のステップS23において抽出した情報により境界リストを作成し、作成したことを着色処理部42gに通知する。
図16はステップS24において生成される境界リストを示す。図16に示す境界リストは、ステップS23の処理までにおいて探索(抽出)された1回のみ現れるポリゴンの境界辺のリストである。
なお、上述したように図6の処理はループ状に類似した処理を繰り返すため、境界強調を選択した場合においても、挿入部11の移動により、撮像部25が撮像する領域が変化すると、変化前のポリゴンリストや境界リストが更新される。
このようにして、境界強調が選択された場合には、モニタ8に表示される図13に対応する3Dモデル画像I3dは図17に示すようになる。
このように本実施形態の内視鏡システム及び画像処理方法によれば、未構築領域を視認し易く表示する3次元モデル画像を生成することができる。
また、本実施形態において、強調表示を選択した場合には、構築領域と未構築領域との境界を強調して表示する3Dモデル画像I3dを生成するため、術者等のユーザは、未構築領域をより視認し易い状態で把握することができる。
次に第1の実施形態の第1変形例を説明する。本変形例は、第1の実施形態と殆ど同様の構成であるが、強調表示が選択された場合における処理が第1の実施形態における境界辺を強調する代わりに、境界辺を含む面を強調する処理にしている。
図18は本変形例の処理内容を示す。図18は、図6においてのステップS24の境界リストを作成(変更)する処理を、ステップS24′に示すポリゴンリストの色を変更する処理に変更し、ステップS25の境界辺を着色する処理を、ステップS25′の境界面を着色する処理に変更している。以下、第1の実施形態と異なる処理部分を説明する。
次のステップS24′において境界強調処理部42fは、例えば図19に示すように境界辺を含むポリゴンリストの色を、視認し易い色(強調色)に変更する。
図19のポリゴンリストは、図15のポリゴンリストにおける境界辺e14とe18を含むポリゴンp12,p14の色を灰色から赤色に変更する。
簡潔に述べると、図16の強調色は境界辺を強調する色であったが、本変形例は境界辺を含むポリゴンの面を強調する強調色にする。なお、この場合、面を強調色として境界辺を含むようにしても良い。
次のステップS25′において境界強調処理部42fは、強調色に変更されたポリゴンの面を強調色で着色した後、ステップS20の処理に移る。
次に第1の実施形態の第2変形例を説明する。本変形例は、第1の実施形態と殆ど同様の構成であるが、強調表示が選択された場合における処理が第1の実施形態と異なる処理を行う。本変形例では、図2における画像生成部42bにおける境界強調処理部42fが、強調表示の選択に対応した強調処理部(42f′とする)に変更されている(処理結果は、境界強調処理部42fによる結果と類似した内容となる)。
図21は、本変形例の処理を示す。図21において強調表示が選択されない場合には、第1の実施形態と同様の処理となる。一方、強調表示が選択された場合にはステップS41に示すように強調処理部42f′は、1回前の3次元形状の推定の後に設定されたポリゴンリストから今回、追加されたポリゴンを算出する。
図22は、1回目の処理において取得された斜線で示すポリゴン(の範囲)に対して、2回目の処理において取得された追加のポリゴンの範囲を示す。次のステップS42において強調処理部42f′は、関心領域を設定し、ポリゴンを複数のサブブロックに分割する。
図22に示すように強調処理部42f′は、追加のポリゴンの範囲内において、ポリゴンの頂点(又は重心)を中心として例えば円形の関心領域を設定し、関心領域を例えば点線で示す4等分のサブブロックに分割する。実際には、3次元的なポリゴン面に対して、例えば球形の関心領域を設定して、複数のサブブロックに分割する。
図22においては、着目する頂点vr1,vr2においてそれぞれ関心領域R1,R2を設定し、関心領域R1を4つのサブブロックR1a、R1b、R1c、R1dに、関心領域R2を4つのサブブロックR2a、R2b、R2c、R2dにそれぞれ分割した様子を示す。
関心領域R1の場合には、各サブブロックは、連続的に形成されたポリゴンの頂点などをそれぞれ複数、含む状態となり、サブブロック間での密度又は頂点数の偏りは小さいのに対して、関心領域R2の場合には、サブブロックR2b、R2cとサブブロックR2a、R2dとは、サブブロック間での密度又は頂点数の偏りが大きい。サブブロックR2b、R2cは、関心領域R1の場合のサブブロックR1a等とほぼ同じ値となるが、サブブロックR2a、R2dは、ポリゴンの頂点(又は重心)を境界以外で含まないため、サブブロックR2b、R2cの場合よりは小さな値となる。そして、サブブロックR2b、R2cの場合と、サブブロックR2a、R2dの場合とでは、頂点数の偏りが大きくなる。
次のステップS43において強調処理部42f′は、サブブロック間においてポリゴンの頂点(又は重心)の密度又は頂点数の偏りが(偏りの閾値以上に)有り、かつポリゴンの頂点(又は重心)の密度又は頂点数が閾値以下である条件に該当するポリゴン、又は当該ポリゴンの頂点を視認し易い色(赤等の強調色)で着色する処理を行う。図22では例えば頂点vr2,vr3,vr4又はこれらを共有するポリゴンが着色される。ステップS44の処理の後、またはステップS45を行った後、ステップS20の処理に進む。
上述した密度等に偏りがある条件(第1の条件とする)に該当するポリゴン又はポリゴンの頂点を着色する処理S44に対して、図21において点線で示すステップS45において強調処理部42f′は、更に着色範囲を拡大する。上記のように点線で示すステップS45の処理は、選択された場合に行われる。
強調処理部42f′は、第1の条件に該当するポリゴン(の頂点)を、ステップS44に示すように着色したが、ステップS45において第1の条件に合致したポリゴン(の頂点)を中心として一定の距離内にあり、第1の条件に合致したポリゴン(の頂点)と同じタイミングで追加されたポリゴン(の頂点)も、同様に着色する。
この場合には、図22における最も上で水平方向に沿ったポリゴン、又は上から2番目までの水平方向に沿ったポリゴン等が着色される。一定の距離をより大きくすることにより、着色するポリゴンの範囲をより大きくすることもできる。
次に第1の実施形態の第3変形例を説明する。
本変形例は、第1の実施形態において強調表示が選択されない場合においても、強調表示を選択した場合と類似した表示を行う場合に該当する。
このため、本変形例は、図2における構成において、入力装置44は強調表示選択部44bを有しない構成に該当し、境界強調処理部42fを設ける必要がないが、実質的には境界強調処理部42fに近い処理をする。その他の構成は、第1の実施形態と殆ど同じ構成である。
ステップS1からステップS18までは、図6と同じ処理であり、ステップS18の処理の後、ステップS51においてポリゴン処理部42cは、観察していない領域を探索する処理を行う。
上述したようにステップS13において3次元形状の推定を行い、観察された領域の面にポリゴンを貼り付けるような処理をして3Dモデル画像を生成する処理を行うが、観察された領域の境界に観察されていない領域が、(観察された領域に隣接して)例えば円形状の開口部として存在した場合、この開口部にポリゴンを貼り付けて、観察した領域の面の場合のような処理を行う可能性がある。
このため、本変形例では、ステップS51の観察していない領域を探索する処理として、注目する領域に設定したポリゴンの法線と、このポリゴンに隣接し、観察済みの領域に設定されたポリゴンの法線とのなす角を計算し、そのなす角が90°程度の閾値以上か否かの判定を行う。
図25は、本変形例の動作の説明図を示す。図25は例えば水平方向に延びる観察済みの管腔形状部分にポリゴンが設定され、その右端に未観察の領域となる略円形状の開口部Oが存在する様子を示す。
この場合、開口部Oに隣接する観察済みの領域に設定したポリゴンの場合と同様に、開口部Oにポリゴンを設定する処理が行われる場合があり得る。この場合には、観察済みで開口部Oの境界に隣接する領域に設定したポリゴンの法線Ln1と、このポリゴンに隣接し、開口部Oを塞ぐように設定したポリゴンpO1の法線Lo1とのなす角は、観察済みの領域において隣接する2つのポリゴンにそれぞれ設定した2つの法線Lni,Lni+1がなす角に比べて遥かに大きな角となり、閾値以上となる。
図25では法線Ln1とLo1との他に、法線Ln2と開口部Oを塞ぐように設定したポリゴンpO2の法線Lo2も示している。
図26は、本変形例による3Dモデル画像I3gを示す。図26では未観察の領域が赤色で表示される。
本変形例によれば、観察された観察済みの領域のポリゴンに隣接し、未観察の領域にポリゴンを設定した場合にも、そのポリゴンを着色して未観察の領域であることを視認し易くできる。
次に第1の実施形態の第4変形例を説明する。
本変形例は、観察領域と未観察の領域との境界の形状を単純化して、(複雑な形状がノイズに起因する等と誤認識する虞を解消し)未観察の領域を把握し易くする。
本変形例は、図2における構成において、入力装置44は強調表示選択部44bの代わりに平滑化を選択する平滑化選択部(44cとする)を有し、また画像生成部42bは、境界強調処理部42fの代わりに平滑化処理を行う平滑化処理部(42hとする)を有する。その他の構成は、第1の実施形態と殆ど同じ構成である。
図27の処理は、図6におけるステップS19の処理が、ステップS61の平滑化を選択するか否かの処理に変更される。
また、ステップS23の境界の探索の処理の後、ステップS62の平滑化の処理を行い、この平滑化の処理後にステップS63において更に境界の探索の処理を行い、境界リストの作成(更新)を行うようにしている。
本変形例においては、上記のように観察領域と未観察の領域との境界の形状を単純化して表示するため、ステップS62の平滑化の処理を行う前のポリゴンリストを例えば情報記憶部43に保持し、保持されたコピーをポリゴンリストにセットし、3Dモデル画像の生成に使用する(コピーされたポリゴンリストは平滑化により変更されるが、情報記憶部43には変更されないものが保持される)。
図27のステップS61の処理において、平滑化が選択されない場合には、ステップS20に移り、第1の実施形態において説明した処理が行われる。
ステップS23の境界を探索する処理は、例えば図14〜図16を参照して説明した。境界を探索する処理により、例えば図28に示すようにポリゴンの境界が抽出される場合がある。図28は、図25に示した管腔形状のポリゴンの境界部分が凹凸部を有する複雑な形状になった様子を模式的に示す。
次のステップS62において平滑化処理部42hは、平滑化の処理を行う。平滑化処理部42hは、境界領域の複数のポリゴンにおける重心(又は頂点)の位置からの距離が最小となるような(曲率の変化量を適宜の範囲内に制限した)曲面Plを、最小二乗法等を適用して算出する。隣接するポリゴンにおいての凹凸の程度が激しいような場合には、境界に臨む全てのポリゴンに対して最小二乗法を適用する場合に限定されるものでなく、一部のポリゴンにのみ適用しても良い。
更に、平滑化処理部42hは、曲面Plの外側となるポリゴン部分を削除する処理を行う。図28においては、削除されるポリゴン部分を斜線で示している。
そして、次のステップS64において、探索の処理により抽出されたこれらのポリゴンの辺を境界辺とする境界リストを作成(更新)する。このとき、曲面Plにより一部が削除されたポリゴンに対しては形状が三角形となるように新たに頂点を追加して分割する。なお、図28における上記ポリゴンpkにおいては、境界辺は、曲面Plにより一部が削除された辺ek1,ek2,と曲面Plによる辺epとなる。この場合、曲面Plによる辺epは、ポリゴンpk面内における両端を結ぶ直線状の辺で近似する。
次のステップS25において着色処理部42gは、境界リストに記載されたポリゴンの境界辺を視認し易い色で着色する処理を行い、その後、ステップS20の処理に移る。
なお、曲面Plによりポリゴンを分割することをしないで、以下の方法で処理してもよい。
ステップS62において平滑化処理部42hは、曲面Plの外側となる頂点を探索する。次のステップS63において平滑化処理部42h(又はポリゴン処理部42c)は、曲面Plの外側にある頂点を含むポリゴンをコピーされたポリゴンリストから削除する処理を行う。次のステップS63において平滑化処理部42h(又はポリゴン処理部42c)は、上記の処理(ステップS23、S62,S63)による処理に対応して、曲面Plの外側にある頂点を含むポリゴンをコピーされたポリゴンリストから削除する処理を行い、他の変形例で説明した境界の探索を行う。
次に第1の実施形態の第5変形例を説明する。
第1の実施形態においては、強調表示を選択した場合、境界領域のポリゴンの辺を境界辺として抽出して、境界辺を視認し易いように着色する処理を行ったが、本変形例は3次元形状をポリゴンで表現するのではなく(例えばポリゴンにおける重心位置の点又は頂点に対応する)点で表す場合において、(ポリゴンの)境界辺の代わりに境界の点を境界点として抽出する処理を行い、境界点を視認し易いように着色する処理を行う。
このため、本変形例は、図2の構成において境界強調処理部42fが境界点を強調する処理を行う構成となる。図30Aは、本変形例における画像処理装置7′の構成を示す。本変形例における画像処理装置7′は、3次元形状をポリゴンで表示する処理等を行わないため、図2におけるポリゴン処理部42cと、内面外面判別部42eを有しない。その他の構成は、第1の実施形態と殆ど同じ構成である。
ステップS23において境界強調処理部42fは、境界を探索して境界点を抽出する処理として、第2変形例において図22を参照して説明した処理(第1の条件又は第2の条件の少なくとも一方の条件を満たす処理)により境界点を抽出しても良い。
又は、第2の条件として、新たに追加した点の周辺に境界がある場合の点を境界点として抽出する。図22の場合には、境界点としてvr2,vr3,vr4等が抽出される。
図31は、本変形例により生成され、モニタ8に表示される3Dモデル画像I3iを示す。図31に示すように境界領域の点が視認し易い色で表示される。なお、境界領域の点を太い点(面積を膨張させた点)として、視認し易い色(強調色)で着色するようにしても良い。また、境界領域の点における隣接する2点間の中点に対しても、視認し易い色で表示するようにしても良い。
本変形例によれば、観察された構築領域と、観察されていない未構築領域の境界となる点が視認し易い色で表示されるため、未構築領域を把握し易い。なお、上記の境界点における隣接する境界点を結ぶ線(境界線と言う)を引き、着色処理部42gが、境界線も視認し易い色で着色するようにしても良い。 また、境界点から閾値以下の距離内に含まれる点も太い点(面積を膨張させた点)として、視認し易い色(強調色)で着色するようにしても良い。
第6変形例は、第5変形例においての境界点とその周辺の点を視認し易い色で着色するように強調するものであり、第5変形例と同じ構成である。
図32は、本変形例の処理内容を示す。図32に示す処理は、図30Bに示す第1の実施形態の第5変形例の処理に類似しており、ステップS14の処理の後、ステップS81〜S83の処理を行い、ステップS83の処理の後、ステップS21の処理に移る。ステップS14の処理の後、ステップS81に示すように境界強調処理部42fは、1回前から追加された点を算出する処理を行う。
追加された点の範囲の例は、例えば図22において説明したポリゴンの場合と同じである。次のステップS82において境界強調処理部42fは、追加された点のリストである点リストにおける新たに追加された点を、観察された色とは異なる色(例えば赤色)に変更する。また、境界強調処理部42fは、点リストにおいて新たに追加した点から閾値以上となる距離にある、前記異なる色の点の色を、観察された色に戻す処理を行う。
本変形例による3Dモデル画像I3jを図33に示す。図31の場合においての境界点の他に、その周辺の点も同様の色で着色して表示するため、術者は未観察領域を確認し易くなる。
また、例えば、ユーザによる入力装置44の操作に応じ、未観察領域のみを表示してもよい。観察領域が見えなくなることで、観察領域の裏側にある未観察領域を術者は確認し易くなる。なお、未観察領域のみを表示する機能は他の実施例や変形例に設けてもよい。
この画像処理装置7Bは、図2の画像処理装置7において、入力装置44は、指標の表示を選択する指標表示選択部44dを有し、また画像生成部42bは、未観察の領域に指標を付加する指標付加部42iを有する。その他の構成は、第1の実施形態と同様である。図35は、本変形例の処理内容を示す。
図35のフローチャートは図6のフローチャートにおいて、さらに指標の表示の選択結果に応じて指標を表示するための処理を追加して行う処理内容となる。
指標付加部42iは、
a.境界となった辺を含む面を算出する。
b.次に境界の点の重心を算出する。
c.次に、aにおいて算出した面の法線に平行、かつ境界の点の重心から一定距離にある点を算出し、指標を追加する。
この場合の3Dモデル画像I3kを図36に示す。図36は、図17の3Dモデル画像I3dに更に指標が付加した図となる。
また、図35においてのステップS19において強調表示が選択されない場合には、ステップS87において制御部41は、指標の表示が選択されたか否かを判定する。指標の表示が選択されない場合には、ステップS20の処理に移り、逆に指標の表示が選択された場合には、ステップS88においてステップS23と同様に境界を探索する処理を行った後、ステップS89において指標付加部42iは、付加して表示するための指標を算出する処理を行った後、ステップS20の処理に移る。
本変形例によれば、第1の実施形態のような3Dモデル画像I3c、I3dを表示するような選択ができると共に、さらに指標を付加した3Dモデル画像I3l、I3kを表示するような選択ができる。また、3Dモデル画像I13e、I13f、I13g、I13h、I13i、I13jに対して同様の処理を追加して、指標を表示してもよい。
次に第1の実施形態の第8変形例を説明する。第7変形例においては、3Dモデル画像I3c,I3dの外側に境界又は未観察領域を矢印で示す指標を表示する例を説明した。これに対して、以下に説明するように3Dモデル画像の管腔内部に設定した光源から光が未観察領域となる開口部から漏れているような指標の表示を行うようにしても良い。
本変形例の処理は、第7変形例における図36におけるステップS86又はS89の指標を算出する処理を図39に示す指標を生成する処理に変更したものとなるのみである。なお、指標付加部42iは、以下の図38等の処理を行う際の所定の面積以上となる前記未構築領域の開口部を抽出する開口部抽出部と、管腔の内部側に引かれた法線上の位置に点光源を設定する光源設定部と、の機能を備える。
指標を生成する処理が開始すると、最初のステップS91において指標付加部42iは、規定面積以上の未観察領域となる開口部を求める。図39は、図38の処理の説明図を示し、管腔臓器における規定面積(又は所定面積)以上の未観察領域となる開口部61を示す。
次のステップS92において指標付加部42iは、開口部61を構成する点の重心からの法線62を(管腔内部側に)設定する。図39における右側の図に示すように、この法線62は、重心66と、開口部61を構成する点のうち、前記重心66に最も近い点67および前記重心66に最も遠い点68の合計3点を通る面に対する法線62で、重心66から単位長で延びる。その方向は、3Dモデルを形成するポリゴンの多い方向である。なお、上記3点の他に、開口部61上に適宜に設定した3つの代表点でも良い。
次のステップS94において指標付加部42iは、点光源63から開口部61(上の各点)を通り、開口部61の外側に延びる線分64を引く。
次のステップS95において指標付加部42iは、線分64を点光源63の色(例えば黄色)で着色する。図38に示すような処理の他に、以下のような処理を行うようにして指標を付加する表示を行うようにしても良い。以下の処理においても、図38のステップS91〜S93までは同じである。
図41は、本変形例における強調表示と指標表示を選択した場合の3Dモデル画像I3mを示す。
図41に示すように強調表示と共に、未観察領域を示すために未観察領域に臨む開口から光が漏れるような指標(図41では斜線で示す部分)65が表示されることにより、規定面積以上の未観察領域が存在する様子が視認し易い状態で認識できる。
次に第1の実施形態の第9変形例を説明する。上述した第1の実施形態及びその変形例においては、図13,図17,図20,図23等に示したように所定の方向から見た場合の3Dモデル画像を生成し、表示するようにしていた。
図42は、本変形例における画像処理装置7Cの構成を示す。
本変形例においては、第1の実施形態における図2の構成において画像生成部42bは、さらに3Dモデル画像を回転する回転処理部42jと、境界(領域)又は未観察領域又は未構築領域の数を計数する領域計数部(領域カウント部)42kとを有する。
また、3Dモデル画像I3oにおいて、領域計数部42kにより計数した離散的に存在する境界(領域)の計数値をモニタ8の表示画面内に表示するようにしても良い(図43Aでは計数値は4)。
図43Aに示すように表示することにより、所定方向(正面)から見た場合には現れない背面側に現れる境界を、正面の場合の境界を表す色と異なる色で表示することにより、背面側の境界の見落としを防止できると共に、計数値の表示によっても境界の見落としを有効に防止できる。その他、第1の実施形態と同様の効果を有する。
なお、未構築領域を拡大して表示するようにしても良い。未構築領域を視認し易く表示するために、未観察領域を大きく拡大して表示するようにしても良い。
本変形例におけるサイズ算出部42lは、領域計数部42kにより計数された各未構築領域の面積のサイズを算出する。そして、算出された未構築領域のサイズが閾値以下の場合には、その未構築領域(の境界)を視認し易いように強調して表示する処理を行わないようにすると共に、未構築領域の数に含めないようにする。
図45は、閾値以下の境界B1と、閾値を超える境界B2とを有する3D形状データを示す。境界B2は、赤色等の視認し易い色(例えば赤色)で強調するように表示され、これに対して境界B1は、観察する必要性がない小さな面積であるため、強調する処理を行わないか、その境界の開口をポリゴンで塞ぐ処理を行う(又はその開口をポリゴンで塞ぎ、擬似的に観察領域とする処理を行う)。換言すると、閾値以下の境界B1を持つ未構築領域に対しては、視認可能にする処理や、視認し易くする処理を施さないと言っても良い。
つまり、判定部42mは、以下の条件A〜Cの少なくとも1つを満たす場合、強調処理を行わないか、擬似的に観察領域とする。
A.境界の長さが長さの閾値以下の場合、
B.境界を構成する頂点の数が頂点の数の閾値以下の場合、
C.境界の座標を主成分分析したときの第2主成分の最大と最小の差、又は第3主成分の最大と最小の差が成分の閾値以下の場合、
図46は、条件Cの説明図を示す。図46は管腔の3D形状データを示し、右端が複雑な形状の境界Bとなり、管腔の長手方向が第1主成分の軸A1となり、紙面内において第1主成分の軸A1に垂直な方向が第2主成分の軸A2、紙面に垂直な方向が第3主成分の軸A3となる。
本変形例によれば、第9変形例の効果を有すると共に、さらに観察する必要性が無い小さな境界を表示しないようにして無駄な表示を行わないようにできる。
次に第1の実施形態の第11変形例を説明する。図48は第11変形例における画像処理装置7Eを示す。図48の画像処理装置7Eは、図2の画像処理装置7において更に3D形状データに芯線を生成する芯線生成部42nを有する。また、入力装置44は、3Dモデル画像を芯線で表示する芯線表示選択部44eを有する。
本変形例においては、入力装置44において、芯線表示選択部44eにより3Dモデル画像を芯線で表示する選択を行わない場合には第1の実施形態と同様の処理となり、芯線表示選択部44eにより芯線で表示する選択を行った場合には、図49に示す処理を行う。
芯線作成モード切替後、ステップS103にてステップS101で作成された形状の芯線の作成を行う。なお、芯線化処理については、公知な方法を採用することができ、たとえば“安江正宏,森 健策,齋藤豊文,他:3次元濃淡画像の細線化法と医用画像への応用における能力の比較評価.電子情報通信学会論文誌J79‐D‐H(10):1664-1674,1996”や、“齋藤豊文,番正聡志,鳥脇純一郎:ユークリッド距離に基づくスケルトンを用いた3次元細線化手法の改善−ひげの発生を制御できる−手法.電子情報通信学会論文誌(E日刷中),2001”などに記載の方法を用いることができる。
芯線作成後、ステップS104にて3D形状の未観察領域を示す異なる色の着色領域から芯線に向かった垂線と芯線の交点の位置を導出する。それを模擬的に表したのが図50である。図50では3D形状上に未観察領域を示すRm1およびRm2(図50では斜線で示している着色領域)が存在する。ステップS103で既に形成された点線で示される芯線に向かい、未観察領域Rm1およびRm2より垂線を下ろす。この垂線と芯線の交点は芯線上の実線で示す線分L1,L2で示される。そしてステップS105にてこの線分L1,L2を芯線のほかの領域と異なる色(例えば赤色)で着色する。
芯線の形成および表示ができた後、芯線作成モードを終了する(ステップS107)。
次に、ステップS108により、取り込まれた観察位置視線方向データより観察位置・視線方向推定処理部は内視鏡の観察位置・視線方向を推定する。
さらに、ステップS108で推定した観察位置を芯線上に擬似的に示すため、ステップS109にて観察位置の芯線上への移動計算を行う。このステップS109では、推定された観察位置と芯線の距離が最も小さくなる芯線上の点に推定された観察位置を移動させる。
ステップS110ではステップS109で推定された擬似的な観察位置を芯線と共に表示する。これにより、操作者は未観察領域に近づいたかどうかを判断することができる。
この表示は検査終了(ステップS111)の判断がされるまでステップS108までさかのぼり繰り返される。
上述した第1の実施形態から第11変形例までの機能を持つ画像処理装置を設けるようにしても良い。図52は、そのような機能を持つ第12変形例における画像処理装置7Gを示す。図52に示す画像処理装置7Gにおける画像生成部42bにおける構成要素や入力装置44における各構成要素に関しては、既に説明したものであるので、その説明を省略する。本変形例によれば、術者等のユーザは、モニタ8において表示する場合の3Dモデル画像の表示形態を選択する選択肢が増え、上述した効果の他に、ユーザの要望により広く対応できる3Dモデル画像を表示することができる。
なお、上述した変形例を含む第1の実施形態において、内視鏡2A等は可撓性(又は軟性)の挿入部11を有する軟性内視鏡の場合に限定されるものでなく、硬性の挿入部を有する硬性内視鏡を用いた場合にも適用できる。
また、本発明は、また、医療分野において用いられる医療用内視鏡の場合の他に、工業用分野において用いられる工業用内視鏡を用いてプラント等の内部を観察、検査する場合にも適用できる。
また、上述した変形例を含む実施形態を部分的に組み合わせて異なる実施形態を構成しても良い。更に、ポリゴン(多角形)の内面(内壁面又は内壁領域)と外面(外壁面又は外壁領域)とを異なる色で着色せずに強調表示のみを実施してもよい。
Claims (19)
- 被検体内を撮像する撮像装置から前記被検体内における領域に関する撮像信号が入力された場合に前記撮像信号に基づいて前記領域の形状を示す3次元データを生成する3次元モデル構築部と、
前記3次元モデル構築部により生成された前記3次元データに対して、前記撮像装置により撮像された領域である構築領域と、前記撮像装置により未だ撮像されていない領域である未構築領域と、の境界領域を視認可能とする処理を行うとともに3次元画像を生成する画像生成部と、
を備えることを特徴とする画像処理装置。 - 前記3次元モデル構築部は、前記撮像装置から前記被検体内における第1の領域に関する第1の撮像信号が入力された場合に前記第1の撮像信号に基づいて前記第1の領域の形状を示す3次元データを生成し、
前記画像生成部は、前記第1の領域の形状を示す3次元データに基づく3次元画像を生成して表示部へ出力し、
更に、前記3次元モデル構築部は、前記第1の撮像信号が入力された後に前記撮像装置から前記第1の領域とは異なる領域を含む第2の領域に関する第2の撮像信号が入力された場合に、前記第2の撮像信号に基づく前記第2の領域の形状を示す3次元データを生成し、
更に、前記画像生成部は、前記第2の領域の形状を示す3次元データに基づいて、前記第1の領域と前記第2の領域との3次元画像を生成して前記表示部へ出力することを特徴とする請求項1に記載の画像処理装置。 - 前記3次元モデル構築部は、前記第1の撮像信号よりも後に前記撮像装置から入力される撮像信号のうち、前記第1の撮像信号に含まれる前記第1の領域に対して所定の変化量が検出された撮像信号を前記第2の撮像信号とすることを特徴とする請求項2に記載の画像処理装置。
- 前記画像生成部は、前記第1の領域の形状を示す3次元データと、前記第2の領域の形状を示す3次元データと、を合成することにより3次元画像を生成して前記表示部へ出力することを特徴とする請求項2に記載の画像処理装置。
- 前記3次元モデル構築部は、前記第1の撮像信号に基づいて生成した前記第1の領域の形状を示す3次元データを記憶部へ格納し、前記第2の撮像信号に基づいて生成した前記第2の領域の形状を示す3次元データを前記記憶部へ追加して格納し、
前記画像生成部は、前記記憶部に格納された前記第1の領域の形状を示す3次元データ及び前記第2の領域の形状を示す3次元データを合成することにより3次元画像を生成して前記表示部へ出力することを特徴とする請求項2に記載の画像処理装置。 - 前記3次元モデル構築部は、前記第1の撮像信号が入力された場合に、前記第1の領域の形状を示す3次元データを生成する代わりに前記第1の撮像信号を記憶部へ格納し、前記第2の撮像信号が入力された場合に、前記第2の領域の形状を示す3次元データを生成する代わりに前記第2の撮像信号を前記記憶部へ格納し、
前記画像生成部は、前記記憶部に格納された前記第1の撮像信号及び前記第2の撮像信号に基づいて3次元画像を生成して前記表示部へ出力することを特徴とする請求項2に記載の画像処理装置。 - 前記被検体内に挿入される挿入部の先端位置を示す情報である先端位置情報を取得する位置情報取得部を更に備え、
前記3次元モデル構築部及び前記画像生成部は、前記挿入部の挿入動作に伴う前記先端位置情報の変化に基づいて3次元画像を生成することを特徴とする請求項1に記載の画像処理装置。 - 前記画像生成部は、前記被検体の3次元画像を生成する際に、前記3次元モデル構築部により構築された3次元データの内壁領域の色と外壁領域の色とを異ならせるための処理を行うことを特徴とする請求項1に記載の画像処理装置。
- 前記画像生成部は、前記3次元モデル構築部により構築された3次元データに対して、前記被検体の3次元画像における管腔の前記未構築領域と構築領域との境界領域を平滑化して略曲線で表現するための処理を行うことを特徴とする請求項1に記載の画像処理装置。
- 前記画像生成部は、前記被検体の3次元画像を生成する際に、前記未構築領域の周辺領域に対して指標情報を付加することを特徴とする請求項1に記載の画像処理装置。
- 前記画像生成部は、前記未構築領域が視認不可となった場合に、前記3次元モデル構築部により構築された3次元データに対して回転処理を施すことにより、当該視認不可となった未構築領域を視認可能とするための処理を行うこと特徴とする請求項1に記載の画像処理装置。
- 前記画像生成部は、前記未構築領域が視認不可となった場合に、当該視認不可となった未構築領域を他の未構築領域とは異なる色で示すための処理を行うこと特徴とする請求項1に記載の画像処理装置。
- 前記画像生成部は、前記3次元モデル構築部により構築された3次元データにおける前記未構築領域の数を算出し、前記未構築領域の数を表示部に表示するための処理を行うことを特徴とする請求項1に記載の画像処理装置。
- 前記画像生成部は、前記3次元モデル構築部により構築された3次元データにおける各々の前記未構築領域のサイズを算出するサイズ算出部と、
前記サイズ算出部により算出された前記サイズが所定の閾値より小さいか否かを判定する判定部と、を備え、
前記判定部により前記サイズが前記所定の閾値より小さいと判定された前記未構築領域に対して、視認可能にする処理を施さないことを特徴とする請求項1に記載の画像処理装置。 - 前記画像生成部は、前記3次元モデル構築部により構築された3次元データに対して、前記被検体の3次元画像における管腔の前記未構築領域と構築領域との境界領域のみを視認可能とするための処理を行うことを特徴とする請求項1に記載の画像処理装置。
- 前記画像生成部は、前記3次元モデル構築部により構築された3次元データの芯線データを生成する芯線生成部をさらに備え、
前記芯線データに対して、前記未構築領域に対応する領域の色を異ならせた芯線画像を生成することを特徴とする請求項1に記載の画像処理装置。 - 前記画像生成部は、前記3次元モデル構築部により構築された3次元データに対して、前記被検体の3次元画像における管腔の前記未構築領域と構築領域との境界領域の色を可変にするための処理を行うことを特徴とする請求項1に記載の画像処理装置。
- 前記未構築領域は、内視鏡により観察されていない前記被検体の内部の領域であることを特徴とする請求項1記載の画像処理装置。
- 3次元モデル構築部が、被検体内を撮像する撮像装置から前記被検体内における領域に関する撮像信号が入力された場合に前記撮像信号に基づいて前記領域の形状を示す3次元データを生成し、
画像生成部が、前記3次元モデル構築部により生成された前記3次元データに対して、前記撮像装置により撮像された領域である構築領域と、前記撮像装置により未だ撮像されていない領域である未構築領域と、の境界領域を視認可能とする処理を行うとともに3次元画像を生成する
ことを特徴とする画像処理方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015190133 | 2015-09-28 | ||
JP2015190133 | 2015-09-28 | ||
PCT/JP2016/078396 WO2017057330A1 (ja) | 2015-09-28 | 2016-09-27 | 内視鏡システム及び画像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017057330A1 JPWO2017057330A1 (ja) | 2017-10-12 |
JP6242543B2 true JP6242543B2 (ja) | 2017-12-06 |
Family
ID=58423535
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017521261A Active JP6242543B2 (ja) | 2015-09-28 | 2016-09-27 | 画像処理装置及び画像処理方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20180214006A1 (ja) |
JP (1) | JP6242543B2 (ja) |
CN (1) | CN108135453B (ja) |
WO (1) | WO2017057330A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110769731B (zh) * | 2017-06-15 | 2022-02-25 | 奥林巴斯株式会社 | 内窥镜系统、内窥镜用处理系统、图像处理方法 |
JP2019098005A (ja) * | 2017-12-06 | 2019-06-24 | 国立大学法人千葉大学 | 内視鏡画像処理プログラム、内視鏡システム及び内視鏡画像処理方法 |
US11200713B2 (en) * | 2018-10-05 | 2021-12-14 | Amitabha Gupta | Systems and methods for enhancing vision |
US20220148209A1 (en) * | 2019-03-25 | 2022-05-12 | Sony Group Corporation | Medical system, signal processing device, and signal processing method |
EP4094673A4 (en) * | 2020-01-20 | 2023-07-12 | FUJIFILM Corporation | MEDICAL IMAGE PROCESSING DEVICE, MEDICAL IMAGE PROCESSING DEVICE OPERATION METHOD, AND ENDOSCOPIC SYSTEM |
CN111275693B (zh) * | 2020-02-03 | 2023-04-07 | 北京明略软件系统有限公司 | 一种图像中物体的计数方法、计数装置及可读存储介质 |
JP7441934B2 (ja) * | 2020-02-27 | 2024-03-01 | オリンパス株式会社 | 処理装置、内視鏡システム及び処理装置の作動方法 |
WO2021221017A1 (ja) * | 2020-04-28 | 2021-11-04 | Hoya株式会社 | 内視鏡システム |
WO2022202520A1 (ja) * | 2021-03-26 | 2022-09-29 | 富士フイルム株式会社 | 医療情報処理装置、内視鏡システム、医療情報処理方法、及び医療情報処理プログラム |
JPWO2022230160A1 (ja) * | 2021-04-30 | 2022-11-03 | ||
WO2023119373A1 (ja) * | 2021-12-20 | 2023-06-29 | オリンパスメディカルシステムズ株式会社 | 画像処理装置、画像処理方法、プログラム、およびプログラムを記録している不揮発性記憶媒体 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7300398B2 (en) * | 2003-08-14 | 2007-11-27 | Siemens Medical Solutions Usa, Inc. | Method and apparatus for registration of virtual endoscopic images |
JP2005305006A (ja) * | 2004-04-26 | 2005-11-04 | Iden Videotronics:Kk | カプセル型内視鏡の適応型撮影タイミングの決定方法 |
US8035637B2 (en) * | 2006-01-20 | 2011-10-11 | 3M Innovative Properties Company | Three-dimensional scan recovery |
JP2007260144A (ja) * | 2006-03-28 | 2007-10-11 | Olympus Medical Systems Corp | 医療用画像処理装置及び医療用画像処理方法 |
US20080033302A1 (en) * | 2006-04-21 | 2008-02-07 | Siemens Corporate Research, Inc. | System and method for semi-automatic aortic aneurysm analysis |
WO2008093517A1 (ja) * | 2007-01-31 | 2008-08-07 | National University Corporation Hamamatsu University School Of Medicine | 手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラム |
WO2009001298A2 (en) * | 2007-06-26 | 2008-12-31 | Densys Ltd. | Supplemental scene reference surface devices for three-dimensional mapping |
JPWO2009084345A1 (ja) * | 2007-12-28 | 2011-05-19 | オリンパスメディカルシステムズ株式会社 | 医療機器システム |
US20110187707A1 (en) * | 2008-02-15 | 2011-08-04 | The Research Foundation Of State University Of New York | System and method for virtually augmented endoscopy |
JP5354494B2 (ja) * | 2009-04-21 | 2013-11-27 | 国立大学法人 千葉大学 | 3次元画像生成装置、3次元画像生成方法、及びプログラム |
JP5421828B2 (ja) * | 2010-03-17 | 2014-02-19 | 富士フイルム株式会社 | 内視鏡観察支援システム、並びに、内視鏡観察支援装置、その作動方法およびプログラム |
DE102011078212B4 (de) * | 2011-06-28 | 2017-06-29 | Scopis Gmbh | Verfahren und Vorrichtung zum Darstellen eines Objektes |
JP6015501B2 (ja) * | 2012-06-01 | 2016-10-26 | ソニー株式会社 | 歯用装置及び医療用装置 |
JP5961504B2 (ja) * | 2012-09-26 | 2016-08-02 | 富士フイルム株式会社 | 仮想内視鏡画像生成装置およびその作動方法並びにプログラム |
US9386908B2 (en) * | 2013-01-29 | 2016-07-12 | Gyrus Acmi, Inc. (D.B.A. Olympus Surgical Technologies America) | Navigation using a pre-acquired image |
JP5887367B2 (ja) * | 2014-01-30 | 2016-03-16 | 富士フイルム株式会社 | プロセッサ装置、内視鏡システム、及び内視鏡システムの作動方法 |
EP2904988B1 (de) * | 2014-02-05 | 2020-04-01 | Sirona Dental Systems GmbH | Verfahren zur intraoralen dreidimensionalen Vermessung |
JP6323183B2 (ja) * | 2014-06-04 | 2018-05-16 | ソニー株式会社 | 画像処理装置および画像処理方法 |
WO2015194242A1 (ja) * | 2014-06-18 | 2015-12-23 | オリンパス株式会社 | 画像処理装置 |
-
2016
- 2016-09-27 CN CN201680056409.2A patent/CN108135453B/zh active Active
- 2016-09-27 WO PCT/JP2016/078396 patent/WO2017057330A1/ja active Application Filing
- 2016-09-27 JP JP2017521261A patent/JP6242543B2/ja active Active
-
2018
- 2018-03-28 US US15/938,461 patent/US20180214006A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
WO2017057330A1 (ja) | 2017-04-06 |
JPWO2017057330A1 (ja) | 2017-10-12 |
CN108135453B (zh) | 2021-03-23 |
CN108135453A (zh) | 2018-06-08 |
US20180214006A1 (en) | 2018-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6242543B2 (ja) | 画像処理装置及び画像処理方法 | |
EP2888991B1 (en) | Endoscope system | |
US9516993B2 (en) | Endoscope system | |
JP5718537B2 (ja) | 内視鏡システム | |
JP5715311B2 (ja) | 内視鏡システム | |
JP6045417B2 (ja) | 画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理装置の作動方法 | |
WO2016143312A1 (ja) | 分岐構造判定装置、方法およびプログラム | |
JP6967602B2 (ja) | 検査支援装置、内視鏡装置、内視鏡装置の作動方法、及び検査支援プログラム | |
JP5977900B2 (ja) | 画像処理装置 | |
JP5748520B2 (ja) | 内視鏡挿入支援装置およびその作動方法、並びに内視鏡挿入支援プログラム | |
JPWO2014156378A1 (ja) | 内視鏡システム | |
JP5326064B2 (ja) | 画像処理装置 | |
JP2017225700A (ja) | 観察支援装置及び内視鏡システム | |
WO2017212725A1 (ja) | 医療用観察システム | |
JP7385731B2 (ja) | 内視鏡システム、画像処理装置の作動方法及び内視鏡 | |
JP6150555B2 (ja) | 内視鏡装置、内視鏡装置の作動方法及び画像処理プログラム | |
JP5613353B2 (ja) | 医療装置 | |
JP5554028B2 (ja) | 医用画像処理装置、医用画像処理プログラム、及びx線ct装置 | |
US20170100019A1 (en) | Medical equipment system and operation method of medical equipment system | |
US20210052146A1 (en) | Systems and methods for selectively varying resolutions | |
Suter et al. | Macro-optical color assessment of the pulmonary airways with subsequent three-dimensional multidetector-x-ray-computed-tomography<? xpp qa?> assisted display | |
JP6211239B1 (ja) | 内視鏡装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20170626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170802 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171024 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171107 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6242543 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |