JP6833870B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP6833870B2
JP6833870B2 JP2018555386A JP2018555386A JP6833870B2 JP 6833870 B2 JP6833870 B2 JP 6833870B2 JP 2018555386 A JP2018555386 A JP 2018555386A JP 2018555386 A JP2018555386 A JP 2018555386A JP 6833870 B2 JP6833870 B2 JP 6833870B2
Authority
JP
Japan
Prior art keywords
discrimination
unit
image
image processing
lesion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018555386A
Other languages
English (en)
Other versions
JPWO2018105063A1 (ja
Inventor
健人 速水
健人 速水
大和 神田
大和 神田
隆志 河野
隆志 河野
光隆 木村
光隆 木村
亮次 高見
亮次 高見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of JPWO2018105063A1 publication Critical patent/JPWO2018105063A1/ja
Application granted granted Critical
Publication of JP6833870B2 publication Critical patent/JP6833870B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00097Sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/31Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the rectum, e.g. proctoscopes, sigmoidoscopes, colonoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • A61B5/489Blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30092Stomach; Gastric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Fuzzy Systems (AREA)
  • Vascular Medicine (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)

Description

本発明は、画像処理装置に関し、特に内視鏡検査のための画像処理装置に関する。
従来より、内視鏡が医療分野等で広く利用されている。内視鏡を用いることにより、例えば、術者は、表示装置に表示された被検体内の内視鏡画像を見て、病変部の発見及び鑑別、さらに病変部に対する処置具を用いた処置を行うことができる。
術者は、表示装置に表示される内視鏡画像を見ながら、被検体内の病変部の有無を判断する。術者は、内視鏡の挿入部を動かしながら、病変部の有無を判断し、病変部を発見すると、挿入部の先端部を静止させて、内視鏡画像を見て病変部の鑑別、すなわち病気の特定を行う。
術者が被検体内を観察しているときに、発見した病変部の鑑別を行いたいときは、内視鏡画像をしっかりと観察すると共に、内視鏡画像に対して所望の画像処理を施してみたり、その画像処理の結果から所望の特徴量情報等を支援情報として表示させたりする場合もある。
また、特開2010−6358号公報には、観察部位と挿入部の先端部との相対的な動きの量を検出して、動きの量が所定の閾値を超える場合には、特殊光観察用の照明光の照射を停止する内視鏡システムが提案されている。
しかし、従来の装置の場合、上述したような支援情報をモニタに表示させるには、術者は、繁雑な指示操作が必要となり、鑑別をスムーズに行うことができないという問題がある。また、上述した提案の内視鏡システムでは、病変部の鑑別のための支援情報を術者へ提示することについては何ら考慮されていない。従来の装置は、術者への鑑別支援をスムーズに提供するものではなかった。
そこで、本発明は、術者が内視鏡を用いて病変部の鑑別を行うときに、術者がその鑑別支援をスムーズに受けることができる画像処理装置を提供することを目的とする。
本発明の一態様の画像処理装置は、内視鏡からの信号若しくは前記内視鏡に対する信号に基づいて、前記内視鏡の操作者が、前記内視鏡の観察対象における病変部を分類する鑑別を行っている鑑別状態にあることを判定する鑑別状態判定部と、前記鑑別状態判定部の判定結果に応じて、前記操作者による前記病変部の前記鑑別を支援する鑑別支援部と、を備え、前記鑑別支援部は、鑑別分類結果を推定する鑑別分類結果推定部と、前記鑑別分類結果推定部により推定された前記鑑別分類結果を、支援情報として、文字情報により表示装置に表示するために出力する情報出力部と、を有し、前記鑑別分類結果推定部は、観察光が通常光か特殊光かを判定する観察光判定部と、前記鑑別のための鑑別指標を切り替える鑑別指標切替部と、を備え、前記鑑別指標切替部は、前記観察光判定部により判定された前記観察光に基づいて前記鑑別指標を切り替え、前記鑑別分類結果推定部は、前記鑑別指標切替部により切り替えられた前記鑑別指標に基づいて前記病変部についての前記鑑別分類結果を推定する。
本発明の第1の実施の形態に関わる内視鏡装置の構成図である。 本発明の第1の実施の形態に関わるプロセッサ12の画像処理に関わる構成を示すブロック図である。 本発明の第1の実施の形態に関わる制御演算部22の演算部22bの構成を示すブロック図である。 本発明の第1の実施の形態に関わる鑑別状態判定部32の構成を示すブロック図である。 本発明の第1の実施の形態に関わる鑑別支援部33の構成を示すブロック図である。 本発明の第1の実施の形態に関わる、制御演算部22における鑑別支援処理の流れの例を示すフローチャートである。 本発明の第1の実施の形態に関わる鑑別状態判定処理の流れの例を示すフローチャートである。 本発明の第1の実施の形態に関わる、鑑別支援処理の流れの例を示すフローチャートである。 本発明の第1の実施の形態に関わる、モニタ13に表示された鑑別支援情報の例を説明するための図である。 本発明の第2の実施の形態に関わる内視鏡装置の構成図である。 本発明の第2の実施の形態に関わる、プロセッサ12の画像処理に関わる構成を示すブロック図である。 本発明の第2の実施の形態における鑑別状態判定処理の流れの例を示すフローチャートである。 本発明の第3の実施の形態に関わる、プロセッサ12の画像処理に関わる構成を示すブロック図である。 本発明の第3の実施の形態における鑑別状態判定処理の流れの例を示すフローチャートである。 変形例1の鑑別状態判定処理の流れの例を示すフローチャートである 変形例2の鑑別状態判定処理の流れの例を示すフローチャートである。 変形例3の鑑別支援処理の流れの例を示すフローチャートである。 変形例4の鑑別支援処理の流れの例を示すフローチャートである。 変形例4の病変サイズ推定処理の流れの例を示すフローチャートである。 変形例5の鑑別支援処理の流れの例を示すフローチャートである。 変形例6の鑑別支援処理の流れの例を示すフローチャートである。 変形例7の鑑別支援処理の流れの例を示すフローチャートである。 変形例8の鑑別支援処理の流れの例を示すフローチャートである。 変形例9における挿入部の先端部の移動量に応じて、支援情報の表示状態が変化する様子を説明するための図である。 変形例10の鑑別支援処理の流れの例を示すフローチャートである。
以下、図面を用いて、本発明の実施の形態を説明する。
(第1の実施の形態)
図1は、第1の実施の形態に関わる内視鏡装置の構成図である。
内視鏡装置1は、内視鏡11と、ビデオプロセッサ12と、表示装置であるモニタ13とを含む。内視鏡11とビデオプロセッサ12は、ユニバーサルケーブルなどのケーブル14により接続されている。ビデオプロセッサ12とモニタ13は、ケーブル15により接続されている。内視鏡装置1は、複数の観察モードを有している。
内視鏡11は、細長の挿入部11aと、挿入部11aの基端部に接続された操作部11bを有する。挿入部11aの先端部11a1には、図示しない照明窓及び観察窓が設けられており、照明光が照明窓から被検体へ出射され、被検体からの戻り光が観察窓へ入射される。挿入部11aの先端部11a1の基端側には湾曲部11a2が設けられている。
操作部11bは、フリーズボタンなどの各種操作ボタン16、及び湾曲部11a2の湾曲操作のための湾曲ノブ17を有している。
撮像素子18が挿入部11aの先端部11a1内に配設され。観察窓から入射した光による被写体像を光電変換して撮像信号を出力する。撮像信号は、ケーブル14を介してビデオプロセッサ12へ供給される。
画像処理装置であるビデオプロセッサ(以下、プロセッサという)12は、後述するように画像処理回路を有し、内視鏡11からの撮像信号に基づいて内視鏡画像を生成して、内視鏡画像の画像信号をモニタ13にケーブル15を介して出力する。モニタ13には、内視鏡画像が表示される。
プロセッサ12は、光源を含み、光源から出射された照明光は、ケーブル14及び内視鏡11内に挿通されたライトガイド(図示せず)を通って、挿入部11aの先端部の照明窓から出射される。
また、プロセッサ12は、観察モードに応じて、光源及び画像処理回路を制御して、術者により設定された観察モードに応じた内視鏡画像を生成して、その画像信号をモニタ13へ出力する。よって、モニタ13には、観察モードに応じた内視鏡画像が表示される。
図2は、プロセッサ12の画像処理に関わる構成を示すブロック図である。
プロセッサ12は、撮像信号取得部21と、制御演算部22と、記憶装置23と、入力部24とを有する画像処理装置である。制御演算部22は、制御部22aと、演算部22bを含む回路である。
撮像信号取得部21は、制御部22aの制御の下、内視鏡11の撮像素子18からの撮像信号を受信して取得し、制御演算部22へ出力する回路である。
制御部22aは、中央処理装置(以下、CPUという)、ROM、RAM等を含み、プロセッサ12全体の動作の制御を行うと共に、術者による入力部24への指示に応じて、内視鏡11の撮像素子18の駆動の制御、内視鏡11の操作部11bからの各種操作信号に基づく各種回路の制御、記憶装置23への各種データの記録及び記憶装置23からの各種データの読み出し制御、及び画像処理の制御を行う。さらに、制御演算部22は、図示しない光源の制御なども行う。
すなわち、制御部22aは、入力部24においてされた指示あるいは入力に基づいて、内視鏡装置1の動作を制御し、各部への制御信号あるいは設定信号を出力する。
演算部22bは、制御部22aの制御の下で、撮像信号取得部21で取得された撮像信号に基づき、各種画像処理及び各種演算処理を実行すると共に、モニタ13に表示される内視鏡画像の画像信号及び各種表示情報を生成し、モニタ13へ出力する回路である。
なお、制御演算部22における制御部22a及び演算部22bの処理の全部若しくは一部をソフトウエアプログラムで行うようにしてもよい。
記憶装置23は、ハードディスク装置などの大容量の記憶装置であり、内視鏡検査で得られた被検体内の内視鏡画像の画像データ、及び支援情報等の各種データを記憶する。
入力部24は、各種ボタンを有する操作パネルであり、術者が内視鏡装置1の各種設定、各種指示などをプロセッサ12へ与えるための入力装置である。
図3Aは、制御演算部22の演算部22bの構成を示すブロック図である。
演算部22bは、画像生成部31、鑑別状態判定部32及び鑑別支援部33を含む回路である。
画像生成部31は、撮像信号を受信して、観察モードに応じて、撮像信号に基づいて内視鏡画像を生成する回路である。内視鏡装置1は、観察モードが通常光観察モードであれば、通常光観察モードに応じた内視鏡画像を生成し、観察モードが特殊光観察モードであれば、特殊光観察モードに応じた内視鏡画像を生成する。さらに、画像生成部31は、内視鏡画像に対して所定の強調処理、各種補正処理、支援情報及びメニュー画面などを重畳表示させる重畳処理などを行う。
鑑別状態判定部32は、術者が病変部の鑑別を行っているかを推定して、鑑別状態を判定する回路である。本実施の形態では、鑑別状態判定部32は、内視鏡11からの信号に基づいて、内視鏡11の操作者が、内視鏡11の観察対象における病変部の鑑別を行っている鑑別状態にあることを判定する。
鑑別支援部33は、鑑別支援のための各種処理を行う回路である。すなわち、鑑別支援部33は、鑑別状態判定部32の判定結果に応じて、操作者による病変部の鑑別を支援する。
図3Bは、鑑別状態判定部32の構成を示すブロック図である。図3Cは、鑑別支援部33の構成を示すブロック図である。
図3B及び図3Cに示す鑑別状態判定部32及び鑑別支援部33中の各部の動作については、下記の説明の対応する箇所で後述する。図3B及び図3Cは、以下に説明する本実施の形態に関わる構成だけでなく、本実施の形態の後に説明する第2及び第3の実施の形態及び複数の変形例に関わる構成も含めて示している。
図4は、制御演算部22における鑑別支援処理の流れの例を示すフローチャートである。図4の処理は、所定の周期で実行される。
制御部22aが、設定された観察モードに応じて、光源の駆動と内視鏡11の撮像素子18の駆動とを制御しかつ撮像信号取得部21を制御することによって、演算部22bは、内視鏡11からの撮像信号を取得する。演算部22bの画像生成部31は、制御部22aの制御の下、撮像信号に基づいて、所定のフレームレートの動画像の内視鏡画像を生成する。
例えば、図4の処理は、所定の周期で実行される。制御演算部22は、複数枚のフレーム画像を取得し、時刻t1の画像と、その時刻t1から所定の時間Tだけ経過した後の時刻t2に取得された画像とに基づいて、術者が病変部の鑑別を行っているか、すなわち鑑別中であるか否かを判定し、かつ支援情報を生成する。
具体的には、鑑別状態判定部32は、画像生成部31において生成された動画像の内視鏡画像を取得する(S1)。
鑑別状態判定部32は、取得した内視鏡画像に基づいて鑑別状態判定処理を実行する(S2)。
S2の鑑別状態判定処理は、術者が病変部の鑑別を行っている状態にあるか否かを推定し、術者が鑑別中であるかを判定する。
ここでは、鑑別状態にあるか否かは、動画像から所定の時間Tの間隔(あるいはフレーム間隔)で抽出された2枚の画像全体の移動量に基づいて判定される。すなわち、病変部の発見中は、所定の時間Tの間隔を有する2枚の画像における被検体内の撮像領域が移動する。しかし、術者が病変部の鑑別を行っているときは、挿入部11aの先端部11a1はほとんど動かないので、所定の時間間隔を有する2枚の画像は同じ画像となる。
図5は、鑑別状態判定処理の流れの例を示すフローチャートである。図5の処理には、図3Bにおける静止判定部32Aの移動量算出部32A1が関わる。
本実施の形態では、図5の鑑別状態判定処理が、内視鏡11により得られた内視鏡画像に基づいて内視鏡11の挿入部11aの先端部11a1が静止していることを判定する静止判定部32Aを構成する。先端部11a1が静止していると判定されたときに、鑑別状態判定部32は、内視鏡11の操作者が鑑別状態にあると判定する。
図5において、鑑別状態判定部32は、所定の時間Tの間隔を有する2枚の画像に基づいて画像全体の移動量を算出する(S11)。
時刻t1の画像と、時刻t1から所定の時間Tの経過後の時刻t2の画像に基づく画像全体の移動量は、例えば、二次元フーリエ変換による相関マップから算出される。時刻t1の画像に含まれる領域が、時刻t2の画像中においてどの程度移動しているかを判定することにより、画像全体の移動量が算出される。
具体的には、次の式(1)により、時刻t1の画像IMG1および時刻t2の画像IMG2から、周波数情報F(u,v)およびF(u,v)を算出する。このとき、画像IMG1に関しては、画像を180度回転させてから周波数情報は算出される。
Figure 0006833870
ここで、jは、虚数単位を示し、uは、x方向のp空間周波数、vは、y方向の空間周波数を示し、Nは、正の整数を示す。
得られた周波数情報F(u,v)とF(u,v)の積をとることで、相関マップM(x,y)を作成することができる。この相関マップにおいて、相関値が最大となる座標(X,Y)と画像の中心座標(X,Y)の差分を算出することにより、2枚の画像間の移動量が得られる。
なお、画像間の移動量は、公知の、画像全体のテンプレートマッチングやSIFT(Scale−Invariant Feature Transform)特徴量などに基づく特徴点マッチングにより得られる特徴量ごとの移動量を平均化することにより、算出するようにしても良い。
画像全体のテンプレートマッチングについては、財団法人画像処理教育振興協会(CG−ART協会)が発行する「ディジタル画像処理」(改訂新版)、P.218に説明されており、SIFT特徴量などに基づく特徴点マッチングについては、財団法人画像処理教育振興協会(CG−ART協会)が発行する「ディジタル画像処理」(改訂新版)、P.234に説明されている。
S11の後、鑑別状態判定部32は、算出した画像全体の移動量に基づいて、挿入部11aの先端部11a1の静止状態を判定する(S12)。
図4に戻り、鑑別状態判定部32は、S2の処理の結果に基づき、挿入部11aの先端部11a1が静止状態にある、すなわち病変部の鑑別中であるか否かを判定する(S3)。すなわち、先端部11a1が静止状態にあるとき、術者が病変部の鑑別中であると推定する。
鑑別状態判定部32は、算出した画像全体の移動量が所定の閾値TH1以下であるとき、術者が病変部の鑑別中であるすなわち病変部の鑑別が行われていると判定し、算出した画像全体の移動量が所定の閾値TH1を超えるとき、病変部の鑑別中でないと判定する。
以上のように、S11の処理が、所定の時間Tにおける内視鏡画像の画像全体の移動量を算出する画像移動量算出部を構成し、その移動量が所定の閾値TH1未満であるときに、静止判定部32Aは、先端部11a1が静止していると判定する。
図4に戻り、術者が病変部の鑑別中であるとき(S3:YES)、鑑別支援部33は、病変領域を特定する(S4)。S4の処理が、病変部の病変領域を特定する病変領域特定部33A1を構成する。
病変領域の特定は、例えば特開2007−244518号公報に開示のようなポリープ候補検出処理により行われる。上述した例の場合、例えば、時刻t2の画像IMG2に対して病変領域の特定処理が行われる。
S4の後、鑑別支援部33は、鑑別支援処理を実行する(S5)。
図6は、鑑別支援処理の流れの例を示すフローチャートである。図6の処理には、図3Cにおける鑑別分類結果推定部33Aの表層構造鑑別分類部33A2が関わる。
鑑別支援部33は、表層構造に基づいて、病変部の鑑別分類を行う(S21)。
鑑別支援部33は、特定周波数帯域を抽出するバンドパスフィルタや、ヘッセ行列、ガボールフィルタなどにより、表層構造の抽出を行うことができる。そして、鑑別支援部33は、抽出した表層構造のテクスチャ特徴量を算出し、機械学習によりクラス分類する。ここで、テクスチャ特徴量は、SIFT特徴量やLBP(Local Binary Pattern)特徴量、CoHOG(Co−occurerrence Histograms Of Gradients)といった公知の技術を用いる。また、機械学習はSVM(Support Vector Machine)などの強力な分類器で分類する。例えば、大腸であれば、病変は過形成ポリープと腺腫病変、浸潤癌などの分類がなされる。
すなわち、S21の処理は、鑑別分類結果を推定する鑑別分類結果推定部を構成する。特に、S21の処理は、病変領域特定部33A1により特定された病変領域の表層構造に基づいた鑑別分類を行う表層構造鑑別分類部33A2を構成する。
制御部22aは、S21において得られた鑑別分類結果をモニタ13に表示する(S22)。
図7は、モニタ13に表示された鑑別支援情報の例を説明するための図である。
モニタ13の画面13a上には、内視鏡画像が表示され、かつ特定された病変領域LSについての分類結果情報が、支援情報として、ウインドウ41に示されている。ウインドウ41には、支援情報として、「腺腫病変」の分類結果情報が表示されている。
よって、S22の処理が、鑑別分類結果推定部33Aにより推定された鑑別分類結果を、鑑別支援情報として表示装置であるモニタ13に表示するための情報出力部を構成する。
以上のように、上述した実施の形態の内視鏡装置によれば、術者が内視鏡を用いて病変部の鑑別を行うときに、術者がその鑑別支援をスムーズに受けることができる画像処理装置を提供することができる。
(第2の実施の形態)
第1の実施の形態では、撮像素子を用いて取得された内視鏡画像に基づいて挿入部の先端部が静止しているか否かを判定することにより、術者が鑑別中か否かが判定されているが、本実施の形態では、センサにより挿入部11aの先端部11a1の動きを検出し、その検出結果に基づいて術者が鑑別中か否かが判定される。
本実施の形態の内視鏡装置は、第1の実施の形態の内視鏡装置1と同様の構成を有しており、同じ構成要素については、同じ符号を付して説明は省略し、異なる構成についてのみ説明する。
図8は、第2の実施の形態に関わる内視鏡装置の構成図である。図9は、プロセッサ12の画像処理に関わる構成を示すブロック図である。
挿入部11aの先端部11a1内には、加速度センサ19が設けられている。加速度センサ19は、例えば3軸加速度センサであり、先端部11a1の3次元方向における動きを検出する。加速度センサ19の出力信号は、制御部22aに供給される。
加速度センサ19は、3軸方向の加速度信号を出力するので、制御部22aは、加速度センサ19の出力信号の大きさにより、先端部11a1の3次元方向における動きの有無及び加速度の大きさを検出することができる。制御部22aの鑑別状態判定部32が、加速度センサ19の出力信号に基づいて、先端部11a1の静止状態を判定する。
本実施の形態においても、図4から図6の処理が実行されるが、図5の処理が異なる。
図10は、本第2の実施の形態における鑑別状態判定処理の流れの例を示すフローチャートである。図10の処理には、図3Bにおける静止判定部32Aの先端部移動量算出部32A2が関わる。
鑑別状態判定部32は、加速度センサ19の出力信号に基づいて先端部11a1の静止状態を判定する(S31)。
すなわち、S31の処理が、静止判定部32Aを構成する。静止判定部32Aは、先端部11a1の動きを検出するセンサの検出信号に基づいて、先端部11a1の移動量を算出する先端部移動量算出部32A2を構成し、先端部移動量算出部32A2が算出した移動量が所定の閾値TH2未満であるときに、先端部11a1が静止していると判定される。移動量は、先端部11a1の軸回りの回転量も含まれる。
図4において、鑑別状態判定部32は、図10のS31の処理の結果に基づき、挿入部11aの先端部11a1が静止状態にある、すなわち病変部の鑑別中であるか否かを判定する(S3)。
以上のように、鑑別状態判定部32は、内視鏡11のセンサからの信号に基づいて、内視鏡11の操作者が内視鏡11の観察対象における病変部の鑑別を行っている鑑別状態にあることを判定する。
本実施の形態においても、図4の病変領域を特定する処理(S4)、及び図6に示すような鑑別支援処理(S5)が実行される。
従って、本実施の形態によっても、第1の実施の形態と同様の効果を得ることができる。
(第3の実施の形態)
第1の実施の形態では、撮像素子18を用いて取得された内視鏡画像に基づいて挿入部11aの先端部11a1が静止しているか否かを判定することにより、術者が鑑別中か否かが判定され、第2の実施の形態では、センサにより挿入部11aの先端部11a1の動きを検出し、その検出結果に基づいて術者が鑑別中か否かが判定されているが、本実施の形態では、操作部11bにおける観察状態の設定操作に基づいて術者が鑑別中か否かが判定される。
本実施の形態の内視鏡装置は、第1の実施の形態の内視鏡装置1と同様の構成を有しており、同じ構成要素については、同じ符号を付して説明は省略し、異なる構成についてのみ説明する。
図11は、プロセッサ12の画像処理に関わる構成を示すブロック図である。
制御部22aには、操作部11bにおける各種操作ボタン16の中の近点/遠点観察切り換えボタンの状態信号が入力される。
術者は、鑑別するときには、病変部をしっかりと観察するために近点観察モードに切り換える。近点観察モードでは、被検体内の画像は、画像処理によりあるいは図示しないズームレンズ機構により拡大されて、モニタ13に表示される。近点観察モード、すなわち拡大観察時には、鑑別が行われていると推定することができる。
図12は、本第3の実施の形態における鑑別状態判定処理の流れの例を示すフローチャートである。図12の処理には、図3Bにおける鑑別状態判定部32の鑑別操作判定部32Bが関わる。
鑑別状態判定部32は、内視鏡11に対する操作信号に基づいて、内視鏡11の操作者が、内視鏡11の観察対象における病変部の鑑別を行っている鑑別状態にあることを判定する。ここでは、鑑別状態判定部32は、近点/遠点観察切り換えボタンの操作状態信号に基づいて先端部11a1の静止状態を判定する(S41)。近点/遠点観察切り換えボタンが近点観察状態に設定されているとき、術者が鑑別中であると判定される。S41の処理が、内視鏡11の観察状態に基づいて操作者が鑑別状態にあると判定する鑑別操作判定部32Bを構成する。
図4において、鑑別状態判定部32は、図12のS41の処理の結果に基づき、すなわち内視鏡11に対する近点観察あるいは拡大観察への設定操作信号に基づき、病変部の鑑別中であるか否かを判定する(S3)。
本実施の形態においても、図4の病変領域を特定する処理(S4)、及び図6に示すような鑑別支援処理(S5)が実行される。
従って、本実施の形態によっても、第1の実施の形態と同様の効果を得ることができる。
次に上述した3つの実施の形態の変形例について説明する。
以下の各変形例は、上述した各実施の形態の内視鏡装置と同じ構成要素からなる内視鏡装置において実現されるので、各変形例において、各実施の形態の内視鏡装置と同じ構成要素については同じ符号を用い、変形例に関わる構成についてのみ説明する。
(変形例1)
第1の実施の形態では、挿入部11aの先端部11a1が静止しているか否かを画面全体の移動量に基づいて判定し、その移動量が所定の閾値TH1以下であるとき、術者は鑑別中であると判定しているが、本変形例では、挿入部11aの先端部11a1に動きがあっても、術者がある領域を注視しているか否かに基づいて、術者は鑑別中であると判定する。
本変形例のプロセッサ12の鑑別状態判定部32は、図4から図6の処理を実行するが、図4のS2の鑑別状態判定処理(図5の処理)が、第1の実施の形態とは異なる。
図13は、本変形例の鑑別状態判定処理の流れの例を示すフローチャートである。図13の処理には、図3Bにおける注視判定部32Cの画素移動量算出部32C1が関わる。
鑑別状態判定部32は、所定の時間Tの間隔を有する2枚の画像に基づいて、画像内の各画素における所定の時間内の移動量を算出する(S101)。
具体的には、例えば、公知のLucas−Kanade法などの、画像内の小領域毎に、移動先の小領域として相応しい箇所を探索する手法を用いて、画素毎の移動量を算出する。
Lucas−Kanade法については、財団法人画像処理教育振興協会(CG−ART協会)が発行する「ディジタル画像処理」(改訂新版)、P.291に説明されている。
鑑別状態判定部32は、移動量が所定値より小さい画素が所定の面積分以上あるとき、術者がその画素領域を注視していると判定する(S102)。
すなわち、鑑別状態判定部32は、操作者が観察対象の同じ領域を注視していることを判定する注視判定部32Cを備え、注視判定部32Cが操作者が同じ領域を注視していると判定したとき、操作者が鑑別状態にあると判定する。注視判定部32Cは、内視鏡画像の画素毎の移動量を算出する画素移動量算出部32C1を備え、移動量の少ない画素が一定数を占めていたとき、操作者が前記同じ領域を注視していると判定する。
術者は、先端部11a1を静止させてある部位を観察するだけでなく、種々の方向からその部位を観察して、病変部の鑑別を行う場合もある。
よって、本変形例では、術者が、視線方向を変化させるように先端部11a1を動かして、ある領域を種々の異なる方向から観察しているか否かを、上述したS101とS102において、所定の時間内の移動量が所定値よりも小さい画素の領域が、所定の面積以上あるか否かによって、判定している。
S102において術者が注視中であると判定されると、図4のS3において、術者は鑑別中であると判定される。
よって、本変形例によれば、先端部11a1が静止していない場合であっても、術者が鑑別中であることを判定することができる。
従って、第1及び第2の実施の形態における先端部11a1の静止状態であるか否かの判定に加えて、本変形例の注視判定も行うことによって、術者が鑑別中であるかをより精度よく判定することができる。
(変形例2)
第1の実施の形態では、挿入部11aの先端部11a1が静止しているか否かを画面全体の移動量に基づいて判定し、その移動量が所定の閾値TH1以下であるとき、術者は鑑別中であると判定し、上述した変形例1では、挿入部11aの先端部11a1に動きがあっても、術者がある領域を注視しているか否かに基づいて、術者は鑑別中であると判定しているが、本変形例2では、被検体内の部位を拡大観察あるいは近接観察をしているかを画像から判定し、その判定結果に基づいて術者は鑑別中であると判定している。
本変形例のプロセッサ12の鑑別状態判定部32は、図4から図6の処理を実行するが、図4のS2の鑑別状態判定処理(図5の処理)が、第1の実施の形態とは異なる。
図14は、本変形例の鑑別状態判定処理の流れの例を示すフローチャートである。図14の処理には、図3Bにおける血管領域抽出部32Dが関わる。
鑑別状態判定部32は、所定の周期で得られた画像における血管領域を抽出する(S111)。
具体的には、公知の、ガボールフィルタやヘッセ行列などを用いて、画素の輝度値が凹、すなわち輝度値が低い領域が、血管領域として抽出される。
例えば、中心波長が415nmの狭帯域光と中心画像が540nmの狭帯域光を利用した狭帯域光観察モードであれば、粘膜表面の強調された毛細血管の領域が抽出され、通常光観察モードであれば、画像中の血管の領域が抽出される。
鑑別状態判定部32は、S111で抽出された血管領域における血管の太さから、拡大あるいは近接観察かを判定する(S112)。
具体的には、抽出された血管領域に対して、二次元フーリエ変換を施し、周波数成分を取得し、取得した周波数成分において、所定の閾値よりも低周波数成分に偏りがある場合には、拡大あるいは近接観察が行われていると判定される。すなわち、鑑別状態判定部32は、内視鏡画像から血管領域を抽出する血管領域抽出部32Dを備え、血管領域抽出部32Dが抽出した血管の太さに基づいて、操作者が鑑別状態にあると判定する。
また、拡大観察が行われていると判定されたときには、鑑別支援部33においても、拡大観察に応じた鑑別分類を行うことができる。例えば、大腸の場合、病変分類である広島分類に基づいて収集された画像データを教師データとして学習させるなどしたSVMを用いて、鑑別分類を行うことができる。
よって、本変形例によれば、上述した各実施の形態と同様の効果を得ることができる。
(変形例3)
上述した各実施の形態及び各変形例の鑑別支援処理では、病変部の鑑別分類が、表層構造に基づいて行われているが、病変部の形状情報に基づいて行うようにしてもよい。
本変形例では、病変部の鑑別分類は、病変部の形状情報に基づいて行われ、その鑑別結果がモニタに表示される。
図15は、本変形例の鑑別支援処理の流れの例を示すフローチャートである。図15の処理には、図3Cにおける形状鑑別分類部33A3が関わる。
鑑別支援部33は、形状情報に基づいて、病変部の鑑別分類を行う(S121)。S121の処理が、形状鑑別分類部を構成する。すなわち、鑑別支援部33は、病変部の形状に基づいた鑑別分類を行う形状鑑別分類部33A3を備える。
具体的には、鑑別支援部33は、病変領域を示すマスク画像を作成し、その画像に基づいて形状特徴量を算出する。形状特徴量は、SVM等の分類器を用いて、機械学習により生成された複数のクラスの1つに分類される。ここで、形状特徴量としては、円形度、モーメント、フラクタル次元などの公知のパラメータが用いられる。
例えば、大腸ポリープの場合、隆起型(I型)と表面型(II型)があり、隆起型の中でも、立ち上がりにくびれの無い無茎性(Is)、立ち上がりにくびれのある亜有茎性(Isp) 、茎のある有茎性(Ip)がある。表面型では、隆起型(IIa)、平坦型(IIb)、陥凹型(IIc)などの分類がなされる。
制御部22aは、S121において得られた鑑別分類結果をモニタに表示する(S22)。
よって、本変形例によれば、上述した各実施の形態と同様の効果を得ることができると共に、支援情報として、病変部の形状情報が術者に提示されるので、術者は、より詳細な病変部の情報を得ることができる。
なお、病変部の鑑別分類を、病変部の表層構造と病変部の形状情報について同時に行うようにしてもよい。
(変形例4)
上述した各実施の形態及び各変形例の鑑別支援処理では、病変部の鑑別分類が、表層構造に基づいて行われているが、病変部のサイズに基づいて行うようにしてもよい。
本変形例では、病変部の鑑別分類は、病変部のサイズ情報に基づいて行われ、その鑑別結果がモニタに表示される。
図16は、本変形例の鑑別支援処理の流れの例を示すフローチャートである。図16の処理には、図3Cにおけるサイズ推定部33A4が関わる。
鑑別支援部33は、病変部のサイズを推定する(S131)。S131の処理が、病変部のサイズを推定するサイズ推定部33A4を構成する。すなわち、鑑別支援部33は、病変部のサイズを推定するサイズ推定部33A4を備える。
具体的には、鑑別支援部33は、図17の病変サイズ推定処理により、病変部のサイズを推定する。
図17は、病変サイズ推定処理の流れの例を示すフローチャートである。
鑑別支援部33は、管腔を検出する(S132)。
S132では、まず、画像内の各画素までの撮像距離を推定する。ここでは、公知の様々な技術のうち、画像を基に撮影対象を均等拡散面と仮定した撮影距離推定について説明する。
具体的には、まず、低吸収波長成分として、生体内での吸収あるいは散乱の度合いが最も低い低吸収波長(例えば赤色(R)の波長)成分が選択される。これは、粘膜表面に映る血管等による画素値低下を抑え、最も粘膜表面との撮像距離に相関する画素値情報を得るためであり、赤色(R)、緑色(G)、青色(B)の3つの成分からなる画像においては、赤(R)成分が血液の吸収帯域から離れる波長、かつ長波長の成分で、生体内での吸収、散乱の影響を受け難いためであり、赤(R)成分が選択される。
そして、鑑別支援部33は、低吸収波長成分の画素値を基に均等拡散面を仮定した撮像距離を推定する。具体的には、撮像距離は、次の式(2)により算出される。
Figure 0006833870
ここで、rは、撮像距離を示し、Iは、事前に測定して得られた光源の放射強度を示し、Kは、事前に測定された、平均値である粘膜表面の拡散反射係数を示す。θは、粘膜表面の法線ベクトルと該表面から光源までのベクトルのなす角を示し、挿入部11aの先端部11a1の光源と粘膜表面の位置関係により決まる値であり、平均的な値が事前に設定される。Lは、撮像距離推定対象の粘膜表面が映る画素のR成分値を示す。
なお、撮像距離推定の前に、各処理の精度低下要因と成り得る光学系や照明系による画素値ムラの補正や、鏡面反射、残渣、泡等の非粘膜領域の除外を行っても良い。
また、ここでは、画像に基づく方法を示したが、その他にも測距センサ等に基づいて算出しても良い。また、必ずしも撮像距離の推定まで行わず、撮像距離と相関する画素値で後段の適応的な処理を行っても良い。
次に、鑑別支援部33は、病変近辺の画素の撮像距離に対して、その撮像距離より小さい閾値および大きい閾値を設け、その閾値処理により病変のある撮像距離帯の領域を抽出する。鑑別支援部33は、その領域の円形度を算出し、所定値より大きかった場合、その領域を管腔として検出する。
鑑別支援部33は、S131の後に、管腔と病変部を比較し、病変部のサイズを推定する(S133)。
具体的には、鑑別支援部33は、検出した管腔の円周長に対して病変の長さが占める割合を算出することにより、病変の実際のサイズを推定する。なお、各臓器部位(位置)の管腔の周長を解剖学に基づいて事前に設定しておき、サイズ推定の精度を向上させることもできる。例えば、大腸検査の場合に、挿入部11aの挿入量から、大腸の病変部の部位(位置)推定を行い、事前に設定しておいた管腔の周長と比較して、サイズ推定の精度を向上させるようにしてもよい。
以上のように、サイズ推定部33A4は、内視鏡画像に写る管腔の円形サイズと比較して病変部のサイズを推定する。
制御部22aは、S133において得られた病変部のサイズ情報を、鑑別分類結果としてモニタ13に表示する(S22)。
よって、本変形例によれば、上述した各実施の形態と同様の効果を得ることができると共に、支援情報として、病変部のサイズ情報が術者に提示されるので、術者は、より詳細な病変部の情報を得ることができる。
なお、病変部の鑑別分類を、病変部の表層構造と病変部のサイズ推定を同時に、あるいは病変部の形状情報と病変部のサイズ推定とを同時に、あるいは病変部の表層構造と形状情報と病変部のサイズ推定を同時に行うようにしてもよい。
(変形例5)
上述した各実施の形態及び各変形例の鑑別支援処理では、病変部の鑑別分類は、設定されている観察光との関係はないが、観察光に応じて行われるようにしてもよい。
本変形例では、病変部の鑑別分類は、観察光に応じて行われ、その鑑別結果がモニタに表示される。
図18は、本変形例5の鑑別支援処理の流れの例を示すフローチャートである。図18の処理には、図3Cにおける鑑別動作判定部33A5の鑑別動作分類部33A5a、観察光判定部33A5a1、及び鑑別指標切替部33A6が関わる。
図18は、内視鏡装置が、通常光観察モードと狭帯域光観察モードの2つの観察モードを有しているときに、各観察モードにおいて出力される支援情報、例えば鑑別指標、が異なっている。通常光は、白色光を被写体に照射したときの内視鏡画像を得るための光であり、特殊光としての狭帯域光は、所定の狭帯域光を被写体に照射したときの内視鏡画像を得るための光である。
鑑別支援部33は、現在出射している観察光が、通常光であるか否かを判定する(S141)。言い換えれば、観察モードが通常光観察モードであるか狭帯域光観察モードであるが判定される。よって、観察光が通常光であるかは、設定されている観察モードの情報あるいは光源への制御に基づいて判定することができる。
観察光が通常光であるとき(S141:YES)、鑑別支援部33は、病変部のサイズ推定や形状情報に基づいた鑑別分類を行う(S142)。
観察光が通常光でないとき(S141:NO)、鑑別支援部33は、表層構造情報に基づいて鑑別分類を行う(S143)。
S142及びS143の後、鑑別支援部33は、鑑別分類結果として、病変部のサイズ情報や形状情報に基づいた鑑別分類結果、あるいは表層構造情報に基づいた鑑別分類結果をモニタ13に表示する(S22)。
以上のように、鑑別動作判定部33A5は、操作者の鑑別動作を分類する鑑別動作分類部33A5aを備え、鑑別動作分類部33A5aは、観察光が通常光か特殊光かを判定する観察光判定部33A5a1を備える。鑑別分類結果推定部33Aは、鑑別動作分類部33A5aにより分類された鑑別動作に基づいて鑑別指標を切り替える鑑別指標切替部33A6を備え、鑑別指標切替部33A6は、観察光判定部33A5a1により判定された観察光に基づいて鑑別指標を切り替える。
よって、本変形例によれば、上述した各実施の形態と同様の効果を得ることができると共に、術者は、観察光に応じた支援情報を得ることができる。
なお、上述した変形例2では、拡大観察あるいは近接観察をしているかが画像から判定されているが、変形例2においても、鑑別動作分類部33A5aが拡大及び近接観察の動作を判定する拡大/近接判定部33A5a2を備えて鑑別動作を分類し、鑑別分類結果推定部33Aは、鑑別動作分類部33A5aにより分類された鑑別動作に基づいて鑑別指標を切り替えるようにしてもよい。
(変形例6)
上述した各実施の形態及び各変形例の鑑別支援処理では、支援情報として、「腺腫病変」などの分類結果情報が出力されているが、臓器の部位情報を出力するようにしてもよい。
図19は、本変形例の鑑別支援処理の流れの例を示すフローチャートである。図19の処理には、図3Cにおける臓器部位推定部33Bが関わる。
鑑別支援部33は、観察部位の推定を行う(S151)。例えば、観察する臓器が大腸の場合は、直腸、S状結腸、下行結腸、横行結腸、上行結腸及び盲腸を認識し、観察する臓器が胃の場合は、噴門、胃底部、胃体部、胃角部、前庭部、幽門及び十二指腸を認識し、小腸の場合は、空腸、回腸を認識し、食道の場合は、頸部食道、胸部食道、腹部食道を認識する。具体的には、それぞれの写った画像データを収集し、その画像データを用いて機械学習させることで、SVM等を用いて部位(位置)推定を行うことができる。
鑑別支援部33は、推定結果をモニタ13に表示する(S152)。例えば、図7のウインドウ41に、推定結果、例えば「噴門」などの観察している部位を示す文字が、支援情報として、示される。
以上のように、鑑別支援部33は、内視鏡11の観察対象である臓器の部位(位置)を推定する臓器部位推定部33Bを備える。その臓器部位推定部33Bは、臓器が大腸のときは直腸、S状結腸、下行結腸、横行結腸、上行結腸又は盲腸を推定し、臓器が胃のときは噴門、胃底部、胃体部、胃角部、前庭部、幽門又は十二指腸を推定し、臓器が小腸のときは空腸又は回腸を推定し、臓器が食道のときは頸部食道、胸部食道又は腹部食道を推定する。
よって、本変形例によれば、上述した各実施の形態と同様の効果を得ることができると共に、術者は、観察部位の情報を、支援情報として得ることができる。
(変形例7)
上述した各実施の形態及び各変形例では、鑑別支援では、支援情報をモニタ13上にメッセージとして出力しているが、本変形例では、得られた複数の画像の中から明瞭な画像を選択してモニタ13に表示する。
図20は、本変形例の鑑別支援処理の流れの例を示すフローチャートである。図20の処理には、図3Cにおける鑑別対象画像選出部33Cの明瞭度算出部33C1が関わる。
鑑別支援部33は、被写体の明瞭度を算出する(S161)。
具体的には、病変領域特定部33A1により特定された画像中の病変領域に対して、明瞭度を算出する。ここで、明瞭度とは色ずれ量、ボケ度合い、ノイズ量、輝度飽和面積率、コントラスト情報、周波数情報、エッジ情報の何れか、もしくは何れか2つ以上の組み合わせ、もしくはそれぞれ複数の明瞭度を算出することで取得する。これらの値は公知技術として次のように算出できる。色ズレ量は、彩度平均値を算出する。ボケ度合いは、特定周波数成分の範囲の平均値を算出する。ノイズ量は、標準偏差の所定値以上の外れ画素数を算出する。輝度飽和面積率は、R色成分が所定値以上の領域を病変領域の面積で割った値を算出する。エッジ情報は、所定強度のエッジ判定画素量を算出する。
鑑別支援部33は、病変部の明瞭度が所定値以上の画像を鑑別対象画像として選択する(S162)。鑑別支援部33は、その選択された画像に基づいて、支援情報を生成して出力することができる。
以上のように、鑑別支援部33は、鑑別に有意な対象画像を選出する鑑別対象画像選出部33Cを備える。鑑別対象画像選出部33Cは、病変領域特定部33A1により特定された病変領域の明瞭度を算出する明瞭度算出部33C1を備える。明瞭度算出部33C1が算出する明瞭度は,色ずれ量、ボケ度合い、ノイズ量、輝度飽和面積率、若しくはエッジ情報の1つ以上である。
鑑別支援部33は、S162で選択された画像を、モニタ13に表示する(S163)。
よって、本変形例によれば、上述した各実施の形態と同様の効果を得ることができると共に、術者は、病変部が明瞭な内視鏡画像を見ることができる。
(変形例8)
上述した各実施の形態及び各変形例では、鑑別支援では、支援情報をモニタ13上にメッセージとして出力しているが、本変形例では、所定の重要領域の写った画像を選択してモニタ13に表示する。
図21は、本変形例の鑑別支援処理の流れの例を示すフローチャートである。図21の処理には、図3Cにおける鑑別対象画像選出部33Cの所定領域算出部33C2が関わる。
鑑別支援部33は、被写体の重要領域を抽出する(S171)。重要領域は、所定の形状特徴量に基づいて、SVM等の分類器を用いて、機械学習により生成された複数のクラスの1つに分類される。重要領域は、例えば、大腸ポリープの場合であれば、隆起頂部および隆起立ち上がり部などの所定の領域である。例えば、そのような重要領域の写った画像データを収集し、画像データを教師データとして、その傾向を学習させることで、重要領域の抽出を行うことができる。
鑑別支援部33は、重要領域が所定の割合以上写っている画像を鑑別対象画像として選択する(S172)。鑑別支援部33は、その選択された画像に基づいて、支援情報を生成して出力することができる。
以上のように、鑑別対象画像選出部33Cは、所定の領域の割合を算出する所定領域割合算出部33C2を備える。ここでは、大腸ポリープの場合の所定の領域は、病変部の隆起頂部若しくは隆起立ち上がり部である。
鑑別支援部33は、S172で選択された画像を、モニタ13に表示する(S173)。
よって、本変形例によれば、上述した各実施の形態と同様の効果を得ることができると共に、術者は、隆起頂部の大腸ポリープ等の重要領域を含む内視鏡画像を見ることができる。
(変形例9)
上述した各実施の形態及び各変形例においては、先端部11a1が静止しているときに、鑑別支援部33は、支援情報をモニタ13に表示しているが、静止状態に応じて、すなわち先端部11a1が完全に生成しているのか、わずかに動いているのか、かなり動いているかに応じて、支援情報の表示量を変化させるようにしてもよい。
図22は、本変形例における挿入部11aの先端部11a1の移動量に応じて、支援情報の表示状態が変化する様子を説明するための図である。
静止判定部32Aは、画像あるいはセンサにより先端部11a1の静止状態を判定する。先端部11a1は、略完全に生成している場合と、少しだけ動いている場合など、先端部11a1の移動量が小から大までの間で変化する。
移動量算出部32A1あるいは先端部移動量算出部32A2は、先端部11a1の移動量を算出する。そこで、その算出された移動量が、小さいときから大きいときまでの範囲を、複数レベルに分け、各レベルに応じて、鑑別支援部33で表示する支援情報の量を変更する。
図22のウインドウ41aに示すように、移動量が大きい場合でも、支援情報が算出可能な場合は、算出される支援情報は少なくなるが、その少ない支援情報をウインドウ41に表示する。
移動量が小さい場合は、算出可能な支援情報をウインドウ41cに表示する。移動量が中程度の場合は、支援情報が算出可能な範囲で、支援情報をウインドウ41bに表示する。これは、移動量がある程度の移動量のときでも推定できる鑑別分類結果もあれば、移動量が小さければ推定できる他の鑑別分類結果もあり、さらに、移動量が0あるいはほとんど0でなければ推定できない鑑別分類結果もあるからである。その結果、支援情報が、先端部11a1の移動量に応じて、あるいは先端部11a1の静止状態の程度に応じて適応的に切り替わる。
すなわち、鑑別状態判定部32の移動量算出部32A1又は先端部移動量算出部32A2が、内視鏡11の挿入部11aの先端部11a1の移動量を算出し、算出された移動量の移動レベルを判定する。移動量が複数のレベルのどのレベルかが判定される。そして、鑑別支援部33の鑑別分類結果推定部33Aは、鑑別状態判定部32において判定された判定レベルに応じて、出力する支援情報の量を変更する。レベルに応じてモニタ13に表示される支援情報が変化する。
以上のように、本変形例によれば、上述した各実施の形態と同様の効果を得ることができると共に、術者は、静止状態に応じて算出可能な支援情報を把握することができる。
(変形例10)
上述した各実施の形態及び各変形例では、鑑別支援では、支援情報をモニタ13上にメッセージとして出力しているが、本変形例では、観察し易い画像強調処理を施した内視鏡画像をモニタ13に表示する。
図23は、本変形例の鑑別支援処理の流れの例を示すフローチャートである。図23の処理には、図3Cにおける画像強調部33Dが関わる。
鑑別支援部33は、生成した内視鏡画像に対して観察し易い画像強調処理を施す(S181)。
すなわち、鑑別支援部33は、鑑別状態判定部32が操作者が内視鏡11の観察対象についての鑑別を行っている鑑別状態にあると判定したときは、内視鏡11によって得られた内視鏡画像に対して所定の強調処理、すなわち術者にとって病変部を鑑別しやすくなる強調処理、を施す画像強調部33Dを備える。
よって、本変形例によれば、上述した各実施の形態と同様の効果を得ることができると共に、術者は、術者にとって病変部の鑑別がし易い画像強調がされた内視鏡画像を見ることができる。
以上のように、上述した各実施の形態及び各変形例によれば、術者が内視鏡を用いて病変部の鑑別を行うときに、術者がその鑑別支援をスムーズに受けることができる画像処理装置を提供することができる。
本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。

Claims (22)

  1. 内視鏡からの信号若しくは前記内視鏡に対する信号に基づいて、前記内視鏡の操作者が、前記内視鏡の観察対象における病変部を分類する鑑別を行っている鑑別状態にあることを判定する鑑別状態判定部と、
    前記鑑別状態判定部の判定結果に応じて、前記操作者による前記病変部の前記鑑別を支援する鑑別支援部と、
    を備え、
    前記鑑別支援部は、鑑別分類結果を推定する鑑別分類結果推定部と、前記鑑別分類結果推定部により推定された前記鑑別分類結果を、支援情報として、文字情報により表示装置に表示するために出力する情報出力部と、を有し、
    前記鑑別分類結果推定部は、観察光が通常光か特殊光かを判定する観察光判定部と、前記鑑別のための鑑別指標を切り替える鑑別指標切替部と、を備え、
    前記鑑別指標切替部は、前記観察光判定部により判定された前記観察光に基づいて前記鑑別指標を切り替え
    前記鑑別分類結果推定部は、前記鑑別指標切替部により切り替えられた前記鑑別指標に基づいて前記病変部についての前記鑑別分類結果を推定する、ことを特徴とする画像処理装置。
  2. 前記鑑別状態判定部は、前記内視鏡により得られた内視鏡画像に基づいて前記内視鏡の挿入部の先端部が静止していることを判定する静止判定部を備え、前記静止判定部が前記先端部が静止していると判定したときに、前記操作者が前記鑑別状態にあると判定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記静止判定部は、所定の時間における前記内視鏡画像の画像全体の移動量を算出する画像移動量算出部を備え、前記移動量が所定の閾値未満であるときに、前記先端部が静止していると判定することを特徴とする請求項2に記載の画像処理装置。
  4. 前記鑑別状態判定部は、前記操作者が前記観察対象の同じ領域を注視していることを判定する注視判定部を備え、前記注視判定部が前記操作者が前記同じ領域を注視していると判定したとき、前記操作者が鑑別状態にあると判定することを特徴とする請求項1に記載の画像処理装置。
  5. 前記注視判定部は、前記内視鏡により得られた内視鏡画像の画素毎の移動量を算出する画素移動量算出部を備え、前記移動量の少ない画素が一定数を占めていたとき、前記操作者が前記同じ領域を注視していると判定することを特徴とする請求項4に記載の画像処理装置。
  6. 前記鑑別状態判定部は、前記内視鏡により得られた内視鏡画像から血管領域を抽出する血管領域抽出部を備え、前記血管領域抽出部が抽出した血管の太さに基づいて、前記操作者が鑑別状態にあると判定することを特徴とする請求項1に記載の画像処理装置。
  7. 前記静止判定部は、前記先端部の移動量を算出する先端部移動量算出部を備え、前記先端部移動量算出部が算出した前記移動量が所定の閾値未満であるときに、前記先端部が静止していると判定することを特徴とする請求項2に記載の画像処理装置。
  8. 前記先端部移動量算出部は、前記先端部の動きを検出するセンサの検出信号に基づいて前記先端部の移動量を算出することを特徴とする請求項7に記載の画像処理装置。
  9. 前記鑑別状態判定部は、前記内視鏡の観察状態に基づいて前記操作者が前記鑑別状態にあると判定することを特徴とする請求項1に記載の画像処理装置。
  10. 前記鑑別状態判定部は、前記内視鏡に対する前記観察状態の設定操作信号に応じて前記観察状態を判定することを特徴とする請求項9に記載の画像処理装置。
  11. 前記鑑別分類結果推定部は、前記病変部の病変領域を特定する病変領域特定部を備えることを特徴とする請求項1記載の画像処理装置。
  12. 前記鑑別支援部は、前記病変領域特定部により特定された前記病変領域の表層構造に基づいた鑑別分類を行う表層構造鑑別分類部、前記病変部の形状に基づいた鑑別分類を行う形状鑑別分類部、及び前記病変部のサイズを推定するサイズ推定部の少なくとも1つを備えることを特徴とする請求項11に記載の画像処理装置。
  13. 前記サイズ推定部は、前記内視鏡により得られた内視鏡画像に写る管腔の円形サイズと比較して前記病変部のサイズを推定することを特徴とする請求項12に記載の画像処理装置。
  14. 前記鑑別支援部は、前記鑑別に有意な対象画像を選出する鑑別対象画像選出部を備えることを特徴とする請求項1記載の画像処理装置。
  15. 前記鑑別支援部は、前記病変部の病変領域を特定する病変領域特定部を備え、
    前記鑑別対象画像選出部は、前記病変領域特定部により特定された前記病変領域の明瞭度を算出する明瞭度算出部を備えることを特徴とする請求項14に記載の画像処理装置。
  16. 前記明瞭度算出部が算出する前記明瞭度は,色ずれ量、ボケ度合い、ノイズ量、輝度飽和面積率、若しくはエッジ情報の1つ以上であることを特徴とする請求項15記載の画像処理装置。
  17. 前記鑑別対象画像選出部は、所定の領域の割合を算出する所定領域割合算出部を備えることを特徴とする請求項14記載の画像処理装置。
  18. 前記所定の領域は、前記病変部の隆起頂部若しくは隆起立ち上がり部であることを特徴とする請求項17記載の画像処理装置。
  19. 前記鑑別支援部は、前記内視鏡の観察対象である臓器の部位を推定する臓器部位推定部を備えることを特徴とする請求項1記載の画像処理装置。
  20. 前記臓器部位推定部は、前記臓器が大腸のときは直腸、S状結腸、下行結腸、横行結腸、上行結腸又は盲腸を推定し、前記臓器が胃のときは噴門、胃底部、胃体部、胃角部、前庭部、幽門又は十二指腸を推定し、前記臓器が小腸のときは空腸又は回腸を推定し、前記臓器が食道のときは頸部食道、胸部食道又は腹部食道を推定することを特徴とする請求項19記載の画像処理装置。
  21. 前記鑑別状態判定部は、前記内視鏡の挿入部の先端部の移動量を算出し、算出された前記移動量の移動レベルを判定し、
    前記鑑別支援部は、前記鑑別状態判定部において判定された判定レベルに応じて、出力する支援情報の量を変更することを特徴とする請求項1記載の画像処理装置。
  22. 前記鑑別支援部は、前記鑑別状態判定部が前記操作者が前記内視鏡の前記観察対象についての前記鑑別を行っている鑑別状態にあると判定したときは、前記内視鏡によって得られた内視鏡画像に対して所定の強調処理を施す画像強調部を備えることを特徴とする請求項1記載の画像処理装置。
JP2018555386A 2016-12-07 2016-12-07 画像処理装置 Active JP6833870B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/086409 WO2018105063A1 (ja) 2016-12-07 2016-12-07 画像処理装置

Publications (2)

Publication Number Publication Date
JPWO2018105063A1 JPWO2018105063A1 (ja) 2019-07-04
JP6833870B2 true JP6833870B2 (ja) 2021-02-24

Family

ID=62490837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018555386A Active JP6833870B2 (ja) 2016-12-07 2016-12-07 画像処理装置

Country Status (4)

Country Link
US (1) US11145053B2 (ja)
JP (1) JP6833870B2 (ja)
CN (1) CN110049709B (ja)
WO (1) WO2018105063A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018225448A1 (ja) * 2017-06-09 2018-12-13 智裕 多田 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体
US11100633B2 (en) 2018-06-13 2021-08-24 Cosmo Artificial Intelligence—Al Limited Systems and methods for processing real-time video from a medical image device and detecting objects in the video
US10810460B2 (en) 2018-06-13 2020-10-20 Cosmo Artificial Intelligence—AI Limited Systems and methods for training generative adversarial networks and use of trained generative adversarial networks
JP7289296B2 (ja) * 2018-07-05 2023-06-09 富士フイルム株式会社 画像処理装置、内視鏡システム及び画像処理装置の作動方法
CN112423645B (zh) * 2018-07-20 2023-10-31 富士胶片株式会社 内窥镜系统
WO2020036121A1 (ja) * 2018-08-17 2020-02-20 富士フイルム株式会社 内視鏡システム
JP7009636B2 (ja) 2018-08-17 2022-01-25 富士フイルム株式会社 内視鏡システム
JP6988001B2 (ja) * 2018-08-30 2022-01-05 オリンパス株式会社 記録装置、画像観察装置、観察システム、観察システムの制御方法、及び観察システムの作動プログラム
WO2020054543A1 (ja) * 2018-09-11 2020-03-19 富士フイルム株式会社 医療画像処理装置及び方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラム
WO2020075578A1 (ja) * 2018-10-12 2020-04-16 富士フイルム株式会社 医用画像処理装置、内視鏡システム、及び医用画像処理方法
JP7110069B2 (ja) 2018-11-22 2022-08-01 富士フイルム株式会社 内視鏡情報管理システム
JP7127779B2 (ja) * 2019-04-23 2022-08-30 学校法人慈恵大学 診断支援システム、及び診断支援用プログラム
EP4014831A4 (en) * 2019-08-16 2023-04-26 Hoya Corporation ENDOSCOPE PROCESSOR, ENDOSCOPE SYSTEM, INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROGRAM AND METHOD
EP4014832A4 (en) * 2019-08-16 2023-04-26 Hoya Corporation PROCESSOR FOR AN ENDOSCOPE, ENDOSCOPE SYSTEM, INFORMATION PROCESSING DEVICE, PROGRAM AND INFORMATION PROCESSING METHOD
CN110811491A (zh) * 2019-12-05 2020-02-21 中山大学附属第一医院 一种具有三维重建功能的在线疾病识别内窥镜
CN110811527A (zh) * 2019-12-05 2020-02-21 中山大学附属第一医院 一种具备形状推测及疾病在线辅助诊断功能的内窥镜
JP7346285B2 (ja) 2019-12-24 2023-09-19 富士フイルム株式会社 医療画像処理装置、内視鏡システム、医療画像処理装置の作動方法及びプログラム
WO2021140600A1 (ja) * 2020-01-09 2021-07-15 オリンパス株式会社 画像処理システム、内視鏡システム及び画像処理方法
EP4094672A4 (en) * 2020-01-21 2023-01-11 NEC Corporation OPERATING ASSIST DEVICE, OPERATING ASSISTING METHOD AND COMPUTER READABLE RECORDING MEDIA
WO2021157487A1 (ja) * 2020-02-06 2021-08-12 富士フイルム株式会社 医用画像処理装置、内視鏡システム、医用画像処理方法、及びプログラム
JP7447243B2 (ja) * 2020-04-08 2024-03-11 富士フイルム株式会社 プロセッサ装置及びその作動方法
WO2022097294A1 (ja) * 2020-11-09 2022-05-12 オリンパス株式会社 情報処理システム、内視鏡システム及び情報処理方法
WO2022191058A1 (ja) * 2021-03-09 2022-09-15 富士フイルム株式会社 内視鏡画像処理装置、方法及びプログラム
WO2023126999A1 (ja) * 2021-12-27 2023-07-06 日本電気株式会社 画像処理装置、画像処理方法、及び、記憶媒体
CN115496748B (zh) * 2022-11-08 2023-03-14 武汉楚精灵医疗科技有限公司 小肠图像的肠段识别方法、装置及存储介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2572784B2 (ja) * 1987-10-15 1997-01-16 オリンパス光学工業株式会社 経内視鏡分光診断装置
JP2003126045A (ja) 2001-10-22 2003-05-07 Olympus Optical Co Ltd 診断支援装置
JP2004188026A (ja) * 2002-12-12 2004-07-08 Olympus Corp 情報処理装置
JP4891636B2 (ja) 2006-03-14 2012-03-07 オリンパスメディカルシステムズ株式会社 画像解析装置
JP2009201593A (ja) * 2008-02-26 2009-09-10 Olympus Medical Systems Corp 信号処理システム
JP5127639B2 (ja) 2008-09-10 2013-01-23 富士フイルム株式会社 内視鏡システム、およびその作動方法
JP2010075368A (ja) * 2008-09-25 2010-04-08 Fujifilm Corp 電子内視鏡装置および方法並びにプログラム
WO2010047324A1 (ja) * 2008-10-20 2010-04-29 株式会社 日立メディコ 医用画像処理装置、及び医用画像処理方法
JP5389742B2 (ja) * 2009-09-30 2014-01-15 富士フイルム株式会社 電子内視鏡システム、電子内視鏡用のプロセッサ装置、及び電子内視鏡システムの作動方法
JP2011255006A (ja) * 2010-06-09 2011-12-22 Olympus Corp 画像処理装置、内視鏡装置、プログラム及び画像処理方法
JP5582948B2 (ja) * 2010-09-29 2014-09-03 富士フイルム株式会社 内視鏡装置
JP5631764B2 (ja) * 2011-01-25 2014-11-26 富士フイルム株式会社 内視鏡システム及びその作動方法
JP5611891B2 (ja) * 2011-05-24 2014-10-22 富士フイルム株式会社 内視鏡システム及び内視鏡システムの作動方法
US9257468B2 (en) * 2012-11-21 2016-02-09 Olympus Corporation Solid-state imaging device, imaging device, and signal reading medium that accumulates an amplified signal without digitization
WO2013140667A1 (ja) * 2012-03-21 2013-09-26 オリンパスメディカルシステムズ株式会社 画像処理装置
JP6092792B2 (ja) * 2014-01-20 2017-03-08 富士フイルム株式会社 内視鏡システム用プロセッサ装置、内視鏡システム、内視鏡システム用プロセッサ装置の作動方法、内視鏡システムの作動方法
WO2015146836A1 (ja) * 2014-03-27 2015-10-01 オリンパス株式会社 内視鏡システム
JP2016158682A (ja) 2015-02-27 2016-09-05 Hoya株式会社 画像処理装置
WO2017002184A1 (ja) 2015-06-29 2017-01-05 オリンパス株式会社 画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラム

Also Published As

Publication number Publication date
JPWO2018105063A1 (ja) 2019-07-04
US20190311476A1 (en) 2019-10-10
CN110049709B (zh) 2022-01-11
WO2018105063A1 (ja) 2018-06-14
US11145053B2 (en) 2021-10-12
CN110049709A (zh) 2019-07-23

Similar Documents

Publication Publication Date Title
JP6833870B2 (ja) 画像処理装置
JP7084994B2 (ja) 内視鏡用画像処理装置、及び、内視鏡用画像処理装置の作動方法、並びに、内視鏡用画像処理プログラム
JP5280620B2 (ja) 生体内のフィーチャーを検出するためのシステム
JP2020073081A (ja) 画像診断支援装置、学習済みモデル、画像診断支援方法および画像診断支援プログラム
JP5444511B1 (ja) 画像処理装置
JP4418400B2 (ja) 画像表示装置
JP6751773B2 (ja) 画像処理装置及び画像処理装置の作動方法
CN113573654A (zh) 用于检测并测定病灶尺寸的ai系统
WO2014168128A1 (ja) 内視鏡システム及び内視鏡システムの作動方法
WO2007119297A1 (ja) 医療用画像処理装置及び医療用画像処理方法
JP6957771B2 (ja) 内視鏡システム、及び、内視鏡用画像処理方法、並びに、内視鏡用画像処理プログラム
WO2020162275A1 (ja) 医療画像処理装置、内視鏡システム、及び医療画像処理方法
JP6132901B2 (ja) 内視鏡装置
WO2016009861A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP6824868B2 (ja) 画像解析装置及び画像解析方法
CN116745861A (zh) 通过实时影像获得的病变判断系统的控制方法、装置及程序
JP4855673B2 (ja) 医用画像処理装置
JP6371613B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2014124333A (ja) 医用画像処理装置
Liedlgruber et al. A summary of research targeted at computer-aided decision support in endoscopy of the gastrointestinal tract
JP6987243B2 (ja) ランドマーク推定方法、内視鏡装置、及び、位置推定プログラム
Liu et al. Quadrant coverage histogram: a new method for measuring quality of colonoscopic procedures
WO2021005733A1 (ja) 画像解析装置及び画像解析方法
JP4856275B2 (ja) 医用画像処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190315

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210203

R151 Written notification of patent or utility model registration

Ref document number: 6833870

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250