JP2023143318A - 画像処理装置、医療診断装置、内視鏡装置、及び画像処理方法 - Google Patents
画像処理装置、医療診断装置、内視鏡装置、及び画像処理方法 Download PDFInfo
- Publication number
- JP2023143318A JP2023143318A JP2022050634A JP2022050634A JP2023143318A JP 2023143318 A JP2023143318 A JP 2023143318A JP 2022050634 A JP2022050634 A JP 2022050634A JP 2022050634 A JP2022050634 A JP 2022050634A JP 2023143318 A JP2023143318 A JP 2023143318A
- Authority
- JP
- Japan
- Prior art keywords
- type
- image
- lesion
- category
- determiner
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 168
- 238000003672 processing method Methods 0.000 title claims abstract description 8
- 230000003902 lesion Effects 0.000 claims abstract description 213
- 238000000034 method Methods 0.000 claims description 267
- 230000008569 process Effects 0.000 claims description 260
- 206010028980 Neoplasm Diseases 0.000 claims description 213
- 238000013528 artificial neural network Methods 0.000 claims description 16
- 230000001613 neoplastic effect Effects 0.000 claims description 14
- 238000003384 imaging method Methods 0.000 claims description 11
- 238000005516 engineering process Methods 0.000 description 102
- 230000000875 corresponding effect Effects 0.000 description 32
- 238000010586 diagram Methods 0.000 description 25
- 230000004807 localization Effects 0.000 description 25
- 230000004048 modification Effects 0.000 description 25
- 238000012986 modification Methods 0.000 description 25
- 230000006870 function Effects 0.000 description 18
- 238000003780 insertion Methods 0.000 description 14
- 230000037431 insertion Effects 0.000 description 14
- 210000002429 large intestine Anatomy 0.000 description 12
- 239000003086 colorant Substances 0.000 description 10
- 238000005286 illumination Methods 0.000 description 9
- 208000037062 Polyps Diseases 0.000 description 8
- 208000012108 neoplastic polyp Diseases 0.000 description 8
- 238000005457 optimization Methods 0.000 description 8
- 230000004913 activation Effects 0.000 description 6
- 230000002596 correlated effect Effects 0.000 description 6
- 238000011176 pooling Methods 0.000 description 6
- 210000000436 anus Anatomy 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000007493 shaping process Methods 0.000 description 4
- 102100036848 C-C motif chemokine 20 Human genes 0.000 description 3
- 102100029860 Suppressor of tumorigenicity 20 protein Human genes 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000002757 inflammatory effect Effects 0.000 description 3
- 238000002595 magnetic resonance imaging Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 210000001198 duodenum Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000001747 exhibiting effect Effects 0.000 description 2
- 208000017819 hyperplastic polyp Diseases 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 210000000813 small intestine Anatomy 0.000 description 2
- 210000002784 stomach Anatomy 0.000 description 2
- 238000012327 Endoscopic diagnosis Methods 0.000 description 1
- 206010047571 Visual impairment Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 210000000621 bronchi Anatomy 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 210000003238 esophagus Anatomy 0.000 description 1
- 210000001035 gastrointestinal tract Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000094—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000096—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/0005—Display arrangement combining images e.g. side-by-side, superimposed or tiled
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
- G06T2207/30032—Colon polyp
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Optics & Photonics (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Pathology (AREA)
- Veterinary Medicine (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Endoscopes (AREA)
Abstract
【課題】病変の誤鑑別を抑制することができる画像処理装置、医療診断装置、内視鏡装置、及び画像処理方法を提供する。【解決手段】画像処理装置のプロセッサは、病変領域を含む医療画像を取得し、判定器が医療画像に基づいて病変の種類を判定する判定処理を行う。第1判定処理は、第1カテゴリに分類される第1種類と第2カテゴリに分類される第2種類とを含む第1グループに種類が属するか、又は、第2カテゴリに分類される第3種類を含む第2グループに種類が属するかを判定する処理である。第2判定処理は、種類が第1種類であるか、又は、種類が前記第2種類であるかを判定する処理である。プロセッサは、第1判定処理の判定結果と第2判定処理の判定結果とに基づいて、種類が第1カテゴリに分類されるか、又は、種類が第2カテゴリに分類されるかを特定可能な第1信号を出力する。【選択図】図6
Description
本開示の技術は、画像処理装置、医療診断装置、内視鏡装置、及び画像処理方法に関する。
特許文献1には、病変の種類を特定する医用画像診断支援装置が開示されている。特許文献1に記載の医用画像診断支援装置は、撮影対象に対して所定方向に走査しつつ得られた複数の断面画像を取得する画像取得部と、病変画像及び病変画像に対する病変の種類を含む教師データに基づいて学習した学習モデルを用いて、画像取得部が取得した複数の断面画像のそれぞれに対する病変の種類を判別する判別部と、判別部による複数の断面画像に対する判別結果に基づいて、撮影対象に対する病変の種類を特定する特定部と、を備える。また、判別部は、複数の断面画像のそれぞれに対して、病変の種類毎に病変の種類である可能性を示す確率を算出し、特定部は、判別部が病変の種類毎に算出した確率と、断面画像のそれぞれにおける病変領域の大きさとに基づいて、撮影対象に対する病変の種類を特定する。
本開示の技術に係る一つの実施形態は、病変の誤鑑別を抑制することができる画像処理装置、医療診断装置、内視鏡装置、及び画像処理方法を提供する。
本開示の技術に係る第1の態様は、プロセッサを備え、プロセッサが、病変を示す病変領域を含む医療画像を取得し、判定器が医療画像に基づいて病変の種類を判定する判定処理を行い、判定器が、第1判定器と第2判定器と、を含み、判定処理が、第1判定器による第1判定処理と第2判定器による第2判定処理と、を含み、第1判定処理が、第1カテゴリに分類される第1種類と第2カテゴリに分類される第2種類とを含む第1グループに種類が属するか、又は、第2カテゴリに分類される第3種類を含む第2グループに種類が属するかを判定する処理であり、第2判定処理が、種類が第1種類であるか、又は、種類が第2種類であるかを判定する処理であり、プロセッサが、第1判定処理の判定結果と第2判定処理の判定結果とに基づいて、種類が第1カテゴリに分類されるか、又は、種類が第2カテゴリに分類されるかを特定可能な第1信号を出力する第1出力処理、及び、第1判定処理の判定結果及び第2判定処理の判定結果に基づいて、種類が第1種類であるか、又は、種類が第2種類であるかを特定可能な第2信号を出力する第2出力処理のうちの少なくとも一方を行う画像処理装置である。
本開示の技術に係る第2の態様は、プロセッサが、第1判定処理によって第1グループに種類が属すると判定され、かつ、第2判定処理によって種類が第2種類であると判定された場合に、第1信号として、種類が第2カテゴリに分類されることを特定可能な第2カテゴリ信号を出力する、第1の態様に係る画像処理装置である。
本開示の技術に係る第3の態様は、プロセッサが、第1判定処理によって第1グループに種類が属すると判定され、かつ、第2判定処理によって種類が第1種類であると判定された場合に、第1信号として、種類が第1カテゴリに分類されることを特定可能な第1カテゴリ信号を出力する、第1の態様又は第2の態様に係る画像処理装置である。
本開示の技術に係る第4の態様は、プロセッサが、第1判定処理の判定結果と第2判定処理の判定結果とに基づいて、種類が第1カテゴリに分類されることを示す第1カテゴリ情報と、種類が第2カテゴリに分類されることを示す第2カテゴリ情報とを区別可能な表示態様で表示装置に対して表示させる表示処理、及び、第1判定処理の判定結果と第2判定処理の判定結果とに基づいて、第1カテゴリ情報と第2カテゴリ情報とを医療画像単位で区別可能に保存する保存処理のうちの少なくとも一方を行う、第1の態様から第3の態様の何れか1つの態様に係る画像処理装置である。
本開示の技術に係る第5の態様は、表示態様が、医療画像と第1カテゴリ情報とを対比可能に表示装置に対して表示させる第1態様と、医療画像と第2カテゴリ情報とを対比可能に表示装置に対して表示させる第2態様と、を含む、第4の態様に係る画像処理装置である。
本開示の技術に係る第6の態様は、第1カテゴリ情報及び第2カテゴリ情報のうちの少なくとも1つは判定器から得られる特徴量マップに基づく情報である、第4の態様又は第5の態様に係る画像処理装置である。
本開示の技術に係る第7の態様は、第2判定処理が、第1判定器の中間特徴量を利用した処理である、第1の態様から第6の態様の何れか1つの態様に係る画像処理装置である。
本開示の技術に係る第8の態様は、判定器が、ニューラルネットワークであり、第1判定器及び第2判定器が、入力層以降の複数の層を共用している、第1の態様から第7の態様の何れか1つの態様に係る画像処理装置である。
本開示の技術に係る第9の態様は、第1判定器が、第1種類に対応する第1病変が写っている第1病変画像と、第2種類に対応する第2病変が写っている第2病変画像とを第1グループに対応する画像として学習させ、第3種類に対応する第3病変が写っている第3病変画像を第2グループに対応する画像として学習させたモデルである、第1の態様から第8の態様の何れか1つの態様に係る画像処理装置である。
本開示の技術に係る第10の態様は、プロセッサが、複数のフレームにわたって医療画像を時系列で取得し、フレーム毎に、第1判定処理の判定結果と第2判定処理の判定結果とに基づいて、種類が第1種類及び第2種類を含む複数の病変種の何れであるかを判定し、複数のフレームのうちの第1フレームについての種類が第2種類であると判定された場合に種類が第2種類であると判定されたことを示す第2種類判定信号に対応する信号を出力し、複数のフレームのうち、第1フレームから既定フレーム数の範囲内の第2フレームについて種類が第2種類と異なる病変種であると判定された場合に第2種類判定信号に対応する信号を出力する、第1の態様から第9の態様の何れか1つの態様に係る画像処理装置である。
本開示の技術に係る第11の態様は、第1カテゴリが、非腫瘍性を示すカテゴリであり、第2カテゴリが、腫瘍性を示すカテゴリである、第1の態様から第10の態様の何れか1つの態様に係る画像処理装置である。
本開示の技術に係る第12の態様は、第1種類が、非腫瘍性の病変である、第1の態様から第11の態様の何れか1つの態様に係る画像処理装置である。
本開示の技術に係る第13の態様は、第2種類が、鋸歯状病変である、第1の態様から第12の態様の何れか1つの態様に係る画像処理装置である。
本開示の技術に係る第14の態様は、第3種類が、鋸歯状病変とは異なる腫瘍性の病変である、第1の態様から第13の態様の何れか1つの態様に係る画像処理装置である。
本開示の技術に係る第15の態様は、病変を示す病変領域を含む医療画像を取得すること、及び判定器が医療画像に基づいて病変の種類を判定する判定処理を行うことを備え、判定器が、第1判定器と第2判定器と、を含み、判定処理が、第1判定器による第1判定処理と第2判定器による第2判定処理と、を含み、第1判定処理が、第1カテゴリに分類される第1種類と第2カテゴリに分類される第2種類とを含む第1グループに種類が属するか、又は、第2カテゴリに分類される第3種類を含む第2グループに種類が属するかを判定する処理であり、第2判定処理が、種類が第1種類であるか、又は、種類が第2種類であるかを判定する処理であり、第1判定処理の判定結果と第2判定処理の判定結果とに基づいて、種類が第1カテゴリに分類されるか、又は、種類が第2カテゴリに分類されるかを特定可能な第1信号を出力する第1出力処理、及び、第1判定処理の判定結果及び第2判定処理の判定結果に基づいて、種類が第1種類であるか、又は、種類が第2種類であるかを特定可能な第2信号を出力する第2出力処理のうちの少なくとも一方を行うことを備える画像処理方法である。
本開示の技術に係る第16の態様は、プロセッサを備え、プロセッサが、病変を示す病変領域を含む医療画像を複数のフレームにわたって時系列で取得し、フレーム毎に、医療画像に基づいて病変の種類を第1種類及び第2種類を含む複数の病変種の何れであるかを判定し、複数のフレームのうちの第1フレームについて種類が第2種類であると判定された場合に、複数のフレームのうち、第1フレームから既定フレーム数の範囲内の第2フレームについて種類が第2種類であると判定されたことを示す第2種類判定信号に対応する信号を出力し、第1フレームについて種類が第1種類であると判定された場合に、第2フレームについて種類に対する判定結果に対応する判定結果信号を出力する画像処理装置である。
本開示の技術に係る第17の態様は、第1種類が属するカテゴリが、非腫瘍性を示すカテゴリであり、第2種類が属するカテゴリが、腫瘍性を示すカテゴリである、第16の態様に係る画像処理装置である。
本開示の技術に係る第18の態様は、第1種類が、非腫瘍性を示す種類であり、第2種類が、鋸歯状病変を示す種類である、第16の態様又は第17の態様に係る画像処理装置である。
本開示の技術に係る第19の態様は、プロセッサが、第2種類判定信号に対応する信号に基づく情報及び判定結果信号に基づく情報をフレーム単位で表示装置に対して表示させる表示処理、及び、第2種類判定信号に対応する信号に基づく情報及び判定結果信号に基づく情報をフレーム単位で保存する保存処理のうちの少なくとも一方を行う、第16の態様から第18の態様の何れか1つの態様に係る画像処理装置である。
本開示の技術に係る第20の態様は、第1の態様から第14の態様及び第16の態様から第19の態様の何れか1つの態様に係る画像処理装置と、被検体の観察対象領域を撮像することで観察対象領域を示す画像を医療画像として取得する撮像装置と、を備える医療診断装置である。
本開示の技術に係る第21の態様は、第1の態様から第14の態様及び第16の態様から第19の態様の何れか1つの態様に係る画像処理装置と、体内に挿入されて体内の観察対象領域を撮像することで観察対象領域を示す画像を医療画像として取得する内視鏡と、を備える内視鏡装置である。
以下、添付図面に従って本開示の技術に係る画像処理装置、医療診断装置、内視鏡装置、及び画像処理方法の実施形態の一例について説明する。
先ず、以下の説明で使用される文言について説明する。
CPUとは、“Central Processing Unit”の略称を指す。GPUとは、“Graphics Processing Unit”の略称を指す。RAMとは、“Random Access Memory”の略称を指す。NVMとは、“Non-volatile memory”の略称を指す。EEPROMとは、“Electrically Erasable Programmable Read-Only Memory”の略称を指す。ASICとは、“Application Specific Integrated Circuit”の略称を指す。PLDとは、“Programmable Logic Device”の略称を指す。FPGAとは、“Field-Programmable Gate Array”の略称を指す。SoCとは、“System-on-a-chip”の略称を指す。SSDとは、“Solid State Drive”の略称を指す。USBとは、“Universal Serial Bus”の略称を指す。HDDとは、“Hard Disk Drive”の略称を指す。ELとは、“Electro-Luminescence”の略称を指す。I/Fとは、“Interface”の略称を指す。CMOSとは、“Complementary Metal Oxide Semiconductor”の略称を指す。CCDとは、“Charge Coupled Device”の略称を指す。CTとは、“Computed Tomography”の略称を指す。MRIとは、“Magnetic Resonance Imaging”の略称を指す。AIとは、“Artificial Intelligence”の略称を指す。FIFOとは、“First In First Out”の略称を指す。SSLとは、“Sessile Serrated Lesion”の略称を指す。NPとは、“Neoplastic Polyp”を指す。HPとは、“Hyperplastic Polyp”を指す。GAPとは、“Global Average Pooling”を指す。CAMとは、“Class Activation Mapping”を指す。
一例として図1に示すように、内視鏡システム10は、内視鏡装置12及び表示装置14を備えている。内視鏡装置12は、医師16、看護師17、及び/又は技師等の医療従事者(以下、「ユーザ」と称する)によって用いられる。内視鏡装置12は、内視鏡18を備えており、内視鏡18を介して被検者20(例えば、患者)の体内に対する診療を行うための装置である。内視鏡装置12は、本開示の技術に係る「医療診断装置」及び「内視鏡装置」の一例である。内視鏡18は、本開示の技術に係る「撮像装置」及び「内視鏡」の一例である。
内視鏡18は、医師16によって被検者20を撮像することで体内の態様を示す画像を取得して出力する。図1に示す例では、内視鏡18が被検者20の肛門から体腔内に挿入されている態様が示されている。なお、図1に示す例では、内視鏡18が被検者20の肛門から体腔内に挿入されているが、これは、あくまでも一例に過ぎず、内視鏡18が被検者20の口、鼻孔、又は穿孔等から体腔内に挿入されてもよく、内視鏡18が挿入される箇所は、内視鏡18の種類及び術式等によって決められる。
表示装置14は、画像を含めた各種情報を表示する。表示装置14の一例としては、液晶ディスプレイ又はELディスプレイ等が挙げられる。表示装置14には、複数の画面が並べて表示される。図1に示す例では、複数の画面の一例として、第1画面22及び第2画面24が示されている。
第1画面22には、内視鏡画像26が表示される。内視鏡画像26は、本開示の技術に係る「医療画像」の一例である。内視鏡画像26は、観察対象領域を示す円形状の画像である。すなわち、内視鏡画像26は、被検者20の体腔内で内視鏡18によって観察対象領域が撮像されることによって取得された画像である。図1に示す例では、内視鏡画像26の一例として、部位領域26A及び病変領域26Bを含む画像が示されている。
部位領域26Aは、被検者20の体内に含まれる部位を示す画像領域である。図1に示す例では、部位領域26Aの一例として、大腸の内壁を示す画像領域が示されている。大腸の内壁は、あくまでも一例に過ぎず、小腸、十二指腸、又は胃等の他の部位の内壁又は外壁等であってもよい。病変領域26Bは、病変を示す画像領域である。病変としては、例えば、腫瘍性ポリープ(以下、「NP」と称する)及び非腫瘍性ポリープが挙げられる。
第1画面22に表示される内視鏡画像26は、複数のフレームを含んで構成される動画像に含まれる1つのフレームである。つまり、第1画面22には、複数のフレームの内視鏡画像26が既定のフレームレート(例えば、30フレーム/秒又は60フレーム/秒等)で表示される。動画像の一例としては、ライブビュー方式の動画像が挙げられる。ライブビュー方式は、あくまでも一例に過ぎず、ポストビュー方式の動画像のように、メモリ等に一時的に保存されてから表示される動画像であってもよい。また、メモリ等の保存されている記録用動画像に含まれる各フレームが内視鏡画像26として第1画面22に再生表示されてもよい。
第2画面24は、第1画面22よりも小さな画面である。図1に示す例では、第2画面22の正面視右下に重畳表示されている。ここでは、重畳表示を例示しているが、これは、あくまでも一例に過ぎず、埋め込み表示であってもよい。また、第2画面22の表示位置は、第1表示装置14の画面内であれば、どこでもよいが、内視鏡画像26と対比可能な位置に表示されることが好ましい。第2画面24には、位置特定画像28が表示される。位置特定画像28は、内視鏡画像26に対応する画像であり、内視鏡画像26内での病変領域26Bの位置を特定するのにユーザ等によって参照される画像である。
位置特定画像28は、外枠28A、ターゲットマーク28B、及び病変マーク28Cを有する。外枠28Aは、内視鏡画像26の円環状の輪郭が縮小された円環枠の上下の一部が第2画面24の上辺及び下辺によって切り欠かれた形状の枠である。
ターゲットマーク28Bは、位置特定画像28の表示領域の中央で十字状に交差するマークである。ターゲットマーク28Bの交差点が内視鏡画像26の中央点に対応している。
病変マーク28Cは、内視鏡画像26内での病変領域26Bに対応するマークであり、病変領域26Bにより示される病変の大きさ、形状、及び種類に応じた表示態様で表示される。
一例として図2に示すように、内視鏡18は、操作部30及び挿入部32を備えている。挿入部32は、管状に形成されている。挿入部32は、先端部34、湾曲部36、及び軟性部37を有する。先端部34、湾曲部36、及び軟性部37は、挿入部32の先端側から基端側にかけて、先端部34、湾曲部36、及び軟性部37の順に配置されている。軟性部37は、長尺状の可撓性を有する素材で形成されており、操作部30と湾曲部36とを連結している。湾曲部36は、操作部30が操作されることにより部分的に湾曲したり、挿入部32の軸心周りに回転したりする。この結果、挿入部32は、体腔の形状(例えば、食道、胃、十二指腸、小腸、及び大腸等の消化管の形状、又は気管支の管路の形状)に応じて湾曲したり、挿入部32の軸心周りに回転したりしながら体腔内の奥側に送り込まれる。
先端部34には、照明装置38、内視鏡スコープ40、及び処置具用開口42が設けられている。照明装置38は、照明窓38A及び照明窓38Bを有する。照明装置38は、照明窓38A及び照明窓38Bを介して光(例えば、三原色光からなる白色光又は近赤外光等)を照射する。内視鏡スコープ40は、体内を光学的手法で撮像する。内視鏡スコープ40の一例としては、CMOSカメラが挙げられる。CMOSカメラは、あくまでも一例に過ぎず、CCDカメラ等の他種のカメラであってもよい。
処置具用開口42は、処置具44を先端部34から突出させるための開口である。操作部30には、処置具挿入口46が形成されており、処置具44は、処置具挿入口46から挿入部32内に挿入される。処置具44は、挿入部32内を通過して処置具用開口42から外部に突出する。図2に示す例では、処置具44として、穿刺針48が処置具用開口42から突出している。ここでは、処置具44として、穿刺針48を例示しているが、これは、あくまでも一例に過ぎず、処置具44は、把持鉗子、メス、スネア、及び/又はガイドシース付き穿刺針等であってもよい。なお、処置具用開口42は、血液及び体内汚物等を吸引する吸引口としても機能する。
内視鏡装置12は、ユニバーサルコード50、内視鏡用処理装置52、及び光源装置54を備えている。内視鏡用処理装置52は、本開示の技術に係る「画像処理装置」の一例である。
ユニバーサルコード50は、基端部50A、第1先端部50B、及び第2先端部50Cを有する。基端部50Aは、操作部30に接続されている。第1先端部50Bは、内視鏡用処理装置52に接続されている。第2先端部50Cは、光源装置54に接続されている。
内視鏡システム10は、受付装置56を備えている。受付装置56は、ユーザからの指示を受け付ける。受付装置56の一例としては、複数のハードキー及び/又はタッチパネル等を有する操作パネル、キーボード、マウス、トラックボール、フットスイッチ、スマートデバイス、及び/又はマイクロフォン等が挙げられる。
内視鏡用処理装置52には、受付装置56が接続されている。内視鏡用処理装置52は、受付装置56によって受け付けられた指示に従って内視鏡スコープ40との間で各種信号の授受を行ったり、光源装置54を制御したりする。内視鏡用処理装置52は、内視鏡スコープ40に対して撮像を行わせ、内視鏡スコープ40から内視鏡画像26(図1参照)を取得して出力する。光源装置54は、内視鏡用処理装置52の制御下で発光し、光を照明装置38に供給する。照明装置38には、ライトガイドが内蔵されており、光源装置54から供給された光はライトガイドを経由して照明窓38A及び38Bから照射される。
内視鏡用処理装置52には、表示装置14が接続されている。内視鏡用処理装置52は、受付装置56によって受け付けられた指示に従って表示装置14を制御する。内視鏡用処理装置52は、内視鏡スコープ40によって観察対象領域が撮像されることで得られた内視鏡画像26を表示装置14に対して表示させる(図1参照)。
一例として図3に示すように、内視鏡18の挿入部32は、被検者20の肛門から大腸58に挿入される。内視鏡スコープ40は、大腸58内を撮像することにより内視鏡画像26を生成する。内視鏡画像26は、内壁58Aの態様を示す画像として生成される。例えば、大腸58に挿入された内視鏡スコープ40は、大腸58の入り口側から奥側に進み、既定のフレームレートに従ってライブビュ―方式で大腸58の入り口側から奥側にかけて内壁58Aを撮像する。これにより、大腸58の入り口側から奥側にかけての内壁58Aの態様を示す複数フレームの内視鏡画像26を含む動画像が生成される。
一例として図4に示すように、内視鏡用処理装置52は、コンピュータ60及び入出力インタフェース62を備えている。コンピュータ60は、プロセッサ64、RAM66、及びNVM68を備えている。入出力インタフェース62、プロセッサ64、RAM66、及びNVM68は、バス70に接続されている。
プロセッサ64は、本開示の技術に係る「プロセッサ」の一例である。例えば、プロセッサ64は、CPU及びGPUを有しており、内視鏡用処理装置52の全体を制御する。GPUは、CPUの制御下で動作し、グラフィック系の各種処理の実行を担う。なお、プロセッサ64は、GPU機能を統合した1つ以上のCPUであってもよいし、GPU機能を統合していない1つ以上のCPUであってもよい。
RAM66は、一時的に情報が格納されるメモリであり、プロセッサ64によってワークメモリとして用いられる。NVM68は、各種プログラム及び各種パラメータ等を記憶する不揮発性の記憶装置である。NVM68の一例としては、フラッシュメモリ(例えば、EEPROM及び/又はSSD)が挙げられる。なお、フラッシュメモリは、あくまでも一例に過ぎず、HDD等の他の不揮発性の記憶装置であってもよいし、2種類以上の不揮発性の記憶装置の組み合わせであってもよい。
入出力インタフェース62には、受付装置56が接続されており、プロセッサ64は、受付装置56によって受け付けられた指示を、入出力インタフェース62を介して取得し、取得した指示に応じた処理を実行する。
また、入出力インタフェース62には、内視鏡スコープ40が接続されている。プロセッサ64は、入出力インタフェース62を介して内視鏡スコープ40を制御したり、内視鏡スコープ40によって被検者20の体内が撮像されることで得られた内視鏡画像26(図1及び図3参照)を、入出力インタフェース62を介して取得したりする。
また、入出力インタフェース62には、光源装置54が接続されている。プロセッサ64は、入出力インタフェース62を介して光源装置54を制御することで、照明装置38に光を供給したり、照明装置38に供給する光の光量を調節したりする。
また、入出力インタフェース62には、表示装置14が接続されており、プロセッサ64は、入出力インタフェース62を介して表示装置14を制御することで、表示装置14に対して各種情報を表示させる。例えば、プロセッサ64は、内視鏡スコープ40から内視鏡画像26(図1及び図3参照)を取得し、表示装置14に対して内視鏡画像26を表示させる(図1参照)。また、例えば、プロセッサ64は、位置特定画像28を生成し、表示装置14に対して位置特定画像28を表示させる(図1参照)。
ところで、大腸58に生じる病変として、鋸歯状病変であるSSLが知られている。SSLは、NPに属する病変の一種であり、病理学的に鋸歯状構造を有する。内視鏡診断において、SSLは、要処置対象と鑑別されるので、SSLの外見と類似している過形成性ポリープであるHPとして誤鑑別されないようにする必要がある。しかし、医師16が自身の知識及び経験のみを頼りにしてSSLであるか否かの鑑別を行うと、SSLをHPと誤鑑別したり、HPをSSLと誤鑑別したりしてしまう虞がある。そこで、現在、医師16による高精度な鑑別を支援するために、AI方式の画像認識処理を利用することが検討されている。ところが、AI方式の画像認識処理で用いられる判定器として、NPであるか又はHPであるかを判定する判定器を作成すると、SSLがHPであると誤判定されてしまう虞がある。SSLは、要処置対象の病変であるので、HPとして誤判定されないように、腫瘍性のカテゴリに分類される必要がある。
そこで、このような事情に鑑み、本実施形態では、一例として図5に示すように、内視鏡用処理装置52において、プロセッサ64によって第1学習処理、第2学習処理、及び推論処理が行われる。NVM68には、第1学習処理プログラム72、第2学習処理プログラム74、推論処理プログラム76、及びニューラルネットワーク78が記憶されている。
プロセッサ64は、NVM68から第1学習処理プログラム72を読み出し、読み出した第1学習処理プログラム72をRAM66上で実行することにより第1学習処理を行う。第1学習処理は、プロセッサ64が第1学習処理プログラム72に従って第1学習実行部64Aとして動作することによって実現される。
プロセッサ64は、NVM68から第2学習処理プログラム74を読み出し、読み出した第2学習処理プログラム74をRAM66上で実行することにより第2学習処理を行う。第2学習処理は、プロセッサ64が第2学習処理プログラム74に従って第2学習実行部64Bとして動作することによって実現される。
プロセッサ64は、NVM68から推論処理プログラム76を読み出し、読み出した推論処理プログラム76をRAM66上で実行することにより推論処理を行う。推論処理は、プロセッサ64が推論処理プログラム76に従って取得部64C、判定部64D、及び制御部64Eとして動作することによって実現される。
ニューラルネットワーク78は、本開示の技術に係る「判定器」及び「ニューラルネットワーク」の一例である。本実施形態では、ニューラルネットワーク78として、畳み込みニューラルネットワークが用いられている。一例として図6に示すように、ニューラルネットワーク78には、第1判定器80及び第2判定器82が含まれている。第1判定器80は、入力層84A、第1~第5畳み込み層84B~84F、GAP層84G、全結合層84H、及び出力層84Iを有する。第2判定器82は、入力層84A、第1~第4畳み込み層84B~84E、第6畳み込み層84J、GAP層84K、全結合層84L、及び出力層84Mを有する。このように、第1判定器80及び第2判定器82は、入力層84以降の複数の層を共用している。図6に示す例において、第1判定器80及び第2判定器82は、入力層84A及び第1~第4畳み込み84B~層84Eを共用している。なお、以下では、第1~第5畳み込み層84B~84F及び第6畳み込み層84Jを区別して説明する必要がない場合、符号を付さずに「畳み込み層」と称する。
第1判定器80において、入力層84Aには、内視鏡画像26が入力される。例えば、内視鏡画像26に含まれる病変領域26Bは、HP領域26B1、NP領域26B2、及びSSL26B3に大別される。HP領域26B1は、内視鏡画像26に写っているHPを示す画像領域である。NP領域26B2は、内視鏡画像26に写っているNP(ここでは、一例として、SSLとは異なる腫瘍性ポリープ)を示す画像領域である。SSL領域26B3は、内視鏡画像26に写っているSSLを示す画像領域である。なお、HPは、本開示の技術に係る「第1種類」及び「第1病変」の一例であり、SSLは、本開示の技術に係る「第2種類」及び「第2病変」の一例であり、NPは、本開示の技術に係る「第3種類」及び「第3病変」の一例である。
畳み込み層は、畳み込み処理を行う。畳み込み処理は、前段の層から内視鏡画像26に関するデータ(例えば、指定された特徴を活性化した画像である特徴量マップ等)が与えられ、内視鏡画像26に関するデータに対してフィルタ処理を行うことで特徴データを凝縮し、凝縮した特徴データを次段に出力する処理である。畳み込み層では、複数のフィルタ処理が行われ、フィルタ処理毎に固有のフィルタが用いられる。畳み込み層内では、内視鏡画像26に関するデータに対してフィルタを既定量(例えば、1ピクセル単位)ずつずらしながら、内視鏡画像26に関するデータとフィルタとを掛け合わせ、掛け合わせた結果(すなわち、特徴データ)が特徴量マップとして表現される。例えば、特徴量マップでは、内視鏡画像26に関するデータのうち、フィルタと反応した度合いが強い部分ほど大きな値で表現される。
畳み込み層間には、プーリング層(図示省略)が存在しており、プーリング層によってプーリング処理が行われる。プーリング処理は、畳み込み層によって得られた特徴量マップを縮小し、縮小した特徴量マップを次段に出力する処理である。ここで、縮小とは、重要なデータ(例えば、2×2ピクセルのうちの最大値)を残しつつデータ量を削減する処理を指す。すなわち、プーリング層は、入力層84A側から出力層84I及び84M側にかけて解像度が徐々に低くなるように特徴量マップを縮小する。
GAP層84Gには、前段の層である第5畳み込み層84Fから複数の特徴量マップが入力される。GAP層84Gは、第5畳み込み層84Fから入力された特徴量マップ毎の平均値を算出し、算出した平均値を全結合層84Hに出力する。
全結合層84Hは、全結合処理を行う。全結合層84Hの全結合処理は、GAP層84Gから入力された複数の平均値に対して、対応する特徴量マップ毎の固有の重みを用いた畳み込み演算(例えば、加重平均化)を、出力層84Iの全てのノードに対して行う処理である。出力層84Iの全てのノードとは、HPクラスに対応するノード及びNPクラスに対応するノードを指す。HPクラスは、HP領域26B1が属するクラスであり、NPクラスは、NP領域26B2が属するクラスである。
出力層84Iは、活性化関数としてソフトマックス関数84I1を用いることでHPスコア86及びNPスコア88を算出する。ここでは、ソフトマックス関数84I1を例示しているが、これは、あくまでも一例に過ぎず、ソフトマックス関数84I1と同様の入出力が実現可能な他の活性化関数であってもよい。
HPスコア86は、HPクラスについてのクラススコアであり、NPスコア88は、NPクラスについてのクラススコアである。なお、HPスコア86及びNPスコア88は、クラス活性化されたスコアであってもよい。クラス活性化とは、小数で表現されたクラススコアを、閾値(例えば、0.8)を基準にして“0.0”又は“1.0”に変換する処理を指す。
第2判定器82において、第6畳み込み層84Jには、前段の層である第4畳み込み層84Eから複数の特徴量マップが入力される。第6畳み込み層84Jは、第4畳み込み層84Eから複数の特徴量マップに対して畳み込み処理を行うことで、新たな複数の特徴量マップを生成してGAP層84Kに出力する。
GAP層84Kには、前段の層である第6畳み込み層84Jから複数の特徴量マップが入力される。GAP層84Kは、第6畳み込み層84Jから入力された特徴量マップ毎の平均値を算出し、算出した平均値を全結合層84Lに出力する。
全結合層84Lは、全結合処理を行う。全結合層84Lの全結合処理は、GAP層84Kから入力された複数の平均値に対して、対応する特徴量マップ毎の固有の重みを用いた畳み込み演算(例えば、加重平均化)を、出力層84Mの全てのノードに対して行う処理である。出力層84Mの全てのノードとは、HPクラスに対応するノード及びSSLクラスに対応するノードを指す。SSLクラスは、SSL領域26B3が属するクラスである。
出力層84Mは、活性化関数としてソフトマックス関数84M1を用いることでHPスコア90及びSSLスコア92を算出する。ここでは、ソフトマックス関数84M1を例示しているが、これは、あくまでも一例に過ぎず、ソフトマックス関数84M1と同様の入出力が実現可能な他の活性化関数であってもよい。
HPスコア90は、HPクラスについてのクラススコアであり、SSLスコア92は、SSLクラスについてのクラススコアである。なお、HPスコア90及びSSLスコア92は、クラス活性化されたスコアであってもよい。
次に、第1学習処理及び第2学習処理の内容の一例について図7及び図8を参照しながら説明する。
一例として図7に示すように、第1学習実行部64Aに対してはデータ供給装置94が用いられる。データ供給装置94の一例としては、コンピュータが挙げられる。データ供給装置94は、教師データ96を保持しており、教師データ96を第1学習実行部64Aに供給する。教師データ96は、複数フレームの学習用画像98及び複数の正解データ100を有する。正解データ100は、複数フレームの学習用画像98の各々に対して1つずつ対応付けられている。
第1判定器80は、複数の学習用画像98を学習させたモデルである。学習用画像98は、HP学習用画像98AとNP学習用画像98Bとに大別される。HP学習用画像98Aは、本開示の技術に係る「第1病変画像」の一例である。NP学習用画像98Bは、本開示の技術に係る「第3病変画像」の一例である。HPは、本開示の技術に係る「第1種類に対応する第1病変」の一例である。
HP学習用画像98Aは、HP又はSSLが写っている内視鏡画像26である。ここでは、HP学習用画像98Aとして、HP又はSSLが写っている内視鏡画像26を例示しているが、これは、あくまでも一例に過ぎず、HP学習用画像98Aとして、過誤腫性ポリープ及び/又は炎症性ポリープ等の非腫瘍性ポリープが写っている内視鏡画像26も用いてもよい。NP学習用画像98Bは、SSL以外でNPに属する病変が写っている内視鏡画像26である。
正解データ100には、HPスコア100A及びNPスコア100Bが含まれている。HP学習用画像98Aに対応付けられている正解データ100に含まれるHPスコア100Aは、“1.0”であり、HP学習用画像98Aに対応付けられている正解データ100に含まれるNPスコア100Bは、“0.0”である。また、NP学習用画像98Bに対応付けられている正解データ100に含まれるHPスコア100Aは、“0.0”であり、NP学習用画像98Bに対応付けられている正解データ100に含まれるNPスコア100Bは、“1.0”である。
このように教師データ96が作られているので、HPが写っている内視鏡画像26及びSSLが写っている内視鏡画像26は、1つのグループ(すなわち、互いに類似する腫瘍性の病変と非腫瘍性の病変とが属するグループ)に対応する画像として第1判定器80の学習に用いられる。また、SSL以外でNPに属する病変が写っている内視鏡画像26(すなわち、NP学習用画像98B)は、1つのグループ(すなわち、SSL以外でNPとして鑑別される病変が属するグループ)に対応する画像として第1判定器80の学習に用いられる。
第1学習実行部64Aは、第1判定器80を有する。第1学習実行部64Aには、学習用画像98が供給される。第1学習実行部64Aは、データ供給装置94から供給された学習用画像98を第1判定器80の入力層84Aに入力する。第1判定器80では、入力層84Aに入力された学習用画像98に対して、第1~第5畳み込み層84B~84F、GAP層84G、全結合層84H、及び出力層84Iで各種処理が行われ、出力層84Iから、学習用画像98に対応するHPスコア86及びNPスコア88が出力される。
第1学習実行部64Aは、第1判定器80での判定対象とされた学習用画像98(すなわち、入力層84Aに入力された学習用画像98)に対応付けられている正解データ100をデータ供給装置94から取得する。そして、第1学習実行部64Aは、データ供給装置94から取得した正解データ100に含まれるHPスコア100Aと出力層84Iから出力されたHPスコア86との誤差であるHPスコア誤差102を算出する。また、第1学習実行部64Aは、データ供給装置94から取得した正解データ100に含まれるNPスコア100Bと出力層84Iから出力されたNPスコア88との誤差であるNPスコア誤差104を算出する。
第1学習実行部64Aは、HPスコア誤差102及びNPスコア誤差104の両方を最小にする複数の調整値106を算出する。そして、第1学習実行部64Aは、HPスコア誤差102及びNPスコア誤差104の両方を最小にするように、複数の調整値106を用いて第1判定器80内の複数の最適化変数を調整することで第1判定器80を最適化する。第1判定器80内の複数の最適化変数としては、例えば、第1~第5畳み込み層84B~84Fで用いられるフィルタの係数、並びに全結合層84Hで用いられる結合荷重及びオフセット値等が挙げられる。
一例として図8に示すように、第1学習実行部64Aと同様に、第2学習実行部64Bに対してもデータ供給装置94が用いられる。データ供給装置94は、教師データ108を保持しており、教師データ108を第2学習実行部64Bに供給する。教師データ108は、複数フレームの学習用画像110及び複数の正解データ112を有する。正解データ112は、複数フレームの学習用画像110の各々に対して1つずつ対応付けられている。
学習用画像110は、HP学習用画像110AとSSL学習用画像110Bとに大別される。HP学習用画像110Aは、HPが写っている内視鏡画像26である。HP学習用画像98Aは、HP又はSSLが写っている内視鏡画像26であるのに対し、HP学習用画像110Aは、HPが写っているがSSLが写っていない内視鏡画像26である点がHP学習用画像98Aと異なる。ここでは、HP学習用画像110Aとして、HPが写っている内視鏡画像26を例示しているが、これは、あくまでも一例に過ぎず、HP学習用画像110Aとして、過誤腫性ポリープ及び/又は炎症性ポリープ等の非腫瘍性ポリープが写っている内視鏡画像26も用いてもよい。SSL学習用画像110Bは、SSLが写っている内視鏡画像26である。
正解データ112には、HPスコア112A及びSSLスコア112Bが含まれている。HP学習用画像110Aに対応付けられている正解データ112に含まれるHPスコア112Aは、“1.0”であり、HP学習用画像110Aに対応付けられている正解データ112に含まれるSSLスコア112Bは、“0.0”である。また、SSL学習用画像110Bに対応付けられている正解データ112に含まれるHPスコア112Aは、“0.0”であり、SSL学習用画像110Bに対応付けられている正解データ112に含まれるSSLスコア112Bは、“1.0”である。
第2学習実行部64Bは、第2判定器82を有する。第2学習実行部64Bには、学習用画像110が供給される。第2学習実行部64Bは、データ供給装置94から供給された学習用画像110を第2判定器82の入力層84Aに入力する。第2判定器82では、入力層84Aに入力された学習用画像110に対して、第1~第4畳み込み層84B~84E、第6畳み込み層84J、GAP層84K、全結合層84L、及び出力層84Mで各種処理が行われ、出力層84Mから、学習用画像110に対応するHPスコア90及びSSLスコア92が出力される。
第2学習実行部64Bは、第2判定器82での判定対象とされた学習用画像110(すなわち、入力層84Aに入力された学習用画像110)に対応付けられている正解データ112をデータ供給装置94から取得する。そして、第2学習実行部64Bは、データ供給装置94から取得した正解データ112に含まれるHPスコア112Aと出力層84Mから出力されたHPスコア90との誤差であるHPスコア誤差114を算出する。また、第2学習実行部64Bは、データ供給装置94から取得した正解データ112に含まれるSSLスコア112Bと出力層84Mから出力されたSSLスコア92との誤差であるSSLスコア誤差116を算出する。
第2学習実行部64Bは、HPスコア誤差114及びSSLスコア誤差116の両方を最小にする複数の調整値118を算出する。そして、第2学習実行部64Bは、HPスコア誤差114及びSSLスコア誤差116の両方を最小にするように、複数の調整値118を用いて第2判定器82内の複数の最適化変数を調整することで第2判定器82を最適化する。第2判定器82内の複数の最適化変数としては、例えば、第6畳み込み層84Jで用いられるフィルタの係数、並びに全結合層84Lで用いられる結合荷重及びオフセット値等が挙げられる。すなわち、第1判定器80から出力されるHPスコア86及びNPスコア88の精度を確保するために、第2判定器82が第1判定器80と共用している第1~第4畳み込み層84B~84Eに含まれる最適化変数を固定した状態で、第2判定器82に対しての学習が実施されるようにすればよい。
次に、推論処理の内容の一例について図9~図16を参照しながら説明する。
一例として図9に示すように、取得部64Cは、内視鏡スコープ40から内視鏡画像26を取得する。内視鏡画像26は、内視鏡スコープ40によってライブビュー方式で得られるので、取得部64Cは、内視鏡スコープ40から複数フレームにわたって内視鏡画像26を時系列で取得する。判定部64Dは、取得部64Cによって取得された内視鏡画像26をフレーム毎に処理する。なお、図9~図16を用いた説明では、本開示の技術に対する理解を容易にするために、1つのフレームに対して推論処理が行われる場合について例示する。
判定部64Dは、第1学習処理及び第2学習処理が行われることによって最適化されたニューラルネットワーク78を用いた処理を行う。ニューラルネットワーク78は、取得部64Cによって取得された内視鏡画像26に基づいて判定処理を行う。判定処理は、第1判定器80及び第2判定器82が、内視鏡画像26に写っている病変の種類(以下、単に「病変の種類」とも称する)を判定する処理である。判定処理は、第1判定器80による第1判定処理、及び第2判定器82による第2判定処理を含む。
第1判定処理は、病変の種類が第1グループ120に属するか又は第2グループ122に属するかを判定する処理である。第1グループ120は、HPが写っている内視鏡画像26とSSLが写っている内視鏡画像26とを含むグループである。第2グループ122は、NPが写っている内視鏡画像26を含むグループである。HPは、非腫瘍カテゴリ124に分類される病変であり、SSL及びNPは、腫瘍カテゴリ126に分類される病変である。非腫瘍カテゴリ124は、非腫瘍性を示すカテゴリであり、腫瘍カテゴリ126は、腫瘍性を示すカテゴリである。第1判定処理では、HPスコア86がNPスコア88以上であれば、病変の種類が第1グループ120に属すると判定される。また、第1判定処理では、HPスコア86がNPスコア88未満であれば、病変の種類が第2グループ122に属すると判定される。
第2判定処理は、第1判定器80の中間特徴量を利用した処理である。なぜならば、第2判定器82の一部(すなわち、入力層84A及び第1~第4畳み込み層84B~84E)は、第1判定器80と共用されるからである。第2判定処理は、第2判定処理で病変の種類が第1グループ120に属すると判定されたことを前提として行われる。第2判定処理は、病変の種類がHPであるか又はSSLであるかを判定する処理である。第2判定処理では、SSLスコア92がHPスコア90以上であれば、病変の種類がSSLであると判定され、SSLスコア92がHPスコア90未満であれば、病変の種類がHPであると判定される。
なお、HPは、本開示の技術に係る「非腫瘍性の病変」及び「非腫瘍性を示す種類」の一例である。SSLは、本開示の技術に係る「鋸歯状病変」、及び「鋸歯状病変を示す種類」の一例である。NPは、本開示の技術に係る「鋸歯状病変とは異なる腫瘍性の病変」の一例である。第1グループ120は、本開示の技術に係る「第1グループ」の一例である。第2グループ122は、本開示の技術に係る「第2グループ」の一例である。非腫瘍カテゴリ124は、本開示の技術に係る「第1カテゴリ」及び「非腫瘍性を示すカテゴリ」の一例である。腫瘍カテゴリ126は、本開示の技術に係る「第2カテゴリ」及び「腫瘍性を示すカテゴリ」の一例である。
一例として図10に示すように、取得部64Cによって取得された内視鏡画像26が第1判定器80及び第2判定器82に入力されることによって、第1判定器80からHPスコア86及びNPスコア88が出力され、第2判定器82からHPスコア90及びSSLスコア92が出力される。ここで、HPスコア86がNPスコア88以上であり、かつ、SSLスコア92がHPスコア90以上である場合、制御部64Eは、第2判定器82の特徴量マップ128を利用して腫瘍位置画像信号130を生成する。HPスコア86がNPスコア88以上であり、かつ、SSLスコア92がHPスコア90以上である場合とは、病変の種類が第1グループ120(図9参照)に属すると判定され、かつ、病変の種類がSSLであると判定された場合を意味する。腫瘍位置画像信号130は、本開示の技術に係る「第1信号」及び「第2カテゴリ信号」の一例である。
特徴量マップ128は、第6畳み込み層84Jから得られる。特徴量マップ128は、本開示の技術に係る「特徴量マップ」の一例である。制御部64Eは、特徴量マップ128から、特徴量マップ128を得るために用いたフィルタと反応した度合いが最も高い領域である高反応領域128Aを取得する。高反応領域128Aは、特徴量マップ128に対して、閾値を用いた二値化が行われることによって得られる。
制御部64Eは、高反応領域128Aの輪郭128A1を高反応領域128Aから抽出する。高反応領域128Aは、1つの矩形領域又は複数の矩形領域が組み合わされた領域である。そこで、制御部64Eは、輪郭128A1の形状を曲線状に整形することで曲線領域128A2を生成する。例えば、この場合、輪郭128A1に含まれる複数の頂点に対して曲線を外接させることによって曲線領域128A2が生成される。すなわち、曲線領域128A2は、輪郭128A1に外接する曲線を輪郭として有する閉領域である。制御部64Eは、曲線領域128A2に対して彩色を施す。図10に示す例では、曲線領域128A2に対して黄色が付されている。
制御部64Eは、彩色が施された曲線領域128A2を有する特徴量マップ128を加工することで位置特定画像28を生成する。位置特定画像28は、特徴量マップ128が加工されることによって生成されるので、位置特定画像28は、特徴量マップ128に基づく情報と言える。図10に示す例では、位置特定画像28として腫瘍位置特定画像134が示されている。腫瘍位置特定画像134には、病変マーク28Cとして腫瘍マーク132が適用されている。腫瘍マーク132は、彩色が施された曲線領域128A2、すなわち、黄色が付された曲線領域128A2である。
制御部64Eは、腫瘍位置特定画像134を示す信号である腫瘍位置画像信号130を生成し、生成した腫瘍位置画像信号130を特定の出力先(例えば、表示装置14等)に出力する。ここで、腫瘍位置画像信号130を特定の出力先に出力する処理は、本開示の技術に係る「第1出力処理」の一例である。
本実施形態において、曲線領域128A2に付される黄色は、腫瘍カテゴリ126に分類されることを意味する色である。そのため、腫瘍位置画像信号130は、病変の種類が腫瘍カテゴリ126に分類されることを特定可能な信号として用いられる。また、本実施形態において、特徴量マップ128内での曲線領域128A2の位置は、内視鏡画像26内でのSSLの位置に対応している。よって、腫瘍位置画像信号130は、内視鏡画像26内でのSSLの位置を特定可能な信号としても用いられる。
一例として図11に示すように、制御部64Eは、取得部64Cによって取得された内視鏡画像26、すなわち、図10に示す第1判定器80及び第2判定器82に入力された内視鏡画像26を第1画面22に表示する。また、制御部64Eは、腫瘍位置画像信号130(図10参照)を表示装置14に出力することで、腫瘍位置画像信号130により示される腫瘍位置特定画像134を第2画面24に表示する。すなわち、第2画面24には、第1画面22に表示されている内視鏡画像26に写っている病変が腫瘍カテゴリ126に分類されることを示す情報として腫瘍位置特定画像134が表示される。腫瘍位置特定画像134は、本開示の技術に係る「第2カテゴリ情報」の一例である。
一例として図12に示すように、HPスコア86がNPスコア88以上であり、かつ、SSLスコア92がHPスコア90未満である場合、制御部64Eは、第2判定器82の特徴量マップ128を利用して非腫瘍位置画像信号136を生成する。HPスコア86がNPスコア88以上であり、かつ、SSLスコア92がHPスコア90未満である場合とは、病変の種類が第1グループ120(図9参照)に属すると判定され、かつ、病変の種類がHPであると判定された場合を意味する。非腫瘍位置画像信号136は、本開示の技術に係る「第1信号」及び「第1カテゴリ信号」の一例である。
制御部64Eは、特徴量マップ128から、特徴量マップ128を得るために用いたフィルタと反応した度合いが最も高い領域である高反応領域128Bを取得する。高反応領域128Bは、特徴量マップ128に対して、閾値を用いた二値化が行われることによって得られる。
制御部64Eは、高反応領域128Bの輪郭128B1を高反応領域128Bから抽出する。高反応領域128Bも、高反応領域128Aと同様に、1つの矩形領域又は複数の矩形領域が組み合わされた領域である。そこで、制御部64Eは、曲線領域128A2を生成する場合と同様の要領で、輪郭128B1の形状を曲線状に整形することで曲線領域128B2を生成する。制御部64Eは、曲線領域128B2に対して彩色を施す。図12に示す例では、曲線領域128B2に対して緑色が付されている。
制御部64Eは、彩色が施された曲線領域128B2を有する特徴量マップ128を加工することで位置特定画像28を生成する。図12に示す例では、位置特定画像28として非腫瘍位置特定画像140が示されている。非腫瘍位置特定画像140には、病変マーク28Cとして非腫瘍マーク138が適用されている。非腫瘍マーク138は、彩色が施された曲線領域128B2、すなわち、緑色が付された曲線領域128B2である。
制御部64Eは、非腫瘍位置特定画像140を示す信号である非腫瘍位置画像信号136を生成し、生成した非腫瘍位置画像信号136を特定の出力先(例えば、表示装置14等)に出力する。ここで、非腫瘍位置画像信号136を特定の出力先に出力する処理は、本開示の技術に係る「第1出力処理」の一例である。
本実施形態において、曲線領域128B2に付される緑色は、非腫瘍カテゴリ124に分類されることを意味する色である。そのため、非腫瘍位置画像信号136は、病変の種類が非腫瘍カテゴリ124に分類されることを特定可能な信号として用いられる。また、本実施形態において、特徴量マップ128内での曲線領域128B2の位置は、内視鏡画像26内でのHPの位置に対応している。よって、非腫瘍位置画像信号136は、内視鏡画像26内でのHPの位置を特定可能な信号としても用いられる。
一例として図13に示すように、制御部64Eは、取得部64Cによって取得された内視鏡画像26、すなわち、図12に示す第1判定器80及び第2判定器82に入力された内視鏡画像26を第1画面22に表示する。また、制御部64Eは、非腫瘍位置画像信号136(図12参照)を表示装置14に出力することで、非腫瘍位置画像信号136により示される非腫瘍位置特定画像140を第2画面24に表示する。すなわち、第2画面24には、第1画面22に表示されている内視鏡画像26に写っている病変が非腫瘍カテゴリ124に分類されることを示す情報として非腫瘍位置特定画像140が表示される。非腫瘍位置特定画像140は、本開示の技術に係る「第1カテゴリ情報」の一例である。
一例として図14に示すように、HPスコア86がNPスコア88未満である場合、制御部64Eは、第1判定器80の特徴量マップ142を利用して腫瘍位置画像信号144を生成する。HPスコア86がNPスコア88未満である場合とは、病変の種類が第2グループ122(図9参照)に属すると判定され、かつ、病変の種類がNPであると判定された場合を意味する。
特徴量マップ142は、第5畳み込み層84Fから得られる。制御部64Eは、特徴量マップ142から、特徴量マップ142を得るために用いたフィルタと反応した度合いが最も高い領域である高反応領域142Aを取得する。高反応領域142Aは、特徴量マップ142に対して、閾値を用いた二値化が行われることによって得られる。
制御部64Eは、高反応領域142Aの輪郭142A1を高反応領域142Aから抽出する。制御部64Eは、輪郭142A1の形状を曲線状に整形することで曲線領域142A2を生成し、生成した曲線領域142A2に対して彩色を施す。図14に示す例では、図10に示す例と同様に、曲線領域142A2に対して黄色が付されている。
制御部64Eは、彩色が施された曲線領域142A2を有する特徴量マップ142を加工することで位置特定画像28を生成する。図14に示す例では、位置特定画像28として腫瘍位置特定画像148が示されている。腫瘍位置特定画像148には、病変マーク28Cとして腫瘍マーク146が適用されている。腫瘍マーク146は、彩色が施された曲線領域142A2、すなわち、黄色が付された曲線領域142A2である。
制御部64Eは、腫瘍位置特定画像148を示す信号である腫瘍位置画像信号144を生成し、生成した腫瘍位置画像信号144を特定の出力先(例えば、表示装置14等)に出力する。
本実施形態において、曲線領域144A2に付される黄色は、図10に示す例と同様に、腫瘍カテゴリ126に分類されることを意味する色である。そのため、腫瘍位置画像信号144は、病変の種類が腫瘍カテゴリ126に分類されることを特定可能な信号として用いられる。また、本実施形態において、特徴量マップ142内での曲線領域142A2の位置は、内視鏡画像26内でのNPの位置に対応している。よって、腫瘍位置画像信号144は、内視鏡画像26内でのNPの位置を特定可能な信号としても用いられる。
一例として図15に示すように、制御部64Eは、取得部64Cによって取得された内視鏡画像26、すなわち、図14に示す第1判定器80に入力された内視鏡画像26を第1画面22に表示する。また、制御部64Eは、腫瘍位置画像信号144(図14参照)を表示装置14に出力することで、腫瘍位置画像信号144により示される腫瘍位置特定画像148を第2画面24に表示する。すなわち、第2画面24には、第1画面22に表示されている内視鏡画像26に写っている病変が腫瘍カテゴリ126に分類されることを示す情報として腫瘍位置特定画像148が表示される。
図11、図13、及び図15に示すように、制御部64Eは、第1判定処理の判定結果及び第2判定処理の判定結果に基づいて、腫瘍位置特定画像134及び148と、非腫瘍位置特定画像140とを区別可能な表示態様で表示装置14に対して表示させる表示処理を行う。腫瘍位置特定画像134及び148は、内視鏡画像26に写っている病変が腫瘍カテゴリ126に分類されることを示す画像であり、非腫瘍位置特定画像140は、内視鏡画像26に写っている病変が非腫瘍カテゴリ124に分類されることを示す画像である。また、制御部64Eは、腫瘍位置特定画像134及び148を第1態様で表示させ、非腫瘍位置特定画像140を第2態様で表示させる。第1態様とは、内視鏡画像26と腫瘍位置特定画像134又は148とが対比可能に表示される態様を指す(図11及び図15参照)。第2態様とは、内視鏡画像26と非腫瘍位置特定画像140とが対比可能に表示される態様を指す(図13参照)。
次に、内視鏡用処理装置52のプロセッサ64によって行われる第1学習処理、第2学習処理、及び推論処理の流れの一例について図16~図18Bを参照しながら説明する。なお、図16~図18Bに示すフローチャートによって示される処理の流れは、本開示の技術に係る「画像処理方法」の一例である。
先ず、第1学習処理の実行を開始する指示が受付装置56によって受け付けられた場合に内視鏡用処理装置52のプロセッサ64によって行われる第1学習処理の流れの一例について図16を参照しながら説明する。
図16に示す第1学習処理では、先ず、ステップST10で、第1学習実行部64Aは、データ供給装置94から学習用画像98を取得する。ここで、データ供給装置94から取得される学習用画像98は、ステップST12以降の処理に用いられていない学習用画像98である。第1学習実行部64Aは、データ供給装置94から取得した学習用画像98を第1判定器80の入力層84Aに入力する(図7参照)。ステップST10の処理が実行された後、第1学習処理はステップST12へ移行する。
ステップST12で、第1学習実行部64Aは、第1判定器80からHPスコア86及びNPスコア88を取得する(図7参照)。ステップST12の処理が実行された後、第1学習処理はステップST14へ移行する。
ステップST14で、第1学習実行部64Aは、ステップST10で入力層84Aに入力した学習用画像98に対応付けられている正解データ100をデータ供給装置94から取得する(図7参照)。ステップST14の処理が実行された後、第1学習処理はステップST16へ移行する。
ステップST16で、第1学習実行部64Aは、ステップST12で取得したHPスコア86とステップST14で取得した正解データ100に含まれるHPスコア100AとからHPスコア誤差102を算出する(図7参照)。また、第1学習実行部64Aは、ステップST12で取得したNPスコア88とステップST14で取得した正解データ100に含まれるNPスコア100BとからNPスコア誤差104を算出する(図7参照)。ステップST16の処理が実行された後、第1学習処理はステップST18へ移行する。
ステップST18で、第1学習実行部64Aは、ステップST16で算出したHPスコア誤差102及びNPスコア誤差104の両方を最小にする複数の調整値106を算出する(図7参照)。ステップST18の処理が実行された後、第1学習処理はステップST20へ移行する。
ステップST20で、第1学習実行部64Aは、HPスコア誤差102及びNPスコア誤差104の両方を最小にするように、複数の調整値106を用いて第1判定器80内の複数の最適化変数を調整することで第1判定器80を最適化する(図7参照)。ステップST20の処理が実行された後、第1学習処理はステップST22へ移行する。
ステップST22で、第1学習実行部64Aは、第1学習処理が終了する条件(以下、「第1学習処理終了条件」と称する)を満足したか否かを判定する。第1学習処理終了条件の第1例としては、教師データ96に含まれる全ての学習用画像98を用いた学習が終了した、という条件が挙げられる。第1学習処理終了条件の第2例としては、第1学習処理を終了させる指示が受付装置56によって受け付けられた、という条件が挙げられる。ステップST22において、第1学習処理終了条件を満足していない場合は、判定が否定されて、第1学習処理はステップST10へ移行する。ステップST22において、第1学習処理終了条件を満足した場合は、判定が肯定されて、第1学習処理が終了する。
次に、第2学習処理の実行を開始する指示が受付装置56によって受け付けられた場合に内視鏡用処理装置52のプロセッサ64によって行われる第2学習処理の流れの一例について図17を参照しながら説明する。
図17に示す第2学習処理では、先ず、ステップST30で、第2学習実行部64Bは、データ供給装置94から学習用画像110を取得する。ここで、データ供給装置94から取得される学習用画像110は、ステップST30以降の処理に用いられていない学習用画像110である。第2学習実行部64Bは、データ供給装置94から取得した学習用画像110を第2判定器82の入力層84Aに入力する(図8参照)。ステップST30の処理が実行された後、第2学習処理はステップST32へ移行する。
ステップST32で、第2学習実行部64Bは、第2判定器82からHPスコア90及びSSLスコア92を取得する(図8参照)。ステップST32の処理が実行された後、第2学習処理はステップST34へ移行する。
ステップST34で、第2学習実行部64Bは、ステップST30で入力層84Aに入力した学習用画像110に対応付けられている正解データ112をデータ供給装置94から取得する(図8参照)。ステップST34の処理が実行された後、第2学習処理はステップST36へ移行する。
ステップST36で、第2学習実行部64Bは、ステップST32で取得したHPスコア90とステップST34で取得した正解データ112に含まれるHPスコア112AとからHPスコア誤差114を算出する(図8参照)。また、第2学習実行部64Bは、ステップST32で取得したSSLスコア92とステップST34で取得した正解データ112に含まれるSSLスコア112BとからSSLスコア誤差116を算出する(図8参照)。ステップST36の処理が実行された後、第2学習処理はステップST38へ移行する。
ステップST38で、第2学習実行部64Bは、ステップST36で算出したHPスコア誤差114及びSSLスコア誤差116の両方を最小にする複数の調整値118を算出する(図8参照)。ステップST38の処理が実行された後、第2学習処理はステップST40へ移行する。
ステップST40で、第2学習実行部64Bは、HPスコア誤差114及びSSLスコア誤差116の両方を最小にするように、複数の調整値118を用いて第2判定器82内の複数の最適化変数(すなわち、第6畳み込み層84J及び全結合層84Lに含まれる複数の最適化変数)を調整することで第2判定器82を最適化する(図8参照)。ステップST40の処理が実行された後、第2学習処理はステップST42へ移行する。
ステップST42で、第2学習実行部64Bは、第2学習処理が終了する条件(以下、「第2学習処理終了条件」と称する)を満足したか否かを判定する。第2学習処理終了条件の第1例としては、教師データ108に含まれる全ての学習用画像110を用いた学習が終了した、という条件が挙げられる。第2学習処理終了条件の第2例としては、第2学習処理を終了させる指示が受付装置56によって受け付けられた、という条件が挙げられる。ステップST42において、第2学習処理終了条件を満足していない場合は、判定が否定されて、第2学習処理はステップST30へ移行する。ステップST42において、第2学習処理終了条件を満足した場合は、判定が肯定されて、第2学習処理が終了する。
次に、推論処理の実行を開始する指示が受付装置56によって受け付けられた場合に内視鏡用処理装置52のプロセッサ64によって行われる推論処理の流れの一例について図18A及び図18Bを参照しながら説明する。なお、図18A及び図18Bに示す推論処理では、第1学習処理によって最適化された第1判定器80、及び第2学習処理によって最適化された第2判定器82が用いられる。
図18Aに示す推論処理では、先ず、ステップST50で、取得部64Cは、内視鏡スコープ40から内視鏡画像26を取得する(図10参照)。ステップST50の処理が実行された後、推論処理はステップST52へ移行する。
ステップST52で、判定部64Dは、ステップSTで取得された内視鏡画像26を第1判定器80及び第2判定器82で共用される入力層84Aに入力する。これにより、第1判定器80からHPスコア86及びNPスコア88が出力され、第2判定器82からHPスコア90及びSSLスコア92が出力される(図10参照)。ステップST52の処理が実行された後、推論処理はステップST54へ移行する。
ステップST54で、判定部64Dは、第1判定器80から出力されたHPスコア86及びNPスコア88を取得する。ステップST54の処理が実行された後、推論処理はステップST56へ移行する。
ステップST56で、判定部64Dは、ステップST54で取得したHPスコア86が、ステップST54で取得したNPスコア88以上であるか否かを判定する。ステップST56において、HPスコア86がNPスコア88未満である場合は、判定が否定されて、推論処理は、図18Bに示すステップST68へ移行する。ステップST56において、HPスコア86がNPスコア88以上である場合は、判定が肯定されて、推論処理はステップST58へ移行する。
ステップST58で、判定部64Dは、第2判定器82から出力されたHPスコア90及びSSLスコア92を取得する。ステップST58の処理が実行された後、推論処理はステップST60へ移行する。
ステップST60で、判定部64Dは、ステップST58で取得したSSLスコア92が、ステップST58で取得したHPスコア90以上であるか否かを判定する。ステップST60において、SSLスコア92がHPスコア90未満である場合は、判定が否定されて、推論処理は、図18Bに示すステップST74へ移行する。ステップST60において、SSLスコア92がHPスコア90以上である場合は、判定が肯定されて、推論処理はステップST62へ移行する。
ステップST62で、制御部64Eは、第2判定器82の第6畳み込み層84Jから特徴量マップ128を取得する(図10参照)。そして、制御部64Eは、特徴量マップ128を利用して腫瘍位置画像信号130を生成する(図10参照)。ステップST62の処理が実行された後、推論処理はステップST64へ移行する。
ステップST64で、制御部64Eは、ステップST52で入力層84Aに入力された内視鏡画像26を第1画面22に表示する(図11参照)。ステップST64の処理が実行された後、推論処理はステップST66へ移行する。
ステップST66で、制御部64Eは、ステップST62で生成した腫瘍位置画像信号130を表示装置14に出力することで、腫瘍位置画像信号130により示される腫瘍位置特定画像134を第2画面24に表示する(図11参照)。ステップST66の処理が実行された後、推論処理は、図18Bに示すステップST80へ移行する。
図18Bに示すステップST68で、制御部64Eは、第1判定器80の第5畳み込み層84Fから特徴量マップ142を取得する(図14参照)。そして、制御部64Eは、特徴量マップ142を利用して腫瘍位置画像信号144を生成する(図14参照)。ステップST68の処理が実行された後、推論処理はステップST70へ移行する。
ステップST70で、制御部64Eは、ステップST52で入力層84Aに入力された内視鏡画像26を第1画面22に表示する(図15参照)。ステップST70の処理が実行された後、推論処理はステップST72へ移行する。
ステップST72で、制御部64Eは、ステップST68で生成した腫瘍位置画像信号144を表示装置14に出力することで、腫瘍位置画像信号144により示される腫瘍位置特定画像148を第2画面24に表示する(図15参照)。ステップST72の処理が実行された後、推論処理はステップST80へ移行する。
図18Bに示すステップST74で、制御部64Eは、第2判定器82の第6畳み込み層84Jから特徴量マップ128を取得する(図12参照)。そして、制御部64Eは、特徴量マップ128を利用して非腫瘍位置画像信号136を生成する(図12参照)。ステップST74の処理が実行された後、推論処理はステップST76へ移行する。
ステップST76で、制御部64Eは、ステップST52で入力層84Aに入力された内視鏡画像26を第1画面22に表示する(図13参照)。ステップST76の処理が実行された後、推論処理はステップST78へ移行する。
ステップST78で、制御部64Eは、ステップST74で生成した非腫瘍位置画像信号136を表示装置14に出力することで、非腫瘍位置画像信号136により示される非腫瘍位置特定画像140を第2画面24に表示する(図13参照)。ステップST78の処理が実行された後、推論処理はステップST80へ移行する。
ステップST80で、制御部64Eは、推論処理が終了する条件(以下、「推論処理終了条件」と称する)を満足したか否かを判定する。推論処理終了条件の第1例としては、推論処理の実行が開始されてから、指定されたフレーム数の内視鏡画像26が入力層84Aに入力された、という条件が挙げられる。推論処理終了条件の第2例としては、推論処理を終了させる指示が受付装置56によって受け付けられた、という条件が挙げられる。ステップST80において、推論処理終了条件を満足していない場合は、判定が否定されて、推論処理はステップST50へ移行する。ステップST80において、推論処理終了条件を満足した場合は、判定が肯定されて、推論処理が終了する。
以上説明したように、内視鏡システム10では、内視鏡画像26に写っている病変の種類が第1グループ120(図9参照)に属するか、又は、第2グループ122(図9参照)に属するかが判定される。第1グループ120は、互いに類似する病変の種類であるHP及びSSLが含まれるグループである。第2グループ122は、SSL以外でNPに属する病変を含むグループである。
内視鏡システム10では、病変の種類が第1グループ120に属するか、又は、第2グループ122に属するかを第1判定器80に判定させるために、第1判定器80に対してHP学習用画像98A及びNP学習用画像98Bを学習させる(図7参照)。HP学習用画像98Aは、HP又はSSLが写っている内視鏡画像26であり、NP学習用画像98は、NPが写っている内視鏡画像26である。
従って、SSL以外でNPに属する病変が写っている内視鏡画像26は、第1判定器80によって第2グループ122に分類される。すなわち、内視鏡画像26に写っている病変の種類が第2グループ122に属すると第1判定器80によって判定される。一方、HP又はSSLが写っている内視鏡画像26は、第1判定器80によって第1グループ120に分類される。すなわち、内視鏡画像26に写っている病変の種類が第1グループ120(図9参照)に属すると第1判定器80によって判定される。
ここで、内視鏡画像26に写っている病変の種類が第1グループ120に属すると判定された場合、内視鏡画像26に写っている病変の種類がHPであるか又はSSLであるが判定される。病変の種類がHPであるか又はSSLであるの判定は、第2判定器82によって行われる。
内視鏡システム10では、病変の種類がHPであるか又はSSLであるかを第2判定器82に判定させるために、第2判定器82に対してHP学習用画像110A及びSSL学習用画像110Bを学習させる。HP学習用画像110Aは、HPは写っているがSSLは写っていない内視鏡画像26である。SSL学習用画像110Bは、SSLが写っている内視鏡画像26である。
従って、HPが写っている内視鏡画像26は、第2判定器82によってHPが写っている画像として分類される。すなわち、内視鏡画像26に写っている病変の種類がHPであると第2判定器82によって判定される。一方、SSLが写っている内視鏡画像26は、第2判定器82によってSSLが写っている画像として分類される。すなわち、内視鏡画像26に写っている病変の種類がSSLであると第2判定器82によって判定される。
HPは非腫瘍カテゴリ124に分類され、NP及びSSLは腫瘍カテゴリ126に分類される。そこで、内視鏡システム10では、第1判定器80による第1判定処理の判定結果と第2判定器82による第2判定処理の判定結果とに基づいて、腫瘍位置画像信号130、非腫瘍位置画像信号136、又は腫瘍位置画像信号144が出力される。つまり、内視鏡画像26に写っている病変の種類がHPである場合は、非腫瘍位置画像信号136が出力され(図13参照)、内視鏡画像26に写っている病変の種類がSSLである場合は、腫瘍位置画像信号130が出力され(図11参照)、内視鏡画像26に写っている病変の種類がSSL以外でNPに属する病変の種類である場合は、腫瘍位置画像信号144が出力される(図15参照)。
従って、医師16は、腫瘍位置画像信号130、非腫瘍位置画像信号136、及び腫瘍位置画像信号144の何れが出力されたかを把握することで、病変の種類が腫瘍なのか非腫瘍なのかを鑑別することができる。これにより、医師16によって病変の種類が誤鑑別されること(例えば、病変が腫瘍であるにも関わらず非腫瘍であると誤鑑別されたり、病変が非腫瘍であるにも関わらず腫瘍であると誤鑑別されたりされること)を抑制することができる。例えば、HPであるか又はNPであるかを判定する判定器のみを用いる場合に比べ、医師16によって病変の種類が誤鑑別されることを抑制することができる。
また、内視鏡システム10では、病変の種類が第1グループ120に属すると判定され、かつ、病変の種類がSSLであると判定された場合、腫瘍位置画像信号130が出力される(図10及び図11参照)。従って、医師16は、病変の種類が腫瘍であると鑑別することができる。
また、内視鏡システム10では、病変の種類が第1グループに属すると判定され、かつ、病変の種類がHPであると判定された場合、非腫瘍位置画像信号136が出力される(図12及び図13参照)。従って、医師16は、病変の種類が非腫瘍であると鑑別することができる。
また、内視鏡システム10では、腫瘍位置特定画像134及び148と非腫瘍位置特定画像140とが区別可能に表示装置14に表示される。つまり、腫瘍位置特定画像134及び148には、黄色の腫瘍マーク132及び146が付されており、非腫瘍位置特定画像140には、緑色の非腫瘍マーク138が付されているので、腫瘍位置特定画像134及び148と非腫瘍位置特定画像140とが視覚的に区別可能となる。従って、医師16は、病変の種類が腫瘍であるか非腫瘍であるかを視覚的に認識することができる。
また、内視鏡システム10では、内視鏡画像26と腫瘍位置特定画像134又は148とが対比可能に表示装置14に表示される(図11及び図15参照)。つまり、第1画面22に内視鏡画像26に表示され、かつ、第2画面24に腫瘍位置特定画像134又は148が表示されるので、医師16は、内視鏡画像26と腫瘍位置特定画像134又は148とを見比べることができる。腫瘍位置特定画像134及び148には、腫瘍マーク132及び146が付されているので、医師16は、内視鏡画像26の何れの箇所に腫瘍が存在しているかを視覚的に把握することができる。
また、内視鏡システム10では、内視鏡画像26と非腫瘍位置特定画像140とが対比可能に表示装置14に表示される(図13参照)。つまり、第1画面22に内視鏡画像26に表示され、かつ、第2画面24に非腫瘍位置特定画像140が表示されるので、医師16は、内視鏡画像26と非腫瘍位置特定画像140とを見比べることができる。非腫瘍位置特定画像140には、非腫瘍マーク138が付されているので、医師16は、内視鏡画像26の何れの箇所に非腫瘍の病変が存在しているかを視覚的に把握することができる。
また、内視鏡システム10では、特徴量マップ128に基づいて腫瘍位置特定画像134及び非腫瘍位置特定画像140が生成され(図10及び図12参照)、特徴量マップ142に基づいて腫瘍位置特定画像148が生成される(図14参照)。従って、腫瘍の位置及び非腫瘍の位置を特定可能な画像を容易に得ることができる。例えば、内視鏡画像26から人為的に腫瘍の位置及び非腫瘍の位置を特定してから腫瘍の位置及び非腫瘍の位置を特定可能な画像を人為的に作る場合に比べ、腫瘍の位置及び非腫瘍の位置を特定可能な画像を容易に得ることができる。
また、内視鏡システム10では、第2判定器82による第2判定処理は、第1判定器80の中間特徴量を利用した処理である。従って、第2判定器82による第2判定処理を効率良く実現することができる。例えば、第1判定器80とは無関係に構築された第2判定器82によって第2判定処理が行われる場合に比べ、第2判定器82による第2判定処理を効率良く実現することができる。
また、内視鏡システム10では、第1判定器80及び第2判定器82は、入力層84以降の複数の層(例えば、入力層84A及び第1~第4畳み込み層84B~84E)を共用している。従って、ニューラルネットワーク78の大型化を抑制することができる。例えば、第1判定器80と第2判定器82とが完全に切り離された状態で構築される場合に比べ、ニューラルネットワーク78の大型化を抑制することができる。
また、内視鏡システム10では、HPが写っている内視鏡画像26及びSSLが写っている内視鏡画像26は、1つのグループ(すなわち、互いに類似する腫瘍性の病変と非腫瘍性の病変とが属するグループ)に対応する画像として第1判定器80の学習に用いられる。また、NPが写っている内視鏡画像26(すなわち、NP学習用画像98B)は、1つのグループ(すなわち、SSL以外でNPとして鑑別される病変が属するグループ)に対応する画像として第1判定器80の学習に用いられる。従って、第1判定器80の判定精度を高めることができる。例えば、HPが写っている内視鏡画像26及びNPが写っている内視鏡画像26のみを第1判定器80の学習に用いた場合に比べ、第1判定器80の判定精度を高めることができる。
[第1変形例]
上記実施形態では、腫瘍位置画像信号130、非腫瘍位置画像信号136、及び腫瘍位置画像信号144が表示装置14に選択的に出力されることにより、腫瘍位置特定画像134、非腫瘍位置特定画像140、及び腫瘍位置特定画像148が表示装置14に選択的に表示される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、図19に示すように、制御部64Eが、内視鏡画像26単位(すなわち、フレーム単位)で腫瘍位置画像信号130及び144と非腫瘍位置画像信号136とを区別可能にNVM68に保存する保存処理(以下、「第1保存処理」と称する)を行うようにしてもよい。
上記実施形態では、腫瘍位置画像信号130、非腫瘍位置画像信号136、及び腫瘍位置画像信号144が表示装置14に選択的に出力されることにより、腫瘍位置特定画像134、非腫瘍位置特定画像140、及び腫瘍位置特定画像148が表示装置14に選択的に表示される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、図19に示すように、制御部64Eが、内視鏡画像26単位(すなわち、フレーム単位)で腫瘍位置画像信号130及び144と非腫瘍位置画像信号136とを区別可能にNVM68に保存する保存処理(以下、「第1保存処理」と称する)を行うようにしてもよい。
図19に示す例では、SSLが写っている内視鏡画像26と腫瘍位置画像信号130とが対応付けられた状態でNVM68に保存されている。また、図19に示す例では、SSLとは異なる腫瘍性の病変であるNPが写っている内視鏡画像26と腫瘍位置画像信号144とが対応付けられた状態でNVM68に保存されている。また、図19に示す例では、HPが写っている内視鏡画像26と非腫瘍位置画像信号136とが対応付けられた状態でNVM68に保存されている。これにより、内視鏡画像26に写っている病変の種類が腫瘍なのか非腫瘍なのかをフレーム単位で医師16に把握させることができる。
なお、第1保存処理は、腫瘍位置特定画像134、非腫瘍位置特定画像140、及び腫瘍位置特定画像148を表示装置14に対して選択的に表示させる処理と並行して行われるようにしてもよい。
また、第1保存処理が行われることによって腫瘍位置画像信号130、非腫瘍位置画像信号136、及び腫瘍位置画像信号144が保存される先は、NVM68に限定されず、NVM68以外の記憶装置であってもよい。NVM68以外の記憶装置としては、例えば、内視鏡用処理装置52の外部に存在する記憶装置(例えば、サーバ及び/又はパーソナル・コンピュータ等で用いられるストレージ)が挙げられる。
[第2変形例]
上記実施形態では、腫瘍位置画像信号130、非腫瘍位置画像信号136、及び腫瘍位置画像信号144が出力されることによって病変の種類が非腫瘍カテゴリ124に分類されるのか又は腫瘍カテゴリ126に分類されるかを特定可能にする形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、第1判定器80による第1判定処理の判定結果及び第2判定器82による第2判定処理の判定結果に基づいて、病変の種類がHPであるのか、又は、SSLであるのかを特定可能な信号が出力されることによって病変の種類そのものが特定されるようにしてもよい。
上記実施形態では、腫瘍位置画像信号130、非腫瘍位置画像信号136、及び腫瘍位置画像信号144が出力されることによって病変の種類が非腫瘍カテゴリ124に分類されるのか又は腫瘍カテゴリ126に分類されるかを特定可能にする形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、第1判定器80による第1判定処理の判定結果及び第2判定器82による第2判定処理の判定結果に基づいて、病変の種類がHPであるのか、又は、SSLであるのかを特定可能な信号が出力されることによって病変の種類そのものが特定されるようにしてもよい。
一例として図20に示すように、HPスコア86がNPスコア88以上であり、かつ、SSLスコア92がHPスコア90以上である場合、制御部64Eは、第2判定器82の特徴量マップ128を利用してSSL位置画像信号150を生成する。HPスコア86がNPスコア88以上であり、かつ、SSLスコア92がHPスコア90以上である場合とは、病変の種類がSSLであると判定された場合を意味する。なお、この場合のSSLスコア92は、本開示の技術に係る「第2種類判定信号」の一例である。
制御部64Eは、曲線領域128A2に対して彩色を施す。図20に示す例では、曲線領域128A2に対して青色が付されている。制御部64Eは、彩色が施された曲線領域128A2を有する特徴量マップ128を加工することで位置特定画像28を生成する。図20に示す例では、位置特定画像28としてSSL位置特定画像154が示されている。SSL位置特定画像154には、病変マーク28CとしてSSLマーク152が適用されている。SSLマーク152は、彩色が施された曲線領域128A2、すなわち、青色が付された曲線領域128A2である。
制御部64Eは、SSL位置特定画像154を示す信号であるSSL位置画像信号150を生成し、生成したSSL位置画像信号150を特定の出力先(例えば、表示装置14等)に出力する。ここで、SSL位置画像信号150を特定の出力先に出力する処理は、本開示の技術に係る「第2出力処理」の一例である。また、SSL位置画像信号150は、本開示の技術に係る「第2種類判定信号に対応する信号」及び「判定結果信号」の一例である。
本実施形態において、曲線領域128A2に付される青色は、病変の種類がSSLであることを意味する色である。そのため、SSL位置画像信号150は、病変の種類がSSLであることを特定可能な信号として用いられる。
一例として図21に示すように、制御部64Eは、取得部64Cによって取得された内視鏡画像26、すなわち、図20に示す第1判定器80及び第2判定器82に入力された内視鏡画像26を第1画面22に表示する。また、制御部64Eは、SSL位置画像信号150(図20参照)を表示装置14に出力することで、SSL位置画像信号150により示されるSSL位置特定画像154を第2画面24に表示する。すなわち、第2画面24には、第1画面22に表示されている内視鏡画像26に写っている病変がSSLであることを示す情報としてSSL位置特定画像154が表示される。SSL位置特定画像154は、本開示の技術に係る「第2種類判定信号に対応する信号に基づく情報」及び「判定結果信号に基づく情報」の一例である。
一例として図22に示すように、HPスコア86がNPスコア88以上であり、かつ、SSLスコア92がHPスコア90未満である場合、制御部64Eは、第2判定器82の特徴量マップ128を利用してHP位置画像信号156を生成する。HPスコア86がNPスコア88以上であり、かつ、SSLスコア92がHPスコア90未満である場合とは、病変の種類がHPであると判定された場合を意味する。なお、この場合のHPスコア90は、本開示の技術に係る「判定結果信号」の一例である。
制御部64Eは、曲線領域128B2に対して彩色を施す。図22に示す例では、曲線領域128B2に対して白色が付されている。制御部64Eは、彩色が施された曲線領域128B2を有する特徴量マップ128を加工することで位置特定画像28を生成する。図22に示す例では、位置特定画像28としてHP位置特定画像160が示されている。HP位置特定画像160には、病変マーク28CとしてHPマーク158が適用されている。HPマーク158は、彩色が施された曲線領域128B2、すなわち、白色が付された曲線領域128B2である。
制御部64Eは、HP位置特定画像160を示す信号であるHP位置画像信号156を生成し、生成したHP位置画像信号156を特定の出力先(例えば、表示装置14等)に出力する。ここで、HP位置画像信号156を特定の出力先に出力する処理は、本開示の技術に係る「第2出力処理」の一例である。
本実施形態において、曲線領域128B2に付される白色は、病変の種類がHPであることを意味する色である。そのため、HP位置画像信号156は、病変の種類がHPであることを特定可能な信号として用いられる。
一例として図23に示すように、制御部64Eは、取得部64Cによって取得された内視鏡画像26、すなわち、図22に示す第1判定器80及び第2判定器82に入力された内視鏡画像26を第1画面22に表示する。また、制御部64Eは、HP位置画像信号156(図22参照)を表示装置14に出力することで、HP位置画像信号156により示されるHP位置特定画像160を第2画面24に表示する。すなわち、第2画面24には、第1画面22に表示されている内視鏡画像26に写っている病変がHPであることを示す情報としてHP位置特定画像160が表示される。HP位置特定画像160は、本開示の技術に係る「判定結果信号に基づく情報」の一例である。
一例として図24に示すように、HPスコア86がNPスコア88未満である場合、制御部64Eは、第1判定器80の特徴量マップ142を利用してNP位置画像信号162を生成する。HPスコア86がNPスコア88未満である場合とは、病変の種類がNPであると判定された場合を意味する。なお、この場合のNPスコア88は、本開示の技術に係る「判定結果信号」の一例である。
制御部64Eは、輪郭142A1の形状を曲線状に整形することで曲線領域142A2を生成し、生成した曲線領域142A2に対して彩色を施す。図24に示す例では、曲線領域142A2に対して青緑色が付されている。制御部64Eは、彩色が施された曲線領域142A2を有する特徴量マップ142を加工することで位置特定画像28を生成する。図24に示す例では、位置特定画像28としてNP位置特定画像166が示されている。NP位置特定画像166には、病変マーク28CとしてNPマーク164が適用されている。NPマーク164は、彩色が施された曲線領域142A2、すなわち、青緑色が付された曲線領域142A2である。
制御部64Eは、NP位置特定画像166を示す信号であるNP位置画像信号162を生成し、生成したNP位置画像信号162を特定の出力先(例えば、表示装置14等)に出力する。
本実施形態において、曲線領域144A2に付される青緑色は、病変の種類がNPであることを意味する色である。そのため、NP位置画像信号162は、病変の種類がNPであることを特定可能な信号として用いられる。
一例として図25に示すように、制御部64Eは、取得部64Cによって取得された内視鏡画像26、すなわち、図24に示す第1判定器80に入力された内視鏡画像26を第1画面22に表示する。また、制御部64Eは、NP位置画像信号162(図24参照)を表示装置14に出力することで、NP位置画像信号162により示されるNP位置特定画像166を第2画面24に表示する。すなわち、第2画面24には、第1画面22に表示されている内視鏡画像26に写っている病変がNPであることを示す情報としてNP位置特定画像166が表示される。
図21、図23、及び図25に示すように、制御部64Eは、第1判定処理の判定結果及び第2判定処理の判定結果に基づいて、SSL位置特定画像154、HP位置特定画像160、及びNP位置特定画像166が区別可能な表示態様で表示装置14に対して表示させる表示処理を行う。また、制御部64Eは、内視鏡画像26とSSL位置特定画像154とを対比可能に第1表示装置14に対して表示させる。また、制御部64Eは、内視鏡画像26とHP位置特定画像160とを対比可能に第1表示装置14に対して表示させる。また、制御部64Eは、内視鏡画像26とNP位置特定画像166とを対比可能に第1表示装置14に対して表示させる。
SSL位置特定画像154は、内視鏡画像26に写っている病変がSSLであることを示す画像であり、青色が付されたSSLマーク152から、内視鏡画像26に写っている病変がSSLであることと内視鏡画像26内でのSSLの位置とを医師16に対して視覚的に認識させる。HP位置特定画像160は、内視鏡画像26に写っている病変がHPであることを示す画像であり、白色が付されたHPマーク158から、内視鏡画像26に写っている病変がHPであることと内視鏡画像26内でのHPの位置とを医師16に対して視覚的に認識させる。NP位置特定画像166は、内視鏡画像26に写っている病変がNPであることを示す画像であり、青緑色が付されたNPマーク164から、内視鏡画像26に写っている病変がNPであることと内視鏡画像26内でのNPの位置とを医師16に対して視覚的に認識させる。
従って、本第2変形例に係る内視鏡システム10によれば、医師16は、第2画面24に表示される画像を通して、SSL位置画像信号150、HP位置画像信号156、及びNP位置画像信号162の何れが出力されたかを把握することで、病変の種類がSSLなのか、HPなのか、NPなのかを鑑別することができる。これにより、医師16によって病変の種類が誤鑑別されることを抑制することができる。例えば、HPであるか又はNPであるかを判定する判定器のみを用いる場合に比べ、医師16によって病変の種類が誤鑑別されることを抑制することができる。
また、本第2変形例に係る内視鏡システム10によれば、SSL位置特定画像154、HP位置特定画像160、及びNP位置特定画像166がフレーム毎(すなわち、内視鏡画像26毎)に区別可能な表示態様で表示装置14に表示されるので、病変の種類が判定された結果を画像として医師16に対して視覚的に把握させることができる。
なお、SSL位置画像信号150、HP位置画像信号156、及びNP位置画像信号162の出力は、上記実施形態で説明した腫瘍位置画像信号130、非腫瘍位置画像信号136、及び腫瘍位置画像信号144の出力と並行して行われるようにしてよい。例えば、この場合、表示装置14に対して、腫瘍位置特定画像134とSSL位置特定画像154とを対比可能に表示させたり、非腫瘍位置特定画像140とHP位置特定画像160とを対比可能に表示させたり、腫瘍位置特定画像148とNP位置特定画像166とを対比可能に表示させたりしてもよい。
また、SSLマーク152の大きさを既定の係数(例えば、特徴量マップ128の面積に対する内視鏡画像26の面積に対する割合等に基づく係数)を用いて調整してからSSLマーク152を内視鏡画像26内の対応する位置に重畳表示させるようにしてもよい。この場合、SSLマーク152の一部(例えば、輪郭)のみを重畳表示させるようにしてもよいし、内視鏡画像26とSSLマーク152とに対してαブレンドを行うようにしてもよい。なお、HPマーク158、NPマーク164、腫瘍マーク132、非腫瘍マーク138、及び/又は腫瘍マーク146についても同様のことが言える。
また、SSLマーク152、HPマーク158、NPマーク164、腫瘍マーク132、非腫瘍マーク138、及び腫瘍マーク146の各々に付される色は、上述した色に限定されず、互いに区別可能な色であれば何色であってもよい。また、SSLマーク152、HPマーク158、NPマーク164、腫瘍マーク132、非腫瘍マーク138、及び/又は腫瘍マーク146に模様を付したり、輪郭の表示態様(太さ、線種、輝度、及び/又は色)を変えたりすることによって、SSLマーク152、HPマーク158、NPマーク164、腫瘍マーク132、非腫瘍マーク138、及び腫瘍マーク146が区別されるようにしてもよい。
[第3変形例]
上記第2変形例では、ライブビュー方式で得られる複数の内視鏡画像26に対して1フレームずつ推論処理が実行されることによって1フレーム毎に病変の種類が判定される形態例を挙げて説明した。この場合、複数の内視鏡画像26に対して時系列で推論処理が実行されると、複数の内視鏡画像26のうちの1フレームのみについてSSL位置画像信号150が生成され、残りの内視鏡画像26についてはHP位置画像信号156が生成されることがある。
上記第2変形例では、ライブビュー方式で得られる複数の内視鏡画像26に対して1フレームずつ推論処理が実行されることによって1フレーム毎に病変の種類が判定される形態例を挙げて説明した。この場合、複数の内視鏡画像26に対して時系列で推論処理が実行されると、複数の内視鏡画像26のうちの1フレームのみについてSSL位置画像信号150が生成され、残りの内視鏡画像26についてはHP位置画像信号156が生成されることがある。
このような現象が生じる一因としては、内視鏡画像26の画質及び/又はニューラルネットワーク78に対する学習不足等によって第1判定器80及び/又は第2判定器82による判定精度が落ちることが考えられる。本来であれば、HP位置画像信号156ではなく、SSL位置画像信号150が生成されなければならないフレームについてHP位置画像信号156が生成されてしまうと、病変がSSLであるにも関わらず、医師16によってHPと鑑別されてしまう虞がある。
そこで、本第3変形例に係る内視鏡システム10では、一例として図26に示すように、制御部64Eが、判定部64Dによって誤判定された可能性があるフレームについての判定結果を修正する。この場合、先ず、制御部64Eは、複数のフレームについて、上記第2変形例で説明した要領で、SSL位置画像信号150、HP位置画像信号156、及びNP位置画像信号162(以下、これらを区別して説明する必要がない場合、符号を付さずに「位置画像信号」とも称する)を選択的に生成する。そして、制御部64Eは、位置画像信号を生成した順に時系列で位置画像信号を内視鏡画像26と共にFIFO方式で保持する。すなわち、制御部64Eは、新たな1フレームが追加される毎に最も古いフレームを位置画像信号と共に表示装置14に出力する。図26に示す例では、図示の都合上、1フレーム目から7フレーム目までの位置画像信号が内視鏡画像26と対応付けられた状態で保持されている。
図26に示す例では、1フレーム目~3フレーム目及び5フレーム目~7フレーム目について、HP位置画像信号156が生成されて保持されており、4フレーム目について、SSL位置画像信号150が生成されて保持されている。このように、4フレーム目について、SSL位置画像信号150が生成された場合、制御部64Eは、4フレーム目についてSSL位置画像信号150を、対応する内視鏡画像26と共に表示装置14に出力する。また、この場合、制御部64Eは、1フレーム目~3フレーム目及び5フレーム目~7フレーム目についてのHP位置画像信号156をSSL位置画像信号150に置き換えることで1フレーム目~3フレーム目及び5フレーム目~7フレーム目の位置画像信号をSSL位置画像信号150に揃える。そして、制御部64Eは、SSL位置画像信号150を、対応する内視鏡画像26と共に時系列で表示装置14に出力する。これにより、表示装置14には、1フレーム目~7フレーム目について、上記第2変形例と同様の要領で、内視鏡画像26及びSSL位置特定画像154が表示される。
また、制御部64Eは、SSL位置画像信号150を表示装置14に出力することで、第1画面22に「SSL」という文字を表示する。文字が表示される箇所は、第1画面22内ではなく、第2画面24内であってもよいし、他の表示装置の画面であってもよい。また、SSLという文字の表示と共に、又は、SSLという文字の表示に代えて、「SSL」という音声が出力されるようにしてもよい。図26に示す例では、「SSL」という文字が表示されたり音声が出力されたりする形態例が示されているが、NP及び/HPについても同様に文字が表示されたり音声が出力されたりするようにしてもよい。
なお、図26に示す例において、1フレーム目~7フレーム目は、本開示の技術に係る「複数のフレーム」の一例であり、4フレーム目は、本開示の技術に係る「第1フレーム」の一例であり、1フレーム目~3フレーム目及び5フレーム目~7フレーム目は、本開示の技術に係る「第1フレームから既定フレーム数の範囲内の第2フレーム」の一例である。
一例として図27に示すように、4フレーム目について、HP位置画像信号156が生成された場合、制御部64Eは、1フレーム目~7フレーム目について現時点で生成されている位置画像信号をそのまま時系列で内視鏡画像26と共に表示装置14に出力する。これにより、表示装置14には、上記第2変形例と同様の要領で、内視鏡画像26及びSSL位置特定画像154が表示される。すなわち、制御部64Eは、4フレーム目について病変の種類がHPであると判定された場合に、4フレーム目から既定フレーム数の範囲内のフレーム(図27に示す例では、1フレーム目~3フレーム目及び5フレーム目~7フレーム目)について、判定部64Dによる判定結果に対応する信号(すなわち、位置画像信号)を内視鏡画像26と共に表示装置14に出力する。
このように、本第3変形例に係る内視鏡システム10では、上記第2変形例と同様の要領で、フレーム毎に、第1判定処理の判定結果と第2判定処理の判定結果とに基づいて、病変の種類がSSLなのか、NPなのか、又はHPなのかが判定される。そして、複数のフレームのうちの第1フレーム(例えば、4フレーム目)についての病変の種類がSSLであると判定された場合に、病変の種類がSSLであると判定されたことを示す位置画像信号、すなわち、SSL位置画像信号150が表示装置14に出力される。また、複数のフレームのうち、第1フレームから既定フレーム数の範囲内の第2フレーム(例えば、1フレーム目~3フレーム目及び5フレーム目~7フレーム目)について病変の種類がSSLと異なる病変種であると判定された場合にSSL位置画像信号150が表示装置14に出力される。これにより、病変の種類がSSLであるにも関わらずSSL以外の病変種であると医師16によって誤鑑別されることを抑制することができる。例えば、第1フレームから既定フレーム数の範囲内の第2フレームについて病変の種類がSSLと異なる病変種であると判定された場合に常に判定結果通りの位置画像信号が出力される場合に比べ、病変の種類がSSLであるにも関わらずSSL以外の病変種であると医師16によって誤鑑別されることを抑制することができる。
また、本第3変形例に係る内視鏡システム10では、第1フレーム(例えば、4フレーム目)について病変の種類がHPであると判定された場合に、第1フレームから既定フレーム数の範囲内の第2フレーム(例えば、1フレーム目~3フレーム目及び5フレーム目~7フレーム目)について病変の種類に対する判定結果に対応する位置画像信号が出力される。これにより、医師16に対してフレーム毎に病変の種類を把握せることができる。また、HP及びSSLを含む複数の病変種がフレーム毎の判定対象とされているので、フレーム毎に病変の種類がHPなのか又はSSLなのかを医師16に把握させることができる。また、HPは非腫瘍カテゴリ124に分類され、SSL及びNPは腫瘍カテゴリ126に分類されるので、病変が非腫瘍カテゴリ124に分類されるのか又は腫瘍カテゴリ126に分類されるのかを医師16に把握させることができる。
なお、本第3変形例では、SSL位置画像信号150、HP位置画像信号156、及びNP位置画像信号162を例示したが、これは、あくまでも一例に過ぎない。例えば、SSL位置画像信号150、HP位置画像信号156、及びNP位置画像信号162に代えて、又は、SSL位置画像信号150、HP位置画像信号156、及びNP位置画像信号162と共に、腫瘍位置画像信号130、非腫瘍位置画像信号136、及び腫瘍位置画像信号144を用いてもよい。SSL位置画像信号150、HP位置画像信号156、及びNP位置画像信号162に代えて腫瘍位置画像信号130、非腫瘍位置画像信号136、及び腫瘍位置画像信号144を用いる場合、SSL位置画像信号150に代えて腫瘍位置画像信号130を適用し、HP位置画像信号156に代えて非腫瘍位置画像信号136を適用し、NP位置画像信号162に代えて腫瘍位置画像信号144を適用すればよい。この場合、腫瘍位置画像信号130は、本開示の技術に係る「第2種類判定信号に対応する信号」の一例であり、非腫瘍位置画像信号136及び腫瘍位置画像信号144の各々は、本開示の技術に係る「判定結果信号」の一例である。
[第4変形例]
上記第2変形例及び第3変形例では、SSL位置特定画像154、HP位置特定画像160、及びNP位置特定画像164が表示装置14に選択的に表示される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、図28に示すように、制御部64Eが、内視鏡画像26単位(すなわち、フレーム単位)でSSL位置画像信号150、HP位置画像信号156、及びNP位置画像信号162を区別可能にNVM68に保存する保存処理(以下、「第2保存処理」と称する)を行うようにしてもよい。
上記第2変形例及び第3変形例では、SSL位置特定画像154、HP位置特定画像160、及びNP位置特定画像164が表示装置14に選択的に表示される形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、図28に示すように、制御部64Eが、内視鏡画像26単位(すなわち、フレーム単位)でSSL位置画像信号150、HP位置画像信号156、及びNP位置画像信号162を区別可能にNVM68に保存する保存処理(以下、「第2保存処理」と称する)を行うようにしてもよい。
図28に示す例では、SSLが写っている内視鏡画像26とSSL位置画像信号150とが対応付けられた状態でNVM68に保存されている。また、図28に示す例では、SSLとは異なる腫瘍性の病変であるNPが写っている内視鏡画像26とNP位置特定画像164とが対応付けられた状態でNVM68に保存されている。また、図28に示す例では、HPが写っている内視鏡画像26とHP位置画像信号156とが対応付けられた状態でNVM68に保存されている。これにより、内視鏡画像26に写っている病変の種類が腫瘍なのか非腫瘍なのかをフレーム単位で医師16に把握させることができる。
なお、第2保存処理は、SSL位置特定画像154、HP位置特定画像160、及びNP位置特定画像164を表示装置14に対して選択的に表示させる処理と並行して行われるようにしてもよい。
また、第2保存処理が行われることによってSSL位置画像信号150、HP位置画像信号156、及びNP位置画像信号162が保存される先は、NVM68に限定されず、NVM68以外の記憶装置であってもよい。NVM68以外の記憶装置としては、例えば、内視鏡用処理装置52の外部に存在する記憶装置(例えば、サーバ及び/又はパーソナル・コンピュータ等で用いられるストレージ)が挙げられる。
[その他の変形例]
上記実施形態では、第1学習処理で用いられる教師データ96に含まれるHP学習用画像98Aとして、HP又はSSLが写っている内視鏡画像26を例示したが、本開示の技術はこれに限定されない。HP学習用画像98Aは、SSLが写っていないがHPが写っている内視鏡画像26であってもよい。
上記実施形態では、第1学習処理で用いられる教師データ96に含まれるHP学習用画像98Aとして、HP又はSSLが写っている内視鏡画像26を例示したが、本開示の技術はこれに限定されない。HP学習用画像98Aは、SSLが写っていないがHPが写っている内視鏡画像26であってもよい。
上記実施形態では、HP、SSL、及びNPが分類される形態例を挙げて説明したが、HP、SSL、NPの他に、HP以外の非腫瘍性ポリープ(例えば、過誤腫性ポリープ及び/又は炎症性ポリープ等)も分類されるようにしてもよい。この場合、例えば、HP以外の非腫瘍性ポリープが写っている内視鏡画像26も学習用画像としてニューラルネットワーク78に学習させ、HP以外の非腫瘍性ポリープに関するスコアがニューラルネットワーク78から出力されるようにしてもよい。HP以外の非腫瘍性ポリープに関するスコアは、第1判定器80から出力されるようにしてもよいし、第2判定器82から出力されるようにしてもよい。
上記実施形態では、第1判定器80と第2判定器82とを別々に学習させる形態例を挙げて説明したが、本開示の技術はこれに限定されず、第1判定器80と第2判定器82とをまとめて学習させてもよい。この場合、例えば、学習に用いる教師データに含まれる学習用画像の各々に対して対応付けられる正解データは、HPスコア100A、NPスコア100B、HPスコア112A、及びSSLスコア112Bを含む。例えば、HP学習用画像98Aに対応付けられる正解データでは、HPスコア100Aを“1.0”とし、残りのスコアを“0.0”とする。また、NP学習用画像98Bに対応付けられる正解データでは、NPスコア100Bを“1.0”とし、残りのスコアを“0.0”とする。また、HP学習用画像110Aに対応付けられる正解データでは、HPスコア112Aを“1.0”とし、残りノスコアを“0.0”とする。また、SSL学習用画像110Bに対応付けられる正解データでは、SSLスコア112Bを“1.0”とし、残りのスコアを“0.0”とする。
上記実施形態では、本開示の技術に係る「第1種類」及び「第1病変」の一例としてHPを挙げ、本開示の技術に係る「第2種類」及び「第2病変」の一例としてSSLを挙げたが、本開示の技術はこれに限定されない。例えば、SSL及びHP以外で類似している2つ病変であってもよい。類似している2つの病変としては、一般的に医師16による鑑別が困難とされている病変が挙げられる。
上記実施形態では、内視鏡画像26を用いた第1学習処理、第2学習処理、及び推論処理(以下、これらを区別して説明する必要がない場合、「本開示の技術に係る処理」と称する)を例示したが、これは、あくまでも一例に過ぎず、内視鏡画像26に代えて、超音波診断装置、X線診断装置、CT診断装置、及び/又はMRI診断装置等の各種モダリティによって被検者20の観察対象領域が撮像されることで得られた医療画像を用いて本開示の技術に係る処理が行われるようにしてもよい。なお、各種モダリティによって被検者20の観察対象領域が撮像されることで得られた医療画像は、本開示の技術に係る「医療画像」の一例であり、各種モダリティは、本開示の技術に係る「撮像装置」の一例である。
上記実施形態では、1フレーム毎に推論処理が行われるようにしたが、本開示の技術はこれに限定されない。例えば、既定フレーム数毎(例えば、数フレーム毎又は数十フレーム毎)に推論処理が行われるようにしてもよい。この場合、推論処理を行う回数が減るので、1フレーム毎に推論処理が行われる場合に比べ、プロセッサ64にかかる負荷を軽減することができる。また、このように既定フレーム数毎に推論処理が行われる場合、第2画面24に表示される位置特定画像28の表示態様(例えば、腫瘍マーク132等)が残像現象により視覚的に知覚されるフレーム間隔で推論処理が行われるようにしてもよい。
上記実施形態では、特徴量マップ128等に基づいて生成された位置特定画像28が第2画面24に表示される形態例を挙げたが、これは、あくまでも一例に過ぎず、ニューラルネットワーク68から得られる複数の特徴量マップに基づいてCAM画像が生成されて第2画面24に表示されるようにしてもよい。
上記実施形態では、第1画面22に内視鏡画像26が表示され、第2画面24に位置特定画像28が表示される形態例を挙げて説明したが、これは、あくまでも一例に過ぎず、内視鏡画像26及び位置特定画像28が異なる表示装置に表示されてもよい。また、受付装置56によって受け付けられた指示及び/又は各種条件等に応じて表示装置14に第1画面22と第2画面24とが交互に表示されるようにしてもよい。また、受付装置56によって受け付けられた指示及び/又は各種条件等に応じて内視鏡画像26及び位置特定画像28が選択的に全画面で表示されるようにしてもよい。
上記実施形態では、プロセッサ64が表示装置14に対して直接的に働きかけることで表示装置14に対して内視鏡画像26及び位置特定画像28を表示させるようにしたが、これは、あくまでも一例に過ぎない。例えば、プロセッサ64が表示装置14に対して間接的に働きかけることで表示装置14に対して内視鏡画像26及び位置特定画像28を表示させるようにしてもよい。例えば、この場合、表示装置14に対して表示させる画面(例えば、第1画面22及び第2画面24)を示す画面情報を外部ストレージ(図示省略)に一旦格納する。そして、プロセッサ64又はプロセッサ64以外のプロセッサが外部ストレージから画面情報を取得し、取得した画面情報に基づいて、表示装置14又は表示装置14以外の表示装置に対して第1画面22及び第2画面24を表示させるようにする。この場合の具体例としては、プロセッサ64がクラウドコンピューティングを利用して表示装置14又は表示装置14以外の表示装置に対して第1画面22及び第2画面24を表示させる形態例が挙げられる。
上記実施形態では、内視鏡用処理装置52のプロセッサ64によって本開示の技術に係る処理が行われる形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、本開示の技術に係る処理を行うデバイスは、内視鏡用処理装置52の外部に設けられていてもよい。内視鏡用処理装置52の外部に設けられるデバイスの一例としては、サーバが挙げられる。例えば、サーバは、クラウドコンピューティングによって実現される。ここでは、クラウドコンピューティングを例示しているが、これは、あくまでも一例に過ぎず、例えば、サーバは、メインフレームによって実現されてもよいし、フォグコンピューティング、エッジコンピューティング、又はグリッドコンピューティング等のネットワークコンピューティングによって実現されてもよい。サーバは、あくまでも一例に過ぎず、サーバに代えて、少なくとも1台のパーソナル・コンピュータ等であってもよい。また、本開示の技術に係る処理は、内視鏡用処理装置52と内視鏡用処理装置52の外部に設けられる少なくとも1つのデバイスとを含む複数のデバイスによって分散して行われるようにしてもよい。
また、上記実施形態では、NVM68に第1学習処理プログラム72、第2学習処理プログラム74、及び推論処理プログラム76(以下、これらを「本開示の技術に係るプログラム」と称する)が記憶されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、本開示の技術に係るプログラムはSSD又はUSBメモリなどの可搬型の記憶媒体に記憶されていてもよい。記憶媒体は、非一時的なコンピュータ読取可能な記憶媒体である。記憶媒体に記憶されている本開示の技術に係るプログラムは、内視鏡用処理装置52のコンピュータ60にインストールされる。プロセッサ64は、本開示の技術に係るプログラムに従って本開示の技術に係る処理を実行する。
上記実施形態では、コンピュータ60が例示されているが、本開示の技術はこれに限定されず、コンピュータ60に代えて、ASIC、FPGA、及び/又はPLDを含むデバイスを適用してもよい。また、コンピュータ60に代えて、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
上記実施形態で説明した本開示の技術に係る処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、ソフトウェア、すなわち、プログラムを実行することで、本開示の技術に係る処理を実行するハードウェア資源として機能する汎用的なプロセッサであるプロセッサが挙げられる。また、プロセッサとしては、例えば、FPGA、PLD、又はASICなどの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電子回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することで本開示の技術に係る処理を実行する。
本開示の技術に係る処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はプロセッサとFPGAとの組み合わせ)で構成されてもよい。また、本開示の技術に係る処理を実行するハードウェア資源は1つのプロセッサであってもよい。
1つのプロセッサで構成する例としては、第1に、1つ以上のプロセッサとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、本開示の技術に係る処理を実行するハードウェア資源として機能する形態がある。第2に、SoCなどに代表されるように、本開示の技術に係る処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、本開示の技術に係る処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電子回路を用いることができる。また、上記の本開示の技術に係る処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
10 内視鏡システム
12 内視鏡装置
14 表示装置
16 医師
17 看護師
18 内視鏡
20 被検者
22 第1画面
24 第2画面
26 内視鏡画像
26A 部位領域
26B 病変領域
26B1 HP領域
26B2 NP領域
26B3 SSL領域
28 位置特定画像
28A 外枠
28B ターゲットマーク
28C 病変マーク
30 操作部
32 挿入部
34 先端部
36 湾曲部
37 軟性部
38 照明装置
38A,38B 照明窓
40 内視鏡スコープ
42 処置具用開口
44 処置具
46 処置具挿入口
48 穿刺針
50 ユニバーサルコード
50A 基端部
50B 第1先端部
50C 第2先端部
52 内視鏡用処理装置
54 光源装置
56 受付装置
58 大腸
58A 内壁
60 コンピュータ
62 入出力インタフェース
64 プロセッサ
64A 第1学習実行部
64B 第2学習実行部
64C 取得部
64D 判定部
64E 制御部
66 RAM
68 NVM
70 バス
72 第1学習処理プログラム
74 第2学習処理プログラム
76 推論処理プログラム
78 ニューラルネットワーク
80 第1判定器
82 第2判定器
84A 入力層
84B 第1畳み込み層
84C 第2畳み込み層
84D 第3畳み込み層
84E 第4畳み込み層
84F 第5畳み込み層
84G,84K GAP層
84H,84L 全結合層
84I,84M 出力層
84I1,84M1 ソフトマックス関数
84J 第6畳み込み層
86,90,100A HPスコア
88,100B NPスコア
92 SSLスコア
94 データ供給装置
96,108 教師データ
98,110 学習用画像
98A,110A HP学習用画像
98B NP学習用画像
100,112 正解データ
102,114 HPスコア誤差
104 NPスコア誤差
106,118 調整値
110B SSL学習用画像
112A HPスコア
112B SSLスコア
116 SSLスコア誤差
120 第1グループ
122 第2グループ
124 非腫瘍カテゴリ
126 腫瘍カテゴリ
128,142 特徴量マップ
128A,128B,142A 高反応領域
128A1,128B1,142A1 輪郭
128A2,128B2,142A2 曲線領域
130,144 腫瘍位置画像信号
132,146 腫瘍マーク
134,148 腫瘍位置特定画像
136 非腫瘍位置画像信号
138 非腫瘍マーク
140 非腫瘍位置特定画像
150 SSL位置画像信号
152 SSLマーク
154 SSL位置特定画像
156 HP位置画像信号
158 HPマーク
160 HP位置特定画像
162 NP位置画像信号
164 NPマーク
166 NP位置特定画像
12 内視鏡装置
14 表示装置
16 医師
17 看護師
18 内視鏡
20 被検者
22 第1画面
24 第2画面
26 内視鏡画像
26A 部位領域
26B 病変領域
26B1 HP領域
26B2 NP領域
26B3 SSL領域
28 位置特定画像
28A 外枠
28B ターゲットマーク
28C 病変マーク
30 操作部
32 挿入部
34 先端部
36 湾曲部
37 軟性部
38 照明装置
38A,38B 照明窓
40 内視鏡スコープ
42 処置具用開口
44 処置具
46 処置具挿入口
48 穿刺針
50 ユニバーサルコード
50A 基端部
50B 第1先端部
50C 第2先端部
52 内視鏡用処理装置
54 光源装置
56 受付装置
58 大腸
58A 内壁
60 コンピュータ
62 入出力インタフェース
64 プロセッサ
64A 第1学習実行部
64B 第2学習実行部
64C 取得部
64D 判定部
64E 制御部
66 RAM
68 NVM
70 バス
72 第1学習処理プログラム
74 第2学習処理プログラム
76 推論処理プログラム
78 ニューラルネットワーク
80 第1判定器
82 第2判定器
84A 入力層
84B 第1畳み込み層
84C 第2畳み込み層
84D 第3畳み込み層
84E 第4畳み込み層
84F 第5畳み込み層
84G,84K GAP層
84H,84L 全結合層
84I,84M 出力層
84I1,84M1 ソフトマックス関数
84J 第6畳み込み層
86,90,100A HPスコア
88,100B NPスコア
92 SSLスコア
94 データ供給装置
96,108 教師データ
98,110 学習用画像
98A,110A HP学習用画像
98B NP学習用画像
100,112 正解データ
102,114 HPスコア誤差
104 NPスコア誤差
106,118 調整値
110B SSL学習用画像
112A HPスコア
112B SSLスコア
116 SSLスコア誤差
120 第1グループ
122 第2グループ
124 非腫瘍カテゴリ
126 腫瘍カテゴリ
128,142 特徴量マップ
128A,128B,142A 高反応領域
128A1,128B1,142A1 輪郭
128A2,128B2,142A2 曲線領域
130,144 腫瘍位置画像信号
132,146 腫瘍マーク
134,148 腫瘍位置特定画像
136 非腫瘍位置画像信号
138 非腫瘍マーク
140 非腫瘍位置特定画像
150 SSL位置画像信号
152 SSLマーク
154 SSL位置特定画像
156 HP位置画像信号
158 HPマーク
160 HP位置特定画像
162 NP位置画像信号
164 NPマーク
166 NP位置特定画像
Claims (21)
- プロセッサを備え、
前記プロセッサは、
病変を示す病変領域を含む医療画像を取得し、
判定器が前記医療画像に基づいて前記病変の種類を判定する判定処理を行い、
前記判定器は、第1判定器と第2判定器と、を含み、
前記判定処理は、前記第1判定器による第1判定処理と前記第2判定器による第2判定処理と、を含み、
前記第1判定処理は、第1カテゴリに分類される第1種類と第2カテゴリに分類される第2種類とを含む第1グループに前記種類が属するか、又は、前記第2カテゴリに分類される第3種類を含む第2グループに前記種類が属するかを判定する処理であり、
前記第2判定処理は、前記種類が前記第1種類であるか、又は、前記種類が前記第2種類であるかを判定する処理であり、
前記プロセッサは、前記第1判定処理の判定結果と前記第2判定処理の判定結果とに基づいて、前記種類が前記第1カテゴリに分類されるか、又は、前記種類が前記第2カテゴリに分類されるかを特定可能な第1信号を出力する第1出力処理、及び、前記第1判定処理の判定結果及び前記第2判定処理の判定結果に基づいて、前記種類が前記第1種類であるか、又は、前記種類が前記第2種類であるかを特定可能な第2信号を出力する第2出力処理のうちの少なくとも一方を行う
画像処理装置。 - 前記プロセッサは、前記第1判定処理によって前記第1グループに前記種類が属すると判定され、かつ、前記第2判定処理によって前記種類が前記第2種類であると判定された場合に、前記第1信号として、前記種類が前記第2カテゴリに分類されることを特定可能な第2カテゴリ信号を出力する
請求項1に記載の画像処理装置。 - 前記プロセッサは、前記第1判定処理によって前記第1グループに前記種類が属すると判定され、かつ、前記第2判定処理によって前記種類が前記第1種類であると判定された場合に、前記第1信号として、前記種類が前記第1カテゴリに分類されることを特定可能な第1カテゴリ信号を出力する
請求項1又は請求項2に記載の画像処理装置。 - 前記プロセッサは、前記第1判定処理の判定結果と前記第2判定処理の判定結果とに基づいて、前記種類が前記第1カテゴリに分類されることを示す第1カテゴリ情報と、前記種類が前記第2カテゴリに分類されることを示す第2カテゴリ情報とを区別可能な表示態様で表示装置に対して表示させる表示処理、及び、前記第1判定処理の判定結果と前記第2判定処理の判定結果とに基づいて、前記第1カテゴリ情報と前記第2カテゴリ情報とを前記医療画像単位で区別可能に保存する保存処理のうちの少なくとも一方を行う
請求項1から請求項3の何れか一項に記載の画像処理装置。 - 前記表示態様は、前記医療画像と前記第1カテゴリ情報とを対比可能に前記表示装置に対して表示させる第1態様と、前記医療画像と前記第2カテゴリ情報とを対比可能に前記表示装置に対して表示させる第2態様と、を含む
請求項4に記載の画像処理装置。 - 前記第1カテゴリ情報及び前記第2カテゴリ情報のうちの少なくとも1つは前記判定器から得られる特徴量マップに基づく情報である
請求項4又は請求項5に記載の画像処理装置。 - 前記第2判定処理は、前記第1判定器の中間特徴量を利用した処理である
請求項1から請求項6の何れか一項に記載の画像処理装置。 - 前記判定器は、ニューラルネットワークであり、
前記第1判定器及び前記第2判定器は、入力層以降の複数の層を共用している
請求項1から請求項7の何れか一項に記載の画像処理装置。 - 前記第1判定器は、前記第1種類に対応する第1病変が写っている第1病変画像と、前記第2種類に対応する第2病変が写っている第2病変画像とを前記第1グループに対応する画像として学習させ、前記第3種類に対応する第3病変が写っている第3病変画像を前記第2グループに対応する画像として学習させたモデルである
請求項1から請求項8の何れか一項に記載の画像処理装置。 - 前記プロセッサは、
複数のフレームにわたって前記医療画像を時系列で取得し、
前記フレーム毎に、前記第1判定処理の判定結果と前記第2判定処理の判定結果とに基づいて、前記種類が前記第1種類及び前記第2種類を含む複数の病変種の何れであるかを判定し、
前記複数のフレームのうちの第1フレームについての前記種類が前記第2種類であると判定された場合に前記種類が前記第2種類であると判定されたことを示す第2種類判定信号に対応する信号を出力し、
前記複数のフレームのうち、前記第1フレームから既定フレーム数の範囲内の第2フレームについて前記種類が前記第2種類と異なる前記病変種であると判定された場合に前記第2種類判定信号に対応する信号を出力する
請求項1から請求項9の何れか一項に記載の画像処理装置。 - 前記第1カテゴリは、非腫瘍性を示すカテゴリであり、
前記第2カテゴリは、腫瘍性を示すカテゴリである
請求項1から請求項10の何れか一項に記載の画像処理装置。 - 前記第1種類は、非腫瘍性の病変である
請求項1から請求項11の何れか一項に記載の画像処理装置。 - 前記第2種類は、鋸歯状病変である
請求項1から請求項12の何れか一項に記載の画像処理装置。 - 前記第3種類は、鋸歯状病変とは異なる腫瘍性の病変である
請求項1から請求項13の何れか一項に記載の画像処理装置。 - 病変を示す病変領域を含む医療画像を取得すること、及び
判定器が前記医療画像に基づいて前記病変の種類を判定する判定処理を行うことを備え、
前記判定器は、第1判定器と第2判定器と、を含み、
前記判定処理は、前記第1判定器による第1判定処理と前記第2判定器による第2判定処理と、を含み、
前記第1判定処理は、第1カテゴリに分類される第1種類と第2カテゴリに分類される第2種類とを含む第1グループに前記種類が属するか、又は、前記第2カテゴリに分類される第3種類を含む第2グループに前記種類が属するかを判定する処理であり、
前記第2判定処理は、前記種類が前記第1種類であるか、又は、前記種類が前記第2種類であるかを判定する処理であり、
前記第1判定処理の判定結果と前記第2判定処理の判定結果とに基づいて、前記種類が前記第1カテゴリに分類されるか、又は、前記種類が前記第2カテゴリに分類されるかを特定可能な第1信号を出力する第1出力処理、及び、前記第1判定処理の判定結果及び前記第2判定処理の判定結果に基づいて、前記種類が前記第1種類であるか、又は、前記種類が前記第2種類であるかを特定可能な第2信号を出力する第2出力処理のうちの少なくとも一方を行うことを備える
画像処理方法。 - プロセッサを備え、
前記プロセッサは、
病変を示す病変領域を含む医療画像を複数のフレームにわたって時系列で取得し、
前記フレーム毎に、前記医療画像に基づいて前記病変の種類を第1種類及び第2種類を含む複数の病変種の何れであるかを判定し、
前記複数のフレームのうちの第1フレームについて前記種類が前記第2種類であると判定された場合に、前記複数のフレームのうち、前記第1フレームから既定フレーム数の範囲内の第2フレームについて前記種類が前記第2種類であると判定されたことを示す第2種類判定信号に対応する信号を出力し、
前記第1フレームについて前記種類が前記第1種類であると判定された場合に、前記第2フレームについて前記種類に対する判定結果に対応する判定結果信号を出力する
画像処理装置。 - 前記第1種類が属するカテゴリは、非腫瘍性を示すカテゴリであり、
前記第2種類が属するカテゴリは、腫瘍性を示すカテゴリである
請求項16に記載の画像処理装置。 - 前記第1種類は、非腫瘍性を示す種類であり、
前記第2種類は、鋸歯状病変を示す種類である
請求項16又は請求項17に記載の画像処理装置。 - 前記プロセッサは、前記第2種類判定信号に対応する信号に基づく情報及び前記判定結果信号に基づく情報を前記フレーム単位で表示装置に対して表示させる表示処理、及び、前記第2種類判定信号に対応する信号に基づく情報及び前記判定結果信号に基づく情報を前記フレーム単位で保存する保存処理のうちの少なくとも一方を行う
請求項16から請求項18の何れか一項に記載の画像処理装置。 - 請求項1から請求項14及び請求項16~請求項19の何れか一項に記載の画像処理装置と、
被検体の観察対象領域を撮像することで前記観察対象領域を示す画像を前記医療画像として取得する撮像装置と、
を備える医療診断装置。 - 請求項1から請求項14及び請求項16~請求項19の何れか一項に記載の画像処理装置と、
体内に挿入されて前記体内の観察対象領域を撮像することで前記観察対象領域を示す画像を前記医療画像として取得する内視鏡と、
を備える内視鏡装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022050634A JP2023143318A (ja) | 2022-03-25 | 2022-03-25 | 画像処理装置、医療診断装置、内視鏡装置、及び画像処理方法 |
US18/167,029 US20230306592A1 (en) | 2022-03-25 | 2023-02-09 | Image processing device, medical diagnosis device, endoscope device, and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022050634A JP2023143318A (ja) | 2022-03-25 | 2022-03-25 | 画像処理装置、医療診断装置、内視鏡装置、及び画像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023143318A true JP2023143318A (ja) | 2023-10-06 |
Family
ID=88096176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022050634A Pending JP2023143318A (ja) | 2022-03-25 | 2022-03-25 | 画像処理装置、医療診断装置、内視鏡装置、及び画像処理方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230306592A1 (ja) |
JP (1) | JP2023143318A (ja) |
-
2022
- 2022-03-25 JP JP2022050634A patent/JP2023143318A/ja active Pending
-
2023
- 2023-02-09 US US18/167,029 patent/US20230306592A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230306592A1 (en) | 2023-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8055033B2 (en) | Medical image processing apparatus, luminal image processing apparatus, luminal image processing method, and programs for the same | |
US11918176B2 (en) | Medical image processing apparatus, processor device, endoscope system, medical image processing method, and program | |
WO2023103467A1 (zh) | 图像处理方法、装置及设备 | |
JP5276225B2 (ja) | 医用画像処理装置及び医用画像処理装置の作動方法 | |
JPWO2018159363A1 (ja) | 内視鏡システム及びその作動方法 | |
JPWO2018105063A1 (ja) | 画像処理装置 | |
JP7143504B2 (ja) | 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法及びプログラム | |
WO2020162275A1 (ja) | 医療画像処理装置、内視鏡システム、及び医療画像処理方法 | |
JP7387859B2 (ja) | 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法及びプログラム | |
EP4091532A1 (en) | Medical image processing device, endoscope system, diagnosis assistance method, and program | |
JPWO2011129176A1 (ja) | 医用画像処理装置および医用画像処理装置の制御方法 | |
JPWO2012153568A1 (ja) | 医用画像処理装置 | |
WO2020170809A1 (ja) | 医療画像処理装置、内視鏡システム、及び医療画像処理方法 | |
WO2022054400A1 (ja) | 画像処理システム、プロセッサ装置、内視鏡システム、画像処理方法及びプログラム | |
JP2011200283A (ja) | 制御装置、内視鏡システム、プログラム及び制御方法 | |
WO2019087969A1 (ja) | 内視鏡システム、報知方法、及びプログラム | |
WO2022186109A1 (ja) | 医療画像処理装置、内視鏡システム、医療画像処理方法、及び医療画像処理プログラム | |
JP2023143318A (ja) | 画像処理装置、医療診断装置、内視鏡装置、及び画像処理方法 | |
WO2022202401A1 (ja) | 医療画像処理装置、内視鏡システム、医療画像処理方法、及び医療画像処理プログラム | |
CN114786558A (zh) | 医学图像生成装置、医学图像生成方法和医学图像生成程序 | |
WO2024185468A1 (ja) | 医療支援装置、内視鏡システム、医療支援方法、及びプログラム | |
WO2023188903A1 (ja) | 画像処理装置、医療診断装置、超音波内視鏡装置、画像処理方法、及びプログラム | |
WO2024166731A1 (ja) | 画像処理装置、内視鏡、画像処理方法、及びプログラム | |
WO2024202789A1 (ja) | 医療支援装置、内視鏡システム、医療支援方法、及びプログラム | |
WO2024048098A1 (ja) | 医療支援装置、内視鏡、医療支援方法、及びプログラム |