WO2022029824A1 - 診断支援システム、診断支援方法及び診断支援プログラム - Google Patents
診断支援システム、診断支援方法及び診断支援プログラム Download PDFInfo
- Publication number
- WO2022029824A1 WO2022029824A1 PCT/JP2020/029636 JP2020029636W WO2022029824A1 WO 2022029824 A1 WO2022029824 A1 WO 2022029824A1 JP 2020029636 W JP2020029636 W JP 2020029636W WO 2022029824 A1 WO2022029824 A1 WO 2022029824A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- classifier
- candidates
- support system
- user
- performance information
- Prior art date
Links
- 238000003745 diagnosis Methods 0.000 title claims abstract description 31
- 238000000034 method Methods 0.000 title claims description 103
- 238000001514 detection method Methods 0.000 claims abstract description 176
- 238000012545 processing Methods 0.000 claims abstract description 77
- 230000010365 information processing Effects 0.000 claims abstract description 50
- 230000003902 lesion Effects 0.000 claims description 174
- 230000008569 process Effects 0.000 claims description 69
- 230000035945 sensitivity Effects 0.000 claims description 59
- 238000012360 testing method Methods 0.000 claims description 25
- 238000010801 machine learning Methods 0.000 claims description 16
- 238000003384 imaging method Methods 0.000 claims description 13
- 230000000994 depressogenic effect Effects 0.000 claims description 10
- 238000007689 inspection Methods 0.000 claims description 4
- 230000000052 comparative effect Effects 0.000 claims description 3
- 238000003672 processing method Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 description 24
- 238000007781 pre-processing Methods 0.000 description 22
- 238000012805 post-processing Methods 0.000 description 19
- 238000003780 insertion Methods 0.000 description 17
- 230000037431 insertion Effects 0.000 description 17
- 230000006870 function Effects 0.000 description 16
- 230000004048 modification Effects 0.000 description 15
- 238000012986 modification Methods 0.000 description 15
- 238000013528 artificial neural network Methods 0.000 description 14
- 238000004422 calculation algorithm Methods 0.000 description 13
- 238000013527 convolutional neural network Methods 0.000 description 13
- 238000011156 evaluation Methods 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 8
- 206010028980 Neoplasm Diseases 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 7
- 201000011510 cancer Diseases 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000005286 illumination Methods 0.000 description 6
- 230000036210 malignancy Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 5
- 230000010354 integration Effects 0.000 description 5
- 238000011176 pooling Methods 0.000 description 5
- 235000019640 taste Nutrition 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 238000010827 pathological analysis Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000011895 specific detection Methods 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 230000008685 targeting Effects 0.000 description 2
- 238000009966 trimming Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 208000005718 Stomach Neoplasms Diseases 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 206010017758 gastric cancer Diseases 0.000 description 1
- 230000002496 gastric effect Effects 0.000 description 1
- 230000003903 intestinal lesions Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 201000011549 stomach cancer Diseases 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000094—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000095—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000096—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/0005—Display arrangement combining images e.g. side-by-side, superimposed or tiled
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/945—User interactive design; Environments; Toolboxes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/05—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/07—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
- G06T2207/30032—Colon polyp
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Abstract
診断支援システム(100)は、入力画像から注目領域を検出するときの検出結果が互いに異なる複数の識別器候補に基づいて、複数の検出結果を出力可能な識別部(110)と、複数の識別器候補の性能に関する情報である性能情報を表示する処理を行う性能情報処理部(120)と、複数の識別器候補のうちの少なくとも1つを出力対象の識別器として選択するユーザ選択を受け付けるユーザ選択受付部(130)を含み、識別部(110)は、ユーザ選択によって選択された識別器の検出結果を出力する。
Description
本発明は、診断支援システム、診断支援方法及び診断支援プログラム等に関する。
近年、内視鏡を用いて撮像された動画像に対して、病変候補の位置を示したり鑑別情報を表示する診断支援手法(CAD:Computer Aided Detection/Diagnosis)が知られている。例えば特許文献1には、ユーザが持っている画像を用いて新たな識別器の学習を行い、当該識別器がリファレンス識別器に比べて性能が向上した場合に、識別器を変更する手法が開示されている。また特許文献2には、画像処理ソフトウェアの更新前後の画像を比較するシステムが開示されている。
特許文献1の手法では、識別器の変更は可能かもしれないが、その効果を確認することはできない。そのため、更新後の出力がユーザの望んだ結果にならないおそれがある。また特許文献2は、更新前後の画像を比較するものであって、識別器の性能を比較する手法を開示していない。
本開示の一態様は、入力画像から注目領域を検出するときの検出結果が互いに異なる複数の識別器候補に基づいて、複数の前記検出結果を出力可能な識別部と、前記複数の識別器候補の性能に関する情報である性能情報を表示する処理を行う性能情報処理部と、ユーザによるユーザ選択を受け付けるユーザ選択受付部と、を含み、前記ユーザ選択受付部は、前記複数の識別器候補のうちの少なくとも1つを出力対象の識別器として選択する前記ユーザ選択を受け付け、前記識別部は、前記ユーザ選択によって選択された前記識別器の前記検出結果を出力する診断支援システムに関係する。
本開示の他の態様は、入力画像から注目領域を検出するときの検出結果が互いに異なる複数の識別器候補の性能に関する情報である性能情報を取得することと、取得した前記性能情報をユーザに提示することと、前記複数の識別器候補のうちの少なくとも1つを出力対象の識別器として選択するユーザ選択を受け付けることと、前記ユーザ選択によって選択された前記識別器の前記検出結果を出力することと、を含む診断支援方法に関係する。
本開示のさらに他の態様は、入力画像から注目領域を検出するときの検出結果が互いに異なる複数の識別器候補の性能に関する情報である性能情報を取得することと、取得した前記性能情報をユーザに提示することと、前記複数の識別器候補のうちの少なくとも1つを出力対象の識別器として選択するユーザ選択を受け付けることと、前記ユーザ選択によって選択された前記識別器の前記検出結果を出力することと、をコンピュータに実行させる診断支援プログラムに関係する。
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、請求の範囲に記載された内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本開示の必須構成要件であるとは限らない。
1.システム構成例
従来、CADにおいて、病変の検出感度を変更する手法や、臓器ごとに処理を変更する手法は知られている。例えば、学習済モデルの出力である信頼度が所与の閾値以上であることを条件に病変を検出したと判定する場合、閾値を変更することによって検出感度を変更できる。例えば、熟練医を対象とする場合、検出感度を下げることによって病変が検出されにくくなるため、必要性の低い報知を抑制できる。また修練中の医師を対象とする場合、検出感度を上げることによって病変が検出されやすくなるため、病変の見逃しを抑制できる。ただし、どのような病変について報知を希望するかは、ユーザの嗜好が大きく関係する。また、閾値を変更した場合に、検出結果がどのように変化するかを事前に把握することは難しい。そのため、ユーザの嗜好を反映した感度設定は容易でなかった。
従来、CADにおいて、病変の検出感度を変更する手法や、臓器ごとに処理を変更する手法は知られている。例えば、学習済モデルの出力である信頼度が所与の閾値以上であることを条件に病変を検出したと判定する場合、閾値を変更することによって検出感度を変更できる。例えば、熟練医を対象とする場合、検出感度を下げることによって病変が検出されにくくなるため、必要性の低い報知を抑制できる。また修練中の医師を対象とする場合、検出感度を上げることによって病変が検出されやすくなるため、病変の見逃しを抑制できる。ただし、どのような病変について報知を希望するかは、ユーザの嗜好が大きく関係する。また、閾値を変更した場合に、検出結果がどのように変化するかを事前に把握することは難しい。そのため、ユーザの嗜好を反映した感度設定は容易でなかった。
また臓器ごとに学習済モデルを生成する場合、胃の病変検出に適した学習済モデルや、腸の病変検出に適した学習済モデルが生成される。観察対象となる臓器に応じて使用する学習済モデルを切り替えることによって、検出精度の向上が期待される。ただし、部位に応じて学習済モデルを切り替えるだけでは、ユーザの嗜好を十分に反映することはできない。同じ部位を観察する場合であっても、どのような病変について報知を希望するかはユーザに応じて異なるためである。
特許文献1の手法は、複数の識別器の性能比較を行うことによって、識別器を更新するか否かを判定する。しかし性能が向上したか否かの判定にユーザの嗜好が反映されない。また、更新の前後で検出結果が具体的にどのように変化するかをユーザが把握できない。特許文献2の手法は、画像処理ソフトウェアの更新前後の画像を表示する。特許文献2は、処理結果である複数の画像を同時に表示するものであって、画像から注目領域の検出を行う識別器について一切開示がない。ましてや、識別器の性能に関する表示を行う手法は開示されていない。
図1は、本実施形態の診断支援システム100の構成を示す図である。診断支援システム100は、識別部110と、性能情報処理部120と、ユーザ選択受付部130を含む。ただし、診断支援システム100の構成は図1に限定されず、一部の構成を省略したり、他の構成を追加する等の種々の変形実施が可能である。例えば、診断支援システム100は、図2を用いて後述する処理装置330の構成を含んでもよいし、図6を用いて後述する学習部210を含んでもよい。
識別部110は、入力画像から注目領域を検出するときの検出結果が互いに異なる複数の識別器候補に基づいて、複数の検出結果を出力可能である。本実施形態における入力画像とは、具体的には生体を撮像した生体画像である。また本実施形態における注目領域とは、ユーザにとって観察の優先順位が他の領域よりも相対的に高い領域である。ユーザが診断や治療を行う医者である場合、注目領域は、例えば病変部を写した領域に対応する。ただし、医者が観察したいと欲した対象が泡や残渣であれば、注目領域は、その泡部分や残渣部分を写した領域であってもよい。即ち、ユーザが注目すべき対象は観察目的によって異なるが、その観察に際し、ユーザにとって観察の優先順位が他の領域よりも相対的に高い領域が注目領域となる。以下では、注目領域が病変に対応する領域である例について説明する。
また、ここでの複数の識別器候補とは、例えば、診断支援システム100が取得可能な互いに異なる複数の学習済モデルである。複数の学習済モデルは、診断支援システム100の不図示の記憶部に記憶されてもよいし、不図示の通信部を用いて外部装置から取得されてもよい。識別部110は、複数の学習済モデルのうちのいずれに従って動作するかを切り替えることによって、出力である検出結果を切り替え可能である。なお、図9や図10を用いて後述するように、識別部110が複数の検出結果を同時に出力することは妨げられない。また図8を用いて後述するように、識別器候補は学習済モデル単体に限定されず、前処理及び後処理の少なくとも一方の処理と、学習済モデルとの組み合わせであってもよい。
性能情報処理部120は、複数の識別器候補の性能に関する情報である性能情報を表示する処理を行う。例えば性能情報処理部120は、表示制御を行うプロセッサであって、表示画像を生成する処理と、当該表示画像を表示部に表示させる制御を行う。性能情報を表示する画面の詳細については図9~図14を用いて後述する。なお、性能情報処理部120は、性能情報を生成する処理を行ってもよいし、外部装置において生成された性能情報を取得する処理を行ってもよい。
ユーザ選択受付部130は、ユーザによる選択操作を、ユーザ選択として受け付ける。具体的には、ユーザ選択受付部130は、複数の識別器候補のうちの少なくとも1つを出力対象の識別器として選択するユーザ選択を受け付ける。ユーザ選択受付部130は、例えば、不図示の操作インターフェイスを制御するプロセッサである。操作インターフェイスとしては、マウス、キーボード、タッチパネル、ボタン、レバー、ノブ等の種々のインターフェイスを利用可能である。
本実施形態の識別部110は、ユーザ選択によって選択された識別器の検出結果を出力する。本実施形態の手法によれば、診断支援システム100は、複数の識別器の性能情報をユーザに提示した上で、ユーザによって選択された識別器を用いた注目領域の検出結果を出力する。ユーザは性能情報を見た上で識別器を選択するため、自身の嗜好にあった識別器を選択することが可能である。そのため、診断支援システム100は、ユーザの嗜好に合わせた検出結果を出力できる。
なお本実施形態の診断支援システム100は、下記のハードウェアにより構成される。ハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、ハードウェアは、回路基板に実装された1又は複数の回路装置や、1又は複数の回路素子で構成することができる。1又は複数の回路装置は例えばIC(Integrated Circuit)、FPGA(field-programmable gate array)等である。1又は複数の回路素子は例えば抵抗、キャパシター等である。
また診断支援システム100の各部は、下記のプロセッサにより実現されてもよい。診断支援システム100は、情報を記憶するメモリと、メモリに記憶された情報に基づいて動作するプロセッサと、を含む。情報は、例えばプログラムと各種のデータ等である。プロセッサは、ハードウェアを含む。プロセッサは、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。メモリは、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)などの半導体メモリであってもよいし、レジスタであってもよいし、HDD(Hard Disk Drive)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、診断支援システム100の各部の機能が処理として実現されることになる。診断支援システム100とは、例えば図1に示した識別部110、性能情報処理部120、ユーザ選択受付部130である。ここでの命令は、プログラムを構成する命令セットの命令でもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。さらに、診断支援システム100の各部の全部または一部をクラウドコンピューティングで実現し、後述する各処理をクラウドコンピューティング上で行うこともできる。
本実施形態の診断支援システム100は、例えば内視鏡システム300に含まれてもよい。図2は、診断支援システム100を含む内視鏡システム300の構成例を示す図である。
内視鏡システム300は、挿入部310と、処理装置330と、表示部340と、光源装置350を含む。ただし、内視鏡システム300の構成は図2に限定されず、一部の構成を省略したり、他の構成を追加する等の種々の変形実施が可能である。
光源装置350は、照明光を発光する光源352を含む。光源352は、キセノン光源であってもよいし、LED(light emitting diode)であってもよいし、レーザー光源であってもよい。また光源352は他の光源であってもよく、発光方式は限定されない。
挿入部310は、対物光学系311、撮像素子312、照明レンズ314、ライトガイド315を含む。ライトガイド315は、光源352からの照明光を、挿入部310の先端まで導光する。照明レンズ314は、ライトガイド315によって導光された照明光を被写体に照射する。対物光学系311は、被写体から反射した反射光を、被写体像として結像する。対物光学系311は、例えばフォーカスレンズを含み、フォーカスレンズの位置に応じて被写体像が結像する位置を変更可能であってもよい。例えば挿入部310は、制御部332からの制御に基づいてフォーカスレンズを駆動する不図示のアクチュエータを含む。制御部332は、AF(AutoFocus)制御を行う。
撮像素子312は、対物光学系311を経由した被写体からの光を受光する。撮像素子312はモノクロセンサであってもよいし、カラーフィルタを備えた素子であってもよい。カラーフィルタは、広く知られたベイヤフィルタであってもよいし、補色フィルタであってもよいし、他のフィルタであってもよい。補色フィルタとは、シアン、マゼンタ及びイエローの各色フィルタを含むフィルタである。
処理装置330は、画像処理やシステム全体の制御を行う。本実施形態の診断支援システム100は、例えば処理装置330に含まれる。処理装置330は、識別部110、性能情報処理部120、ユーザ選択受付部130、画像取得部331、制御部332、記憶部333、表示処理部336を含む。
処理装置330は、例えばコネクタを経由して挿入部310と接続される1つの装置であるが、これには限定されない。例えば、処理装置330の一部又は全部の構成は、ネットワークを介して接続可能なPC(Personal Computer)やサーバシステム等の他の情報処理装置によって構築されてもよい。例えば、処理装置330はクラウドコンピューティングによって実現されてもよい。ここでのネットワークは、イントラネット等のプライベートネットワークであってもよいし、インターネット等の公衆通信網であってもよい。またネットワークは有線、無線を問わない。即ち、診断支援システム100も、1つの装置として実現されてもよいし、複数の装置の分散処理によって実現されてもよい。
画像取得部331は、撮像素子312によって撮像された画像のデータを取得する。画像取得部331は、撮像素子312から順次出力されるアナログ信号をデジタルの画像に変換するA/D変換と、A/D変換後の画像データに対する各種補正処理を行う。なお、撮像素子312にA/D変換回路が設けられ、画像取得部331におけるA/D変換が省略されてもよい。ここでの補正処理とは、例えばカラーマトリクス補正処理、構造強調処理、ノイズ低減処理、AGC(automatic gain control)等を含む。また画像取得部331は、ホワイトバランス処理等の他の補正処理を行ってもよい。画像取得部331は、処理後の画像を、入力画像として識別部110に出力する。また画像取得部331は、処理後の画像を表示処理部336に出力する。
性能情報処理部120は、性能情報を表示する処理を行う。具体的には、性能情報処理部120は、性能情報を表示するための表示画面を生成し、当該表示画面を表示部340に表示する処理を行う。
ユーザ選択受付部130は、操作部に対する操作入力を表す操作情報を受け付ける。なおここでの操作部は、ユーザが内視鏡システム300の各種操作を行うためのものであり、各種ボタンやGUI等により実現できる。操作部は、例えば挿入部310の先端の屈曲を操作するノブや、AFの開始終了等を制御するボタン等を含んでもよい。またユーザ選択受付部130は、性能情報の表示に対するユーザ選択操作を受け付ける。
記憶部333は、制御部332や識別部110等のワーク領域となるもので、その機能はSRAMやDRAM等のメモリやHDDなどにより実現できる。記憶部333は、例えば出力の異なる複数の学習済モデルを記憶する。
識別部110は、入力画像から注目領域を検出する検出処理を行う。具体的には、識別部110は、性能情報の表示に対して、ユーザ選択受付部130が受け付けたユーザ選択に基づいて、学習済モデルを特定する処理を行う。識別部110は、特定した学習済モデルに従って動作することによって、入力画像から注目領域を検出する処理を行った後、検出結果を表示処理部336に出力する。また識別部110は、検出された注目領域の確からしさを表す信頼度を出力してもよい。
表示処理部336は、画像取得部331からの画像と、識別部110からの検出結果とに基づく処理を行い、処理結果を表示部340に出力する処理を行う。例えば表示処理部336は、画像取得部331からの画像に対して、識別部110における検出結果を付加し、付加後の画像を表示する処理を行ってもよい。
制御部332は、識別部110、性能情報処理部120、ユーザ選択受付部130、撮像素子312、画像取得部331、表示処理部336、光源352と互いに接続され、各部を制御する。
表示部340は、例えば液晶ディスプレイやEL(Electro-Luminescence)ディスプレイ等である。
図3は、本実施形態に係る診断支援システム100の処理の概要を説明するフローチャートである。この処理は、例えば診断支援システム100の電源がオンにされることによって開始される。例えば診断支援システム100を含む内視鏡システム300の各部が動作可能な状態に移行した場合に、以下の処理が実行される。
まずステップS101において、診断支援システム100の動作モードが、識別器選択モードであるか否か判定される。ステップS101の処理は、識別部110が行ってもよいし、制御部332が行ってもよい。識別器選択モードとは、性能情報を表示することによって、検出結果の出力に用いる識別器のユーザ選択を受け付けるモードである。
ステップS101でYesの場合、ステップS102において、性能情報処理部120は、識別器候補の性能情報を表示する処理を行う。ステップS103において、ユーザ選択受付部130は、識別器候補のいずれかを選択するユーザ選択を受け付ける処理を行う。識別部110は、ユーザによって選択された識別器候補を、検出結果の出力に用いる識別器として特定する。
またステップS101でNoの場合、識別器を選択するユーザ選択の受付は行われない。この場合、例えば識別部110は、初期設定されている識別器候補を、検出結果の出力に用いる識別器として特定する。
ステップS103又はS104の処理後、ステップS105において、診断支援システム100は観察モードでの動作を開始する。観察モードとは、挿入部310を生体内に挿入することによって、生体画像を撮像するモードである。観察モードは、生体画像に基づいて医師等のユーザが患者の生体内を観察するモードと言い換えてもよい。観察モードにおいて、画像取得部331は、撮像素子312によって撮像された時系列的な生体画像を順次取得し、当該生体画像を識別部110に出力する。識別部110は、当該生体画像をステップS104又はS105において特定された識別器に入力することによって、注目領域の検出結果を取得、出力する。
また本実施形態の手法は、診断支援方法として実現されてもよい。診断支援方法は、入力画像から注目領域を検出するときの検出結果が互いに異なる複数の識別器候補の性能に関する情報である性能情報を取得することと、取得した性能情報をユーザに提示することと、複数の識別器候補のうちの少なくとも1つを出力対象の識別器として選択するユーザ選択を受け付けることと、ユーザ選択によって選択された識別器の検出結果を出力することと、を含む。
また、本実施形態の手法は、診断支援システム100が行う処理を実現するプログラムに適用されてもよい。プログラムは、例えばコンピュータによって読み取り可能な媒体である情報記憶装置に格納できる。情報記憶装置は、例えば光ディスク、メモリカード、HDD、或いは半導体メモリなどによって実現できる。半導体メモリは例えばROMである。診断支援システム100は、情報記憶装置に格納されるプログラムに基づいて本実施形態の種々の処理を行う。即ち情報記憶装置は、診断支援システム100の各部としてコンピュータを機能させるためのプログラムを記憶する。コンピュータは、入力装置、処理部、記憶部、出力部を備える装置である。具体的には本実施形態に係るプログラムは、図3に示す各ステップを、コンピュータに実行させるための診断支援プログラムである。
診断支援プログラムは、入力画像から注目領域を検出するときの検出結果が互いに異なる複数の識別器候補の性能に関する情報である性能情報を取得することと、取得した性能情報をユーザに提示することと、複数の識別器候補のうちの少なくとも1つを出力対象の識別器として選択するユーザ選択を受け付けることと、ユーザ選択によって選択された識別器の検出結果を出力することと、をコンピュータに実行させる。例えば本実施形態の診断支援システム100の各部は、プロセッサ上で動作するプログラムのモジュールとして実現される。識別部110は、識別器に基づいて入力画像から注目領域を検出する画像処理モジュールとして実現される。性能情報処理部120は、性能情報を表示する表示制御モジュールとして実現される。ユーザ選択受付部130は、ユーザ選択を表す操作情報を受け付けるインターフェイス制御モジュールとして実現される。
2.複数の識別器候補の例
上述したように、本実施形態の診断支援システム100は、複数の識別器候補に基づいて、複数の検出結果を出力可能である。以下、検出結果が互いに異なる複数の識別器の例について詳細に説明する。なお、以下では識別器が機械学習によって取得される学習済モデルを含む例について説明する。ただし識別器は、機械学習を用いずに生成される画像処理アルゴリズム等であってもよい。
上述したように、本実施形態の診断支援システム100は、複数の識別器候補に基づいて、複数の検出結果を出力可能である。以下、検出結果が互いに異なる複数の識別器の例について詳細に説明する。なお、以下では識別器が機械学習によって取得される学習済モデルを含む例について説明する。ただし識別器は、機械学習を用いずに生成される画像処理アルゴリズム等であってもよい。
2.1 学習済モデルの例
本実施形態における識別器は、例えば入力画像から病変を検出する処理を行い、検出結果を出力する学習済モデルである。本実施形態における機械学習は、例えば教師あり学習である。機械学習に用いられる1つの学習データは、入力データと、当該入力データに対応する正解ラベルとが対応付けられたデータである。入力データは、学習用画像である。正解ラベルは、学習用画像における病変を特定する情報である。正解ラベルは、病変の有無、位置、サイズを特定する情報であってもよい。また、本実施形態の識別器は、病変の分類を行ってもよい。この場合の正解ラベルは、病変の分類結果を特定する情報を含む。分類結果は、例えば病変の悪性度に応じた分類の結果等である。正解ラベルは、例えば医師等の専門知識を有するユーザによって付与されるアノテーション結果である。
本実施形態における識別器は、例えば入力画像から病変を検出する処理を行い、検出結果を出力する学習済モデルである。本実施形態における機械学習は、例えば教師あり学習である。機械学習に用いられる1つの学習データは、入力データと、当該入力データに対応する正解ラベルとが対応付けられたデータである。入力データは、学習用画像である。正解ラベルは、学習用画像における病変を特定する情報である。正解ラベルは、病変の有無、位置、サイズを特定する情報であってもよい。また、本実施形態の識別器は、病変の分類を行ってもよい。この場合の正解ラベルは、病変の分類結果を特定する情報を含む。分類結果は、例えば病変の悪性度に応じた分類の結果等である。正解ラベルは、例えば医師等の専門知識を有するユーザによって付与されるアノテーション結果である。
機械学習の概要について説明する。以下では、ニューラルネットワークを用いた機械学習について説明するが、本実施形態の手法はこれに限定されない。本実施形態においては、例えばSVM(support vector machine)等の他のモデルを用いた機械学習が行われてもよいし、ニューラルネットワークやSVM等の種々の手法を発展させた手法を用いた機械学習が行われてもよい。
図4(A)は、ニューラルネットワークを説明する模式図である。ニューラルネットワークは、データが入力される入力層と、入力層からの出力に基づいて演算を行う中間層と、中間層からの出力に基づいてデータを出力する出力層を有する。図4(A)においては、中間層が2層であるネットワークを例示するが、中間層は1層であってもよいし、3層以上であってもよい。また各層に含まれるノードの数は図4(A)の例に限定されず、種々の変形実施が可能である。なお精度を考慮すれば、本実施形態の学習は多層のニューラルネットワークを用いたディープラーニングを用いることが望ましい。ここでの多層とは、狭義には4層以上である。
図4(A)に示すように、所与の層に含まれるノードは、隣接する層のノードと結合される。各結合には重み付け係数が設定されている。各ノードは、前段のノードの出力と重み付け係数を乗算し、乗算結果の合計値を求める。さらに各ノードは、合計値に対してバイアスを加算し、加算結果に活性化関数を適用することによって当該ノードの出力を求める。この処理を、入力層から出力層へ向けて順次実行することによって、ニューラルネットワークの出力が求められる。なお活性化関数としては、シグモイド関数やReLU関数等の種々の関数が知られており、本実施形態ではそれらを広く適用可能である。
ニューラルネットワークにおける学習は、適切な重み付け係数を決定する処理である。ここでの重み付け係数は、バイアスを含む。以下、学習済モデルを生成する処理が学習装置において行われる例を示す。学習装置とは、図6を用いて後述する学習部210であってもよいし、学習装置220であってもよい。
学習装置は、学習データのうちの入力データをニューラルネットワークに入力し、そのときの重み付け係数を用いた順方向の演算を行うことによって出力を求める。学習装置は、当該出力と、学習データのうちの正解ラベルとに基づいて、誤差関数を演算する。そして誤差関数を小さくするように、重み付け係数を更新する。重み付け係数の更新では、例えば出力層から入力層に向かって重み付け係数を更新していく誤差逆伝播法を利用可能である。
またニューラルネットワークは例えばCNN(Convolutional Neural Network)であってもよい。図4(B)は、CNNを説明する模式図である。CNNは、畳み込み演算を行う畳み込み層とプーリング層を含む。畳み込み層は、フィルタ処理を行う層である。プーリング層は、縦方向、横方向のサイズを縮小するプーリング演算を行う層である。図4(B)に示す例は、畳み込み層及びプーリング層による演算を複数回行った後、全結合層による演算を行うことによって出力を求めるネットワークである。全結合層とは、所与の層のノードに対して前の層の全てのノードが結合される場合の演算処理を行う層であり、図4(A)を用いて上述した各層の演算に対応する。なお、図4(B)では不図示であるが、CNNを用いる場合も図4(A)と同様に活性化関数による演算処理が行われる。CNNは種々の構成が知られており、本実施形態においてはそれらを広く適用可能である。
CNNを用いる場合も、処理の手順は図4(A)と同様である。即ち、学習装置は、学習データのうちの入力データをCNNに入力し、そのときのフィルタ特性を用いたフィルタ処理やプーリング演算を行うことによって出力を求める。当該出力と、正解ラベルとに基づいて誤差関数が算出され、当該誤差関数を小さくするように、フィルタ特性を含む重み付け係数の更新が行われる。CNNの重み付け係数を更新する際にも、例えば誤差逆伝播法を利用可能である。
図5は、ニューラルネットワークの学習処理を説明するフローチャートである。まずステップS201、ステップS202において、学習装置は、学習用画像と、当該学習用画像に対応付けられた正解ラベルを取得する。例えば学習装置は、学習用画像と正解ラベルを対応付けたデータを多数取得し、当該データを学習データとし記憶しておく。ステップS201、ステップS202の処理は、例えば学習データのうちの1つを読み出す処理である。
ステップS203において、学習装置は、誤差関数を求める処理を行う。具体的には、学習装置は、学習用画像をニューラルネットワークに入力し、その際の重み付け係数に基づいて順方向の演算を行う。そして学習装置は、演算結果と、正解ラベルの比較処理に基づいて誤差関数を求める。さらにステップS203において、学習装置は、誤差関数を小さくするように重み付け係数を更新する処理を行う。この処理は、上述したように誤差逆伝播法等を利用可能である。ステップS201~S203の処理が、1つの学習データに基づく1回の学習処理に対応する。
ステップS204において、学習装置は学習処理を終了するか否かを判定する。例えば学習装置は、多数の学習データの一部を評価データとして保持していてもよい。評価データは、学習結果の精度を確認するためのデータであり、重み付け係数の更新には使用されないデータである。学習装置は、評価データを用いた推定処理の正解率が所定閾値を超えた場合に、学習処理を終了する。
ステップS204でNoの場合、ステップS201に戻り、次の学習データに基づく学習処理が継続される。ステップS204でYesの場合、学習処理が終了される。学習装置は、生成した学習済モデルの情報を診断支援システム100に送信する。図2の例であれば、学習済モデルの情報は記憶部333に記憶される。なお、機械学習においてはバッチ学習、ミニバッチ学習等の種々の手法が知られており、本実施形態ではこれらを広く適用可能である。
2.2 オリジナル識別器候補とカスタム識別器候補
検出結果が異なる複数の識別器候補は、オリジナル識別器候補とカスタム識別器候補とを含んでもよい。オリジナル識別器候補とは、例えば、診断支援システム100が提供される際に、あらかじめ付属している識別器候補である。例えばオリジナル識別器候補は、診断支援システム100を提供するメーカー等によって生成された識別器候補である。例えば、診断支援システム100が複数の病院において利用される場合、オリジナル識別器候補は当該複数の病院に共通に提供される。
検出結果が異なる複数の識別器候補は、オリジナル識別器候補とカスタム識別器候補とを含んでもよい。オリジナル識別器候補とは、例えば、診断支援システム100が提供される際に、あらかじめ付属している識別器候補である。例えばオリジナル識別器候補は、診断支援システム100を提供するメーカー等によって生成された識別器候補である。例えば、診断支援システム100が複数の病院において利用される場合、オリジナル識別器候補は当該複数の病院に共通に提供される。
一方、カスタム識別器候補とは、ユーザが取得した画像に基づいて、ユーザが生成する識別器候補である。例えば、各病院では内視鏡システム300を用いて生体画像を取得、蓄積する。カスタム識別器候補は、当該生体画像を学習用画像として用いた機械学習によって生成される。そのため、カスタム識別器候補は病院ごとに異なる識別器候補である。
図6は、オリジナル識別器候補とカスタム識別器候補が用いられるシステムの構成例を説明する図である。システムは、挿入部310と、処理装置330と、学習装置220と、画像収集用内視鏡システム400を含む。処理装置330は、診断支援システム100と、学習部210を含む。ただし、システムは図6の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。処理装置330は、図2に示した処理装置330であり、1つの装置であってもよいし、複数の装置の分散処理によって実現されてもよい。挿入部310及び処理装置330は、図2の内視鏡システム300に対応する。
画像収集用内視鏡システム400は、オリジナル識別器候補を作成するための複数の生体画像を撮像する。学習装置220は、画像収集用内視鏡システム400が撮像した学習用画像と、当該学習用画像に付与されたアノテーション結果の組を、機械学習に用いる学習データとして取得する。学習データは、オリジナル学習データと、オリジナル評価データを含む。学習装置220は、オリジナル学習データに基づく機械学習を行うことによって、オリジナル識別器候補に対応する学習済モデルを生成する。学習装置220は、生成した学習済モデルをオリジナル評価データに基づいて評価する。学習済モデルは、上述したように、例えば深層学習に従った推論処理を行うモデルである。学習装置220は、ネットワークNWを介して、生成した学習済モデルを診断支援システム100に送信する。ここでのネットワークNWは、インターネット等の公衆通信網であってもよいし、プライベートネットワークであってもよい。
一方、内視鏡システム300は、挿入部310を用いて複数の生体画像を撮像する。内視鏡システム300は、当該複数の生体画像のそれぞれに対する正解ラベルを取得し、生体画像と正解ラベルを対応付けたデータを、カスタム学習データとして記憶部333に記憶する。学習部210は、カスタム学習データに基づいて図5に示す処理を行うことによって、カスタム識別器候補に対応する学習済モデルを生成する。学習部210は、生成した学習済モデルを診断支援システム100に送信する。
このようにすれば、診断支援システム100は、互いに学習データが異なるオリジナル識別器候補とカスタム識別器候補に基づいて、検出処理を実行することが可能になる。
図7(A)~図7(C)は、カスタム画像データに基づいてカスタム識別器候補を生成する手法を説明する図である。図7(A)に示すように、カスタム識別器候補は、オリジナル学習データと、カスタム学習データの両方に基づいて生成されてもよい。そしてカスタム識別器は、オリジナル評価データに基づく評価が行われる。或いは、図7(B)に示すように、カスタム識別器候補は、カスタム学習データに基づいて生成されてもよい。図7(B)の例では、カスタム識別器候補の評価は、図7(A)と同様にオリジナル評価データが用いられる。
或いは、図7(C)に示すように、カスタム識別器候補は、カスタム学習データに基づいて生成及び評価が行われてもよい。例えばカスタム学習データは4つのカスタムデータに分割される。学習部210は、そのうちの3つのカスタムデータに基づいてカスタム識別器候補を生成し、生成したカスタム識別器候補を残り1つのカスタムデータに基づいて評価する処理を、4回繰り返す。このようにクロスバリデーションを行うことによって、カスタム学習データに基づいて、カスタム識別器候補を適切に生成、評価することが可能である。
以上のように、本実施形態のカスタム識別器候補は、オリジナル識別器候補の学習に用いられていないカスタム学習データを用いて機械学習が行われればよく、オリジナル学習データを用いるか否かや、カスタム識別器候補をどのように評価するかは種々の変形実施が可能である。いずれの手法であっても、カスタム学習データを用いることによって、カスタム識別器候補の検出結果は、オリジナル識別器候補の検出結果と異なることが期待される。
以上のように、本実施形態の複数の識別器候補は、オリジナル識別器候補と、ユーザが作成したカスタム識別器候補とを含んでもよい。このようにすれば、ユーザが独自の識別器候補を追加することが可能になる。
上述したように、本実施形態の手法は、ユーザの嗜好を反映した注目領域の検出結果を出力するものである。しかし、あらゆるユーザの嗜好を満たすようにオリジナル識別器候補を網羅的に作成することは現実的ではない。その点、ユーザによる識別器候補の追加を可能にすることによって、ユーザの嗜好に合致した識別器候補が存在する蓋然性を高くすることが可能になる。
またカスタム識別器候補は、図7(A)~図7(C)に示すように、ユーザの保有画像を含む学習用画像を用いた機械学習に基づいて作成されている。ユーザの保有画像は、例えば、当該ユーザが過去に観察、処置の対象とした生体画像である。そのため当該ユーザは、同様の種類の注目領域を対象とした観察を行う機会が多いと推定される。よってカスタム識別器候補の学習にユーザの保有画像を用いることによって、ユーザの嗜好に合致する蓋然性の高い識別器候補を作成することが可能になる。
2.3 モデルの差異
また複数の識別器候補は、上記のように学習に用いられる学習データが異なるものには限定されない。例えば複数の識別器候補は、互いにモデルが異なる識別器候補であってもよい。ここでのモデルとは、例えば図4(A)や図4(B)に示したニューラルネットワークの構成を表す。モデルが異なるとは、具体的には、ニューラルネットワークの特性を決定する情報のうちの少なくとも1つが異なることを表す。特性を決定する情報は、例えば中間層の層数、各層に含まれるノード数、所与の層のノードと次の層のノードの接続関係、活性化関数等である。例えば、所与の被写体を検出するCNNとしては、Faster R-CNN(Region-based CNN)、YOLO(You only Look Once)、SSD(Single Shot Detector)等の種々のモデルが知られている。2つのモデルが異なるとは、例えば一方がYOLOであり、他方がSSDである場合等を表す。
また複数の識別器候補は、上記のように学習に用いられる学習データが異なるものには限定されない。例えば複数の識別器候補は、互いにモデルが異なる識別器候補であってもよい。ここでのモデルとは、例えば図4(A)や図4(B)に示したニューラルネットワークの構成を表す。モデルが異なるとは、具体的には、ニューラルネットワークの特性を決定する情報のうちの少なくとも1つが異なることを表す。特性を決定する情報は、例えば中間層の層数、各層に含まれるノード数、所与の層のノードと次の層のノードの接続関係、活性化関数等である。例えば、所与の被写体を検出するCNNとしては、Faster R-CNN(Region-based CNN)、YOLO(You only Look Once)、SSD(Single Shot Detector)等の種々のモデルが知られている。2つのモデルが異なるとは、例えば一方がYOLOであり、他方がSSDである場合等を表す。
上述したように、複数の学習済モデルでそれぞれ学習データが異なる場合、モデルが同一であっても、異なる学習済モデルが生成される。具体的には、順方向の演算アルゴリズムは同一であるが、重み付け係数情報が異なることによって、同じ入力画像に対して異なる検出結果を出力する複数の学習済モデルが生成される。
またモデルが異なる場合、学習データが同じであっても、異なる学習済モデルが生成される。具体的には、順方向の演算アルゴリズムがそもそも異なるため、同じ入力画像に対して異なる検出結果を出力する複数の学習済モデルが生成される。
当然、複数の識別器候補は、学習データとモデルの両方が異なってもよい。例えば上述したオリジナル識別器候補とカスタム識別器候補は、学習に用いる学習データが異なるだけでなく、モデル自体が異なってもよい。
なお、本実施形態において「検出結果が異なる」とは、上述したように、学習データ及びモデルの少なくとも一方が異なればよい。換言すれば、「検出結果が異なる」とは、順方向の演算アルゴリズムや重み付け係数情報が異なることによって、入力画像に対して実行される処理が異なることを表す。そのため、具体的な学習済モデルや入力画像によっては、複数の識別器候補による検出結果が偶発的に一致することは否定されない。
2.4 前処理及び後処理
以上のように、識別器候補とは狭義には学習済モデルである。即ち、記憶部は学習済モデルに関する情報を記憶する。プロセッサである識別部110は、記憶部から読み出した学習済モデルからの指示に従って動作することによって、入力画像から病変を検出する処理を実行する。
以上のように、識別器候補とは狭義には学習済モデルである。即ち、記憶部は学習済モデルに関する情報を記憶する。プロセッサである識別部110は、記憶部から読み出した学習済モデルからの指示に従って動作することによって、入力画像から病変を検出する処理を実行する。
学習済モデルに従った識別部110おける演算、即ち、入力データに基づいて出力データを出力するための演算は、ソフトウェアによって実行されてもよいし、ハードウェアによって実行されてもよい。換言すれば、図4(A)の各ノードにおいて実行される積和演算や、CNNの畳み込み層において実行されるフィルタ処理等は、ソフトウェア的に実行されてもよい。或いは上記演算は、FPGA等の回路装置によって実行されてもよい。また、上記演算は、ソフトウェアとハードウェアの組み合わせによって実行されてもよい。このように、学習済モデルからの指令に従った識別部110の動作は、種々の態様によって実現可能である。例えば学習済モデルは、推論アルゴリズムと、当該推論アルゴリズムにおいて用いられる重み付け係数とを含む。推論アルゴリズムとは、入力データに基づいて、フィルタ演算等を行うアルゴリズムである。この場合、推論アルゴリズムと重み付け係数の両方が記憶部に記憶され、識別部110は、当該推論アルゴリズムと重み付け係数を読み出すことによってソフトウェア的に推論処理を行ってもよい。記憶部は、例えば処理装置330の記憶部333であるが、他の記憶部が用いられてもよい。或いは、推論アルゴリズムはFPGA等によって実現され、記憶部は重み付け係数を記憶してもよい。或いは、重み付け係数を含む推論アルゴリズムがFPGA等によって実現されてもよい。この場合、学習済モデルの情報を記憶する記憶部は、例えばFPGAの内蔵メモリである。
本実施形態の識別器候補は、例えば学習済モデルそのものである。例えば識別器候補の検出結果とは、入力画像を学習済モデルに入力したときの出力に対応する。ただし、識別器候補は、学習済モデル単体に限定されない。
図8は、識別器候補における処理を説明する図である。図8に示すように、識別器候補においては、入力画像に対して何らかの前処理を行われ、前処理結果が学習済モデルに入力される。また学習済モデルの出力に対して、何らかの後処理を行った結果が、検出結果として出力される。なお、図8における前処理と後処理は、いずれか一方が省略されてもよい。
例えば、平坦な病変はエッジ等の特徴に乏しく、ノイズに埋もれやすい。この場合、複数フレームの入力画像を積算する前処理を行うことによって、ノイズが低減されるため、病変の検出精度の向上が可能である。一方、複数のフレームを積算する必要があるため、検出結果が出力されるまでにタイムラグが生じ、処理負荷も増大する。このように、病変を検出する際の精度と時間はトレードオフの関係にあり、いずれの設定がよいかはユーザの嗜好による。
よって本実施形態の複数の識別器候補は、学習済モデルが同一であり、且つ、前処理の異なる複数の識別器を含んでもよい。上記例であれば、第1識別器候補は、フレーム積算を行わずに入力画像を学習済モデルに入力する。第2識別器候補は、所与のフレーム数の入力画像のフレーム積算を前処理として行い、前処理後の画像を学習済モデルに入力する。このようにすれば、1つの学習済モデルに基づいて、複数の識別器候補を生成することが可能になる。
また内視鏡システム300においては、同一と判定される病変が所定フレーム以上連続して検出されたことを条件に、当該病変に関する検出結果を出力する。短時間だけ現れてすぐに画面から消えるような病変が表示対象から除外されるため、表示画面が頻繁に変化することを抑制できるためである。一方で、短時間だけ現れてすぐに画面から消えるような病変を敢えて表示することによって、見逃しやすい病変の存在をユーザに報知することが可能になる。
よって本実施形態の複数の識別器候補は、学習済モデルが同一であり、且つ、後処理の異なる複数の識別器を含んでもよい。上記例であれば、第1識別器候補は、時系列の入力画像を学習済モデルに入力することによって時系列の出力を取得し、当該時系列の出力に基づいて、所与の病変がn1フレーム連続して検出されたか否かを判定する後処理を行う。第2識別器候補は、時系列の入力画像を学習済モデルに入力することによって時系列の出力を取得し、当該時系列の出力に基づいて、所与の病変がn2フレーム連続して検出されたか否かを判定する後処理を行う。n1及びn2は、1≦n1<n2を満たす整数である。このようにすれば、1つの学習済モデルに基づいて、複数の識別器候補を生成することが可能になる。
また前処理として、入力画像の一部の領域を抽出する処理が行われてもよい。一部の領域を抽出することによって、処理対象となる画素を少なくできるため、処理時間を短縮できる。また、処理時間を維持した場合、単位データ量当たりの処理時間が増加するため、精度の向上が期待できる。この場合も上記の例と同様に、精度と時間のトレードオフとなるため、いずれの設定がよいかはユーザの嗜好によって異なる。よって入力画像をトリミングする前処理を行うか否かを異ならせることや、トリミングする領域のサイズや位置を異ならせることによって、1つの学習済モデルに基づいて、複数の識別器候補を生成することが可能になる。
その他、識別器候補における前処理はこれに限定されず、学習済モデルに入力される前の入力画像に対して行われる種々の処理を含むことが可能である。同様に、識別器候補における後処理はこれに限定されず、学習済モデルの出力に対して行われる種々の処理を含むことが可能である。
なお以上では、フレーム積算等の処理が、学習済モデルにおいて実行される処理とは異なる前処理や後処理であるものとして説明した。ただし、これらの処理を含めた学習済モデルが生成されてもよい。例えば、学習済モデルは、複数フレームの画像を入力データとして受け付け、フレーム積算に相当するノイズ低減処理を行った上で注目領域の検出結果を出力するモデルであってもよい。即ち、ここで説明した前処理や後処理は、学習済モデルとは異なる処理として実現されてもよいし、学習済モデルの中で実行される処理として実現されてもよい。
以上のように、複数の識別器候補は、入力画像に対する処理方法が互いに異なる。ここでの処理方法とは、狭義には学習済モデルの前段の処理である前処理、又は、学習済モデルの後段の処理である後処理、又は、その両方である。このようにすれば、入力画像に対する処理を異ならせることによって、検出結果の異なる複数の識別器候補を実現することが可能になる。
例えば上述したように、複数の識別器候補は、学習済モデルが同一であって、前処理や後処理が異なる2以上の識別機候補を含んでもよい。学習済モデルが同一とは、モデルと学習データの両方が同一であることを表す。ただし、学習済モデルは同一のものに限定されず、複数の識別器候補は、学習済モデルが異なり、さらに、前処理や後処理が異なる2以上の識別機候補を含んでもよい。学習済モデルが異なるとは、モデルと学習データの少なくとも一方が異なることを表す。
2.5 複数の識別器候補の性能の差異
上述したように、本実施形態の複数の識別器候補は、学習データ、モデル、前処理及び後処理の少なくとも1つが異なる。この違いに起因して、識別器候補の性能に差を設けることが可能になる。
上述したように、本実施形態の複数の識別器候補は、学習データ、モデル、前処理及び後処理の少なくとも1つが異なる。この違いに起因して、識別器候補の性能に差を設けることが可能になる。
本実施形態における複数の識別器候補は、例えば、注目領域の存在有無に係る検出感度が互いに異なる。存在有無に係る検出感度とは、注目領域の検出しやすさを表す。感度が高いとは、入力画像に含まれる注目領域が検出されやすく、見逃しが少ないことを表す。ただし、感度が高い場合、注目領域でない領域を注目領域と誤検出する蓋然性が高くなる。感度が低い場合、注目領域の誤検出を抑制可能であるが、注目領域を見逃す蓋然性が高くなる。なお後述する再現率は、検出感度を表す指標として利用できる。
このようにすれば、ユーザの嗜好に合致した検出感度を有する識別器による検出結果を出力することが可能になる。例えば、見逃し抑制が重要と考えるユーザであるか、誤検出抑制が重要と考えるユーザであるかに応じて、表示を切り替えることが可能である。また識別器によって注目領域が検出された場合、例えば後述する図9や図10と同様に、注目領域の視認性を向上させるオブジェクトが表示される。その場合、表示画面に多数のオブジェクトが表示されることを好まないという理由から、検出感度の低い識別器候補が選択されることも考えられる。
例えば、第1識別器候補の学習データには所与の病変に関する画像が多数含まれ、第2識別器候補の学習データには所与の病変に関する画像があまり含まれなかった場合、第1識別器候補は当該病変の検出感度が高く、第2識別器候補は検出感度が低いことが想定される。このように、例えば学習データの違いに起因して、注目領域の存在有無に係る検出感度に差が生じる。
或いは、モデルに応じて順方向の処理アルゴリズムが異なるため、特定の構造の検出に適したモデルと、当該構造の検出に適してないモデルとが存在する。そのため、モデルの違いに起因して、注目領域の存在有無に係る検出感度に差が生じることも考えられる。
また、所定フレーム数連続して検出することを条件とした場合、すぐにフレームアウトする病変に対する感度は低下する。また、フレーム積算を行うことによって、平坦な病変に対する感度は向上する。また、入力画像の一部をトリミングすることで、精度向上による検出感度向上が期待できる一方で、画像周縁部の病変に対する感度は低下する。このように、前処理や後処理の違いに起因して、注目領域の存在有無に係る検出感度に差が生じることも考えられる。
より具体的には、複数の識別器候補は、注目領域の形状に係る検出感度、注目領域の大きさに係る検出感度、注目領域の色に係る検出感度の、少なくとも1つの検出感度が互いに異なる。
形状に係る検出感度が異なるとは、例えば所与の形状の注目領域を考えたときに、第1識別器候の検出感度が高く、第2識別器候補の検出感度が低いことを表す。或いは、注目領域の形状として、n通りの形状である第1形状~第n形状(nは2以上の整数)が想定される場合に、第1識別器候補は他の形状に比べて相対的に第1形状の検出感度が高く、第2識別器候補は他の形状に比べて相対的に第2形状の検出感度が高いことを表す。或いは、第1~第n形状のそれぞれの検出感度を考えたときに、その傾向が第1識別器候補と第2識別器候補とで異なる。大きさや色についても同様である。
形状、大きさ、色に対する検出感度の差は、上記の例と同様に、学習データに起因するものであってもよいし、モデルに起因するものであってもよいし、前処理や後処理に起因するものであってもよい。例えば、特定形状(サイズ、色)の注目領域を含む画像が学習データにどの程度含まれるかに応じて、形状(サイズ、色)に係る検出感度を変更できる。また特定形状(サイズ、色)の検出に適したモデルと、適してないモデルとが存在するため、モデルを変えることで形状等に係る検出感度を変更できる。また前処理や後処理として、エッジ強調、アフィン変換、色変換等の形状、サイズ、色を調整する処理を行うことによって、形状等に係る検出感度を変更することも可能である。
また注目領域は病変に対応する領域であってもよい。複数の識別器候補は、病変の医学的分類に係る検出感度が互いに異なる。医学的分類とは、医学的な観点による病変の分類を表し、例えば病変の種類自体の分類であってもよいし、特定の病変における悪性度(病期)による分類であってもよい。
例えば胃癌の肉眼型分類として、病変を0型~5型のいずれかに分類する手法が知られている。また0型の表在癌については、隆起型である0-I型、表面型である0-II、陥凹型である0-III型等の分類も知られている。その他、医学的分類については種々の分類が知られており、本実施形態ではそれらを広く適用可能である。
医学的分類に係る検出感度が異なるとは、例えば所与の種類又は悪性度の病変を考えたときに、第1識別器候補の検出感度が高く、第2識別器候補の検出感度が低いことを表す。例えば0-I型の検出感度が、第1識別器候補は高く、第2識別器候補は低い。或いは、第1識別器候補は相対的に第1種類又は第1悪性度の病変の検出感度が高く、第2識別器候補は相対的に第2種類又は第2悪性度の病変の検出感度が高いことを表す。例えば第1識別器候補は0-I型の検出感度が他の悪性度に比べて高く、第2識別器候補は0-III型の検出感度が他の悪性度に比べて高い。或いは、0-I型の検出感度と、0-IIの検出感度と、0-III型の検出感度との関係性を考慮した場合に、当該関係性が第1識別器候補と第2識別器候補とで異なる。
医学的分類に応じて性能の異なる識別器候補を用意することによって、ユーザの嗜好を、より検出結果に反映することが可能になる。なお、医学的分類に対する検出感度の差は、上記の例と同様に、学習データに起因するものであってもよいし、モデルに起因するものであってもよいし、前処理や後処理に起因するものであってもよい。例えば所与の悪性度の病変を含む多数の画像を機械学習に用いることによって、当該悪性度の病変に係る検出感度を高くすることが可能になる。
また複数の識別器候補は、入力画像を撮像した際の撮像状態に応じた検出結果が互いに異なる。ここでの撮像状態とは、例えば、撮像における明るさ、撮像時の挿入部310と被写体の相対的な位置関係を表す。挿入部310と被写体の位置関係は、例えば挿入部310先端と被写体との距離であってもよい。或いは相対的な位置関係は、挿入部310先端と被写体の角度であってもよい。角度は、例えば被写体を表す面と、挿入部310の長手方向を表す軸とがなす角度であり、挿入部310が被写体に正対しているか否かの状態を表す角度である。また撮像状態は、撮像に用いる光源352の波長帯域や、色素散布の有無等を特定する情報を含んでもよい。
撮像状態が変化することによって、注目領域の画像上での位置、サイズ、形状、明るさ等の特性が変化する。そのため、種々の撮像状態に汎用的に利用可能な識別器候補の作成は容易でない。撮像状態に応じて性能が異なる識別器候補を用意することによって、ユーザの嗜好を、より検出結果に反映することが可能になる。なお、撮像状態に対する検出感度の差は、上記の例と同様に、学習データに起因するものであってもよいし、モデルに起因するものであってもよいし、前処理や後処理に起因するものであってもよい。例えば所与の撮像状態で撮像された多数の画像を機械学習に用いることによって、当該撮像状態における検出感度を高くすることが可能になる。
3.性能情報の表示例
次に、性能情報処理部120によって表示される性能情報の具体例について説明する。本実施形態における性能情報は、例えば複数の識別器候補の性能の差異を示す比較情報であってもよい。比較情報を用いることによって、ユーザは、表示画面から2以上の識別器候補の性能の差異を容易に認識できるため、自身の嗜好に合った識別器候補を選択することが容易になる。以下でも、性能情報が比較情報である例を説明するが、本実施形態の性能情報は、所与の識別器候補単体の性能を表す情報であることは妨げられない。性能を表す情報としては、後述する入力画像に基づく検出結果、テストデータに基づく検出結果、学習データ等の種々の情報を用いることが可能である。また、以下では2つの識別器候補の性能情報を表示する例について説明するが、表示対象となる識別器候補は3以上であってもよい。
次に、性能情報処理部120によって表示される性能情報の具体例について説明する。本実施形態における性能情報は、例えば複数の識別器候補の性能の差異を示す比較情報であってもよい。比較情報を用いることによって、ユーザは、表示画面から2以上の識別器候補の性能の差異を容易に認識できるため、自身の嗜好に合った識別器候補を選択することが容易になる。以下でも、性能情報が比較情報である例を説明するが、本実施形態の性能情報は、所与の識別器候補単体の性能を表す情報であることは妨げられない。性能を表す情報としては、後述する入力画像に基づく検出結果、テストデータに基づく検出結果、学習データ等の種々の情報を用いることが可能である。また、以下では2つの識別器候補の性能情報を表示する例について説明するが、表示対象となる識別器候補は3以上であってもよい。
3.1 入力画像に基づく検出結果の表示
図9は、比較情報を表示する画面の例である。図9に示すように、性能情報処理部120は、性能情報として、複数の識別器候補の各々の検出結果を表示する処理を行う。
図9は、比較情報を表示する画面の例である。図9に示すように、性能情報処理部120は、性能情報として、複数の識別器候補の各々の検出結果を表示する処理を行う。
例えば識別部110は、画像取得部331から入力画像を取得する。識別部110は、記憶部333から第1識別器候補を読み出し、第1識別器候補に入力画像を入力することによって第1検出結果を取得する。第1検出結果は、例えば入力画像上での、注目領域の位置やサイズを特定する情報である。第1検出結果は、狭義には注目領域を含む矩形領域を特定する情報であってもよい。また識別部110は、記憶部333から第2識別器候補を読み出し、第2識別器候補に入力画像を入力することによって第2検出結果を取得する。第2検出結果は、例えば注目領域を含む矩形領域を特定する情報である。
識別部110は、第1検出結果、第2検出結果、入力画像を性能情報処理部120に出力する。性能情報処理部120は、1つの入力画像に第1検出結果及び第2検出結果を重畳した画像を表示部340に表示する処理を行う。なお、入力画像に検出結果を重畳して表示する処理は、ユーザによる識別器選択後の表示処理部336の処理と重複する。よって図9に示す画像を表示する場合、表示処理部336が性能情報処理部120を兼ねてもよい。
図9では、第1識別器候補の第1検出結果がA1に対応する。第2識別器候補の第2検出結果がA2及びA3に対応する。A1とA2は同一の注目領域を表す情報である。即ち、第2識別器候補は2つの注目領域を検出しており、第1識別器候補はそのうちの1つの注目領域のみを検出していることが図9の画面から明らかである。例えばA3に対応する注目領域の重要度が高い、或いは、表示がないと自分が見逃すおそれがあったと考えるユーザは、第2識別器候補を選択すると考えられる。またA3に対応する注目領域の重要度が低い、或いは、表示がなくても自分であれば見逃さないと考えるユーザは、第1識別器候補を選択すると考えられる。
図10は、比較情報として各々の検出結果を表示する画面の他の例である。図10に示すように、性能情報処理部120は、入力画像に第1識別器候補による第1検出結果を重畳した第1画像と、同じ入力画像に第2識別器候補による第2検出結果を重畳した第2画像とを並べて表示してもよい。換言すれば、図10の表示画面は、図9の表示画面を2つに分割して表示した画面である。この場合も、第2識別器候補は2つの注目領域を検出しており、第1識別器候補はそのうちの1つの注目領域のみを検出していることが明らかである。そのため、ユーザに各識別器候補の性能を把握させること、及び、ユーザの嗜好に合った識別器候補を選択させることが可能である。
図9や図10に示したように、性能情報処理部120は、性能情報として、同一の入力画像に対する複数の識別器候補の各々の検出結果を同時に表示する処理を行う。このようにすれば、複数の識別器候補の検出結果を1つの画面を用いて同時に提示できるため、ユーザによる比較及び選択を容易にすることが可能になる。ただし、性能情報処理部120は、複数の識別器候補の各々の検出結果を異なるタイミングで表示してもよい。例えば性能情報処理部120は、図10に示した第1画像と第2画像を時分割に表示してもよい。
なお、図9又は図10に示す画面を表示する場合、具体的な入力画像が必要になる。そのため、例えばこの場合の処理手順は図3とは異なり、まず観察モードを開始し、当該観察モードにおいて入力画像が取得された後に、性能情報の表示及びユーザ選択の受付が行われる。或いは、既に終了した過去の観察モードにおいて撮像された入力画像を記憶部333に保持しておき、当該入力画像を用いて図9や図10の画面が表示されてもよい。この場合、図3に示したように、観察モードが開始される前に性能情報を表示することが可能である。
3.2 検出可能な病変の一覧表示
また性能情報は、テストデータを用いて取得される情報であってもよい。テストデータとは、複数のテスト画像を含み、各テスト画像における病変を特定する情報が既知のデータである。病変を特定する情報とは、病変の有無、位置、分類結果等である。即ち、テスト画像を識別器候補に入力することによって、テスト画像に含まれる病変を適切に検出できたか否か、又は、病変でない領域を病変と誤検出していないか、を判定できる。なおテストデータは、学習段階で用いた評価データであってもよいし、評価データとは異なるデータであってもよい。
また性能情報は、テストデータを用いて取得される情報であってもよい。テストデータとは、複数のテスト画像を含み、各テスト画像における病変を特定する情報が既知のデータである。病変を特定する情報とは、病変の有無、位置、分類結果等である。即ち、テスト画像を識別器候補に入力することによって、テスト画像に含まれる病変を適切に検出できたか否か、又は、病変でない領域を病変と誤検出していないか、を判定できる。なおテストデータは、学習段階で用いた評価データであってもよいし、評価データとは異なるデータであってもよい。
図11は、テストデータに基づく性能情報を表示する画面の例である。ここでは、例えばテストデータに含まれる病変として、B1~B6に示す第1病変~第6病変を考えている。複数の識別器候補のそれぞれに、第1病変~第6病変を含むテスト画像が入力される。なお、識別器候補にテスト画像を入力し、検出結果を取得する処理は、識別部110において実行されてもよいし、診断支援システム100の外部の装置において実行されてもよい。
ここでは、例えば第1識別器候補は、第1病変~第4病変、及び第6病変を検出できたが、第5病変を検出できなかった。また第2識別器候補は、第3病変~第6病変を検出できたが、第1病変及び第2病変を検出できなかった。
性能情報処理部120は、複数の識別器候補の各識別器候補が検出可能な複数の注目領域を一覧表示する処理を行う。上記の例であれば、第1識別器候補について、第1病変~第4病変、及び第6病変の5つの病変を一覧表示する。同様に第2識別器候補について、第3病変~第6病変の4つの病変を一覧表示する。図11に示す例では、識別器候補が検出できた病変は相対的に明るく表示される。このようにすれば、各識別器候補がどのような病変の検出に適しているかが、具体的な病変を用いて提示されるため、ユーザによる選択を容易にすることが可能になる。
例えば注目領域は病変に対応する領域であり、性能情報処理部120は、隆起病変、平坦病変、陥凹病変のそれぞれに関して、複数の識別器候補の各識別器候補が検出可能な複数の病変を一覧表示する処理を行ってもよい。図11の例であれば、B1~B3に示す第1~第3病変は隆起病変に対応し、B4及びB5に示す第4病変及び第5病変は平坦病変に対応し、B6に示す第6病変は陥凹病変に対応する。このようにすれば、病変の形状、タイプに応じた性能の違いを一覧表示できるため、ユーザ選択を容易にできる。図11の例であれば、第1識別器候補は隆起病変の検出に適しており、第1識別器候補は平坦病変や陥凹病変の検出に適していることがわかる。
また図11に示すように、性能情報処理部120は、各識別器候補が、テスト画像に含まれる複数の病変の各病変を検出できたか否かを一覧表示してもよい。例えば、第1識別器候補が第5病変を検出できなかったことや、第2識別器候補が第1病変及び第2病変を検出できなかったことも表示される。図11の例では、識別器候補が検出できなかった病変は相対的に暗く表示される。このようにすれば、各識別器候補がどのような病変の検出に適さないかが、具体的な病変を用いて提示されるため、ユーザによる選択を容易にすることが可能になる。例えば、隆起病変については第1識別器候補は複数検出できているのに対して、第2識別器候補はそのうちのいくつかの検出に失敗していることが明示されるため、ユーザ選択が容易になる。
3.3 識別性能を示すデータの表示
図11では、具体的な病変について、各識別器候補が検出できたか否かに関する情報を一覧表示する例について説明した。ただし、テストデータに基づく性能情報の表示手法はこれに限定されない。
図11では、具体的な病変について、各識別器候補が検出できたか否かに関する情報を一覧表示する例について説明した。ただし、テストデータに基づく性能情報の表示手法はこれに限定されない。
図12(A)は、性能情報として、識別性能を示すデータを表示する画面の例である。上述したように、テスト画像には、当該テスト画像に含まれる病変の形状、悪性度、サイズ等の分類結果が対応付けられていてもよい。例えば、テストデータとして、x1個の隆起病変と、x2個の平坦病変と、x3個の陥凹病変とが含まれるデータが取得されたとする。そしてテストデータを第1識別器候補に入力することによって、y1個の隆起病変と、y2個の平坦病変と、y3個の陥凹病変とが適切に検出されたという検出結果が得られた。また同じテストデータを第2識別器候補に入力することによって、z1個の隆起病変と、z2個の平坦病変と、z3個の陥凹病変とが適切に検出されたという検出結果が得られた。
性能情報処理部120は、例えば再現率を識別性能を示すデータとして取得する。再現率とは、病変を病変として正しく検出できた件数をAとし、病変を病変でないと誤判定した件数をBとしたとき、A+Bに対するAの割合を表す。再現率は見逃しの割合を特定可能な指標であって、上記の例であれば、第1識別器候補の隆起病変の再現率がy1/x1、平坦病変の再現率がy2/x2、陥凹病変の再現率がy3/x3に対応する。第2識別器候補の隆起病変の再現率がz1/x1、平坦病変の再現率がz2/x2、陥凹病変の再現率がz3/x3に対応する。
図12(A)の例では、第1識別器候補と第2識別器候補の再現率を、病変タイプごとにグラフで表示している。このようにすれば、各識別器候補が隆起病変、平坦病変、陥凹病変の検出に適しているか否かを、統計的な指標値を用いてわかりやすい態様で表示することが可能になる。
また性能情報処理部120は、図12(B)に示すように、識別器候補ごと、病変の医学的分類ごとに再現率を表示してもよい。或いは性能情報処理部120は、図12(C)に示すように、識別器候補ごと、病変のサイズごとに再現率を表示してもよい。このようにすれば、各識別器候補がどのような病変の検出に適しているかをわかりやすい態様で表示することが可能になる。また、性能情報処理部120は、病変の色等の他の条件に応じた再現率を表示してもよい。
また識別性能を示すデータの表示はグラフを用いたものに限定されない。図13は、識別性能を示すデータを表示する画面の他の例である。図13に示すように、性能情報処理部120は、識別器候補ごと、病変タイプごとに再現率を表を用いて表示してもよい。この場合も、各識別器候補がどのような病変の検出に適しているかを、統計的な指標値を用いてわかりやすい態様で表示することが可能になる。
なお以上では、識別性能を表すデータとして再現率を用いる例を説明した。ただし性能情報処理部120は、特異度や正解率等の他の指標を表示してもよい。特異度とは、病変でない領域を病変でないと正しく判断した件数をCとし、病変でない領域を病変と誤検出した件数をDとしたときに、C+Dに対するCの割合を表す。特異度は、病変でないものをむやみに疑っていないか否かを判断する際の指標として用いることが可能である。
また正解率とは、全件数のうち、A+Cの割合を表す。上述したように、Aは病変を病変として正しく検出できた件数であり、Cは病変でない領域を病変でないと正しく判断した件数である。全件数は、A+B+C+Dに対応する。正解率は、正しく判断できた割合を表すため、シンプルでわかりやすい指標である。
以上のように、性能情報処理部120は、性能情報として、複数の識別器候補の識別性能を示すデータを表示する処理を行ってもよい。識別性能を示すデータとは、例えば統計的な指標値であって、上記のように再現率であってもよいし、特異度であってもよいし、正解率であってもよい。このようにすれば、識別器候補の識別性能をわかりやすい指標を用いてユーザに提示することが可能になる。
この際、性能情報処理部120は、複数の識別器候補の識別性能を示すデータとして、テストデータに対する複数の識別器候補の各々の検出結果を示すデータを表示する処理を行ってもよい。テストデータは、識別性能を判定するためのデータであり、上記のように注目領域の有無、位置、サイズ、分類結果等の情報が既知である。テストデータを用いることによって、識別器候補の識別性能を適切に判定することが可能になる。
3.4 過去の検査結果に基づく表示
また入力画像は生体を撮像した生体画像であって、性能情報処理部120は、複数の識別器候補の識別性能を示すデータとして、生体画像を用いた過去の検査における検出結果の適否を示すデータを表示してもよい。
また入力画像は生体を撮像した生体画像であって、性能情報処理部120は、複数の識別器候補の識別性能を示すデータとして、生体画像を用いた過去の検査における検出結果の適否を示すデータを表示してもよい。
例えば、ユーザ選択によって所与の識別器候補が識別器として選択された後、当該識別器を用いた検出結果が表示される。当該表示に対してユーザが何らかのアクションを行った場合に、当該アクションをフィードバックとすることによって識別性能を示すデータが生成される。
ユーザによるフィードバックとは、例えば生体の切除及び、切除された生体に対する病理解析結果の入力である。例えばユーザは、識別器によって病変として提示された領域を、エネルギーデバイス等の処置具を用いて切除、摘出する。切除された生体に対して、病理解析が行われる。ユーザは、病理解析の結果に基づいて、切除された生体が識別器の提示通りの病変であったか否かを表す情報をフィードバックする。例えば性能情報処理部120は、全切除数に対して、生体が検出結果通りの病変であった割合を求めることによって、上記の正解率に類似する指標を求めることが可能である。
或いは、ユーザによるフィードバックとは、ユーザによって切除等の処置の対象となった領域と、識別器が提示した病変領域との関係を表す情報であってもよい。より具体的には、ユーザは、識別器が病変として提示していない領域に対する処置を行った場合、その旨を表す情報をフィードバックする。これは、識別器が検出できなかった病変を、ユーザが独自に発見して処置をしたことに対応する。よって、性能情報処理部120は、ユーザからのフィードバックに基づいて、病変を病変でないと誤って判断した割合を表す指標を求めることが可能である。
なお、過去の検査における検出結果の適否を表すデータは、テストデータを用いる例と同様に、数値データとして求めることが可能である。よって性能情報処理部120は、過去の検査における検出結果の適否を表すデータを、図12(A)~図12(C)に示すようにグラフを用いて表示する処理を行ってもよいし、図13に示すように表を用いて表示する処理を行ってもよい。
3.5 学習データの表示
以上では、性能情報が、識別器候補に何らかの画像を入力した検出結果そのもの、或いは、検出結果に基づいて求められる情報である例について説明した。ただし、本実施形態の性能情報は、検出結果の取得が必要なものに限定されない。
以上では、性能情報が、識別器候補に何らかの画像を入力した検出結果そのもの、或いは、検出結果に基づいて求められる情報である例について説明した。ただし、本実施形態の性能情報は、検出結果の取得が必要なものに限定されない。
図14は、性能情報を表示する画面の他の例である。図14に示すように、性能情報処理部120は、複数の識別器候補の識別性能を示すデータとして、複数の識別器候補の学習に用いた学習データを表示する処理を行ってもよい。図14では、第1識別器候補と第2識別器候補のそれぞれについて、学習データに含まれる隆起病変、平坦病変及び陥凹病変のそれぞれの病変の割合を円グラフで表示している。図14に示す例では、第1識別器候補の学習データは隆起病変の割合が高く、第2識別器候補の学習データは平坦病変の割合が高いことがわかる。よってユーザは、第1識別器候補は隆起病変の検出に適しており、第2識別器候補は平坦病変の検出に適していると推定することが可能である。
以上のように、本実施形態における性能情報の表示態様は種々の変形実施が可能である。例えば図9~図13のように具体的な検出結果を用いた場合、識別器候補の性能情報の精度を高くできる点で有利である。一方、図14のように学習データを用いた場合、具体的な検出結果が不要であるため、性能情報の生成、表示が容易である点で有利である。
4.変形例
以下、いくつかの変形例について説明する。
以下、いくつかの変形例について説明する。
ユーザ選択受付部130は、複数の識別器候補のうちの2以上の識別器候補を選択するユーザ選択を受付可能であってもよい。識別部110は、ユーザが選択した2以上の識別器候補の中から、識別器を選択する処理を行う。このようにすれば、ユーザが性能情報を見ても1つの識別器候補に絞り込むことができない場合に、診断支援システム100が識別器の選択をサポートすることが可能になる。
識別部110は、検出結果の確からしさを表す信頼度に基づいて、識別器を選択してもよい。例えば学習モデルが、病変領域と正常領域の2つを識別する場合、学習済モデルの出力層は、対象領域が病変領域である確からしさと、正常領域である確からしさを出力する。出力層が公知のソフトマックス層である場合、病変領域である確からしさと、正常領域である確からしさは和が1となる確率データである。例えば識別部110は、病変領域である確からしさが所与の閾値以上の場合に、病変を検出したと判定し、検出結果を出力する。
ユーザ選択に基づいて3以上の識別器候補から、第1識別器候補と第2識別器候補が選択されたとする。識別部110は、例えば観察モードにおいて第1識別器候補と第2識別器候補にそれぞれ入力画像を入力する処理を行う。識別部110は、第1識別器候補の出力した病変領域の確からしさを表す信頼度と、第2識別器候補が出力した信頼度を比較し、より値が大きい識別器候補を、識別器として自動選択する処理を行う。このようにすれば、信頼度の高い識別器候補を自動選択することが可能になる。
またユーザ選択受付部130は、複数のユーザによる識別器の選択を受け付けてもよい。例えば本実施形態の診断支援システム100は病院ごとに設けられ、病院ごとに複数の識別器候補が異なる。複数の識別器候補が異なるとは、全ての識別器候補が一致しないことを表し、上記オリジナル識別器のように一部の識別器候補が重複してもよい。所与の病院の識別器候補は例えばカスタム識別器候補を含むため、その病院に適した特性を有すると考えられるが、1つの病院内でも嗜好の異なる複数のユーザが診断支援システム100を利用することが想定される。その点、複数のユーザがそれぞれ識別器を選択することを可能にすることによって、1つの診断支援システム100を用いるグループ内でも、ユーザの嗜好に合わせた検出結果の切り替えが可能になる。具体的には、識別部110は、ユーザに応じた識別器の検出結果を出力する。
その際、記憶部(例えば記憶部333)は、ユーザごとの識別器の選択履歴を記憶してもよい。このようにすれば、デフォルトの識別器をユーザごとに変更できるため、2回目以降の識別器選択に関するユーザ負荷を軽減可能である。
またユーザ選択受付部130は、ユーザによる入力画像の観察前に、ユーザによる識別器の第1選択を受け付けた後、ユーザによる前記入力画像の観察中に、ユーザによる識別器の第2選択を受け付けてもよい。
図15は、本変形例の処理を説明するフローチャートである。図15のステップS301~S305は、図3のステップS101~S105と同様である。即ち、診断支援システム100は、観察モードの開始前に識別器のユーザ選択である第1選択を受け付け可能である。
ステップS305において観察モードを開始した後、ステップS306において、内視鏡システム300の制御部332は、診断支援システム100の動作モードが、識別器修正モードであるか否かを判定する。
ステップS306でYesの場合、ステップS307において、性能情報処理部120は、識別器候補の性能情報を表示する処理を行う。ステップS308において、ユーザ選択受付部130は、識別器候補のいずれかを選択するユーザ選択を受け付ける処理を行う。識別部110は、ユーザによって選択された識別器候補を、検出結果の出力に用いる識別器として特定する。
またステップS306でNoの場合、識別器を修正するユーザ選択である第2選択の受付は行われない。この場合、例えば識別部110は、第1選択で選択された識別器候補、又は、初期設定されている識別器候補を、検出結果の出力に用いる識別器として特定する。
ステップS308の処理後、又は、ステップS306でNoの場合、ステップS309において、診断支援システム100は観察モードでの動作を再開する。
このようにすれば、病変を検出するための1回の観察を行う際に、複数回のユーザ選択を受け付けることが可能になる。まず観察前に第1選択を受け付けることによって、病変が画像中に出現した際に、スムーズに検出結果の表示を開始することが可能になる。また観察中に第2選択を受け付けることによって、実際の検出結果がユーザの嗜好に合致しない場合等に、検出結果を嗜好に合わせて切り替えることが可能になる。なお、第1選択のために表示される性能情報と、第2選択のために表示される性能情報は同じ情報であってもよいし、異なる情報であってもよい。また識別器の修正は、1回の観察の中で2回以上実行されてもよい。
また本実施形態における複数の識別器候補は、共通の学習済モデルに対して、異なる設定を行うことによって生成された2つ以上の識別器候補を含んでもよい。学習済モデルに対する設定とは、具体的には注目領域を検出したと判定する際の閾値である。例えば上述したように、学習済モデルは対象が注目領域である確からしさを出力し、当該確からしさが閾値以上である場合に、注目領域を検出したと判定する。閾値を変更することによって、注目領域の検出感度を変更することが可能である。即ち、学習済モデルの設定を変更することによって、検出感度が異なる複数の識別器候補を容易に生成することが可能になる。その際、本実施形態の手法では性能情報が表示されるため、閾値変更に伴う検出結果の違いをわかりやすくユーザに提示することが可能である。
以上、本実施形態およびその変形例について説明したが、本開示は、各実施形態やその変形例そのままに限定されるものではなく、実施段階では、要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることができる。例えば、各実施形態や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、本開示の主旨を逸脱しない範囲内において種々の変形や応用が可能である。また、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。
NW…ネットワーク、100…診断支援システム、110…識別部、120…性能情報処理部、130…ユーザ選択受付部、210…学習部、220…学習装置、300…内視鏡システム、310…挿入部、311…対物光学系、312…撮像素子、314…照明レンズ、315…ライトガイド、330…処理装置、331…画像取得部、332…制御部、333…記憶部、336…表示処理部、340…表示部、350…光源装置、352…光源、400…画像収集用内視鏡システム
Claims (23)
- 入力画像から注目領域を検出するときの検出結果が互いに異なる複数の識別器候補に基づいて、複数の前記検出結果を出力可能な識別部と、
前記複数の識別器候補の性能に関する情報である性能情報を表示する処理を行う性能情報処理部と、
ユーザによるユーザ選択を受け付けるユーザ選択受付部と、
を含み、
前記ユーザ選択受付部は、
前記複数の識別器候補のうちの少なくとも1つを出力対象の識別器として選択する前記ユーザ選択を受け付け、
前記識別部は、
前記ユーザ選択によって選択された前記識別器の前記検出結果を出力することを特徴とする診断支援システム。 - 請求項1において、
前記性能情報は、複数の前記識別器候補の性能の差異を示す比較情報であることを特徴とする診断支援システム。 - 請求項1において、
前記複数の識別器候補は、
前記注目領域の存在有無に係る検出感度が互いに異なることを特徴とする診断支援システム。 - 請求項3において、
前記複数の識別器候補は、
前記注目領域の形状に係る前記検出感度、前記注目領域の大きさに係る前記検出感度、前記注目領域の色に係る前記検出感度の、少なくとも1つの前記検出感度が互いに異なることを特徴とする診断支援システム。 - 請求項3において、
前記注目領域は病変に対応する領域であり、
前記複数の識別器候補は、
前記病変の医学的分類に係る前記検出感度が互いに異なることを特徴とする診断支援システム。 - 請求項1において、
前記複数の識別器候補は、
前記入力画像を撮像した際の撮像状態に応じた前記検出結果が互いに異なることを特徴とする診断支援システム。 - 請求項1において、
前記複数の識別器候補は、
前記入力画像に対する処理方法が互いに異なることを特徴とする診断支援システム。 - 請求項1において、
前記複数の識別器候補は、
オリジナル識別器候補と、前記ユーザが作成したカスタム識別器候補とを含むことを特徴とする診断支援システム。 - 請求項8において、
前記カスタム識別器候補は、
前記ユーザの保有画像を含む学習用画像を用いた機械学習に基づいて作成されていることを特徴とする診断支援システム。 - 請求項1において、
前記性能情報処理部は、
前記性能情報として、前記複数の識別器候補の各々の前記検出結果を表示する処理を行うことを特徴とする診断支援システム。 - 請求項10において、
前記性能情報処理部は、
前記性能情報として、同一の前記入力画像に対する前記複数の識別器候補の各々の前記検出結果を同時に表示する処理を行うことを特徴とする診断支援システム。 - 請求項1において、
前記性能情報処理部は、
前記複数の識別器候補の各前記識別器候補が検出可能な複数の前記注目領域を一覧表示する処理を行うことを特徴とする診断支援システム。 - 請求項12において、
前記注目領域は病変に対応する領域であり、
前記性能情報処理部は、
隆起病変、平坦病変、陥凹病変のそれぞれに関して、前記複数の識別器候補の各前記識別器候補が検出可能な複数の前記病変を一覧表示する処理を行うことを特徴とする診断支援システム。 - 請求項1において、
前記性能情報処理部は、
前記性能情報として、前記複数の識別器候補の識別性能を示すデータを表示する処理を行うことを特徴とする診断支援システム。 - 請求項14において、
前記性能情報処理部は、
前記複数の識別器候補の前記識別性能を示す前記データとして、テストデータに対する前記複数の識別器候補の各々の前記検出結果を示すデータを表示する処理を行うことを特徴とする診断支援システム。 - 請求項14において、
前記性能情報処理部は、
前記複数の識別器候補の前記識別性能を示す前記データとして、前記複数の識別器候補の学習に用いた学習データを表示する処理を行うことを特徴とする診断支援システム。 - 請求項14において、
前記入力画像は、生体を撮像した生体画像であって、
前記性能情報処理部は、
前記複数の識別器候補の前記識別性能を示す前記データとして、前記生体画像を用いた過去の検査における前記検出結果の適否を示すデータを表示する処理を行うことを特徴とする診断支援システム。 - 請求項1において、
前記ユーザ選択受付部は、
前記複数の識別器候補のうちの2以上の前記識別器候補を選択する前記ユーザ選択を受付可能であり、
前記識別部は、
前記ユーザが選択した前記2以上の識別器候補の中から、前記識別器を選択する処理を行うことを特徴とする診断支援システム。 - 請求項1において、
前記ユーザ選択受付部は、
複数の前記ユーザによる前記識別器の選択を受け付け、
前記識別部は、
前記ユーザに応じた前記識別器の前記検出結果を出力することを特徴とする診断支援システム。 - 請求項1において、
前記ユーザ選択受付部は、
前記ユーザによる前記入力画像の観察前に、前記ユーザによる前記識別器の第1選択を受け付けた後、
前記ユーザによる前記入力画像の観察中に、前記ユーザによる前記識別器の第2選択を受け付けることを特徴とする診断支援システム。 - 請求項1において、
前記複数の識別器候補は、
共通の学習済モデルに対して、異なる設定を行うことによって生成された2つ以上の前記識別器候補を含むことを特徴とする診断支援システム。 - 入力画像から注目領域を検出するときの検出結果が互いに異なる複数の識別器候補の性能に関する情報である性能情報を取得することと、
取得した前記性能情報をユーザに提示することと、
前記複数の識別器候補のうちの少なくとも1つを出力対象の識別器として選択するユーザ選択を受け付けることと、
前記ユーザ選択によって選択された前記識別器の前記検出結果を出力することと、
を含むことを特徴とする診断支援方法。 - 入力画像から注目領域を検出するときの検出結果が互いに異なる複数の識別器候補の性能に関する情報である性能情報を取得することと、
取得した前記性能情報をユーザに提示することと、
前記複数の識別器候補のうちの少なくとも1つを出力対象の識別器として選択するユーザ選択を受け付けることと、
前記ユーザ選択によって選択された前記識別器の前記検出結果を出力することと、
をコンピュータに実行させることを特徴とする診断支援プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/029636 WO2022029824A1 (ja) | 2020-08-03 | 2020-08-03 | 診断支援システム、診断支援方法及び診断支援プログラム |
US18/076,663 US20230100147A1 (en) | 2020-08-03 | 2022-12-07 | Diagnosis support system, diagnosis support method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/029636 WO2022029824A1 (ja) | 2020-08-03 | 2020-08-03 | 診断支援システム、診断支援方法及び診断支援プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US18/076,663 Continuation US20230100147A1 (en) | 2020-08-03 | 2022-12-07 | Diagnosis support system, diagnosis support method, and storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022029824A1 true WO2022029824A1 (ja) | 2022-02-10 |
Family
ID=80117171
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2020/029636 WO2022029824A1 (ja) | 2020-08-03 | 2020-08-03 | 診断支援システム、診断支援方法及び診断支援プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230100147A1 (ja) |
WO (1) | WO2022029824A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024084578A1 (ja) * | 2022-10-18 | 2024-04-25 | 日本電気株式会社 | 画像処理装置、画像処理方法及び記憶媒体 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002165757A (ja) * | 2000-11-30 | 2002-06-11 | Olympus Optical Co Ltd | 診断支援装置 |
WO2016185617A1 (ja) * | 2015-05-21 | 2016-11-24 | オリンパス株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
WO2019122338A1 (en) * | 2017-12-22 | 2019-06-27 | Syddansk Universitet | Dual-mode endoscopic capsule with image processing capabilities |
-
2020
- 2020-08-03 WO PCT/JP2020/029636 patent/WO2022029824A1/ja active Application Filing
-
2022
- 2022-12-07 US US18/076,663 patent/US20230100147A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002165757A (ja) * | 2000-11-30 | 2002-06-11 | Olympus Optical Co Ltd | 診断支援装置 |
WO2016185617A1 (ja) * | 2015-05-21 | 2016-11-24 | オリンパス株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
WO2019122338A1 (en) * | 2017-12-22 | 2019-06-27 | Syddansk Universitet | Dual-mode endoscopic capsule with image processing capabilities |
Non-Patent Citations (6)
Title |
---|
AOKI, TOMONORI ET AL.: "Automatic detection of erosions and ulcerations in wireless capsule endoscopy images based on a deep convolutional neural network", GASTROINTESTINAL ENDOSCOPY, vol. 89, no. 2, 28 February 2019 (2019-02-28), pages 357 - 363, XP055894016, DOI: 10.1016/j.gie.2018.10.027 * |
HIRASAWA TOSHIAKI; AOYAMA KAZUHARU; TANIMOTO TETSUYA; ISHIHARA SOICHIRO; SHICHIJO SATOKI; OZAWA TSUYOSHI; OHNISHI TATSUYA; FUJISHI: "Application of artificial intelligence using a convolutional neural network for detecting gastric cancer in endoscopic images", GASTRIC CANCER, SPRINGER SINGAPORE, SINGAPORE, vol. 21, no. 4, 15 January 2018 (2018-01-15), Singapore, pages 653 - 660, XP036674454, ISSN: 1436-3291, DOI: 10.1007/s10120-018-0793-2 * |
KOIDE, TETSUSHI: "Region division of large intestine NB I magnified endoscopic image by pyramid type classifier using Support Vector Machine", THE 20TH SYMPOSIUM ON SENSING VIA IMAGE INFORMATION (SSII2014); JUNE 11-13, 13 June 2014 (2014-06-13) - 13 June 2014 (2014-06-13), JP, pages IS3 - IS3-12-7, XP009534955 * |
LIU, MING ET AL.: "Colonic polyp detection in endoscopic videos with single shot detection based deep convolutional neural network", IEEE ACCESS, vol. 7, 20 June 2019 (2019-06-20), pages 75058 - 75066, XP011731150, DOI: 10.1109/ACCESS.2019.2921027 * |
SAKAI, Y.: "Automatic detection of early gastric cancer in endoscopic images using a transferring convolutional neural network", 2018 40TH ANNUAL INTERNATIONAL CONFERENCE OF THE IEEE ENGINEERING IN MEDICINE AND BIOLOGY SOCIETY (EMBC, 21 July 2018 (2018-07-21), pages 4138 - 4141, XP033429322, DOI: 10.1109/EMBC.2018.8513274 * |
SEKUBOYINA ANJANY KUMAR, DEVARAKONDA SURYA TEJA, SEELAMANTULA CHANDRA SEKHAR: "A convolutional neural network approach for abnormality detection in Wireless Capsule Endoscopy", 2017 IEEE 14TH INTERNATIONAL SYMPOSIUM ON BIOMEDICAL IMAGING (ISBI) IEEE PISCATAWAY, NJ, USA, 1 April 2017 (2017-04-01) - 21 April 2017 (2017-04-21), pages 1057 - 1060, XP055905423, ISBN: 978-1-5090-1172-8, DOI: 10.1109/ISBI.2017.7950698 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024084578A1 (ja) * | 2022-10-18 | 2024-04-25 | 日本電気株式会社 | 画像処理装置、画像処理方法及び記憶媒体 |
WO2024084838A1 (ja) * | 2022-10-18 | 2024-04-25 | 日本電気株式会社 | 画像処理装置、画像処理方法及び記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
US20230100147A1 (en) | 2023-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021181520A1 (ja) | 画像処理システム、画像処理装置、内視鏡システム、インターフェース及び画像処理方法 | |
US11721086B2 (en) | Image processing system and image processing method | |
WO2018143180A1 (ja) | 画像処理装置、および画像処理プログラム | |
US20220059227A1 (en) | Method for displaying ultrasonic image, ultrasonic diagnostic device, and computer program product | |
JP2023021440A (ja) | 眼の画像内における病変の検知 | |
JP6878923B2 (ja) | 画像処理装置、画像処理システム、および画像処理プログラム | |
JP2018121886A (ja) | 画像処理装置、および画像処理プログラム | |
JP7395695B2 (ja) | 診断支援装置、診断支援システム、診断支援方法、及び診断支援プログラム | |
JP7429715B2 (ja) | 画像処理システム、内視鏡システム、画像処理システムの作動方法及びプログラム | |
US20230050945A1 (en) | Image processing system, endoscope system, and image processing method | |
KR102492463B1 (ko) | 병변 판독 결과 표시 방법 | |
WO2022029824A1 (ja) | 診断支援システム、診断支援方法及び診断支援プログラム | |
US11191526B2 (en) | Ultrasound diagnosis apparatus and method of controlling the same | |
US20230281968A1 (en) | Recording Medium, Method for Generating Learning Model, Surgical Support Device and Information Processing Method | |
JP7273470B2 (ja) | 医用情報処理装置及び医用情報処理方法、プログラム | |
WO2021220822A1 (ja) | 画像診断装置、画像診断方法、画像診断プログラムおよび学習済みモデル | |
JPWO2021014584A1 (ja) | プログラム、情報処理方法及び情報処理装置 | |
US20220335610A1 (en) | Image processing system, training method for training device, and storage medium | |
US20220361739A1 (en) | Image processing apparatus, image processing method, and endoscope apparatus | |
JP2009061175A (ja) | 医用画像処理装置及びプログラム | |
US20220222820A1 (en) | Image processing apparatus, image processing method, and program | |
KR102637484B1 (ko) | 인공지능 기반의 내시경 진단 보조 시스템 및 이의 제어방법 | |
JP7056698B2 (ja) | 特徴量取得装置、類似画像検索装置、表示装置、特徴量取得方法、類似画像検索方法、表示方法及びプログラム | |
WO2022270582A1 (ja) | 検査支援装置、検査支援方法および検査支援プログラム | |
EP4230108A1 (en) | Computer aided assistance system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20948407 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 20948407 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: JP |