WO2020017211A1 - Medical image learning device, medical image learning method, and program - Google Patents

Medical image learning device, medical image learning method, and program Download PDF

Info

Publication number
WO2020017211A1
WO2020017211A1 PCT/JP2019/023882 JP2019023882W WO2020017211A1 WO 2020017211 A1 WO2020017211 A1 WO 2020017211A1 JP 2019023882 W JP2019023882 W JP 2019023882W WO 2020017211 A1 WO2020017211 A1 WO 2020017211A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
learning
band
group
light
Prior art date
Application number
PCT/JP2019/023882
Other languages
French (fr)
Japanese (ja)
Inventor
駿平 加門
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2020530944A priority Critical patent/JP6931425B2/en
Publication of WO2020017211A1 publication Critical patent/WO2020017211A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Provided are a medical image learning device, a medical image learning method, and a program by which learning for handling a plurality of images having different spectral distributions can be performed without requiring many correct images to be collected for each of the images having different spectral distributions. The medical image learning device is provided with: image acquisition units (30, 40) which acquire a first image and a second image having different spectral distributions; an image processing unit (40) which generates a third image by performing image processing on the first image; and a learning unit (30) that is caused to learn a recognizer to be adopted for automatic recognition by using a first image group, a second image group, a third image group, and correct data for the respective images. The image processing unit generates the third image from the first image by suppressing, in the first image, signals in a bandwidth having different characteristics from those in the second image and/or by enhancing, in the first image, signals in a bandwidth having characteristics identical or similar to those in the second image.

Description

医用画像学習装置、医用画像学習方法、及びプログラムMedical image learning device, medical image learning method, and program
 本発明は医用画像学習装置、医用画像学習方法、及びプログラムに係り、特に特殊光観察画像の学習に関する。 The present invention relates to a medical image learning device, a medical image learning method, and a program, and particularly to learning of a special light observation image.
 医療分野において、ディープラーニングと呼ばれる深層学習を適用したAI技術が期待されている。AI技術の一例として、病変の自動検出及び病変の自動鑑別が挙げられる。なお、AIはArtificial Intelligenceの省略語である。 In the medical field, AI technology applying deep learning called deep learning is expected. As an example of the AI technology, there is an automatic detection of a lesion and an automatic identification of a lesion. AI is an abbreviation for Artificial Intelligence.
 特許文献1は、可視光の波長領域を撮像して可視光領域を表すカラー画像である通常画像と、狭帯域分光画像である診断用画像とを生成する電子内視鏡装置が記載されている。同文献には、通常画像に演算処理を適用して、狭帯域バンドパスフィルタを用いて得られた狭帯域画像と同等の画像を取得して、診断用画像を生成することが記載されている。 Patent Literature 1 describes an electronic endoscope apparatus that captures a wavelength region of visible light and generates a normal image that is a color image representing the visible light region and a diagnostic image that is a narrow-band spectral image. . The document describes that a diagnostic image is generated by applying an arithmetic process to a normal image to obtain an image equivalent to a narrowband image obtained using a narrowband bandpass filter. .
 特許文献2は、マルチセンサ情報について、人工知能装置の機械学習及び人工知能装置の動作の検証を支援する機械学習支援装置が記載されている。同文献には、分光データの特徴スペクトル部分を保持したまま、その他の波形部分をランダムに変化させるなどして学習用の仮想データを生成することが記載されている。また、同文献には、仮想データセットを使用して人工知能装置を予め学習させることが記載されている。 Patent Document 2 describes a machine learning support device that supports machine learning of an artificial intelligence device and verification of the operation of the artificial intelligence device for multi-sensor information. The document describes that virtual data for learning is generated by randomly changing other waveform portions while retaining the characteristic spectrum portion of the spectral data. Further, the document describes that an artificial intelligence device is learned in advance using a virtual data set.
特開2010-75368号公報JP 2010-75368 A 特開2017-102755号公報JP-A-2017-102755
 しかしながら、学習モデルの開発には大量の正解データセットを必要とする。なお、ここでいう正解データセットとは、画像及び画像の認識結果の組を意味する。医療分野においては、正解データセットの収集が学習モデルの開発の障壁となる。内視鏡装置を用いた観察には、通常光を用いた観察だけでなく、BLI(Blue LAZER Imaging)等の特殊光を用いた観察が存在する。複数のモードに対応可能なAIの開発は、さらに、大量の正解データセットを収集する必要が生じる。 However, developing a learning model requires a large amount of correct data sets. Here, the correct answer data set means an image and a set of image recognition results. In the medical field, collecting correct answer data sets is a barrier to the development of learning models. The observation using the endoscope apparatus includes not only observation using normal light but also observation using special light such as BLI (Blue LAZER Imaging). The development of an AI that can handle multiple modes also requires the collection of a large number of correct data sets.
 ここでいう通常光の一例として白色光が挙げられる。白色光は複数の波長帯域の光を含み得る。また、特殊光の一例として、白色光の波長帯域よりも狭い帯域の光が挙げられる。特殊光は複数の波長帯域の光を含み得る。 白色 One example of the normal light here is white light. White light may include light in multiple wavelength bands. An example of the special light is light in a band narrower than the wavelength band of white light. The special light may include light of a plurality of wavelength bands.
 特許文献1には、学習に関する記載はない。また、特許文献1には、輝度の調整等の記載はあるものの、分光分布における帯域成分の違いに注目した処理の切り替えに関する記載はない。 Patent Document 1 has no description about learning. Further, although Patent Literature 1 describes the adjustment of luminance and the like, it does not describe switching of a process that focuses on a difference between band components in a spectral distribution.
 特許文献2には、分光データのスペクトル成分を保持したまま、その他の波長成分をランダムに変化させて生成される学習用の仮想データセットについて記載されている。一方、特許文献2には、分光分布が異なる複数の画像群において、対応する帯域における帯域成分を学習に利用する旨の記載はない。 Patent Document 2 describes a learning virtual data set generated by randomly changing other wavelength components while retaining the spectral components of the spectral data. On the other hand, Patent Literature 2 does not disclose that a band component in a corresponding band is used for learning in a plurality of image groups having different spectral distributions.
 本発明はこのような事情に鑑みてなされたもので、分光分布が異なる画像ごとに大量の正解画像の収集を行うことなく、分光分布が異なる複数の画像に対応した学習を実現し得る、医用画像学習装置、医用画像学習方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and can realize learning corresponding to a plurality of images having different spectral distributions without collecting a large amount of correct images for images having different spectral distributions. It is an object to provide an image learning device, a medical image learning method, and a program.
 上記目的を達成するために、次の発明態様を提供する。 た め The following aspects of the invention are provided to achieve the above object.
 第1態様に係る医用画像学習装置は、互いに分光分布が異なる第一画像及び第二画像を取得する画像取得部と、第一画像に画像処理を施して第三画像を生成する画像処理部と、複数の第一画像を含む第一画像群、複数の第二画像を含む第二画像群、及び複数の第三画像を含む第三画像群、並びに第一画像群、第二画像群、及び第三画像群のそれぞれの正解データを用いて、自動認識に適用する認識器を学習させる学習部と、を備え、画像処理部は、第一画像の分光分布に含まれる帯域のうち第二画像の対応する帯域と特性が異なる帯域の信号を抑制する画像処理、及び第一画像に含まれる帯域のうち第二画像の対応する帯域と特性が同一の帯域の信号又は類似する帯域の信号を強調する画像処理の少なくともいずれかを施して、第一画像から第三画像を生成する医用画像学習装置である。 The medical image learning device according to the first aspect includes an image acquisition unit that acquires a first image and a second image having different spectral distributions from each other, and an image processing unit that performs image processing on the first image to generate a third image. , A first image group including a plurality of first images, a second image group including a plurality of second images, and a third image group including a plurality of third images, and a first image group, a second image group, and A learning unit that learns a recognizer to be applied to the automatic recognition using the correct data of each of the third image group, and an image processing unit, wherein the second image among the bands included in the spectral distribution of the first image Image processing for suppressing a signal in a band having a characteristic different from that of the corresponding band, and enhancing a signal of a band having the same characteristic as the corresponding band of the second image or a signal of a similar band among the bands included in the first image. To perform at least one of the image processing A medical image learning device for generating a third image.
 第1態様によれば、分光分布が異なる第一画像及び第二画像について、第一画像の分光分布に含まれる帯域のうち、第二画像の対応する帯域との特性が同一の帯域の信号又は類似する帯域の信号を強調するか、又は第二画像の対応する帯域との特性が相違する帯域の信号を抑制して第三画像を生成する。複数の第一画像を含む第一画像群、複数の第二画像を含む第二画像群、及び複数の第三画像を含む第三画像群、並びに各画像群の正解データを用いて、自動認識に適用する分類器を学習させる。これにより、分光分布が異なる画像群ごとに大量の正解画像の収集を行うことなく、分光分布が異なる画像群ごとの学習を実現し得る。 According to the first aspect, for the first image and the second image having different spectral distributions, among the bands included in the spectral distribution of the first image, the signal or the signal of the band having the same characteristic as the corresponding band of the second image is used. A third image is generated by enhancing a signal in a similar band or suppressing a signal in a band having different characteristics from a corresponding band of the second image. Automatic recognition using a first image group including a plurality of first images, a second image group including a plurality of second images, and a third image group including a plurality of third images, and correct data of each image group Train a classifier to apply to. Accordingly, learning for each image group having a different spectral distribution can be realized without collecting a large amount of correct images for each image group having a different spectral distribution.
 分光分布が異なる画像の一例として、異なる観察モードが適用された画像が挙げられる。観察モードの一例として、照明光が異なるモードが挙げられる。 画像 An example of an image having a different spectral distribution is an image to which a different observation mode is applied. As an example of the observation mode, there is a mode in which the illumination light is different.
 第2態様は、第1態様の医用画像学習装置において、画像処理部は、第一画像に対して、輝度分散を変換する処理を施す構成としてもよい。 According to a second aspect, in the medical image learning device according to the first aspect, the image processing unit may perform a process of converting a luminance variance on the first image.
 第2態様によれば、第一画像に輝度分散を変換する処理を適用して、第一画像から第三画像を生成し得る。 According to the second aspect, the third image can be generated from the first image by applying the process of converting the luminance variance to the first image.
 第3態様は、第1態様の医用画像学習装置において、画像処理部は、第一画像に対して、輝度を規定の輝度値に変更する処理を施す構成としてもよい。 In a third aspect, in the medical image learning device according to the first aspect, the image processing unit may be configured to perform a process of changing the brightness of the first image to a specified brightness value.
 第3態様によれば、第一画像に輝度を規定の輝度値に変更する処理を適用して、第一画像から第三画像を生成し得る。 According to the third aspect, it is possible to generate a third image from the first image by applying the process of changing the luminance to the specified luminance value to the first image.
 第4態様は、第1態様の医用画像学習装置において、画像処理部は、第一画像に対して、輝度をランダムな輝度値に変更する処理を施す構成としてもよい。 According to a fourth aspect, in the medical image learning device according to the first aspect, the image processing unit may perform a process of changing a luminance to a random luminance value on the first image.
 第4態様によれば、第一画像に輝度をランダムな輝度値に変更する処理を適用して、第一画像から第三画像を生成し得る。 According to the fourth aspect, it is possible to generate a third image from the first image by applying the process of changing the luminance to a random luminance value to the first image.
 第5態様は、第1態様の医用画像学習装置において、第一画像は通常光を用いて撮像した通常光画像であり、第二画像は通常光よりも狭帯域の特殊光を用いて撮像した特殊光画像である構成としてもよい。 A fifth aspect is the medical image learning device according to the first aspect, wherein the first image is a normal light image captured using normal light, and the second image is captured using special light having a narrower band than the normal light. It may be configured to be a special light image.
 第5態様によれば、通常光観察モードを適用して第一画像を生成し得る。また、特殊光観察モードを適用して第二画像を生成し得る。 According to the fifth aspect, the first image can be generated by applying the normal light observation mode. In addition, the second image can be generated by applying the special light observation mode.
 第6態様は、第5態様の医用画像学習装置において、画像処理部は、通常光画像に対して、Bチャネル成分を抑制する処理を施す構成としてもよい。 According to a sixth aspect, in the medical image learning device according to the fifth aspect, the image processing unit may perform a process of suppressing a B channel component on the normal light image.
 第6態様によれば、通常光画像のBチャネル成分を抑制して、第三画像を生成し得る。 According to the sixth aspect, the third image can be generated by suppressing the B channel component of the normal light image.
 第7態様は、第5態様の医用画像学習装置において、画像処理部は、通常光画像に対して、Rチャネル成分及びGチャネル成分の少なくともいずれか一方を強調する処理を施す構成としてもよい。 According to a seventh aspect, in the medical image learning device according to the fifth aspect, the image processing unit may perform a process of enhancing at least one of the R channel component and the G channel component on the normal light image.
 第7態様によれば、通常光画像のRチャネル成分及びGチャネル成分の少なくともいずれか一方を強調して、第三画像を生成し得る。 According to the seventh aspect, at least one of the R channel component and the G channel component of the normal light image can be enhanced to generate the third image.
 第8態様は、第5態様の医用画像学習装置において、画像処理部は、通常光画像に対して、Rチャネル成分を抑制する処理を施す構成としてもよい。 In an eighth aspect, in the medical image learning device according to the fifth aspect, the image processing unit may be configured to perform processing for suppressing the R channel component on the normal light image.
 第8態様によれば、通常光画像のRチャネル成分を抑制して、第三画像を生成し得る。 According to the eighth aspect, the third image can be generated by suppressing the R channel component of the normal light image.
 第8態様における特殊光画像の例として、通常光画像のRチャネル成分が欠落した画像が挙げられる。 特殊 As an example of the special light image in the eighth mode, there is an image in which the R channel component of the normal light image is missing.
 第9態様は、第5態様の医用画像学習装置において、画像処理部は、通常光画像に対して、Bチャネル成分及びGチャネル成分を強調する処理を施す構成としてもよい。 According to a ninth aspect, in the medical image learning apparatus according to the fifth aspect, the image processing unit may perform a process of enhancing a B-channel component and a G-channel component on the normal light image.
 第9態様によれば、通常光画像のBチャネル成分及びGチャネル成分を強調して、第三画像を生成し得る。 According to the ninth aspect, the third image can be generated by enhancing the B channel component and the G channel component of the normal light image.
 第9態様における特殊光画像の例として、通常光画像のRチャネル成分が欠落した画像が挙げられる。 特殊 As an example of the special light image in the ninth aspect, there is an image in which the R channel component of the normal light image is missing.
 第10態様は、第1態様の医用画像学習装置において、画像処理部は、第一画像の処理対象帯域における空間周波数の規定の周波数成分を抑制する処理、又は第一画像の処理対象帯域における空間周波数の規定の周波数成分を強調する処理を施す構成としてもよい。 A tenth aspect is the medical image learning device according to the first aspect, wherein the image processing unit is configured to suppress a specified frequency component of a spatial frequency in a processing target band of the first image, or to perform spatial processing in a processing target band of the first image. A configuration may be adopted in which processing for emphasizing a prescribed frequency component of the frequency is performed.
 第10態様によれば、第一画像の空間周波数のうち、第二画像と相違する周波数成分を抑制するか、第二画像と同一又は類似する周波数成分を強調して、第一画像から第三画像を生成し得る。 According to the tenth aspect, of the spatial frequencies of the first image, frequency components different from those of the second image are suppressed, or frequency components that are the same as or similar to those of the second image are emphasized. Images can be generated.
 第11態様は、第10態様の医用画像学習装置において、第一画像は通常光を用いて撮像した通常光画像であり、第二画像は通常光よりも狭帯域の特殊光を用いて撮像した特殊光画像であり、画像処理部は、通常光画像のBチャネル成分の高周波成分を強調する処理を施す構成としてもよい。 An eleventh aspect is the medical image learning device according to the tenth aspect, wherein the first image is a normal light image captured using normal light, and the second image is captured using special light having a narrower band than the normal light. It is a special light image, and the image processing unit may be configured to perform processing for enhancing the high frequency component of the B channel component of the normal light image.
 第11態様によれば、通常光画像のBチャネル成分における空間周波数のうち高周波成分を強調して、通常光画像から第三画像を生成し得る。 According to the eleventh aspect, the high frequency component among the spatial frequencies in the B channel component of the normal light image can be emphasized to generate the third image from the normal light image.
 第12態様は、第1態様から第11態様のいずれか一態様の医用画像学習装置において、学習部は、第一画像群の学習と第二画像群の学習との学習方法を切り替える構成としてもよい。 According to a twelfth aspect, in the medical image learning device according to any one of the first to eleventh aspects, the learning unit may switch a learning method between learning of the first image group and learning of the second image group. Good.
 第12態様によれば、学習の精度が向上し得る。 According to the twelfth aspect, learning accuracy can be improved.
 第13態様は、第1態様から第11態様のいずれか一態様の医用画像学習装置において、学習部は、前記第二画像群の学習と前記第三画像群の学習との学習方法を切り替える構成としてもよい。 A thirteenth aspect is a medical image learning device according to any one of the first to eleventh aspects, wherein the learning unit switches a learning method between learning of the second image group and learning of the third image group. It may be.
 第13態様によれば、学習の精度が向上し得る。 According to the thirteenth aspect, learning accuracy can be improved.
 第14態様は、第12態様又は第13態様の医用画像学習装置において、学習部は、学習における第三画像の影響を抑制又は強調する学習方法を適用する構成としてもよい。 In a fourteenth aspect, in the medical image learning device according to the twelfth aspect or the thirteenth aspect, the learning unit may be configured to apply a learning method for suppressing or enhancing the effect of the third image on the learning.
 第14態様によれば、学習における第三画像の影響を抑制又は強調し得る。これにより、学習の精度が向上し得る。 According to the fourteenth aspect, the effect of the third image on learning can be suppressed or emphasized. Thereby, learning accuracy can be improved.
 第15態様は、第12態様又は第13態様の医用画像学習装置において、学習部は、第一画像群、第三画像群、第一画像群の正解データ、及び第三画像群の正解データを用いた学習済の認識器、又は第三画像群及び第三画像群の正解データを用いた学習済の学習器に対して、第二画像群及び第二画像群の正解データを用いた学習を実施する構成としてもよい。 A fifteenth aspect is the medical image learning device according to the twelfth aspect or the thirteenth aspect, wherein the learning unit is configured to convert the first image group, the third image group, the correct data of the first image group, and the correct data of the third image group. The learning using the correct data of the second image group and the second image group is performed on the learned recognizer that has been used or the learning device that has learned using the correct data of the third image group and the third image group. It may be configured to be implemented.
 第15態様によれば、少なくとも第三画像群を用いた学習済の認識器に対して、第三画像群よりも信頼性が高い真のデータである第二画像群及び第二画像群の正解データを用いた再学習を実施する。これにより、学習の精度が向上し、認識器の精度が向上し得る。 According to the fifteenth aspect, the correctness of the second image group and the second image group, which are true data having higher reliability than the third image group, for at least the learned recognizer using the third image group. Re-learn using data. Thereby, the accuracy of learning can be improved, and the accuracy of the recognizer can be improved.
 第16態様に係る医用画像学習方法は、互いに分光分布が異なる第一画像及び第二画像を取得する画像取得工程と、第一画像に画像処理を施して第三画像を生成する画像処理工程と、複数の第一画像を含む第一画像群、複数の第二画像を含む第二画像群、及び複数の第三画像を含む第三画像群、並びに第一画像群、第二画像群、及び第三画像群のそれぞれの正解データを用いて、自動認識に適用する認識器を学習させる学習工程と、を含み、画像処理工程は、第一画像の分光分布に含まれる帯域のうち第二画像の対応する帯域と特性が異なる帯域の信号を抑制する画像処理、及び第一画像に含まれる帯域のうち第二画像の対応する帯域と特性が同一の帯域の信号又は類似する帯域の信号を強調する画像処理の少なくともいずれかを施して、第一画像から第三画像を生成する医用画像学習方法である。 The medical image learning method according to the sixteenth aspect includes an image acquisition step of acquiring a first image and a second image having different spectral distributions from each other, and an image processing step of performing image processing on the first image to generate a third image. , A first image group including a plurality of first images, a second image group including a plurality of second images, and a third image group including a plurality of third images, and a first image group, a second image group, and Using the correct data of each of the third image group, a learning step of learning a recognizer to be applied to automatic recognition, and the image processing step includes the second image of the band included in the spectral distribution of the first image Image processing for suppressing a signal in a band having a characteristic different from that of the corresponding band, and enhancing a signal of a band having the same characteristic as the corresponding band of the second image or a signal of a similar band among the bands included in the first image. To perform at least one of the image processing A medical image learning method for generating a third image from the first image.
 第16態様によれば、第1態様と同様の効果を得ることができる。 According to the sixteenth aspect, the same effect as in the first aspect can be obtained.
 第16態様において、第2態様から第15態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、医用画像学習装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担う医用画像学習方法の構成要素として把握することができる。 16In the sixteenth aspect, matters similar to the matters specified in the second to fifteenth aspects can be appropriately combined. In this case, the component that performs the process or function specified in the medical image learning device can be grasped as the component of the medical image learning method that performs the corresponding process or function.
 第17態様に係るプログラムは、コンピュータに、互いに分光分布が異なる第一画像及び第二画像を取得する画像取得機能、第一画像に画像処理を施して第三画像を生成する画像処理機能、及び複数の第一画像を含む第一画像群、複数の第二画像を含む第二画像群、及び複数の第三画像を含む第三画像群、並びに第一画像群、第二画像群、及び第三画像群のそれぞれの正解データを用いて、自動認識に適用する認識器を学習させる学習機能を実現させるプログラムであって、画像処理機能は、第一画像の分光分布に含まれる帯域のうち第二画像の対応する帯域と特性が異なる帯域の信号を抑制する画像処理、及び第一画像に含まれる帯域のうち第二画像の対応する帯域と特性が同一の帯域の信号又は類似する帯域の信号を強調する画像処理の少なくともいずれかを施して、第一画像から第三画像を生成するプログラムである。 A program according to a seventeenth aspect provides a computer with an image acquisition function of acquiring a first image and a second image having different spectral distributions, an image processing function of performing image processing on a first image to generate a third image, and A first image group including a plurality of first images, a second image group including a plurality of second images, and a third image group including a plurality of third images, and a first image group, a second image group, and a second image group. A program for realizing a learning function of learning a recognizer to be applied to automatic recognition using the correct data of each of the three images, wherein the image processing function includes a first image among the bands included in the spectral distribution of the first image. Image processing for suppressing a signal in a band having a characteristic different from the corresponding band of the two images, and a signal of a band having the same characteristic as the corresponding band of the second image or a signal of a similar band among the bands included in the first image Image processing that emphasizes At least subjected to one, it is a program that generates a third image from the first image.
 第17態様によれば、第1態様と同様の効果を得ることができる。 According to the seventeenth aspect, the same effect as in the first aspect can be obtained.
 第17態様において、第2態様から第15態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、医用画像学習装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担うプログラムの構成要素として把握することができる。 17 In the seventeenth aspect, matters similar to the matters specified in the second to fifteenth aspects can be appropriately combined. In this case, the component that performs the process or function specified in the medical image learning device can be grasped as the component of the program that performs the corresponding process or function.
 本発明によれば、分光分布が異なる第一画像及び第二画像について、第一画像の分光分布に含まれる帯域のうち、第二画像の対応する帯域との特性が同一の帯域の信号又は類似する帯域の信号を強調するか、又は第二画像の対応する帯域との特性が相違する帯域の信号を抑制して第三画像を生成する。複数の第一画像を含む第一画像群、複数の第二画像を含む第二画像群、及び複数の第三画像を含む第三画像群、並びに各画像群の正解データを用いて、自動認識に適用する分類器を学習する。これにより、分光分布が異なる画像群ごとに大量の正解画像の収集を行うことなく、分光分布が異なる画像群ごとの学習を実現し得る。 According to the present invention, for the first image and the second image having different spectral distributions, among the bands included in the spectral distribution of the first image, signals or similar signals having the same characteristic as the corresponding band of the second image are used. The third image is generated by emphasizing the signal of the band to be processed or suppressing the signal of the band having the characteristic different from the corresponding band of the second image. Automatic recognition using a first image group including a plurality of first images, a second image group including a plurality of second images, and a third image group including a plurality of third images, and correct data of each image group Learn the classifier applied to. Accordingly, learning for each image group having a different spectral distribution can be realized without collecting a large amount of correct images for each image group having a different spectral distribution.
図1は実施形態に係る内視鏡画像学習装置のハードウェア構成の一例を示すブロック図である。FIG. 1 is a block diagram illustrating an example of a hardware configuration of the endoscope image learning device according to the embodiment. 図2は実施形態に係る内視鏡画像学習装置の機能ブロック図である。FIG. 2 is a functional block diagram of the endoscope image learning device according to the embodiment. 図3は図2に示す学習部の機能ブロック図である。FIG. 3 is a functional block diagram of the learning unit shown in FIG. 図4は実施形態に係る内視鏡画像学習方法の手順を示すフローチャートである。FIG. 4 is a flowchart illustrating a procedure of the endoscopic image learning method according to the embodiment. 図5は撮像素子の分光感度の説明図である。FIG. 5 is an explanatory diagram of the spectral sensitivity of the image sensor. 図6は照明光の強度分布と内視鏡画像の分光分布との関係を示す説明図である。FIG. 6 is an explanatory diagram showing the relationship between the intensity distribution of the illumination light and the spectral distribution of the endoscope image. 図7は通常光画像の分光分布とNBIにおける特殊光画像の分光分布との関係を示す説明図である。FIG. 7 is an explanatory diagram showing the relationship between the spectral distribution of the normal light image and the spectral distribution of the special light image in the NBI. 図8は内視鏡システムの全体構成図である。FIG. 8 is an overall configuration diagram of the endoscope system. 図9は内視鏡システムの機能ブロック図である。FIG. 9 is a functional block diagram of the endoscope system. 図10は光の強度分布を示すグラフである。FIG. 10 is a graph showing the light intensity distribution.
 以下、添付図面に従って本発明の好ましい実施の形態について詳説する。本明細書では、同一の構成要素には同一の参照符号を付して、重複する説明は適宜省略することとする。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In this specification, the same components are denoted by the same reference characters, and redundant description will be omitted as appropriate.
 [内視鏡画像学習装置]
 本実施形態に示す内視鏡画像学習装置は、異なる観察モードにおいて取得された画像を組み合わせて学習データの数を拡張している。異なる観察モードにおいて取得された画像を学習に利用することにより、特定の観察モードにおいて取得された画像の数が十分でない場合にも、精度の高い学習が実現可能である。これにより、精度の高いAI技術の実現が可能となる。なお、実施形態に示す内視鏡画像学習装置は、医用画像学習装置の一例である。
[Endoscope image learning device]
The endoscopic image learning device according to the present embodiment extends the number of learning data by combining images acquired in different observation modes. By using the images acquired in different observation modes for learning, highly accurate learning can be realized even when the number of images acquired in a specific observation mode is not sufficient. This makes it possible to realize highly accurate AI technology. The endoscope image learning device according to the embodiment is an example of a medical image learning device.
 本実施形態では、LCI(Linked Color Imaging)を用いた注目領域の自動認識システムに適用される学習を例示する。なお、LCIは特殊光色彩強調機能を意味する。以下の説明において、学習という用語と、機械学習という用語は同義として取り扱うこととする。 In the present embodiment, an example of learning applied to an attention area automatic recognition system using LCI (Linked Color Imaging) will be described. LCI means a special light color enhancement function. In the following description, the term “learning” and the term “machine learning” will be treated as synonyms.
 〔内視鏡画像学習装置のハードウェア構成〕
 図1は実施形態に係る内視鏡画像学習装置のハードウェア構成の一例を示すブロック図である。内視鏡画像学習装置10は、パーソナルコンピュータ又はワークステーションを適用し得る。
[Hardware configuration of endoscope image learning device]
FIG. 1 is a block diagram illustrating an example of a hardware configuration of the endoscope image learning device according to the embodiment. The endoscope image learning device 10 can apply a personal computer or a workstation.
 内視鏡画像学習装置10は、通信部12、第一記憶装置14、第二記憶装置16、第三記憶装置17、操作部18、CPU20、RAM22、ROM24、及び表示部26を備える。なお、CPUはCentral Processing Unitの省略語である。RAMはRandom Access Memoryの省略語である。ROMはRead Only Memoryの省略語である。 The endoscope image learning device 10 includes a communication unit 12, a first storage device 14, a second storage device 16, a third storage device 17, an operation unit 18, a CPU 20, a RAM 22, a ROM 24, and a display unit 26. Note that CPU is an abbreviation of Central Processing Unit. RAM is an abbreviation for Random @ Access @ Memory. ROM is an abbreviation for Read \ Only \ Memory.
 通信部12は、外部装置との通信を処理するインターフェースである。通信部12は、汎用の通信インターフェースを適用し得る。通信部12は、有線又は無線のいずれも適用可能である。 The communication unit 12 is an interface that processes communication with an external device. The communication unit 12 can apply a general-purpose communication interface. The communication unit 12 can apply either wired or wireless communication.
 第一記憶装置14は、通常光観察モードを適用して撮像された複数の通常光画像を含む通常光画像群及び各通常光画像の正しい画像認識結果を示す正解データからなる第一データセットが記憶される。 The first storage device 14 has a first data set including a normal light image group including a plurality of normal light images captured by applying the normal light observation mode and a correct data set indicating correct image recognition results of each normal light image. It is memorized.
 第二記憶装置16は、特殊光観察モードを適用して複数の特殊光画像を含む特殊光画像群及び各特殊光画像の正しい画像認識結果を示す正解データからなる第二データセットが記憶される。 The second storage device 16 stores a special light image group including a plurality of special light images by applying the special light observation mode and a second data set including correct data indicating a correct image recognition result of each special light image. .
 第三記憶装置17は、通常光画像又は特殊光画像に画像処理を施した複数の処理画像を含む処理画像群、及び各処理画像群の正しい画像認識結果を示す正解データからなる第三データセットが記憶される。 The third storage device 17 is a third data set including a processed image group including a plurality of processed images obtained by performing image processing on the normal light image or the special light image, and correct data indicating a correct image recognition result of each processed image group. Is stored.
 本実施形態では、通常光画像から処理画像を生成し、学習に使用する例を説明する。処理画像の正しい認識結果を表す正解データは、第一データセットから抽出し得る。なお、特殊光画像から処理画像を生成し、第二データセットから処理画像の正解データを抽出してもよい。 In this embodiment, an example will be described in which a processed image is generated from a normal light image and used for learning. Correct data representing a correct recognition result of the processed image may be extracted from the first data set. Note that a processed image may be generated from the special light image, and correct data of the processed image may be extracted from the second data set.
 第一記憶装置14、第二記憶装置16、及び第三記憶装置17は、大容量のストレージ装置を適用し得る。第一記憶装置14、第二記憶装置16、及び第三記憶装置17は、内視鏡画像学習装置10の外部に配置される記憶装置を適用し得る。第一記憶装置14、第二記憶装置16、及び第三記憶装置17は、ネットワークを介して内視鏡画像学習装置10と通信可能に接続されてもよい。 The first storage device 14, the second storage device 16, and the third storage device 17 can apply a large-capacity storage device. As the first storage device 14, the second storage device 16, and the third storage device 17, a storage device arranged outside the endoscope image learning device 10 can be applied. The first storage device 14, the second storage device 16, and the third storage device 17 may be communicably connected to the endoscope image learning device 10 via a network.
 なお、実施形態に示す通常光画像は第一画像の一例である。実施形態に示す通常光画像群は第一画像群の一例である。実施形態に示す特殊光画像は第二画像の一例である。実施形態に示す特殊光画像群は第二画像群の一例である。 The normal light image shown in the embodiment is an example of the first image. The normal light image group described in the embodiment is an example of a first image group. The special light image shown in the embodiment is an example of the second image. The special light image group described in the embodiment is an example of a second image group.
 通常光画像は、内視鏡装置を用いた体腔内の観察において、通常光を照射して撮像して得られたカラー画像である。特殊光画像は、内視鏡装置を用いた体腔内の観察において、特殊光を照射して撮像して得られたカラー画像である。 The normal light image is a color image obtained by irradiating normal light and imaging in observation of the inside of the body cavity using the endoscope apparatus. The special light image is a color image obtained by irradiating special light and capturing an image in observation of a body cavity using an endoscope apparatus.
 通常光は、可視光の全ての波長帯域の光がほぼ均等に混ざった光である。通常光画像は、通常観察に使用される。通常光の一例として、白色光が挙げられる。通常光画像群は、比較的多く集めることができる。 Normal light is light in which light in all wavelength bands of visible light is mixed almost evenly. The normal light image is used for normal observation. One example of the ordinary light is white light. A group of ordinary light images can be collected in a relatively large number.
 特殊光は、一つの特定の波長帯域の光、又は複数の特定の波長帯域の光の組み合わせた、観察目的に応じた各種の波長帯域の光である。特殊光は、白色の波長帯域よりも狭い帯域を有し、NBI(Narrow band imaging)、LCI、及びFICE(Flexible spectral imaging color enhancement)等に使用される。NBIは狭帯域観察を意味する。 Special light is light in various wavelength bands according to the purpose of observation, which is light in one specific wavelength band or light in a plurality of specific wavelength bands. The special light has a band narrower than the white wavelength band, and is used for NBI (Narrow Band Imaging), LCI, FICE (Flexible Spectral Imaging Color), and the like. NBI means narrowband observation.
 特定の波長帯域の第一例は、例えば可視域の青色帯域又は緑色帯域である。第一例の波長帯域は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域を含む。第一例の光は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域内にピーク波長を有する。 The first example of the specific wavelength band is, for example, a blue band or a green band in a visible region. The wavelength band of the first example includes a wavelength band of 390 nm to 450 nm, or 530 nm to 550 nm. The light of the first example has a peak wavelength in a wavelength band of 390 nm to 450 nm, or 530 nm to 550 nm.
 特定の波長帯域の第二例は、例えば可視域の赤色帯域である。第二例の波長帯域は、585ナノメートル以上615ナノメートル以下、又は610ナノメートル以上730ナノメートル以下の波長帯域を含む。第二例の光は、585ナノメートル以上615ナノメートル以下又は610ナノメートル以上730ナノメートル以下の波長帯域内にピーク波長を有する。 第二 The second example of the specific wavelength band is, for example, a red band in a visible region. The wavelength band of the second example includes a wavelength band of 585 nm to 615 nm, or a wavelength band of 610 nm to 730 nm. The light of the second example has a peak wavelength in a wavelength band from 585 nm to 615 nm or from 610 nm to 730 nm.
 特定の波長帯域の第三例は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、且つ第三例の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する。第三例の波長帯域は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域を含む。第三例の光は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域にピーク波長を有する。 The third example of the specific wavelength band includes a wavelength band having a different absorption coefficient between oxyhemoglobin and reduced hemoglobin, and the light of the third example has a peak wavelength at a wavelength band having a different absorption coefficient between oxyhemoglobin and reduced hemoglobin. Having. The third example wavelength band includes a wavelength band of 400 ± 10 nm, 440 ± 10 nm, 470 ± 10 nm, or 600 nm or more and 750 nm or less. The light of the third example has a peak wavelength in a wavelength band of 400 ± 10 nm, 440 ± 10 nm, 470 ± 10 nm, or 600 nm or more and 750 nm or less.
 特定の波長帯域の第四例は、生体内の蛍光物質が発する蛍光の観察である蛍光観察に用いられる。第四例の波長帯域は、蛍光物質を励起させる励起光の波長帯域であり、例えば390ナノメートルから470ナノメートルまでの波長帯域である。 The fourth example of the specific wavelength band is used for fluorescence observation which is observation of fluorescence emitted from a fluorescent substance in a living body. The wavelength band of the fourth example is a wavelength band of the excitation light for exciting the fluorescent substance, for example, a wavelength band from 390 nm to 470 nm.
 特定の波長帯域の第五例は、赤外光の波長帯域である。第五例の波長帯域は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域を含む。第五例の光は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域にピーク波長を有する。 五 The fifth example of the specific wavelength band is a wavelength band of infrared light. The fifth example wavelength band includes a wavelength band of 790 nm to 820 nm, or 905 nm to 970 nm. The light of the fifth example has a peak wavelength in a wavelength band of 790 nm to 820 nm, or 905 nm to 970 nm.
 このような特定の波長帯域を有する特殊光の下で撮像された特殊光画像は、病変の観察目的に応じた見やすい画像を得るためのものであり、例えば、表面構造を観察したい等の観察目的に応じた場合にしか使用されず、データ数が多くない。 The special light image captured under the special light having the specific wavelength band is for obtaining an easy-to-view image according to the observation purpose of the lesion, for example, an observation purpose such as wanting to observe a surface structure. Is used only when the number of data items is small.
 本実施形態では、第一記憶装置14に記憶されている通常光画像群の第一データセットは、第二記憶装置16に保存されている特殊光画像群の第二データセットよりも多く準備されているものとする。第三データセットは第二データセットの不足を補う数が準備される。 In the present embodiment, the first data set of the normal light image group stored in the first storage device 14 is prepared more than the second data set of the special light image group stored in the second storage device 16. It is assumed that A number is prepared for the third data set to compensate for the shortage of the second data set.
 また、第一記憶装置14、第二記憶装置16、及び第三記憶装置17において、各通常光画像、各特殊光画像、及び各処理画像に関連付けて保存されている正解データの一例として、通常光画像及び特殊光画像内に写っている病変の種類、病変の位置を示したデータ及び症例固有の識別情報などが挙げられる。病変の分類の一例として、腫瘍性、又は非腫瘍性の二分類、若しくはNICE分類などが挙げられる。病変の位置を示すデータは、病変を囲む矩形の情報や、病変を覆い隠すようなマスクデータなどが考えられる。なお、NICEは、NBI International Colorectal Endoscopic Classificationの省略語である。 In addition, in the first storage device 14, the second storage device 16, and the third storage device 17, as an example of the correct answer data stored in association with each normal light image, each special light image, and each processed image, Examples include the type of lesion shown in the light image and the special light image, data indicating the position of the lesion, and identification information unique to the case. As an example of the classification of the lesion, there are two classifications, neoplastic or non-neoplastic, or NICE classification. The data indicating the position of the lesion may be rectangular information surrounding the lesion or mask data that covers the lesion. Note that NICE is an abbreviation of NBI International Colorectal Endoscopic Classification.
 第一記憶装置14、第二記憶装置16、及び第三記憶装置17は、内視鏡画像学習装置10が備えているが、第一記憶装置14、第二記憶装置16、及び第三記憶装置17は、内視鏡画像学習装置10の外部に配置されてもよい。この場合、通信部12を介して、内視鏡画像学習装置10の外部のデータベースから学習用のデータセットを取得することができる。 Although the first storage device 14, the second storage device 16, and the third storage device 17 are provided in the endoscope image learning device 10, the first storage device 14, the second storage device 16, and the third storage device are provided. 17 may be arranged outside the endoscope image learning device 10. In this case, a data set for learning can be acquired from a database external to the endoscope image learning device 10 via the communication unit 12.
 操作部18は、内視鏡画像学習装置10に適用されるコンピュータに有線接続又は無線接続されるキーボード及びマウス等が用いられる。操作部18は、学習に当たって各種の操作入力を受け付ける。すなわち、操作部18はユーザインターフェースの一部として使用される。 The operation unit 18 uses a keyboard, a mouse, and the like that are connected to the computer applied to the endoscope image learning apparatus 10 by wire or wirelessly. The operation unit 18 receives various operation inputs for learning. That is, the operation unit 18 is used as a part of the user interface.
 CPU20は、ROM24又は図示しないハードディスク装置等に記憶された各種のプログラムを読み出し、各種の処理を実行する。読み出されるプログラムの一例として、内視鏡画像学習プログラムが挙げられる。 The CPU 20 reads various programs stored in the ROM 24 or a hard disk device (not shown) and executes various processes. An example of the program to be read is an endoscope image learning program.
 RAM22は、CPU20の作業領域として使用される。また、RAM22は、読み出されたプログラムや各種のデータを一時的に記憶する記憶部として用いられる。 The RAM 22 is used as a work area of the CPU 20. The RAM 22 is used as a storage unit that temporarily stores the read programs and various data.
 表示部26は、内視鏡画像学習装置10に適用されるコンピュータに接続可能な液晶モニタ等の各種モニタが用いられる。表示部26は、ユーザインターフェースの一部として使用される。タッチパネル方式のモニタ装置を表示部26に適用して、表示部26及び操作部18を一体に構成してもよい。 As the display unit 26, various monitors such as a liquid crystal monitor that can be connected to a computer applied to the endoscope image learning device 10 are used. The display unit 26 is used as a part of a user interface. The display unit 26 and the operation unit 18 may be integrally formed by applying a monitor device of a touch panel type to the display unit 26.
 内視鏡画像学習装置10は、操作部18から送信される指示信号に基づき、ROM24及びハードディスク装置等に記憶されている内視鏡画像学習プログラムをCPU20が読み出す。CPU20は内視鏡画像学習プログラムを実行する。 CPU In the endoscope image learning device 10, the CPU 20 reads the endoscope image learning program stored in the ROM 24, the hard disk device, or the like based on the instruction signal transmitted from the operation unit 18. The CPU 20 executes an endoscope image learning program.
 〔内視鏡画像学習装置の機能〕
 〈概要〉
 図2は実施形態に係る内視鏡画像学習装置の機能ブロック図である。図2は図1に示す内視鏡画像学習装置10の主要な機能を示す機能ブロック図である。内視鏡画像学習装置10は、学習部30及び画像生成部40を備える。
[Functions of the endoscope image learning device]
<Overview>
FIG. 2 is a functional block diagram of the endoscope image learning device according to the embodiment. FIG. 2 is a functional block diagram showing main functions of the endoscope image learning device 10 shown in FIG. The endoscope image learning device 10 includes a learning unit 30 and an image generation unit 40.
 学習部30は、第一記憶装置14に記憶される第一データセット、第二記憶装置16に記憶される第二データセット、及び第三記憶装置17に記憶される第三データセットを用いて学習し、画像認識用の学習モデルを生成する。本実施形態では、学習モデルの一つである畳み込みニューラルネットワークを構築する。以下、CNN(Convolution Neural Network)は畳み込みニューラルネットワークを表すこととする。 The learning unit 30 uses the first data set stored in the first storage device 14, the second data set stored in the second storage device 16, and the third data set stored in the third storage device 17. Learn and generate a learning model for image recognition. In the present embodiment, a convolutional neural network, which is one of the learning models, is constructed. Hereinafter, CNN (Convolution Neural Network) represents a convolutional neural network.
 画像生成部40は、通常光画像から処理画像を生成する。具体的には、通常光画像の分光分布と特殊光画像の分光分布との間の対応する波長帯域について、帯域成分同士が同一又は類似する場合に帯域成分を強調する処理を実施するか、又は帯域成分同士が相違する場合に帯域成分を抑制する処理を実施する。画像生成部40における画像処理の詳細は後述する。なお、学習部30及び画像生成部40は、通常光画像及び特殊光画像を取得する画像取得部の機能を備え得る。 The image generation unit 40 generates a processed image from the normal light image. Specifically, for a corresponding wavelength band between the spectral distribution of the normal light image and the spectral distribution of the special light image, a process of emphasizing the band component when the band components are the same or similar, or When the band components are different, a process of suppressing the band components is performed. Details of the image processing in the image generation unit 40 will be described later. The learning unit 30 and the image generation unit 40 may have a function of an image acquisition unit that acquires a normal light image and a special light image.
 〈学習部〉
 図3は図2に示す学習部の機能ブロック図である。学習部30は、CNN32、誤差算出部34、及びパラメータ更新部36を備える。
<Learning Department>
FIG. 3 is a functional block diagram of the learning unit shown in FIG. The learning unit 30 includes a CNN 32, an error calculating unit 34, and a parameter updating unit 36.
 CNN32は、例えば、内視鏡画像に写っている病変の種類を画像認識する認識器に対応する部分である。CNN32は、複数のレイヤー構造を有し、複数の重みパラメータを保持している。CNN32は、重みパラメータが初期値から最適値に更新されることで、未学習モデルから学習済みモデルに変化し得る。 The CNN 32 is, for example, a part corresponding to a recognizer that recognizes the type of a lesion appearing in an endoscope image. The CNN 32 has a plurality of layer structures and holds a plurality of weight parameters. The CNN 32 may change from an unlearned model to a learned model by updating the weight parameter from an initial value to an optimal value.
 CNN32は、入力層32a、中間層32b及び出力層32cを備える。中間層32bは、畳み込み層32d及びプーリング層32eから構成されたセット32f、全結合層32gを備える。学習部30の各層は、エッジを用いて複数のノードが結ばれる構造を有する。 The CNN 32 includes an input layer 32a, an intermediate layer 32b, and an output layer 32c. The intermediate layer 32b includes a set 32f composed of a convolutional layer 32d and a pooling layer 32e, and a fully connected layer 32g. Each layer of the learning unit 30 has a structure in which a plurality of nodes are connected using edges.
 入力層32aは、学習対象である通常光画像14a、特殊光画像16a、及び処理画像17aが入力される。通常光画像14a、特殊光画像16a、及び処理画像17aはCNN32へ送信される。 The normal light image 14a, the special light image 16a, and the processed image 17a to be learned are input to the input layer 32a. The normal light image 14a, the special light image 16a, and the processed image 17a are transmitted to the CNN 32.
 中間層32bは、入力層32aを用いて入力した画像から特徴を抽出する部分である。畳み込み層32dは、前の層で近くにあるノードにフィルタ処理を実施し、特徴マップを取得する。フィルタ処理はフィルタを使用した畳み込み演算が適用される。 The intermediate layer 32b is a part that extracts features from an image input using the input layer 32a. The convolutional layer 32d performs a filtering process on a nearby node in the previous layer, and acquires a feature map. For the filter processing, a convolution operation using a filter is applied.
 プーリング層32eは、畳み込み層32dから出力された特徴マップを縮小して新たな特徴マップとする。畳み込み層32dは、画像からのエッジ抽出等の特徴抽出の役割を担う。プーリング層32eは抽出された特徴が、平行移動などによる影響を受けないようにロバスト性を与える役割を担う。 The pooling layer 32e reduces the feature map output from the convolutional layer 32d to a new feature map. The convolution layer 32d plays a role of feature extraction such as edge extraction from an image. The pooling layer 32e plays a role in providing robustness so that the extracted features are not affected by translation or the like.
 なお、中間層32bは、畳み込み層32dとプーリング層32eとを一セットとする場合に限定されない。例えば、畳み込み層32dが連続する場合及び図示しない正規化層を含む場合もあり得る。 The intermediate layer 32b is not limited to the case where the convolutional layer 32d and the pooling layer 32e constitute one set. For example, the convolutional layer 32d may be continuous or may include a normalization layer (not shown).
 出力層32cは、中間層32bを用いて抽出された特徴に基づき内視鏡画像に写っている病変の種類を分類する認識結果を出力する。学習済みのCNN32は、例えば、内視鏡画像を、腫瘍性、非腫瘍性、及びその他の三つのカテゴリに分類し得る。学習済みのCNN32は、認識結果として、腫瘍性に対応するスコア、非腫瘍性に対応するスコア、及びその他に対応するスコアを出力し得る。なお、三つのスコアの合計は100パーセントとなる。 The output layer 32c outputs a recognition result for classifying the type of lesion shown in the endoscopic image based on the features extracted using the intermediate layer 32b. The trained CNN 32 may, for example, classify endoscopic images into three categories: neoplastic, non-neoplastic, and other. The learned CNN 32 may output a score corresponding to neoplasm, a score corresponding to non-tumor, and a score corresponding to others as a recognition result. Note that the sum of the three scores is 100%.
 学習前のCNN32の各畳み込み層32dに適用されるフィルタの係数、オフセット値、及び図示しない全結合層における次の層との接続の重みは、任意の初期値がセットされる。 (4) Arbitrary initial values are set for the filter coefficient applied to each convolutional layer 32d of the CNN 32 before learning, the offset value, and the connection weight with the next layer in a fully connected layer (not shown).
 誤差算出部34は、CNN32の出力層32cから出力される認識結果、並びに通常光画像14aに対する正解データ14b、及び特殊光画像16aに対する正解データ16bを取得する。なお、処理画像17aに対応する正解データは、通常光画像14aに対する正解データ14bを適用し得る。 The error calculator 34 acquires the recognition result output from the output layer 32c of the CNN 32, the correct answer data 14b for the normal light image 14a, and the correct answer data 16b for the special light image 16a. Note that the correct data corresponding to the processed image 17a may be the correct data 14b for the normal light image 14a.
 誤差算出部34は、認識結果と正解データとの間の誤差を算出する。誤差の算出方法の一例として、ソフトマックスクロスエントロピー及びシグモイド等が挙げられる。 The error calculator 34 calculates an error between the recognition result and the correct answer data. Examples of a method for calculating the error include soft max cross entropy and sigmoid.
 パラメータ更新部36は、誤差算出部34を用いて算出された誤差を元に、誤差逆伝播法を適用してCNN32の重みパラメータを調整する。CNN32の重みパラメータの調整処理を繰り返し行い、CNN32の出力と正解データとの差が小さくなるまで繰り返し学習を行う。 The parameter updating unit 36 adjusts the weight parameter of the CNN 32 by applying the error back propagation method based on the error calculated by using the error calculating unit 34. The adjustment process of the weight parameter of the CNN 32 is repeatedly performed, and the learning is repeatedly performed until the difference between the output of the CNN 32 and the correct data becomes small.
 学習部30は、通常光画像群の全てのデータセット、特殊光画像群の全てのデータセット、及び処理画像群の全てのデータセットを使用し、CNN32の各パラメータを最適化する学習を行い、学習済みモデルを生成する。なお、実施形態に示す内視鏡画像は医用画像の一例である。 The learning unit 30 performs learning to optimize each parameter of the CNN 32 by using all data sets of the normal light image group, all data sets of the special light image group, and all data sets of the processed image group. Generate a trained model. Note that the endoscope image shown in the embodiment is an example of a medical image.
 〔内視鏡画像学習方法の手順〕
 図4は実施形態に係る内視鏡画像学習方法の手順を示すフローチャートである。図4に示す内視鏡画像学習方法は、通常光画像取得工程S10、特殊光画像取得工程S12、画像処理工程S14、処理画像記憶工程S16、学習工程S18、及び認識器更新工程S20が含まれる。実施形態に示す内視鏡画像学習方法は、医用画像学習方法の一例である。
[Procedure of endoscope image learning method]
FIG. 4 is a flowchart illustrating a procedure of the endoscopic image learning method according to the embodiment. The endoscope image learning method shown in FIG. 4 includes a normal light image acquisition step S10, a special light image acquisition step S12, an image processing step S14, a processed image storage step S16, a learning step S18, and a recognizer update step S20. . The endoscope image learning method described in the embodiment is an example of a medical image learning method.
 通常光画像取得工程S10では、図2に示す学習部30及び画像生成部40は第一記憶装置14から通常光画像14aを読み出す。特殊光画像取得工程S12では、学習部30は第二記憶装置16から特殊光画像16aを読み出す。なお、特殊光画像取得工程S12は学習工程S18までに実施されればよい。 In the normal light image acquisition step S10, the learning unit 30 and the image generation unit 40 illustrated in FIG. 2 read the normal light image 14a from the first storage device 14. In the special light image acquisition step S12, the learning unit 30 reads the special light image 16a from the second storage device 16. The special light image acquisition step S12 may be performed before the learning step S18.
 画像処理工程S14では、画像生成部40は通常光画像14aに画像処理を施して処理画像を生成する。処理画像記憶工程S16では、画像生成部40は処理画像17aを第三記憶装置17へ記憶する。 In the image processing step S14, the image generator 40 performs image processing on the normal light image 14a to generate a processed image. In the processed image storage step S16, the image generation unit 40 stores the processed image 17a in the third storage device 17.
 学習工程S18では、学習部30は第三記憶装置17から処理画像17aを読み出し、通常光画像14a、特殊光画像16a、及び処理画像17aを用いて学習を実施する。認識器更新工程S20では、学習部30は認識器を更新する。 In the learning step S18, the learning unit 30 reads the processed image 17a from the third storage device 17, and performs learning using the normal light image 14a, the special light image 16a, and the processed image 17a. In the recognizer updating step S20, the learning unit 30 updates the recognizer.
 [画像生成部を用いた画像処理の具体例]
 次に、図2に示す画像生成部40に適用される画像処理について詳細に説明する。画像生成部40は、通常光画像14aの分光分布における波長帯域の信号を強調する処理、又は抑制する処理を施して処理画像17aを生成する。
[Specific Example of Image Processing Using Image Generation Unit]
Next, image processing applied to the image generation unit 40 shown in FIG. 2 will be described in detail. The image generation unit 40 generates a processed image 17a by performing a process of enhancing or suppressing a signal in a wavelength band in the spectral distribution of the normal light image 14a.
 画像生成部40は、通常光画像14aと特殊光画像16aとの間で、両者間の対応する波長帯域における帯域成分同士が相違する場合は、通常光画像14aにおける該当する波長帯域の信号を抑制する。 If the band components in the corresponding wavelength band between the normal light image 14a and the special light image 16a are different between the normal light image 14a and the special light image 16a, the image generation unit 40 suppresses the signal of the corresponding wavelength band in the normal light image 14a. I do.
 一方、画像生成部40は、通常光画像14aと特殊光画像16aとの間で、両者間の対応する波長帯域における帯域成分同士が同一又は類似する場合は、通常光画像14aにおける該当する波長帯域の信号を強調してもよい。これにより、特殊光画像16aの学習に適用可能な学習データの数を増やすことが可能となる。 On the other hand, if the band components in the corresponding wavelength band between the normal light image 14a and the special light image 16a are the same or similar between the normal light image 14a and the special light image 16a, the corresponding wavelength band in the normal light image 14a May be emphasized. This makes it possible to increase the number of pieces of learning data applicable to learning of the special light image 16a.
 画像生成部40は、波長依存とは異なる、観察モード間の処理の違いに起因する画像差について、逆処理を適用した補正等の後処理を実施し得る。学習部30は補正後の画像を学習に適用し得る。観察モード間の処理の一例として、リニアマトリックス及びルックアップテーブルなどが挙げられる。 (4) The image generation unit 40 can perform post-processing such as correction to which inverse processing is applied to an image difference that is different from the wavelength dependence and is caused by a difference in processing between observation modes. The learning unit 30 can apply the corrected image to learning. As an example of the processing between the observation modes, a linear matrix, a lookup table, and the like are given.
 〈第一実施形態〉
 図5は撮像素子の分光感度の説明図である。撮像素子は内視鏡画像を取得する内視鏡に具備される。撮像素子は符号328を付して図8に図示する。内視鏡は符号302を付して図8に図示する。
<First embodiment>
FIG. 5 is an explanatory diagram of the spectral sensitivity of the image sensor. The imaging device is provided in an endoscope that acquires an endoscope image. The imaging device is shown in FIG. The endoscope is shown in FIG.
 図5に示す分光感度特性100の横軸は波長を表す。分光感度特性100の縦軸は感度を表す。分光感度特性100はBチャネルの波長帯域にBチャネル成分102を有する。分光感度特性100はGチャネルの波長帯域にGチャネル成分104を有する。分光感度特性100はRチャネルの波長帯域にRチャネル成分106を有する。なお、Bは青を表す。Gは緑を表す。Rは赤を表す。 横 The horizontal axis of the spectral sensitivity characteristic 100 shown in FIG. 5 represents the wavelength. The vertical axis of the spectral sensitivity characteristic 100 represents the sensitivity. The spectral sensitivity characteristic 100 has a B-channel component 102 in the B-channel wavelength band. The spectral sensitivity characteristic 100 has a G channel component 104 in a G channel wavelength band. The spectral sensitivity characteristic 100 has an R channel component 106 in an R channel wavelength band. B represents blue. G represents green. R represents red.
 図6は照明光の強度分布と内視鏡画像の分光分布との関係を示す説明図である。図6に示す符号120は通常光の強度分布を表す。符号160はLCIにおける照明光の強度分布を表す。通常光の強度分布120及びLCIにおける照明光の強度分布160の横軸は波長を表す。縦軸は照明光の強度を表す。なお、LCIにおける照明光は特殊光の一例である。 FIG. 6 is an explanatory diagram showing the relationship between the intensity distribution of the illumination light and the spectral distribution of the endoscope image. Reference numeral 120 shown in FIG. 6 represents the intensity distribution of normal light. Reference numeral 160 represents the intensity distribution of the illumination light in LCI. The horizontal axis of the normal light intensity distribution 120 and the illumination light intensity distribution 160 in the LCI represent wavelength. The vertical axis represents the intensity of the illumination light. Note that the illumination light in LCI is an example of special light.
 符号140は通常光画像14aの分光分布を示す。通常光画像14aの分光分布140の横軸は波長を表す。縦軸は信号強度を表す。 The symbol 140 indicates the spectral distribution of the normal light image 14a. The horizontal axis of the spectral distribution 140 of the normal light image 14a represents a wavelength. The vertical axis represents signal strength.
 通常光画像14aの分光分布140は、Bチャネルの波長帯域にBチャネル成分142を有する。通常光画像14aの分光分布140はGチャネルの波長帯域にGチャネル成分144を有する。通常光画像14aの分光分布140はRチャネルの波長帯域にRチャネル成分146を有する。 分光 The spectral distribution 140 of the normal light image 14a has a B channel component 142 in the B channel wavelength band. The spectral distribution 140 of the normal light image 14a has a G channel component 144 in the G channel wavelength band. The spectral distribution 140 of the normal light image 14a has an R channel component 146 in the wavelength band of the R channel.
 符号180はLCIにおける特殊光画像16aの分光分布を表す。LCIにおける特殊光画像16aの分光分布180の横軸は波長を表す。縦軸は信号強度を表す。LCIにおける特殊光画像16aの分光分布180は、Bチャネルの波長帯域にBチャネル成分182を有する。LCIにおける特殊光画像16aの分光分布180は、Gチャネルの波長帯域にGチャネル成分184を有する。LCIにおける特殊光画像16aの分光分布180は、Rチャネルの波長帯域にRチャネル成分186を有する。 The symbol 180 represents the spectral distribution of the special light image 16a in LCI. The horizontal axis of the spectral distribution 180 of the special light image 16a in LCI represents a wavelength. The vertical axis represents signal strength. The spectral distribution 180 of the special light image 16a in LCI has a B channel component 182 in the B channel wavelength band. The spectral distribution 180 of the special light image 16a in LCI has a G channel component 184 in a G channel wavelength band. The spectral distribution 180 of the special light image 16a in LCI has an R channel component 186 in the wavelength band of the R channel.
 通常光画像14aの分光分布140と、LCIにおける特殊光画像16aの分光分布180とは、Bチャネル成分の特性が相違する。すなわち、通常光画像14aのBチャネル成分及びLCIにおける特殊光画像16aのBチャネル成分は、いずれもの二つのピークが存在する一方、二つのピークにおける感度の大きさが相違している。換言すると、通常光画像14aとLCIにおける特殊光画像16aとは、Bチャネル成分同士が相違している。 分光 The spectral distribution 140 of the normal light image 14a and the spectral distribution 180 of the special light image 16a in LCI are different in the characteristics of the B channel component. That is, the B channel component of the normal light image 14a and the B channel component of the special light image 16a in LCI each have two peaks, but have different sensitivities at the two peaks. In other words, the normal light image 14a and the special light image 16a in the LCI have different B channel components.
 一方、両者におけるGチャネル成分及びRチャネル成分は絶対値の差を除けば等しい。すなわち、Gチャネル成分及びRチャネル成分のみの画像は、Bチャネル成分のみの画像と比較して、通常光画像14aとLCIにおける特殊光画像16aとの間で差が小さい。換言すると、通常光画像14aとLCIにおける特殊光画像16aとの間において、Gチャネル成分の特性及びRチャネル成分は類似している。 On the other hand, the G channel component and the R channel component in both are equal except for the difference in absolute value. That is, the difference between the normal light image 14a and the special light image 16a in the LCI is smaller in the image including only the G channel component and the R channel component than in the image including only the B channel component. In other words, the characteristics of the G channel component and the R channel component are similar between the normal light image 14a and the special light image 16a in LCI.
 このような性質から、通常光画像14aにおけるGチャネル成分の画像情報及び通常光画像14aにおけるRチャネル成分の画像情報は、LCIにおける特殊光画像16aの学習においても有用である。一方、通常光画像14aにおけるBチャネル成分の画像情報は、LCIにおける特殊光画像16aの学習において不必要又は悪影響を与えると考えられる。 From such a property, the image information of the G channel component in the normal light image 14a and the image information of the R channel component in the normal light image 14a are also useful in learning the special light image 16a in LCI. On the other hand, the image information of the B channel component in the normal light image 14a is considered to have unnecessary or adverse effects in learning the special light image 16a in LCI.
 そこで、画像生成部40は、通常光画像14aにおけるBチャネル成分の画像情報を抑制する処理を実施して処理画像17aを生成する。学習部30は通常光画像14a及び特殊光画像16aに処理画像17aを加えて、LCIにおける特殊光画像16aの学習を実施する。 Therefore, the image generation unit 40 performs processing for suppressing the image information of the B channel component in the normal light image 14a to generate the processed image 17a. The learning unit 30 learns the special light image 16a in LCI by adding the processed image 17a to the normal light image 14a and the special light image 16a.
 通常光画像14aにおけるBチャネル成分の画像情報を抑制する処理の一例として、通常光画像14aにおける輝度値を1/α倍する処理が挙げられる。なお、αは1を超える任意の定数である。通常光画像14aにおけるBチャネル成分の画像情報を抑制する処理の他の例として、輝度値を規定の値とする処理が挙げられる。規定の値の一例として輝度を最小とする輝度値が挙げられる。Bチャネル成分の画像情報を抑制する処理は、各画素の輝度値をランダムに与える処理を適用してもよい。 処理 As an example of the process of suppressing the image information of the B channel component in the normal light image 14a, there is a process of multiplying the luminance value in the normal light image 14a by 1 / α. Here, α is an arbitrary constant exceeding 1. As another example of the process of suppressing the image information of the B channel component in the normal light image 14a, there is a process of setting the luminance value to a specified value. An example of the prescribed value is a luminance value that minimizes luminance. The process of suppressing the image information of the B channel component may be a process of randomly giving the luminance value of each pixel.
 通常光画像14aにおける輝度値を1/α倍する処理と併用して、通常光画像14aにおける輝度値をシフトさせてもよい。なお、実施形態に示す輝度値を1/α倍する処理は、輝度分散を変換する処理の一例である。輝度分散を変換する処理は、通常光画像14aにおける輝度値をシフトさせる処理を含み得る。 (4) The luminance value in the normal light image 14a may be shifted together with the process of multiplying the luminance value in the normal light image 14a by 1 / α. Note that the process of multiplying the luminance value by 1 / α described in the embodiment is an example of a process of converting the luminance variance. The process of converting the luminance variance may include a process of shifting the luminance value in the normal light image 14a.
 通常光画像14aにおけるBチャネル成分の画像情報を抑制する処理に代わり、通常光画像14aにおけるGチャネル成分の画像情報及びRチャネル成分の画像情報の少なくともいずれかを強調して、相対的にBチャネル成分の画像情報の影響を下げてもよい。 Instead of the process of suppressing the image information of the B channel component in the normal light image 14a, at least one of the image information of the G channel component and the image information of the R channel component in the normal light image 14a is emphasized, and the B channel The influence of the image information of the component may be reduced.
 通常光画像14aにおけるGチャネル成分の画像情報及びRチャネル成分の画像情報を強調する処理の一例として、通常光画像14aにおける輝度値をβ倍する処理が挙げられる。なお、βは1を超える任意の定数である。 As an example of the process of enhancing the image information of the G channel component and the image information of the R channel component in the normal light image 14a, there is a process of increasing the luminance value of the normal light image 14a by β times. Here, β is an arbitrary constant exceeding 1.
 通常光画像14aにおける輝度値をβ倍する処理と併用して、通常光画像14aにおける輝度値をシフトさせてもよい。なお、実施形態に示す輝度値をβ倍する処理は、輝度分散を変換する処理の一例である。輝度分散を変換する処理は、通常光画像14aにおける輝度値をシフトさせる処理を含み得る。 (4) The luminance value in the normal light image 14a may be shifted together with the process of multiplying the luminance value in the normal light image 14a by β. Note that the process of multiplying the luminance value by β shown in the embodiment is an example of a process of converting the luminance variance. The process of converting the luminance variance may include a process of shifting the luminance value in the normal light image 14a.
 〈作用効果〉
 第一実施形態に係る画像処理によれば、通常光画像14aに対して、分光分布におけるBチャネル成分の抑制処理、又はGチャネル成分及びRチャネル成分の少なくともいずれかを強調する処理を施す。これにより、LCIにおける特殊光画像16aの学習に適用可能な学習データの拡充が可能となる。
<Effects>
According to the image processing according to the first embodiment, the normal light image 14a is subjected to the process of suppressing the B channel component in the spectral distribution or the process of enhancing at least one of the G channel component and the R channel component. This makes it possible to expand learning data applicable to learning of the special light image 16a in LCI.
 〈第二実施形態〉
 第二実施形態に係る画像処理は、第一実施形態に係る画像処理と同様に、LCIにおける特殊光画像16aの学習に、通常光画像14aを利用する場合に適用される。第二実施形態では、通常光画像14a及び特殊光画像16aにおけるBチャネル成分同士の違いに着目した画像処理を実施する。
<Second embodiment>
The image processing according to the second embodiment is applied to the case where the normal light image 14a is used for learning the special light image 16a in LCI, similarly to the image processing according to the first embodiment. In the second embodiment, image processing is performed focusing on the difference between the B channel components in the normal light image 14a and the special light image 16a.
 LCIにおける特殊光画像16aのBチャネル成分は、通常光画像14aのBチャネル成分と比較して短波長成分を多く含む。これにより、LCIにおける特殊光画像16aは、通常光画像14aと比較して高いコントラストで微小な血管構造などを表す性質を持つ。 The B-channel component of the special light image 16a in the ILCI includes a larger number of short wavelength components than the B-channel component of the normal light image 14a. Thus, the special light image 16a in the LCI has a property of representing a minute blood vessel structure or the like with higher contrast than the normal light image 14a.
 微小な血管構造などは、LCIにおける特殊光画像16aの空間周波数の高周波成分に対応する。そこで、画像生成部40は、通常光画像14aのBチャネル成分の画像に対して、空間周波数の高周波成分を強調する処理を施した処理画像17aを生成する。これにより、通常光画像14aのBチャネル成分の画像を特殊光画像16aのBチャネル成分の画像に近づけることが可能となる。よって、LCIにおける特殊光画像16aの学習データの拡充を行うことが可能となる。 The minute blood vessel structure corresponds to the high frequency component of the spatial frequency of the special light image 16a in LCI. Therefore, the image generation unit 40 generates a processed image 17a obtained by performing a process of emphasizing a high frequency component of a spatial frequency on the image of the B channel component of the normal light image 14a. This makes it possible to bring the B-channel component image of the normal light image 14a closer to the B-channel component image of the special light image 16a. Therefore, it is possible to expand the learning data of the special light image 16a in the LCI.
 高周波成分を規定する一例として、高周波成分を多く含む特殊光画像16aを周波数解析し、周波数分布に基づいて強調する周波数又は周波数帯域を規定する例が挙げられる。例えば、基準周波数を算出して、処理対象画像の空間周波数成分のうち、基準周波数以上の周波数成分を高周波成分とし得る。基準周波数は、処理対象画像に含まれる周波数成分のうち、全体に対してある割合以上の周波数成分が含まれる範囲の下限として算出し得る。 As an example of defining a high-frequency component, there is an example in which the frequency of a special light image 16a containing many high-frequency components is analyzed and a frequency or a frequency band to be emphasized is defined based on a frequency distribution. For example, a reference frequency is calculated, and a frequency component equal to or higher than the reference frequency among the spatial frequency components of the processing target image may be set as a high frequency component. The reference frequency can be calculated as the lower limit of a range in which a certain percentage or more of the frequency components of the frequency components included in the processing target image are included.
 空間周波数の高周波成分を強調する処理の一例として、アンシャープマスクを用いたマスク処理が挙げられる。空間周波数の高周波成分を抑制する処理の一例として、ローパスフィルタを用いたフィルタ処理が挙げられる。実施形態に示す空間周波数の高周波成分は、空間周波数の規定の周波数成分の一例である。実施形態に示すBチャネル成分の画像は、処理対象帯域の一例である。 マ ス ク As an example of the process of enhancing the high frequency component of the spatial frequency, there is a mask process using an unsharp mask. As an example of the process of suppressing the high-frequency component of the spatial frequency, there is a filter process using a low-pass filter. The high-frequency component of the spatial frequency shown in the embodiment is an example of a prescribed frequency component of the spatial frequency. The image of the B channel component shown in the embodiment is an example of the processing target band.
 〈作用効果〉
 第二実施形態に係る画像処理によれば、通常光画像14aのBチャネル成分の画像に対して、空間周波数の高周波成分を強調する処理を施す。処理画像17aは通常光画像14aと比較して高いコントラストで微小な血管構造などが表される。これにより、LCIにおける特殊光画像16aの学習に適用可能な学習データの拡充が可能となる。
<Effects>
According to the image processing according to the second embodiment, the process of emphasizing the high frequency component of the spatial frequency is performed on the image of the B channel component of the normal light image 14a. The processed image 17a shows a minute blood vessel structure or the like with a higher contrast than the normal light image 14a. This makes it possible to expand learning data applicable to learning of the special light image 16a in LCI.
 〈第三実施形態〉
 第三実施形態に係る画像処理は、通常光画像14aを用いた注目領域の自動認識システムに適用される学習において、NBIにおける特殊光画像16aを利用する場合に適用される。
<Third embodiment>
The image processing according to the third embodiment is applied to a case where a special light image 16a in NBI is used in learning applied to an automatic recognition system for a region of interest using the normal light image 14a.
 図7は通常光画像の分光分布とNBIにおける特殊光画像の分光分布との関係を示す説明図である。符号200は通常光画像14aの分光分布を示す。通常光画像14aの分光分布200の横軸は波長を表す。縦軸は信号強度を表す。 FIG. 7 is an explanatory diagram showing the relationship between the spectral distribution of a normal light image and the spectral distribution of a special light image in NBI. Reference numeral 200 indicates the spectral distribution of the normal light image 14a. The horizontal axis of the spectral distribution 200 of the normal light image 14a represents a wavelength. The vertical axis represents signal strength.
 通常光画像14aの分光分布200は、Bチャネルの波長帯域にBチャネル成分202を有する。通常光画像14aの分光分布200は、Gチャネルの波長帯域にGチャネル成分204を有する。通常光画像14aの分光分布200は、Rチャネルの波長帯域にRチャネル成分206を有する。 分光 The spectral distribution 200 of the normal light image 14a has a B channel component 202 in the B channel wavelength band. The spectral distribution 200 of the normal light image 14a has a G channel component 204 in a G channel wavelength band. The spectral distribution 200 of the normal light image 14a has an R channel component 206 in an R channel wavelength band.
 符号220は、NBIにおける特殊光画像16aの分光分布特性を示す。NBIにおける特殊光画像16aの分光分布220の横軸は波長を表す。縦軸は信号強度を表す。NBIにおける特殊光画像16aは、Bチャネルの波長帯域にBチャネル成分222を有する。NBIにおける特殊光画像16aは、Gチャネルの波長帯域にGチャネル成分224を有する。 Reference numeral 220 indicates a spectral distribution characteristic of the special light image 16a in NBI. The horizontal axis of the spectral distribution 220 of the special light image 16a in NBI represents a wavelength. The vertical axis represents signal strength. The special light image 16a in the NBI has a B channel component 222 in the wavelength band of the B channel. The special light image 16a in the NBI has a G channel component 224 in the G channel wavelength band.
 一方、NBIにおける特殊光画像16aは、受光の際にRチャネル成分が失われている。図7に示すNBIにおける特殊光画像16aの分光分布220には、一点鎖線を用いて失われているRチャネル成分を示す。すなわち、通常光画像14a及びNBIにおける特殊光画像16aにおいて、Rチャネル成分同士は相違する。 On the other hand, in the special light image 16a in the NBI, the R channel component is lost when receiving light. The spectral distribution 220 of the special light image 16a in the NBI shown in FIG. 7 indicates the missing R channel component using a dashed line. That is, in the normal light image 14a and the special light image 16a in the NBI, the R channel components are different.
 一方、NBIにおける特殊光画像16aのBチャネル成分222及びGチャネル成分224は、通常光画像14aのBチャネル成分202及びGチャネル成分204と帯域幅が相違するものの、重複する帯域が存在する。 On the other hand, the B channel component 222 and the G channel component 224 of the special light image 16a in the NBI have different bandwidths from the B channel component 202 and the G channel component 204 of the normal light image 14a, but have overlapping bands.
 通常光画像14a及びNBIにおける特殊光画像16aにおいて、Bチャネル成分及びGチャネル成分同士は、Rチャネル成分同士と比較して近い性質を持っている。すなわち、通常光画像14a及びBIにおける特殊光画像16aにおいて、Bチャネル成分同士及びGチャネル成分同士は類似する。 に お い て In the normal light image 14a and the special light image 16a in the NBI, the B channel component and the G channel component have properties closer to each other than the R channel components. That is, in the normal light image 14a and the special light image 16a in the BI, the B channel components and the G channel components are similar.
 そこで、画像生成部40は、通常光画像14aにおけるRチャネル成分206を抑制する処理を実施し処理画像17aを生成する。学習部30はNBIにおける特殊光画像16aの学習に処理画像を適用し得る。 Therefore, the image generation unit 40 performs a process of suppressing the R channel component 206 in the normal light image 14a to generate the processed image 17a. The learning unit 30 can apply the processed image to the learning of the special light image 16a in the NBI.
 画像生成部40は、通常光画像14aのBチャネル成分202及びGチャネル成分204の少なくともいずれかを強調する処理を施して処理画像17aを生成してもよい。学習部30はNBIにおける特殊光画像16aの学習に処理画像17aを適用し得る。通常光画像14aの処理対象の帯域成分を抑制する処理、及び処理対象の帯域成分を強調する処理は第一実施形態と同様である。ここでの説明は省略する。 The image generation unit 40 may perform processing for enhancing at least one of the B channel component 202 and the G channel component 204 of the normal light image 14a to generate the processed image 17a. The learning unit 30 can apply the processed image 17a to learning of the special light image 16a in NBI. The processing of suppressing the processing target band component of the normal light image 14a and the processing of emphasizing the processing target band component are the same as in the first embodiment. The description here is omitted.
 〈作用効果〉
 第三実施形態に係る画像処理によれば、通常光画像14aに対して、Rチャネル成分の抑制処理又はGチャネル成分及びBチャネル成分の少なくともいずれかの強調処理を施す。これにより、NBIにおける特殊光画像16aの学習に適用可能な学習データの拡充が可能となる。
<Effects>
According to the image processing according to the third embodiment, the normal light image 14a is subjected to the suppression processing of the R channel component or the enhancement processing of at least one of the G channel component and the B channel component. This makes it possible to expand the learning data applicable to learning the special light image 16a in the NBI.
 〈第三実施形態の応用例〉
 NBIにおける特殊光画像16aのBチャネル成分222又はGチャネル成分224は、通常光画像14aのBチャネル成分222又はGチャネル成分224と比較してヘモグロビンの吸収係数が大きい帯域成分が大きいため、NBIにおける特殊光画像16aは通常光画像14aと比較して高いコントラストで血管構造等を表す性質を持つ。そこで、第二実施形態に係る画像処理と同様に、画像生成部40は、通常光画像14aのBチャネル成分222の画像又はGチャネル成分224の画像について、空間周波数における高周波成分を強調する処理を行い、処理画像17aを生成し得る。処理画像17aは、通常光画像14aと比較して高いコントラストで微小な血管構造などが表される。これにより、NBIにおける特殊光画像16aの学習に適用可能な学習データの拡充が可能となる。
<Application Example of Third Embodiment>
The B channel component 222 or the G channel component 224 of the special light image 16a in the NBI has a large band component in which the hemoglobin absorption coefficient is large compared to the B channel component 222 or the G channel component 224 of the normal light image 14a. The special light image 16a has a property of representing a blood vessel structure or the like with a higher contrast than the normal light image 14a. Therefore, similarly to the image processing according to the second embodiment, the image generation unit 40 performs a process of enhancing the high-frequency component in the spatial frequency of the image of the B-channel component 222 or the image of the G-channel component 224 of the normal light image 14a. To generate the processed image 17a. The processed image 17a shows a minute blood vessel structure or the like with a higher contrast than the normal light image 14a. This makes it possible to expand the learning data applicable to learning the special light image 16a in the NBI.
 〈第四実施形態〉
 第四実施形態に係る画像処理は、互いに異なる観察モードを適用して取得した複数の画像群を適用して学習を行う場合に適用される。第一実施形態から第三実施形態に示す画像処理は、本来とは異なる観察モードを適用して取得した内視鏡画像を、擬似的に本来の観察モードを適用して取得した内視鏡画像に近づける処理である。
<Fourth embodiment>
The image processing according to the fourth embodiment is applied when learning is performed by applying a plurality of image groups acquired by applying different observation modes. The image processing shown in the first embodiment to the third embodiment is an endoscope image obtained by applying an observation mode different from the original, an endoscope image acquired by applying the original observation mode in a pseudo manner. This is a process for approaching.
 そうすると、別の観察モードの影響が大きくなり過ぎると、学習精度の向上が期待を下回る可能性がある。そこで、学習部30に適用される学習方法を工夫して、複数の画像群のバランスの調整を図る。具体的には、通常光画像群の学習と特殊光画像群の学習との学習方法を切り替える。通常光画像群の学習と特殊光画像群の学習との学習方法を切り替えには、通常光画像14aから生成した処理画像17aの学習と特殊光画像16aの学習との学習方法を切り替えが含まれる。以下に、学習方法の切り替えの具体例について説明する。 Then, if the influence of another observation mode becomes too large, the improvement of the learning accuracy may be less than expected. Therefore, the learning method applied to the learning unit 30 is devised to adjust the balance of the plurality of image groups. Specifically, the learning method for learning the normal light image group and the learning method for the special light image group is switched. Switching between the learning method for learning the normal light image group and the learning method for the special light image group includes switching between the learning method for learning the processed image 17a generated from the normal light image 14a and the learning method for learning the special light image 16a. . Hereinafter, a specific example of switching the learning method will be described.
 《重み係数の導入》
 CNNを含む学習手法の多くは、特定の目的関数を最小化又は最大化する学習を実施する。そこで、本来の観察モードが適用された画像群のみから計算される目的関数をL_maimとし、本来とは異なる観察モードが適用された画像群のみから計算される目的関数をL_subとする。式1を用いて表される目的関数Lを最小化又は最大化する学習を実施する。
《Introduction of weight coefficient》
Many of the learning methods including CNN implement learning that minimizes or maximizes a specific objective function. Therefore, an objective function calculated only from the image group to which the original observation mode is applied is set to L_maim, and an objective function calculated only from the image group to which the observation mode different from the original is applied is set to L_sub. Learning for minimizing or maximizing the objective function L expressed by using Expression 1 is performed.
 L=L_maim+λ×L_sub …式1
 なお、式1のλは設計パラメータである。設計パラメータλは1未満の任意の定数が適用される。設計パラメータλの値をより小さくすると、目的関数Lにおいて本来の観察モードの影響を表す第一項に対して、本来とは異なる観察モードの影響を表す第二項の影響がより抑制され得る。
L = L_maim + λ × L_sub Equation 1
Note that λ in Equation 1 is a design parameter. An arbitrary constant less than 1 is applied to the design parameter λ. When the value of the design parameter λ is made smaller, the effect of the second term representing the influence of an observation mode different from the original term on the objective function L can be further suppressed with respect to the first term representing the influence of the original observation mode.
 通常光画像14aの画像群とLCIにおける特殊光画像16aの画像群とを用いて学習を実施する場合は以下のとおりである。特殊光画像16aの画像群のみから計算される目的関数をL_maimとする。通常光画像14aの画像群のみから計算される目的関数をL_subとする。設計パラメータλを適宜設定して、式1の目的関数Lを最小化又は最大化する学習を実施し得る。 The case where learning is performed using the image group of the normal light image 14a and the image group of the special light image 16a in LCI is as follows. An objective function calculated from only the image group of the special light image 16a is defined as L_maim. The objective function calculated from only the image group of the normal light image 14a is L_sub. By appropriately setting the design parameter λ, learning for minimizing or maximizing the objective function L of Equation 1 can be performed.
 図2に示す内視鏡画像学習装置10は、設計パラメータλを設定する設計パラメータ設定部を備え得る。また、内視鏡画像学習装置10は、目的関数Lを記憶する目的関数記憶部を備え得る。学習部30は、目的関数L及び設計パラメータλを読み出し、学習を実施し得る。 内 The endoscope image learning device 10 shown in FIG. 2 may include a design parameter setting unit for setting the design parameter λ. In addition, the endoscope image learning device 10 may include an objective function storage unit that stores the objective function L. The learning unit 30 can read out the objective function L and the design parameter λ and perform learning.
 《転移学習》
 まず、観察モードが互いに異なる複数の画像群を用いてCNNを学習させる。その後に学習済みパラメータを初期値として、本来の観察モードが適用された画像群のみを用いてCNNを再学習させる。
《Transfer learning》
First, a CNN is learned using a plurality of image groups having different observation modes. Thereafter, the CNN is re-learned using only the image group to which the original observation mode is applied, using the learned parameters as initial values.
 具体的には、通常光画像14a及び処理画像17aを用いた学習済みのCNN、又は処理画像17aを用いた学習済みのCNNに対して、特殊光画像16aを用いて再学習を実施する。 Specifically, relearning is performed using the special light image 16a for the CNN that has been learned using the normal light image 14a and the processed image 17a or the CNN that has been learned using the processed image 17a.
 これにより、本来とは異なる観察モードが適用された画像群の情報を利用した上で、本来の観察モードが適用された画像群に、より近づけることが可能となる。 This makes it possible to use the information of the image group to which the observation mode different from the original is applied, and to bring the image group closer to the image group to which the original observation mode is applied.
 学習部30は、観察モードが互いに異なる複数の画像群を用いてCNNを学習させる第一学習部、及び本来の観察モードが適用された画像群のみを用いてCNNを再学習させる第二学習部を備え得る。 The learning unit 30 includes a first learning unit that learns the CNN using a plurality of image groups having different observation modes, and a second learning unit that re-learns the CNN using only the image group to which the original observation mode is applied. Can be provided.
 〈作用効果〉
 第四実施形態に係る画像処理によれば、本来とは異なる観察モードが適用された画像群の情報を利用した上で、本来とは異なる観察モードが適用された画像群の影響が抑制される学習を実施し得る。
<Effects>
According to the image processing according to the fourth embodiment, the influence of the image group to which the observation mode different from the original is applied is suppressed while using the information of the image group to which the observation mode different from the original is applied. Learning can be performed.
 [内視鏡画像を取得する内視鏡システムの全体構成]
 図8は内視鏡システムの全体構成図である。図8に示す内視鏡システム300は、内視鏡302、光源装置311、プロセッサ装置312、表示装置313、画像処理装置314、入力装置315、及びモニタ装置316を備える。
[Overall Configuration of Endoscope System for Obtaining Endoscope Image]
FIG. 8 is an overall configuration diagram of the endoscope system. The endoscope system 300 shown in FIG. 8 includes an endoscope 302, a light source device 311, a processor device 312, a display device 313, an image processing device 314, an input device 315, and a monitor device 316.
 内視鏡302は電子内視鏡である。また、内視鏡302は軟性内視鏡である。内視鏡302は挿入部320、操作部321、及びユニバーサルコード322を備える。挿入部320は被検体内に挿入される。挿入部320は、全体が細径で長尺状に形成されている。 The endoscope 302 is an electronic endoscope. The endoscope 302 is a flexible endoscope. The endoscope 302 includes an insertion section 320, an operation section 321 and a universal cord 322. The insertion section 320 is inserted into the subject. The insertion section 320 is formed in a small diameter and a long shape as a whole.
 挿入部320は、軟性部325、湾曲部326、及び先端部327を備える。挿入部320は、軟性部325、湾曲部326、及び先端部327が連設されて構成される。軟性部325は、挿入部320の基端側から先端側に向けて順に可撓性を有する。湾曲部326は、操作部321が操作された場合に湾曲可能な構造を有する。先端部327は、図示しない撮像光学系及び撮像素子328等が内蔵される。 The insertion section 320 includes a flexible section 325, a curved section 326, and a tip section 327. The insertion section 320 is configured by connecting a flexible section 325, a bending section 326, and a tip section 327 in a row. The flexible portion 325 has flexibility in order from the proximal end to the distal end of the insertion portion 320. The bending section 326 has a structure that can be bent when the operation section 321 is operated. The distal end portion 327 has a built-in image pickup optical system and image pickup element 328 (not shown).
 撮像素子328は、CMOS型撮像素子又はCCD型撮像素子が適用される。CMOSは、Complementary Metal Oxide Semiconductorの省略語である。CCDは、Charge Coupled Deviceの省略語である。 (4) As the image sensor 328, a CMOS image sensor or a CCD image sensor is applied. CMOS is an abbreviation for Complementary \ Metal \ Oxide \ Semiconductor. CCD is an abbreviation for Charge \ Coupled \ Device.
 先端部327の先端面327aは、図示しない観察窓が配置される。観察窓は、先端部327の先端面327aに形成された開口である。観察窓は図示しないカバーが取り付けられる。観察窓の後方には、図示しない撮像光学系が配置される。撮像素子328の撮像面は、観察窓及び撮像光学系等を介して、被観察部位の像光が入射する。撮像素子328は、撮像素子328の撮像面に入射した被観察部位の像光を撮像して、撮像信号を出力する。ここでいう撮像は、被観察部位からの反射光を電気信号へ変換するという意味が含まれる。 観 察 An observation window (not shown) is arranged on the distal end surface 327a of the distal end portion 327. The observation window is an opening formed on the distal end surface 327a of the distal end portion 327. A cover (not shown) is attached to the observation window. An imaging optical system (not shown) is arranged behind the observation window. The image plane of the observation site enters the imaging surface of the imaging element 328 via an observation window, an imaging optical system, and the like. The image sensor 328 captures the image light of the observed region that has entered the image capturing surface of the image sensor 328 and outputs an image signal. The term “imaging” as used herein means that reflected light from the region to be observed is converted into an electric signal.
 操作部321は挿入部320の基端側に連設される。操作部321は、術者が操作する各種操作部材を備える。具体的には、操作部321は、二種類の湾曲操作ノブ329を備える。湾曲操作ノブ329は、湾曲部326の湾曲操作の際に用いられる。なお、術者は、医師、操作者、観察者、及びユーザなどと呼ばれることがあり得る。 The operation unit 321 is continuously provided on the base end side of the insertion unit 320. The operation unit 321 includes various operation members operated by an operator. Specifically, the operation unit 321 includes two types of bending operation knobs 329. The bending operation knob 329 is used when performing a bending operation of the bending portion 326. Note that the surgeon may be called a doctor, an operator, an observer, a user, or the like.
 操作部321は、送気送水ボタン330及び吸引ボタン331を備える。送気送水ボタン330は、術者が送気送水操作を行う際に用いられる。吸引ボタン331は、術者が吸引操作を行う際に用いられる。 The operation unit 321 includes an air / water supply button 330 and a suction button 331. The air / water button 330 is used when the operator performs an air / water operation. The suction button 331 is used when an operator performs a suction operation.
 操作部321は、静止画像撮像指示部332及び処置具導入口333を備える。静止画像撮像指示部332は、被観察部位の静止画像を撮像する際に、術者が操作する。処置具導入口333は、挿入部320の内部を挿通している処置具挿通路の内部に処置具を挿入する開口である。なお、処置具挿通路及び処置具の図示は省略する。 The operation unit 321 includes a still image capturing instruction unit 332 and a treatment instrument introduction port 333. The still image capturing instruction unit 332 is operated by the operator when capturing a still image of the observed region. The treatment instrument introduction port 333 is an opening for inserting the treatment instrument into the treatment instrument insertion passage that passes through the inside of the insertion section 320. The illustration of the treatment tool insertion passage and the treatment tool is omitted.
 ユニバーサルコード322は、内視鏡302を光源装置311に接続する接続コードである。ユニバーサルコード322は、挿入部320の内部を挿通しているライトガイド335、信号ケーブル336、及び図示しない流体チューブを内包している。 The universal cord 322 is a connection cord for connecting the endoscope 302 to the light source device 311. The universal cord 322 includes a light guide 335, a signal cable 336, and a fluid tube (not shown) that pass through the inside of the insertion section 320.
 また、ユニバーサルコード322の先端部は、光源装置311に接続されるコネクタ337a、及びコネクタ337aから分岐され、かつプロセッサ装置312に接続されるコネクタ337bを備える。 The distal end of the universal cord 322 includes a connector 337a connected to the light source device 311 and a connector 337b branched from the connector 337a and connected to the processor device 312.
 コネクタ337aを光源装置311に接続すると、ライトガイド335及び図示しない流体チューブが光源装置311に挿入される。これにより、ライトガイド335及び図示しない流体チューブを介して、光源装置311から内視鏡302に対して必要な照明光と水と気体とが供給される。 When the connector 337 a is connected to the light source device 311, the light guide 335 and a fluid tube (not shown) are inserted into the light source device 311. Thereby, necessary illumination light, water, and gas are supplied from the light source device 311 to the endoscope 302 via the light guide 335 and a fluid tube (not shown).
 その結果、先端部327の先端面327aの図示しない照明窓から被観察部位に向けて照明光が照射される。また、送気送水ボタン330の押下操作に応じて、先端部327の先端面327aの図示しない送気送水ノズルから先端面327aの図示しない観察窓に向けて気体又は水が噴射される。 As a result, the illumination light is emitted from the illumination window (not shown) of the distal end surface 327a of the distal end portion 327 toward the observation target site. Further, in response to the pressing operation of the air / water supply button 330, gas or water is jetted from an air / water supply nozzle (not shown) on the distal end surface 327a of the distal end portion 327 toward an observation window (not shown) on the distal end surface 327a.
 コネクタ337bをプロセッサ装置312に接続すると、信号ケーブル336とプロセッサ装置312とが電気的に接続される。これにより、信号ケーブル336を介して、内視鏡302の撮像素子328からプロセッサ装置312へ被観察部位の撮像信号が出力され、かつプロセッサ装置312から内視鏡302へ制御信号が出力される。 When the connector 337b is connected to the processor device 312, the signal cable 336 and the processor device 312 are electrically connected. As a result, an imaging signal of the observed region is output from the imaging element 328 of the endoscope 302 to the processor device 312 via the signal cable 336, and a control signal is output from the processor device 312 to the endoscope 302.
 本実施形態では、内視鏡302として軟性内視鏡を例に挙げて説明を行ったが、内視鏡302として、硬性内視鏡等の被観察部位の動画撮像を可能な各種の電子内視鏡を用いてもよい。 In the present embodiment, a flexible endoscope has been described as an example of the endoscope 302. However, as the endoscope 302, various types of electronic endoscopes capable of capturing moving images of a site to be observed, such as a hard endoscope, are described. An endoscope may be used.
 光源装置311は、コネクタ337aを介して、内視鏡302のライトガイド335へ照明光を供給する。照明光は、白色光又は特定の波長帯域の光を適用可能である。照明光は、白色光及び特定の波長帯域の光を組み合わせてもよい。光源装置311は、観察目的に応じた波長帯域の光を、照明光として適宜選択可能に構成される。 The light source device 311 supplies illumination light to the light guide 335 of the endoscope 302 via the connector 337a. As the illumination light, white light or light in a specific wavelength band can be applied. The illumination light may be a combination of white light and light of a specific wavelength band. The light source device 311 is configured to be able to appropriately select light in a wavelength band according to an observation purpose as illumination light.
 白色光は、白色の波長帯域の光又は複数の波長帯域の光のいずれでもよい。特定の波長帯域は、白色の波長帯域よりも狭い帯域である。特定の波長帯域の光は、一種類の波長帯域の光を適用してもよいし、複数の波長帯域の光を適用してもよい。特定の波長帯域は、特殊光と呼ばれる場合がある。 The white light may be light in a white wavelength band or light in a plurality of wavelength bands. The specific wavelength band is a band narrower than the white wavelength band. As light of a specific wavelength band, light of one type of wavelength band may be applied, or light of a plurality of wavelength bands may be applied. A specific wavelength band may be called special light.
 プロセッサ装置312は、コネクタ337b及び信号ケーブル336を介して、内視鏡302の動作を制御する。また、プロセッサ装置312は、コネクタ337b及び信号ケーブル336を介して、内視鏡302の撮像素子328から撮像信号を取得する。プロセッサ装置312は規定のフレームレートを適用して内視鏡302から出力された撮像信号を取得する。 The processor device 312 controls the operation of the endoscope 302 via the connector 337b and the signal cable 336. In addition, the processor device 312 acquires an image signal from the image sensor 328 of the endoscope 302 via the connector 337b and the signal cable 336. The processor device 312 acquires an image signal output from the endoscope 302 by applying a specified frame rate.
 プロセッサ装置312は、内視鏡302から取得した撮像信号に基づき、被観察部位の観察画像である内視鏡画像を生成する。ここでいう内視鏡画像338には動画像が含まれる。内視鏡画像338は静止画像339が含まれてもよい。 The processor device 312 generates an endoscope image which is an observation image of the observed part based on the imaging signal acquired from the endoscope 302. The endoscope image 338 here includes a moving image. The endoscope image 338 may include a still image 339.
 プロセッサ装置312は、操作部321の静止画像撮像指示部332が操作された場合、動画像の生成と並行して、撮像素子328から取得した撮像信号に基づき被観察部位の静止画像339を生成する。静止画像339は、動画像の解像度に対して高解像度に生成されていてもよい。 When the still image imaging instruction unit 332 of the operation unit 321 is operated, the processor device 312 generates a still image 339 of the observed part based on the imaging signal acquired from the imaging element 328 in parallel with the generation of the moving image. . The still image 339 may be generated at a higher resolution than the resolution of the moving image.
 内視鏡画像338の生成の際に、プロセッサ装置312はホワイトバランス調整及びシェーディング補正等のデジタル信号処理を適用した画質の補正を行う。プロセッサ装置312はDICOM規格で規定された付帯情報を内視鏡画像338へ付加してもよい。なお、DICOMは、Digital Imaging and Communications in Medicineの省略語である。 (4) When the endoscope image 338 is generated, the processor device 312 performs image quality correction using digital signal processing such as white balance adjustment and shading correction. The processor device 312 may add additional information specified by the DICOM standard to the endoscope image 338. Note that DICOM is an abbreviation for Digital Imaging and Communications in Medicine.
 内視鏡画像338は、被検体内、すなわち生体内を撮像した生体内画像である。内視鏡画像338が、特定の波長帯域の光を用いて撮像して得られた画像である場合、両者は特殊光画像である。そして、プロセッサ装置312は、生成した内視鏡画像338を表示装置313と画像処理装置314とのそれぞれに出力する。プロセッサ装置312は、DICOM規格に準拠した通信プロトコルに従って、図示しないネットワークを介して内視鏡画像338を、図示しない記憶装置へ出力してもよい。 The endoscope image 338 is an in-vivo image of the inside of the subject, that is, the inside of the living body. When the endoscope image 338 is an image obtained by imaging using light in a specific wavelength band, both are special light images. Then, the processor device 312 outputs the generated endoscope image 338 to each of the display device 313 and the image processing device 314. The processor device 312 may output the endoscope image 338 to a storage device (not shown) via a network (not shown) according to a communication protocol conforming to the DICOM standard.
 表示装置313は、プロセッサ装置312に接続される。表示装置313は、プロセッサ装置312から送信された内視鏡画像338を表示する。術者は、表示装置313に表示される内視鏡画像338を確認しながら、挿入部320の進退操作等をし得る。術者は、被観察部位に病変等を検出した場合に、静止画像撮像指示部332を操作して被観察部位の静止画を撮像し得る。 The display device 313 is connected to the processor device 312. The display device 313 displays the endoscope image 338 transmitted from the processor device 312. The operator can perform the operation of moving the insertion section 320 forward and backward while checking the endoscope image 338 displayed on the display device 313. When the surgeon detects a lesion or the like in the observed region, the surgeon can operate the still image imaging instruction unit 332 to capture a still image of the observed region.
 画像処理装置314は、コンピュータが用いられる。入力装置315はコンピュータに接続可能なキーボード及びマウス等が用いられる。入力装置315とコンピュータとの接続は有線接続、又は無線接続のいずれでもよい。モニタ装置316は、コンピュータに接続可能な各種モニタが用いられる。 コ ン ピ ュ ー タ A computer is used for the image processing device 314. As the input device 315, a keyboard, a mouse, and the like connectable to a computer are used. The connection between the input device 315 and the computer may be either a wired connection or a wireless connection. As the monitor device 316, various monitors that can be connected to a computer are used.
 画像処理装置314として、ワークステーション及びサーバ装置等の診断支援装置を用いてもよい。この場合、入力装置315及びモニタ装置316は、それぞれワークステーション等に接続した複数の端末ごとに設けられる。更に、画像処理装置314として、医療レポート等の作成支援を行う診療業務支援装置を用いてもよい。 As the image processing device 314, a diagnosis support device such as a workstation and a server device may be used. In this case, the input device 315 and the monitor device 316 are provided for each of a plurality of terminals connected to a workstation or the like. Further, as the image processing device 314, a medical service support device that supports creation of a medical report or the like may be used.
 画像処理装置314は、内視鏡画像338の取得及び内視鏡画像338の記憶を行う。画像処理装置314は、モニタ装置316の再生制御を行う。図8に示す画像処理装置314は、図1から図7までの各図を用いて説明した内視鏡画像学習装置10の機能を備え得る。また、図8に示す入力装置315は図1に示す操作部18に相当する。図8に示すモニタ装置316は図1に示す表示部26に相当する。 The image processing device 314 acquires the endoscope image 338 and stores the endoscope image 338. The image processing device 314 controls the reproduction of the monitor device 316. The image processing device 314 illustrated in FIG. 8 can have the function of the endoscope image learning device 10 described with reference to FIGS. 1 to 7. The input device 315 illustrated in FIG. 8 corresponds to the operation unit 18 illustrated in FIG. The monitor device 316 shown in FIG. 8 corresponds to the display unit 26 shown in FIG.
 なお、本明細書における画像という用語は、画像を表す電気信号及び画像を表す情報等の静止画像339の意味が含まれている。本明細書における画像という用語は、画像自身及び画像データの少なくともいずれかを意味している。 Note that the term image in this specification includes the meaning of a still image 339 such as an electric signal representing an image and information representing an image. The term image in this specification means at least one of the image itself and image data.
 また、画像の記憶という用語は、画像の保存と読み替えることが可能である。ここでいう画像の記憶は、画像の非一時的記憶を意味する。画像処理装置314は画像を一時記憶する一時記憶用のメモリを備えてもよい。 用語 In addition, the term image storage can be read as image storage. Image storage here means non-temporary storage of an image. The image processing device 314 may include a temporary storage memory for temporarily storing an image.
 入力装置315は、画像処理装置314に対する操作指示の入力に用いられる。モニタ装置316は、画像処理装置314の制御の下、内視鏡画像338の表示を行う。モニタ装置316は、画像処理装置314における各種情報の表示部として機能してもよい。 The input device 315 is used to input an operation instruction to the image processing device 314. The monitor device 316 displays the endoscope image 338 under the control of the image processing device 314. The monitor device 316 may function as a display unit of various information in the image processing device 314.
 画像処理装置314は、図示しないネットワークを介して、図示しない記憶装置と接続され得る。画像の格納形式及びネットワークを経由した各装置間の通信は、DICOM規格及びDICOM規格に準拠したプロトコル等を適用可能である。 The image processing device 314 can be connected to a storage device (not shown) via a network (not shown). For communication between the devices via the image storage format and the network, the DICOM standard, a protocol based on the DICOM standard, and the like can be applied.
 図示しない記憶装置は、データを非一時的に記憶するストレージ等を適用可能である。記憶装置は、図示しないサーバ装置を用いて管理されてもよい。サーバ装置は、各種データを記憶して管理するコンピュータを適用可能である。 記憶 A storage device (not shown) to which data is temporarily stored can be applied. The storage device may be managed using a server device (not shown). A computer that stores and manages various data can be applied to the server device.
 [内視鏡システムの観察モード]
 図9は内視鏡システムの機能ブロック図である。内視鏡システム300は通常光観察モードと特殊光観察モードとの切り替えが可能に構成される。操作者は図示しない観察モード切替ボタンを操作して、通常光観察モードと特殊光観察モードとの切り替えを実施し得る。
[Observation mode of endoscope system]
FIG. 9 is a functional block diagram of the endoscope system. The endoscope system 300 is configured to be switchable between a normal light observation mode and a special light observation mode. The operator can switch between a normal light observation mode and a special light observation mode by operating an observation mode switching button (not shown).
 光源装置311は、第一レーザ光源400、第二レーザ光源402、及び光源制御部404を備える。第一レーザ光源400は、中心波長445nmの青色レーザ光源である。第二レーザ光源402は、中心波長405nmの紫色レーザ光源である。第一レーザ光源400及び第二レーザ光源402として、レーザダイオードを用いることができる。第一レーザ光源400及び第二レーザ光源402の発光は、光源制御部404を用いて個別に制御される。第一レーザ光源400と第二レーザ光源402との発光強度比は変更自在になっている。 The light source device 311 includes a first laser light source 400, a second laser light source 402, and a light source control unit 404. The first laser light source 400 is a blue laser light source having a center wavelength of 445 nm. The second laser light source 402 is a violet laser light source having a center wavelength of 405 nm. As the first laser light source 400 and the second laser light source 402, laser diodes can be used. Light emission of the first laser light source 400 and the second laser light source 402 is individually controlled using the light source control unit 404. The emission intensity ratio between the first laser light source 400 and the second laser light source 402 can be changed freely.
 内視鏡302は、第一光ファイバ410、第二光ファイバ412、蛍光体414、拡散部材416、撮像レンズ418、撮像素子328、及びアナログデジタル変換部420を備える。 The endoscope 302 includes a first optical fiber 410, a second optical fiber 412, a phosphor 414, a diffusion member 416, an imaging lens 418, an imaging device 328, and an analog-to-digital converter 420.
 第一レーザ光源400、第二レーザ光源402、第一光ファイバ410、第二光ファイバ412、蛍光体414、及び拡散部材416を用いて照射部が構成される。 照射 An irradiation unit is configured using the first laser light source 400, the second laser light source 402, the first optical fiber 410, the second optical fiber 412, the phosphor 414, and the diffusion member 416.
 第一レーザ光源400から出射されるレーザ光は、第一光ファイバ410を介して内視鏡302の先端部327に配置された蛍光体414に照射される。蛍光体414は、第一レーザ光源400からの青色レーザ光の一部を吸収して緑色から黄色まで範囲に励起発光する複数種の蛍光体を含んで構成される。これにより、蛍光体414から出射する光は、第一レーザ光源400からの青色レーザ光を励起光とする緑色から黄色まで範囲の励起光L11及び蛍光体414に吸収されずに透過した青色のレーザ光L12が合わされて、白色又は疑似白色の光Lとなる。 Laser light emitted from the first laser light source 400 is applied to the phosphor 414 disposed at the distal end 327 of the endoscope 302 via the first optical fiber 410. The phosphor 414 is configured to include a plurality of types of phosphors that absorb part of the blue laser light from the first laser light source 400 and excite and emit light in a range from green to yellow. Accordingly, the light emitted from the phosphor 414 is blue which transmits the blue laser light from green to excitation light not absorbed by the excitation light L 11 and the phosphor 414 in the range up to the yellow from the first laser light source 400 the laser beam L 12 is combined, the light L 1 of the white or pseudo white.
 なお、ここで言う白色光とは、厳密に可視光の全ての波長成分を含むものに限らない。例えば、R、G、及びBなど、特定の波長帯域の光を含むものであればよく、緑色から赤色にかけての波長成分を含む光、又は青色から緑色にかけての波長成分を含む光等も広義に含むものとする。 白色 Incidentally, the white light mentioned here is not limited to a light that strictly includes all wavelength components of visible light. For example, any light containing a specific wavelength band, such as R, G, and B, may be used. Light including a wavelength component from green to red, or light including a wavelength component from blue to green may be broadly defined. Shall be included.
 一方、第二レーザ光源402から出射されるレーザ光は、第二光ファイバ412を介して内視鏡302の先端部327に配置された拡散部材416に照射される。拡散部材416は、透光性を有する樹脂材料等を用いることができる。拡散部材416から出射する光は、照射領域内において光量が均一化された狭帯域波長の光Lとなる。 On the other hand, the laser light emitted from the second laser light source 402 is applied to the diffusion member 416 disposed at the distal end 327 of the endoscope 302 via the second optical fiber 412. For the diffusion member 416, a resin material or the like having a light-transmitting property can be used. Light emitted from the diffusion member 416, a light L 2 of the narrow band wavelength light amount is uniform in the exposure area.
 図10は光の強度分布を示すグラフである。光源制御部404は、第一レーザ光源400と第二レーザ光源402との光量比を変更する。これにより、光Lと光Lとの光量比が変更され、光Lと光Lとの合成光である照射光Lの波長パターンが変更され、観察モードに応じて異なる波長パターンの照射光Lを照射することができる。 FIG. 10 is a graph showing the light intensity distribution. The light source control unit 404 changes the light amount ratio between the first laser light source 400 and the second laser light source 402. Thus, the light quantity ratio between the light L 1 and the light L 2 is changed, the changed wavelength pattern of the light L 1 and the irradiation light L 0 is a composite light of the light L 2 is, wavelengths different patterns depending on the observation mode it can be irradiated with the irradiation light L 0 of.
 図9に示す内視鏡システム300は、撮像レンズ418、撮像素子328、アナログデジタル変換部420を含む撮像部を備える。図8に示すように撮像部は、内視鏡302の先端部327に配置される。 内 The endoscope system 300 shown in FIG. 9 includes an imaging unit including an imaging lens 418, an imaging element 328, and an analog-to-digital conversion unit 420. As shown in FIG. 8, the imaging unit is disposed at the distal end 327 of the endoscope 302.
 図9に示す撮像レンズ418は、入射した光を撮像素子328に結像させる。撮像素子328は、受光した光に応じたアナログ信号を生成する。撮像素子328から出力されるアナログ信号は、アナログデジタル変換部420を用いてデジタル信号に変換され、プロセッサ装置312に入力される。 撮 像 The imaging lens 418 shown in FIG. 9 focuses the incident light on the imaging element 328. The image sensor 328 generates an analog signal corresponding to the received light. An analog signal output from the image sensor 328 is converted to a digital signal using the analog-to-digital converter 420 and input to the processor device 312.
 プロセッサ装置312は、撮像制御部440、画像処理部442、画像取得部444、及び画像認識部446を備える。 The processor device 312 includes an imaging control unit 440, an image processing unit 442, an image acquisition unit 444, and an image recognition unit 446.
 撮像制御部440は、光源装置311の光源制御部404、内視鏡302の撮像素子328及びアナログデジタル変換部420、並びにプロセッサ装置312の画像処理部442を制御し、内視鏡システム300を用いた動画及び静止画の撮像を統括制御する。 The imaging control unit 440 controls the light source control unit 404 of the light source device 311, the imaging element 328 and the analog-to-digital conversion unit 420 of the endoscope 302, and the image processing unit 442 of the processor device 312, and uses the endoscope system 300. It controls the imaging of the moving image and the still image.
 画像処理部442は、内視鏡302のアナログデジタル変換部420から入力されたデジタル信号に画像処理を施し画像を生成する。画像処理部442は、撮像時の照射光の波長パターンに応じた画像処理を施す。 The image processing unit 442 performs image processing on the digital signal input from the analog-to-digital conversion unit 420 of the endoscope 302 to generate an image. The image processing unit 442 performs image processing according to the wavelength pattern of irradiation light at the time of imaging.
 画像取得部444は、画像処理部442が生成した画像を取得する。すなわち、画像取得部444は、被験者の体腔内を一定のフレームレートを適用して時系列的に撮像した複数の画像を順次取得する。なお、画像取得部444は、入力部447から入力された画像、又は記憶部468に記憶された画像を取得してもよい。また、不図示のネットワークに接続されたサーバ等の外部装置から画像を取得してもよい。これらの場合の画像も、時系列的に撮像した複数の画像であることが好ましい。 The image acquisition unit 444 acquires the image generated by the image processing unit 442. That is, the image acquisition unit 444 sequentially acquires a plurality of images that are taken in chronological order by applying a fixed frame rate to the inside of the body cavity of the subject. Note that the image acquisition unit 444 may acquire an image input from the input unit 447 or an image stored in the storage unit 468. Further, an image may be obtained from an external device such as a server connected to a network (not shown). The images in these cases are also preferably a plurality of images taken in time series.
 画像認識部446は、内視鏡画像学習装置10によって学習された学習モデルを用いて、画像取得部444が取得した画像の画像認識を行う。本実施形態では、画像取得部444が取得した画像から病変を認識する。病変とは、病気が原因のものに限定されず、外観上正常な状態とは異なる状態の領域を含んでいる。 The image recognition unit 446 performs image recognition of the image acquired by the image acquisition unit 444 using the learning model learned by the endoscope image learning device 10. In the present embodiment, a lesion is recognized from the image acquired by the image acquisition unit 444. The lesion is not limited to the one caused by the disease but includes an area having a state different from a normal state in appearance.
 病変の一例として、ポリープ、癌、大腸憩室、炎症、治療痕、クリップ箇所、出血点、穿孔、及び血管異型性等が挙げられる。治療痕の一例として、EMR瘢痕及びESD瘢痕等が挙げられる。EMRはEndoscopic Mucosal Resectionの省略語である。ESDはEndoscopic Submucosal Dissectionの省略語である。 Examples of lesions include polyps, cancer, colonic diverticulum, inflammation, treatment marks, clipping points, bleeding points, perforations, and vascular atypia. Examples of the treatment scar include an EMR scar and an ESD scar. EMR is an abbreviation for Endoscopic \ Mucosal \ Resection. ESD is an abbreviation for Endoscopic \ Submucosal \ Dissection.
 表示制御部450は、画像処理部442を用いて生成された画像を表示装置313に表示させる。表示制御部450は、画像認識部446を用いて認識した病変を認識可能に画像に重畳表示してもよい。 The display control unit 450 causes the display device 313 to display the image generated using the image processing unit 442. The display control unit 450 may superimpose the lesion recognized using the image recognition unit 446 on the image so as to be recognizable.
 記憶制御部452は、画像処理部442を用いて生成された画像を記憶部468に記憶させる。例えば、静止画の取得指示に従って撮像された画像及び画像を撮像した際の照射光Lの波長パターンの情報等を記憶部468に記憶させる。 The storage control unit 452 causes the storage unit 468 to store the image generated using the image processing unit 442. For example, and stores the information of the wavelength pattern of the irradiation light L 0 at the time of capturing a captured image and the image according to the acquired instruction of a still image in the storage unit 468.
 記憶部468の一例として、ハードディスク等のストレージ装置が挙げられる。なお、記憶部468は、プロセッサ装置312に内蔵されたものに限定されない。例えば、プロセッサ装置312に接続される不図示の外部記憶装置であってもよい。外部記憶装置は、不図示のネットワークを介して接続されていてもよい。 (4) An example of the storage unit 468 is a storage device such as a hard disk. Note that the storage unit 468 is not limited to the one built in the processor device 312. For example, an external storage device (not shown) connected to the processor device 312 may be used. The external storage device may be connected via a network (not shown).
 このように構成された内視鏡システム300は、通常は一定のフレームレートで動画撮像を行い、撮像した画像を表示装置313に表示する。また、撮像された動画から、病変を検出し、検出した病変を認識可能に動画に重畳して表示装置313に表示する。 The endoscope system 300 configured as described above normally captures a moving image at a fixed frame rate, and displays the captured image on the display device 313. Further, a lesion is detected from the captured moving image, and the detected lesion is superimposed on the moving image so as to be recognizable and displayed on the display device 313.
 内視鏡システム300によれば、内視鏡画像学習装置10によって学習された学習モデルを用いた画像認識部446を適用して内視鏡画像の自動認識を行い、特殊光画像の画像認識を適切に行うことができる。 According to the endoscope system 300, the image recognition unit 446 using the learning model trained by the endoscope image learning device 10 is applied to automatically recognize the endoscope image and perform image recognition of the special light image. Can be done properly.
 図8から図10を用いて説明した内視鏡システム300は、通常光画像14a及び特殊光画像16aを取得し得る。 内 The endoscope system 300 described with reference to FIGS. 8 to 10 can acquire the normal light image 14a and the special light image 16a.
 [内視鏡システムの変形例]
 〔プロセッサ装置の変形例〕
 プロセッサ装置312は、画像処理装置314の機能を有してもよい。すなわち、プロセッサ装置312は、画像処理装置314と一体に構成されてもよい。かかる態様では、表示装置313はモニタ装置316と兼用し得る。プロセッサ装置312は入力装置315を接続させる接続端子を備え得る。
[Modification of Endoscope System]
[Modification of Processor Device]
The processor device 312 may have the function of the image processing device 314. That is, the processor device 312 may be configured integrally with the image processing device 314. In such an embodiment, the display device 313 can also serve as the monitor device 316. The processor device 312 may include a connection terminal to which the input device 315 is connected.
 〔特徴量画像の生成例〕
 医用画像として、白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得る通常画像、並びに特定の波長帯域の光を照射して得る特殊光画像の少なくともいずれかに基づく演算を用いて、特徴量画像を生成し得る。
[Example of generating feature image]
As a medical image, based on at least one of a white band light, a normal image obtained by irradiating light of a plurality of wavelength bands as white band light, and a special light image obtained by irradiating light of a specific wavelength band The calculation may be used to generate a feature image.
 [コンピュータを画像処理装置として機能させるプログラムへの適用例]
 上述した内視鏡画像学習方法は、コンピュータを用いて、内視鏡画像学習方法における各工程に対応する機能を実現させるプログラムとして構成可能である。例えば、コンピュータに、互いに分光分布が異なる第一画像及び第二画像を取得する画像取得機能、第一画像に画像処理を施して第三画像を生成する画像処理機能、及び複数の第一画像を含む第一画像群、複数の第二画像を含む第二画像群、及び複数の第三画像を含む第三画像群、並びに第一画像群、第二画像群、及び第三画像群のそれぞれの正しい認識結果である正解データを用いて、自動認識に適用する認識器を学習する学習機能を実現させるプログラムであって、画像処理機能は、第一画像の分光分布に含まれる帯域のうち第二画像の対応する帯域と特性が異なる帯域の信号を抑制する画像処理、及び第一画像に含まれる帯域のうち第二画像の対応する帯域と特性が同一の帯域の信号又は類似する帯域の信号を強調する画像処理の少なくともいずれかを施して、第一画像から第三画像を生成するプログラムを実現し得る。
[Example of application to a program that causes a computer to function as an image processing device]
The above-described endoscopic image learning method can be configured as a program that realizes a function corresponding to each step in the endoscopic image learning method using a computer. For example, a computer has an image acquisition function of acquiring first and second images having different spectral distributions from each other, an image processing function of performing image processing on the first image to generate a third image, and a plurality of first images. Each of the first image group, the second image group including the plurality of second images, and the third image group including the plurality of third images, and the first image group, the second image group, and the third image group A program for realizing a learning function of learning a recognizer to be applied to automatic recognition using correct answer data that is a correct recognition result, wherein the image processing function is configured to perform a second function of a band included in the spectral distribution of the first image. Image processing to suppress the signal of the band having a different characteristic from the corresponding band of the image, and among the bands included in the first image, the corresponding band of the second image and the characteristic of the signal of the same band or a signal of a similar band. Less image processing to emphasize Also subjected to either a can realize a program for generating a third image from the first image.
 上述した内視鏡画像学習機能をコンピュータに実現させるプログラムを、有体物である非一時的な情報記憶媒体である、コンピュータが読取可能な情報記憶媒体に記憶し、情報記憶媒体を通じてプログラムを提供することが可能である。 A program for causing a computer to realize the above-described endoscopic image learning function is stored in a computer-readable information storage medium, which is a non-transitory information storage medium that is a tangible entity, and the program is provided through the information storage medium. Is possible.
 また、非一時的な情報記憶媒体にプログラムを記憶して提供する態様に代えて、ネットワークを介してプログラム信号を提供する態様も可能である。 態 様 Alternatively, instead of storing and providing the program in the non-transitory information storage medium, a mode in which the program signal is provided via a network is also possible.
 [実施形態及び変形例等の組み合わせについて]
 上述した実施形態で説明した構成要素及び変形例で説明した構成要素は、適宜組み合わせて用いることができ、また、一部の構成要素を置き換えることもできる。
[Combinations of Embodiments and Modifications]
The components described in the above-described embodiment and the components described in the modified examples can be appropriately combined and used, and some components can be replaced.
 以上説明した本発明の実施形態は、本発明の趣旨を逸脱しない範囲で、適宜構成要件を変更、追加、削除することが可能である。本発明は以上説明した実施形態に限定されるものではなく、本発明の技術的思想内で当該分野の通常の知識を有する者により、多くの変形が可能である。 In the embodiment of the present invention described above, constituent elements can be appropriately changed, added, or deleted without departing from the spirit of the present invention. The present invention is not limited to the embodiments described above, and many modifications can be made by those having ordinary knowledge in the art within the technical spirit of the present invention.
10 内視鏡画像学習装置
12 通信部
14 第一記憶装置
14a 通常光画像
16 第二記憶装置
16a 特殊光画像
17 第三記憶装置
17a 処理画像
18 操作部
20 CPU
22 RAM
24 ROM
26 表示部
30 学習部
32 CNN
32a 入力層
32b 中間層
32c 出力層
32d 畳み込み層
32e プーリング層
32f セット
32g 全結合層
34 誤差算出部
36 パラメータ更新部
40 画像生成部
100 分光感度分布
102 Bチャネル成分
104 Gチャネル成分
106 Rチャネル成分
120 通常光の強度分布
140 通常光画像の分光分布特性
142 Bチャネル成分
144 Gチャネル成分
146 Rチャネル成分
160 LCIにおける照明光の強度分布
180 特殊光画像の分光分布特性
182 Bチャネル成分
184 Gチャネル成分
186 Rチャネル成分
200 通常光画像の分光分布特性
202 Bチャネル成分
204 Gチャネル成分
206 Rチャネル成分
220 特殊光画像の分光分布特性
222 Bチャネル成分
224 Gチャネル成分
300 内視鏡システム
302 内視鏡
311 光源装置
312 プロセッサ装置
313 表示装置
314 画像処理装置
315 入力装置
316 モニタ装置
320 挿入部
321 操作部
322 ユニバーサルコード
325 軟性部
326 湾曲部
327 先端部
327a 先端面
328 撮像素子
329 湾曲操作ノブ
330 送気送水ボタン
331 吸引ボタン
332 静止画像撮像指示部
333 処置具導入口
335 ライトガイド
336 信号ケーブル
337a コネクタ
337b コネクタ
338 内視鏡画像
339 静止画像
400 第一レーザ光源
402 第二レーザ光源
404 光源制御部
410 第一光ファイバ
412 第二光ファイバ
414 蛍光体
416 拡散部材
418 撮像レンズ
420 アナログデジタル変換部
442 画像処理部
444 画像取得部
446 画像認識部
447 入力部
450 表示制御部
452 記憶制御部
468 記憶部
S10からS21 内視鏡画像学習方法の各工程
Reference Signs List 10 Endoscope image learning device 12 Communication unit 14 First storage device 14a Normal light image 16 Second storage device 16a Special light image 17 Third storage device 17a Processed image 18 Operation unit 20 CPU
22 RAM
24 ROM
26 display unit 30 learning unit 32 CNN
32a Input layer 32b Intermediate layer 32c Output layer 32d Convolutional layer 32e Pooling layer 32f Set 32g Fully connected layer 34 Error calculator 36 Parameter updater 40 Image generator 100 Spectral sensitivity distribution 102 B channel component 104 G channel component 106 R channel component 120 Normal light intensity distribution 140 Normal light image spectral distribution characteristic 142 B channel component 144 G channel component 146 R channel component 160 Illumination light intensity distribution in LCI 180 Spectral distribution characteristic of special light image 182 B channel component 184 G channel component 186 R channel component 200 Spectral distribution characteristic of normal light image 202 B channel component 204 G channel component 206 R channel component 220 Spectral distribution characteristic of special light image 222 B channel component 224 G channel component 300 Endoscope system 30 Endoscope 311 Light source device 312 Processor device 313 Display device 314 Image processing device 315 Input device 316 Monitor device 320 Insertion section 321 Operation section 322 Universal cord 325 Flexible section 326 Curved section 327 Tip section 327a Tip face 328 Image sensor 329 Curve operation knob 330 Air supply / water supply button 331 Suction button 332 Still image imaging instruction section 333 Treatment tool introduction port 335 Light guide 336 Signal cable 337a Connector 337b Connector 338 Endoscope image 339 Still image 400 First laser light source 402 Second laser light source 404 Light source control Unit 410 first optical fiber 412 second optical fiber 414 phosphor 416 diffusion member 418 imaging lens 420 analog-to-digital conversion unit 442 image processing unit 444 image acquisition unit 446 image recognition unit 447 input unit 450 Display control unit 452 Storage control unit 468 Storage units S10 to S21 Each step of the endoscope image learning method

Claims (18)

  1.  互いに分光分布が異なる第一画像及び第二画像を取得する画像取得部と、
     前記第一画像に画像処理を施して第三画像を生成する画像処理部と、
     複数の前記第一画像を含む第一画像群、複数の前記第二画像を含む第二画像群、及び複数の前記第三画像を含む第三画像群、並びに前記第一画像群、前記第二画像群、及び前記第三画像群のそれぞれの正解データを用いて、自動認識に適用する認識器を学習させる学習部と、
     を備え、
     前記画像処理部は、前記第一画像の分光分布に含まれる帯域のうち前記第二画像の対応する帯域と特性が異なる帯域の信号を抑制する画像処理、及び前記第一画像に含まれる帯域のうち前記第二画像の対応する帯域と特性が同一の帯域の信号又は類似する帯域の信号を強調する画像処理の少なくともいずれかを施して、前記第一画像から前記第三画像を生成する医用画像学習装置。
    An image acquisition unit that acquires a first image and a second image having different spectral distributions from each other,
    An image processing unit that performs image processing on the first image to generate a third image,
    A first image group including a plurality of the first images, a second image group including a plurality of the second images, and a third image group including a plurality of the third images, and the first image group, the second A learning unit that learns a recognizer to be applied to automatic recognition, using the correct answer data of the image group and the third image group,
    With
    The image processing unit is an image processing for suppressing a signal of a band having a characteristic different from a corresponding band of the second image among the bands included in the spectral distribution of the first image, and a band included in the first image. A medical image that generates the third image from the first image by performing at least one of image processing that emphasizes a signal in a same band or a signal in a similar band, and a characteristic corresponding to the band of the second image. Learning device.
  2.  前記画像処理部は、前記第一画像に対して、輝度分散を変換する処理を施す請求項1に記載の医用画像学習装置。 The medical image learning device according to claim 1, wherein the image processing unit performs a process of converting a luminance variance on the first image.
  3.  前記画像処理部は、前記第一画像に対して、輝度を規定の輝度値に変更する処理を施す請求項1に記載の医用画像学習装置。 The medical image learning device according to claim 1, wherein the image processing unit performs a process of changing a luminance to a prescribed luminance value on the first image.
  4.  前記画像処理部は、前記第一画像に対して、輝度をランダムな輝度値に変更する処理を施す請求項1に記載の医用画像学習装置。 The medical image learning device according to claim 1, wherein the image processing unit performs a process of changing luminance to a random luminance value on the first image.
  5.  前記第一画像は通常光を用いて撮像した通常光画像であり、
     前記第二画像は通常光よりも狭帯域の特殊光を用いて撮像した特殊光画像である請求項1に記載の医用画像学習装置。
    The first image is a normal light image captured using normal light,
    The medical image learning device according to claim 1, wherein the second image is a special light image captured using special light having a band narrower than normal light.
  6.  前記画像処理部は、前記通常光画像に対して、Bチャネル成分を抑制する処理を施す請求項5に記載の医用画像学習装置。 The medical image learning device according to claim 5, wherein the image processing unit performs a process of suppressing a B channel component on the normal light image.
  7.  前記画像処理部は、前記通常光画像に対して、Rチャネル成分及びGチャネル成分の少なくともいずれか一方を強調する処理を施す請求項5に記載の医用画像学習装置。 6. The medical image learning device according to claim 5, wherein the image processing unit performs a process of enhancing at least one of an R channel component and a G channel component on the normal light image.
  8.  前記画像処理部は、前記通常光画像に対して、Rチャネル成分を抑制する処理を施す請求項5に記載の医用画像学習装置。 The medical image learning device according to claim 5, wherein the image processing unit performs a process of suppressing an R channel component on the normal light image.
  9.  前記画像処理部は、前記通常光画像に対して、Bチャネル成分及びGチャネル成分を強調する処理を施す請求項5に記載の医用画像学習装置。 The medical image learning device according to claim 5, wherein the image processing unit performs a process of enhancing a B channel component and a G channel component on the normal light image.
  10.  前記画像処理部は、前記第一画像の処理対象帯域における空間周波数の規定の周波数成分を抑制する処理、又は前記第一画像の処理対象帯域における空間周波数の規定の周波数成分を強調する処理を施す請求項1に記載の医用画像学習装置。 The image processing unit performs a process of suppressing a specified frequency component of a spatial frequency in a processing target band of the first image or a process of emphasizing a specified frequency component of a spatial frequency in a processing target band of the first image. The medical image learning device according to claim 1.
  11.  前記第一画像は通常光を用いて撮像した通常光画像であり、
     前記第二画像は通常光よりも狭帯域の特殊光を用いて撮像した特殊光画像であり、
     前記画像処理部は、前記通常光画像のBチャネル成分の高周波成分を強調する処理を施す請求項10に記載の医用画像学習装置。
    The first image is a normal light image captured using normal light,
    The second image is a special light image captured using special light of a narrower band than normal light,
    The medical image learning device according to claim 10, wherein the image processing unit performs a process of enhancing a high frequency component of a B channel component of the normal light image.
  12.  前記学習部は、前記第一画像群の学習と前記第二画像群の学習との学習方法を切り替える請求項1から11のいずれか一項に記載の医用画像学習装置。 The medical image learning device according to any one of claims 1 to 11, wherein the learning unit switches a learning method between learning of the first image group and learning of the second image group.
  13.  前記学習部は、前記第二画像群の学習と前記第三画像群の学習との学習方法を切り替える請求項1から11のいずれか一項に記載の医用画像学習装置。 The medical image learning device according to any one of claims 1 to 11, wherein the learning unit switches a learning method between learning of the second image group and learning of the third image group.
  14.  前記学習部は、学習における前記第三画像の影響を抑制又は強調する学習方法を適用する請求項12又は13に記載の医用画像学習装置。 The medical image learning device according to claim 12 or 13, wherein the learning unit applies a learning method that suppresses or emphasizes the influence of the third image on learning.
  15.  前記学習部は、前記第一画像群、前記第三画像群、前記第一画像群の正解データ、及び前記第三画像群の正解データを用いた学習済の認識器、又は前記第三画像群及び前記第三画像群の正解データを用いた学習済の認識器に対して、前記第二画像群及び前記第二画像群の正解データを用いた学習を実施する請求項12又は13に記載の医用画像学習装置。 The learning unit, the first image group, the third image group, the correct data of the first image group, and a learned recognizer using the correct data of the third image group, or the third image group 14. The learning device according to claim 12, wherein learning is performed using correct data of the second image group and the second image group for a recognizer that has learned using correct data of the third image group. Medical image learning device.
  16.  互いに分光分布が異なる第一画像及び第二画像を取得する画像取得工程と、
     前記第一画像に画像処理を施して第三画像を生成する画像処理工程と、
     複数の前記第一画像を含む第一画像群、複数の前記第二画像を含む第二画像群、及び複数の前記第三画像を含む第三画像群、並びに前記第一画像群、前記第二画像群、及び前記第三画像群のそれぞれの正解データを用いて、自動認識に適用する認識器を学習させる学習工程と、
     を含み、
     前記画像処理工程は、前記第一画像の分光分布に含まれる帯域のうち前記第二画像の対応する帯域と特性が異なる帯域の信号を抑制する画像処理、及び前記第一画像に含まれる帯域のうち前記第二画像の対応する帯域と特性が同一の帯域の信号又は類似する帯域の信号を強調する画像処理の少なくともいずれかを施して、前記第一画像から前記第三画像を生成する医用画像学習方法。
    An image acquisition step of acquiring a first image and a second image having different spectral distributions from each other,
    An image processing step of performing image processing on the first image to generate a third image,
    A first image group including a plurality of the first images, a second image group including a plurality of the second images, and a third image group including a plurality of the third images, and the first image group, the second A learning step of learning a recognizer to be applied to automatic recognition, using the correct answer data of the image group and the third image group,
    Including
    The image processing step is an image processing for suppressing a signal of a band having a characteristic different from a corresponding band of the second image among the bands included in the spectral distribution of the first image, and a band included in the first image. A medical image that generates the third image from the first image by performing at least one of image processing that emphasizes a signal in a same band or a signal in a similar band, and a characteristic corresponding to the band of the second image. Learning method.
  17.  コンピュータに、
     互いに分光分布が異なる第一画像及び第二画像を取得する画像取得機能、
     前記第一画像に画像処理を施して第三画像を生成する画像処理機能、及び
     複数の前記第一画像を含む第一画像群、複数の前記第二画像を含む第二画像群、及び複数の前記第三画像を含む第三画像群、並びに前記第一画像群、前記第二画像群、及び前記第三画像群のそれぞれの正解データを用いて、自動認識に適用する認識器を学習させる学習機能を実現させるプログラムであって、
     前記画像処理機能は、前記第一画像の分光分布に含まれる帯域のうち前記第二画像の対応する帯域と特性が異なる帯域の信号を抑制する画像処理、及び前記第一画像に含まれる帯域のうち前記第二画像の対応する帯域と特性が同一の帯域の信号又は類似する帯域の信号を強調する画像処理の少なくともいずれかを施して、前記第一画像から前記第三画像を生成するプログラム。
    On the computer,
    An image acquisition function for acquiring a first image and a second image having different spectral distributions from each other,
    An image processing function of performing image processing on the first image to generate a third image, and a first image group including a plurality of first images, a second image group including a plurality of the second images, and a plurality of Learning to learn a recognizer to be applied to automatic recognition using a third image group including the third image, and correct data of each of the first image group, the second image group, and the third image group. A program that realizes a function,
    The image processing function is an image processing for suppressing a signal of a band having a characteristic different from a corresponding band of the second image among the bands included in the spectral distribution of the first image, and a band included in the first image. A program that performs at least one of image processing for enhancing a signal in a band having the same characteristic as a band corresponding to the second image or a signal in a similar band, and generates the third image from the first image.
  18.  非一時的かつコンピュータ読取可能な記憶媒体であって、前記記憶媒体に格納された指令がコンピュータによって読み取られた場合に、
     互いに分光分布が異なる第一画像及び第二画像を取得する画像取得機能と、
     前記第一画像に画像処理を施して第三画像を生成する画像処理機能と、
     複数の前記第一画像を含む第一画像群、複数の前記第二画像を含む第二画像群、及び複数の前記第三画像を含む第三画像群、並びに前記第一画像群、前記第二画像群、及び前記第三画像群のそれぞれの正解データを用いて、自動認識に適用する認識器を学習させる学習機能と、を含み、
     前記画像処理機能は、前記第一画像の分光分布に含まれる帯域のうち前記第二画像の対応する帯域と特性が異なる帯域の信号を抑制する画像処理、及び前記第一画像に含まれる帯域のうち前記第二画像の対応する帯域と特性が同一の帯域の信号又は類似する帯域の信号を強調する画像処理の少なくともいずれかを施して、前記第一画像から前記第三画像を生成する、画像学習機能をコンピュータに実行させる記憶媒体。
    A non-transitory and computer-readable storage medium, wherein the instructions stored in the storage medium are read by a computer,
    An image acquisition function of acquiring a first image and a second image having different spectral distributions from each other,
    An image processing function of performing image processing on the first image to generate a third image,
    A first image group including a plurality of the first images, a second image group including a plurality of the second images, and a third image group including a plurality of the third images, and the first image group, the second Using a correct function of each of the image group and the third image group, a learning function of learning a recognizer to be applied to automatic recognition,
    The image processing function is an image processing that suppresses a signal of a band having a characteristic different from a corresponding band of the second image among the bands included in the spectral distribution of the first image, and a band included in the first image. The corresponding band of the second image and the characteristics are subjected to at least one of image processing for enhancing a signal of the same band or a signal of a similar band, and generating the third image from the first image. A storage medium that allows a computer to execute a learning function.
PCT/JP2019/023882 2018-07-20 2019-06-17 Medical image learning device, medical image learning method, and program WO2020017211A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020530944A JP6931425B2 (en) 2018-07-20 2019-06-17 Medical image learning device, medical image learning method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-136922 2018-07-20
JP2018136922 2018-07-20

Publications (1)

Publication Number Publication Date
WO2020017211A1 true WO2020017211A1 (en) 2020-01-23

Family

ID=69164325

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/023882 WO2020017211A1 (en) 2018-07-20 2019-06-17 Medical image learning device, medical image learning method, and program

Country Status (2)

Country Link
JP (1) JP6931425B2 (en)
WO (1) WO2020017211A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230093127A (en) * 2021-12-17 2023-06-27 가천대학교 산학협력단 System and method for predicating depth of medicine

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8903167B2 (en) * 2011-05-12 2014-12-02 Microsoft Corporation Synthesizing training samples for object recognition
WO2016208016A1 (en) * 2015-06-24 2016-12-29 オリンパス株式会社 Image-processing device, image-processing method, and image-processing program
WO2017109904A1 (en) * 2015-12-24 2017-06-29 オリンパス株式会社 Image processing device, image processing method, and program
WO2017175282A1 (en) * 2016-04-04 2017-10-12 オリンパス株式会社 Learning method, image recognition device, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8903167B2 (en) * 2011-05-12 2014-12-02 Microsoft Corporation Synthesizing training samples for object recognition
WO2016208016A1 (en) * 2015-06-24 2016-12-29 オリンパス株式会社 Image-processing device, image-processing method, and image-processing program
WO2017109904A1 (en) * 2015-12-24 2017-06-29 オリンパス株式会社 Image processing device, image processing method, and program
WO2017175282A1 (en) * 2016-04-04 2017-10-12 オリンパス株式会社 Learning method, image recognition device, and program

Also Published As

Publication number Publication date
JP6931425B2 (en) 2021-09-01
JPWO2020017211A1 (en) 2021-08-02

Similar Documents

Publication Publication Date Title
JP7346285B2 (en) Medical image processing device, endoscope system, operating method and program for medical image processing device
JP5395725B2 (en) Electronic endoscope system
JP5438571B2 (en) Electronic endoscope system
US10335014B2 (en) Endoscope system, processor device, and method for operating endoscope system
WO2013005533A1 (en) Endoscope system, endoscope system processor and image display method
JP7005767B2 (en) Endoscopic image recognition device, endoscopic image learning device, endoscopic image learning method and program
JP5222934B2 (en) Endoscope system, processor device for endoscope system, and method for operating endoscope system
JP2011194151A (en) Electronic endoscope system
JP5757891B2 (en) Electronic endoscope system, image processing apparatus, operation method of image processing apparatus, and image processing program
WO2020012872A1 (en) Medical image processing device, medical image processing system, medical image processing method, and program
CN107105987B (en) Image processing apparatus and its working method, recording medium and endoscope apparatus
US20220383607A1 (en) Endoscopic image learning device, endoscopic image learning method, endoscopic image learning program, and endoscopic image recognition device
JP7289373B2 (en) Medical image processing device, endoscope system, diagnosis support method and program
JPWO2020174747A1 (en) Medical image processing equipment, processor equipment, endoscopic systems, medical image processing methods, and programs
WO2020184257A1 (en) Apparatus and method for processing medical image
CN109152520A (en) Image signal processing apparatus, image-signal processing method and image signal processing program
WO2020017211A1 (en) Medical image learning device, medical image learning method, and program
US10863149B2 (en) Image processing apparatus, image processing method, and computer readable recording medium
JP7387859B2 (en) Medical image processing device, processor device, endoscope system, operating method and program for medical image processing device
WO2020054255A1 (en) Endoscope device, endoscope processor, and endoscope device operation method
JP7122328B2 (en) Image processing device, processor device, image processing method, and program
JP5844447B2 (en) Electronic endoscope system, processor device for electronic endoscope, and method for operating electronic endoscope system
WO2018079217A1 (en) Endoscopic system and operation method thereof
WO2020067100A1 (en) Medical image processing device, processor device, medical image processing method, and program
WO2022049901A1 (en) Learning device, learning method, image processing apparatus, endocope system, and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19837171

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020530944

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19837171

Country of ref document: EP

Kind code of ref document: A1