JP6927211B2 - Image diagnostic learning device, diagnostic imaging device, method and program - Google Patents

Image diagnostic learning device, diagnostic imaging device, method and program Download PDF

Info

Publication number
JP6927211B2
JP6927211B2 JP2018526365A JP2018526365A JP6927211B2 JP 6927211 B2 JP6927211 B2 JP 6927211B2 JP 2018526365 A JP2018526365 A JP 2018526365A JP 2018526365 A JP2018526365 A JP 2018526365A JP 6927211 B2 JP6927211 B2 JP 6927211B2
Authority
JP
Japan
Prior art keywords
cnn
image
learning
region
diagnosis target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018526365A
Other languages
Japanese (ja)
Other versions
JPWO2018008593A1 (en
Inventor
利憲 細井
利憲 細井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2018008593A1 publication Critical patent/JPWO2018008593A1/en
Application granted granted Critical
Publication of JP6927211B2 publication Critical patent/JP6927211B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Description

本発明は、診断対象が写された診断対象画像において異常領域を検知する技術に関する。 The present invention relates to a technique for detecting an abnormal region in a diagnosis target image in which a diagnosis target is captured.

診断対象が写された画像において、診断対象が異常性を有する可能性がある領域を検知することを要求される分野がある。以下、診断対象が写された画像を、診断対象画像とも記載する。また、診断対象が異常性を有する可能性がある領域を、異常領域とも記載する。例えば、消化器系の癌やポリープといった病変を発見するための検診では、消化器内視鏡カメラを用いて内臓壁面が撮影された内視鏡画像を、専門医が目視で確認する作業が行われてきた。内視鏡カメラは管形状であって、それを体外から挿入して、抜き差ししたり回転したりすることにより、内臓壁面が撮影される。また、体内は暗いため、内視鏡カメラの先端にある照明で内臓壁面を照らしながら、撮影が行われる。 There is a field in which it is required to detect a region where the diagnosis target may have an abnormality in the image in which the diagnosis target is captured. Hereinafter, the image in which the diagnosis target is copied is also described as the diagnosis target image. In addition, the area where the diagnosis target may have an abnormality is also described as an abnormal area. For example, in a medical examination to detect lesions such as cancer and polyps in the digestive system, a specialist visually confirms an endoscopic image of the visceral wall surface taken with a gastrointestinal endoscopic camera. I came. The endoscopic camera has a tube shape, and the internal organ wall surface is photographed by inserting it from outside the body and inserting / removing it or rotating it. In addition, since the inside of the body is dark, photography is performed while illuminating the internal organ wall surface with the illumination at the tip of the endoscopic camera.

ところが、診断対象画像には、様々な要因により、本来の診断対象が充分に写されていない領域が存在する場合がある。例えば、前述の消化器内視鏡カメラによる撮影の際には、内臓内に残っている消化物などの障害物が邪魔をする場合には、内臓壁面に水をかける等の作業が行われる。ただし、この場合には、光の鏡面反射が発生しやすいため、内臓壁面にテカりが頻繁に発生する。テカり箇所を含む内視鏡画像から病変を探すことは、専門知識や高い注意力が必要とされる難しい作業である。このように、本来の診断対象が充分に写されていない領域を含む診断対象画像からは、専門医であっても、時間をかけて注意深く観察しなければ、異常領域を見逃す可能性がある。 However, due to various factors, the image to be diagnosed may have a region in which the original diagnosis target is not sufficiently captured. For example, in the case of taking a picture with the above-mentioned gastrointestinal endoscopic camera, if an obstacle such as a digestive substance remaining in the internal organs interferes, work such as watering the internal organ wall surface is performed. However, in this case, specular reflection of light is likely to occur, so that the internal organ wall surface is frequently shiny. Searching for lesions from endoscopic images that include shiny spots is a difficult task that requires specialized knowledge and high attention. In this way, even a specialist may miss an abnormal region from a diagnostic target image including a region in which the original diagnostic target is not sufficiently captured, unless the specialist observes it carefully over time.

そこで、診断対象をより鮮明に写す特殊な撮影方法を用いて、診断対象画像を得る方法がある。例えば、内視鏡カメラによる撮影の際に、内臓壁面に複数の特定の周波数の光を照射することで、内視鏡画像における血管や腺構造を強調する撮影方法がある。この撮影方法は、Narrow Band Imaging(登録商標)と呼ばれる(例えば、非特許文献1参照)。以下、Narrow Band Imagingを、NBIとも記載する。NBIによる内視鏡画像を用いれば、医師が病変を観察しやすくなる。ただし、この場合、通常画像よりも光量が減るため、常態的にNBIによる撮像を行う事は、現実的ではない。その他の例としては、病変らしい箇所を見つけたあとに、その場所をズームして撮影する拡大内視鏡と呼ばれる内視鏡カメラが使われることもある。 Therefore, there is a method of obtaining an image to be diagnosed by using a special photographing method in which the image to be diagnosed is photographed more clearly. For example, there is an imaging method that emphasizes blood vessels and glandular structures in an endoscopic image by irradiating the internal organ wall surface with light of a plurality of specific frequencies when photographing with an endoscopic camera. This imaging method is called Narrow Band Imaging (registered trademark) (see, for example, Non-Patent Document 1). Hereinafter, Narrow Band Imaging will also be referred to as NBI. Endoscopic images by NBI make it easier for doctors to observe lesions. However, in this case, since the amount of light is smaller than that of a normal image, it is not realistic to perform normal imaging by NBI. As another example, an endoscopic camera called a magnifying endoscope may be used to zoom in and take a picture after finding a part that seems to be a lesion.

一方、診断対象画像の内容をコンピュータで認識することにより、異常領域の検知を支援する関連技術が知られている。例えば、非特許文献2の関連技術は、NBIによる内視鏡画像を入力として、当該内視鏡画像において事前に見つけられた病変部の領域について、その病期(腺腫、進行がん等)を診断する。この結果をうまく利用する事によって、医師が病変の有無を判断しやすくなることが期待される。このように、NBIによる内視鏡画像を入力として認識処理を行う場合には、比較的高い識別精度を得られることが知られている。なお、非特許文献2の関連技術は、血管の形状に関する特徴量を利用して病気の識別を行っている。特徴量としては、技術開発者によって設計された情報が利用される。 On the other hand, related technologies that support the detection of abnormal regions by recognizing the contents of the image to be diagnosed by a computer are known. For example, the related technique of Non-Patent Document 2 uses an endoscopic image obtained by NBI as an input to determine the stage (adenoma, advanced cancer, etc.) of a lesion area previously found in the endoscopic image. Diagnose. By making good use of this result, it is expected that it will be easier for doctors to judge the presence or absence of lesions. As described above, it is known that relatively high identification accuracy can be obtained when the recognition process is performed by inputting the endoscopic image by NBI. In the related technique of Non-Patent Document 2, a disease is identified by using a feature amount related to the shape of a blood vessel. Information designed by the technology developer is used as the feature quantity.

また、診断対象画像における異常領域をコンピュータにより検知する際に利用する特徴量の抽出を、多量の実データを用いて学習する方法が、非特許文献3に記されている。これは、ニューラルネットワーク(以下、NNとも記載する)の一種であるConvolutional Neural Networks(以下、CNNとも記載する)を利用した方法である。非特許文献3によれば、技術開発者により手作業で設計された特徴量を利用するよりも、高精度な識別率を達成できることが報告されている。 Further, Non-Patent Document 3 describes a method of learning the extraction of a feature amount used when detecting an abnormal region in a diagnosis target image by a computer using a large amount of actual data. This is a method using Convolutional Neural Networks (hereinafter, also referred to as CNN), which is a type of neural network (hereinafter, also referred to as NN). According to Non-Patent Document 3, it is reported that a highly accurate identification rate can be achieved as compared with the case where the feature quantity manually designed by the technical developer is used.

ここで、NNには、学習処理と識別処理とがある。図14を参照して、これら処理について概略を説明する。図14は、NNのネットワーク構造を表現した図である。図14において、丸は、NNのユニットを表す。また、直線は、ユニット間が結合していることを表す。ユニットは、入力された値xに対して、重みwとバイアスbと活性化関数fとを用いて、式x’=f(w・x+b)に従って出力値x’を計算する。このwおよびbは、ユニット間の結合それぞれについて、異なる値を取りうる。ここで、「・」は積を表す。また、関数f()は、任意の単調増加関数である。なお、ユニット数、および、どのユニットとどのユニットを結合させるかは、技術開発者により事前に設計される。CNNは、これらのパラメータを層の中で一部共有する制約が加えられることにより、画像に対する一般的な畳み込み処理と同等の処理を実行できるよう構成される。CNNの中間層としては、いくつもの種類が知られている。例えば、Convolution層、Pooling層、全結合層(線形結合層)などがある。 Here, the NN has a learning process and an identification process. These processes will be outlined with reference to FIG. FIG. 14 is a diagram showing the network structure of NN. In FIG. 14, circles represent NN units. Further, the straight line indicates that the units are connected. The unit calculates the output value x'according to the equation x'= f (w · x + b) with respect to the input value x using the weight w, the bias b, and the activation function f. The w and b can take different values for each bond between the units. Here, "・" represents a product. Further, the function f () is an arbitrary monotonically increasing function. The number of units and which unit is to be combined with which unit are designed in advance by the technical developer. The CNN is configured to be able to perform a process equivalent to a general convolution process for an image by adding a restriction that some of these parameters are shared in the layer. There are several known types of CNN intermediate layers. For example, there are a Convolution layer, a Pooling layer, a fully combined layer (linear combination layer), and the like.

図14に示すNNの例は、多層のネットワーク構造となっている。例えば、入力層の各ユニット1〜P(Pは1以上の整数)に画像の画素値が入力され、中間層のユニットを経て、出力層の各ユニット1〜N(Nは1以上の整数)から識別結果が出力される。出力層の各ユニットには、識別結果を得たい異常領域の分類であるクラス情報が割り当てられる。そのようなクラス情報の例としては、非病変、ポリープ、がんといった分類が挙げられる。図14では、このクラス情報については、画像認識分野では、ラベル、カテゴリまたは教師信号とも呼ばれることがある。学習処理では、事前に用意した多数のデータが繰り返し入力層に入力され、ネットワークのパラメータに基づいた計算が順に行われる。この計算は、Forward計算と呼ばれる。また、Forward計算による出力層の値と目標値との差(損失と呼ばれる)を最小化するように、逆方向に計算しながらパラメータ群が更新されていく。この計算は、Backward計算と呼ばれる。識別処理では、学習処理で求まったパラメータ群を利用してForward計算が実行され、識別結果が出力される。尚、CNNは、Convolution層で畳み込み演算を実施し、Pooling層でサンプリング処理を実施する。これらの処理は、入力画像から特徴量を抽出する処理とみなすことができる。さらに、その後の層における処理は、識別処理であるとみなす事もできる。つまり、1つのCNNを学習することによって、特徴量抽出の設計(特徴量抽出用のパラメータ)と、識別パラメータとを、同時に求める事が可能だとも言える。 The example of NN shown in FIG. 14 has a multi-layered network structure. For example, the pixel value of the image is input to each unit 1 to P of the input layer (P is an integer of 1 or more), and each unit 1 to N of the output layer (N is an integer of 1 or more) passes through the units of the intermediate layer. The identification result is output from. Class information, which is a classification of the abnormal area for which the identification result is to be obtained, is assigned to each unit of the output layer. Examples of such class information include classifications such as non-lesion, polyps, and cancer. In FIG. 14, this class information may also be referred to as a label, category or teacher signal in the field of image recognition. In the learning process, a large amount of data prepared in advance is repeatedly input to the input layer, and calculations based on network parameters are performed in order. This calculation is called the Forward calculation. In addition, the parameter group is updated while calculating in the reverse direction so as to minimize the difference (called loss) between the value of the output layer and the target value by the Forward calculation. This calculation is called the Backward calculation. In the identification process, the Forward calculation is executed using the parameter group obtained in the learning process, and the identification result is output. The CNN performs a convolution operation in the Convolution layer and a sampling process in the Pooling layer. These processes can be regarded as processes for extracting features from the input image. Further, the processing in the subsequent layers can be regarded as an identification processing. That is, it can be said that by learning one CNN, it is possible to obtain the feature amount extraction design (feature amount extraction parameter) and the identification parameter at the same time.

Olympus Corporation of the Americas, “Narrow Band Imaging”, [online], [2016年4月19日検索], インターネット, <http://medical.olympusamerica.com/technology/narrow-band-imaging>Olympus Corporation of the Americas, “Narrow Band Imaging”, [online], [Searched April 19, 2016], Internet, <http://medical.olympusamerica.com/technology/narrow-band-imaging> Thomas Stehle, Roland Auer, Alexander Behrens, Jonas Wulff, TilAach, Ron Winograd, Christian Trautwein, Jens Tischendorf,“Classification of Colon Polyps in NBI Endoscopy Using Vascularization Features”, Proc. Of Medical Imaging 2009, Computer―Aided Diagnosis. Vol. 7260, 72602S, 2009Thomas Stehle, Roland Auer, Alexander Behrens, Jonas Wulff, TilAach, Ron Winograd, Christian Trautwein, Jens Tischendorf, “Classification of Colon Polyps in NBI Endoscopy Using Vascularization Features”, Proc. Of Medical Imaging 2009, Computer—Aided Diagnosis. Vol. 7260, 72602S, 2009 Krizhevsky, Alex, Ilya Sutskever, and Geoffrey E. Hinton, “ImageNet classification with deep convolutional neural networks” Advances in neural information processing systems, 2012.Krizhevsky, Alex, Ilya Sutskever, and Geoffrey E. Hinton, “ImageNet classification with deep convolutional neural networks” Advances in neural information processing systems, 2012.

しかしながら、上述の関連技術には、以下の課題がある。 However, the above-mentioned related technology has the following problems.

非特許文献2の関連技術は、非特許文献1のNBIによる内視鏡画像を用いて、識別を行う。また、非特許文献3の関連技術は、血管や腺構造が大きく鮮明に撮影されたNBIによる内視鏡画像を用いることにより、対象を識別する能力がある特徴量を抽出する。 The related technology of Non-Patent Document 2 uses the endoscopic image obtained by NBI of Non-Patent Document 1 for identification. Further, the related technique of Non-Patent Document 3 extracts a feature amount capable of identifying an object by using an endoscopic image by NBI in which blood vessels and glandular structures are large and clearly photographed.

しかしながら、前述したように、非特許文献1のNBIによる撮像を、常態的に行う事は現実的ではない。このように、特殊機能によらない通常の撮影方法で得られた診断対象画像を入力とする場合、非特許文献2の関連技術を用いて、異常領域を精度よく検知することは難しい。また、特殊機能を持たない通常の撮影方法で得られた診断対象画像を入力とする場合、非特許文献3の関連技術を用いても、対象を識別する能力がある特徴量を抽出することは難しい。さらには、前述したテカり箇所のように、診断対象画像には、本来の診断対象が充分に写されていない領域が含まれることも多い。そのような診断対象画像を入力とする場合、非特許文献3の関連技術を用いて、対象を識別する能力がある特徴量を抽出することはさらに難しい。その結果、非特許文献3の関連技術を用いても、異常領域を精度よく検知することは難しい。 However, as described above, it is not realistic to perform imaging by NBI of Non-Patent Document 1 in a normal manner. As described above, when the image to be diagnosed obtained by a normal photographing method that does not depend on a special function is input, it is difficult to accurately detect an abnormal region by using the related technique of Non-Patent Document 2. In addition, when a diagnostic target image obtained by a normal imaging method having no special function is input, it is not possible to extract a feature amount capable of identifying the target even by using the related technology of Non-Patent Document 3. difficult. Furthermore, the diagnostic target image often includes a region in which the original diagnostic target is not sufficiently captured, such as the above-mentioned shiny spot. When such a diagnosis target image is input, it is more difficult to extract a feature amount capable of identifying the target by using the related technique of Non-Patent Document 3. As a result, it is difficult to accurately detect the abnormal region even by using the related technology of Non-Patent Document 3.

本発明は、上述の課題を解決するためになされたものである。すなわち、特殊機能によらない通常の撮影方法で得られた診断対象画像において、本来の診断対象が充分に写されていない領域が含まれていても、異常領域をより精度よく検知する技術を提供することを目的とする。 The present invention has been made to solve the above-mentioned problems. That is, we provide a technology to detect abnormal areas more accurately even if the diagnosis target image obtained by a normal imaging method that does not rely on special functions includes a region where the original diagnosis target is not sufficiently captured. The purpose is to do.

本発明の画像診断学習装置は、Convolutional Neural Network(CNN)のネットワーク構成を記憶するCNN構成記憶部と、前記CNNにおける学習対象のパラメータを記憶するパラメータ記憶部と、診断対象が写された学習用画像において、前記診断対象が異常性を有する可能性がある異常領域の識別に適していない領域である不適当領域を、所定の基準に基づいて検出する不適当領域検出部と、前記学習用画像を入力した前記CNNのネットワーク構成において、入力層のユニットのうち前記不適当領域に対応するユニットを無効化する不適当領域無効化部と、前記不適当領域に対応する前記入力層のユニットが無効化された状態において前記CNNの計算を前記パラメータを用いて実行し、その計算結果、および、前記学習用画像に事前に付与された前記診断対象の異常性を表す情報に基づいて、損失値を計算する損失値計算部と、前記損失値に基づいて前記パラメータ記憶部のパラメータを更新するパラメータ更新部と、を備える。 The diagnostic imaging learning device of the present invention includes a CNN configuration storage unit that stores a network configuration of a convolutional neural network (CNN), a parameter storage unit that stores parameters of a learning target in the CNN, and a learning target in which a diagnosis target is copied. In the image, an inappropriate region detection unit that detects an inappropriate region, which is an region that is not suitable for identifying an abnormal region in which the diagnosis target may have an abnormality, based on a predetermined criterion, and the learning image. In the network configuration of the CNN in which the above is input, the inappropriate area invalidation unit that invalidates the unit corresponding to the inappropriate area among the units of the input layer and the unit of the input layer corresponding to the inappropriate area are invalid. The calculation of the CNN is executed using the parameters in the converted state, and the loss value is calculated based on the calculation result and the information representing the abnormality of the diagnosis target given in advance to the learning image. A loss value calculation unit for calculation and a parameter update unit for updating the parameters of the parameter storage unit based on the loss value are provided.

また、本発明の画像診断装置は、上述の画像診断学習装置を1つまたは複数の学習用画像に適用して更新された前記CNNの前記パラメータを記憶するパラメータ記憶部と、前記パラメータの更新の際に前記画像診断学習装置によって用いられたCNNのネットワーク構成を記憶するCNN構成記憶部と、前記診断対象が写された診断対象画像に基づく情報を前記CNNに入力して計算を実行することにより、前記診断対象画像において前記診断対象が異常性を有する可能性がある異常領域を識別するCNN識別部とを備える。 Further, the diagnostic imaging apparatus of the present invention includes a parameter storage unit that stores the parameters of the CNN that have been updated by applying the diagnostic imaging learning apparatus described above to one or a plurality of learning images, and a parameter storage unit that stores the parameters. By inputting the CNN configuration storage unit that stores the network configuration of the CNN used by the diagnostic imaging learning device and the information based on the diagnostic target image on which the diagnostic target is copied into the CNN to execute the calculation. A CNN identification unit that identifies an abnormal region in which the diagnosis target may have an abnormality in the diagnosis target image is provided.

また、本発明の方法は、コンピュータ装置が、診断対象が写された学習用画像において、前記診断対象が異常性を有する可能性がある異常領域の識別に適していない領域である不適当領域を、所定の基準に基づいて検出し、前記学習用画像を入力したConvolutional Neural Network(CNN)のネットワーク構成において、入力層のユニットのうち前記不適当領域に対応するユニットを無効化し、前記不適当領域に対応する前記入力層のユニットが無効化された状態において前記CNNの計算を実行し、その計算結果、および、前記学習用画像に事前に付与された前記診断対象の異常性を表す情報に基づいて、損失値を計算し、前記損失値に基づいて前記CNNにおける学習対象のパラメータを更新する。 Further, in the method of the present invention, the computer device determines an inappropriate region, which is a region that is not suitable for identifying an abnormal region in which the diagnostic target may have an abnormality, in a learning image in which the diagnostic target is captured. In the network configuration of the Convolutional Neural Network (CNN), which is detected based on a predetermined criterion and the learning image is input, the unit corresponding to the inappropriate region among the units of the input layer is invalidated, and the inappropriate region is invalidated. The calculation of the CNN is executed in a state where the unit of the input layer corresponding to the above is invalidated, and the calculation result is based on the calculation result and the information representing the abnormality of the diagnosis target given in advance to the learning image. Then, the loss value is calculated, and the learning target parameter in the CNN is updated based on the loss value.

また、本発明のプログラムは、診断対象が写された学習用画像において、前記診断対象が異常性を有する可能性がある異常領域の識別に適していない領域である不適当領域を、所定の基準に基づいて検出し、前記学習用画像を入力したConvolutional Neural Network(CNN)のネットワーク構成において、入力層のユニットのうち前記不適当領域に対応するユニットを無効化し、前記不適当領域に対応する前記入力層のユニットが無効化された状態において前記CNNの計算を実行し、その計算結果、および、前記学習用画像に事前に付与された前記診断対象の異常性を表す情報に基づいて、損失値を計算し、前記損失値に基づいて前記CNNにおける学習対象のパラメータを更新することをコンピュータ装置に実行させる。
In addition, the program of the present invention sets an inappropriate region, which is an unsuitable region for identifying an abnormal region in which the diagnostic target may have an abnormality, as a predetermined reference in a learning image in which the diagnostic target is captured. In the network configuration of the Convolutional Neural Network (CNN) that detects based on the above and inputs the learning image, the unit corresponding to the inappropriate region among the units of the input layer is invalidated, and the unit corresponding to the inappropriate region is described. The calculation of the CNN is executed with the unit of the input layer disabled, and the loss value is based on the calculation result and the information representing the abnormality of the diagnosis target given in advance to the learning image. Is calculated, and the computer device is made to update the parameter to be learned in the CNN based on the loss value.

また、本発明の他の方法は、コンピュータ装置が、1つまたは複数の学習用画像に対して上述の方法を実行することにより更新された前記CNNの前記パラメータと、前記パラメータの更新の際に用いられたCNNのネットワーク構成とを用いて、前記診断対象が写された診断対象画像に基づく情報を前記CNNに入力して計算を実行することにより、前記診断対象画像において前記診断対象が異常性を有する可能性がある異常領域を識別する。 In addition, another method of the present invention includes the parameters of the CNN updated by the computer device performing the above method on one or more learning images, and when the parameters are updated. By using the network configuration of the CNN used and inputting information based on the diagnosis target image on which the diagnosis target is copied into the CNN and executing the calculation, the diagnosis target is abnormal in the diagnosis target image. Identify areas of anomaly that may have.

また、本発明の他のプログラムは、1つまたは複数の学習用画像に対して上述のプログラムをコンピュータ装置に実行させることにより更新された前記CNNの前記パラメータと、前記パラメータの更新の際に用いられたCNNのネットワーク構成とを用いて、前記診断対象が写された診断対象画像に基づく情報を前記CNNに入力して計算を実行することにより、前記診断対象画像において前記診断対象が異常性を有する可能性がある異常領域を識別することをコンピュータ装置に実行させる。 Further, another program of the present invention is used for updating the parameters of the CNN updated by causing a computer device to execute the above program for one or more learning images, and updating the parameters. By inputting information based on the diagnosis target image on which the diagnosis target is copied into the CNN and executing the calculation using the network configuration of the CNN, the diagnosis target becomes abnormal in the diagnosis target image. Have the computer device perform to identify the anomalous areas that it may have.

本発明は、特殊機能によらない通常の撮影方法で得られた診断対象画像において、本来の診断対象が充分に写されていない領域が含まれていても、異常領域をより精度よく検知する技術を提供することができる。 The present invention is a technique for more accurately detecting an abnormal region even if the diagnostic target image obtained by a normal imaging method that does not rely on a special function includes a region in which the original diagnostic target is not sufficiently captured. Can be provided.

第1の実施の形態としての画像診断学習装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image diagnosis learning apparatus as 1st Embodiment. 第1の実施の形態としての画像診断学習装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware configuration of the image diagnosis learning apparatus as 1st Embodiment. 第1の実施の形態における不適当領域の無効化を模式的に説明する図である。It is a figure which schematically explains the invalidation of an inappropriate region in 1st Embodiment. 第1の実施の形態としての画像診断学習装置の動作を説明するフローチャートである。It is a flowchart explaining the operation of the image diagnosis learning apparatus as the 1st Embodiment. 第2の実施の形態としての画像診断学習装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image diagnosis learning apparatus as a 2nd Embodiment. 第2の実施の形態においてテカりが発生した内視鏡画像の一例を模式的に示す図である。It is a figure which shows typically an example of the endoscopic image which the shiny occurred in the 2nd Embodiment. 第2の実施の形態においてテカりが発生した内視鏡画像の輝度ヒストグラムの一例を示す図である。It is a figure which shows an example of the luminance histogram of the endoscopic image in which the shine occurred in the 2nd Embodiment. 第2の実施の形態としての画像診断学習装置の動作を説明するフローチャートである。It is a flowchart explaining the operation of the image diagnosis learning apparatus as a 2nd Embodiment. 第3の実施の形態としての画像診断装置の構成を示すブロック図である。It is a block diagram which shows the structure of the diagnostic imaging apparatus as a 3rd Embodiment. 第3の実施の形態としての画像診断装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware configuration of the diagnostic imaging apparatus as a 3rd Embodiment. 第3の実施の形態としての画像診断装置の動作を説明するフローチャートである。It is a flowchart explaining the operation of the diagnostic imaging apparatus as a 3rd Embodiment. 第4の実施の形態としての画像診断装置の構成を示すブロック図である。It is a block diagram which shows the structure of the diagnostic imaging apparatus as a 4th Embodiment. 第4の実施の形態としての画像診断装置の動作を説明するフローチャートである。It is a flowchart explaining the operation of the diagnostic imaging apparatus as a 4th Embodiment. 関連技術におけるニューラルネットワークのネットワーク構造を模式的に示す図である。It is a figure which shows typically the network structure of the neural network in the related technique.

以下、本発明の実施の形態について、図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施の形態)
第1の実施の形態としての画像診断学習装置1の機能ブロック構成を図1に示す。図1において、画像診断学習装置1は、CNN構成記憶部11と、パラメータ記憶部12と、不適当領域検出部13と、不適当領域無効化部14と、損失値計算部15と、パラメータ更新部16とを備える。画像診断学習装置1は、診断対象が写された画像における異常領域を識別するCNNで用いられるパラメータを学習する装置である。ここで、異常領域とは、診断対象が写された画像において診断対象が異常性を有する可能性がある領域をいうものとする。
(First Embodiment)
FIG. 1 shows a functional block configuration of the diagnostic imaging learning device 1 as the first embodiment. In FIG. 1, the image diagnosis learning device 1 includes a CNN configuration storage unit 11, a parameter storage unit 12, an inappropriate area detection unit 13, an inappropriate area invalidation unit 14, a loss value calculation unit 15, and parameter update. A unit 16 is provided. The image diagnosis learning device 1 is a device that learns parameters used in a CNN that identifies an abnormal region in an image in which a diagnosis target is captured. Here, the abnormal region means an region in which the diagnostic target may have an abnormality in the image on which the diagnostic target is captured.

ここで、画像診断学習装置1は、図2に示すようなハードウェア要素によって構成可能である。図2において、画像診断学習装置1は、CPU(Central Processing Unit)1001およびメモリ1002を含むコンピュータ装置によって構成される。メモリ1002は、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置(ハードディスク等)等によって構成される。この場合、CNN構成記憶部11およびパラメータ記憶部12は、メモリ1002によって構成される。また、不適当領域検出部13、不適当領域無効化部14、損失値計算部15およびパラメータ更新部16は、メモリ1002に格納されるコンピュータ・プログラムを読み込んで実行するCPU1001によって構成される。なお、画像診断学習装置1およびその各機能ブロックのハードウェア構成は、上述の構成に限定されない。 Here, the diagnostic imaging learning device 1 can be configured by hardware elements as shown in FIG. In FIG. 2, the image diagnosis learning device 1 is composed of a computer device including a CPU (Central Processing Unit) 1001 and a memory 1002. The memory 1002 is composed of a RAM (Random Access Memory), a ROM (Read Only Memory), an auxiliary storage device (hard disk, etc.) and the like. In this case, the CNN configuration storage unit 11 and the parameter storage unit 12 are configured by the memory 1002. Further, the inappropriate area detection unit 13, the inappropriate area invalidation unit 14, the loss value calculation unit 15, and the parameter update unit 16 are composed of a CPU 1001 that reads and executes a computer program stored in the memory 1002. The hardware configuration of the diagnostic imaging learning device 1 and its functional blocks is not limited to the above configuration.

CNN構成記憶部11は、Convolutional Neural Network(CNN)のネットワーク構成を表す情報を記憶する。ネットワーク構成を表す情報とは、例えば、入力層の画像サイズとチャネル数、複数の中間層それぞれの種類とサイズと処理パラメータ、出力層のユニット数などの情報を含んでいてもよい。中間層の種類としては、前述したように、Convolution層、Pooling層、全結合層(線形結合層)などがある。また、処理パラメータの一例としては、次のものがある。例えば、Convolutionカーネルのサイズ(幅、高さ、チャネル数)、Convolution計算時のstrideの幅、Convolution計算時にサイズを調整するために画像端を特定値で埋める処理の有無、といったパラメータ等がある。 The CNN configuration storage unit 11 stores information representing the network configuration of the Convolutional Neural Network (CNN). The information representing the network configuration may include, for example, information such as the image size and the number of channels of the input layer, the type and size and processing parameters of each of the plurality of intermediate layers, and the number of units of the output layer. As the type of the intermediate layer, as described above, there are a Convolution layer, a Pooling layer, a fully combined layer (linear combination layer) and the like. Further, as an example of the processing parameter, there are the following. For example, there are parameters such as the size of the Convolution kernel (width, height, number of channels), the width of the stride when calculating the Convolution, and whether or not there is a process of filling the image edge with a specific value in order to adjust the size when calculating the Convolution.

パラメータ記憶部12は、上述したCNNにおける学習対象のパラメータ群を記憶する。学習対象のパラメータ群としては、例えば、各ユニットの計算で用いられる重みおよびバイアスが挙げられる。これらのパラメータは、異常領域の特徴量を抽出するためのパラメータ、または、その特徴量を用いて異常領域を識別するためのパラメータとみなされるものである。 The parameter storage unit 12 stores the parameter group to be learned in the CNN described above. The parameters to be learned include, for example, the weights and biases used in the calculation of each unit. These parameters are regarded as parameters for extracting the feature amount of the abnormal region or for identifying the abnormal region using the feature amount.

なお、パラメータ記憶部12に記憶されるパラメータの初期値は、乱数であってもよい。また、パラメータの初期値は、他の画像認識応用のために学習された値でも構わない。例えば、パラメータの初期値が、動物や乗り物など一般物体を認識するためのパラメータや、画像中の模様を識別するために学習されたパラメータである場合、高い学習効果を得られることがあり、有用である。 The initial value of the parameter stored in the parameter storage unit 12 may be a random number. Further, the initial value of the parameter may be a value learned for other image recognition applications. For example, if the initial value of the parameter is a parameter for recognizing a general object such as an animal or a vehicle, or a parameter learned for identifying a pattern in an image, a high learning effect may be obtained, which is useful. Is.

不適当領域検出部13は、診断対象が写された学習用画像において、異常領域の識別に不適切な領域である不適当領域を、所定の基準に基づいて検出する。不適当領域としては、例えば、本来の診断対象が充分に写されていない領域が適用される。この場合、不適当領域検出部13は、本来の診断対象が充分に写されていないことを判定可能な条件を満たす領域を、不適当領域として検出すればよい。 The inappropriate region detection unit 13 detects an inappropriate region, which is an inappropriate region for identifying an abnormal region, in a learning image in which a diagnosis target is captured, based on a predetermined criterion. As an inappropriate region, for example, a region in which the original diagnosis target is not sufficiently captured is applied. In this case, the inappropriate region detection unit 13 may detect as an inappropriate region a region that satisfies the condition that it can be determined that the original diagnosis target is not sufficiently captured.

なお、学習用画像は、例えば、診断対象が撮影された画像の部分画像であってもよい。また、学習用画像には、写されている診断対象に関する異常性を表す情報が、正解情報として付与されているものとする。異常性を表す情報とは、例えば、異常性を有する可能性があるか否かを表す情報であってもよい。また、異常性を表す情報とは、例えば、異常性を有する可能性がある場合にはその種類を表す情報であってもよい。また、異常性を表す情報とは、異常性がある可能性の高さを表す情報であってもよい。ただし、異常性を表す情報の内容は、これらに限らない。 The learning image may be, for example, a partial image of the image taken by the diagnosis target. In addition, it is assumed that the learning image is provided with information indicating anomalies related to the diagnostic target being copied as correct answer information. The information indicating the anomaly may be, for example, information indicating whether or not there is a possibility of having the anomaly. Further, the information indicating the anomaly may be, for example, information indicating the type of the information when there is a possibility of having the anomaly. Further, the information indicating the anomaly may be information indicating the high possibility of the anomaly. However, the content of the information indicating the abnormality is not limited to these.

不適当領域無効化部14は、学習用画像を入力したCNNのネットワーク構成において、入力層のユニットのうち不適当領域に対応するユニットを無効化する。学習用画像を入力するCNNのネットワーク構成は、前述のCNN構成記憶部11に記憶されている。ここで、不適当領域に対応する入力層のユニットの無効化について、図3の模式図を用いて説明する。ここでは、CNNのネットワーク構成が、図14に示した構造であることを想定する。また、CNNの入力層には、学習用画像の各画素値が入力されるとする。この場合、不適当領域に含まれる画素が入力されるユニットは、図3に示すように無効化される。図中の三角印は、無効化されたユニットを表す。この例では、画素1および画素3が不適当領域に含まれている。そのため、画素1および画素3が入力される各ユニットが無効化されている。CNNの計算では、無効化されたユニットから隣の層のユニットへの接続が、存在しないものとして扱われる。図中の破線は、存在しないものとして扱われる接続を表している。なお、不適当領域無効化部14による無効化は、一時的なものである。すなわち、不適当領域無効化部14は、ある学習用画像について一部の入力層のユニットを無効化しても、他の異なる学習用画像を処理する時には、まず、無効化したユニットの無効化を解除する。その上で、不適当領域無効化部14は、改めてその学習用画像における不適当領域に対応する入力層のユニットを無効化すればよい。 The inappropriate area invalidation unit 14 invalidates the unit corresponding to the inappropriate area among the units of the input layer in the network configuration of the CNN in which the learning image is input. The network configuration of the CNN for inputting the learning image is stored in the CNN configuration storage unit 11 described above. Here, the invalidation of the input layer unit corresponding to the inappropriate region will be described with reference to the schematic diagram of FIG. Here, it is assumed that the network configuration of CNN has the structure shown in FIG. Further, it is assumed that each pixel value of the learning image is input to the input layer of the CNN. In this case, the unit into which the pixels included in the inappropriate region are input is invalidated as shown in FIG. The triangular mark in the figure represents the invalidated unit. In this example, pixels 1 and 3 are included in the inappropriate region. Therefore, each unit in which the pixel 1 and the pixel 3 are input is invalidated. In the CNN calculation, the connection from the invalidated unit to the unit in the next layer is treated as nonexistent. The dashed line in the figure represents a connection that is treated as non-existent. The invalidation by the inappropriate area invalidation unit 14 is temporary. That is, even if some input layer units are invalidated for a certain learning image, the inappropriate area invalidation unit 14 first invalidates the invalidated units when processing another different learning image. unlock. Then, the inappropriate region invalidation unit 14 may invalidate the unit of the input layer corresponding to the inappropriate region in the learning image again.

損失値計算部15は、不適当領域に対応する入力層のユニットが無効化された状態において、CNNを学習するための損失値を、パラメータを用いて計算する。具体的には、損失値計算部15は、不適当領域に対応する入力層のユニットが無効化された状態で、パラメータ記憶部12に記憶されているパラメータを適用して、Forward計算を行う。そして、損失値計算部15は、計算結果と、学習用画像に事前に付与された異常性を表す情報とに基づいて、損失値を計算する。 The loss value calculation unit 15 calculates the loss value for learning the CNN by using the parameters in the state where the unit of the input layer corresponding to the inappropriate region is invalidated. Specifically, the loss value calculation unit 15 applies the parameters stored in the parameter storage unit 12 in a state where the unit of the input layer corresponding to the inappropriate area is invalidated, and performs the Forward calculation. Then, the loss value calculation unit 15 calculates the loss value based on the calculation result and the information indicating the abnormality given in advance to the learning image.

ここで、損失値は、ニューラルネットワークの学習時に計算される最適化のための指標であって、任意の指標を適用可能である。良く利用される損失値の例としては、Forward計算で出力された数値群(計算結果)を、SoftMax関数を用いて0から1の範囲の値を取りうる実数値に変換した上で、正解クラスを1.0としてその差分を損失値とするものがある。なお、前述の「学習用画像に事前に付与された異常性を表す情報」は、正解の異常性を示す情報であり、正解クラスの1.0に対応する。ただし、損失値の計算手法は、これに限らない。 Here, the loss value is an index for optimization calculated at the time of learning the neural network, and any index can be applied. As an example of a loss value that is often used, the value group (calculation result) output by the Forward calculation is converted into a real value that can take a value in the range of 0 to 1 using the SoftMax function, and then the correct answer class. Is 1.0 and the difference is used as the loss value. The above-mentioned "information indicating the anomaly given in advance to the learning image" is information indicating the anomaly of the correct answer, and corresponds to 1.0 of the correct answer class. However, the calculation method of the loss value is not limited to this.

パラメータ更新部16は、損失値に基づいて、パラメータ記憶部12に記憶された学習対象のパラメータを更新する。更新するパラメータは、前述のように、例えば、重みとバイアスである。また、例えば、パラメータ更新部16は、複数の学習用画像についてそれぞれ計算された損失値の累積値を用いて、損失を最小化するようパラメータを更新してもよい。ここで、複数の学習用画像は、診断対象が撮影された画像の複数の部分画像でもよい。この際の最小化(最適化)手法には、例えば、確率的降下法等が適用可能である。ただし、この際の最小化手法は、この方式に限らず、任意の方式を適用可能である。 The parameter update unit 16 updates the parameters to be learned stored in the parameter storage unit 12 based on the loss value. The parameters to be updated are, for example, weights and biases, as described above. Further, for example, the parameter updating unit 16 may update the parameters so as to minimize the loss by using the cumulative value of the loss values calculated for each of the plurality of learning images. Here, the plurality of learning images may be a plurality of partial images of the images taken by the diagnosis target. For example, a stochastic descent method can be applied to the minimization (optimization) method at this time. However, the minimization method at this time is not limited to this method, and any method can be applied.

以上のように構成された画像診断学習装置1の動作について、図4を参照して説明する。 The operation of the diagnostic imaging learning device 1 configured as described above will be described with reference to FIG.

図4では、まず、不適当領域検出部13は、学習用画像から、所定の基準に基づいて不適当領域を検出する(ステップS11)。 In FIG. 4, first, the inappropriate region detection unit 13 detects an inappropriate region from the learning image based on a predetermined reference (step S11).

次に、不適当領域無効化部14は、CNNの入力層のユニットのうち不適当領域に対応するユニットを無効化する(ステップS12)。 Next, the inappropriate region invalidation unit 14 invalidates the unit corresponding to the inappropriate region among the units of the input layer of the CNN (step S12).

次に、損失値計算部15は、不適当領域に対応する入力層のユニットが無効化された状態においてCNNの計算を実行する。そして、損失値計算部15は、計算結果および学習用画像に事前に付与された異常性を表す情報に基づいて、損失値を計算する(ステップS13)。 Next, the loss value calculation unit 15 executes the calculation of the CNN in a state where the unit of the input layer corresponding to the inappropriate region is invalidated. Then, the loss value calculation unit 15 calculates the loss value based on the calculation result and the information representing the abnormality given in advance to the learning image (step S13).

次に、パラメータ更新部16は、計算された損失値に基づいて、学習対象のパラメータを更新する(ステップS14)。 Next, the parameter update unit 16 updates the parameters to be learned based on the calculated loss value (step S14).

以上で、画像診断学習装置1は、動作を終了する。 With the above, the image diagnosis learning device 1 ends the operation.

次に、第1の実施の形態の効果について述べる。 Next, the effect of the first embodiment will be described.

第1の実施の形態としての画像診断学習装置は、特殊機能によらない通常の撮影方法で診断対象が撮影された画像において、本来の診断対象が充分に写されていない領域が含まれていても、異常領域をより精度よく検知することができる。 The diagnostic imaging learning device as the first embodiment includes an area in which the original diagnostic target is not sufficiently captured in an image in which the diagnostic target is captured by a normal imaging method that does not rely on a special function. However, the abnormal region can be detected more accurately.

その理由について説明する。本実施の形態では、不適当領域検出部が、診断対象が写された学習用画像において、異常領域の識別に適していない領域である不適当領域を、所定の基準に基づいて検出する。そして、不適当領域無効化部が、学習用画像が入力されるCNNのネットワーク構成に基づいて、CNNの入力層のユニットのうち不適当領域に対応するユニットを無効化する。そして、損失値計算部が、不適当領域に対応する入力層のユニットが無効化された状態においてCNNの計算を実行する。そして、損失値計算部が、CNNの計算結果および学習用画像に事前に付与された正解の異常性を表す情報に基づいて、損失値を計算する。そして、パラメータ更新部が、損失値に基づいてCNNにおける学習対象のパラメータを更新するからである。 The reason will be explained. In the present embodiment, the inappropriate region detection unit detects an inappropriate region, which is a region unsuitable for identifying an abnormal region, in a learning image in which a diagnosis target is captured, based on a predetermined criterion. Then, the inappropriate region invalidation unit invalidates the unit corresponding to the inappropriate region among the units of the input layer of the CNN based on the network configuration of the CNN into which the learning image is input. Then, the loss value calculation unit executes the calculation of CNN in a state where the unit of the input layer corresponding to the inappropriate region is invalidated. Then, the loss value calculation unit calculates the loss value based on the calculation result of CNN and the information indicating the abnormality of the correct answer given in advance to the learning image. Then, the parameter update unit updates the parameter to be learned in the CNN based on the loss value.

このように、本実施の形態は、学習用画像に基づいて、CNNにおける学習対象のパラメータを決定する。そのため、本実施の形態は、特殊機能によらない撮影方法で得られた画像から得られた学習用画像であっても、異常領域を識別するのに十分な特徴量を自動的に抽出する。さらには、本実施の形態は、本来の診断対象が充分に写されていない不適当領域を自動的に検知して、不適当領域を無効化してCNNのパラメータを学習する。このため、本実施の形態は、不適当領域の影響を抑えて、CNNを精度よく学習させることができる。さらには、本実施の形態は、より多数の学習用画像に対して動作することにより、さらに精度のよい識別を可能とする特徴量を自動的に抽出してパラメータを学習することができる。その結果、本実施の形態は、診断対象が写された画像における異常領域を識別するCNNにより精度良いパラメータを提供することができ、より高精度に異常領域を検知させることができる。 As described above, in this embodiment, the parameters of the learning target in the CNN are determined based on the learning image. Therefore, in the present embodiment, even a learning image obtained from an image obtained by a photographing method that does not rely on a special function, a sufficient feature amount for identifying an abnormal region is automatically extracted. Further, in the present embodiment, an inappropriate region in which the original diagnosis target is not sufficiently captured is automatically detected, the inappropriate region is invalidated, and the CNN parameter is learned. Therefore, in this embodiment, the influence of the inappropriate region can be suppressed and the CNN can be learned accurately. Further, in the present embodiment, by operating on a larger number of learning images, it is possible to automatically extract features that enable more accurate identification and learn parameters. As a result, in the present embodiment, it is possible to provide more accurate parameters by the CNN that identifies the abnormal region in the image in which the diagnosis target is captured, and it is possible to detect the abnormal region with higher accuracy.

(第2の実施の形態)
次に、第2の実施の形態について図面を参照して詳細に説明する。本実施の形態では、診断対象として内臓壁面を適用する。また、学習用画像として、内視鏡カメラにより内臓壁面が撮影された内視鏡画像に基づく画像を適用する。なお、本実施の形態の説明において参照する各図面において、第1の実施の形態と同一の構成および同様に動作するステップには同一の符号を付して本実施の形態における詳細な説明を省略する。
(Second Embodiment)
Next, the second embodiment will be described in detail with reference to the drawings. In this embodiment, the internal organ wall surface is applied as a diagnostic target. Further, as a learning image, an image based on an endoscopic image taken by an endoscopic camera on the internal organ wall surface is applied. In each drawing referred to in the description of the present embodiment, the same components as those in the first embodiment and the steps operating in the same manner are designated by the same reference numerals, and detailed description in the present embodiment is omitted. do.

まず、第2の実施の形態としての画像診断学習装置2の構成を、図5に示す。図5において、画像診断学習装置2は、第1の実施の形態としての画像診断学習装置1に対して、不適当領域検出部13に替えて不適当領域検出部23を備え、さらに、摂動部27を備える点が異なる。なお、画像診断学習装置2およびその各機能ブロックは、図2を参照して説明した第1の実施の形態としての画像診断学習装置1と同様のハードウェア要素によって構成可能である。ただし、画像診断学習装置2およびその各機能ブロックのハードウェア構成は、上述の構成に限定されない。 First, FIG. 5 shows the configuration of the diagnostic imaging learning device 2 as the second embodiment. In FIG. 5, the image diagnosis learning device 2 includes an inappropriate area detection unit 23 instead of the inappropriate area detection unit 13 for the image diagnosis learning device 1 as the first embodiment, and further, a perturbation unit. The difference is that 27 is provided. The image diagnosis learning device 2 and each functional block thereof can be configured by the same hardware elements as the image diagnosis learning device 1 as the first embodiment described with reference to FIG. However, the hardware configuration of the diagnostic imaging learning device 2 and its functional blocks is not limited to the above configuration.

摂動部27は、内視鏡画像の学習サンプルに対して摂動処理を実施することにより、学習用画像を生成する。摂動処理とは、位置やスケール、回転角度について微小な変動を与える処理である。 The perturbation unit 27 generates a learning image by performing a perturbation process on the learning sample of the endoscopic image. The perturbation process is a process that gives minute fluctuations in position, scale, and rotation angle.

例えば、摂動部27には、内視鏡画像が分割されたパッチ画像が入力される。パッチ画像は、内視鏡画像に含まれる部分画像である。また、各パッチ画像には、病変クラスを表す病変クラス情報が正解情報として付与されているものとする。この場合、摂動部27は、そのようなパッチ画像に対して、摂動処理を実施したものを、学習用画像として生成する。 For example, a patch image in which the endoscopic image is divided is input to the perturbation unit 27. The patch image is a partial image included in the endoscopic image. Further, it is assumed that lesion class information representing the lesion class is added to each patch image as correct answer information. In this case, the perturbation unit 27 generates a learning image obtained by performing perturbation processing on such a patch image.

なお、病変クラス情報は、例えば、病変および非病変のいずれかを表す情報であってもよい。この場合、病変を含むパッチ画像には、「病変」を示す病変クラス情報として数値の1が付与されていてもよい。また、病変を含まないパッチ画像には「非病変」を示す病変クラス情報として数値の0が付与されていてもよい。 The lesion class information may be, for example, information representing either a lesion or a non-lesion. In this case, the patch image including the lesion may be given a numerical value of 1 as the lesion class information indicating the “lesion”. Further, a patch image that does not include a lesion may be given a numerical value of 0 as lesion class information indicating "non-lesion".

また、例えば、病変クラス情報は、病変の種類1〜n(nは2以上の正の整数)および非病変のいずれかを表す情報であってもよい。この場合、種類i(iは1〜nの整数)の病変を含むパッチ画像には、「病変部(種類i)」を示す病変クラス情報として数値のiが付与されていてもよい。また、病変を含まないパッチ画像には「非病変」を示す病変クラス情報として数値の0が付与されていてもよい。 Further, for example, the lesion class information may be information indicating either a lesion type 1 to n (n is a positive integer of 2 or more) and a non-lesion. In this case, the patch image including the lesion of type i (i is an integer of 1 to n) may be given a numerical value i as the lesion class information indicating the “lesion portion (type i)”. Further, a patch image that does not include a lesion may be given a numerical value of 0 as lesion class information indicating "non-lesion".

不適当領域検出部23は、学習用画像から、不適当領域として、テカり箇所を検出する。テカり箇所は、前述したように、内視鏡カメラによる撮影の際に内臓壁面に水をかける等の作業が行われることにより発生する。テカり箇所を検出する方式については、任意の方式で構わない。例えば、不適当領域検出部23は、輝度値を閾値処理することにより、テカり箇所を検出してもよい。輝度値を用いたテカり箇所の検出について、図6から図7を用いて説明する。図6は、テカりが発生した内視鏡画像の一例を模式的に示す図である。図6のように、内臓壁面にテカりが発生している場合、内視鏡画像中におけるその箇所は、高輝度の白色になる。また、図7は、テカりが発生した内視鏡画像の輝度ヒストグラムの一例である。図7のように、輝度分布ヒストグラムにおいては、テカり箇所の輝度値は、極端に高くなる。つまり、不適当領域検出部23は、閾値を超える輝度の画素を、テカり箇所の画素であると判定することができる。また、不適当領域検出部23は、例えば、閾値より高い輝度値の出現率が所定基準を満たす部分領域を、テカり箇所と判断してもよい。また、不適当領域検出部23は、着目画素が周辺画素に比べて極端に高輝度となる孤立点を探す処理を利用して、テカり箇所を検出しても良い。 The inappropriate region detection unit 23 detects a shiny portion as an inappropriate region from the learning image. As described above, the shiny spot is generated by performing work such as sprinkling water on the internal organ wall surface when taking a picture with an endoscopic camera. Any method may be used to detect the shiny part. For example, the inappropriate region detection unit 23 may detect the shiny portion by performing the brightness value threshold processing. The detection of the shiny spot using the luminance value will be described with reference to FIGS. 6 to 7. FIG. 6 is a diagram schematically showing an example of an endoscopic image in which shine has occurred. As shown in FIG. 6, when the internal organ wall surface is shiny, the portion in the endoscopic image becomes bright white. Further, FIG. 7 is an example of a luminance histogram of an endoscopic image in which shine has occurred. As shown in FIG. 7, in the luminance distribution histogram, the luminance value of the shiny portion becomes extremely high. That is, the inappropriate region detection unit 23 can determine that a pixel having a brightness exceeding the threshold value is a pixel at a shiny spot. Further, the inappropriate region detection unit 23 may determine, for example, a partial region in which the appearance rate of the luminance value higher than the threshold value satisfies a predetermined criterion as a shiny portion. Further, the inappropriate region detection unit 23 may detect a shiny spot by using a process of searching for an isolated point where the pixel of interest has an extremely high brightness as compared with the peripheral pixels.

以上のように構成された画像診断学習装置2の動作について、図8を参照して説明する。なお、ニューラルネットワークの学習処理では、学習データセットからサブセットを選択して、それらから計算された損失の累積値を最小化するようにパラメータを更新する方式が、識別精度を高める効果を得るためによく利用される。そこで、ここでは、内視鏡画像から切り出されて病変クラス情報がそれぞれ付与されたパッチ画像からなる学習データセット、および、その学習データセットから選択されたサブセットを用いた動作例について説明する。 The operation of the diagnostic imaging learning device 2 configured as described above will be described with reference to FIG. In the training process of the neural network, a method of selecting a subset from the training data set and updating the parameters so as to minimize the cumulative value of the loss calculated from them is to obtain the effect of improving the discrimination accuracy. Often used. Therefore, here, a learning data set consisting of patch images cut out from an endoscopic image and to which lesion class information is added, and an operation example using a subset selected from the learning data set will be described.

そのような学習データセットおよびサブセットの情報は、メモリ1002に保存されていてもよい。この場合、画像診断学習装置2は、メモリ1002からこれらの学習データセットおよびサブセットの情報を読み込んで、以下の動作を実行すればよい。 Information on such training datasets and subsets may be stored in memory 1002. In this case, the diagnostic imaging learning device 2 may read the information of these learning data sets and subsets from the memory 1002 and execute the following operations.

また、パッチ画像のサイズは、任意のサイズでよい。例えば、幅および高さが256画素で色のRGB成分が3つ(=3チャネル)の場合、CNNの入力層のユニット数は、256×256×3となる。また、識別させる病変クラスが「非病変」、「病変(腺腫)」および「病変(進行がん)」の3つの場合、出力層のユニット数は、3となる。 The size of the patch image may be any size. For example, when the width and height are 256 pixels and the RGB components of the color are three (= 3 channels), the number of units in the input layer of the CNN is 256 × 256 × 3. Further, when the lesion class to be identified is "non-lesion", "lesion (adenoma)" and "lesion (advanced cancer)", the number of units in the output layer is 3.

また、CNNのネットワーク構成は、例えば、複数のConvolution層と1つのPooling層を1セットとして、このセットが複数接続されたものであってもよい。 Further, the network configuration of CNN may be, for example, a set of a plurality of Convolution layers and one Pooling layer, and a plurality of these sets are connected.

ただし、以下の動作において、識別させたい病変クラスの数、パッチ画像のサイズ、CNNの入力層および出力層のユニット数、および、ネットワーク構成等は、上述の例に限定されない。 However, in the following operations, the number of lesion classes to be identified, the size of the patch image, the number of units in the input layer and output layer of the CNN, the network configuration, and the like are not limited to the above examples.

図8では、まず、摂動部27は、このサブセットに含まれるパッチ画像の1つを入力として、位置・スケール・回転等について摂動させた学習用画像を生成する(ステップS21)。例えば、摂動部27は、大きめに作成されたパッチ画像を取得し、取得したパッチ画像から摂動を実施した画像を学習用画像として切り出してもよい。 In FIG. 8, first, the perturbation unit 27 takes one of the patch images included in this subset as an input and generates a learning image perturbed with respect to position, scale, rotation, and the like (step S21). For example, the perturbation unit 27 may acquire a patch image created in a large size, and cut out an image in which the perturbation is performed from the acquired patch image as a learning image.

次に、不適当領域検出部23は、学習用画像から、不適当領域としてテカり箇所を検出する(ステップS22)。 Next, the inappropriate region detection unit 23 detects a shiny portion as an inappropriate region from the learning image (step S22).

次に、不適当領域無効化部14は、第1の実施の形態におけるステップS12と略同様に動作して、学習用画像を入力したCNNの入力層において不適当領域に対応するユニットを一時的に無効化する。ここでは、不適当領域無効化部14は、テカり箇所に対応するユニットを一時的に無効化することになる(ステップS23)。 Next, the inappropriate region invalidation unit 14 operates substantially in the same manner as in step S12 in the first embodiment, and temporarily sets the unit corresponding to the inappropriate region in the input layer of the CNN into which the learning image is input. Disable to. Here, the inappropriate area invalidation unit 14 temporarily invalidates the unit corresponding to the shiny part (step S23).

次に、損失値計算部15は、第1の実施の形態におけるステップS13と略同様に動作して、CNNのForward計算を行う。ここでは、損失値計算部15は、テカり箇所に対応する入力層のユニットが一時的に無効化された状態で、CNNのForward計算を行うことになる。そして、損失値計算部15は、計算結果およびこの学習用画像に付与されていた正解の病変クラス情報を用いて、損失値を計算する(ステップS24)。 Next, the loss value calculation unit 15 operates in substantially the same manner as in step S13 in the first embodiment, and performs CNN Forward calculation. Here, the loss value calculation unit 15 performs the CNN Forward calculation in a state where the unit of the input layer corresponding to the shiny part is temporarily invalidated. Then, the loss value calculation unit 15 calculates the loss value using the calculation result and the correct lesion class information given to the learning image (step S24).

次に、このサブセットに含まれる他のパッチ画像があれば(ステップS25でYes)、画像診断学習装置2は、ステップS21からの処理を繰り返す。 Next, if there is another patch image included in this subset (Yes in step S25), the diagnostic imaging learning device 2 repeats the process from step S21.

一方、このサブセットに含まれる他のパッチ画像がなければ(ステップS25でNo)、パラメータ更新部16は、学習対象のパラメータを更新する処理を行う。具体的には、パラメータ更新部16は、このサブセットに含まれる各学習用画像について計算された損失値の累積値に基づいて、重みおよびバイアスを更新すればよい(ステップS26)。 On the other hand, if there is no other patch image included in this subset (No in step S25), the parameter update unit 16 performs a process of updating the parameter to be learned. Specifically, the parameter update unit 16 may update the weight and bias based on the cumulative value of the loss value calculated for each learning image included in this subset (step S26).

次に、他のサブセットがあれば(ステップS27でYes)、画像診断学習装置2は、ステップS21からの処理を繰り返す。 Next, if there is another subset (Yes in step S27), the diagnostic imaging learning device 2 repeats the process from step S21.

一方、他のサブセットがなければ(ステップS27でNo)、画像診断学習装置2は、動作を終了する。 On the other hand, if there is no other subset (No in step S27), the diagnostic imaging learning device 2 ends the operation.

なお、画像診断学習装置2は、他の学習データセットについても同様の動作を行い、更新される損失値または識別エラー率が低下しなくなった時点で、動作を終了してもよい。 The image diagnosis learning device 2 may perform the same operation for other learning data sets, and may end the operation when the updated loss value or the identification error rate does not decrease.

以上で、画像診断学習装置2の動作の説明を終了する。 This completes the description of the operation of the image diagnosis learning device 2.

次に、第2の実施の形態の効果について述べる。 Next, the effect of the second embodiment will be described.

第2の実施の形態としての画像診断学習装置は、NBI内視鏡や拡大内視鏡等の特殊機能によらない通常の撮影方法で得られた内視鏡画像において、テカり箇所が含まれていても、病変部の候補をより精度よく検知することができる。 The diagnostic imaging learning device as the second embodiment includes a shiny portion in an endoscopic image obtained by a normal imaging method that does not depend on a special function such as an NBI endoscope or a magnifying endoscope. Even so, it is possible to detect lesion candidate candidates more accurately.

その理由について説明する。本実施の形態は、第1の実施の形態と同様に構成されることに加えて、次のような構成を備えるからである。すなわち、摂動部が、内視鏡画像が分割されて病変クラス情報が付与されたパッチ画像に摂動処理を施すことにより、学習用画像を生成する。そして、不適当領域検出部が、学習用画像における不適当領域として、テカり箇所を検出するからである。 The reason will be explained. This is because the present embodiment has the following configurations in addition to the same configurations as those of the first embodiment. That is, the perturbation unit generates a learning image by performing a perturbation process on the patch image in which the endoscopic image is divided and the lesion class information is added. Then, the inappropriate region detection unit detects the shiny portion as an inappropriate region in the learning image.

これにより、本実施の形態は、内視鏡画像に基づく学習用画像のセットに基づいて、特徴量抽出用のパラメータとしてCNNを構成する重みとバイアスを更新する。そのため、NBI内視鏡や拡大内視鏡によらない一般的な内視鏡画像であっても、正常な内臓壁面の領域と、異常性すなわち病変部の可能性がある異常領域とを識別するのに十分な特徴量を、自動的に抽出することが可能である。 Thereby, the present embodiment updates the weights and biases constituting the CNN as the parameters for feature extraction based on the set of learning images based on the endoscopic images. Therefore, even in a general endoscopic image that does not depend on an NBI endoscope or a magnifying endoscope, a region of a normal visceral wall surface is distinguished from an abnormal region, that is, an abnormal region that may be a lesion. It is possible to automatically extract sufficient features.

さらに、本実施の形態は、テカり箇所を自動的に検知し無効化してCNNのパラメータを学習するため、内視鏡画像においてテカり箇所に発生する異常値の影響を抑えて、CNNを学習させることができる。つまり、本実施の形態では、内視鏡画像中にテカり箇所を含む学習用画像からも、悪影響なくパラメータを学習する事ができる。 Further, in the present embodiment, since the shiny part is automatically detected and invalidated to learn the CNN parameter, the influence of the abnormal value generated in the shiny part in the endoscopic image is suppressed and the CNN is learned. Can be made to. That is, in the present embodiment, the parameters can be learned from the learning image including the shiny part in the endoscopic image without any adverse effect.

その結果、本実施の形態によって学習されたパラメータを使用したCNNによる識別器は、特殊機能によらない内視鏡画像であっても、病変部の候補をより正確に検知できる。 As a result, the CNN discriminator using the parameters learned according to the present embodiment can more accurately detect the candidate lesion even if it is an endoscopic image that does not depend on a special function.

なお、本実施の形態は、摂動部を含まないでも実施可能である。ただし、摂動部は、摂動処理の実行によりテカり箇所を摂動させるため、テカり箇所を偏らせず、テカり箇所による悪影響をさらに抑えてパラメータを学習できるという効果を奏する。摂動部によるこのような効果は、特に、少ない学習データセットを用いて動作する場合に顕著となる。 In addition, this embodiment can be carried out even if the perturbation part is not included. However, since the perturbation unit perturbs the shiny part by executing the perturbation process, it has the effect of not biasing the shiny part and further suppressing the adverse effect of the shiny part to learn the parameters. Such an effect of the perturbation part is particularly remarkable when operating with a small training data set.

(第3の実施の形態)
次に、第3の実施の形態について図面を参照して詳細に説明する。本実施の形態では、第1の実施の形態によって更新されたCNNのパラメータを用いて、診断対象画像における異常領域を識別する画像診断装置の一例について説明する。なお、診断対象画像とは、診断対象が写された画像であって、異常領域の識別を行う対象の画像をいうものとする。
(Third Embodiment)
Next, the third embodiment will be described in detail with reference to the drawings. In this embodiment, an example of an image diagnostic apparatus for identifying an abnormal region in a diagnostic target image will be described using the CNN parameters updated by the first embodiment. The image to be diagnosed is an image on which the diagnosis target is captured, and refers to an image of the target for identifying an abnormal region.

まず、第3の実施の形態としての画像診断装置3の構成を図9に示す。図9において、画像診断装置3は、CNN構成記憶部31と、パラメータ記憶部32と、CNN識別部38とを備える。 First, FIG. 9 shows the configuration of the diagnostic imaging apparatus 3 as the third embodiment. In FIG. 9, the diagnostic imaging apparatus 3 includes a CNN configuration storage unit 31, a parameter storage unit 32, and a CNN identification unit 38.

ここで、画像診断装置3は、図10に示すようなハードウェア要素によって構成可能である。図10において、画像診断装置3は、CPU3001およびメモリ3002を含むコンピュータ装置によって構成される。メモリ3002は、RAM、ROM、補助記憶装置等によって構成される。この場合、CNN構成記憶部31およびパラメータ記憶部32は、メモリ3002によって構成される。また、CNN識別部38は、メモリ3002に格納されるコンピュータ・プログラムを読み込んで実行するCPU3001によって構成される。なお、画像診断装置3およびその各機能ブロックのハードウェア構成は、上述の構成に限定されない。また、画像診断装置3は、画像診断学習装置1と同一のコンピュータ装置によって構成されていてもよいし、異なるコンピュータ装置によって構成されていてもよい。 Here, the diagnostic imaging apparatus 3 can be configured by hardware elements as shown in FIG. In FIG. 10, the diagnostic imaging apparatus 3 is composed of a computer apparatus including a CPU 3001 and a memory 3002. The memory 3002 is composed of a RAM, a ROM, an auxiliary storage device, and the like. In this case, the CNN configuration storage unit 31 and the parameter storage unit 32 are configured by the memory 3002. Further, the CNN identification unit 38 is composed of a CPU 3001 that reads and executes a computer program stored in the memory 3002. The hardware configuration of the diagnostic imaging apparatus 3 and its functional blocks is not limited to the above configuration. Further, the diagnostic imaging device 3 may be configured by the same computer device as the diagnostic imaging learning device 1, or may be configured by a different computer device.

CNN構成記憶部31は、第1の実施の形態としての画像診断学習装置1によって用いられたCNNと同一のネットワーク構成を表す情報を記憶する。 The CNN configuration storage unit 31 stores information representing the same network configuration as the CNN used by the diagnostic imaging learning device 1 as the first embodiment.

パラメータ記憶部32は、第1の実施の形態としての画像診断学習装置1を1つまたは複数の学習用画像に適用して更新されたCNNのパラメータを記憶する。例えば、そのようなパラメータは、CNNにおける重みとバイアスである。なお、パラメータ記憶部32に記憶されるCNNのパラメータは、より多数の内視鏡画像から得られた学習用画像に画像診断学習装置1を適用して更新されたパラメータであることが望ましい。 The parameter storage unit 32 stores the updated CNN parameters by applying the diagnostic imaging learning device 1 as the first embodiment to one or a plurality of learning images. For example, such parameters are weights and biases in the CNN. It is desirable that the CNN parameters stored in the parameter storage unit 32 are updated by applying the diagnostic imaging learning device 1 to the learning images obtained from a larger number of endoscopic images.

CNN識別部38は、パラメータ記憶部32に記憶されたCNNのパラメータを用いて、診断対象画像に基づく情報をCNNに入力して計算を実行する。そして、CNN識別部38は、CNNの計算結果に基づいて、診断対象画像における異常領域を識別する。 The CNN identification unit 38 uses the parameters of the CNN stored in the parameter storage unit 32 to input information based on the image to be diagnosed into the CNN and execute the calculation. Then, the CNN identification unit 38 identifies the abnormal region in the image to be diagnosed based on the calculation result of CNN.

以上のように構成された画像診断装置3の動作を、図11に示す。 The operation of the diagnostic imaging apparatus 3 configured as described above is shown in FIG.

図11において、まず、CNN識別部38は、診断対象画像を、第1の実施の形態としての画像診断学習装置1によって用いられたネットワーク構成のCNNに入力する(ステップS31)。 In FIG. 11, first, the CNN identification unit 38 inputs the image to be diagnosed into the CNN of the network configuration used by the image diagnosis learning device 1 as the first embodiment (step S31).

次に、CNN識別部38は、第1の実施の形態の画像診断学習装置1によって更新されたCNNのパラメータを用いて、CNNの計算を実行する(ステップS32)。 Next, the CNN identification unit 38 executes the calculation of the CNN using the parameters of the CNN updated by the diagnostic imaging learning device 1 of the first embodiment (step S32).

次に、CNN識別部38は、CNNの計算結果に基づいて、診断対象画像における異常領域を識別する(ステップS33)。 Next, the CNN identification unit 38 identifies the abnormal region in the image to be diagnosed based on the calculation result of CNN (step S33).

以上で、画像診断装置3は、動作を終了する。 With the above, the diagnostic imaging apparatus 3 ends the operation.

次に、第3の実施の形態の効果について述べる。 Next, the effect of the third embodiment will be described.

第3の実施の形態としての画像診断装置は、特殊機能によらない通常の撮影方法で診断対象が撮影された診断対象画像において、本来の診断対象が充分に写されていない領域が含まれていても、異常領域をより精度よく検知することができる。 The diagnostic imaging apparatus as the third embodiment includes a region in which the original diagnostic target is not sufficiently captured in the diagnostic target image in which the diagnostic target is captured by a normal imaging method that does not rely on a special function. However, the abnormal region can be detected more accurately.

その理由について説明する。本実施の形態では、CNN構成記憶部が、第1の実施の形態としての画像診断学習装置によって用いられたCNNのネットワーク構成を記憶している。また、パラメータ記憶部が、第1の実施の形態としての画像診断学習装置によって更新されたCNNのパラメータを記憶している。そして、CNN識別部が、診断対象画像を、第1の実施の形態としての画像診断学習装置によって用いられたネットワーク構成のCNNに入力する。そして、CNN識別部が、第1の実施の形態としての画像診断学習装置によって更新されたCNNのパラメータを用いて、CNNの計算を行いその計算結果に基づいて、診断対象画像における異常領域を識別するからである。 The reason will be explained. In the present embodiment, the CNN configuration storage unit stores the network configuration of the CNN used by the diagnostic imaging learning device as the first embodiment. In addition, the parameter storage unit stores the parameters of the CNN updated by the diagnostic imaging learning device as the first embodiment. Then, the CNN identification unit inputs the image to be diagnosed into the CNN of the network configuration used by the diagnostic imaging learning device as the first embodiment. Then, the CNN identification unit calculates the CNN using the CNN parameters updated by the diagnostic imaging learning device as the first embodiment, and identifies the abnormal region in the image to be diagnosed based on the calculation result. Because it does.

ここで、第1の実施の形態としての画像診断学習装置によって更新されたCNNのパラメータは、診断対象が写された学習用画像において不適当領域による影響を抑えて学習されている。したがって、本実施の形態は、そのようなパラメータを用いたCNNを診断対象画像に適用するので、異常領域を精度よく識別可能となる。 Here, the parameters of the CNN updated by the diagnostic imaging learning apparatus as the first embodiment are learned by suppressing the influence of the inappropriate region in the learning image in which the diagnostic target is copied. Therefore, in the present embodiment, since the CNN using such a parameter is applied to the image to be diagnosed, the abnormal region can be accurately identified.

(第4の実施の形態)
次に、第4の実施の形態について図面を参照して詳細に説明する。本実施の形態では、診断対象として内臓壁面を適用する。また、本実施の形態では、第2の実施の形態によって更新されたCNNのパラメータを用いて、内視鏡画像における病変部の候補を識別する画像診断装置の一例について説明する。なお、本実施の形態の説明において参照する各図面において、第3の実施の形態と同一の構成および同様に動作するステップには同一の符号を付して本実施の形態における詳細な説明を省略する。
(Fourth Embodiment)
Next, the fourth embodiment will be described in detail with reference to the drawings. In this embodiment, the internal organ wall surface is applied as a diagnostic target. Further, in the present embodiment, an example of an diagnostic imaging apparatus for identifying a candidate for a lesion in an endoscopic image will be described using the CNN parameters updated by the second embodiment. In each drawing referred to in the description of the present embodiment, the same reference numerals are given to the steps having the same configuration and the same operation as those of the third embodiment, and the detailed description in the present embodiment is omitted. do.

まず、第4の実施の形態としての画像診断装置4の構成を図12に示す。図12において、画像診断装置4は、第3の実施の形態としての画像診断装置3に対して、CNN識別部38に替えてCNN識別部48を備え、さらに、不適当領域検出部43と、不適当領域無効化部44とを備える点が異なる。なお、CNN構成記憶部31およびパラメータ記憶部32には、第2の実施の形態としての画像診断学習装置によって用いられたCNNのネットワーク構成および更新されたパラメータが記憶されているものとする。 First, FIG. 12 shows the configuration of the diagnostic imaging apparatus 4 as the fourth embodiment. In FIG. 12, the image diagnosis device 4 includes a CNN identification unit 48 instead of the CNN identification unit 38 for the image diagnosis device 3 as the third embodiment, and further includes an inappropriate region detection unit 43 and an inappropriate region detection unit 43. The difference is that it includes an inappropriate area invalidation unit 44. It is assumed that the CNN configuration storage unit 31 and the parameter storage unit 32 store the network configuration of the CNN used by the diagnostic imaging learning device as the second embodiment and the updated parameters.

ここで、画像診断装置4およびその各機能ブロックは、図10を参照して説明した第3の実施の形態としての画像診断装置3と同様のハードウェア要素によって構成可能である。ただし、画像診断装置4およびその各機能ブロックのハードウェア構成は、上述の構成に限定されない。 Here, the diagnostic imaging apparatus 4 and each functional block thereof can be configured by the same hardware elements as the diagnostic imaging apparatus 3 as the third embodiment described with reference to FIG. However, the hardware configuration of the diagnostic imaging apparatus 4 and its functional blocks is not limited to the above configuration.

不適当領域検出部43は、診断対象画像における不適当領域として、テカり箇所を検出する。テカり箇所を検出する処理の詳細については、第2の実施の形態における不適当領域検出部23と同様であるため、本実施の形態における説明を省略する。例えば、不適当領域検出部43は、診断対象画像の部分領域であるパッチ画像について、テカり箇所を検出する処理を行ってもよい。 The inappropriate region detection unit 43 detects a shiny portion as an inappropriate region in the image to be diagnosed. Since the details of the process of detecting the shiny portion are the same as those of the inappropriate region detection unit 23 in the second embodiment, the description in the present embodiment will be omitted. For example, the inappropriate region detection unit 43 may perform a process of detecting a shiny portion of the patch image which is a partial region of the image to be diagnosed.

不適当領域無効化部44は、診断対象画像を入力したCNNの入力層のユニットのうち、テカり箇所に対応するユニットを無効化する。例えば、不適当領域無効化部44は、診断対象画像の部分領域であるパッチ画像について、無効化の処理を行ってもよい。この場合、不適当領域無効化部44は、パッチ画像が入力されるCNNの入力層のユニットのうち、テカり箇所に対応するユニットを無効化すればよい。なお、診断対象画像またはそのパッチ画像が入力されるCNNのネットワーク構成は、CNN構成記憶部31に記憶されている。テカり箇所に対応するユニットを無効化する処理の詳細については、第1の実施の形態における不適当領域無効化部14と同様であるため、本実施の形態における説明を省略する。 The inappropriate area invalidation unit 44 invalidates the unit corresponding to the shiny part among the units of the input layer of the CNN in which the image to be diagnosed is input. For example, the inappropriate area invalidation unit 44 may perform invalidation processing on the patch image which is a partial area of the image to be diagnosed. In this case, the inappropriate area invalidation unit 44 may invalidate the unit corresponding to the shiny part among the units of the input layer of the CNN into which the patch image is input. The network configuration of the CNN into which the image to be diagnosed or the patch image thereof is input is stored in the CNN configuration storage unit 31. Since the details of the process of invalidating the unit corresponding to the shiny part are the same as those of the inappropriate area invalidation unit 14 in the first embodiment, the description in the present embodiment will be omitted.

CNN識別部48は、診断対象画像について、非病変部または病変部の種類の識別を行う。具体的には、CNN識別部48は、診断対象画像が入力されてテカり箇所が無効化された状態のCNNに、パラメータ記憶部32に記憶されたCNNのパラメータを適用して、CNNのForward計算を行う。例えば、CNN識別部48は、診断対象画像の部分領域であるパッチ画像について、識別を行ってもよい。この場合、CNN識別部48は、パッチ画像が入力されてテカり箇所が無効化された状態のCNNに、パラメータ記憶部32に記憶されたCNNのパラメータを適用して、CNNのForward計算を行えばよい。そして、CNN識別部48は、CNNの識別結果として、パッチ画像に写された内臓壁面の病変クラス情報を出力する。 The CNN identification unit 48 identifies the non-lesioned portion or the type of the lesioned portion of the image to be diagnosed. Specifically, the CNN identification unit 48 applies the parameters of the CNN stored in the parameter storage unit 32 to the CNN in the state where the image to be diagnosed is input and the shiny part is invalidated, and the CNN's Forward Make a calculation. For example, the CNN identification unit 48 may identify the patch image, which is a partial region of the image to be diagnosed. In this case, the CNN identification unit 48 applies the CNN parameters stored in the parameter storage unit 32 to the CNN in the state where the patch image is input and the shiny part is invalidated, and performs the CNN Forward calculation. Just do it. Then, the CNN identification unit 48 outputs the lesion class information of the visceral wall surface copied on the patch image as the identification result of the CNN.

ここで、CNNのForward計算を行うことにより、CNNからは、病変クラス別の識別スコアが出力される。そこで、例えば、CNN識別部48は、病変クラス別の識別スコアに対してSoftMax関数を実行することにより、0から1を値域とする実数値のスコアに変換してもよい。これにより、CNN識別部48は、このパッチ画像に写された内臓壁面について、各病変クラスらしさを表すスコアを算出できる。 Here, by performing the Forward calculation of CNN, the identification score for each lesion class is output from CNN. Therefore, for example, the CNN identification unit 48 may convert the identification score for each lesion class into a real value score having a range of 0 to 1 by executing the SoftMax function. As a result, the CNN identification unit 48 can calculate a score representing each lesion class-likeness for the visceral wall surface imaged in this patch image.

また、CNN識別部48は、診断対象画像の各部分領域であるパッチ画像について識別を行った場合、パッチ画像毎のスコアを出力してもよい。例えば、CNN識別部48は、パッチ画像毎のスコアを、診断対象画像における病変クラスらしさを表すスコアマップとして、図示されない表示装置に表示させてもよい。ここでは、スコアマップとは、各パッチ画像の診断対象画像における位置に、そのパッチ画像のスコアを画像として含む画像である。また、CNN識別部48は、そのようなスコアマップを、診断対象画像に重畳して出力してもよい。 Further, when the CNN identification unit 48 identifies the patch image which is each partial region of the image to be diagnosed, the CNN identification unit 48 may output the score for each patch image. For example, the CNN identification unit 48 may display the score for each patch image on a display device (not shown) as a score map showing the lesion class-likeness in the image to be diagnosed. Here, the score map is an image including the score of the patch image as an image at the position of each patch image in the diagnosis target image. Further, the CNN identification unit 48 may superimpose and output such a score map on the image to be diagnosed.

以上のように構成された画像診断装置4の動作について、図13を参照して説明する。ここでは、画像診断装置4は、診断対象の内視鏡画像から切り出された各パッチ画像について動作するものとする。 The operation of the diagnostic imaging apparatus 4 configured as described above will be described with reference to FIG. Here, it is assumed that the diagnostic imaging apparatus 4 operates for each patch image cut out from the endoscopic image to be diagnosed.

図13では、まず、不適当領域検出部43は、内視鏡画像から切り出されたパッチ画像において、テカり箇所を検出する(ステップS41)。 In FIG. 13, first, the inappropriate region detection unit 43 detects a shiny portion in the patch image cut out from the endoscopic image (step S41).

次に、不適当領域無効化部44は、パッチ画像を入力したCNNの入力層のユニットのうち、テカり箇所に対応するユニットを一時的に無効化する(ステップS42)。 Next, the inappropriate area invalidation unit 44 temporarily invalidates the unit corresponding to the shiny part among the units of the input layer of the CNN into which the patch image is input (step S42).

次に、CNN識別部48は、テカり箇所に対応する入力層のユニットが一時的に無効化された状態で、CNNのForward計算を行う。これにより、CNNから、病変クラス別のスコアが出力される(ステップS43)。 Next, the CNN identification unit 48 performs the Forward calculation of the CNN in a state where the unit of the input layer corresponding to the shiny part is temporarily invalidated. As a result, the score for each lesion class is output from CNN (step S43).

ここで、内視鏡画像に含まれる他のパッチ画像があれば(ステップS44でYes)、画像診断装置4は、ステップS41からの動作を繰り返す。 Here, if there is another patch image included in the endoscopic image (Yes in step S44), the diagnostic imaging apparatus 4 repeats the operation from step S41.

一方、内視鏡画像に含まれる他のパッチ画像がなければ(ステップS44でNo)、CNN識別部48は、パッチ画像毎の病変クラスらしさを出力する(ステップS45)。なお、前述のように、例えば、CNN識別部48は、パッチ画像毎の病変クラスらしさを、そのパッチ画像の内視鏡画像における位置に表示させるためのスコアマップとして、内視鏡画像に重畳し表示装置に表示させるようにしてもよい。CNN識別部48は、その表示装置を含んでもよい。これにより、病変部の箇所が、人間による目視により確認しやすくなるという利点がある。 On the other hand, if there is no other patch image included in the endoscopic image (No in step S44), the CNN identification unit 48 outputs the lesion class-likeness for each patch image (step S45). As described above, for example, the CNN identification unit 48 superimposes the lesion class-likeness of each patch image on the endoscopic image as a score map for displaying the patch image at the position in the endoscopic image. It may be displayed on the display device. The CNN identification unit 48 may include the display device. This has the advantage that the location of the lesion can be easily visually confirmed by a human.

次に、第4の実施の形態の効果について述べる。 Next, the effect of the fourth embodiment will be described.

本実施の形態としての画像診断装置は、NBI内視鏡や拡大内視鏡のような特殊機能によらない通常の撮影方法で内臓壁面が撮影された内視鏡画像において、テカり箇所が含まれていても、病変部の可能性がある領域をより精度よく検知することができる。 The diagnostic imaging apparatus as the present embodiment includes a shiny part in an endoscopic image in which the internal organ wall surface is photographed by a normal imaging method that does not depend on a special function such as an NBI endoscope or a magnifying endoscope. Even if this is the case, the area that may be a lesion can be detected more accurately.

その理由について説明する。本実施の形態では、CNN構成記憶部およびパラメータ記憶部が、第2の実施の形態としての画像診断学習装置によって用いられたCNNのネットワーク構成および更新されたパラメータを記憶している。そして、不適当領域検出部が、内視鏡画像におけるテカり箇所を検出する。また、不適当領域無効化部が、第2の実施の形態としての画像診断学習装置によって用いられたネットワーク構成のCNNに内視鏡画像のパッチ画像を入力し、その入力層においてテカり箇所に対応するユニットを一時的に無効化する。そして、CNN識別部が、テカり箇所に対応するユニットが一時的に無効化された状態のCNNのForward計算を、第2の実施の形態としての画像診断学習装置によって更新されたパラメータを用いて実行することにより、識別を行うからである。 The reason will be explained. In this embodiment, the CNN configuration storage unit and the parameter storage unit store the CNN network configuration and updated parameters used by the diagnostic imaging learning apparatus as the second embodiment. Then, the inappropriate region detection unit detects the shiny part in the endoscopic image. Further, the inappropriate region invalidation unit inputs a patch image of the endoscopic image into the CNN of the network configuration used by the diagnostic imaging learning device as the second embodiment, and the patch image of the endoscopic image is input to the shiny part in the input layer. Temporarily disable the corresponding unit. Then, the CNN identification unit uses the parameters updated by the diagnostic imaging learning device as the second embodiment to perform the Forward calculation of the CNN in the state where the unit corresponding to the shiny part is temporarily disabled. This is because the identification is performed by executing.

このように、本実施の形態は、第2の実施の形態によって学習されたパラメータを用いて、第2の実施の形態において利用されたCNNと同一のネットワーク構成のCNNによる識別を実行する。このため、本実施の形態は、NBI内視鏡や拡大内視鏡ではない一般的な内視鏡画像であっても、内視鏡画像における病変らしさを正しく検知できる。 As described above, the present embodiment uses the parameters learned by the second embodiment to perform identification by the CNN having the same network configuration as the CNN used in the second embodiment. Therefore, in the present embodiment, even a general endoscopic image other than an NBI endoscope or a magnifying endoscope can correctly detect lesion-likeness in the endoscopic image.

また、本実施の形態は、テカり部分を除いた状態で学習されたパラメータを用いて、識別を行う。このため、本実施の形態は、識別対象画像からテカり部分を除いても、精度よく識別を行うことができる。このように、本実施の形態は、テカり箇所を自動的に検知しCNNの入力層において対応するユニットを無効化して識別を行うため、診断対象画像におけるテカり箇所に発生する異常値の影響を抑えて、識別を行うことができる。つまり、本実施の形態では、診断対象画像にテカりを含むデータからも、テカり箇所の影響を極力抑えて識別を行うことができる。 Further, in the present embodiment, identification is performed using the parameters learned in the state where the shiny portion is removed. Therefore, in the present embodiment, even if the shiny portion is removed from the image to be identified, the identification can be performed with high accuracy. As described above, in the present embodiment, since the shiny spot is automatically detected and the corresponding unit is invalidated in the input layer of the CNN for identification, the influence of the abnormal value generated in the shiny spot in the image to be diagnosed is affected. Can be suppressed and identification can be performed. That is, in the present embodiment, it is possible to perform identification by suppressing the influence of the shiny part as much as possible even from the data including the shiny in the image to be diagnosed.

なお、本実施の形態で使用するCNNのネットワーク構成として、CNN構成記憶部には、第2の実施の形態で使用されたCNNと同一のネットワーク構成が記憶されている例について説明した。これに限らず、CNN構成記憶部には、第2の実施の形態で使用されたCNNのネットワーク構成において入力層から特徴量が抽出される途中層までの構成が記憶されていてもよい。例えば、第2の実施の形態で使用されたCNNのネットワーク構成のうち、全結合層を除いたConvolution層およびPooling層からなる構成が記憶されていてもよい。その場合、CNN構成記憶部には、パラメータとして、入力層から途中層までの計算に必要なパラメータが少なくとも記憶されていればよい。この場合、本実施の形態において、CNN識別部から出力される情報は、病変クラスを識別するのに有効な特徴量を表す数値列であるとみなすことができる。この場合、本実施の形態の出力である数値列が、サポートベクトルマシンなどの任意の識別器に入力されることにより、病変クラスの識別が可能となる。 As a network configuration of the CNN used in the present embodiment, an example in which the same network configuration as the CNN used in the second embodiment is stored in the CNN configuration storage unit has been described. Not limited to this, the CNN configuration storage unit may store the configuration from the input layer to the intermediate layer from which the feature amount is extracted in the CNN network configuration used in the second embodiment. For example, among the network configurations of CNN used in the second embodiment, the configuration including the Convolution layer and the Pooling layer excluding the fully connected layer may be stored. In that case, at least the parameters necessary for the calculation from the input layer to the intermediate layer may be stored in the CNN configuration storage unit as parameters. In this case, in the present embodiment, the information output from the CNN identification unit can be regarded as a numerical string representing a feature amount effective for identifying the lesion class. In this case, the lesion class can be identified by inputting the numerical string which is the output of the present embodiment to an arbitrary classifier such as a support vector machine.

また、第2の実施の形態で使用されたCNNのネットワーク構成のうち、入力層から前述の途中層までの構成を用いる場合、CNN識別部は、内視鏡画像から切り出されたパッチ画像ではなく、内視鏡画像の全域を、CNNに入力してもよい。この場合、CNN識別部から出力される情報は、内視鏡画像において各病変クラスを識別するのに有効な特徴量である。そこで、CNN識別部は、途中層までの計算結果を、内視鏡画像における位置に応じて画像として表すことにより、内視鏡画像における各病変クラスの可能性を表すスコアマップとして出力すればよい。このように、診断対象画像の全域を入力する場合に、本実施の形態は、診断対象画像をスキャンしながらパッチ画像毎に識別処理をくり返す場合と比較して、計算量を削減して高速に、病変クラスの可能性を表すスコアマップを生成することができる。 Further, when using the configuration from the input layer to the above-mentioned intermediate layer among the CNN network configurations used in the second embodiment, the CNN identification unit is not a patch image cut out from the endoscopic image. , The entire area of the endoscopic image may be input to the CNN. In this case, the information output from the CNN identification unit is a feature amount effective for identifying each lesion class in the endoscopic image. Therefore, the CNN identification unit may output the calculation result up to the middle layer as a score map showing the possibility of each lesion class in the endoscopic image by expressing it as an image according to the position in the endoscopic image. .. In this way, when inputting the entire area of the diagnosis target image, the present embodiment reduces the amount of calculation and is faster than the case where the identification process is repeated for each patch image while scanning the diagnosis target image. It is possible to generate a score map showing the possibility of lesion class.

なお、上述した各実施の形態において、CNNの入力層の各ユニットには、学習用画像または診断対象画像の各画素が割り当てられる例を中心に説明した。これに限らず、入力層の各ユニットには、学習用画像または診断対象画像が事前に処理された情報が入力されてもよい。例えば、入力層の各ユニットには、学習用画像または診断対象画像がSobelオペレータやLaplacianオペレータ等で処理されることにより、輝度の1次微分画像または2次微分画像の各画素が入力されてもよい。この場合、第1、2、4の実施の形態では、不適当領域無効化部は、入力層の各ユニットのうち、処理が行われる前の学習用画像または診断対象画像において検出された不適当領域に対応する微分画像の画素が入力されるユニットを、無効化すればよい。 In each of the above-described embodiments, an example in which each pixel of the learning image or the diagnosis target image is assigned to each unit of the input layer of the CNN has been mainly described. Not limited to this, information in which the learning image or the image to be diagnosed has been processed in advance may be input to each unit of the input layer. For example, even if each pixel of the first-order differential image or the second-order differential image of the brightness is input to each unit of the input layer by processing the learning image or the image to be diagnosed by the Sobel operator, the Laplacian operator, or the like. good. In this case, in the first, second, and fourth embodiments, the inappropriate region invalidation unit is an inappropriate region detected in the learning image or the diagnosis target image before the processing is performed in each unit of the input layer. The unit in which the pixels of the differential image corresponding to the region are input may be invalidated.

また、上述した第2、4の実施の形態において、診断対象として内臓壁面を適用し、診断対象画像として内視鏡画像に基づく画像を適用する例を中心に説明した。これに限らず、これらの各実施の形態において、診断対象としてその他の対象を適用した診断対象画像を用いてもよい。また、これらの各実施の形態において、不適当領域としてテカり箇所を適用する例を中心に説明した。これに限らず、これらの各実施の形態において、不適当領域として、異常領域の識別に適していないその他の領域を適用してもよい。 Further, in the second and fourth embodiments described above, an example in which the internal organ wall surface is applied as a diagnosis target and an image based on an endoscopic image is applied as a diagnosis target image has been mainly described. Not limited to this, in each of these embodiments, a diagnostic target image to which another target is applied may be used as the diagnostic target. In addition, in each of these embodiments, an example of applying a shiny portion as an inappropriate region has been mainly described. Not limited to this, in each of these embodiments, other regions that are not suitable for identifying abnormal regions may be applied as inappropriate regions.

また、上述した各実施の形態において、損失値計算部およびパラメータ更新部は、上述した計算手法以外にも、一部のユニットが無効化されたCNNに適用可能な各種の公知の計算方法を適用可能である。 Further, in each of the above-described embodiments, the loss value calculation unit and the parameter update unit apply various known calculation methods applicable to CNNs in which some units are invalidated, in addition to the above-mentioned calculation methods. It is possible.

また、上述した各実施の形態において、画像診断学習装置および画像診断装置の各機能ブロックが、メモリに記憶されたコンピュータ・プログラムを実行するCPUによって実現される例を中心に説明した。これに限らず、各機能ブロックの一部、全部、または、それらの組み合わせが専用のハードウェアにより実現されていてもよい。 Further, in each of the above-described embodiments, an example in which each functional block of the diagnostic imaging learning device and the diagnostic imaging device is realized by a CPU that executes a computer program stored in a memory has been mainly described. Not limited to this, a part, all, or a combination thereof of each functional block may be realized by dedicated hardware.

また、上述した各実施の形態において、画像診断学習装置または画像診断装置の機能ブロックは、複数の装置に分散されて実現されてもよい。 Further, in each of the above-described embodiments, the functional blocks of the diagnostic imaging learning device or the diagnostic imaging device may be distributed and realized in a plurality of devices.

また、上述した各実施の形態において、各フローチャートを参照して説明した画像診断学習装置または画像診断装置の動作を、コンピュータ・プログラムとしてコンピュータ装置の記憶装置(記憶媒体)に格納しておく。そして、係るコンピュータ・プログラムを当該CPUが読み出して実行するようにしてもよい。そして、このような場合において、コンピュータ・プログラムのコードあるいは記憶媒体によって構成される。 Further, in each of the above-described embodiments, the operation of the diagnostic imaging learning device or the diagnostic imaging device described with reference to each flowchart is stored in the storage device (storage medium) of the computer device as a computer program. Then, the CPU may read and execute the computer program. Then, in such a case, it is composed of a computer program code or a storage medium.

また、上述した各実施の形態は、適宜組み合わせて実施されることが可能である。 In addition, each of the above-described embodiments can be implemented in combination as appropriate.

また、本発明は、上述した各実施の形態に限定されず、様々な態様で実施されることが可能である。 Further, the present invention is not limited to the above-described embodiments, and can be implemented in various embodiments.

この出願は、2016年7月4日に出願された日本出願特願2016−132659を基礎とする優先権を主張し、その開示の全てをここに取り込む。 This application claims priority on the basis of Japanese application Japanese Patent Application No. 2016-132695 filed on July 4, 2016, and incorporates all of its disclosures herein.

1、2 画像診断学習装置
3、4 画像診断装置
11、31 CNN構成記憶部
12、32 パラメータ記憶部
13、23、43 不適当領域検出部
14、44 不適当領域無効化部
15 損失値計算部
16 パラメータ更新部
27 摂動部
38、48 CNN識別部
1001、3001 CPU
1002、3002 メモリ
1, 2 Image diagnostic learning device 3, 4 Image diagnostic device 11, 31 CNN configuration storage unit 12, 32 Parameter storage unit 13, 23, 43 Inappropriate area detection unit 14, 44 Inappropriate area invalidation unit 15 Loss value calculation unit 16 Parameter update unit 27 Perturbation unit 38, 48 CNN identification unit 1001, 3001 CPU
1002, 3002 memory

Claims (10)

Convolutional Neural Network(CNN)のネットワーク構成を記憶するCNN構成記憶手段と、
前記CNNにおける学習対象のパラメータを記憶するパラメータ記憶手段と、
診断対象が写された学習用画像において、前記診断対象が異常性を有する可能性がある異常領域の識別に適していない領域である不適当領域を、所定の基準に基づいて検出する不適当領域検出手段と、
前記学習用画像を入力した前記CNNのネットワーク構成において、入力層のユニットのうち前記不適当領域に対応するユニットを無効化する不適当領域無効化手段と、
前記不適当領域に対応する前記入力層のユニットが無効化された状態において前記CNNの計算を前記パラメータを用いて実行し、その計算結果、および、前記学習用画像に事前に付与された前記診断対象の異常性を表す情報に基づいて、損失値を計算する損失値計算手段と、
前記損失値に基づいて前記パラメータ記憶手段の前記パラメータを更新するパラメータ更新手段と、
を備えた画像診断学習装置。
A CNN configuration storage means for storing a network configuration of a Convolutional Neural Network (CNN), and a CNN configuration storage means.
A parameter storage means for storing parameters to be learned in the CNN, and
In the learning image in which the diagnosis target is captured, an inappropriate region that is not suitable for identifying an abnormal region in which the diagnosis target may have anomalies is detected based on a predetermined criterion. Detection means and
In the network configuration of the CNN to which the learning image is input, the inappropriate area invalidating means for invalidating the unit corresponding to the inappropriate area among the units of the input layer, and the inappropriate area invalidating means.
In a state where the unit of the input layer corresponding to the inappropriate region is invalidated, the calculation of the CNN is executed using the parameters, the calculation result, and the diagnosis given in advance to the learning image. Loss value calculation means that calculates the loss value based on the information that represents the anomaly of the object,
A parameter updating means for updating the parameter of the parameter storage means based on the loss value, and a parameter updating means.
Image diagnosis learning device equipped with.
前記診断対象が写された画像の学習サンプルに対して摂動処理を実施することにより、前記学習用画像を生成する摂動手段をさらに備えることを特徴とする請求項1に記載の画像診断学習装置。 The image diagnosis learning apparatus according to claim 1, further comprising a perturbation means for generating the learning image by performing a perturbation process on a learning sample of an image on which the diagnosis target is copied. 請求項1または請求項2に記載の画像診断学習装置を1つまたは複数の学習用画像に適用して更新された前記CNNの前記パラメータを記憶するパラメータ記憶手段と、
前記パラメータの更新の際に前記画像診断学習装置によって用いられたCNNのネットワーク構成を記憶するCNN構成記憶手段と、
前記診断対象が写された診断対象画像に基づく情報を前記CNNに入力して計算を実行することにより、前記診断対象画像において前記診断対象が異常性を有する可能性がある異常領域を識別するCNN識別手段と、
を備えた画像診断装置。
A parameter storage means for storing the parameters of the CNN updated by applying the diagnostic imaging learning device according to claim 1 or 2 to one or a plurality of learning images.
A CNN configuration storage means for storing the CNN network configuration used by the diagnostic imaging learning device when updating the parameters, and a CNN configuration storage means.
By inputting information based on the diagnosis target image on which the diagnosis target is copied into the CNN and executing the calculation, the CNN that identifies the abnormal region in which the diagnosis target may have an abnormality in the diagnosis target image. Identification means and
Diagnostic imaging device equipped with.
前記診断対象画像における前記不適当領域を、所定の基準に基づいて検出する不適当領域検出手段と、
前記診断対象画像を入力した前記CNNの入力層のユニットのうち前記不適当領域に対応するユニットを無効化する不適当領域無効化手段と、
をさらに備え、
前記CNN識別手段は、前記不適当領域に対応する前記入力層のユニットが無効化された状態において前記CNNの計算を実行することにより、前記診断対象画像における前記異常領域を識別することを特徴とする請求項3に記載の画像診断装置。
An inappropriate region detecting means for detecting the inappropriate region in the image to be diagnosed based on a predetermined criterion,
Inappropriate region invalidation means for invalidating the unit corresponding to the inappropriate region among the units of the input layer of the CNN into which the image to be diagnosed is input.
With more
The CNN identification means is characterized in that the abnormal region in the image to be diagnosed is identified by executing the calculation of the CNN in a state where the unit of the input layer corresponding to the inappropriate region is invalidated. The diagnostic imaging apparatus according to claim 3.
前記CNN識別手段は、前記診断対象画像に含まれる各部分領域について前記CNNを用いて前記識別を行うことにより、前記部分領域毎の識別結果を出力することを特徴とする請求項3または請求項4に記載の画像診断装置。 3. The claim 3 or claim is characterized in that the CNN identification means outputs an identification result for each partial region by performing the identification using the CNN for each partial region included in the image to be diagnosed. The diagnostic imaging apparatus according to 4. 前記CNN識別手段は、前記CNNに前記診断対象画像の全域を入力し、前記CNNのネットワーク構成のうち特徴量が抽出される層までの構成を用いて前記CNNの計算を行うことにより、前記診断対象画像における前記異常領域に関連する特徴量を出力することを特徴とする請求項3または請求項4に記載の画像診断装置。 The CNN identification means inputs the entire area of the image to be diagnosed into the CNN, and calculates the CNN using the configuration up to the layer from which the feature amount is extracted from the network configuration of the CNN. The diagnostic imaging apparatus according to claim 3 or 4, wherein a feature amount related to the abnormal region in the target image is output. コンピュータ装置が、
診断対象が写された学習用画像において、前記診断対象が異常性を有する可能性がある異常領域の識別に適していない領域である不適当領域を、所定の基準に基づいて検出し、
前記学習用画像を入力したConvolutional Neural Network(CNN)のネットワーク構成において、入力層のユニットのうち前記不適当領域に対応するユニットを無効化し、
前記不適当領域に対応する前記入力層のユニットが無効化された状態において前記CNNの計算を実行し、その計算結果、および、前記学習用画像に事前に付与された前記診断対象の異常性を表す情報に基づいて、損失値を計算し、
前記損失値に基づいて前記CNNにおける学習対象のパラメータを更新する方法。
The computer device
In the learning image in which the diagnosis target is captured, an inappropriate region, which is a region that is not suitable for identifying the abnormal region in which the diagnosis target may have an abnormality, is detected based on a predetermined criterion.
In the network configuration of the Convolutional Nuclear Network (CNN) into which the learning image is input, the unit corresponding to the inappropriate region among the units of the input layer is invalidated.
The calculation of the CNN is executed in a state where the unit of the input layer corresponding to the inappropriate region is invalidated, and the calculation result and the abnormality of the diagnosis target previously given to the learning image are displayed. Calculate the loss value based on the information you represent
A method of updating the parameters to be learned in the CNN based on the loss value.
診断対象が写された学習用画像において、前記診断対象が異常性を有する可能性がある異常領域の識別に適していない領域である不適当領域を、所定の基準に基づいて検出し、
前記学習用画像を入力したConvolutional Neural Network(CNN)のネットワーク構成において、入力層のユニットのうち前記不適当領域に対応するユニットを無効化し、
前記不適当領域に対応する前記入力層のユニットが無効化された状態において前記CNNの計算を実行し、その計算結果、および、前記学習用画像に事前に付与された前記診断対象の異常性を表す情報に基づいて、損失値を計算し、
前記損失値に基づいて前記CNNにおける学習対象のパラメータを更新する、
ことをコンピュータ装置に実行させるプログラム
In the learning image in which the diagnosis target is captured, an inappropriate region, which is a region in which the diagnosis target is not suitable for identifying an abnormal region that may have anomalies, is detected based on a predetermined criterion.
In the network configuration of the Convolutional Neural Network (CNN) into which the learning image is input, the unit corresponding to the inappropriate region among the units of the input layer is invalidated.
The calculation of the CNN is executed in a state where the unit of the input layer corresponding to the inappropriate region is invalidated, and the calculation result and the abnormality of the diagnosis target previously given to the learning image are displayed. Calculate the loss value based on the information you represent
The parameters to be learned in the CNN are updated based on the loss value.
A program that lets a computer device do that.
コンピュータ装置が、
1つまたは複数の学習用画像に対して請求項7に記載の方法を実行することにより更新された前記CNNの前記パラメータと、前記パラメータの更新の際に用いられたCNNのネットワーク構成とを用いて、
前記診断対象が写された診断対象画像に基づく情報を前記CNNに入力して計算を実行することにより、前記診断対象画像において前記診断対象が異常性を有する可能性がある異常領域を識別する方法。
The computer device
Using the parameter of the CNN updated by performing the method according to claim 7 for one or more learning images, and the network configuration of the CNN used when updating the parameter. hand,
A method of identifying an abnormal region in the diagnosis target image in which the diagnosis target may have an abnormality by inputting information based on the diagnosis target image on which the diagnosis target is copied into the CNN and executing a calculation. ..
1つまたは複数の学習用画像に対して請求項8に記載のプログラムをコンピュータ装置に実行させることにより更新された前記CNNの前記パラメータと、前記パラメータの更新の際に用いられたCNNのネットワーク構成とを用いて、
前記診断対象が写された診断対象画像に基づく情報を前記CNNに入力して計算を実行することにより、前記診断対象画像において前記診断対象が異常性を有する可能性がある異常領域を識別することをコンピュータ装置に実行させるプログラム
The parameters of the CNN updated by causing a computer device to execute the program according to claim 8 for one or more learning images, and the network configuration of the CNN used when updating the parameters. With and
By inputting information based on the diagnosis target image on which the diagnosis target is copied into the CNN and executing the calculation, the abnormal region where the diagnosis target may have an abnormality is identified in the diagnosis target image. A program that causes a computer device to execute.
JP2018526365A 2016-07-04 2017-07-03 Image diagnostic learning device, diagnostic imaging device, method and program Active JP6927211B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016132659 2016-07-04
JP2016132659 2016-07-04
PCT/JP2017/024332 WO2018008593A1 (en) 2016-07-04 2017-07-03 Image diagnosis learning device, image diagnosis device, image diagnosis method, and recording medium for storing program

Publications (2)

Publication Number Publication Date
JPWO2018008593A1 JPWO2018008593A1 (en) 2019-04-25
JP6927211B2 true JP6927211B2 (en) 2021-08-25

Family

ID=60912964

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018526365A Active JP6927211B2 (en) 2016-07-04 2017-07-03 Image diagnostic learning device, diagnostic imaging device, method and program

Country Status (3)

Country Link
US (1) US10803582B2 (en)
JP (1) JP6927211B2 (en)
WO (1) WO2018008593A1 (en)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7076698B2 (en) * 2017-11-17 2022-05-30 国立研究開発法人国立がん研究センター Image analysis method, image analysis device, program, learned deep learning algorithm manufacturing method and learned deep learning algorithm
US11011275B2 (en) * 2018-02-12 2021-05-18 Ai.Skopy, Inc. System and method for diagnosing gastrointestinal neoplasm
US11809997B2 (en) 2018-04-13 2023-11-07 Nec Corporation Action recognition apparatus, action recognition method, and computer-readable recording medium
JP7352261B2 (en) * 2018-05-18 2023-09-28 国立大学法人東京農工大学 Learning device, learning method, program, trained model, and bone metastasis detection device
WO2019239854A1 (en) * 2018-06-12 2019-12-19 富士フイルム株式会社 Endoscope image processing device, endoscope image processing method, and endoscope image processing program
WO2020003450A1 (en) * 2018-06-28 2020-01-02 オリンパス株式会社 Data processing system and data processing method
JP7289296B2 (en) * 2018-07-05 2023-06-09 富士フイルム株式会社 Image processing device, endoscope system, and method of operating image processing device
JP7270626B2 (en) * 2018-07-09 2023-05-10 富士フイルム株式会社 Medical image processing apparatus, medical image processing system, operating method of medical image processing apparatus, program, and storage medium
CN109241994A (en) * 2018-07-31 2019-01-18 顺丰科技有限公司 A kind of user's anomaly detection method, device, equipment and storage medium
JP6994582B2 (en) 2018-09-13 2022-01-14 オリンパス株式会社 Endoscopic image processing device, endoscopic image processing method and program
KR102210806B1 (en) * 2018-10-02 2021-02-01 한림대학교 산학협력단 Apparatus and method for diagnosing gastric lesion using deep learning of endoscopic images
KR102168485B1 (en) * 2018-10-02 2020-10-21 한림대학교 산학협력단 Endoscopic device and method for diagnosing gastric lesion based on gastric endoscopic image obtained in real time
WO2020080299A1 (en) 2018-10-16 2020-04-23 富士フイルム株式会社 Medical image processing system and learning method
CN109523522B (en) 2018-10-30 2023-05-09 腾讯医疗健康(深圳)有限公司 Endoscopic image processing method, device, system and storage medium
US11357396B1 (en) 2019-01-25 2022-06-14 Verily Life Sciences Llc Diagnostic model optimization for variations in mechanical components of imaging devices
JP7128135B2 (en) * 2019-03-08 2022-08-30 富士フイルム株式会社 Endoscope image learning device, method and program, Endoscope image recognition device
JP2020156903A (en) * 2019-03-27 2020-10-01 Hoya株式会社 Processor for endoscopes, information processing unit, program, information processing method and learning model generation method
CN110992303B (en) * 2019-10-29 2023-12-22 平安科技(深圳)有限公司 Abnormal cell screening method and device, electronic equipment and storage medium
CN112766481B (en) * 2020-03-13 2023-11-24 腾讯科技(深圳)有限公司 Training method and device for neural network model and image detection method
US11726784B2 (en) 2020-04-09 2023-08-15 Micron Technology, Inc. Patient monitoring using edge servers having deep learning accelerator and random access memory
US20220044108A1 (en) * 2020-08-06 2022-02-10 Micron Technology, Inc. Real time medical image processing using deep learning accelerator with integrated random access memory
CN112435246A (en) * 2020-11-30 2021-03-02 武汉楚精灵医疗科技有限公司 Artificial intelligent diagnosis method for gastric cancer under narrow-band imaging amplification gastroscope
WO2023053991A1 (en) * 2021-09-30 2023-04-06 富士フイルム株式会社 Medical image processing device, method for operating medical image processing device, and medical image processing device program
JP7299542B1 (en) 2022-05-18 2023-06-28 キヤノンマーケティングジャパン株式会社 Information processing system, its control method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259598A (en) * 1999-03-12 2000-09-22 Fuji Electric Co Ltd Optimization learning method for neural network
JP4615963B2 (en) * 2004-10-29 2011-01-19 オリンパス株式会社 Capsule endoscope device
AU2015261891A1 (en) * 2014-05-23 2016-10-13 Ventana Medical Systems, Inc. Systems and methods for detection of biological structures and/or patterns in images

Also Published As

Publication number Publication date
WO2018008593A1 (en) 2018-01-11
US20190311475A1 (en) 2019-10-10
JPWO2018008593A1 (en) 2019-04-25
US10803582B2 (en) 2020-10-13

Similar Documents

Publication Publication Date Title
JP6927211B2 (en) Image diagnostic learning device, diagnostic imaging device, method and program
US11132794B2 (en) System and method for detection of suspicious tissue regions in an endoscopic procedure
US10664968B2 (en) Computer aided diagnosis apparatus and method based on size model of region of interest
Shaziya et al. Automatic lung segmentation on thoracic CT scans using U-net convolutional network
JP6150583B2 (en) Image processing apparatus, endoscope apparatus, program, and operation method of image processing apparatus
JP4409166B2 (en) Image processing device
WO2020110278A1 (en) Information processing system, endoscope system, trained model, information storage medium, and information processing method
KR102531400B1 (en) Artificial intelligence-based colonoscopy diagnosis supporting system and method
CN114372951A (en) Nasopharyngeal carcinoma positioning and segmenting method and system based on image segmentation convolutional neural network
Omisore et al. Automatic tool segmentation and tracking during robotic intravascular catheterization for cardiac interventions
Blaiech et al. Impact of enhancement for coronary artery segmentation based on deep learning neural network
JPWO2019187049A1 (en) Diagnostic support device, diagnostic support program, and diagnostic support method
EP4071708B1 (en) Methods and systems for localised smoke removal and color restoration of real-time video
CN113570592B (en) Gastrointestinal disease detection and model training method, device, equipment and medium
KR20230097646A (en) Artificial intelligence-based gastroscopy diagnosis supporting system and method to improve gastro polyp and cancer detection rate
Sierra et al. An online deep convolutional polyp lesion prediction over Narrow Band Imaging (NBI)
JP2019111040A (en) Image analysis device and image analysis method
WO2022080141A1 (en) Endoscopic imaging device, method, and program
US20210183076A1 (en) Tracking device, endoscope system, and tracking method
JP2019013461A (en) Probe type confocal laser microscopic endoscope image diagnosis support device
Gatoula et al. Enhanced CNN-Based Gaze Estimation on Wireless Capsule Endoscopy Images
WO2017149310A1 (en) Frame selection in medical image data
KR20220122312A (en) Artificial intelligence-based gastroscopy diagnosis supporting system and method
WO2023188169A1 (en) Endoscope, training data candidate-image acquisition device, training data candidate-image acquisition method, and program
Wang et al. Adaptive Frequency Learning Network With Anti-Aliasing Complex Convolutions for Colon Diseases Subtypes

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210719

R150 Certificate of patent or registration of utility model

Ref document number: 6927211

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150