JPWO2019176806A1 - 機械学習装置および方法 - Google Patents
機械学習装置および方法 Download PDFInfo
- Publication number
- JPWO2019176806A1 JPWO2019176806A1 JP2020506484A JP2020506484A JPWO2019176806A1 JP WO2019176806 A1 JPWO2019176806 A1 JP WO2019176806A1 JP 2020506484 A JP2020506484 A JP 2020506484A JP 2020506484 A JP2020506484 A JP 2020506484A JP WO2019176806 A1 JPWO2019176806 A1 JP WO2019176806A1
- Authority
- JP
- Japan
- Prior art keywords
- class
- label
- machine learning
- correct
- error
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 64
- 238000000034 method Methods 0.000 title abstract description 10
- 238000012549 training Methods 0.000 claims abstract description 27
- 238000013528 artificial neural network Methods 0.000 claims abstract description 26
- 210000003484 anatomy Anatomy 0.000 claims abstract description 16
- 230000006870 function Effects 0.000 claims abstract description 14
- 238000004364 calculation method Methods 0.000 claims description 16
- 230000010354 integration Effects 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 3
- 230000009897 systematic effect Effects 0.000 claims description 2
- 238000002372 labelling Methods 0.000 abstract description 32
- 238000013527 convolutional neural network Methods 0.000 abstract description 7
- 230000008878 coupling Effects 0.000 abstract description 3
- 238000010168 coupling process Methods 0.000 abstract description 3
- 238000005859 coupling reaction Methods 0.000 abstract description 3
- 210000004072 lung Anatomy 0.000 description 36
- 210000000621 bronchi Anatomy 0.000 description 19
- 210000004204 blood vessel Anatomy 0.000 description 12
- 238000010586 diagram Methods 0.000 description 8
- 230000011218 segmentation Effects 0.000 description 5
- 238000002591 computed tomography Methods 0.000 description 4
- 210000000056 organ Anatomy 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 2
- 210000004027 cell Anatomy 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 210000001165 lymph node Anatomy 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 206010011732 Cyst Diseases 0.000 description 1
- 206010027476 Metastases Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000007596 consolidation process Methods 0.000 description 1
- 208000031513 cyst Diseases 0.000 description 1
- 239000005338 frosted glass Substances 0.000 description 1
- 230000002757 inflammatory effect Effects 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 230000009401 metastasis Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/18—File system types
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30061—Lung
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Public Health (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Pathology (AREA)
- Library & Information Science (AREA)
- Quality & Reliability (AREA)
- Veterinary Medicine (AREA)
- Optics & Photonics (AREA)
- Animal Behavior & Ethology (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Surgery (AREA)
- High Energy & Nuclear Physics (AREA)
- Heart & Thoracic Surgery (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
ラベル付けが混在する学習データを用いて、ボリュームデータに複数のラベルを一挙に精度良く付するラベリングの機械学習が可能な機械学習装置および方法を提供する。ニューラルネットワーク(14)は、ラベリングの対象となるクラスがn種類の学習データDi(i=1,2,…n)のマルチスライス画像の入力を受け付け、畳み込みニューラルネットワーク(CNN)などによって、n個の解剖学的構造iの予測マスクを作成する(S1)。機械学習部(13)は、学習データDiに対応するクラスの予測精度acc(i)を、学習データDiごとに算出する(S2)。機械学習部(13)は、予測精度acc(i)と正解マスクGiとの間の誤差diの重み付き平均Mを算出する。機械学習部(13)は、損失関数Lossで学習損失を算出する(S4)。機械学習部(13)は、損失関数Lossで算出された学習損失の値に応じて、ニューラルネットワーク(14)の各結合荷重を出力層側から入力層側へ変化させていく(S5)。
Description
本発明は機械学習装置および方法に関し、特に、画像の構造の分類(セグメンテーション)を行う機械学習モデルを構築するための機械学習装置および方法に関する。
従来、CT(Computed Tomography)画像など3次元の医用画像データ(ボリュームデータ)に対して、各画素値が複数のラベルのいずれかに属するかを決定する学習済みモデルが存在する。
例えば非特許文献1では、画像のセグメンテーションに関して、ニューラルネットワークの末端においてsoftmax層を用いて正規化された確率マスクを計算し、重み付けされた交差エントロピーで学習損失を計算することで、大小の特徴に関する誤ったセグメンテーションの貢献を調整する技術が開示されている。
また非特許文献2では、3次元CT画像を入力すると、各ボクセルが「肺」、「脳」、「肝臓」、「肋骨」、「背骨」、「脂肪」、「それ以外」のいずれに属するかを一挙に決定(ラベリング)する学習モデルが提案されている。
Jonathan Long, Evan Shelhamer, Trevor Darrell, UC Berkeley "Fully Convolutional Neural Network for Semantic Segmentation"、インターネット<URL https://people.eecs.berkeley.edu/~jonlong/long_shelhamer_fcn.pdf>
Fausto Milletari, Nassir Navab, Seyed-Ahmad Ahmadi, "Fully Convolutional Neural Networks for Volumetric Medical Image Segmentation"、インターネット<URL https://arxiv.org/abs/1606.04797>
このような学習モデルを学習させるために、3次元CT画像の各ボクセルに複数のラベルが付された学習用データを用意することは、主に労力の点から非常に困難である。
「肺」のみの正解ラベルがついた学習用データ、「脳」のみの正解ラベルがついた学習用データなど、単一の臓器のラベルが付いた学習用データをそれぞれ入手し、これらを持ち寄って複数の臓器のラベリングのための学習用データとすれば、労力は小さい。
もっとも、この場合、例えば「肺」と「肺気管支」の正解ラベルを入手した場合、「肺気管支」のボクセルに「肺」のラベルのみが付いた学習データ、「肺気管支」のボクセルに「肺気管支」のラベルのみが付いた学習データが混在しうる。
非特許文献1の技術では、各ピクセルには1つのラベルしか付けることができない。また、重み付けされた交差エントロピーで学習損失を計算して大小の特徴のセグメンテーションへの貢献を調整すると、小さい特徴から誇張されたセグメンテーションが得られる場合がある。さらに非特許文献2の技術では、ニューラルネットワークの最終層でsoftmax関数を用いて正規化された確率マスクを計算するため、単一のラベルが一貫性なく別々に付されたデータの集合を学習データとすることができない。
本発明は、一貫性のないラベル付けが混在する学習データを用いて、ボリュームデータに複数のラベルを一挙に精度良く付するラベリングの機械学習が可能な機械学習装置および方法を提供することを目的とする。
本発明の第1の態様に係る機械学習装置は、断層画像のボリュームデータとボリュームデータにおける第1のクラスの正解ラベルとを含む第1学習データの入力を受け付ける第1学習データ入力部と、ボリュームデータとボリュームデータにおける第1のクラスと異なる第2のクラスの正解ラベルとを含む第2学習データの入力を受け付ける第2学習データ入力部と、ニューラルネットワークにより、第1学習データ入力部が入力を受け付けた第1学習データのボリュームデータから第1のクラスの予測ラベルを作成するとともに、第2学習データ入力部が入力を受け付けた第2学習データのボリュームデータから第1のクラスの予測ラベルとは独立した第2のクラスの予測ラベルを作成する予測ラベル作成部と、重み付き平均により、第1のクラスの予測ラベルと第1のクラスの正解ラベルとの間の誤差と、第2のクラスの予測ラベルと第2のクラスの正解ラベルとの間の誤差との統合誤差を算出する統合誤差算出部と、統合誤差算出部の算出した統合誤差に基づいてボリュームデータに第1のクラスのラベルおよび第2のクラスのラベルの双方の予測ラベルを作成するようニューラルネットワークを機械学習させる機械学習部と、を備える機械学習装置を提供する。
本発明の第2の態様に係る機械学習装置において、統合誤差算出部は、第1のクラスの予測ラベルと第1のクラスの正解ラベルとの間のIoU(Intersection over Union)および第2のクラスの予測ラベルと第2のクラスの正解ラベルとの間のIoU(Intersection over Union)に基づいて統合誤差を算出する。
本発明の第3の態様に係る機械学習装置において、統合誤差算出部は、第1のクラスの予測ラベルと第1のクラスの正解ラベルとの間のDice係数および第2のクラスの予測ラベルと第2のクラスの正解ラベルとの間のDice係数に基づいて検出精度を算出する。
本発明の第4の態様に係る機械学習装置において、第1のクラスの予測ラベルおよび第2のクラスの予測ラベルは、シグモイド関数に基づいて作成される。
本発明の第5の態様に係る機械学習装置において、断層画像は3次元医用断層画像であり、第1のクラスおよび第2のクラスは解剖学的構造を含む。
本発明の第6の態様に係る機械学習装置において、統合誤差算出部は、第1のクラスと第2のクラスとの間の解剖学的系統上の関係を示す関連性データに基づき、第1のクラスの正解ラベルから第2のクラスの正解ラベルを作成した上で、第1のクラスの予測ラベルと第1のクラスの正解ラベルとの間の誤差と、第2のクラスの予測ラベルと第2のクラスの正解ラベルとの間の誤差との統合誤差を算出する。
本発明の第7の態様に係る機械学習装置において、関連性データにおいて、第2のクラスは第1のクラスよりも解剖学的に上位の関係にある。
本発明の第8の態様に係る機械学習方法において、コンピュータが、断層画像のボリュームデータとボリュームデータにおける第1のクラスの正解ラベルとを含む第1学習データの入力を受け付けるステップと、ボリュームデータとボリュームデータにおける第1のクラスと異なる第2のクラスの正解ラベルとを含む第2学習データの入力を受け付けるステップと、ニューラルネットワークにより、第1学習データのボリュームデータから第1のクラスの予測ラベルを作成するとともに、第2学習データのボリュームデータから第1のクラスの予測ラベルとは独立した第2のクラスの予測ラベルを作成するステップと、重み付き平均により、第1のクラスの予測ラベルと第1のクラスの正解ラベルとの間の誤差と、第2のクラスの予測ラベルと第2のクラスの正解ラベルとの間の誤差との統合誤差を算出するステップと、統合誤差に基づいてボリュームデータに第1のクラスのラベルおよび第2のクラスのラベルの双方の予測ラベルを作成するようニューラルネットワークを機械学習させるステップと、を実行する。
この機械学習方法をコンピュータに実行させるための機械学習プログラム、およびこの機械学習プログラムによって機械学習された機械学習済みモデルも本発明に含まれる。更に、非一時的かつコンピュータ読取可能な記録媒体であって、記録媒体に格納された指令がコンピュータによって読み取られた場合に上記の機械学習プログラムをコンピュータに実行させる記録媒体も本発明に含まれる。
この発明によると、独立して予測の誤差が算出された第1のクラスと第2のクラスに関して統合誤差を算出して機械学習を行うことが可能であり、マルチラベリングされていない学習データを用いたマルチラベリングの機械学習が可能となる。
図1は本発明の好ましい実施形態に係る機械学習装置1の概略構成図である。機械学習装置1は、学習データ入力部11、関係性データ入力部12、機械学習部13、ニューラルネットワーク14を備える。機械学習装置1は、GPU(Graphics Processing Unit)などのプロセッサを備えるコンピュータで構成され、上記の各部は、プロセッサで実行されるプログラムにより実現される。機械学習装置1はニューラルネットワーク14を含んでいてもよいし、含んでいなくてもよい。
学習データ入力部11は、多数のアキシャル断層画像(マルチスライス画像)からなるボリュームデータと、そのボリュームデータに含まれる各ボクセルに対し、医師などが手動で、「肺」、「気管支」、「血管」、「空気充填パターン」「その他(バックグラウンド)」などの正解のラベルを付すこと(ラベリング)で、画像内の各画素が解剖学的構造の種類(クラス)に分類された正解マスクとの組(学習データ)の入力を受け付ける。
学習データの正解マスクにおいて、ボクセルに対するラベリングは、少なくとも1つ存在すればよく、1つのボクセルに対して複数のラベリングはされていてもいなくてもよい。説明の簡略のため、学習データ入力部11に入力される学習データの各ボクセルには、「その他」か、あるいは「その他」以外の1つのラベルが付されているものとする。以下ではこれをシングルラベリングと呼ぶ。
例えば学習データAの正解マスクの各ボクセルには「肺」または「その他」のラベルが付され、学習データAと異なる学習データBの正解マスクの各ボクセルには「気管支」または「その他」のラベルが付され、学習データAおよび学習データBと異なる学習データCの正解マスクの各ボクセルには「血管」または「その他」が付されているものとする。学習データ入力部11はこれらの学習データA・B・Cを含む、シングルラベリングの対象がそれぞれ異なる(すなわちシングルラベリングの対象がそれぞれ独立した)学習データを入力する。ただし、1つの正解マスクの異なるボクセルのそれぞれに、異なる種類のシングルラベリングが付与されていてもよい。例えば、1つの正解マスクのあるボクセルに「気管支」のラベルが付与され、かつ、同一の正解マスクの別のボクセルに「血管」のラベルが付与されていてもよい。
関係性データ入力部12は、ニューラルネットワーク14でシングルラベリングされた後のボリュームデータのボクセル群すなわちクラス同士の関係を示す関係性データの入力を受け付ける。
機械学習部13は、学習データ入力部11に入力された学習データと、関係性データ入力部12に入力された構造関係データとに基づいて、ニューラルネットワーク14に機械学習を行わせる。
ニューラルネットワーク14は畳み込みニューラルネットワーク(CNN: Convolutional Neural Network)とシグモイド層などによって構成される多層の分類器である。ニューラルネットワーク14は、機械学習部13によって機械学習がされたモデルに従って、入力された画像の各ボクセルに、「肺」、「気管支」、「血管」、「空気充填パターン」「その他(バックグラウンド)」などのラベルを付すことで、画像内の構造物を各クラスに分類する。
ニューラルネットワーク14は、各ボクセルに対し、2以上の複数のラベル付け(マルチラベリング)を行うことができる。例えば、ニューラルネットワーク14は、あるボクセルに対し「気管支」かつ「肺」のラベリングを行うことができる。
図2は関係性データの一例である。この関係性データは、各クラスの関係を階層構造で示している。例えば、「肺」のクラスに関係する下位の階層の解剖学的構造として、「血管(Blood vessel)」、「コンソリデ−ション(Consolidation: 肺胞が空気以外のもの、炎症巣等におきかえられて肺が固くなった状態)」、「間質影(Glass shadow)」、「空気充填パターン(Air filled pattern)」、「気管支」などの各クラスが存在する。
また、「間質影(Glass shadow)」のクラスに関係する下位の階層の解剖学的構造として、「結節影(Nodular shadow)」、「すりガラス影(Leaf frosted glass shadow)」のクラスが存在する。
また、「空気充填パターン(Air filled pattern)」のクラスに関係する下位の階層の解剖学的構造として、「嚢胞(Cyst)」、「蜂窩肺(Honeycomb)」、「空洞(Cavity)」のクラスが存在する。
この階層的関係は、クラス同士の解剖学的な包含関係を示している。例えば、「結節影」は「間質影」に含まれ、「間質影」は「肺」に含まれる。従って、「結節影」のラベルが付されたボクセルの正解マスクからは、「結節影」、「間質影」、「肺」のラベリングのいずれも学習させることができる。
なお、関係性データにおける階層構造は親子関係でなくてもよい。例えば転移(metastasis)は、「気管支」および「リンパ節」の下位の階層に位置するが、「気管支」と「リンパ節」の間には上下関係がないものとすることができる。
図3は機械学習処理のフローチャートである。この機械学習処理を機械学習装置1のプロセッサに実行させるためのプログラムは、機械学習装置1のRAM(Random Access Memory)などのコンピュータ読み取り可能な有形記憶媒体に記憶されている。
まず、S1(予測マスク作成ステップ)において、ニューラルネットワーク14は、ラベリングの対象となるクラスがn種類の学習データDi(i=1,2,…n)のマルチスライス画像の入力を受け付け、畳み込みニューラルネットワークなどによって、n個の解剖学的構造iの予測マスク(ニューラルネットワーク14にて各クラスに分類されたボクセル群の集合)を作成する。なお予測マスクや正解マスクはボリュームレンダリングによりディスプレイ画面に表示されてもよい。
S2(予測精度算出ステップ)では、機械学習部13は、学習データDiのボクセルに対応するクラスCiの予測精度acc(i)(ラベリングの確からしさを示す値)を、学習データDiごとに算出する。この予測精度acc(i)は、以下のsigmoid関数で表され、0〜1の間の値をとる。
acc(i)=1/{1+exp(-vi)}
viはロジット(logit)である。
viはロジット(logit)である。
ニューラルネットワーク14はマルチラベリングが可能なため、入力ボクセルに対する各クラスのマルチラベリングの確からしさはsoftmax層を用いたsoftmax関数で求めることができる。これはソフトラベルと呼ばれる。しかし本実施形態では、正解マスクはシングルラベリングであるから、ソフトラベルは計算できない。そこで、入力ボクセルがクラスCiであるか否かの2値分類の確からしさを示すsigmoid関数を用いて、各クラスCiの独立した予測精度acc(i)を求める。
S3(重み付き誤差平均算出ステップ)では、機械学習部13は、学習データDiの1つのボクセルに対応するクラスCiの予測精度acc(i)と、そのボクセルに対応する正解マスク(Ground Truth)Giとから、そのボクセルのクラスの予測精度acc(i)と正解マスクGiとの間の誤差diの重み付き平均Mを算出する。
誤差diの重みαiは、Dice係数である。すなわち、学習データDiの各ボクセルに対する機械学習によるクラスの予測結果の集合をPr(i)、学習データDiのクラスCiの正解マスク(Ground Truth)の集合をHt、Pr(i)とHtの共通集合(intersection)のボクセル数をBi,Pr(i)のボクセル数をAi+Bi、Htのボクセル数をBi+Ci、重みをw(wは1以上)、クラスの総数をnとすると、
αi=w*Bi/(Ai+w*Bi+Ci)
M=Σαidi/n
で定義される。誤差diは2乗誤差や絶対値誤差など、公知かつ任意のもので定義される。例えば、誤差diが2乗誤差の場合、機械学習の予測が正解マスクと一致(正解)であれば0、正解マスクと不一致(不正解)であれば、不一致の度合に応じた1以下の値となる。この重みαiを適宜調整すれば、解剖学的構造の大小が学習に与える影響を除くことができる。
αi=w*Bi/(Ai+w*Bi+Ci)
M=Σαidi/n
で定義される。誤差diは2乗誤差や絶対値誤差など、公知かつ任意のもので定義される。例えば、誤差diが2乗誤差の場合、機械学習の予測が正解マスクと一致(正解)であれば0、正解マスクと不一致(不正解)であれば、不一致の度合に応じた1以下の値となる。この重みαiを適宜調整すれば、解剖学的構造の大小が学習に与える影響を除くことができる。
なおA+B+CはPr(i)とHtの和集合(Union)のボクセル数である。従ってw=1の場合は、αiは、IoU(Intersection over Union)となる。クラスCiの予測精度が上がるほどα(i)は1に近づく。Bi=0の場合はαi=0となる。すなわち、そもそも正解マスクにおいて正解が定義されていないクラスについては、重み付き平均Mの算出において、このクラスの予測に関する誤差が無視される。例えば、あるボクセルについて「肺」の予測が行われたとしても、正解マスクにおいてそのボクセルに「肺」のラベルが与えられていなければ、「肺」の誤差diに対応する重みαiは0であり、「肺」の誤差diは重み付平均Sの値に影響しない。
一方、あるボクセルについて「肺」および「空気充填パターン」のクラスの予測がそれぞれ独立して行われた場合、正解マスクにおいてそのボクセルに「肺」および「空気充填パターン」のラベルが与えられていれば、「肺」の誤差d1に対応する重みα1、「空気充填パターン」の誤差d2に対応する重みα2はそれぞれ0でない。この場合、誤差d1および誤差d2の双方の値が、重みα1、α2の値に応じてSの値に反映される。
ただし、関係性データにおいて、正解マスクの解剖学的構造の上位の解剖学的構造については、正解マスクにおいて正解が定義されていないクラスであっても、誤差は無視しない。例えば、あるボクセルについて「肺」および「気管支」の独立した予測が行われ、かつそのボクセルの正解マスクには「気管支」のラベルのみが定義されている場合、そのボクセルには疑似的に「肺」の正解ラベルを与えた上で、「肺」の誤差および「気管支」の誤差の重み付き平均Mを算出する。なぜなら、「肺」は「気管支」を包含する上位の解剖学的構造であるため、「気管支」のラベリングが正解なら、「肺」のラベリングも当然に正解だからである。このように解剖学的構造の階層的関係に応じて疑似的に正解ラベルを与えることで、予めマルチラベリングの正解を用意する手間を省ける。
ただし検出精度の算出式は上記に限られない。一般的には、
で表すことができる。f1は
をパラメータとする関数、f2は
をパラメータとする関数である。
S3(損失算出ステップ)では、機械学習部13は、損失関数Lossで学習損失を算出する。
ここで、損失関数Lossは、重みづけ平均Mの逆数によって定義される。ただし損失関数の式は上記に限られない。
S4(バックプロパゲーションステップ)では、機械学習部13は、損失関数Lossで算出された学習損失の値に応じて、ニューラルネットワーク14の各結合荷重を出力層側から入力層側へ変化させていく。なお上記のS1〜S4は任意の回数繰り返すことができる。これにより、正解マスクで定義されたクラスとその上位の解剖学的構造のクラスの双方に対する損失が最小化されるように、ニューラルネットワーク14の結合荷重が更新される。これにより、シングルラベリングの正解マスクに基づくマルチラベリングの機械学習、およびこの機械学習によるマルチラベリング可能な機械学習済みモデルが得られる。
図4ないし図7は予測クラスに応じたバックプロパゲーションの概念を説明する図である。
このうち図4は「肺」の正解マスクG1と、ボリュームデータVから予測された「肺」の予測マスクP1との間の学習損失によるバックプロパゲーションを示す。この場合は「肺」の学習損失だけが考慮されたバックプロパゲーションが行われる。
また図5は「蜂窩肺」の正解マスクG2と、ボリュームデータVから予測された「蜂窩肺」の予測マスクP2との間の学習損失によるバックプロパゲーションを示す。この場合は「蜂窩肺」とその上位の解剖学的構造の「空気充填パターン」および「肺」の学習損失の双方(あるいはいずれか一方)が考慮されたバックプロパゲーションが行われる。
また図6は「気管支」および「血管」の正解マスクG3と、ボリュームデータVから予測された「気管支」および「血管」の予測マスクP3との間の学習損失によるバックプロパゲーションを示す。この場合は「気管支」および「血管」とそれらの上位の解剖学的構造の「肺」の学習損失の双方が考慮されたバックプロパゲーションが行われる。
また図7は「血管」の正解マスクG4と、ボリュームデータVから予測された「血管」の予測マスクP4との間の学習損失によるバックプロパゲーションを示す。この場合は「血管」とこの上位の解剖学的構造の「肺」の学習損失の双方が考慮されたバックプロパゲーションが行われる。
このように、解剖学的に関連性のある臓器の予測に関してまとめてバックプロパゲーションを行うことで、シングルラベリングされた学習データを用いた効率的なマルチラベリングの機械学習が可能となる。このため、解剖学的に一貫したルールでマルチラベリングされた学習用のデータを大量に用意する必要がない。また、予測精度に基づいてバックプロパゲーションするため、精度の高いマルチラベリングが可能となる。
なお本発明は、3次元の医用画像に限らず、各種の2次元画像または3次元画像に適用できる。2次元画像の場合は、上記のボクセルをピクセルに置き換えた処理を行えば、シングルラベリングされた学習データを用いた効率的なマルチラベリングの機械学習が可能となる。
1 機械学習装置
11 学習データ入力部
12 関係性データ入力部
13 機械学習部
14 ニューラルネットワーク
11 学習データ入力部
12 関係性データ入力部
13 機械学習部
14 ニューラルネットワーク
Claims (12)
- 断層画像のボリュームデータと前記ボリュームデータにおける第1のクラスの正解ラベルとを含む第1学習データの入力を受け付ける第1学習データ入力部と、
前記ボリュームデータと前記ボリュームデータにおける第1のクラスと異なる第2のクラスの正解ラベルとを含む第2学習データの入力を受け付ける第2学習データ入力部と、
ニューラルネットワークにより、前記第1学習データ入力部が入力を受け付けた第1学習データのボリュームデータから第1のクラスの予測ラベルを作成するとともに、前記第2学習データ入力部が入力を受け付けた第2学習データのボリュームデータから第1のクラスの予測ラベルとは独立した第2のクラスの予測ラベルを作成する予測ラベル作成部と、
重み付き平均により、前記第1のクラスの予測ラベルと前記第1のクラスの正解ラベルとの間の誤差と、前記第2のクラスの予測ラベルと前記第2のクラスの正解ラベルとの間の誤差との統合誤差を算出する統合誤差算出部と、
前記統合誤差算出部の算出した統合誤差に基づいて前記ボリュームデータに前記第1のクラスのラベルおよび前記第2のクラスのラベルの双方の予測ラベルを作成するよう前記ニューラルネットワークを機械学習させる機械学習部と、
を備える機械学習装置。 - 前記統合誤差算出部は、前記第1のクラスの予測ラベルと前記第1のクラスの正解ラベルとの間のIoU(Intersection over Union)および前記第2のクラスの予測ラベルと前記第2のクラスの正解ラベルとの間のIoU(Intersection over Union)に基づいて統合誤差を算出する請求項1に記載の機械学習装置。
- 前記統合誤差算出部は、前記第1のクラスの予測ラベルと前記第1のクラスの正解ラベルとの間のDice係数および前記第2のクラスの予測ラベルと前記第2のクラスの正解ラベルとの間のDice係数に基づいて検出精度を算出する請求項1に記載の機械学習装置。
- 前記第1のクラスの予測ラベルおよび前記第2のクラスの予測ラベルは、シグモイド関数に基づいて作成される請求項1〜3のいずれか1項に記載の機械学習装置。
- 前記断層画像は3次元医用断層画像であり、前記第1のクラスおよび前記第2のクラスは解剖学的構造を含む請求項1〜4のいずれか1項に記載の機械学習装置。
- 前記統合誤差算出部は、前記第1のクラスと前記第2のクラスとの間の解剖学的系統上の関係を示す関連性データに基づき、前記第1のクラスの正解ラベルから前記第2のクラスの正解ラベルを作成した上で、前記前記第1のクラスの予測ラベルと前記第1のクラスの正解ラベルとの間の誤差と、前記第2のクラスの予測ラベルと前記第2のクラスの正解ラベルとの間の誤差との統合誤差を算出する請求項5に記載の機械学習装置。
- 前記関連性データにおいて、前記第2のクラスは前記第1のクラスよりも解剖学的に上位の関係にある請求項6に記載の機械学習装置。
- 前記統合誤差算出部は、前記第1のクラスの正解ラベルが存在しないボリュームデータの領域については、前記第1のクラスの予測ラベルと前記第1のクラスの正解ラベルとの間の誤差を無視した統合誤差を算出する請求項1〜7のいずれか1項に記載の機械学習装置。
- コンピュータが、
断層画像のボリュームデータと前記ボリュームデータにおける第1のクラスの正解ラベルとを含む第1学習データの入力を受け付けるステップと、
前記ボリュームデータと前記ボリュームデータにおける第1のクラスと異なる第2のクラスの正解ラベルとを含む第2学習データの入力を受け付けるステップと、
ニューラルネットワークにより、前記第1学習データのボリュームデータから第1のクラスの予測ラベルを作成するとともに、前記第2学習データのボリュームデータから第1のクラスの予測ラベルとは独立した第2のクラスの予測ラベルを作成するステップと、
重み付き平均により、前記第1のクラスの予測ラベルと前記第1のクラスの正解ラベルとの間の誤差と、前記第2のクラスの予測ラベルと前記第2のクラスの正解ラベルとの間の誤差との統合誤差を算出するステップと、
前記統合誤差に基づいて前記ボリュームデータに前記第1のクラスのラベルおよび前記第2のクラスのラベルの双方の予測ラベルを作成するよう前記ニューラルネットワークを機械学習させるステップと、
を実行する機械学習方法。 - 請求項9に記載の機械学習方法をコンピュータに実行させるための機械学習プログラム。
- 請求項10に記載の機械学習プログラムによって機械学習された機械学習済みモデル。
- 非一時的かつコンピュータ読取可能な記録媒体であって、前記記録媒体に格納された指令がコンピュータによって読み取られた場合に請求項10に記載の機械学習プログラムをコンピュータに実行させる記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018049905 | 2018-03-16 | ||
JP2018049905 | 2018-03-16 | ||
PCT/JP2019/009479 WO2019176806A1 (ja) | 2018-03-16 | 2019-03-08 | 機械学習装置および方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2019176806A1 true JPWO2019176806A1 (ja) | 2021-04-08 |
Family
ID=67908256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020506484A Pending JPWO2019176806A1 (ja) | 2018-03-16 | 2019-03-08 | 機械学習装置および方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11823375B2 (ja) |
JP (1) | JPWO2019176806A1 (ja) |
WO (1) | WO2019176806A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220246137A1 (en) * | 2019-06-10 | 2022-08-04 | Nippon Telegraph And Telephone Corporation | Identification model learning device, identification device, identification model learning method, identification method, and program |
US11263497B2 (en) * | 2019-06-21 | 2022-03-01 | StraxCorp Pty. Ltd. | Method and system for machine learning classification based on structure or material segmentation in an image |
JP7292184B2 (ja) * | 2019-11-11 | 2023-06-16 | 富士フイルム株式会社 | 学習装置、学習方法および学習済みモデル |
CN111476309B (zh) * | 2020-04-13 | 2023-05-23 | 抖音视界有限公司 | 图像处理方法、模型训练方法、装置、设备及可读介质 |
JP7095726B2 (ja) * | 2020-11-16 | 2022-07-05 | 沖電気工業株式会社 | 学習装置、学習方法および学習プログラム |
US20230342920A1 (en) * | 2021-04-23 | 2023-10-26 | Fcuro Inc. | Information processing apparatus, information processing method, information processing program, and information processing system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017073373A1 (ja) * | 2015-10-30 | 2017-05-04 | 株式会社モルフォ | 学習システム、学習装置、学習方法、学習プログラム、教師データ作成装置、教師データ作成方法、教師データ作成プログラム、端末装置及び閾値変更装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103917165B (zh) * | 2011-08-26 | 2016-02-24 | Ebm株式会社 | 用于血流性状诊断的系统 |
US9122950B2 (en) * | 2013-03-01 | 2015-09-01 | Impac Medical Systems, Inc. | Method and apparatus for learning-enhanced atlas-based auto-segmentation |
JP6678930B2 (ja) * | 2015-08-31 | 2020-04-15 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 分類モデルを学習する方法、コンピュータ・システムおよびコンピュータ・プログラム |
JP6656357B2 (ja) * | 2016-04-04 | 2020-03-04 | オリンパス株式会社 | 学習方法、画像認識装置およびプログラム |
CN107220980B (zh) * | 2017-05-25 | 2019-12-03 | 重庆师范大学 | 一种基于全卷积网络的mri图像脑肿瘤自动分割方法 |
WO2019167882A1 (ja) * | 2018-02-27 | 2019-09-06 | 富士フイルム株式会社 | 機械学習装置および方法 |
-
2019
- 2019-03-08 JP JP2020506484A patent/JPWO2019176806A1/ja active Pending
- 2019-03-08 WO PCT/JP2019/009479 patent/WO2019176806A1/ja active Application Filing
-
2020
- 2020-09-10 US US17/017,647 patent/US11823375B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017073373A1 (ja) * | 2015-10-30 | 2017-05-04 | 株式会社モルフォ | 学習システム、学習装置、学習方法、学習プログラム、教師データ作成装置、教師データ作成方法、教師データ作成プログラム、端末装置及び閾値変更装置 |
Non-Patent Citations (5)
Title |
---|
GONG,YUNCHAO ET AL.: ""Deep Convolutional Ranking for Multilabel Image Annotation"", [ONLINE], vol. arXiv:1312.4894v2, JPN6019018623, 14 April 2014 (2014-04-14), ISSN: 0004558653 * |
OONO, KENTA: "Google グループ[Chainer User Group]内の投稿"正解ラベルが複数ある場合にはどのような設計になりますか"", [ONLINE], JPN6019018626, 7 December 2015 (2015-12-07), ISSN: 0004558654 * |
RAHMAN, MD. ATIQUR ET AL.: ""Optimizing Intersection-Over-Union in Deep Neural Networks for Image Segmentation"", INTERNATIONAL SYMPOSIUM ON VISUAL COMPUTING 2016(ISVC2016):ADVANCES IN VISUAL COMPUTING, JPN6019018630, 10 December 2016 (2016-12-10), ISSN: 0004558656 * |
SHEN, TONG ET AL.: ""Learning Multi-level Region Consistency with Dense Multi-label Networks for Semantic Segmentation"", PROCEEDINGS OF THE TWENTY-SIXTH INTERNATIONAL JOINT CONFERENCE ON ARTIFICIAL INTELLIGENCE (IJCAI-17), JPN6019018621, 2017, ISSN: 0004558655 * |
WEI, YUNCHAO ET AL.: ""CNN: Single-label to Multi-label"", [ONLINE], vol. arXiv:1406.5726v3, JPN6019018619, 9 July 2014 (2014-07-09), ISSN: 0004558652 * |
Also Published As
Publication number | Publication date |
---|---|
US20200410677A1 (en) | 2020-12-31 |
US11823375B2 (en) | 2023-11-21 |
WO2019176806A1 (ja) | 2019-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPWO2019176806A1 (ja) | 機械学習装置および方法 | |
JP7022195B2 (ja) | 機械学習装置、方法およびプログラム並びに記録媒体 | |
Zhou et al. | Deep learning of the sectional appearances of 3D CT images for anatomical structure segmentation based on an FCN voting method | |
Zhang et al. | Robust medical image segmentation from non-expert annotations with tri-network | |
Peiris et al. | Duo-SegNet: adversarial dual-views for semi-supervised medical image segmentation | |
Gao et al. | Bone age assessment based on deep convolution neural network incorporated with segmentation | |
US20230230241A1 (en) | System and method for detecting lung abnormalities | |
Wang et al. | Uncertainty-guided efficient interactive refinement of fetal brain segmentation from stacks of MRI slices | |
CN113538305B (zh) | 与covid-19相关联的异常图案的医学图像合成 | |
Cheng et al. | DDU-Net: A dual dense U-structure network for medical image segmentation | |
CN112801107B (zh) | 一种图像分割方法和电子设备 | |
Feng et al. | Deep learning for chest radiology: a review | |
Rebaud et al. | Simplicity is all you need: out-of-the-box nnUNet followed by binary-weighted radiomic model for segmentation and outcome prediction in head and neck PET/CT | |
CN111340209A (zh) | 网络模型训练方法、图像分割方法、病灶定位方法 | |
WO2023207389A1 (zh) | 数据处理方法、装置、程序产品、计算机设备和介质 | |
Meng et al. | Radiomics-enhanced deep multi-task learning for outcome prediction in head and neck cancer | |
CN114037651A (zh) | 根据x射线图像的与covid-19相关联的异常模式的评估 | |
CN115187819A (zh) | 图像分类模型的训练方法、装置、电子设备及存储介质 | |
Duvieusart et al. | Multimodal cardiomegaly classification with image-derived digital biomarkers | |
JP6952185B2 (ja) | 機械学習装置および方法 | |
CN117437419A (zh) | 一种肺炎ct图像的病灶分割方法、系统、设备及介质 | |
Wang et al. | Interactive 3D segmentation editing and refinement via gated graph neural networks | |
CN112750110A (zh) | 基于神经网络对肺部病灶区进行评估的评估系统和相关产品 | |
Dudurych et al. | Reproducibility of a combined artificial intelligence and optimal-surface graph-cut method to automate bronchial parameter extraction | |
Bhalla et al. | Basic principles of AI simplified for a medical practitioner: pearls and pitfalls in evaluating AI algorithms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210730 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220202 |