JP2024507290A - 弱教師あり深層学習人工知能を利用した乳房超音波診断の方法及びシステム{Method and system for breast ultrasonic image diagnosis using weakly-supervised deep learning artificial intelligence} - Google Patents
弱教師あり深層学習人工知能を利用した乳房超音波診断の方法及びシステム{Method and system for breast ultrasonic image diagnosis using weakly-supervised deep learning artificial intelligence} Download PDFInfo
- Publication number
- JP2024507290A JP2024507290A JP2023572502A JP2023572502A JP2024507290A JP 2024507290 A JP2024507290 A JP 2024507290A JP 2023572502 A JP2023572502 A JP 2023572502A JP 2023572502 A JP2023572502 A JP 2023572502A JP 2024507290 A JP2024507290 A JP 2024507290A
- Authority
- JP
- Japan
- Prior art keywords
- deep learning
- image
- input data
- malignancy
- pom
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 150
- 238000000034 method Methods 0.000 title claims abstract description 80
- 210000000481 breast Anatomy 0.000 title claims abstract description 62
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 34
- 238000003745 diagnosis Methods 0.000 title claims abstract description 34
- 238000002604 ultrasonography Methods 0.000 claims abstract description 121
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 89
- 201000011510 cancer Diseases 0.000 claims abstract description 85
- 206010028980 Neoplasm Diseases 0.000 claims abstract description 69
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 65
- 230000003211 malignant effect Effects 0.000 claims abstract description 53
- 230000036210 malignancy Effects 0.000 claims abstract description 51
- 238000011176 pooling Methods 0.000 claims abstract description 27
- 238000003748 differential diagnosis Methods 0.000 claims abstract description 22
- 238000012800 visualization Methods 0.000 claims abstract description 20
- 238000007781 pre-processing Methods 0.000 claims abstract description 18
- 230000004913 activation Effects 0.000 claims description 35
- 230000008569 process Effects 0.000 claims description 27
- 238000010200 validation analysis Methods 0.000 claims description 23
- 230000003287 optical effect Effects 0.000 claims description 16
- 238000013503 de-identification Methods 0.000 claims description 15
- 238000002405 diagnostic procedure Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 10
- 238000010606 normalization Methods 0.000 claims description 9
- 238000012217 deletion Methods 0.000 claims description 7
- 230000037430 deletion Effects 0.000 claims description 7
- 238000003384 imaging method Methods 0.000 claims description 7
- 238000013519 translation Methods 0.000 claims description 7
- 238000009966 trimming Methods 0.000 claims description 7
- 238000013434 data augmentation Methods 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims description 4
- 229940079593 drug Drugs 0.000 claims description 3
- 239000003814 drug Substances 0.000 claims description 3
- 230000003902 lesion Effects 0.000 abstract description 27
- 238000010586 diagram Methods 0.000 abstract description 25
- 238000013136 deep learning model Methods 0.000 description 31
- 206010006187 Breast cancer Diseases 0.000 description 22
- 208000026310 Breast neoplasm Diseases 0.000 description 22
- 238000012360 testing method Methods 0.000 description 11
- 230000004807 localization Effects 0.000 description 10
- 210000001519 tissue Anatomy 0.000 description 10
- 206010006272 Breast mass Diseases 0.000 description 9
- 230000011218 segmentation Effects 0.000 description 8
- 230000008901 benefit Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000007689 inspection Methods 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 238000012795 verification Methods 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000013480 data collection Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 201000010099 disease Diseases 0.000 description 3
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000001356 surgical procedure Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000001574 biopsy Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000000762 glandular Effects 0.000 description 2
- 210000005075 mammary gland Anatomy 0.000 description 2
- 238000009607 mammography Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 210000000779 thoracic wall Anatomy 0.000 description 2
- 208000004434 Calcinosis Diseases 0.000 description 1
- 206010052273 Dystrophic calcification Diseases 0.000 description 1
- 238000001347 McNemar's test Methods 0.000 description 1
- 206010030113 Oedema Diseases 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 208000009956 adenocarcinoma Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013103 analytical ultracentrifugation Methods 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000011976 chest X-ray Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000013399 early diagnosis Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 206010073095 invasive ductal breast carcinoma Diseases 0.000 description 1
- 201000010985 invasive ductal carcinoma Diseases 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000003607 modifier Substances 0.000 description 1
- 201000010879 mucinous adenocarcinoma Diseases 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 238000001907 polarising light microscopy Methods 0.000 description 1
- 229920006324 polyoxymethylene Polymers 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
- A61B8/0833—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
- A61B8/085—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
- A61B8/5223—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
- A61B8/0825—Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the breast, e.g. mammography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/467—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
- A61B8/469—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5269—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0895—Weakly supervised learning, e.g. semi-supervised or self-supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/72—Data preparation, e.g. statistical preprocessing of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/032—Recognition of patterns in medical or anatomical images of protuberances, polyps nodules, etc.
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Theoretical Computer Science (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Surgery (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Physiology (AREA)
- Probability & Statistics with Applications (AREA)
- Vascular Medicine (AREA)
- Image Analysis (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Image Processing (AREA)
Abstract
弱教師あり深層学習人工知能を利用した乳房超音波診断方法は、乳房超音波画像から患者の個人情報を削除し、学習に必要な画像領域だけを含む入力データを生成する超音波画像前処理段階;上記入力データを受信し、畳み込みニューラルネットワーク(CNN)及びグローバル平均プーリング(GAP)を利用し、受信された入力データから特徴マップを取得し再学習する深層学習段階;グローバル平均プーリング(GAP)を利用して上記入力データを正常、良性、悪性のうちいずれか1つと判別し、悪性と判別された場合は、判別の正確度を表す悪性確率(POM)を計算する鑑別診断段階;及び判別した結果を上記畳み込みニューラルネットワーク(CNN)を通じて逆伝播し、上記判別結果に寄与したピクセル別の寄与度を勾配と特徴量から計算し、計算されたピクセル別の寄与度に基づき判別に寄与した寄与領域を上記悪性確率(POM)と共に視覚化する寄与領域決定及び視覚化段階を含み、上記深層学習段階は、上記寄与領域及び上記悪性確率(POM)の検証された性能に基づいて学習される。本発明により、病変を表示する追加のアノテーション作業を省略することが可能であるため、完全教師ありアルゴリズムと比較したとき、作業効率が改善され、関心領域を悪性確率と共に視覚化して提供するため、診断の正確度が向上する。【選択図】 図1
Description
本発明は、乳房超音波画像を用いて乳がんを診断するための人工知能技術に係り、特に弱教師あり深層学習アルゴリズムを開発し、関心領域に対する画像アノテーションを行わずに、超音波画像を基に乳がんを診断し、診断に寄与した領域の位置特定及び視覚化を行う方法及びシステムに関する。
乳房超音波検査装置は、良性と悪性の乳房腫瘤(breast mass)の鑑別診断を行うために用いられる主な検査装置であり、診断的且つ検診的目的で用いられる。超音波は、特に高濃度乳房を持つ女性から、乳房撮影画像からは見つけにくい潜在性がん(occult cancer)を検出できるという証拠が次々と発見され、より一層関心を集めている。乳がんは、女性特有のがんのうち、発生率で1位を占めており、乳がんの早期診断は乳がんの致死率を下げるための重要な過程となる。超音波を利用した乳がん診断は、利便性、安定性、高い正確性から、乳房の病変の診断と観察に幅広く応用されている。
超音波診断の原理は、以下の通りである。まず、超音波検査装置のプローブから照射された音波は、乳腺の中に入り込み、様々な組織の構造の中に吸収されるか反射される。反射波はプローブに戻ってきて超音波検査装置によって映像として処理される。一般的には、超音波画像から腫瘍の良性と悪性を判別し関心領域を分割することは、自然の画像を用いて行う場合より難しいが、その理由は、1)超音波画像のコントラスト比が低く、スペックルノイズが多く、2)相異なる腫瘍は形状及び外観の差が大きいが、特に良性腫瘍と悪性腫瘍との間の差が大きく、3)腫瘍と類似した正常組織と超音波虚像が存在し、4)腫瘍の境界に対する明確な定義がないためである。
大韓民国特許出願公開番号第1020140109320(公開日2014年9月15日、発明の名称「超音波画像処理方法と装置及び乳がん診断装置」)は、受信された超音波画像に対してオーバーセグメンテーションを行い、多層構造のセグメントを取得する段階;取得した多層構造のセグメントの中から各セグメントの特徴を抽出する段階;検査ウィンドウとしてオーバーコンプリートスライディングウィンドウを生成するように受信された超音波画像に対し目標対象検査を行う段階、検査ウィンドウを通じて、画像の特徴を、取得した多層構造のセグメントへ伝達する段階;セグメント分類器のトレーニングを行うように、抽出された各セグメントの特徴と検査ウィンドウを通じてセグメントへ伝達された特徴とを統合する段階;セグメント分類器の出力を受信して、統合電圧を、対をなすCRFモデルに提供して、セグメントの目標対象を得る段階を含む、乳がん診断装置を開示している。
しかし、かかる技術を用いても乳房超音波は、専門家間でも診断能力に差がある可能性があり、特に、非専門家と専門家とでは相当な診断能力の格差があるため偽陽性や偽陰性の判定が多く、不要な組織検査や手術につながり、患者の身体に大きな危害を及ぼすだけでなく、医療費用の増加をもたらし、社会的に大きな問題になっている。
かかる課題を克服するために、超音波画像に基づく乳がんの診断を補助するための様々な研究が行われており、最近人工知能の技術の中で医療画像分野において最も脚光を浴びている深層学習アルゴリズム(deep learning algorithm)を採用する取り組みが徐々に広がっている。
超音波画像を用いてがんを診断するための従来の深層学習アルゴリズム研究は、腫瘍の病変を関心領域(region of interest、ROI)として手動で分割し、分割されたROIを入力とし、良性/悪性の病変を判別するようにする完全教師あり学習(fully-supervised learning)に基づくものであるが、これは一般的に専門家が病変の関心領域(ROI)を画像内において手動で描くというアノテーションのプロセスを必要とする。
また、手動アノテーションではなく自動ROI分割(segmentation)手法を利用する場合でも、専門家がROIを検証する必要がある。かかる関心領域に対する画像アノテーション工程には以下のような課題がある。
第1に、関心領域に対する画像アノテーション工程は、多くの時間と労働力を要するため、膨大な(一般的には、数千数万以上の画像が学習に必要)学習データを基に頑健な(診断性能が高く、他のデータに適用可能な)深層学習モデルを開発するには限界がある。
第2に、関心領域に対する画像アノテーション工程のための手動作業は、病変の特性(良性/悪性の可能性の境界、模様)に対して主観的な事前判定を行ったうえで作業が行われるため、データに基づいてパラメータを決める深層学習アルゴリズムにバイアス(bias)が加えられ、モデルの性能に否定的な影響を及ぼしかねない。
第3に、関心領域に対する画像アノテーションに基づくモデルは、臨床的に適用する際の入力データとしても同様にアノテーションされた画像を必要とするため、画像に対する深層学習モデルの予測値を得るためには、ユーザーが毎回関心領域を指定しROIセグメンテーションを行わなければならないという労力がかかるので、臨床的に活用しにくい。
第4に、病変を鑑別診断する際、病変の領域ではない、病変の周辺領域(例えば、周辺組織の変化及びエコー図)の情報が役に立つことが多いが、従来の完全教師あり学習に基づく補助診断方式は、病変だけを学習に活用するため、画像の情報を包括的に学習するには限界があった。
第5に、従来の診断方式は、乳房腫瘤を鑑別診断する課題に限られているため、正常な画像を入力データとして活用できない。
これは、実際に乳房超音波画像において最も多くの領域を占めるのは正常(病変がない)な乳房の画像であるため、臨床的な活用において大きな障害だと言える。
従って、関心領域(ROI)に対する画像アノテーション工程を行わなくても深層学習アルゴリズムを開発できる弱教師あり(weakly-supervised)学習に基づく人工知能学習方法とシステムが、超音波画像を用いた乳がん診断のために、強く求められている。
本発明の目的は、弱教師あり(weakly-supervised)学習に基づく人工知能の学習方法を利用した、関心領域(ROI)に対する画像アノテーションの過程がない、効率的な深層学習(deep learning)アルゴリズムを開発し、乳房超音波画像から正常/良性/悪性を判別する鑑別診断を行い、且つ、診断に寄与した領域を視覚化して乳がんを診断できるシステムを提供することである。
上記のような目的を達成するための本発明の一側面は、弱教師あり(weakly-supervised)学習に基づく深層学習(deep learning)アルゴリズムを開発し、関心領域(ROI)に対する画像アノテーションが行われていない乳房超音波画像を基に正常/良性/悪性を判別する鑑別診断を行い、且つ、診断に寄与した領域を視覚化して乳がんを診断できる方法に係るものである。
かかる弱教師あり(weakly-supervised)深層学習(deep learning;DL)人工知能を利用した乳房超音波診断方法は、乳房超音波画像から患者の個人情報を削除し、学習に必要な画像領域だけを含む入力データを生成する超音波画像前処理段階;上記入力データを受信し、畳み込みニューラルネットワーク(convolutional neural network;CNN)及びグローバル平均プーリング(global average pooling;GAP)を利用し、受信された入力データから特徴マップを取得し再学習する深層学習段階;グローバル平均プーリング(GAP)を利用して上記入力データを正常、良性、悪性のうちいずれか1つと判別し、悪性と判別された場合は、判別の正確度を表す悪性確率(probability of malignancy;POM)を計算する鑑別診断段階;及び判別した結果を上記畳み込みニューラルネットワーク(CNN)を通じて逆伝播し、上記判別結果に寄与したピクセル別の寄与度を勾配(gradient)と特徴量から計算し、計算されたピクセル別の寄与度に基づき判別に寄与した寄与領域(relevant region)を上記悪性確率(POM)と共に視覚化する寄与領域決定及び視覚化段階を含み、上記深層学習段階は、上記寄与領域及び上記悪性確率(POM)の検証された性能に基づいて学習されることを特徴とする。
特に、上記超音波画像前処理段階は、超音波画像のために開発された専用の非識別化モジュールを利用してダイコム(Digital Imaging and Communications in Medicine;DICOM)ヘッダーの情報のうち患者の個人情報に係る情報を削除すること;超音波画像のエッジをトリミング(trimming)して残りの個人情報と学習の妨げになる身体マーク及びテキストタグを削除することで匿名化された画像を抽出するか又は超音波機器から受信された超音波信号を基に画像データを生成すること;及び上記匿名化された画像又は画像データを上記画像と同じ大きさの入力データにサイズ調整(resizing)することを含むことを特徴とする。
上記深層学習段階は、検証における誤りを減らして再現性のあるモデルにするために、上記匿名化された画像に幾何学的変異と光学的変異のうち少なくとも1つを加えてデータ拡張(augmentation)プロセスを適用すること;上記入力データの正常/良性/悪性を学習するために、画像分類(image classification)を行う少なくとも1つの畳み込みニューラルネットワーク(CNN)を利用して深層学習アルゴリズムのアーキテクチャを構成し、各畳み込み層に対応する特徴マップを取得すること;及び取得された特徴マップに係るパラメータを決定し再学習することを含むことを特徴とする。
さらに、上記鑑別診断段階は、上記深層学習アルゴリズムのアーキテクチャにおいて畳み込み層の次に来るように追加されたグローバル平均プーリング(GAP)層を用いて、最後の畳み込み層の各々の特徴マップの特徴量を取得すること;取得された特徴量に学習可能な重みを適用してクラスのスコアを計算し、計算されたクラスのスコアを基に悪性確率(POM)を計算することを含むことを特徴とする。
また、上記寄与領域決定及び視覚化段階は、上記特徴マップに重みを適用して各クラスのクラス活性化マップ(class activation map;CAM)を取得すること;取得されたクラス活性化マップ(CAM)にmin-max正規化を適用してスケーリングすること;スケーリングされたクラス活性化マップ(CAM)にしきい値を適用した二値化を行って上記寄与領域を決定すること;及び上記クラス活性化マップ(CAM)をヒートマップとして上記悪性確率(POM)と共に視覚化することを含むことを特徴とする。
特に、上記幾何学的変異は、水平反転、垂直反転、回転、スケーリング、並進のうち少なくとも1つを含み、上記光学的変異は、削除、スペックルノイズ(speckle noise)処理、尖鋭化(sharpening)、ガウシアンぼかし(Gaussian blurring)のうち少なくとも1つを含む。
上記のような目的を達成するための本発明の一側面は、弱教師あり学習に基づく深層学習アルゴリズムを開発し、関心領域(ROI)に対する画像アノテーションが行われていない乳房超音波画像を基に正常/良性/悪性を判別する鑑別診断を行い、且つ、診断に寄与した領域を視覚化して乳がんを診断できるシステムに関するものである。
かかる弱教師あり深層学習(DL)人工知能を利用した乳房超音波診断システムは、乳房超音波画像から患者の個人情報を削除し、学習に必要な画像領域だけを含む入力データを生成する超音波画像前処理モジュール;上記入力データを受信し、畳み込みニューラルネットワーク(CNN)及びグローバル平均プーリング(GAP)を利用し、受信された入力データから特徴マップを取得し再学習する深層学習モジュール;グローバル平均プーリング(GAP)を利用して上記入力データを正常、良性、悪性のうちいずれか1つと判別し、悪性と判別された場合は、判別の正確度を表す悪性確率(POM)を計算する鑑別診断モジュール;及び判別した結果を上記畳み込みニューラルネットワーク(CNN)を通じて逆伝播し、上記判別結果に寄与したピクセル別の寄与度を勾配と特徴量から計算し、計算されたピクセル別の寄与度に基づき判別に寄与した寄与領域を上記悪性確率(POM)と共に視覚化する寄与領域決定及び視覚化モジュールを含み、上記弱教師あり深層学習アルゴリズムは上記寄与領域及び上記悪性確率(POM)の検証された性能に基づいて学習されることを特徴とする。
特に、上記超音波画像前処理モジュールは、超音波画像のために開発された専用の非識別化モジュールを利用してダイコム(DICOM)ヘッダーの情報のうち患者の個人情報に係る情報を削除し、超音波画像のエッジをトリミング(trimming)して残りの個人情報と学習の妨げになる身体マーク及びテキストタグを削除することで匿名化された画像を抽出するか又は超音波機器から受信された超音波信号を基に画像データを生成し、上記匿名化された画像又は画像データを画像と同じ大きさの入力データにサイズ調整するように構成される。
また、上記深層学習モジュールは、検証における誤りを減らして再現性のあるモデルにするために、上記匿名化された画像に幾何学的変異と光学的変異のうち少なくとも1つを加えてデータ拡張プロセスを適用し、上記入力データの正常/良性/悪性を学習するために、画像分類を行う少なくとも1つの畳み込みニューラルネットワーク(CNN)を利用して深層学習アルゴリズムのアーキテクチャを構成し、各畳み込み層に対応する特徴マップを取得し、取得された特徴マップに係るパラメータを決定し再学習するように構成される。
さらに、上記鑑別診断モジュールは、上記深層学習アルゴリズムのアーキテクチャにおいて畳み込み層の次に来るように追加されたグローバル平均プーリング(GAP)層を用いて、最後の畳み込み層の各々の特徴マップの特徴量を取得し、取得された特徴量に学習可能な重みを適用してクラスのスコアを計算し、計算されたクラスのスコアを基に悪性確率(POM)を計算するように構成される。
また、上記寄与領域決定及び視覚化モジュールは、上記特徴マップに重みを適用して各クラスのクラス活性化マップ(CAM)を取得し、取得されたクラス活性化マップ(CAM)にmin-max正規化を適用してスケーリングし、スケーリングされたクラス活性化マップ(CAM)にしきい値を適用した二値化を行って上記寄与領域を決定し、上記クラス活性化マップ(CAM)をヒートマップとして上記悪性確率(POM)と共に視覚化するように構成される。
さらに、上記幾何学的変異は、水平反転、垂直反転、回転、スケーリング、並進のうち少なくとも1つを含み、上記光学的変異は、削除、スペックルノイズ処理、尖鋭化、ガウシアンぼかしのうち少なくとも1つを含む。
本発明における弱教師あり深層学習手法は、関心領域に対する画像アノテーションを行わずに、画像単位のラベル(正常/良性/悪性)だけを有する画像だけでも画像分類のための学習が可能な深層学習の形態である。かかる弱教師あり深層学習アルゴリズムには、次のような利点がある。
第1に、関心領域に対する画像アノテーションを必要とする完全教師あり学習に比べ、画像単位のラベル(正常/良性/悪性)だけでも学習できるため、時間と労力及びコストを節減し、画像データを効率的なプロセスで学習できるようになり、頑健な(診断性能が高く、他のデータに適用可能な)深層学習モデルを開発することが可能である。特に、深層学習はデータによって性能が決まるため、弱教師あり深層学習アルゴリズムを利用した効率的なデータ学習プロセスは、ビッグデータ学習を容易にして深層学習モデルの性能改善をもたらすことが可能であり、モデルを適用する際の検証における誤りを減らし、再現可能なモデルを開発することが可能である。
第2に、弱教師あり深層学習アルゴリズムは、関心領域に対する画像アノテーション工程のための手動作業を必要としないため、病変の特性(良性/悪性の可能性に基づく境界、模様)に対する主観的な事前判定において生じかねないバイアスを最小化し、外部の検証データに対しても安定的に作動できる、再現性のあるモデルを開発することが可能である。
第3に、関心領域に対する画像アノテーションに基づくモデルは、臨床的に適用する際の入力データとしてもアノテーションされた画像を必要とするため、画像に対する深層学習モデルの予測値を得るためには、ユーザーが毎回関心領域を指定しROIセグメンテーションを行わなければならないという手間がかかるため、臨床的な活用度が落ちるという課題があったが、発明された弱教師あり学習は、共に開発された前処理方法を用いて超音波画像を簡単に入力できるため、モデルを用いた作業の流れがより効率的である。
第4に、病変を鑑別診断する際、病変の領域ではない、病変の周辺領域の情報が役に立つことが多いが、従来の完全教師あり学習に基づく補助診断方式は、病変だけを学習に活用するため、画像の情報を包括的に学習するには限界があったが、弱教師あり学習は病変の領域だけでなく病変の周辺領域も学習することで鑑別診断に役立つ情報を包括的に学習し、結果的に診断性能の改善をより一層図ることが可能である。
第5に、従来の診断方式は、乳房腫瘤を鑑別診断する課題に限られているため、正常(病変のない)な画像を入力データとして活用できなかったが、弱教師あり学習に基づく深層学習モデルは、超音波画像の全体を入力データとして活用できるため、数多くの正常から非正常を見つけなければならないという検診の目的に基づく超音波の活用により適合するものになり得る。
最後に、開発された深層学習アルゴリズムは、大量のデータを学習したパラメータ数値を基に正確且つ再現性の高い悪性確率を示してユーザー間の診断における格差を減らすことが可能であり、視覚化された寄与領域を提供してユーザーの発見における誤りを減らすことが可能である。かかる診断補助機能は、不要な組織検査及び手術を減らし、患者の身体に及ぶ危害を最小化し社会的医療コストを削減することが可能である。
本発明と、本発明の動作上の利点及び本発明の実施により達成される目的を十分に理解するためには、本発明の望ましい実施例を示す添付の図面及び添付の図面に記載されている内容を参照する必要がある。
以下、本発明を詳細に説明するために、添付の図面を参照し、本発明の望ましい実施例を説明する。しかし、本発明は、様々な相異なる形態に具現化されることが可能であり、以下に説明する実施例に限定されるわけではない。そして、本発明を明確に説明するために、説明と関係ない部分は省略され、図面の同一の参照符号は同一の部材を指すものとする。
図1は、本発明の一側面に基づき、正常/良性/悪性の画像に分類し、寄与領域の視覚化(位置特定)を行う方法を概略的に示すフローチャートである。
本発明における弱教師あり(weakly-supervised)深層学習(deep learning;DL)アルゴリズムが適用された畳み込みニューラルネットワーク(convolutional neural network;CNN)を活用し、画像単位のラベルしか付いていない乳房超音波画像を基に悪性腫瘍の位置特定及び視覚化を行う方法によると、まず超音波画像が受信される(S110)。受信された画像は、患者を識別する情報と超音波モダリティに係る情報等を含んでいる可能性があるため、かかる情報を削除して画像情報だけを残す(S130)。超音波画像から自動的に画像領域を区別する非識別化技術は、超音波画像モダリティ別のプリセットと画像処理技術(Region Growing + Hole filling等)を利用して具現化されることが可能である。しかし、これは、あくまでも例示のために提供されたものであり、本発明を限定するものではないことに注意すべきである。
入力画像は、悪性腫瘍及び良性腫瘍を含むことが可能である。続いて、入力データを受信し、畳み込みニューラルネットワーク(convolutional neural network;CNN)及びグローバル平均プーリング(global average pooling;GAP)を利用して受信された入力データから特徴マップを取得し再学習する(S150)。このように、従来の技術とは違って、本発明においては、入力画像において病変と疑われる部位をマークしアノテーションする過程を必要とせず、入力画像から直接特徴マップを取得し再学習する。従って、手動アノテーションにかかる時間と労力を大いに節減でき、学習効果が向上し、結果の信頼度が高まる。
続いて、グローバル平均プーリング(GAP)を利用して入力データを正常、良性、悪性のうちいずれか1つと判別し、悪性と判別された場合は判別の正確度を表す悪性確率(probability of malignancy;POM)を計算する(S170)。 つまり、本発明においては、悪性と判別された結果の確率を共に提供することで、判別結果の検証を容易にすることが可能である。
悪性確率(POM)が計算されると、上記入力データが判別した結果を畳み込みニューラルネットワーク(CNN)を通じて逆伝播し、判別結果に寄与したピクセル別の寄与度を勾配(gradient)と特徴量から計算し、計算されたピクセル別の寄与度に基づき判別に寄与した寄与領域(relevant region)を上記悪性確率(POM)と共に視覚化する(S190)。つまり、本発明における悪性腫瘍の位置特定及び視覚化を行う方法においては、入力画像なしに寄与領域だけを表示するのではなく、入力画像全体から分類された寄与領域を直接表示し、悪性確率(POM)によって異なる色を使って視覚化する。従って、病変の周辺の形状や特性を参照して診断することが可能になるため、診断の正確度が向上し、ユーザーの利便性が高まり、乳がん診断の過程において有効に活用されることが可能である。
かかる弱教師あり深層学習アルゴリズムは、診断結果の性能を検証し、検証された性能に基づき弱教師あり深層学習アルゴリズムを繰り返すことで学習される。このように、診断結果を用いて弱教師あり深層学習アルゴリズムを学習させるため、手動アノテーションを行うことなく迅速且つ正確に診断性能を向上させることが可能である。
図2aは、本発明の一側面に基づき、悪性腫瘍の位置特定及び視覚化を行う方法の一実施例の動作を、従来の技術と比較して説明するブロック図である。
図2aに示すように、本発明における悪性腫瘍の位置特定及び視覚化を行う方法は、従来の技術とは違って入力画像から病変部位を手動又は自動で抽出(又は、クロップ)してアノテーションする過程を必要とせず、非識別化過程を経た入力画像をそのまま分類器に入力する。つまり、病変の画像だけがCNNに入力されるのではなく、病変を含む入力画像のほぼ全部が入力される。また、診断結果と共にヒートマップを一緒に提供してユーザーの便宜を図り、病変部位が確率と共によりよく現出されるようにサポートする。
図2bは、図2aに示す方法の動作を検証するために用いられたテストデータセットを説明するブロック図である。
まず、1400個の超音波画像を2つの病院から収集した。弱教師あり深層学習アルゴリズムは、3つのネットワーク(VGG16、ResNet34、及びGoogLeNet)によって具現化され、画像単位のラベルしか付いていない超音波画像を1000個(500個の良性及び500個の悪性腫瘤)使って学習される。200個の画像(100個の良性及び100個の悪性腫瘤)からなる画像セットが2セット用いられるが、それぞれ内部と外部の検証セットとして用いられる。
そして、完全教師ありアルゴリズムと比較するために、ディープセグメンテーションネットワーク(U-Net)を使い、ROIアノテーションが手動且つ自動で行われる。診断性能が、受信者動作特性曲線(AUC)の下の面積として計算され、弱教師あり及び完全教師あり深層学習アルゴリズムにおいて比較される。クラス活性化マップを用いて、弱教師あり深層学習アルゴリズムがいかに正確に乳房腫瘤の位置特定を行ったかが決定される。
図2cは、図2aに示す方法の性能を示すグラフである。内部(A)及び外部(B)の検証セットにおいて、弱教師ありアルゴリズムと、手動及び自動のROIアノテーションが行われている完全教師あり深層学習(DL)アルゴリズムとを用いた相異なる分類器に係る受信者動作特性曲線(ROC)。(A)弱教師あり深層学習アルゴリズムの受信者動作特性曲線の下の面積(AUC)は、完全教師あり深層学習アルゴリズムのものと違いがない(全てのPs>0.05)。(B)弱教師あり深層学習のAUCは、完全教師あり深層学習アルゴリズムのものと比較すると、統計的に違いがないか(Ps>0.05)より高い(P=0.04、自動化されたROIアノテーションが伴うVGG16)。
図2cに示すように、本発明における悪性腫瘍の位置特定及び視覚化を行う方法は、タグのついていない入力画像をCNNに入力しても、従来の完全教師あり学習と同等かそれ以上の性能が得られた。
図2dは、図2aに示す方法によって視覚化された結果の例を示す図面である。真陽性(A)、偽陰性(B)、偽陽性(C)、真陰性(D)の例が、それぞれのネットワーク(VGG16、ResNet34、及びGoogLeNet)に対して表示される。(A)超音波画像は、17-mmの不規則で尖った形の浸潤性乳管がん(ductal carcinoma)を示しているが、これはVGG16、ResNet34、GoogLeNetにおいてそれぞれ1.00、1.00、0.999の悪性確率(POM)が算出され、悪性と予測された。(B)超音波画像は、11-mmの卵型、限局性(circumscribed)、等エコー粘液がん(isoechoic mucinous carcinoma)を示しているが、これはPOMがそれぞれ0.007、0.000、0.000となり、良性と予測された。(C)超音波画像は、良性とみなされる29-mm卵型、巨大石灰化(macrocalcification)(46ヶ月間の経過観察期間中に変化なし)を示しているが、これはPOMがそれぞれ1.000、0.994、1.000となり、悪性と予測された。(D)超音波画像は、良性とみなされる6-mm卵型、限局性の腫瘤を示しているが(55ヶ月間の経過観察期間中に変化なし)、これはPOMがそれぞれ0.434、0.006、0.006となり、良性と予測された。
結果的に、内部検証セットの場合、弱教師あり深層学習アルゴリズムは優れた診断性能を達成し、AUCは0.92-0.96だが、これは、手動又は自動のROIアノテーションを伴う完全教師あり深層学習アルゴリズムでのそれ(AUC、0.92-0.96)と統計的に違いがない(全てのPs>0.05)。外部検証セットの場合、弱教師あり深層学習アルゴリズムは、AUCが0.86-0.90を達成しているが、これは完全教師あり深層学習アルゴリズムのそれ(AUC、0.84-0.92)と統計的に違いがないか(Ps>0.05)、又はより高かった(自動ROIアノテーションの場合、P=0.04、VGG16)。内部及び外部検証セットにおいて、弱教師ありアルゴリズムは、ResNet34(98%)を除いて悪性腫瘤を100%位置特定することが可能である。
より詳しく説明すると、本発明において、良性腫瘤から悪性を確率スコアと共に予測するために、3つの代表的なネットワーク(VGG16、ResNet34、及びGoogLeNet)を用いる弱教師あり深層学習アルゴリズムが活用される。また、予測された結果に寄与する入力画像の領域を強調するためにクラス活性化マップ(CAM)を用いる弱教師あり深層学習アルゴリズムの識別性位置特定の性能が検査される。また、収集された1400個の画像のうち、700個は生検又は手術によって確定されたがん(癌)が写っている画像であり、700個は生検によって(n=163)、又は少なくともその後2年間にわたる後続の画像診断によって確定された(n=537)良性腫瘤の画像だった。データセットは、学習セットと検証セットを含むようにした。学習セットは、入手元Aから取得した500個の良性腫瘤及び500個の悪性腫瘤を含むようにした(データ収集期間:2011年1月-2013年8月)。検証セットは、内部検証セットと外部検証セットに分けられ、それぞれ画像(各セットにおいて、総画像数200個、そのうち100個は良性腫瘤、100個は悪性腫瘤)があった。内部検証用の画像は、入手元Aから一時的に分離され(データ収集期間:2013年9月-2014年7月)、且つアルゴリズム学習のために用いられていない。そして、外部検証用の画像は、入手元Bから持続的に取得された(データ収集期間:2011年5月-2015年8月)。全ての乳房超音波画像は、画像保存及び通信システムから抽出され、JPEGフォーマットに保存された。入手元Aから取得した学習セット及び内部検証セットの場合、画像を生成するために1つの超音波装備が用いられたが、外部検証セット(入手元Bから取得した)の場合は色々な超音波装備が用いられた。
図3は、本発明の他の一側面に基づき、悪性腫瘍の位置特定及び視覚化を行うシステムの一実施例の構成及び動作を説明するブロック図である。
本発明に基づき悪性腫瘍の位置特定及び視覚化を行うシステムは、非識別化モジュール(310)、データ強化モジュール(330)、CNN(350)、及び寄与領域決定及び視覚化モジュール(370)を含む。
非識別化モジュール(310)は、超音波画像前処理モジュール(図示は省略)の一部として、乳房超音波画像において診断対象であり、悪性腫瘍と良性腫瘍のうち1つ以上を含むことが可能な入力画像を生成する。そのために、非識別化モジュール(310)は、乳房超音波画像のエッジをトリミングして、患者の身体マーク及びテキストタグを除去して匿名化された画像を生成し、同一の大きさの匿名化された画像を入力画像として抽出するように構成されることが可能である。
データ強化モジュール(330)も同様に、超音波画像前処理モジュール(図示は省略)に含まれており、匿名化された画像の幾何学的変異と光学的変異のうち1つを追加して診断性能を高めることが可能である。幾何学的変異には、水平反転、垂直反転、回転、スケーリング、並進等が含まれ、光学的変異には削除、スペックルノイズ処理、尖鋭化、ガウシアンぼかし等が含まれることが可能である。しかし、これはあくまでも例示のために提供されたものであり、本発明を限定するものではないことに注意すべきである。
データ強化モジュール(330)の出力は、CNN(350)に入力される。本発明において、CNN(350)は、機能によって深層学習モジュール(図示は省略)及び鑑別診断モジュール(図示は省略)の機能を実行するものであると考えることが可能である。
その場合、深層学習モジュール(図示は省略)が入力データを受信し、畳み込みニューラルネットワーク(CNN)及びグローバル平均プーリング(GAP)を利用し、受信された入力データから特徴マップを取得し再学習する。また、鑑別診断モジュール(図示は省略)は、グローバル平均プーリング(GAP)を利用して入力データを正常、良性、悪性のうちいずれか1つと判別し、悪性と判別された場合は判別の正確度を表す悪性確率(POM)を計算する。
続いて、寄与領域決定及び視覚化モジュール(170)は、入力データから判別した結果を上記畳み込みニューラルネットワーク(CNN)を通じて逆伝播し、判別結果に寄与したピクセル別の寄与度を勾配と特徴量から計算し、計算されたピクセル別の寄与度に基づき判別に寄与した寄与領域を上記悪性確率(POM)と共に視覚化する。
より詳しく説明すると、非識別化モジュール(310)は、超音波画像のために開発された専用の非識別化モジュールを利用してダイコム(DICOM)ヘッダーの情報のうち患者の個人情報に係る情報を削除し、超音波画像のエッジをトリミング(trimming)して残りの個人情報と学習の妨げになる身体マーク及びテキストタグを削除することで匿名化された画像を抽出する。または、非識別化モジュール(310)は、超音波機器から受信された超音波信号を基に、画像データを直接生成することも可能である。この場合、匿名化された画像又は画像データは、同一の大きさの入力データに大きさが調整されることが望ましい。
また、深層学習モジュールは、検証における誤りを減らし、再現性のあるモデルを生成するために、上記匿名化された画像に幾何学的変異と光学的変異のうち少なくとも1つを追加してデータ拡張プロセスを適用することが可能である。さらに、深層学習モジュールは、入力データに対する正常/良性/悪性を学習するために、VGG16、ResNet34、GoogLeNetのように画像分類を行う少なくとも1つの畳み込みニューラルネットワーク(CNN)を利用して深層学習アルゴリズムのアーキテクチャを構成して、各畳み込み層に係る特徴マップを取得する。深層学習モジュールは、取得された特徴マップのパラメータを決定し、再学習することで、学習精度を高める。
鑑別診断モジュールについて説明すると、鑑別診断モジュールは、深層学習アルゴリズムのアーキテクチャにおいて畳み込み層の次に来るように追加されたグローバル平均プーリング(GAP)層を用いて、最後の畳み込み層の各々の特徴マップの特徴量を取得し、取得された特徴量に学習可能な重みを適用してクラスのスコアを計算する。そして、鑑別診断モジュールは、計算されたクラスのスコアを基に悪性確率(POM)を計算する。
悪性確率(POM)が計算されると、寄与領域決定及び視覚化モジュールは、特徴マップに重みを適用して各クラスのクラス活性化マップ(CAM)を取得し、取得されたクラス活性化マップ(CAM)にmin-max正規化を適用してスケーリングし、スケーリングされたクラス活性化マップ(CAM)にしきい値を適用した二値化を行って寄与領域を決定する。そして、寄与領域決定及び視覚化モジュールは、決定されたクラス活性化マップ(CAM)をヒートマップとして悪性確率(POM)と共に視覚化する。
視覚化された結果は、関心領域(ROI)及び悪性確率(POM)の検証された性能に基づき、弱教師あり深層学習アルゴリズムを学習させるために用いられることが可能である。
表1は、強化されたデータを用いて得られた結果を示している。
以下、本発明の具体的な実施例を用いて本発明の全体動作をより詳細に説明する。
画像アノテーション作業及び前処理
画像は、身体マーク及びテキストタグを削除するために画像のエッジをトリミングすることで匿名化される。弱教師あり深層学習アルゴリズムの場合、ROIアノテーションが行われていない、提案されたシステムの性能をテストするために追加のデータキューレーションが行われていない。完全教師あり深層学習アルゴリズムと比較するために、ROIアノテーションは、手動ドローイングと自動化された深層学習に基づくセグメンテーションとの2つの方法を用いて行われる。手動ドローイングの場合、診療放射線技師がROIを表示し、インハウスドローイングツールを用いて 各腫瘤(mass)にバイナリマスクを表示した。自動化された深層学習に基づくセグメンテーションの場合、ディープセグメンテーションネットワークU-Netが採用されるが、これは医療用の画像をセグメンテーションするために開発されたものである。ROIアノテーションが行われてから、対応する腫瘤を囲む30ピクセルの固定のマージンがある四角形の画像を抽出し、当該画像を224x224ピクセルにリサイズした後、ピクセル強度を最大強度値を用いて0乃至1に正規化した。
画像は、身体マーク及びテキストタグを削除するために画像のエッジをトリミングすることで匿名化される。弱教師あり深層学習アルゴリズムの場合、ROIアノテーションが行われていない、提案されたシステムの性能をテストするために追加のデータキューレーションが行われていない。完全教師あり深層学習アルゴリズムと比較するために、ROIアノテーションは、手動ドローイングと自動化された深層学習に基づくセグメンテーションとの2つの方法を用いて行われる。手動ドローイングの場合、診療放射線技師がROIを表示し、インハウスドローイングツールを用いて 各腫瘤(mass)にバイナリマスクを表示した。自動化された深層学習に基づくセグメンテーションの場合、ディープセグメンテーションネットワークU-Netが採用されるが、これは医療用の画像をセグメンテーションするために開発されたものである。ROIアノテーションが行われてから、対応する腫瘤を囲む30ピクセルの固定のマージンがある四角形の画像を抽出し、当該画像を224x224ピクセルにリサイズした後、ピクセル強度を最大強度値を用いて0乃至1に正規化した。
深層学習分類モデル
深層学習分類器の場合、多様なコンピュータービジョン作業において最先端の性能を達成した3つの代表的な畳み込みニューラルネットワークであるVGG16、ResNet34、及びGoogLeNetが採用される。しかし、これはあくまでも例示のために提供されたものであり、本発明を限定するものではないことに注意すべきである。かかるCNNモデルの分類性能は、複数の研究において評価されている。
深層学習分類器の場合、多様なコンピュータービジョン作業において最先端の性能を達成した3つの代表的な畳み込みニューラルネットワークであるVGG16、ResNet34、及びGoogLeNetが採用される。しかし、これはあくまでも例示のために提供されたものであり、本発明を限定するものではないことに注意すべきである。かかるCNNモデルの分類性能は、複数の研究において評価されている。
VGG16は、5つの畳み込みブロックを積み上げたフィードフォワードニューラルネットワークであるが、各々のブロックは2つの3x3畳み込み層とマックスプーリング(max-pooling)層に構成されており、分類作業のための関連画像の特徴を学習する。ResNet34アーキテクチャは、重み付け層(weighting layer)の後のショートカットとして、勾配消失の問題を解決できる、残差接続(residual connection)機能がある深いCNNである。最後に、GoogLeNetは、相異なるスケールの視覚的パターンを学習するためのインセプションモジュール(Inception module)のスタックで構成される。単一のインセプションモジュールは、受容野を費用対効果の高い方法で強化するための、1x1乃至5x5までの相異なるフィルダーの大きさを有する色々な畳み込み分岐を含む。CNNモデルのアーキテクチャの細部事項は公知されている。
弱教師あり深層学習アルゴリズムによる識別性位置特定(discriminative localization)の性能をテストするために、分類モデルを各々のモデルの最後の畳み込み層に追加されたグローバル平均プーリング(global average pooling;GAP)層を用いて拡張することが可能である。その後、GAPは、最後の畳み込み層の各々の特徴マップ(fk)を次のように平均化して特徴スコア(Fk)を作成する。
ここでi及びjは、fkの空間的インデックスである。
特徴マップの数はクラスの数(Nc)と同数である。そして、モデルは全結合層及びソフトマックス(softmax)関数を用いて線形分類を実行する。学習可能な重み。W={wk,c}がある全結合層は、各クラスに係るスコア(Sc)を次のように計算することが可能である
クラスのスコアがソフトマックス関数に適用され、全てのクラスの予測された確率が得られる。各クラスの予測された確率(Pc)及び悪性確率(POM)は、以下のように計算される。
識別性位置特定
各クラスに係るクラス活性化マップ(class activation map;CAM)(Mc)は、特徴マップをクラスのスコアの推定時に学習された重みを用いて併合することで取得することが可能である。
識別性位置特定
各クラスに係るクラス活性化マップ(class activation map;CAM)(Mc)は、特徴マップをクラスのスコアの推定時に学習された重みを用いて併合することで取得することが可能である。
Mcの相対的強度は、クラスのスコアを推定する際、重要な領域と重要でない領域を視覚的に区別し、相互比較するために、min-max正規化を用いてスケーリングされる。スケーリングされたクラス活性化マップ(M’c)は、次のように次のように得られる。
腫瘍特性を推定するときに重要な影響を与えた領域は、スケーリングされたマップを、しきい値(M’c≧0.3)用いて二値化することで決定される。しきい値は、学習セットの中において、手動ROIアノテーションが実行されている、複数の二値化されたマップの重複を考慮し経験的に選択されることが可能である。
パフォーマンスメトリック及び統計的な分析
悪性と良性を区別する診断のために、受信者動作特性曲線の下の面積(AUC)を、アルゴリズムの性能を比較するための一次メトリックとして用いて、2つの相関する受信者動作特性曲線(ROC)のAUCを比較するために重要度のDeLongテストを使用した。敏感度及び特異度(specificity)における差異をテストするために、正確(exact)マクネマー検定(McNemar Test)が用いられる。識別性位置特定は、セグメント化された区域が手動でアノテーションされた区域と重複した場合、正確であるとみなされる。統計ソフトウェアのMedCalc、バージョン17.1(Mariakerke、Belgium)を用いて、全ての統計的な分析が行われる。両側のP値<0.05が統計的に意味があるとみなされる。
悪性と良性を区別する診断のために、受信者動作特性曲線の下の面積(AUC)を、アルゴリズムの性能を比較するための一次メトリックとして用いて、2つの相関する受信者動作特性曲線(ROC)のAUCを比較するために重要度のDeLongテストを使用した。敏感度及び特異度(specificity)における差異をテストするために、正確(exact)マクネマー検定(McNemar Test)が用いられる。識別性位置特定は、セグメント化された区域が手動でアノテーションされた区域と重複した場合、正確であるとみなされる。統計ソフトウェアのMedCalc、バージョン17.1(Mariakerke、Belgium)を用いて、全ての統計的な分析が行われる。両側のP値<0.05が統計的に意味があるとみなされる。
パフォーマンスメトリック
内部検証テストセットの場合、弱教師あり深層学習モデルは、良性と悪性の乳房腫瘤を区別する診断において高い性能を達成し、AUCは、VGG16、ResNet34、GoogLeNetモデルのそれぞれにおいて0.96(95%CI:0.92、0.98)、0.92(95%CI:0.88、0.96)、及び0.94(95%CI:0.90、0.97)である(表2)。手動アノテーションを伴う完全教師あり深層学習モデルのAUCは、VGG16、ResNet34、GoogLeNetモデルのそれぞれにおいて0.96(95%CI:0.93、0.98)、0.94(95%CI:0.89、0.97)、及び0.96(95%CI:0.92、0.98)である。自動アノテーションを伴う完全教師あり深層学習モデルのAUCは、それぞれ0.96(95%CI:0.92、0.98)、0.92(95%CI:0.87、0.95)、0.95(95%CI:0.91、0.98)である。このように、弱教師あり深層学習モデルのAUCは、手動又は自動のROIアノテーションを伴う完全教師あり深層学習モデルのものと違いがなかった(全てのPs>0.05)。
内部検証テストセットの場合、弱教師あり深層学習モデルは、良性と悪性の乳房腫瘤を区別する診断において高い性能を達成し、AUCは、VGG16、ResNet34、GoogLeNetモデルのそれぞれにおいて0.96(95%CI:0.92、0.98)、0.92(95%CI:0.88、0.96)、及び0.94(95%CI:0.90、0.97)である(表2)。手動アノテーションを伴う完全教師あり深層学習モデルのAUCは、VGG16、ResNet34、GoogLeNetモデルのそれぞれにおいて0.96(95%CI:0.93、0.98)、0.94(95%CI:0.89、0.97)、及び0.96(95%CI:0.92、0.98)である。自動アノテーションを伴う完全教師あり深層学習モデルのAUCは、それぞれ0.96(95%CI:0.92、0.98)、0.92(95%CI:0.87、0.95)、0.95(95%CI:0.91、0.98)である。このように、弱教師あり深層学習モデルのAUCは、手動又は自動のROIアノテーションを伴う完全教師あり深層学習モデルのものと違いがなかった(全てのPs>0.05)。
弱教師あり深層学習モデルの敏感度は、VGG16、ResNet34、GoogLeNetモデルのそれぞれにおいて87%(87/100)、82%(82/100)、及び87%(87/100)であり、特異度はそれぞれ91%(91/100)、91%(91/100)、及び94%(94/100)である。敏感度及び特異度は、弱教師ありと完全教師あり深層学習モデルとで違いがなかった(全てのPs>0.05)。
外部検証テストセットの場合、弱教師あり深層学習モデルは、高い診断性能を達成し、AUCがVGG16、ResNet34、GoogLeNetモデルのそれぞれにおいて0.89(95%CI:0.84、0.93)、0.86(95%CI:0.81、0.91)、0.90(95%CI:0.85、0.94)と、多少低かった。手動アノテーションを伴う完全教師あり深層学習モデルのAUCは、VGG16、ResNet34、GoogLeNetモデルのそれぞれにおいて0.91(95%CI:0.86、0.95)、0.89(95%CI:0.84、0.93)、0.92(95%CI:0.87、0.95)であった。自動アノテーションを伴う完全教師あり深層学習モデルのAUCは、それぞれ0.85(95%CI:0.79、0.89)、0.84(95%CI:0.78、0.88)、及び0.87(95%CI:0.82、0.92)であった。弱教師あり深層学習モデルのAUCは、手動ROIアノテーションを伴う完全教師あり深層学習モデルのものと統計的に違いがなかった(全てのPs>0.05)。
VGG16ネットワークの場合、AUCは、自動ROIアノテーションを伴う完全教師あり深層学習モデルより弱教師あり深層学習モデルにおいて遥かに高かった(P=0.04)。ResNet34及びGoogLeNetネットワークは、弱教師あり深層学習モデルと自動ROIアノテーションを伴う完全教師あり深層学習モデルとで、重要な差異が見つからなかった(全てのPs>0.05)。敏感度は、VGG16及びGoogLeNetにおいて、弱教師あり(91%[91/100]及び88%[88/100])と完全教師あり深層学習モデル(85%[85/100]及び87%[87/100])とで、大きな違いがなかった(全てのPs>0.05)。
ResNet34モデルの場合、敏感度は、手動アノテーションを伴う完全教師ありモデル(89%[89/100]、P<0.001)より弱教師あり深層学習モデル(78%[78/100])において低かったが、自動ROIアノテーションを伴う完全教師あり深層学習モデルと大きな違いがなかった(81%[81/100]、P=0.66)。弱教師あり深層学習モデルの特異度(VGG16、ResNet34、GoogLeNetネットワークのそれぞれにおいて72%[72/100]、80%[80/100]、76%[76/100])は、手動ROIアノテーションを伴う完全教師あり深層学習モデルとVGG16(52%[52/100])、GoogLeNetモデル(63%[63/100])において大きな違いがなく(全てのPs>0.05)、ResNet34モデル(90%[90/100]、P<0.001)よりは低かった。
特異度は、自動ROIアノテーションを伴う完全教師あり深層学習モデルより弱教師あり深層学習モデルにおいて統計的な重要度又は境界線重要度(VGG16、ResNet34、GoogLeNetモデルのそれぞれにおいてP<0.001、P=0.07、P=0.04)を有し、より高かった。
識別性位置特定のパフォーマンスメトリック
内部検証セットにおいて、VGG16及びResNet34ネットワークを用いた弱教師あり深層学習モデルは、良性腫瘤の99%(99/100)及び悪性腫瘤の100%(100/100)を位置特定することが可能である。GoogLeNetネットワークは、良性腫瘤と悪性腫瘤の両方の100%(100/100)を位置特定することが可能である。外部検証セットにおいて、VGG16、ResNet34、GoogLeNetネットワークを用いた弱教師あり深層学習モデルは、良性腫瘤の99%(99/100)、96%(96/100)、97%(97/100)と、悪性腫瘤の100%(100/100)、98%(98/100)、100%(100/100)とをそれぞれ位置特定することが可能である。
内部検証セットにおいて、VGG16及びResNet34ネットワークを用いた弱教師あり深層学習モデルは、良性腫瘤の99%(99/100)及び悪性腫瘤の100%(100/100)を位置特定することが可能である。GoogLeNetネットワークは、良性腫瘤と悪性腫瘤の両方の100%(100/100)を位置特定することが可能である。外部検証セットにおいて、VGG16、ResNet34、GoogLeNetネットワークを用いた弱教師あり深層学習モデルは、良性腫瘤の99%(99/100)、96%(96/100)、97%(97/100)と、悪性腫瘤の100%(100/100)、98%(98/100)、100%(100/100)とをそれぞれ位置特定することが可能である。
上述のように、従来の技術に基づく完全教師あり深層学習アルゴリズムと比較すると、本発明の弱教師あり深層学習アルゴリズムが優れた診断性能(AUC:0.86-0.96)を有し、手動アノテーションを伴う完全教師あり深層学習アルゴリズム(AUC:0.89-0.96)及び自動アノテーションを伴う完全教師あり深層学習アルゴリズム(AUC:0.84-0.96)と比較したとき、不足していないことが分かった。さらに、弱教師あり深層学習アルゴリズムは、良性と悪性の腫瘤をほぼ完璧な比率で(96%-100%)正確に位置特定することが可能である。
かかる優れた分類及び位置特定性能は、比較的に小さいデータセット及び異なる乳房画像及び超音波装備を用いた外部検証セットにおいても達成される。上述の内容を総合すると、弱教師あり深層学習アルゴリズムを用いて判定をサポートすることが可能であり、手動ドローイング又は自動ROIセグメンテーションを必要としない、とても効率的なデータ-キューレーションプロセスを通じて、超音波画像から乳がんを検出且つ診断することを補助できるということが確認できる。
深層学習アルゴリズムは、乳房撮影解析法に有効に適用されてきたが、乳房超音波画像の深層学習アルゴリズムの開発は、依然として初期段階に過ぎない。にもかかわらず、深層学習アルゴリズムが、超音波画像における乳房腫瘤を診断する際、良好な性能を発揮することは期待できる。
従来の技術のCADシステムを活用した診断は、他の装備によって得られた画像に適用されるには、依然として限界があったが、本願発明に基づく悪性腫瘍の位置特定及び視覚化を行う方法及びシステムは、同一の大きさの入力画像をそのまま入力するため、汎用性がある。つまり、本発明は、胸部エックス線、MRI、又は組織病理学画像を用いた画像に基づく分類、及び、乳房超音波画像を用いた領域に基づく分類に幅広く適用されることが可能である。
図4は、図3における悪性腫瘍の位置特定及び視覚化を行うシステムに適用されることが可能な膨張畳み込みプロセスを説明する図面である。
受容野(receptive filed)は、入力空間において、与えられたタスクを実行するためにCNNモデルが動作できる領域を意味するが、受容野を広くするためには、フィルターのサイズを大きくしたり、より多くの層をスタックする必要がある。しかし、そうなると、学習可能なパラメータと神経回路網における数値演算が爆発的に増加する可能性がある。
かかる問題を解決するために、膨張畳み込みプロセスは、ピクセルとピクセルの間に予め規定されたギャップを設けて畳み込み演算を行うことを提案する。図4に示すように、膨張畳み込みプロセスを用いることで、演算量を増加させることなく受容野を拡張することが可能である。
図5a乃至図5eは、図3における悪性腫瘍の位置特定及び視覚化を行うシステムに適用されることが可能な学習可能なボックスフィルターの概念を説明するための図面である。
図5aを参照すると、学習可能なボックスフィルターは、全ての位置において平均を求め、ボックスの座標を学習可能なパラメータとして扱う。
図5bを参照すると、畳み込み平均フィルターは、フィルター内のすべての数値を合算してからこれらをフィルターの大きさで割る。これとほぼ同様に、ボックスフィルターは、フィルター値は固定にしたまま、フィルターの大きさを決定するパラメータθ=(xmin,xmax,ymin,ymax)を学習する。図5bにおいて3x3ボックス平均フィルターの例が示されているが、これはあくまでも例示として提供されたものであり、本発明を限定するものではないことに注意する必要がある。
図5cを参照すると、ボックス畳み込み層は、チャンネル別の演算をサポートし、C個の入力チャンネルに対して、それぞれB個の相異なるボックスフィルターをトレーニングさせる。従って、出力は、CB個のチャンネルで構成され、学習可能なパラメータの数は、フィルターの大きさとは無関係の一定の大きさである4CBになる。
それによって、出力特徴マップがOの大きさを維持するために、ゼロパディングを用いて入力マップIを拡張することが可能である。フォワードパスにおいて、Oはボックスフィルターとの畳み込み演算によって決定されることが可能である。
図5dは、積分画像を説明する図面である。図5dに示すように、積分画像は、格子のような四角形のサブセットの中の値の合計を生成するためのアルゴリズムである。図5dは、説明の便宜上提供されているだけで、本発明を限定するものではないことに注意する必要がある。
図5eは、本発明に適用されることが可能なボックスブロックの例示である。ボックスブロックは、クロス-チャンネル1x1の畳み込み層を有するが、その理由は、ボックス畳み込み層が各チャンネルに対し独立的に動作するためである。ボックスブロックは、配置正規化及び残差接続(residual connection)を通じて拡張されることも可能である。
図6は、本発明の他の一側面に基づく悪性腫瘍の位置特定及び視覚化を行うシステムの他の実施例における構成及び動作を説明するブロック図である。
図6は、CNNの構成要素として畳み込みブロック(CB)及びボックス畳み込みブロック(BB)が含まれるという点を除くと、図3のブロック図と同一である。従って、明細書の簡略化のために、重複説明は省略する。
図7は、図3における悪性腫瘍の位置特定及び視覚化を行うシステムに適用されることが可能なCAMアルゴリズムを説明するための図面である。
クラス活性化マップ(CAM)は、位置特定性能を評価するための、特定のクラスに係るマップである。クラス活性化マップ(CAM)を用いると、入力画像において病変に該当する領域を強調して視覚化することが可能になる。
深層学習アルゴリズムを用いた分類方法は、領域に基づく、且つ、画像に基づく分類にカテゴリー化されることが可能である。領域に基づく分類の場合、腫瘍ROI抽出が分類プロセスより先行する。本発明において、U-Net、完全-畳み込みネットワーク、及び高速R-CNNのような画像セグメンテーション方法が、寄与領域の抽出のために採用される。画像に基づく分類は、全体超音波画像(腫瘍周辺の全体の乳房組織を含む)を入力として受信し、腫瘍分類に係る超音波の特徴を学習する。本発明の弱教師あり深層学習アルゴリズムは、超音波画像から悪性腫瘤と良性乳房腫瘤を分別するとき、完全教師あり深層学習アルゴリズムより人間を上手く模倣するアルゴリズムにより近い役割を果たす。乳房画像報告及びデータシステム(BI-RADS)に採用されている、人間が構築したアルゴリズムは、腫瘤の乳房組織と周辺の乳房組織の両方を考慮している。従って、画像全体の情報を用いる弱教師あり深層学習は(腫瘤またはその周辺に限定しない)、完全教師あり深層学習に比べて長所を発揮することが可能である。
対案されたアルゴリズムは、差分診断に役立つとされている腫瘤の外部のBI-RADSレクシコン技術情報の重要な部分(例えば、後方(posterior)の特徴、構造的歪曲、及び皮膚の変化や浮腫)を学習することが可能である。
さらに、弱教師あり深層学習アルゴリズムは、超音波乳房の病変のための深層学習-補助検出フレームワークにも適用されることが可能であるが、その理由は、提案されたアルゴリズムが乳房組織における疾病領域と無疾病領域とを全て学習することができるためである。検出フレームワークを開発するために、無疾病区域を学習することが特に重要であるが、その理由は、乳房組織の超音波外観(特に乳腺区域)が人によって様々であり、特に繊維(fibrous element)及び腺の要素(glandular element)の量や分布によって、乳房の部分ごとに大いに異なるためである。さらに、皮膚から胸部までの解剖学的構造の正常な外観を知ると、病理学的構造を検出するうえで 胸壁が必須的なものになる。
要約すると、本発明において用いられているGAPは、以下のような長所を有する。
第1に、計算負荷とパラメータを大いに減少させることが可能であり、そのためネットワークの速度を向上し、過剰適合(overfitting)問題に対する頑健性をより高めることが可能である。
第2に、本発明は、特徴マップを強化してクラスに係る空間的情報を保存することで、これらがCNNモデルの判定を解釈するために用いられることを可能にする。CAMがあるGAPを用いた、悪性と良性を区別する診断に影響を及ぼす領域を識別するためのかかる方法は、eXplainable AI(XAI)の概念と関係がある。XAI又はresponsible-AIは、深層学習のフレームワークにより発生する、判定がどのようにして行われるかを理解することが不可能な、内在する「ブラックボックスの問題」を克服するために新しく浮上しているパラダムである CAMは、AIにより具現化された判定決定プロセスを解析するための直観を提供する。また、CAMがある弱教師あり深層学習は、ヘルスケア提供者たちに、臨床的に重要な領域に係る深層学習-補助検出フレームワークを開発できるようにする。
第3に、本発明の長所は、提案された弱教師あり深層学習アルゴリズムを具現化するために、大量のデータセットを用いたトレーニングが必須ではないということである。
第4に、良性乳房腫瘤から悪性を検出且つ診断するための、画像ROIアノテーションが行われていない弱教師あり深層学習アルゴリズムは、乳房腫瘤を正確に検出し、従来の完全教師あり深層学習アルゴリズムに比較したとき、同等の性能を発揮する。悪性と良性を区別する診断及び識別性位置特定が良好に遂行され、弱教師あり深層学習アルゴリズムによって得られたデータキューレーションの効率が高いということは、本発明が具現化可能なものであり、今後の臨床研究においてテストのための貴重な候補となることを示唆する。
図8は、図3における悪性腫瘍の位置特定及び視覚化を行うシステムのアーキテクチャを概略的に要約した図面であり、図9は、図3における悪性腫瘍の位置特定及び視覚化を行うシステムの性能を示すグラフである。
前述のように、弱教師あり深層学習アルゴリズムは病変の関心領域(ROI)に対する画像アノテーションを要求しないが、完全教師あり深層学習アルゴリズムは腫瘍セグメンテーション(手動又は自動)及び分類器に入る前に、ROIに対するクロップが必要である。弱教師あり深層学習アルゴリズムの場合、クラス活性化マップ(CAM)が生成され、最後の畳み込み層に追加されるグローバル平均プーリング層(GAP)を用いて、かかるアルゴリズムによって検出される区域を視覚化する。
数学式8については、Chanho Kim, Won Hwa Kim, Hye Jung Kim, and Jaeil Kim, “Weakly-supervised US breast Tumor Characterization and Localization with a Box Convolution Network”を参照されたい。
図10は、図3のシステムによって具現化されたヒートマップの複数の例を示す図面である。
図10を参照すると、本発明による悪性腫瘍の位置特定及び視覚化を行う方法及びシステムは、従来の技術による完全教師あり学習と同等かそれ以上の性能を提供し、病変周辺の組織に係る画像情報をそのまま表出するため、検診の正確度を向上させる。
本発明は、図面に示されている実施例を参考に説明されているが、これは例示的なものに過ぎず、本技術分野において通常の知識を有する者であれば、これを基に多様な変形及び均等な他の実施例を想到できることを理解できると考えられる。例えば、弱教師あり深層学習アルゴリズムが医療用画像においてより幅広く活用されるようにするために、かかるアルゴリズムが他の身体部位又は他の画像モダリティから得られた画像にも適用されることが可能である。
また、本発明に基づく方法は、コンピューター可読保存媒体においてコンピューターが読み取り可能なコードとして具現化することが可能である。コンピューター可読保存媒体は、コンピューターシステムが読み取り可能なデータが保存されるあらゆる種類の記録装置を含むことが可能である。コンピューター可読保存媒体の例としては、ROM、RAM、CD-ROM、磁気テープ、フロッピーディスク、光データ保存装置等があり、またキャリアウェイブ(例えば、インターネットを通じた伝送)の形で具現化されることも含む。また、コンピューター可読保存媒体は、ネットワークで繋がっている分散コンピューターシステムによって、分散方式で実行されることのできるコンピューターが読み取り可能なコードを保存することが可能である。
本明細書において用いられる用語において、単数の表現は、文脈上明らかに単数の意味としてとらえられる場合を除き、複数の表現を含むものとし、述語又は修飾語としての「含む」「含める」等の用語は、説示されている特徴、数、段階、動作構成要素、部分品又はこれらの組み合わせが存在することを意味するものであって、1つ又はそれ以上の他の特徴や数、段階、動作構成要素、部分品又はこれらの組み合わせの存在又は追加の可能性を排除するものはないものとする。そして、明細書に記載されている「~部」、「~器(機)」、「モジュール」、「ブロック」等の用語は、少なくとも1つの機能や動作を処理する単位を意味し、これはハードウェアやソフトウェア又はハードウェアとソフトウェアの組み合わせによって具現化されることが可能である。
従って、本実施例及び本明細書に添付されている図面は、本発明に含まれる技術的思想の一部を明確に示していることに過ぎず、本発明の明細書及び図面に含まれている技術的思想の範囲内で当業者が容易に想到できる変形の例と具体的な実施例が全て本発明の権利の範疇に含まれることは自明である。
本発明において開発されている弱教師あり深層学習アルゴリズムは、良好な位置特定及び悪性と良性を区別する診断が可能な乳がんの超音波診断のために用いられることが可能である。
310:非識別化モジュール 330:データ強化モジュール
350:CNN 370:寄与領域決定及び視覚化モジュール
350:CNN 370:寄与領域決定及び視覚化モジュール
本発明において開発されている弱教師あり深層学習アルゴリズムは、良好な位置特定及
び悪性と良性を区別する診断が可能な乳がんの超音波診断のために用いられることが可能
である。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[付記1]
弱教師あり(weakly-supervised)深層学習(deep learning;DL)人工知能を利用した乳房超音波診断方法であって
乳房超音波画像から患者の個人情報を削除し、学習に必要な画像領域だけを含む入力データを生成する超音波画像前処理段階;
前記入力データを受信し、畳み込みニューラルネットワーク(convolutional neural network;CNN)及びグローバル平均プーリング(global average pooling;GAP)を利用し、受信された入力データから特徴マップを取得し再学習する深層学習段階;
グローバル平均プーリング(GAP)を利用して前記入力データを正常、良性、悪性のうちいずれか1つと判別し、悪性と判別された場合は、判別の正確度を表す悪性確率(probability of malignancy;POM)を計算する鑑別診断段階;及び
判別した結果を前記畳み込みニューラルネットワーク(CNN)を通じて逆伝播し、前記判別結果に寄与したピクセル別の寄与度を勾配(gradient)と特徴量から計算し、計算されたピクセル別の寄与度に基づき判別に寄与した寄与領域(relevant region)を前記悪性確率(POM)と共に視覚化する寄与領域決定及び視覚化段階を含み、
前記深層学習段階は、前記寄与領域及び前記悪性確率(POM)の検証された性能に基づいて学習されることを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断方法。
[付記2]
付記1において、
前記超音波画像前処理段階は、
超音波画像のために開発された専用の非識別化モジュールを利用してダイコム(Digital Imaging and Communications in Medicine;DICOM)ヘッダーの情報のうち患者の個人情報に係る情報を削除すること;
超音波画像のエッジをトリミング(trimming)して残りの個人情報と学習の妨げになる身体マーク及びテキストタグを削除することで匿名化された画像を抽出するか又は超音波機器から受信された超音波信号を基に画像データを生成すること;及び
前記匿名化された画像又は画像データを前記画像と同じ大きさの入力データにサイズ調整(resizing)することを含むことを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断方法。
[付記3]
付記2において、
前記深層学習段階は、
検証における誤りを減らして再現性のあるモデルにするために、前記匿名化された画像に幾何学的変異と光学的変異のうち少なくとも1つを加えてデータ拡張(augmentation)プロセスを適用すること;
前記入力データの正常/良性/悪性を学習するために、画像分類(image classification)を行う少なくとも1つの畳み込みニューラルネットワーク(CNN)を利用して深層学習アルゴリズムのアーキテクチャを構成し、各畳み込み層に対応する特徴マップを取得すること;及び
取得された特徴マップに係るパラメータを決定し再学習することを含むことを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断方法。
[付記4]
付記3において、
前記鑑別診断段階は、
前記深層学習アルゴリズムのアーキテクチャにおいて畳み込み層の次に来るように追加されたグローバル平均プーリング(GAP)層を用いて、最後の畳み込み層の各々の特徴マップの特徴量を取得すること;
取得された特徴量に学習可能な重みを適用してクラスのスコアを計算し、計算されたクラスのスコアを基に悪性確率(POM)を計算することを含むことを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断方法。
[付記5]
付記4において、
前記寄与領域決定及び視覚化段階は、
前記特徴マップに重みを適用して各クラスのクラス活性化マップ(class activation map;CAM)を取得すること;
取得されたクラス活性化マップ(CAM)にmin-max正規化を適用してスケーリングすること;
スケーリングされたクラス活性化マップ(CAM)にしきい値を適用した二値化を行って前記寄与領域を決定すること;及び
前記クラス活性化マップ(CAM)をヒートマップとして前記悪性確率(POM)と共に視覚化することを含むことを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断方法。
[付記6]
付記3において、
前記幾何学的変異は、水平反転、垂直反転、回転、スケーリング、並進のうち少なくとも1つを含み、
前記光学的変異は、削除、スペックルノイズ(speckle noise)処理、尖鋭化(sharpening)、ガウシアンぼかし(Gaussian blurring)のうち少なくとも1つを含むことを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断方法。
[付記7]
弱教師あり深層学習(DL)人工知能を利用した乳房超音波診断システムであって、
乳房超音波画像から患者の個人情報を削除し、学習に必要な画像領域だけを含む入力データを生成する超音波画像前処理モジュール;
前記入力データを受信し、畳み込みニューラルネットワーク(CNN)及びグローバル平均プーリング(GAP)を利用し、受信された入力データから特徴マップを取得し再学習する深層学習モジュール;
グローバル平均プーリング(GAP)を利用して前記入力データを正常、良性、悪性のうちいずれか1つと判別し、悪性と判別された場合は、判別の正確度を表す悪性確率(POM)を計算する鑑別診断モジュール;及び
判別した結果を前記畳み込みニューラルネットワーク(CNN)を通じて逆伝播し、前記判別結果に寄与したピクセル別の寄与度を勾配と特徴量から計算し、計算されたピクセル別の寄与度に基づき判別に寄与した寄与領域を前記悪性確率(POM)と共に視覚化する寄与領域決定及び視覚化モジュールを含み、
前記弱教師あり深層学習アルゴリズムは前記寄与領域及び前記悪性確率(POM)の検証された性能に基づいて学習されることを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断システム。
[付記8]
付記7において、
前記超音波画像前処理モジュールは、
超音波画像のために開発された専用の非識別化モジュールを利用してダイコム(DICOM)ヘッダーの情報のうち患者の個人情報に係る情報を削除し、
超音波画像のエッジをトリミング(trimming)して残りの個人情報と学習の妨げになる身体マーク及びテキストタグを削除することで匿名化された画像を抽出するか又は超音波機器から受信された超音波信号を基に画像データを生成し、
前記匿名化された画像又は画像データを画像と同じ大きさの入力データにサイズ調整するように構成されることを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断システム。
[付記9]
付記8において、
前記深層学習モジュールは、
検証における誤りを減らして再現性のあるモデルにするために、前記匿名化された画像に幾何学的変異と光学的変異のうち少なくとも1つを加えてデータ拡張プロセスを適用し、
前記入力データの正常/良性/悪性を学習するために、画像分類を行う少なくとも1つの畳み込みニューラルネットワーク(CNN)を利用して深層学習アルゴリズムのアーキテクチャを構成し、各畳み込み層に対応する特徴マップを取得し、
取得された特徴マップに係るパラメータを決定し再学習するように構成されることを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断システム。
[付記10]
付記9において、
前記鑑別診断モジュールは、
前記深層学習アルゴリズムのアーキテクチャにおいて畳み込み層の次に来るように追加されたグローバル平均プーリング(GAP)層を用いて、最後の畳み込み層の各々の特徴マップの特徴量を取得し、
取得された特徴量に学習可能な重みを適用してクラスのスコアを計算し、計算されたクラスのスコアを基に悪性確率(POM)を計算するように構成されることを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断システム。
[付記11]
付記7において、
前記寄与領域決定及び視覚化モジュールは、
前記特徴マップに重みを適用して各クラスのクラス活性化マップ(CAM)を取得し、
取得されたクラス活性化マップ(CAM)にmin-max正規化を適用してスケーリングし、
スケーリングされたクラス活性化マップ(CAM)にしきい値を適用した二値化を行って前記寄与領域を決定し、
前記クラス活性化マップ(CAM)をヒートマップとして前記悪性確率(POM)と共に視覚化するように構成されることを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断システム。
[付記12]
付記9において、
前記幾何学的変異は、水平反転、垂直反転、回転、スケーリング、並進のうち少なくとも1つを含み、
前記光学的変異は、削除、スペックルノイズ処理、尖鋭化、ガウシアンぼかしのうち少なくとも1つを含むことを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断システム。
び悪性と良性を区別する診断が可能な乳がんの超音波診断のために用いられることが可能
である。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[付記1]
弱教師あり(weakly-supervised)深層学習(deep learning;DL)人工知能を利用した乳房超音波診断方法であって
乳房超音波画像から患者の個人情報を削除し、学習に必要な画像領域だけを含む入力データを生成する超音波画像前処理段階;
前記入力データを受信し、畳み込みニューラルネットワーク(convolutional neural network;CNN)及びグローバル平均プーリング(global average pooling;GAP)を利用し、受信された入力データから特徴マップを取得し再学習する深層学習段階;
グローバル平均プーリング(GAP)を利用して前記入力データを正常、良性、悪性のうちいずれか1つと判別し、悪性と判別された場合は、判別の正確度を表す悪性確率(probability of malignancy;POM)を計算する鑑別診断段階;及び
判別した結果を前記畳み込みニューラルネットワーク(CNN)を通じて逆伝播し、前記判別結果に寄与したピクセル別の寄与度を勾配(gradient)と特徴量から計算し、計算されたピクセル別の寄与度に基づき判別に寄与した寄与領域(relevant region)を前記悪性確率(POM)と共に視覚化する寄与領域決定及び視覚化段階を含み、
前記深層学習段階は、前記寄与領域及び前記悪性確率(POM)の検証された性能に基づいて学習されることを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断方法。
[付記2]
付記1において、
前記超音波画像前処理段階は、
超音波画像のために開発された専用の非識別化モジュールを利用してダイコム(Digital Imaging and Communications in Medicine;DICOM)ヘッダーの情報のうち患者の個人情報に係る情報を削除すること;
超音波画像のエッジをトリミング(trimming)して残りの個人情報と学習の妨げになる身体マーク及びテキストタグを削除することで匿名化された画像を抽出するか又は超音波機器から受信された超音波信号を基に画像データを生成すること;及び
前記匿名化された画像又は画像データを前記画像と同じ大きさの入力データにサイズ調整(resizing)することを含むことを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断方法。
[付記3]
付記2において、
前記深層学習段階は、
検証における誤りを減らして再現性のあるモデルにするために、前記匿名化された画像に幾何学的変異と光学的変異のうち少なくとも1つを加えてデータ拡張(augmentation)プロセスを適用すること;
前記入力データの正常/良性/悪性を学習するために、画像分類(image classification)を行う少なくとも1つの畳み込みニューラルネットワーク(CNN)を利用して深層学習アルゴリズムのアーキテクチャを構成し、各畳み込み層に対応する特徴マップを取得すること;及び
取得された特徴マップに係るパラメータを決定し再学習することを含むことを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断方法。
[付記4]
付記3において、
前記鑑別診断段階は、
前記深層学習アルゴリズムのアーキテクチャにおいて畳み込み層の次に来るように追加されたグローバル平均プーリング(GAP)層を用いて、最後の畳み込み層の各々の特徴マップの特徴量を取得すること;
取得された特徴量に学習可能な重みを適用してクラスのスコアを計算し、計算されたクラスのスコアを基に悪性確率(POM)を計算することを含むことを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断方法。
[付記5]
付記4において、
前記寄与領域決定及び視覚化段階は、
前記特徴マップに重みを適用して各クラスのクラス活性化マップ(class activation map;CAM)を取得すること;
取得されたクラス活性化マップ(CAM)にmin-max正規化を適用してスケーリングすること;
スケーリングされたクラス活性化マップ(CAM)にしきい値を適用した二値化を行って前記寄与領域を決定すること;及び
前記クラス活性化マップ(CAM)をヒートマップとして前記悪性確率(POM)と共に視覚化することを含むことを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断方法。
[付記6]
付記3において、
前記幾何学的変異は、水平反転、垂直反転、回転、スケーリング、並進のうち少なくとも1つを含み、
前記光学的変異は、削除、スペックルノイズ(speckle noise)処理、尖鋭化(sharpening)、ガウシアンぼかし(Gaussian blurring)のうち少なくとも1つを含むことを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断方法。
[付記7]
弱教師あり深層学習(DL)人工知能を利用した乳房超音波診断システムであって、
乳房超音波画像から患者の個人情報を削除し、学習に必要な画像領域だけを含む入力データを生成する超音波画像前処理モジュール;
前記入力データを受信し、畳み込みニューラルネットワーク(CNN)及びグローバル平均プーリング(GAP)を利用し、受信された入力データから特徴マップを取得し再学習する深層学習モジュール;
グローバル平均プーリング(GAP)を利用して前記入力データを正常、良性、悪性のうちいずれか1つと判別し、悪性と判別された場合は、判別の正確度を表す悪性確率(POM)を計算する鑑別診断モジュール;及び
判別した結果を前記畳み込みニューラルネットワーク(CNN)を通じて逆伝播し、前記判別結果に寄与したピクセル別の寄与度を勾配と特徴量から計算し、計算されたピクセル別の寄与度に基づき判別に寄与した寄与領域を前記悪性確率(POM)と共に視覚化する寄与領域決定及び視覚化モジュールを含み、
前記弱教師あり深層学習アルゴリズムは前記寄与領域及び前記悪性確率(POM)の検証された性能に基づいて学習されることを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断システム。
[付記8]
付記7において、
前記超音波画像前処理モジュールは、
超音波画像のために開発された専用の非識別化モジュールを利用してダイコム(DICOM)ヘッダーの情報のうち患者の個人情報に係る情報を削除し、
超音波画像のエッジをトリミング(trimming)して残りの個人情報と学習の妨げになる身体マーク及びテキストタグを削除することで匿名化された画像を抽出するか又は超音波機器から受信された超音波信号を基に画像データを生成し、
前記匿名化された画像又は画像データを画像と同じ大きさの入力データにサイズ調整するように構成されることを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断システム。
[付記9]
付記8において、
前記深層学習モジュールは、
検証における誤りを減らして再現性のあるモデルにするために、前記匿名化された画像に幾何学的変異と光学的変異のうち少なくとも1つを加えてデータ拡張プロセスを適用し、
前記入力データの正常/良性/悪性を学習するために、画像分類を行う少なくとも1つの畳み込みニューラルネットワーク(CNN)を利用して深層学習アルゴリズムのアーキテクチャを構成し、各畳み込み層に対応する特徴マップを取得し、
取得された特徴マップに係るパラメータを決定し再学習するように構成されることを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断システム。
[付記10]
付記9において、
前記鑑別診断モジュールは、
前記深層学習アルゴリズムのアーキテクチャにおいて畳み込み層の次に来るように追加されたグローバル平均プーリング(GAP)層を用いて、最後の畳み込み層の各々の特徴マップの特徴量を取得し、
取得された特徴量に学習可能な重みを適用してクラスのスコアを計算し、計算されたクラスのスコアを基に悪性確率(POM)を計算するように構成されることを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断システム。
[付記11]
付記7において、
前記寄与領域決定及び視覚化モジュールは、
前記特徴マップに重みを適用して各クラスのクラス活性化マップ(CAM)を取得し、
取得されたクラス活性化マップ(CAM)にmin-max正規化を適用してスケーリングし、
スケーリングされたクラス活性化マップ(CAM)にしきい値を適用した二値化を行って前記寄与領域を決定し、
前記クラス活性化マップ(CAM)をヒートマップとして前記悪性確率(POM)と共に視覚化するように構成されることを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断システム。
[付記12]
付記9において、
前記幾何学的変異は、水平反転、垂直反転、回転、スケーリング、並進のうち少なくとも1つを含み、
前記光学的変異は、削除、スペックルノイズ処理、尖鋭化、ガウシアンぼかしのうち少なくとも1つを含むことを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断システム。
Claims (12)
- 弱教師あり(weakly-supervised)深層学習(deep learning;DL)人工知能を利用した乳房超音波診断方法であって
乳房超音波画像から患者の個人情報を削除し、学習に必要な画像領域だけを含む入力データを生成する超音波画像前処理段階;
前記入力データを受信し、畳み込みニューラルネットワーク(convolutional neural network;CNN)及びグローバル平均プーリング(global average pooling;GAP)を利用し、受信された入力データから特徴マップを取得し再学習する深層学習段階;
グローバル平均プーリング(GAP)を利用して前記入力データを正常、良性、悪性のうちいずれか1つと判別し、悪性と判別された場合は、判別の正確度を表す悪性確率(probability of malignancy;POM)を計算する鑑別診断段階;及び
判別した結果を前記畳み込みニューラルネットワーク(CNN)を通じて逆伝播し、前記判別結果に寄与したピクセル別の寄与度を勾配(gradient)と特徴量から計算し、計算されたピクセル別の寄与度に基づき判別に寄与した寄与領域(relevant region)を前記悪性確率(POM)と共に視覚化する寄与領域決定及び視覚化段階を含み、
前記深層学習段階は、前記寄与領域及び前記悪性確率(POM)の検証された性能に基づいて学習されることを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断方法。 - 請求項1において、
前記超音波画像前処理段階は、
超音波画像のために開発された専用の非識別化モジュールを利用してダイコム(Digital Imaging and Communications in Medicine;DICOM)ヘッダーの情報のうち患者の個人情報に係る情報を削除すること;
超音波画像のエッジをトリミング(trimming)して残りの個人情報と学習の妨げになる身体マーク及びテキストタグを削除することで匿名化された画像を抽出するか又は超音波機器から受信された超音波信号を基に画像データを生成すること;及び
前記匿名化された画像又は画像データを前記画像と同じ大きさの入力データにサイズ調整(resizing)することを含むことを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断方法。 - 請求項2において、
前記深層学習段階は、
検証における誤りを減らして再現性のあるモデルにするために、前記匿名化された画像に幾何学的変異と光学的変異のうち少なくとも1つを加えてデータ拡張(augmentation)プロセスを適用すること;
前記入力データの正常/良性/悪性を学習するために、画像分類(image classification)を行う少なくとも1つの畳み込みニューラルネットワーク(CNN)を利用して深層学習アルゴリズムのアーキテクチャを構成し、各畳み込み層に対応する特徴マップを取得すること;及び
取得された特徴マップに係るパラメータを決定し再学習することを含むことを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断方法。 - 請求項3において、
前記鑑別診断段階は、
前記深層学習アルゴリズムのアーキテクチャにおいて畳み込み層の次に来るように追加されたグローバル平均プーリング(GAP)層を用いて、最後の畳み込み層の各々の特徴マップの特徴量を取得すること;
取得された特徴量に学習可能な重みを適用してクラスのスコアを計算し、計算されたクラスのスコアを基に悪性確率(POM)を計算することを含むことを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断方法。 - 請求項4において、
前記寄与領域決定及び視覚化段階は、
前記特徴マップに重みを適用して各クラスのクラス活性化マップ(class activation map;CAM)を取得すること;
取得されたクラス活性化マップ(CAM)にmin-max正規化を適用してスケーリングすること;
スケーリングされたクラス活性化マップ(CAM)にしきい値を適用した二値化を行って前記寄与領域を決定すること;及び
前記クラス活性化マップ(CAM)をヒートマップとして前記悪性確率(POM)と共に視覚化することを含むことを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断方法。 - 請求項3において、
前記幾何学的変異は、水平反転、垂直反転、回転、スケーリング、並進のうち少なくとも1つを含み、
前記光学的変異は、削除、スペックルノイズ(speckle noise)処理、尖鋭化(sharpening)、ガウシアンぼかし(Gaussian blurring)のうち少なくとも1つを含むことを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断方法。 - 弱教師あり深層学習(DL)人工知能を利用した乳房超音波診断システムであって、
乳房超音波画像から患者の個人情報を削除し、学習に必要な画像領域だけを含む入力データを生成する超音波画像前処理モジュール;
前記入力データを受信し、畳み込みニューラルネットワーク(CNN)及びグローバル平均プーリング(GAP)を利用し、受信された入力データから特徴マップを取得し再学習する深層学習モジュール;
グローバル平均プーリング(GAP)を利用して前記入力データを正常、良性、悪性のうちいずれか1つと判別し、悪性と判別された場合は、判別の正確度を表す悪性確率(POM)を計算する鑑別診断モジュール;及び
判別した結果を前記畳み込みニューラルネットワーク(CNN)を通じて逆伝播し、前記判別結果に寄与したピクセル別の寄与度を勾配と特徴量から計算し、計算されたピクセル別の寄与度に基づき判別に寄与した寄与領域を前記悪性確率(POM)と共に視覚化する寄与領域決定及び視覚化モジュールを含み、
前記弱教師あり深層学習アルゴリズムは前記寄与領域及び前記悪性確率(POM)の検証された性能に基づいて学習されることを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断システム。 - 請求項7において、
前記超音波画像前処理モジュールは、
超音波画像のために開発された専用の非識別化モジュールを利用してダイコム(DICOM)ヘッダーの情報のうち患者の個人情報に係る情報を削除し、
超音波画像のエッジをトリミング(trimming)して残りの個人情報と学習の妨げになる身体マーク及びテキストタグを削除することで匿名化された画像を抽出するか又は超音波機器から受信された超音波信号を基に画像データを生成し、
前記匿名化された画像又は画像データを画像と同じ大きさの入力データにサイズ調整するように構成されることを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断システム。 - 請求項8において、
前記深層学習モジュールは、
検証における誤りを減らして再現性のあるモデルにするために、前記匿名化された画像に幾何学的変異と光学的変異のうち少なくとも1つを加えてデータ拡張プロセスを適用し、
前記入力データの正常/良性/悪性を学習するために、画像分類を行う少なくとも1つの畳み込みニューラルネットワーク(CNN)を利用して深層学習アルゴリズムのアーキテクチャを構成し、各畳み込み層に対応する特徴マップを取得し、
取得された特徴マップに係るパラメータを決定し再学習するように構成されることを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断システム。 - 請求項9において、
前記鑑別診断モジュールは、
前記深層学習アルゴリズムのアーキテクチャにおいて畳み込み層の次に来るように追加されたグローバル平均プーリング(GAP)層を用いて、最後の畳み込み層の各々の特徴マップの特徴量を取得し、
取得された特徴量に学習可能な重みを適用してクラスのスコアを計算し、計算されたクラスのスコアを基に悪性確率(POM)を計算するように構成されることを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断システム。 - 請求項7において、
前記寄与領域決定及び視覚化モジュールは、
前記特徴マップに重みを適用して各クラスのクラス活性化マップ(CAM)を取得し、
取得されたクラス活性化マップ(CAM)にmin-max正規化を適用してスケーリングし、
スケーリングされたクラス活性化マップ(CAM)にしきい値を適用した二値化を行って前記寄与領域を決定し、
前記クラス活性化マップ(CAM)をヒートマップとして前記悪性確率(POM)と共に視覚化するように構成されることを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断システム。 - 請求項9において、
前記幾何学的変異は、水平反転、垂直反転、回転、スケーリング、並進のうち少なくとも1つを含み、
前記光学的変異は、削除、スペックルノイズ処理、尖鋭化、ガウシアンぼかしのうち少なくとも1つを含むことを特徴とする、弱教師あり深層学習人工知能を利用した乳房超音波診断システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210019446A KR102559616B1 (ko) | 2021-02-10 | 2021-02-10 | 약지도 딥러닝 인공 지능을 이용한 유방 초음파 진단 방법 및 시스템 |
KR10-2021-0019446 | 2021-02-10 | ||
PCT/KR2022/002012 WO2022173233A1 (ko) | 2021-02-10 | 2022-02-10 | 약지도 딥러닝 인공 지능을 이용한 유방 초음파 진단 방법 및 시스템 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024507290A true JP2024507290A (ja) | 2024-02-16 |
Family
ID=82838022
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023572502A Pending JP2024507290A (ja) | 2021-02-10 | 2022-02-10 | 弱教師あり深層学習人工知能を利用した乳房超音波診断の方法及びシステム{Method and system for breast ultrasonic image diagnosis using weakly-supervised deep learning artificial intelligence} |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240312183A1 (ja) |
EP (1) | EP4292538A1 (ja) |
JP (1) | JP2024507290A (ja) |
KR (2) | KR102559616B1 (ja) |
WO (1) | WO2022173233A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024128489A1 (ko) * | 2022-12-12 | 2024-06-20 | 대한민국(농촌진흥청장) | 딥러닝 알고리즘을 이용한 돼지의 초음파 기반 임신 진단 장치 및 방법 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102154733B1 (ko) * | 2013-01-16 | 2020-09-11 | 삼성전자주식회사 | 의료 영상을 이용하여 대상체에 악성 종양이 존재하는지 여부를 예측하는 장치 및 방법 |
CN104021391B (zh) | 2013-03-01 | 2019-03-26 | 北京三星通信技术研究有限公司 | 处理超声图像的方法和装置以及乳腺癌诊断设备 |
US20200327409A1 (en) * | 2017-11-16 | 2020-10-15 | Samsung Electronics Co., Ltd. | Method and device for hierarchical learning of neural network, based on weakly supervised learning |
KR102223255B1 (ko) * | 2018-08-07 | 2021-03-05 | 한국과학기술원 | 유방 영상 보고 데이터 시스템을 이용한 딥 네트워크의 시각적 진단 해석 방법 및 시스템 |
KR102209382B1 (ko) * | 2018-12-27 | 2021-01-28 | 연세대학교 산학협력단 | 병변 진단에 대한 정보 제공 방법 및 이를 이용한 병변 진단에 대한 정보 제공용 디바이스 |
KR20200108685A (ko) * | 2019-03-11 | 2020-09-21 | 가천대학교 산학협력단 | 딥러닝 알고리즘을 이용한 유방의 병변 검출 프로그램 |
KR102281988B1 (ko) * | 2019-04-04 | 2021-07-27 | 한국과학기술원 | 병변 해석을 위한 상호작용이 가능한 cad 방법 및 그 시스템 |
KR102214123B1 (ko) * | 2020-02-17 | 2021-03-08 | 주식회사 제이엘케이 | 인공지능 기반 pwi-dwi 미스매치 병변 추출 및 통합 평가 방법 및 시스템 |
-
2021
- 2021-02-10 KR KR1020210019446A patent/KR102559616B1/ko active IP Right Grant
-
2022
- 2022-02-10 WO PCT/KR2022/002012 patent/WO2022173233A1/ko active Application Filing
- 2022-02-10 US US18/276,470 patent/US20240312183A1/en active Pending
- 2022-02-10 JP JP2023572502A patent/JP2024507290A/ja active Pending
- 2022-02-10 EP EP22752993.0A patent/EP4292538A1/en active Pending
-
2023
- 2023-02-28 KR KR1020230026497A patent/KR102620046B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
US20240312183A1 (en) | 2024-09-19 |
KR102559616B1 (ko) | 2023-07-27 |
KR102620046B1 (ko) | 2024-01-02 |
WO2022173233A9 (ko) | 2022-12-08 |
KR20220115757A (ko) | 2022-08-18 |
KR20230035297A (ko) | 2023-03-13 |
WO2022173233A1 (ko) | 2022-08-18 |
EP4292538A1 (en) | 2023-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Mahmood et al. | A brief survey on breast cancer diagnostic with deep learning schemes using multi-image modalities | |
US10192099B2 (en) | Systems and methods for automated screening and prognosis of cancer from whole-slide biopsy images | |
Dodia et al. | Recent advancements in deep learning based lung cancer detection: A systematic review | |
Jebarani et al. | A novel hybrid K-means and GMM machine learning model for breast cancer detection | |
CN111553892A (zh) | 基于深度学习的肺结节分割计算方法、装置及系统 | |
JP2010207572A (ja) | 障害のコンピュータ支援検出 | |
Ghantasala et al. | Texture recognization and image smoothing for microcalcification and mass detection in abnormal region | |
Sengan et al. | A fuzzy based high-resolution multi-view deep CNN for breast cancer diagnosis through SVM classifier on visual analysis | |
Gunasekaran | Leveraging object detection for the identification of lung cancer | |
Kaliyugarasan et al. | Pulmonary nodule classification in lung cancer from 3D thoracic CT scans using fastai and MONAI | |
Hegde et al. | A survey on machine learning and deep learning-based computer-aided methods for detection of polyps in CT colonography | |
KR102620046B1 (ko) | 약지도 딥러닝 인공 지능을 이용한 유방 초음파 진단 방법 및 시스템 | |
Mastouri et al. | A morphological operation-based approach for Sub-pleural lung nodule detection from CT images | |
Jubeen et al. | An automatic breast cancer diagnostic system based on mammographic images using convolutional neural network classifier | |
Thakur et al. | A systematic review of machine and deep learning techniques for the identification and classification of breast cancer through medical image modalities | |
Shaaban et al. | An Efficient Breast Cancer Segmentation System based on Deep Learning Techniques | |
Singh et al. | Detection of Brain Tumors Through the Application of Deep Learning and Machine Learning Models | |
Kaur et al. | Lung cancer detection using textural feature extraction and hybrid classification model | |
CN115409812A (zh) | 一种基于融合时间注意机制的ct图像自动分类方法 | |
Samulski et al. | Matching mammographic regions in mediolateral oblique and cranio caudal views: a probabilistic approach | |
Alirr | Dual attention U-net for liver tumor segmentation in CT images | |
Wu et al. | Weakly-supervised lesion analysis with a CNN-based framework for COVID-19 | |
Amritha et al. | Liver tumor segmentation and classification using deep learning | |
Siddiqui et al. | Computed Tomography Image Processing Methods for Lung Nodule Detection and Classification: A Review | |
Hage Chehade et al. | A Systematic Review: Classification of Lung Diseases from Chest X-Ray Images Using Deep Learning Algorithms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231031 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231031 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240820 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240903 |