JP2021144675A - 方法及びプログラム - Google Patents

方法及びプログラム Download PDF

Info

Publication number
JP2021144675A
JP2021144675A JP2020153253A JP2020153253A JP2021144675A JP 2021144675 A JP2021144675 A JP 2021144675A JP 2020153253 A JP2020153253 A JP 2020153253A JP 2020153253 A JP2020153253 A JP 2020153253A JP 2021144675 A JP2021144675 A JP 2021144675A
Authority
JP
Japan
Prior art keywords
image
anchor
neural network
label
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020153253A
Other languages
English (en)
Inventor
チェン ヂァン
Cheng Zhang
チェン ヂァン
チェン フランシーン
Francine Chen
チェン フランシーン
インイン チェン
Yin-Ying Chen
インイン チェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Business Innovation Corp filed Critical Fujifilm Business Innovation Corp
Publication of JP2021144675A publication Critical patent/JP2021144675A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/60Rotation of a whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ニューラルネットワークを使用して画像特徴を分類する方法及びプログラムを提供する。【解決手段】方法は、トリプレット損失プロセスを使用してニューラルネットワークをトレーニングすることを含む、ニューラルネットワークをトレーニングすることは、アンカー画像を取得すること、ポジティブ画像及びネガティブ画像を選択すること、アンカー画像、ポジティブ画像、及びネガティブ画像の各々に関連付けられた画像埋め込みを生成すること、アンカー画像の画像埋め込みに基づいてアンカー画像から抽出された画像特徴を分類すること、分類された画像特徴に関連付けられた画像ラベル位置を決定すること、決定された画像ラベル位置に関連付けられた特徴を抽出することを含み、損失の加重合計を使用して、マルチラベル損失を局所画像分類損失及びトリプレット損失と結合することを含む。【選択図】図1

Description

本開示は、方法及びプログラムに関する。
関連技術の用途では、医用画像における疾患の識別及び位置特定(localization)は、医用画像中の疾患のセグメンテーションに適用される。さらにこれは、診断書における疾患のテキスト記述を、診断書内で議論されている画像の領域に関連付けるのにも役立ち得る。関連技術の方法は、臓器の自動セグメンテーションを可能にした。画像中に何の疾患が生じているか、及び各疾患のおおよその位置を知ることによって、臓器セグメンテーション方法を、疾患セグメンテーションに応用することができる。ひいてはこれにより、医用画像における疾患サイズの測定効率が向上するであろう。
さらに、関連技術では、疾患の位置特定を実行する能力により、放射線技師又は医師の診断書に記載された疾患又は異常な状態の医用画像内での位置をリンク又は強調表示することも可能になる。これは、医師及びその患者による診断書の理解を深めるのに役立つ可能性がある。疾患の存在に注釈が付けられた医療データセットはいくつかあるが、疾患位置の注釈は非常に少ない。したがって、例えば疾患領域を示す境界ボックスなど、疾患位置の注釈があったとしても、ほとんど必要としないシステムを開発することが望ましい。
JADERBERG, M., et al., Spatial Transformer Networks, Advances in Neural Information Processing Systems, 2015, pp.2017-2015. LI, Z., et al., Thoracic Disease Identification and Localization with Limited Supervision, Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, 2018, pp.8290-8299. MA, C-Y., et al., Learning to Generate Grounded Visual Captions without Localization Supervision, arXiv:1906.00283, 2019, 16 pgs. RAJPURKAR, P., et al., Deep Learning for Chest Radiograph Diagnosis: A Retrospective Comparison of the CheXNeXt Algorithm to Practicing Radiologists, PLoS Medicine, 15(11), 2018, 17 pgs. SCHROFF, F., et al., FaceNet: A Unified Embedding for Face Recognition and Clustering, Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, 2015, pp.815-823. SELVARAJU, R. R., et al., Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization, Proceedings of IEEE International Conference on Computer Vision, 2017, pp.618-626. WANG, X., et al., ChestX-ray8: Hospital-scale Chest X-ray Database and Benchmarks on Weakly-Supervised Classification and Localization of Common Thorax Diseases, Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, 2017, pp.2097-2106. XIA, Y., et al., Dual Supervised Learning, Proceedings of the 34th International Conference on Machine Learning, 70, 2017, pp.3789-3798. ZHOU, B., et al., Learning Deep Features for Discriminative Localization, Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, 2016, pp.2921-2929. GUAN, Q., et al., Diagnose like a Radiologist: Attention Guided Convolutional Neural Network for Thorax Disease Classification, arXiv:1801.09927, 2018, 10 pgs.
本開示の技術は、ニューラルネットワークを使用して画像特徴を分類する方法及びプログラムを提供することを目的とする。
本開示の第1の態様は、ニューラルネットワークを使用して画像特徴を分類する方法を含み得る。方法は、トリプレット損失プロセスを使用してニューラルネットワークをトレーニングするステップと、トレーニング済みニューラルネットワークを使用して、関連するラベル付けされた特徴を有していないテストデータ画像の画像特徴を分類するステップとを含み得る。ニューラルネットワークをトレーニングするステップは、ニューラルネットワークをトレーニングするために使用されるアンカー画像及びアンカー画像に関連付けられた画像ラベルを取得すること、アンカー画像と少なくとも1つの画像ラベルを共有するポジティブ画像及びポジティブ画像に関連付けられた画像ラベルを選択すること、アンカー画像と画像ラベルを共有していないネガティブ画像及びネガティブ画像に関連付けられた画像ラベルを選択すること、画像特徴埋め込みネットワークを使用して、アンカー画像、ポジティブ画像、及びネガティブ画像の各々に関連付けられた画像埋め込みを生成すること、ニューラルネットワークによって、アンカー画像の画像埋め込みに基づいてアンカー画像から抽出された画像特徴を分類すること、及び、アンカー画像、ポジティブ画像、及びネガティブ画像の各々に関連付けられた画像埋め込みに基づいてトリプレット損失を計算して、画像特徴の分類重み付けを決定することを含む。
上記の第1の態様において、ニューラルネットワークをトレーニングするステップが、画像埋め込みに関連付けられたアンカー画像から抽出された分類済みの画像特徴と、アンカー画像に関連付けられた画像ラベルとに基づいてマルチラベル損失を計算すること、及び、損失の加重合計を使用して、マルチラベル損失を計算されたトリプレット損失と結合することをさらに含んでいてもよい。また、ニューラルネットワークをトレーニングするステップが、空間変換ネットワークを使用して、拡大縮小、回転、及び切り取りを行うことにより、アンカー画像、ポジティブ画像、及びネガティブ画像の各々を変換し、共通のビューの向きを確立することをさらに含んでいてもよい。
上記の第1の態様において、ニューラルネットワークをトレーニングするステップが、分類済みの画像特徴に関連付けられた画像ラベル位置を決定すること、決定された画像ラベル位置に関連付けられた特徴を抽出すること、ニューラルネットワークを使用して、決定された画像ラベル位置に関連付けられた特徴を分類すること、決定された画像ラベル位置に関連付けられた特徴に関連付けられた局所画像分類損失を決定すること、及び、損失の加重合計を使用して、マルチラベル損失を前記局所画像分類損失及び前記トリプレット損失と結合することをさらに含んでいてもよい。また、トレーニング済みニューラルネットワークを使用して、テストデータ画像上の画像ラベル位置を特定するステップをさらに含んでいてもよい。また、ニューラルネットワークをトレーニングするステップが、決定された画像ラベル位置に関連付けられた特徴であって抽出された特徴に基づいて、アンカー画像の新しい画像埋め込みを生成すること、及び、ニューラルネットワークによって、新しい画像埋め込みに基づいて、アンカー画像から抽出された特徴を分類することをさらに含んでいてもよい。アンカー画像、ポジティブ画像、及びネガティブ画像の各々は、1又は複数の疾患に関連付けられた医療診断画像であってもよい。
本開示の第2の態様は、ニューラルネットワークを使用して画像特徴を分類する方法を含み得る。方法は、トリプレット損失プロセスを使用してニューラルネットワークをトレーニングするステップと、トレーニング済みニューラルネットワークを使用して、関連するラベル付けされた特徴を有していないテストデータ画像の画像特徴を分類するステップとを含み得る。ニューラルネットワークをトレーニングするステップは、ニューラルネットワークをトレーニングするために使用されるアンカー画像及びアンカー画像に関連付けられた画像ラベルを取得すること、画像特徴埋め込みネットワークを使用して、アンカー画像に関連付けられた画像埋め込みを生成すること、ニューラルネットワークによって、アンカー画像の画像埋め込みに基づいてアンカー画像から抽出された画像特徴を分類すること、分類済みの画像特徴に関連付けられた画像ラベル位置を決定すること、決定された画像ラベル位置に関連付けられた特徴を抽出すること、ニューラルネットワークを使用して、決定された画像ラベル位置に関連付けられた特徴を分類すること、及び、決定された画像ラベル位置に関連付けられた特徴に関連付けられた局所画像分類損失を決定することを含む。
上記の第2の態様において、ニューラルネットワークをトレーニングするステップが、画像埋め込みに関連付けられたアンカー画像から抽出された分類済みの画像特徴と、アンカー画像に関連付けられた画像ラベルとに基づいてマルチラベル損失を計算すること、及び、損失の加重合計を使用して、マルチラベル損失を局所画像分類損失と結合することをさらに含んでいてもよい。また、トレーニング済みニューラルネットワークを使用して、テストデータ画像上の画像ラベル位置を特定するステップをさらに含んでいてもよい。ニューラルネットワークをトレーニングするステップが、決定された画像ラベル位置に関連付けられた特徴であって抽出された特徴に基づいて、アンカー画像の新しい画像埋め込みを生成すること、及び、ニューラルネットワークによって、新しい画像埋め込みに基づいて、アンカー画像から抽出された特徴を分類することをさらに含んでいてもよい。
上記の第2の態様において、ニューラルネットワークをトレーニングするステップが、アンカー画像と少なくとも1つの画像ラベルを共有するポジティブ画像及びポジティブ画像に関連付けられた画像ラベルを選択すること、アンカー画像と画像ラベルを共有していないネガティブ画像及びネガティブ画像に関連付けられた画像ラベルを選択すること、アンカー画像、ポジティブ画像、及びネガティブ画像の各々に関連付けられた画像埋め込みに基づいてトリプレット損失を計算して、画像特徴の分類重み付けを決定すること、及び、損失の加重合計を使用して、マルチラベル損失を局所画像分類損失及びトリプレット損失と結合することをさらに含み、画像特徴埋め込みネットワークを使用して画像埋め込みを生成することが、画像特徴埋め込みネットワークを使用して、アンカー画像、ポジティブ画像、及びネガティブ画像の各々に関連付けられた画像埋め込みを生成することを含んでいてもよい。また、ニューラルネットワークをトレーニングするステップが、空間変換ネットワークを使用して、拡大縮小、回転、及び切り取りを行うことにより、アンカー画像、ポジティブ画像、及びネガティブ画像の各々を変換し、共通のビューの向きを確立するステップをさらに含んでいてもよい。アンカー画像、ポジティブ画像、及びネガティブ画像の各々は、1又は複数の疾患に関連付けられた医療診断画像であってもよい。
本開示の第3の態様は、コンピュータに、トリプレット損失プロセスを使用してニューラルネットワークをトレーニングするステップと、トレーニング済みニューラルネットワークを使用して、関連するラベル付けされた特徴を有していないテストデータ画像の画像特徴を分類するステップと、を実行させるためのプログラムを含み得る。ニューラルネットワークをトレーニングするステップは、ニューラルネットワークをトレーニングするために使用されるアンカー画像及びアンカー画像に関連付けられた画像ラベルを取得すること、アンカー画像と少なくとも1つの画像ラベルを共有するポジティブ画像及びポジティブ画像に関連付けられた画像ラベルを選択すること、アンカー画像と画像ラベルを共有していないネガティブ画像及びネガティブ画像に関連付けられた画像ラベルを選択すること、画像特徴埋め込みネットワークを使用して、アンカー画像、ポジティブ画像、及びネガティブ画像の各々に関連付けられた画像埋め込みを生成すること、ニューラルネットワークによって、アンカー画像の画像埋め込みに基づいてアンカー画像から抽出された画像特徴を分類すること、分類済みの画像特徴に関連付けられた画像ラベル位置を決定すること、決定された画像ラベル位置に関連付けられた特徴を抽出すること、ニューラルネットワークを使用して、決定された画像ラベル位置に関連付けられた特徴を分類すること、決定された画像ラベル位置に関連付けられた特徴に関連付けられた局所画像分類損失を決定すること、アンカー画像、ポジティブ画像、及びネガティブ画像の各々に関連付けられた画像埋め込みに基づいてトリプレット損失を計算して、画像特徴の分類重み付けを決定すること、及び、損失の加重合計を使用して、局所画像分類損失及びトリプレット損失を結合することを含む。
上記の第3の態様において、ニューラルネットワークをトレーニングするステップが、画像埋め込みに関連付けられたアンカー画像から抽出された分類済みの画像特徴と、アンカー画像に関連付けられた画像ラベルとに基づいてマルチラベル損失を計算すること、及び、損失の加重合計を使用して、マルチラベル損失を局所画像分類損失及びトリプレット損失と結合することをさらに含んでいてもよい。また、ニューラルネットワークをトレーニングするステップが、空間変換ネットワークを使用して、拡大縮小、回転、及び切り取りを行うことにより、アンカー画像、ポジティブ画像、及びネガティブ画像の各々を変換し、共通のビューの向きを確立するステップをさらに含んでいてもよい。
上記の第3の態様において、トレーニング済みニューラルネットワークを使用して、テストデータ画像上の画像ラベル位置を特定するステップをさらに含んでいてもよい。ニューラルネットワークをトレーニングするステップが、決定された画像ラベル位置に関連付けられた特徴であって抽出された特徴に基づいて、アンカー画像の新しい画像埋め込みを生成すること、及び、ニューラルネットワークによって、新しい画像埋め込みに基づいて、アンカー画像から抽出された特徴を分類することをさらに含んでいてもよい。アンカー画像、ポジティブ画像、及びネガティブ画像の各々は、1又は複数の疾患に関連付けられた医療診断画像であってもよい。
本開示のさらなる態様は、ニューラルネットワークを使用して画像特徴を分類するための情報処理装置を含み得る。情報処理装置は、トリプレット損失プロセスを使用してニューラルネットワークをトレーニングする手段と、トレーニング済みニューラルネットワークを使用して、関連するラベル付けされた特徴を有していないテストデータ画像の画像特徴を分類する手段とを含み得る。ニューラルネットワークをトレーニングする手段は、ニューラルネットワークをトレーニングするために使用されるアンカー画像及びアンカー画像に関連付けられた画像ラベルを取得すること、アンカー画像と少なくとも1つの画像ラベルを共有するポジティブ画像及びポジティブ画像に関連付けられた画像ラベルを選択すること、アンカー画像と画像ラベルを共有していないネガティブ画像及びネガティブ画像に関連付けられた画像ラベルを選択すること、画像特徴埋め込みネットワークを使用して、アンカー画像、ポジティブ画像、及びネガティブ画像の各々に関連付けられた画像埋め込みを生成すること、ニューラルネットワークによって、アンカー画像の画像埋め込みに基づいてアンカー画像から抽出された画像特徴を分類すること、及び、アンカー画像、ポジティブ画像、及びネガティブ画像の各々に関連付けられた画像埋め込みに基づいてトリプレット損失を計算して、画像特徴の分類重み付けを決定することを実行する。
本開示の例示的な実装形態に係るトリプレット損失を用いてマルチラベル疾患分類器をトレーニングする工程の概略図である。 本開示の例示的な実装形態に係る局所(localized)疾患予測を用いて画像分類器をトレーニングする工程の概略図である。 本開示の別の例示的な実装形態に係る局所疾患予測を用いて画像分類器をトレーニングする工程の概略図である。 本開示の例示的な実装形態に係るトレーニング済みニューラルネットワークを用いて画像を分類するプロセスのフローチャートである。 本開示の例示的な実装形態の評価結果のグラフ表示である。 本開示の例示的な実装形態の評価結果のグラフ表示である。 本開示の例示的な実装形態を使用して、疾患の例示的なヒートマップと予測位置及び正解(ground truth)位置とを示す図である。 本開示の例示的な実装形態を使用して、疾患の例示的なヒートマップと予測位置及び正解位置とを示す図である。 いくつかの例示的な実装形態での使用に適した例示的なコンピュータ装置を備えた例示的なコンピューティング環境を示す図である。
以下の詳細な説明は、本出願の図面及び例示的な実装形態の詳細を提供する。図面間で重複する要素の参照符号及び説明は、明確化のために省略されている。明細書全体を通して使用される用語は、例示として提供されており、限定を意図するものではない。例えば、「自動」という用語の使用は、本出願の実装形態を実施する当業者の所望の実装形態に応じて、完全自動の実装形態、又は実装形態の特定の態様に対するユーザ又は管理者による制御を含む半自動の実装形態を含んでいてもよい。さらに、「第1」、「第2」、「第3」などのような連続する用語は、単なるラベル付け目的のために明細書及び請求項で使用される場合があり、上記アクション又はアイテムが記載された順序で起きることを指すように限定されるべきではない。アクション又はアイテムは、本開示の範囲から逸脱することなく、異なる順序で並べられてもよく、若しくは並行して又は動的に実行されてもよい。
本開示では、用語「コンピュータ可読媒体」は、ローカル記憶装置、クラウドベースの記憶装置、遠隔に配置されたサーバ、又は当業者にとって自明であり得るその他いずれかの記憶装置を含み得る。
上述のように、医用画像における疾患の識別及び位置特定は、医用画像における疾患のセグメンテーションへの応用が可能であり、診断書における疾患のテキスト記述を議論されている画像の領域に関連付けるのにも役立つ。画像内にどのような疾患が発生しているか、及び各疾患のおおよその位置が分かっている場合には、既存の臓器の自動セグメンテーション方法を使用することができる。しかしながら、疾患位置の注釈は非常に少ない。したがって、例えば疾患領域を示す境界ボックスなど、疾患位置の注釈があったとしても、ほとんど必要としないシステムを開発することが望ましい。
本開示の例示的な実装形態は、医用画像における疾患の改善された分類及び位置特定を提供し得る。本開示のいくつかの例示的な実装形態では、物体の位置特定プロセスを使用して、関連する臓器(例えば、胸部に位置する肺)を含む画像の領域を自動的に識別し、これにより、関連する臓器が位置していない領域(例えば、肩や腕)で疾患を誤って識別することによるエラーを取り除くことができる。別の例示的な実装形態では、トリプレット損失プロセスを分類モデルに適用して、異なる疾患を含む一対の画像間の距離をどれだけ増やすかを、モデルがより継続的に学習できるようにしてもよい。さらに、いくつかの例示的な実装形態では、推定された疾患領域は、医用画像において疾患サイズを保証しながら疾患の位置を特定する方法をよりよく学習するために、トレーニング中にモデルにフィードバックされ得る。いくつかの例示的な実装形態では、これらの手法のすべてが組み合わせられてもよい。
本開示の例示的な実装形態は、医用画像における疾患識別の文脈で説明される場合があるが、例示的な実装形態は、医用画像の解析に限定されるものではない。代わりに、例示的な実装形態は、当業者にとって明らかであろう別のタイプの画像解析に適用されてもよい。
図1は、本開示の例示的な実装形態に係るトリプレット損失を用いてマルチラベル疾患分類器をトレーニングする工程の概略図100を示す。いくつかの例示的な実装形態では、医用画像は、疾患が発生する領域よりも広い領域を含むことが多い。たとえば、胸部x線は、患者の肩及び腕を含むことが多い。これらの例示的な実装形態では、空間変換ネットワーク(STN:Spatial Transformer Network)を使用して医用画像の周囲を切り取り(crop)、疾患が発生している領域に焦点を当てることができる。このステップは、いくつかの例示的な実装形態では実行されてもよく、又はいくつかの例示的な実装形態では省略されてもよい。
さらに、図示されるように、いくつかの例示的な実装形態では、トリプレット損失手法は、マルチラベル分類システムの一部として適合され得る。具体的には、トリプレット損失を使用して、少なくとも1つの共通の疾患を有する画像を特徴空間内で互いに接近させ、共通の疾患を有していない画像を特徴空間内で離れさせることができる。トリプレット損失は、分類される画像、即ちアンカー画像105と、同じタイプ(例えば、同じ患者、同じ疾患、又はその他の類似の特徴)の別の画像との間の距離を最小化し得る。図1に示されるように、同じタイプの画像は、少なくとも1つの共通の疾患を含む画像(例えば、ポジティブ画像107)として図示されている。さらに、疾患ラベルの共通点がゼロの画像は、異なるタイプであると見なされる。これらはネガティブ画像109の例として機能する。トリプレット損失を用いると、各入力アンカー画像105について、1つのポジティブ画像107及び1つのネガティブ画像109が、同じトレーニングバッチからランダムに選択される。いくつかの例示的な実装形態では、以下により詳細に論じられるトリプレット損失手法の性能を改善するために、ハード例マイニング(hard example mining)が使用され得る。
図1に示されるように、ポジティブ画像107及びネガティブ画像109がランダムに選択されると、各画像(例えば、アンカー画像105、ポジティブ画像107、及びネガティブ画像109)は、各画像を変換するための空間変換ネットワークによって処理されて、画像比較を可能にする。例えば、アンカー画像105は、符号111で空間変換ネットワークによって処理される。さらに、ポジティブ画像107は、符号113で空間変換ネットワークによって処理される。さらにまた、ネガティブ画像109は、符号115で空間変換ネットワークによって処理される。
空間変換ネットワークは、入力画像(特徴マップ)に対し切り取り(cropping)、移動(translation)、回転、拡大縮小(scale)、及びスキューを適用する識別可能なモジュールであり、6つのパラメータのみを必要とする。具体的には、例示的な実装形態では、幅W及び高さHを有する入力された胸部X線画像105は、x=(xi,xj) i=1,2,…,W、j=1,2,…,Hで表され得る。空間変換ネットワークは、符号111で6次元ベクトルを出力し、これはアフィン変換Aθとしてパラメータ化され得る。アフィンの場合、点ごとの変換は以下の通りである。
Figure 2021144675
ここで、(xt i,yt i)は出力特徴マップのターゲット座標であり、(xs i,ys i)は入力画像(特徴マップ)のソース座標である。そしてAθは、元の画像に対する切り取り、移動、及び等方性の拡大縮小を可能にするアフィン変換である。トレーニング中、モデルは、s(scale)とt及びt(translation)の値を学習する。
空間変換ネットワークが各画像(例えば、アンカー画像105、ポジティブ画像107、及びネガティブ画像109)を処理した後、各画像は、疾患分類に使用される画像の特徴を埋め込む画像特徴埋め込みネットワークによって処理されて、画像埋め込みを生成する。図1に示されるように、画像埋め込み123は、符号117で画像特徴埋め込みネットワークによってアンカー画像105から生成される。同様に、画像埋め込み125は、符号119で埋め込みネットワークによってポジティブ画像107から生成される。さらに、画像埋め込み127は、符号121で埋め込みネットワークによってネガティブ画像109から生成される。
いくつかの例示的な実装形態では、疾患ローカライザを使用して疾患位置特徴を埋め込むことによって、疾患位置情報は埋め込まれた特徴として含まれていてもよい。疾患ローカライザの使用については、図2及び図3に関して以下でより詳細に論じられる。
次に、アンカー画像105から作成された画像埋め込み123は、分類器ネットワーク129を通過して、トレーニングデータ内のアンカー画像105に割り当てられたラベルに基づいて損失係数を計算することができる。言い換えると、マルチラベル損失係数131は、トレーニングデータからのアンカー画像105に関連する割り当てられたラベルと、分類器ネットワーク129によるアンカー画像105の分類との差に基づいて計算される。
第2の損失係数であるマルチラベル損失係数131に加えて、トリプレット損失係数133が、以下に説明されるように計算され得る。次に、加重合計を使用して2つの損失が結合され、画像全体の分類損失と局所画像の分類損失とに同じ重みが与えられる。あるいは、トレーニング中に重みを学習することもできる。
いくつかの例示的な実装形態では、トリプレット制約集合Xは、以下のように考えることができる。
Figure 2021144675
ここで、Pはポジティブなペアを含み、Nはネガティブなペアを含み、Mはトリプレット集合全体の濃度を示す。2つのサンプルの相似関数は、l距離として示される。
Figure 2021144675
いくつかの例示的な実装形態では、コサイン距離が代わりに使用され得る。
いくつかの例示的な実装形態では、アンカーxが与えられた1つのトリプレットのヒンジ損失は、以下のように定義され得る。
Figure 2021144675
ここで、mはポジティブとネガティブのペアの間に適用されるマージンである。したがって、トレーニングセット内のすべての可能なトリプレット(3枚の画像の組)にわたって最小化されているグローバルトリプレット損失Ltripletは、以下のように計算され得る。
Figure 2021144675
最後に、トリプレット学習と統合された分類のための総損失Lclsは、以下のように定式化され得る。
Figure 2021144675
ここで、Lbinaryはマルチラベル分類の伝統的にトレーニングされたバイナリ交差エントロピー損失(binary cross entropy loss)であり、βは係数である。
いくつかの例示的な実装形態では、疾患特定アルゴリズムを使用して、疾患分類器をトレーニングし、疾患の識別及び位置特定の性能をさらに改善することができる。例えば、CAM又はGradCAMなどの既存の画像領域特定アルゴリズムを使用して、分類器をトレーニングすることができる。いずれのアルゴリズムも、クラス又は疾患予測のためにネットワークアクティベーションから計算され、分類を裏付ける画像内の領域がより大きい値を有する「ヒートマップ」を生成する。マルチラベル分類が実行されているので、アルゴリズム(例えば、GradCAM、CAM、又はその他のアルゴリズム)は、識別されたクラスごとに個別に実行され得る。疾患識別を改善するためのこの局所化の使用については、図2及び図3に関して以下でより詳細に説明する。
図2は、本開示の例示的な実装形態に係る局所疾患予測を用いて画像分類器をトレーニングする工程の概略図200を示す。いくつかの例示的な実装形態では、局所疾患生成を使用して、疾患の予測位置が分類器と一致するかどうかを確認することができる。このような例示的な実装形態では、画像が正しく切り取られていない場合、分類が不正確になりがちである。言い換えると、画像が切り取られて疾患領域が除外されている場合、疾患の分類は正しくない可能性がある。
図1に関して説明されたモデルと同様に、アンカー画像105(トレーニング目的で解析されている画像)は、画像を共通の画像スケールに変換するために、空間変換ネットワーク111を通過する。次に、空間変換ネットワーク111からの変換画像は、画像特徴埋め込みネットワーク117を通過して、疾患分類に使用される画像の特徴を埋め込み、画像埋め込み123を生成する。画像埋め込み123は、以下に説明するように、疾患位置情報を含む。疾患位置情報は、疾患位置特徴を埋め込むために疾患ローカライザ202によって使用されることになる。
図1で説明されたモデルと同様に、アンカー画像105から作成された画像埋め込み123は、次に分類器ネットワーク129を通過して、トレーニングデータ内のアンカー画像105に割り当てられたラベルに基づいて損失係数を計算することができる。言い換えると、マルチラベル損失係数131(全体画像分類損失とも呼ばれる)は、トレーニングデータからのアンカー画像105に関連する割り当てられたラベルと、分類器ネットワーク129によるアンカー画像105の分類との差に基づいて計算される。
入力画像全体における疾患の分類に基づいて分類器損失(全体画像分類損失131)を計算することに加えて、例示的な実装形態は、各疾患に対する予測境界ボックスを使用して、分類の前に画像を切り取ることができる。具体的には、図示されるように、ローカライザ202は、疾患の予測位置206を決定し、画像を疾患の予測位置の領域を残して切り取って、局所画像埋め込み204を生成する。具体的には、ローカライザ202は、アンカー画像105内の局所疾患の予測位置の境界ボックス内の領域の特徴を抽出する。境界ボックスの外側の領域の特徴値は0に設定される。修正された特徴、即ち局所画像埋め込み204は、境界ボックスの中の画像を表し、第2の分類器に入力される。代替のアプローチは、非疾患領域をある値、例えば0でマスクし、マスクされた画像を分類器への入力として使用することであろう。なお、予測された境界ボックス内の特徴(又は局所からの特徴)を選択することで、計算のいくつかの層がスキップされ、効率が向上することに留意されたい。
いくつかの例示的な実装形態では、CAM位置特定アルゴリズムを使用することができ、DenseNetの最後の層でのアクティベーションが抽出される。あるいは、例示的な実装形態では、GradCAM位置特定アルゴリズムが使用されてもよい。異なる例示的な実装形態では、異なる位置特定方法が使用され得る。いくつかの例示的な実装形態では、すべての特徴にわたって最大値が正規化に使用され得る。別の例示的な実装形態では、すべての特徴にわたって最大値と最小値との差が正規化に使用され得る。いずれの場合も、固定された閾値よりも大きい特徴アクティベーションの位置が識別され得る。閾値アクティベーションの周りの矩形の境界ボックスが計算され、境界ボックスの外側の特徴はゼロにされる。次に、得られた特徴マップは分類器205に供給され、分類器205は元の分類器と重みを共有する(図2参照)。あるいは、トレーニングされた分類器パラメータ(分類層のみ)で初期化された別個の分類器が、局所画像を分類するために使用され得る。別の代替の例示的な実装形態では、ローカライザ202によって決定された画像の局所領域は、分類器の直前に埋め込む特徴ではなく、画像特徴埋め込みネットワーク表現(DENSENET表現)の任意の層から決定されてもよい。
いくつかの実施形態では、全体画像分類からの損失131及び局所画像分類からの損失208は、以下の式7を使用して加重合計212として結合される。
Figure 2021144675
ここで、αは、局所画像損失の効果が徐々に加えられるように、いくつかの基準時点(epoch)にわたって0から0.5まで変化する。例えば、いくつかの例示的な実装形態では、αは20の基準時点にわたって増加し得る。その後、αは一定に保たれる。
いくつかの例示的な実装形態では、このトレーニングモデルは、トレーニング済みベースラインモデルのパラメータで初期化され得る。トレーニング済みベースラインモデルは、固定回数の反復トレーニングによって、又は検証データセットで損失が漸近するまで完全にトレーニングすることによって取得され得る。この初期化、即ち事前トレーニングを使用して、最初の反復で、推定された局所領域が正しい可能性が高くなり、局所特徴が何らかの情報を有する可能性が高くなる。初期化が実行されない場合には、最初の反復で、局所領域推定の推定値は純粋なノイズであり、このためモデルには非常にノイズの多い局所特徴が与えられ、初期のトレーニング反復中の困難さを増大させる。
いくつかの例示的な実装形態では、図2に示される予測された局所特徴モデルは、図1のトリプレット損失予測モデルと組み合わせることができる。具体的には、バイナリ分類器を事前トレーニングするのと同様に、トリプレットモデルを最初に単独でトレーニングして、事前にトレーニング済み分類モデルを提供することができる。次に、図1の分類器ネットワーク129を、図2に示される2つの分類器129、205及びローカライザ202で置き換えることができる。すると損失は、全体画像損失(マルチレベル損失131、局所画像損失208、及びトリプレット損失133)の組み合わせとなる。結合モデルは、複数の疾患を区別するためのより優れた特徴空間を学習することを目的としている。
しかしながら、代替の例示的な実装形態では、図2の予測された局所特徴モデルは、図1のトリプレット損失予測モデルなしで単独で使用されてもよい。さらに別の例示的な実装形態では、図1のトリプレット損失予測モデルは、図2の予測された局所特徴モデルなしで単独で使用されてもよい。
図3は、本開示の別の例示的な実装形態に係る局所疾患予測を用いて画像分類器をトレーニングする工程の概略図300を示す。図3のモデルは図2のモデルと類似しており、類似の説明が以下に提供される。いくつかの例示的な実装形態では、局所疾患生成を使用して、疾患の予測位置が分類器と一致するかどうかを確認することができる。このような例示的な実装形態では、画像が正しく切り取られていない場合、分類が不正確になりがちである。言い換えると、画像が切り取られて疾患領域が除外されている場合、疾患の分類は正しくない可能性がある。
図1及び図2に関して論じられたモデルと同様に、アンカー画像105(トレーニング目的で解析されている画像)は、画像を共通の画像スケールに変換するために、空間変換ネットワーク111を通過する。次に、空間変換ネットワーク111からの変換画像は、画像特徴埋め込みネットワーク117を通過して、疾患分類に使用される画像の特徴を埋め込み、画像埋め込み123を生成する。画像埋め込み123は、以下に説明するように、疾患位置情報を含む。疾患位置情報は、疾患位置特徴を埋め込むために疾患ローカライザ202によって使用されることになる。
図1及び図2に関して説明されたモデルと同様に、アンカー画像105から作成された画像埋め込み123は、次に分類器ネットワーク129を通過して、トレーニングデータ内のアンカー画像105に割り当てられたラベルに基づいて損失係数を計算することができる。言い換えると、マルチラベル損失係数131(全体画像分類損失とも呼ばれる)は、トレーニングデータからのアンカー画像105に関連する割り当てられたラベルと、分類器ネットワーク129によるアンカー画像105の分類との差に基づいて計算される。
入力画像全体における疾患の分類に基づいて分類器損失(全体画像分類損失131)を計算することに加えて、例示的な実装形態は、各疾患に対する予測境界ボックスを使用して、分類の前に画像を切り取ることができる。具体的には、図示されるように、ローカライザ302は、疾患の予測位置306を決定し、画像を疾患の予測位置の領域を残して切り取って、局所画像埋め込み304を生成する。具体的には、ローカライザ302は、アンカー画像305の局所疾患の予測位置の境界ボックス内の領域の特徴を抽出する。境界ボックスの外側の領域の特徴値は0に設定される。修正された特徴、即ち局所画像埋め込み304は、境界ボックスの中の画像を表し、第2の分類器に入力される。代替のアプローチは、非疾患領域をある値、例えば0でマスクし、マスクされた画像を分類器への入力として使用することであろう。なお、予測された境界ボックス内の特徴(又は局所からの特徴)を選択することで、計算のいくつかの層がスキップされ、効率が向上することに留意されたい。
加えて、図3のモデルでは、画像埋め込み304は、画像特徴埋め込みネットワーク117にフィードバックされて、アンカー画像105から抽出されている特徴の画像埋め込みを改善することができる。
いくつかの例示的な実装形態では、CAM位置特定アルゴリズムを使用することができ、DenseNetの最後の層でのアクティベーションが抽出される。あるいは、例示的な実装形態では、GradCAM位置特定アルゴリズムが使用されてもよい。異なる例示的な実装形態では、異なる正規化方法が使用され得る。いくつかの例示的な実装形態では、すべての特徴にわたって最大値が正規化に使用され得る。別の例示的な実装形態では、すべての特徴にわたって最大値と最小値との差が正規化に使用され得る。いずれの場合も、固定された閾値よりも大きい特徴アクティベーションの位置が識別され得る。閾値アクティベーションの周りの矩形の境界ボックスが計算され、境界ボックスの外側の特徴はゼロにされる。次に、得られた特徴マップは分類器305に供給され、分類器305は元の分類器と重みを共有する(図3参照)。あるいは、トレーニングされた分類器パラメータ(分類層のみ)で初期化された別個の分類器が、局所画像を分類するために使用され得る。全体画像分類からの損失131及び局所画像分類からの損失308は、以下の式8を使用して加重合計312として結合される。
Figure 2021144675
ここで、αは、局所画像損失の効果が徐々に加えられるように、いくつかの基準時点(epoch)にわたって0から0.5まで変化する。例えば、いくつかの例示的な実装形態では、αは20の基準時点にわたって増加し得る。その後、αは一定に保たれる。
いくつかの例示的な実装形態では、このトレーニングモデルは、トレーニング済みベースラインモデルのパラメータで初期化され得る。トレーニング済みベースラインモデルは、固定回数の反復トレーニングによって、又は検証データセットで損失が漸近するまで完全にトレーニングすることによって取得され得る。この初期化、即ち事前トレーニングを使用して、最初の反復で、推定された局所領域が正しい可能性が高くなり、局所特徴が何らかの情報を有する可能性が高くなる。初期化が実行されない場合には、最初の反復で、局所領域推定の推定値は純粋なノイズであり、このためモデルには非常にノイズの多い局所特徴が与えられ、初期のトレーニング反復中の困難さを増大させる。
いくつかの例示的な実装形態では、図3に示される予測された局所特徴モデルは、図1のトリプレット損失予測モデルと組み合わせることができる。具体的には、バイナリ分類器を事前トレーニングするのと同様に、トリプレットモデルを最初に単独でトレーニングして、事前にトレーニング済み分類モデルを提供することができる。次に、図1の分類器ネットワーク129を、図3に示される2つの分類器129、305及びローカライザ302で置き換えることができる。すると損失は、全体画像損失(マルチレベル損失131、局所画像損失308、及びトリプレット損失133)の組み合わせとなる。結合モデルは、複数の疾患を区別するためのより優れた特徴空間を学習することを目的としている。
しかしながら、代替の例示的な実装形態では、図3の予測された局所特徴モデルは、図1のトリプレット損失予測モデルなしで単独で使用されてもよい。さらに別の例示的な実装形態では、図1のトリプレット損失予測モデルは、図3の予測された局所特徴モデルなしで単独で使用されてもよい。
図4は、本開示の例示的な実装形態に係るトレーニング済みニューラルネットワークを用いて画像を分類するプロセス400のフローチャートを示す。プロセス400は、コンピューティング環境内のコンピュータ装置によって実行され得る。例えば、図9のコンピューティング環境900のコンピュータ装置905が、プロセス400を実行してもよい。
図4に示されるように、ステップ405で、ニューラルネットワークは、ラベル付けされた画像サンプルを使用してトレーニングされる。トレーニングには、画像ラベルでラベル付けされた複数のラベル付けされた画像サンプルを使用することを含み得るが、画像ラベルの位置情報(例えば、画像ラベルが配置された画像内の領域を識別する情報)は使用しない。例えば、ラベル付けされた画像サンプルは、疾患ラベル又はその他の診断情報でラベル付けされた公的に入手可能な医用画像セット(例えば、NIH CHESTXRAY14データセット)からの医用画像であってもよい。
いくつかの例示的な実装形態では、ステップ405でのニューラルネットワークのトレーニングは、図1に示すようなトリプレット損失を用いて画像分類器をトレーニングすることを含み得る。別の例示的な実装形態では、ステップ405でのニューラルネットワークのトレーニングは、図2又は図3に示すような局所疾患予測を用いて画像分類器をトレーニングすることを含み得る。さらに別の例示的な実装形態では、ステップ405でのニューラルネットワークのトレーニングは、最初に図1に示すようなトリプレット損失を用いて画像分類器をトレーニングすることと、次に図2又は図3に示すような局所疾患予測を用いて画像分類器をトレーニングすることとを組み合わせることを含み得る。
ニューラルネットワークがトレーニングされた後に、ステップ410で、解析用の画像(例えば、テストデータ画像)が選択される。選択されるテストデータ画像は、トレーニング画像データ内の画像の対象とは異なり、いくつかの例示的な実装形態におけるトレーニングと同じタイプの特徴(例えば、同じ疾患)を有することが疑われる新しい対象(例えば、新しい患者)であってもよい。選択されるテストデータ画像は、トレーニングデータ内の画像の対象と同じ対象(例えば、同じ患者)であってもよい。加えて、テストデータ画像及びトレーニング画像は、三次元画像の二次元スライスであってもよい。
ステップ415で、トレーニング済みニューラルネットワークが選択画像に適用されて、選択画像に関連付けられた画像特徴分類が決定される。例えば、ニューラルネットワークは、選択画像を解析して、選択画像に関連付けられた疾患分類を決定することができる。いくつかの例示的な実施形態では、選択画像へのトレーニング済みニューラルネットワークの適用には、空間変換ネットワークを使用して画像を変換し、画像データのトレーニングに使用されるトレーニングデータと一致する一定の画像の向き及びスケールを有するようにすることを含み得る。
ステップ420で、トレーニング済みニューラルネットワークは、任意選択で、決定された画像特徴分類に関連付けられた画像ラベルの位置(例えば、画像ラベルが配置されている画像内の領域)も決定してもよい。例えば、トレーニング済みニューラルネットワークは、ステップ415で決定された疾患分類に関連付けられた画像の領域も検出し得る。
ステップ425で、決定された画像特徴分類は、ユーザに提供又はエクスポートされ得る。例えば、選択された医用画像に関連付けられた診断書に添付される疾患分類レポートが生成されてもよい。
ステップ430で、決定された画像ラベルの位置(例えば、画像ラベルが配置されている画像内の領域)もまた、任意選択でユーザに提供又はエクスポートされ得る。例えば、選択された医用画像の疾患領域を識別する境界ボックスが、診断書に添付されてもよい。ステップ425で画像特徴分類がユーザに提供された後、又はステップ430で決定された画像ラベルの位置が任意選択でユーザに提供又はエクスポートされた後に、プロセス400は終了し得る。
例示的な実装形態の評価
Figure 2021144675
表1:他のモデルとは異なりトレーニング時にいくつかのラベル付けされた境界ボックスを使用する本実施形態のモデル及びGoogleモデルという2つのベースラインモデルの分類及び位置特定の性能の概要。ラベル付けされた境界ボックスを使用しない最高性能モデルは太字で示されている。全モデルのうちの最高性能モデルはイタリック体の太字で示されている。
本実施形態の評価のために、NIH ChestXray14データセットを使用した。トリプレット損失実験では、第1のタスクは、データセット内の14のラベル付けされた疾患のマルチラベル分類である。第2のタスクは、データセット内に局所特徴が存在しないGradCAMを使用した8つの疾患の位置特定である。
局所特徴を用いる実験のために、本実施形態を3つの疾患のバイナリモデルと比較した。これは、局所特徴が他の疾患からの影響を混乱させることなく各疾患について性能が向上するか否かを、より明確に示すはずである。局所特徴が役立つかどうかを調べるための局所特徴実験にバイナリモデルを使用したが、この方法は、STN+トリプレット損失モデルに統合され得る。疾患は、心肥大、腫瘤、及び結節である。これらの疾患のための分類テストセットは、マルチラベル分類での3つの疾患のためのテストデータと同じである。位置特定テストセットは、ラベル付けされた境界ボックスを有するテストデータのサブセットである。
STN及びトリプレット損失の結果
2つのベースラインモデルChestX-ray14(NIHによる)及びCheXNextは、本実施形態のモデル(STN+トリプレット)との比較に使用した。ベースラインモデルChestX-ray14は、画像表現を計算するために4つの画像解析モデル(即ち、AlexNet、GoogLeNet、VGGNet-16、及びResNet-50)を使用して比較した。CheXNextは、DenseNet121を使用すると、ChestX-ray14(NIHによる)に使用されるモデルよりも性能が優れていることを示した。どちらのベースラインモデルも、疾患分類に次いで位置特定を実行する。本実施形態のモデルをGoogleモデル[2]とも比較した。Googleモデル[2]は、位置特定モデルをトレーニングするために境界ボックスラベルの70%を使用した。境界ボックスラベルは、医師が手動でラベル付けする必要があり、これは通常のやり方ではないので、取得するのが困難である。
表1は、2つのベースラインモデルChestX-ray14及びCheXNextと追加データを使用するGoogleモデルについての分類及び位置特定の性能を示す。トレーニングにいくつかのラベル付けされた境界ボックスを使用しないモデルのうちでは、本実施形態のモデル(STN+トリプレット)が、分類及び位置特定の両方で全体的に最も優れた性能を発揮した。加えて、本実施形態のモデルはまた、トレーニング中により多くのラベル付けされたデータを利用するGoogleモデルの性能に近い性能を発揮した。
各疾患での4つのモデルのより詳細な性能は、図5及び図6に示されている。図5は、ベースラインモデル、本実施形態のモデル、及びトレーニング中にいくつかのラベル付けされた境界ボックスを使用したGoogleモデルの分類精度を示す。図6は、ベースラインモデル、本実施形態のモデル、及びトレーニング中にいくつかのラベル付けされた境界ボックスを使用したGoogleモデルの、IoUを使用して測定した位置特定性能を示す。
局所特徴を使用したトレーニング
これらの実験では、局所特徴を使用するトレーニングの有効性を、単層疾患分類器を備えるDenseNet121で構成されたベースラインモデルと比較した。全体画像からの特徴と共に局所特徴を使用することで性能が向上するかどうかを評価するために、疾患ごとに個別のバイナリ分類器を作成した。
Figure 2021144675
表2:ベースラインモデル及びアクティベーションマップを正規化する2つの異なる方法を用いて計算された局所特徴を有するモデルの分類精度。最高のテストモデル精度は太字で示されている。
上記の表2は、2つの異なる正規化方法で計算された局所特徴を使用するベースラインモデル及び2つのモデルについての、異なる疾患に対する分類精度を示す。精度評価では、3つの疾患すべてにわたって正規化方法のいずれかと共に局所特徴が使用される場合に、テスト精度の一貫した改善が認められた。対照的に、最高性能の検証精度はベースラインモデルに対するものであったが、最高の検証性能は最高のテスト性能にはならなかった。局所特徴を採用する2つのモデルの両方についての検証とテストとの性能差は、ベースラインよりも小さかった。小さな差は、局所特徴がモデルを新しいデータによりよく一般化するのに役立つことを示している可能性がある。
Figure 2021144675
表3:予め定めた閾値よりも大きいIoU(Intersection over Union)を用いて評価された異なるモデルの位置特定テスト性能。最高モデル位置特定性能は太字で示されている。
表3は、表2と同じモデルの位置特定性能を比較している。ベースラインモデルは、IoU閾値が0.1の心肥大に対してのみ、両方の局所特徴モデルよりも優れた性能を発揮した。最小アクティベーション値によって正規化するnorm1の方法は、3つのケースでベースラインよりも性能が良かった。一方、norm2の方法は、2つのケースでベースラインよりも性能が良かった。
表2及び表3の結果から、予測された局所特徴の使用が、3つのテスト疾患にわたってテスト分類精度を一貫して改善したことがわかる。さらに、局所特徴モデルはベースラインモデルよりも幾分優れていた。各々が2つの条件で最高の位置特定性能を示し、そのうち1つの条件はIoUが0.5であり、より高いオーバラップを必要とするより厳しい基準であった。ベースラインモデルは、1つの条件で最高の性能を示し、この条件はIoU閾値が0.1とあまり厳しくない基準であった。
定性的な結果
図7及び図8は、マルチラベルトリプレットモデルを使用した、例示的なヒートマップと、疾患の予測位置(赤いボックス)及び疾患の正解位置(緑のボックス)とを示す。図7は、真の疾患が0.5より高い確率で予測され、正解の境界ボックスと予測された疾患の境界ボックスとの間に少なくとも0.5のIoUがある場合の例を示す。図8は、不正確な予測の例を示す。最初の2列は正しい境界ボックスを有するケースを示しているが、予測された疾患の確率は0.5未満であり、これは正しくない。3番目の列は境界ボックスが正しくないケースを示しており、予測された疾患の確率は0.5より高くても高くなくてもよい。
例示的なコンピューティング環境
図9は、いくつかの例示的な実装形態での使用に適した例示的なコンピュータ装置905を備えた例示的なコンピューティング環境900を示す。コンピューティング環境900におけるコンピュータ装置905は、1又は複数の処理ユニット、コア、若しくはプロセッサ910、メモリ915(例えば、RAM、ROM、及び/又は同様のもの)、内部記憶装置920(例えば、磁気、光、固体記憶装置、及び/又は有機)、及び/又はI/Oインターフェース925を含むことができる。これらのいずれも、情報を通信するために通信機構又はバス930に接続されてもよく、又はコンピュータ装置905に内蔵されていてもよい。
コンピュータ装置905は、入力/ユーザインターフェース935及び出力装置/インターフェース940に通信可能に接続されていてもよい。入力/ユーザインターフェース935及び出力装置/インターフェース940の一方又は両方は、有線又は無線インターフェースとすることができ、着脱可能とすることができる。入力/ユーザインターフェース935は、入力を提供するために使用され得る、物理的若しくは仮想的な任意の装置、コンポーネント、センサ、又はインターフェース(例えば、ボタン、タッチスクリーンインターフェース、キーボード、ポインティング/カーソル制御、マイク、カメラ、点字、モーションセンサ、光学式リーダなど)を含んでいてもよい。
出力装置/インターフェース940は、ディスプレイ、テレビ、モニタ、プリンタ、スピーカ、点字などを含んでいてもよい。いくつかの例示的な実装形態において、入力/ユーザインターフェース935及び出力装置/インターフェース940は、コンピュータ装置905に内蔵されていてもよく、又はコンピュータ装置905に物理的に接続されていてもよい。他の例示的な実装形態では、他のコンピュータ装置は、コンピュータ装置905についても入力/ユーザインターフェース935や、出力装置/インターフェース940として機能してもよく、又はそれらの機能を提供してもよい。これらの要素は、ユーザがAR環境とやりとりできるように、公知のARハードウェア入力を含み得るが、これに限定されるものではない。
コンピュータ装置905の例は、これに限定されるものではないが、高度なモバイル装置(例えば、スマートフォン、車両及び他の機械に搭載された装置、人間及び動物によって携行される装置など)、モバイル装置(例えば、タブレット、ノートブック、ラップトップ、パーソナルコンピュータ、ポータブルテレビ、ラジオなど)、及び移動用に設計されていない装置(例えば、デスクトップコンピュータ、サーバ装置、他のコンピュータ、情報キオスク、1又は複数のプロセッサが内蔵された及び/又はそれに接続されたテレビ、ラジオなど)を含んでいてもよい。
コンピュータ装置905は、同一又は異なる構成の1又は複数のコンピュータ装置を含む、任意の数のネットワークコンポーネント、装置、及びシステムと通信するために、外部記憶装置945及びネットワーク950に(例えば、I/Oインターフェース925を介して)通信可能に接続されていてもよい。コンピュータ装置905又は任意の接続されたコンピュータ装置は、サーバ、クライアント、シンサーバ、汎用マシーン、専用マシーン、又は他のラベルのサービスを提供するように機能してもよく、又はそのように呼ばれてもよい。
I/Oインターフェース925は、これに限定されるものではないが、コンピューティング環境900内の少なくとも全ての接続されたコンポーネント、装置、及びネットワークとの間で情報を通信するために、任意の通信又はI/Oプロトコル又は標準規格(例えば、イーサネット(登録商標)、802.11x、ユニバーサルシステムバス、WiMax、モデム、セルラーネットワークプロトコルなど)を使用する有線及び/又は無線インターフェースを含むことができる。ネットワーク950は、任意のネットワーク又はネットワークの組み合わせ(例えば、インターネット、ローカルエリアネットワーク、ワイドエリアネットワーク、電話ネットワーク、セルラーネットワーク、衛星ネットワークなど)とすることができる。
コンピュータ装置905は、一時的媒体及び非一時的媒体を含むコンピュータ使用可能な媒体又はコンピュータ可読媒体を利用して、使用及び/又は通信することができる。一時的媒体は、伝送媒体(例えば、金属ケーブル、光ファイバ)、信号、搬送波などを含む。非一時的媒体は、磁気媒体(例えば、ディスク及びテープ)、光媒体(例えば、CD−ROM、ディジタルビデオディスク、ブルーレイディスク)、固体媒体(例えば、RAM、ROM、フラッシュメモリ、固体記憶装置)、及び他の不揮発性記憶装置又はメモリを含む。
コンピュータ装置905は、いくつかの例示的なコンピューティング環境において、技術、方法、アプリケーション、プロセス、又はコンピュータ実行可能命令を実行するために使用されてもよい。コンピュータ実行可能命令は、一時的媒体から取得されてもよく、非一時的媒体に記憶されて非一時的媒体から取得されてもよい。実行可能命令は、プログラミング言語、スクリプト言語、及び機械語(例えば、C、C++、C#、Java(登録商標)、ビジュアルベーシック、パイソン、パール、JavaScript(登録商標)など)のうちの1又は複数から生成されてもよい。
プロセッサ910は、ネイティブな環境又は仮想環境において、任意のオペレーティングシステム(OS)(図示しない)の下で動作することができる。論理ユニット955、アプリケーションプログラミングインターフェース(API)ユニット960、入力ユニット965、出力ユニット970、空間変換器975、特徴埋め込み器980、画像分類器985、ローカライザ990、及び異なるユニットが互いに通信すると共にOSや他のアプリケーション(図示しない)と通信するためのユニット間通信機構995を含む1又は複数のアプリケーションが展開されてもよい。
例えば、出力ユニット970、空間変換器975、特徴埋め込み器980、画像分類器985、及びローカライザ990は、図4に示される1又は複数のプロセスを実施してもよく、図1から図3のアーキテクチャを実装してもよい。説明されたユニット及び要素は、設計、機能、構成、又は実施において異なる可能性があり、提供された説明に限定されるものではない。
いくつかの例示的な実装形態では、情報又は実行命令がAPIユニット960によって受信されると、これは1又は複数の別のユニット(例えば、空間変換器975、特徴埋め込み器980、画像分類器985、及びローカライザ990)に伝送されてもよい。例えば、空間変換器975は、画像を共通の向きに対して回転及び拡大縮小させるために、1又は複数の画像を変換し得る。特徴埋め込み器980は、転送された画像から画像特徴を抽出して埋め込むことができる。画像分類器985は、埋め込まれた画像特徴に基づいて、変換画像の特徴を分類し得る。ローカライザ990は、画像分類を支援するために、埋め込まれた画像特徴分類に関連付けられた画像位置を決定し得る。
いくつかの場合において、論理ユニット955は、上述したいくつかの例示的な実装形態において、ユニット間の情報フローを制御し、APIユニット960、空間変換器975、特徴埋め込み器980、画像分類器985、及びローカライザ990によって提供されるサービスを導くように構成されてもよい。例えば、1又は複数のプロセス又は実施形態のフローは、論理ユニット955によって単独で、又はAPIユニット960と連携して制御されてもよい。
いくつかの例示的な実装形態が図示され、説明されてきたが、これらの例示的な実装形態は、本明細書に記載される主題を当業者に伝えるために提供される。本明細書に記載された主題は、記載された例示的な実装形態に限定されることなく、様々な形態で実施されてもよいと理解されるべきである。本明細書に記載された主題は、具体的に定義若しくは記載された事項を使用して、又は記載されていない他の若しくは異なる要素若しくは事項を使用して実施することができる。当業者は、添付の特許請求の範囲及びその均等物で定義された本明細書に記載された主題から逸脱することなく、これらの例示的な実装形態に対して変更を行うことができることを理解するであろう。

Claims (20)

  1. ニューラルネットワークを使用して画像特徴を分類する方法であって、
    トリプレット損失プロセスを使用して前記ニューラルネットワークをトレーニングするステップと、トレーニング済みニューラルネットワークを使用して、関連するラベル付けされた特徴を有していないテストデータ画像の画像特徴を分類するステップとを含み、
    前記ニューラルネットワークをトレーニングするステップが、
    前記ニューラルネットワークをトレーニングするために使用されるアンカー画像及び前記アンカー画像に関連付けられた画像ラベルを取得すること、
    前記アンカー画像と少なくとも1つの画像ラベルを共有するポジティブ画像及び前記ポジティブ画像に関連付けられた画像ラベルを選択すること、
    前記アンカー画像と画像ラベルを共有していないネガティブ画像及び前記ネガティブ画像に関連付けられた画像ラベルを選択すること、
    画像特徴埋め込みネットワークを使用して、前記アンカー画像、前記ポジティブ画像、及び前記ネガティブ画像の各々に関連付けられた画像埋め込みを生成すること、
    前記ニューラルネットワークによって、前記アンカー画像の前記画像埋め込みに基づいて前記アンカー画像から抽出された画像特徴を分類すること、
    及び、前記アンカー画像、前記ポジティブ画像、及び前記ネガティブ画像の各々に関連付けられた前記画像埋め込みに基づいてトリプレット損失を計算して、前記画像特徴の分類重み付けを決定することを含む、
    方法。
  2. 前記ニューラルネットワークをトレーニングするステップが、
    前記画像埋め込みに関連付けられた前記アンカー画像から抽出された分類済みの前記画像特徴と、前記アンカー画像に関連付けられた前記画像ラベルとに基づいてマルチラベル損失を計算すること、
    及び、損失の加重合計を使用して、前記マルチラベル損失を計算された前記トリプレット損失と結合することをさらに含む、請求項1に記載の方法。
  3. 前記ニューラルネットワークをトレーニングするステップが、
    空間変換ネットワークを使用して、拡大縮小、回転、及び切り取りを行うことにより、前記アンカー画像、前記ポジティブ画像、及び前記ネガティブ画像の各々を変換し、共通のビューの向きを確立することをさらに含む、
    請求項2に記載の方法。
  4. 前記ニューラルネットワークをトレーニングするステップが、
    前記分類済みの前記画像特徴に関連付けられた画像ラベル位置を決定すること、
    決定された前記画像ラベル位置に関連付けられた特徴を抽出すること、
    前記ニューラルネットワークを使用して、決定された前記画像ラベル位置に関連付けられた前記特徴を分類すること、
    決定された前記画像ラベル位置に関連付けられた前記特徴に関連付けられた局所画像分類損失を決定すること、
    及び、損失の加重合計を使用して、前記マルチラベル損失を前記局所画像分類損失及び前記トリプレット損失と結合することをさらに含む、
    請求項2に記載の方法。
  5. 前記トレーニング済みニューラルネットワークを使用して、前記テストデータ画像上の画像ラベル位置を特定するステップをさらに含む、請求項4に記載の方法。
  6. 前記ニューラルネットワークをトレーニングするステップが、
    決定された前記画像ラベル位置に関連付けられた前記特徴であって抽出された前記特徴に基づいて、前記アンカー画像の新しい画像埋め込みを生成すること、
    及び、前記ニューラルネットワークによって、前記新しい画像埋め込みに基づいて、前記アンカー画像から抽出された前記特徴を分類することをさらに含む、
    請求項4に記載の方法。
  7. 前記アンカー画像、前記ポジティブ画像、及び前記ネガティブ画像の各々は、1又は複数の疾患に関連付けられた医療診断画像である、請求項4に記載の方法。
  8. ニューラルネットワークを使用して画像特徴を分類する方法であって、
    トリプレット損失プロセスを使用して前記ニューラルネットワークをトレーニングするステップと、トレーニング済みニューラルネットワークを使用して、関連するラベル付けされた特徴を有していないテストデータ画像の画像特徴を分類するステップとを含み、
    前記ニューラルネットワークをトレーニングするステップが、
    前記ニューラルネットワークをトレーニングするために使用されるアンカー画像及び前記アンカー画像に関連付けられた画像ラベルを取得すること、
    画像特徴埋め込みネットワークを使用して、前記アンカー画像に関連付けられた画像埋め込みを生成すること、
    前記ニューラルネットワークによって、前記アンカー画像の前記画像埋め込みに基づいて前記アンカー画像から抽出された画像特徴を分類すること、
    分類済みの前記画像特徴に関連付けられた画像ラベル位置を決定すること、
    決定された前記画像ラベル位置に関連付けられた特徴を抽出すること、
    前記ニューラルネットワークを使用して、決定された前記画像ラベル位置に関連付けられた前記特徴を分類すること、
    及び、決定された前記画像ラベル位置に関連付けられた前記特徴に関連付けられた局所画像分類損失を決定することを含む、
    方法。
  9. 前記ニューラルネットワークをトレーニングするステップが、
    前記画像埋め込みに関連付けられた前記アンカー画像から抽出された分類済みの前記画像特徴と、前記アンカー画像に関連付けられた前記画像ラベルとに基づいてマルチラベル損失を計算すること、
    及び、損失の加重合計を使用して、前記マルチラベル損失を前記局所画像分類損失と結合することをさらに含む、
    請求項8に記載の方法。
  10. 前記トレーニング済みニューラルネットワークを使用して、前記テストデータ画像上の画像ラベル位置を特定するステップをさらに含む、請求項8に記載の方法。
  11. 前記ニューラルネットワークをトレーニングするステップが、
    決定された前記画像ラベル位置に関連付けられた前記特徴であって抽出された前記特徴に基づいて、前記アンカー画像の新しい画像埋め込みを生成すること、
    及び、前記ニューラルネットワークによって、前記新しい画像埋め込みに基づいて、前記アンカー画像から抽出された前記特徴を分類することをさらに含む、
    請求項9に記載の方法。
  12. 前記ニューラルネットワークをトレーニングするステップが、
    前記アンカー画像と少なくとも1つの画像ラベルを共有するポジティブ画像及び前記ポジティブ画像に関連付けられた画像ラベルを選択すること、
    前記アンカー画像と画像ラベルを共有していないネガティブ画像及び前記ネガティブ画像に関連付けられた画像ラベルを選択すること、
    前記アンカー画像、前記ポジティブ画像、及び前記ネガティブ画像の各々に関連付けられた前記画像埋め込みに基づいてトリプレット損失を計算して、前記画像特徴の分類重み付けを決定すること、
    及び、損失の加重合計を使用して、前記マルチラベル損失を前記局所画像分類損失及び前記トリプレット損失と結合することをさらに含み、
    前記画像特徴埋め込みネットワークを使用して前記画像埋め込みを生成することが、前記画像特徴埋め込みネットワークを使用して、前記アンカー画像、前記ポジティブ画像、及び前記ネガティブ画像の各々に関連付けられた画像埋め込みを生成することを含む、
    請求項9に記載の方法。
  13. 前記ニューラルネットワークをトレーニングするステップが、
    空間変換ネットワークを使用して、拡大縮小、回転、及び切り取りを行うことにより、前記アンカー画像、前記ポジティブ画像、及び前記ネガティブ画像の各々を変換し、共通のビューの向きを確立するステップをさらに含む、
    請求項12に記載の方法。
  14. 前記アンカー画像、前記ポジティブ画像、及び前記ネガティブ画像の各々は、1又は複数の疾患に関連付けられた医療診断画像である、請求項12に記載の方法。
  15. コンピュータに、
    トリプレット損失プロセスを使用してニューラルネットワークをトレーニングするステップと、
    トレーニング済みニューラルネットワークを使用して、関連するラベル付けされた特徴を有していないテストデータ画像の画像特徴を分類するステップと、
    を実行させるためのプログラムであって、
    前記ニューラルネットワークをトレーニングするステップが、
    前記ニューラルネットワークをトレーニングするために使用されるアンカー画像及び前記アンカー画像に関連付けられた画像ラベルを取得すること、
    前記アンカー画像と少なくとも1つの画像ラベルを共有するポジティブ画像及び前記ポジティブ画像に関連付けられた画像ラベルを選択すること、
    前記アンカー画像と画像ラベルを共有していないネガティブ画像及び前記ネガティブ画像に関連付けられた画像ラベルを選択すること、
    画像特徴埋め込みネットワークを使用して、前記アンカー画像、前記ポジティブ画像、及び前記ネガティブ画像の各々に関連付けられた画像埋め込みを生成すること、
    前記ニューラルネットワークによって、前記アンカー画像の前記画像埋め込みに基づいて前記アンカー画像から抽出された画像特徴を分類すること、
    分類済みの前記画像特徴に関連付けられた画像ラベル位置を決定すること、
    決定された前記画像ラベル位置に関連付けられた特徴を抽出すること、
    前記ニューラルネットワークを使用して、決定された前記画像ラベル位置に関連付けられた前記特徴を分類すること、
    決定された前記画像ラベル位置に関連付けられた前記特徴に関連付けられた局所画像分類損失を決定すること、
    前記アンカー画像、前記ポジティブ画像、及び前記ネガティブ画像の各々に関連付けられた前記画像埋め込みに基づいてトリプレット損失を計算して、前記画像特徴の分類重み付けを決定すること、
    及び、損失の加重合計を使用して、前記局所画像分類損失及び前記トリプレット損失を結合することを含む、
    プログラム。
  16. 前記ニューラルネットワークをトレーニングするステップが、
    前記画像埋め込みに関連付けられた前記アンカー画像から抽出された分類済みの前記画像特徴と、前記アンカー画像に関連付けられた前記画像ラベルとに基づいてマルチラベル損失を計算すること、
    及び、損失の加重合計を使用して、前記マルチラベル損失を前記局所画像分類損失及び前記トリプレット損失と結合することをさらに含む、
    請求項15に記載のプログラム。
  17. 前記ニューラルネットワークをトレーニングするステップが、
    空間変換ネットワークを使用して、拡大縮小、回転、及び切り取りを行うことにより、前記アンカー画像、前記ポジティブ画像、及び前記ネガティブ画像の各々を変換し、共通のビューの向きを確立するステップをさらに含む、
    請求項16に記載のプログラム。
  18. 前記トレーニング済みニューラルネットワークを使用して、前記テストデータ画像上の画像ラベル位置を特定するステップをさらに含む、請求項16に記載のプログラム。
  19. 前記ニューラルネットワークをトレーニングするステップが、
    決定された前記画像ラベル位置に関連付けられた前記特徴であって抽出された前記特徴に基づいて、前記アンカー画像の新しい画像埋め込みを生成すること、
    及び、前記ニューラルネットワークによって、前記新しい画像埋め込みに基づいて、前記アンカー画像から抽出された前記特徴を分類することをさらに含む、
    請求項18に記載のプログラム。
  20. 前記アンカー画像、前記ポジティブ画像、及び前記ネガティブ画像の各々は、1又は複数の疾患に関連付けられた医療診断画像である、請求項19に記載のプログラム。
JP2020153253A 2020-03-12 2020-09-11 方法及びプログラム Pending JP2021144675A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/817,394 US11449717B2 (en) 2020-03-12 2020-03-12 System and method for identification and localization of images using triplet loss and predicted regions
US16/817394 2020-03-12

Publications (1)

Publication Number Publication Date
JP2021144675A true JP2021144675A (ja) 2021-09-24

Family

ID=77616596

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020153253A Pending JP2021144675A (ja) 2020-03-12 2020-09-11 方法及びプログラム

Country Status (3)

Country Link
US (1) US11449717B2 (ja)
JP (1) JP2021144675A (ja)
CN (1) CN113393416A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024079820A1 (ja) * 2022-10-12 2024-04-18 日本電気株式会社 学習装置、学習方法、プログラム、および分類装置

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11715043B2 (en) * 2019-03-01 2023-08-01 Apple Inc. Semantics preservation for machine learning models deployed as dependent on other machine learning models
DE112020005870T5 (de) * 2019-11-29 2022-11-03 Fujifilm Corporation Unterstützungsvorrichtung für dokumentenerstellung, unterstützungsverfahren für dokumentenerstellung und unterstützungsprogramm für dokumentenerstellung
US11809523B2 (en) * 2021-02-18 2023-11-07 Irida Labs S.A. Annotating unlabeled images using convolutional neural networks
CN116228715B (zh) * 2023-02-28 2023-09-22 抖音视界有限公司 息肉检测模型的训练方法、息肉检测方法及相关装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10181091B2 (en) * 2014-06-20 2019-01-15 Google Llc Fine-grained image similarity
US9836641B2 (en) * 2014-12-17 2017-12-05 Google Inc. Generating numeric embeddings of images
EP3507743B1 (en) * 2016-09-02 2023-11-22 Ohio State Innovation Foundation System and method of otoscopy image analysis to diagnose ear pathology
WO2019013711A1 (en) * 2017-07-12 2019-01-17 Mastercard Asia/Pacific Pte. Ltd. MOBILE DEVICE PLATFORM FOR AUTOMATED VISUAL RECOGNITION OF RETAIL PRODUCTS
US10025950B1 (en) * 2017-09-17 2018-07-17 Everalbum, Inc Systems and methods for image recognition
US11657087B2 (en) * 2018-03-19 2023-05-23 Verily Life Sciences Llc Surgical video retrieval based on preoperative images
US11126649B2 (en) * 2018-07-11 2021-09-21 Google Llc Similar image search for radiology
US10902616B2 (en) * 2018-08-13 2021-01-26 Nvidia Corporation Scene embedding for visual navigation
WO2020247810A1 (en) * 2019-06-06 2020-12-10 Home Depot International, Inc. Optimizing training data for image classification
WO2021163075A1 (en) * 2020-02-13 2021-08-19 Best Apps, Llc Computer aided systems and methods for creating custom products

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024079820A1 (ja) * 2022-10-12 2024-04-18 日本電気株式会社 学習装置、学習方法、プログラム、および分類装置

Also Published As

Publication number Publication date
US11449717B2 (en) 2022-09-20
CN113393416A (zh) 2021-09-14
US20210287054A1 (en) 2021-09-16

Similar Documents

Publication Publication Date Title
Pesce et al. Learning to detect chest radiographs containing pulmonary lesions using visual attention networks
Zhong et al. An attention-guided deep regression model for landmark detection in cephalograms
Chen et al. Recent advances and clinical applications of deep learning in medical image analysis
Al-Antari et al. Fast deep learning computer-aided diagnosis of COVID-19 based on digital chest x-ray images
US10482603B1 (en) Medical image segmentation using an integrated edge guidance module and object segmentation network
US20220036564A1 (en) Method of classifying lesion of chest x-ray radiograph based on data normalization and local patch and apparatus thereof
JP2021144675A (ja) 方法及びプログラム
Sogancioglu et al. Cardiomegaly detection on chest radiographs: segmentation versus classification
CN110390674B (zh) 图像处理方法、装置、存储介质、设备以及系统
US20230410301A1 (en) Machine learning techniques for tumor identification, classification, and grading
Xia et al. Effective pancreatic cancer screening on non-contrast CT scans via anatomy-aware transformers
US20220051060A1 (en) Methods for creating privacy-protecting synthetic data leveraging a constrained generative ensemble model
US20230177678A1 (en) Method and system for domain knowledge augmented multi-head attention based robust universal lesion detection
Yang et al. Deep hybrid convolutional neural network for segmentation of melanoma skin lesion
Ahmad et al. Optimized lung nodule prediction model for lung cancer using contour features extraction
Pham et al. Chest x-ray abnormalities localization via ensemble of deep convolutional neural networks
JP2023516651A (ja) 訓練データにおける欠落したアノテーションに対処するためのクラス別損失関数
Garg et al. State-of-the-art review of deep learning for medical image analysis
Elhanashi et al. Classification and Localization of Multi-type Abnormalities on Chest X-rays Images
Nefoussi et al. A Comparative study of chest X-ray image enhancement techniques for pneumonia recognition
Tu et al. Slice-Fusion: Reducing False Positives in Liver Tumor Detection for Mask R-CNN
Ju et al. CODE-NET: A deep learning model for COVID-19 detection
CN113298807A (zh) 一种计算机断层扫描图像处理方法及装置
Liu et al. Revisiting Computer-Aided Tuberculosis Diagnosis
Zhu et al. Jointly Boosting Saliency Prediction and Disease Classification on Chest X-ray Images with Multi-task UNet

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230830