JP2021527473A - 即時精密検査 - Google Patents

即時精密検査 Download PDF

Info

Publication number
JP2021527473A
JP2021527473A JP2020568668A JP2020568668A JP2021527473A JP 2021527473 A JP2021527473 A JP 2021527473A JP 2020568668 A JP2020568668 A JP 2020568668A JP 2020568668 A JP2020568668 A JP 2020568668A JP 2021527473 A JP2021527473 A JP 2021527473A
Authority
JP
Japan
Prior art keywords
medical
analyzing
medical images
image
scans
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020568668A
Other languages
English (en)
Inventor
ケクスケメシー、ピーター
リューケン、トバイアス
カルパティ、イーディス
オニール、マイケル
ヘインドル、アンドレアス
エリオット イヤーズリー、ジョセフ
コルキノフ、ディミトリオス
カーラ、ガルバン
Original Assignee
ケイロン メディカル テクノロジーズ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GB1809796.4A external-priority patent/GB2574659A/en
Priority claimed from GB1819329.2A external-priority patent/GB2579244A/en
Application filed by ケイロン メディカル テクノロジーズ リミテッド filed Critical ケイロン メディカル テクノロジーズ リミテッド
Publication of JP2021527473A publication Critical patent/JP2021527473A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/502Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of breast, i.e. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19147Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/025Tomosynthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0825Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the breast, e.g. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Artificial Intelligence (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Physiology (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)

Abstract

本発明は、医療撮像のためのディープ・ラーニング実装形態に関する。より詳細には、本発明は、実質的にリアルタイムで、初期医療スクリーニングを分析した後に、追加の医学的検査が必要とされるかどうかを示すための方法及びシステムに関する。態様及び/又は実施例は、ディープ・ラーニングを使用して、初期医療走査を分析することに基づいて、実質的にリアルタイムで、追加の医学的検査を推奨するための方法及びシステムを提供することを求める。

Description

本発明は、医療撮像のためのディープ・ラーニング実装形態に関する。より詳細には、本発明は、実質的にリアルタイムで、初期医療スクリーニング中の予備分析の後に、追加の医学的検査が必要とされるかどうかを示すための方法及びシステムに関する。
マンモグラフィ(mammography)は、人間乳房の内部構造の画像を生成するために低線量X線を利用する、人間乳房組織を走査する高度な方法である。マンモグラム(mammogram)と呼ばれるこれらの画像のスクリーニングは、乳房異常及び病気の早期検出及び診断を助ける。より正確な走査を確認するために、マンモグラム機械は、通常、組織を広げるために乳房を圧縮し、放射線科医がマンモグラムを検査するのを助ける、2つのプレートを有する。
人間の人力による評価は、画像評価の最も正確な方法であると考えられ、包括的な分析のために、医療走査をセクションごとに検査する、放射線科医又は同様の専門家によって実行されるタスクを指す。しかしながら、マンモグラムは、2次元画像平面上に投影された3次元情報の表現であることを考えると、検査される2D医療走査画像(マンモグラム)中に組織の重ね合わせがしばしばある。結果として、乳房の画像内に重ね合わせられて現れる組織は、悪性(malignant)異常の可視性を低減するか、又は、時々、さらには、異常の外観(偽陽性(false positive))をシミュレートすることができる。これにより、マンモグラムを分析するタスクがより困難になり、マンモグラムが異常を正確に精密に検出するときに困難が生じ得る。
したがって、スクリーニング、及び精密検査(たとえば代替撮像技法を使用することを含むさらなる医学的検査)を要求する現在の方法は、不明瞭なマンモグラムを検査するために放射線科医のみに依拠するときに非効率的で及び/又は遅いことがある。しばしば、最終結果は、患者にとって不要でコストがかかるリコール手順、生検(biopsy)及び/又は心理的ストレスになる。
さらに、現在の医療スクリーニング・レジームの下で、マンモグラムに疑わしい所見があり、さらなる検査が必要とされる場合、追加の検査のためのコール・バック(call back)時間は通常2〜3週間である。
態様及び/又は実施例は、ディープ・ラーニングを使用して、初期医療走査を分析することに基づいて、実質的にリアルタイムで、追加の医学的検査のための要件を推奨するか又は示すための方法及びシステムを提供することを求める。
第1の態様によれば、実質的にリアルタイムで医療画像を分析するコンピュータ援用方法であって、本方法は、1つ又は複数の医療画像を受信するステップと、1つ又は複数の特性を決定するために前記1つ又は複数の医療画像を分析するステップと、決定された1つ又は複数の特性に基づいて出力データを生成するステップとを含み、出力データは、1つ又は複数の追加の医学的検査を取得するための要件を示す、コンピュータ援用方法が提供される。
医療画像を分析し、さらなる医学的検査を確認する決定を行うための従来の方法は、マンモグラムにおける異常を識別するために、専門家、通常は放射線科医に依拠する。しばしば、放射線科医がマンモグラムを検査する際に遅延がある。さらなる放射線科医は、たとえば、タスクの手動性質により、一貫した正確さを証明せず、マンモグラムにおける重ね合わせられた乳房組織、及び/又は人間の眼が検出するには細かすぎる詳細により、誤りを犯す。反対に、本明細書で開示する方法は、人間の入力なしに医療画像を分析する方法を提供し、さらなる医学的検査が必要とされるかどうかに関する瞬時の推奨を与える。
随意に、1つ又は複数の追加の医学的検査は、コンピュータ化トモグラフィ(CT)走査、超音波走査、磁気共鳴撮像(MRI)走査、トモシンセシス(tomosynthesis)走査、及び/又は生検のうちのいずれか又はそれらの任意の組合せを備える。
さらなる医学的検査が、予備スクリーニングの分析に基づいて示唆され得る。例として、初期マンモグラムが不明瞭であるか、又は特徴が重ね合わせられているか、又は調査する価値がある病変(lesion)があり得る場合、より詳細なトモシンセシス走査が瞬時に推奨され得る。場合によっては、初期医療画像からの分析は、さらなる精密検査(workup)又は医学的検査を必要としないことがある。随意に、出力データはまた、乳房密度又は組織分類タイプを示し得る。
随意に、1つ又は複数の医療画像は1つ又は複数のマンモグラフィ走査又はX線走査を備える。
たいていの医療スクリーニング・プログラムでは、X線又はマンモグラフィが第1のタイプの医療走査である。
随意に、分析する及び決定するステップは、1つ又は複数のトレーニングされた機械学習モデルを使用して実行される。
トレーニングされた機械学習モデルは、人間専門家よりもはるかに迅速に医療画像を分析し、したがって、全体的に分析される医療画像の数を増加させることができる。正確さは、一般に、機械学習モデルを使用するときに一貫している。したがって、問題、たとえばがん性腫瘍の増殖が、人間専門家の手が空くのを待つよりも迅速に検出され得、したがって、治療をより早く開始し得るか、又は追加の医学的検査がより早く要求され得る。病変を含み得る、関心領域の識別は、したがって、他の医療問題の中でも乳がんのスクリーニング及び臨床的評価を助け得る。より早い診断及び治療は、患者への心理的ストレスを低減し、また、長期における生存の可能性を高めることができる。
随意に、トレーニングされた機械学習モデルは畳み込み(convolutional)ニューラル・ネットワークを備える。
畳み込みネットワークは、特徴の階層をもたらすようにトレーニングされ得、特に画像認識に好適である、生物学的ニューラル・プロセスによって触発された強力なツールである。畳み込みレイヤは、畳み込み演算を入力に適用し、結果を後続のレイヤに渡す。トレーニングにより、畳み込みネットワークは、マンモグラムなど、デジタル医療画像中の解剖学的(anatomical)領域及び病理(pathological)領域をセグメント化し、位置特定することに関して、専門家レベルの又はより大きい正確さを達成することができる。
随意に、分析する及び決定するステップは、1つ又は複数の解剖学的領域をセグメント化することを含む。随意に、出力データは、セグメント化アウトラインを示すオーバーレイ・データ、及び/又は1つ若しくは複数のセグメント化された領域の1つ若しくは複数のロケーションを示す確率マスクをさらに備える。
領域の明確で正確なセグメント化を行うことは、マンモグラムなど、医療画像を検討するときに極めて役立ち得る。これは、患者に医学的問題があると疑う理由がある場合、たとえば、それが前の走査におけるよりも大きい腫れたエリアがある場合、特に重要であり得る。そのような変化は、異なる領域が明確にセグメント化されている場合に、より容易に検出可能であり得る。さらに、セグメント化情報はまた、放射線医療部門が病院において使用するピクチャ・アーカイビング通信システム(PACS:Picture Archiving Communication Systems)を強化するために使用され得る。このセグメント化データがPACSに含まれることにより、本方法が半自動化されるか、完全に自動化されるか、又は手動で実行されるかにかかわらず、同様のケースにフラグを立てる将来の方法を有利に改善する。
随意に、分析する及び決定するステップは、組織タイプと密度カテゴリーとを識別することを含む。随意に、1つ又は複数の追加の医学的検査の必要とされるタイプは、1つ又は複数の医療画像に基づいて決定された密度カテゴリーに依存する。随意に、このステップは、組織タイプと密度カテゴリーとを共同で推定し得る。
組織タイプと密度カテゴリーとを正しく分類することは、本方法が適切な追加の医学的検査又は特定の精密検査を推奨することを可能にすることができる。
随意に、分析する及び決定するステップは、医療画像中の1つ又は複数の異常(anomalous)領域を自動的に識別することを含む。
随意に、分析する及び決定するステップは、悪性病変及び/又は良性(benign)病変及び/又は一般的病変を識別する及び区別することを含む。
随意に、出力データは、1つ又は複数の病変のための確率マスクを示すオーバーレイ・データをさらに備える。
随意に、分析する及び決定するステップは、アーキテクチャひずみ(architectural distortion)を識別することを含む。
随意に、1つ又は複数の医療画像及び1つ又は複数の追加の医療画像は、医療におけるデジタル撮像及び通信(DICOM:digital imaging and communications in medicine)ファイルの使用を備える。
DICOMファイルは、従来、医療画像を記憶し、共有するために使用されるので、そのような規格に準拠することは、医療画像及び/又はオーバーレイ又は他の寄与データのより容易な分配と将来の分析とを可能にし得る。1つ又は複数のバイナリ・マスクは、DICOM画像ファイルの一部として記憶され、画像ファイルに追加され、及び/又は、さもなければ、DICOM規格又は規格の部分に従って記憶され、及び/又は表され得る。
さらなる態様によれば、医療画像を実質的にリアルタイムで分析するためのシステムであって、本システムは、医療撮像デバイスと、ピクチャ・アーカイビング通信システム(PACS)と、1つ又は複数の特性を決定するために、PACS上の1つ又は複数の医療画像を分析するように動作可能な処理ユニットと、決定された1つ又は複数の特性に基づいて生成された出力データを表示するように動作可能な出力ビューア(output viewer)であって、出力データは、1つ又は複数の追加の医療画像を取得するための要件を示す、出力ビューアとを備える、システムが提供される。
そのようなシステムは、分析されるべき医療画像のための待ち時間を低減するために、病院内又は病院の近くに設置されるか、又はデジタル・ネットワークを介して病院に接続され得る。患者は、したがって、医療走査の結果を知らないことからのストレスを免れ、決定をより迅速に受け取り得る。
随意に、処理ユニットは医療撮像デバイスと一体化される。
このようにして、医療スキャナは、医療画像が走査されるとすぐに、医療画像を分析するために処理ユニットと結合され得る。
随意に、処理ユニットは、リモートに配置され、通信チャネルを介してアクセス可能である。
この構成では、処理ユニットは、既存の走査機器を交換及び変更する必要なしにリモート・クラウド・システムから展開され得る。
さらなる態様によれば、他の態様による方法を実行するように動作可能なシステムが提供される。
さらなる態様によれば、他の態様による方法を実行するように動作可能なコンピュータ・プログラムが提供される。
コンピュータ又は他のデジタル技術の使用によって、医療画像の審査が、人間専門家に依拠するよりも高い正確さ、速度、及び/又は信頼度で実行され得る。したがって、より多数の医療画像が1度で検討され得、それにより、専門家のためのバックログ(backlog)が低減し、医療画像自体が実際に検討されるときに生じる誤りがさらに低減する。
次に、単に例として、同様の参照番号を有する添付の図面を参照しながら、実施例について説明する。
一実施例の流れ図を示す図である。 (たとえば、医療走査デバイス内での)第1の展開を示す図である。 (たとえば、医療施設の構内での)第2の展開を示す図である。 (たとえば、クラウド・システムを使用した)第3の展開を示す図である。
次に、図1〜図4を参照しながら、一実施例について説明する。
図1に見られるように、医療撮像スキャナ101を使用して(マンモグラフィなど)患者の医療走査を実行した後、走査された画像は、医療画像を記憶するために一般的に使用されるファイル・フォーマットである、DICOMフォーマットでコレート(collate)される。本方法は、放射線医療部門が病院において使用するピクチャ・アーカイビング通信システム(PACS)102上に記憶される前処理されたデータを使用する。この方法の出力はまた、マンモグラフィ画像を分析する将来のアプリケーションを改善するためにPACSデータベースを強化する。画像データがDICOMファイルから抽出され、画像が生成される。
画像は、次いで、前処理段103を受ける。画像は、サイズ[幅1、高さ1]の4Dテンソル上にロードされる。前処理段は、画像データを所定のウィンドウイング・レベルにウィンドウイングすることを備え得る。ウィンドウイング・レベルは、画像において考えられるビット値の範囲を定義する。医療画像は、従来16ビット画像であり、ここで、各ピクセルは、0から216−1にわたる16ビット整数、すなわち[0、1、2、…、65535]として表される。情報コンテンツは、これらの画像において極めて高く、一般に、人間の眼が検出することが可能であるものよりも多い情報を備える。ウィンドウイング・レベルのための設定値は、一般に、DICOMファイル内に含まれる。
場合によっては、画像解像度を維持することが重要であり得る。しばしば、従来のグラフィックス処理ユニット(GPU:graphics processing unit)制約は、解像度を維持するために画像が複数のパッチに分割されることを要求する。各パッチは、次いで、完全畳み込みネットワーク(FCN:Fully Convolutional Network)に与えられ得る。パッチが大きくなるほど、与えられ得るコンテキストは多くなるが、ある程度の精度が失われ得る。たとえば、小さい腫瘍を含む大きい画像の場合、FCNが、このパッチ中のどこかに腫瘍があることを指示された場合、ネットワークは、それが分類され得る前に、最初にどのようにそれを見つけるかを学習する必要があるであろう。この実施例では、300×300ピクセルのパッチ・サイズが使用されるが、より大きいパッチ・サイズ及びより小さいパッチ・サイズが使用され得る。
従来のハードウェアの上述の制約により、再スケーリング・ステップが含まれ得る。医療画像は、一般に約3500×2500ピクセルの領域中にある。この画像に適用されるFCN100は、従来のグラフィックス・処理ユニット(GPU)メモリ中に収まらない。画像は、より大きい若しくはより小さいサイズに再スケーリングされるか、又はさらにはまったく再スケーリングされ得ず、及びFCNがより高い解像度を見ることを可能にし、より微細な詳細をピック・アップし得る。しかしながら、これは、GPUメモリ中に収まる可能性がなく、本方法をかなりより遅くさせ得る。画像をより小さいサイズに再スケーリングすることによって、GPUメモリ中に収まることができる可能性がより高くなり、プロセスをより速い速度において実行することが可能になる。FCNはまた、入力パラメータの数がより小さいことにより、より良く一般化し得る。
本方法は、マンモグラムにおいて病変を識別し、検出するために使用され得る。セグメント化され得る病変は、生物組織内の1つ若しくは複数のがん性増殖、塊、膿瘍、裂傷、石灰化、及び/又は他の不整を備え得る。
画像は、画像を、畳み込みニューラル・ネットワークなど、トレーニングされた機械学習モデルに送ることによって分析される。この実施例は、畳み込みネットワークをトレーニングし、発展させるためにディープ・ラーニング技法を利用する。モデルは、既知の精密検査を用いてデータセット上でトレーニングされ、したがって、必要とされる精密検査を推定するために、受信された画像と既知の精密検査との間の関係を直接確立する。特に、機械学習モデルの出力105はバイナリ・ベクトルであり、ここで、インデックスは様々なタイプの精密検査を表す。たとえば、精密検査は、さらなる行為を必要としない、超音波走査、トモシンセシス走査、MRI走査及び/若しくは生検の実施のいずれか、又はそれらの任意の組合せであり得る。
ニューラル・ネットワークをトレーニングするために使用されるデータセットは、既知の密度又は組織タイプをも含み得る。その場合、モデルに密度(A、B、C、D)又は組織タイプ(1、2、3、4、5)をも出力させるために、マルチタスク学習手法が取られ得る。
乳房組織には、乳がんの検出可能性に影響を及ぼす異なるタイプのパターンがある。したがって、どのような種類のパターンが存在するかを知ることが重要である。この分類を開発したLaszlo Tabar教授にちなんで名付けられた、「Tabarパターン」として知られている5つのマンモグラフィ実質(parenchymal)パターンがある。
Tabarパターン(又は分類タイプ)は、3次元のサブグロス(subgross)(厚切り)技法との組織学的マンモグラフィ相関と、4つの「ビルディング・ブロック」(結節性(nodular)密度、線密度、同種線維組織、放射線透過性脂肪組織)相対的比率とに基づく。5つの分類は以下のようになる。
1.線維性組織のわずかな優位を伴う乳房組織のすべての成分のバランスの取れた割合
2.脂肪組織の優位
3.後輪状(retroareolar)残存線維組織をもつ脂肪組織の優位
4.優位結節性密度
5.優位線維性組織(密な乳房)。
クラス4及び5は、危険性が高いと考えられ、それらのパターンをもつ乳房におけるがんを検出することが困難であることを意味するが、クラス1、2及び3は、がん領域を見つけることがより容易であるので、危険性がより低いと考えられる。
いくつかの治療は、ホルモン交換治療(HRT:hormone replacement therapy)の場合と同様に、実質密度を高めることによって、又は選択的エストロゲンレセプタ変調器(SERM:selective oestrogen−receptor modulators)を用いた治療の場合と同様に、実質密度を低減することによって、パターンを変更し得る。
同様に、乳房密度カテゴリーは、BI−RADSシステムを使用して放射線科医によって分類される。この場合も、この分類は品質管理目的のために使用される。たとえば、密な乳房において異常を見つけることは極めて困難である。BI−RADSシステムには次の4つの4つのカテゴリーがある。
A.乳房がほとんど完全に脂肪質である
B.線維腺密度(fibroglandular density)の散乱エリアがある
C.乳房が不均一に密であり、これは小塊を不明瞭にし得る
D.乳房が極めて密であり、これはマンモグラフィの感度を下げる。
重要なことには、乳房密度及び組織パターンは、乳がん発症との相互相関を有することも知られている。
場合によっては、本方法は、2つのタイプの出力データを生成することができる。出力データは、示唆された精密検査又は追加の医学的検査105aに関することができるが、出力データは密度又は組織分類105bをも示し得る。出力データは、さらなる検査のための要件に関するバイナリ出力を示すことができる。随意に、出力データは、Tabarパターン、組織分類タイプ、乳房密度、結節性密度、線密度、均質線維組織、放射線透過性脂肪組織、BI−RADSカテゴリー、画像内の重ね合わせられた特徴の測度、確率及び/又は確信度(confidence rating)のいずれかを含む、どのようにバイナリ出力に到達したかに関するデータを含むことができる。
マンモグラフィは、乳がん検出のために広く使用されている医療撮像モダリティである。マンモグラフィは、人間乳房の内部構造の詳細な画像を生成するために「ソフトな」X線を利用する。これらの画像はマンモグラムと呼ばれ、この方法は、治癒可能な段階にあるがんの有効な診断を与える、乳房異常の早期検出におけるゴールド・スタンダードであると考えられる。
残念ながら、マンモグラムを分析する手順はしばしば困難である。乳房の密度及び組織タイプは、非常に多様であり、順に、患者遺伝学により、視覚的特徴の高い多様性を提示する。これらの背景視覚パターンは、しばしば悪性腫瘍の小さい兆候を不明瞭にすることができ、したがって、兆候は人間の眼では容易に見落とされ得る。したがって、マンモグラムの分析は、しばしば偽陽性又は偽陰性(false−negative)の診断結果につながり、これは、治療の失敗(偽陰性の場合)、並びに不要な心理的及び次善のダウンストリーム診断及び治療結果(偽陽性の場合)を引き起こし得る。
たいていの先進国は、ある年齢層の女性(症状がない場合でも)に定期的な乳房スクリーニングを受けるように呼び集めるための包括的なシステムを備える、人口全体のスクリーニング・プログラムを維持する。これらのスクリーニング・プログラムは、日常的に多数のマンモグラムを確実に分析することができる経験豊富な専門訓練された医師が従うべき、高度に標準化されたプロトコルを必要とする。たいていのプロのガイドラインは、2人の等しい専門家放射線科医による各マンモグラムの読み(二重読み(double−reading)とも呼ばれる)を強く示唆する。現今では、手が空いている放射線科医の数が不十分であり、減少しているとき、二重読み要件はしばしば実施が困難であるか又は不可能である。
マンモグラムを分析するとき、解剖学的構造の信頼できる識別は、視覚的評価のために、特に、最終診断結果に深い影響を及ぼし得る、視覚的特徴の解剖学的ロケーションと、解剖学的構造との視覚的特徴の関係とに基づく視覚的特徴の分析的査定のために重要である。解剖学的構造が歪んで見える場合、それらはまた、あり得る悪性腫瘍の存在を示し得る。
従来のX線は、構造物と骨とを含む空気に関する構造的異常、並びにそれらに影響を及ぼす病気の検出のための広く使用されている医療撮像モダリティである。従来のX線は、最も広く使用されている撮像方法であり、肺と骨格との内部構造の詳細な画像を生成するために「ハードな」X線を利用する。これらの画像はレントゲン写真又は単にX線と呼ばれる。
残念ながら、X線を分析する手順は、特に伝染病(たとえばTB)又は初期段階における肺がんを検出するために肺X線を分析するときに、しばしば困難である。
断面医療撮像モダリティは、人間の内臓に視覚的に識別可能な構造的影響を及ぼす、構造的又は機能的異常及び病気の検出のために広く使用されている。一般に、画像は、身体の複数の断面における内部構造を明らかにする。最も広く使用されている断面技法の本質について以下で説明する。
コンピュータ断層撮影(CT)は、広く使用されている撮像方法であり、特別に回転する器械によって生成され、検出される「ハードな」X線を利用し、得られた減衰データ(生データとも呼ばれる)は、内臓の内部構造の詳細な画像を生成するコンピュータ分析ソフトウェアによって提示される。画像の生成されたセットはCTスキャンと呼ばれ、CTスキャンは、人体の軸に垂直な断面(又は他の角度で合成されたセクション)における内部解剖学的構造を提示するために、異なる設定と異なる造影剤相をもつ複数のシリーズを構成し得る。
磁気共鳴撮像(MRI)は、あらゆる生体組織の最も小さい本質的要素である陽子の動きに対する磁界の影響の効果を利用する、高度な診断技法である。MRI機械において、検出器はアンテナであり、信号は、人体のセクションにおける内部構造の場合、詳細な画像を作成するコンピュータによって分析される。MRIは、移動する陽子によって生成される信号強度に基づいて、有用な機能情報を追加することができる。
しかしながら、特に腫瘍性疾患の場合、初期兆候はしばしば隠されており、冒されたエリアの外観は正常とわずかに異なるだけであるので、任意の種類の断面画像を分析する手順はしばしば困難である。
断面走査を分析するとき、診断は解剖学的構造の視覚的評価に基づく。それらの解剖学的ロケーションと解剖学的構造とのそれらの関係とに基づく視覚的外観の、特に分析的評価のための、信頼できる評価は、最終診断結果に深い影響を及ぼし得る。解剖学的構造が歪んで見える場合、それらはまた、あり得る悪性腫瘍の存在を示し得る。
一般に、(マンモグラフィ、従来のX線、CT、MRIを含む)すべての放射線医療診断方法の場合、異常及び/又は所見の識別、位置特定(登録)、セグメント化及び分類は、診断ワークフローにおける重要な連結されたステップである。
人間の放射線科医によって実行される通常の診断ワークフローの場合、これらのステップは、部分的に又は無意識のうちにのみ実行され得るが、コンピュータ・ベース又はコンピュータ援用診断及び分析の場合、ステップは、しばしば、明確な、具体的な、記述的な、及び正確な様式で実行される必要がある。
ローカリティ及び分類は、診断を定義し、診断に著しい影響を及ぼし得る。ローカリティと分類の両方は、視覚的特徴の厳密な形状及び広がり(すなわち境界のサイズ及びロケーション、他の特徴からの距離及びそれらとの関係、及び/又は解剖学)に関して、セグメント化によって通知され得る。セグメント化はまた、病気のステータスの変化(たとえば進行又は後退)に関する重要な情報を与え得る。
機械学習は、エクスペリエンスから生成されたフィードバック、又は機械学習プロセスがそれらのタスクのコンピュータ実行中に取得した収集されたデータを使用して、タスクのクラスを実行することを、1つ又は複数のコンピュータが学習する研究分野である。
一般に、機械学習は教師あり(supervised)手法と教師なし(unsupervised)手法とに広く分類され得るが、特殊なルール、技法及び/又は手法を有する強化学習及び半教師あり学習など、特定の手法がある。教師あり機械学習は、オペレータ又はプログラマーによって事前決定される例示的な入力と望まれる出力との間でマッピングするための1つ若しくは複数のルール又は機能を学習するコンピュータに関係し、通常、入力を含んでいるデータセットはラベリングされる。
教師なし学習は、たとえばパターン認識を実行するときに、入力データのための構造を決定することに関係し、一般にラベリングされていないデータセットを使用する。強化学習は、たとえばゲームをしたり、車両を駆動したりするときに、1つ又は複数のコンピュータが動的環境と対話することを可能にすることに関係する。
トレーニング・データ・セットが部分的にのみラベリングされている「半教師あり」機械学習など、これらのカテゴリーの様々なハイブリッドが可能である。教師なし機械学習の場合、たとえば、画像処理又はビデオ・エンハンスメントへのコンピュータ・ビジョン技法の適用など、様々な可能な適用例がある。教師なし機械学習は、一般に、未知のデータ構造がデータ中に存在し得る問題を解決するために適用される。データはラベリングされていないので、機械学習プロセスは、たとえば内部的に導出される情報に基づいてクラスタ化メトリックを導出することによって、データ間の暗黙的関係を識別するように動作することが要求される。たとえば、教師なし学習技法は、データセットの次元を低減し、データセット中のクラスタ間の関係を識別し、モデル化することを試みるために使用され得、たとえば、(たとえば、高次元データセットに適用され得る、重み付き相関ネットワーク分析と呼ばれる技法を使用して、又は各データ間のユークリッド距離の測度によってデータをクラスタ化するためにk平均クラスタ化(k−means clustering)を使用する、)クラスタ・メンバーシップの測度を生成するか、又はクラスタ中又はクラスタ間のハブ又はノードを識別することができる。
半教師あり学習は、一般に、部分的にラベリングされたデータセットがある、たとえばデータのサブセットのみがラベリングされている問題を解決するために適用される。半教師あり機械学習は、外部から与えられたラベル及び目的関数並びに暗黙的データ関係を利用する。機械学習システムを最初に構成するとき、特に教師あり機械学習手法を使用するとき、機械学習アルゴリズムには、何らかのトレーニング・データ又はトレーニング例のセットが与えられ得、各例は、一般に入力信号/ベクトルと所望の出力値、ラベル(又は分類)又は信号とのペアである。機械学習アルゴリズムは、トレーニング・データを分析し、見えない入力ベクトル/信号のための所望の出力値又は信号を生成するために、見えないデータセットとともに使用され得る一般化された関数を生成する。ユーザは、トレーニング・データとしてどのタイプのデータが使用されるべきかを決定し、データの代表的現実世界セットを作成する必要がある。ユーザは、しかしながら、トレーニング・データが、(多すぎる次元がトレーニング中に機械学習プロセスによって考えられることをもたらし得、また、機械学習プロセスがすべての又は特定の例のための良好なソリューションに収斂しないことを意味する)多すぎる特徴を与えることなしに、所望の出力値を正確に予測するために十分な情報を含んでいることを保証するように注意しなければならない。ユーザは、また、学習された又は一般化された機能の所望の構造、たとえば、サポート・ベクター・マシン又は決定木を使用するべきかどうかを決定しなければならない。
教師なし又は半教師ありの機械学習手法の使用は、ラベリングされたデータが容易に利用可能でないとき、又はシステムが、いくつかの初期シード・ラベルを与えられた未知のデータから新しいラベリングされたデータを生成する場合に、時々使用される。
機械学習は、非線形階層アルゴリズム、ニューラル・ネットワーク、畳み込みニューラル・ネットワーク、リカレント・ニューラル・ネットワーク、長短期メモリ・ネットワーク、多次元畳み込みネットワーク、メモリ・ネットワーク、のうちの1つ又は複数の使用によって実行され得、完全畳み込みネットワーク又はゲート付きリカレント・ネットワークは、視覚データの予測されたブロックを生成するときにフレキシブルな手法を可能にする。長短期メモリ・ネットワーク(LSTM:long short−term memory network)、メモリ・ネットワーク又はゲート付きリカレント・ネットワークなど、メモリ・ユニットを用いたアルゴリズムの使用は、同じ元の入力フレーム上で実行される動き補償プロセスから予測されたブロックの状態を保つことができる。これらのネットワークの使用は、アルゴリズムが動きの変化の何らかの種類の状態又はメモリを維持するので、計算効率を改善し、また、いくつかのフレームにわたる動き補償プロセスにおける時間的一貫性を改善することができる。これは、さらに、エラー率の低減をもたらすことができる。
機械学習システムを開発することは、一般に、(1)トレーニング、及び(2)生成の2つの段階からなる。トレーニング中、機械学習モデルのパラメータは、目的関数又は損失として知られている、特定の学習目的を最適化するために、反復的に変更される。モデルがトレーニングされると、それは製造において使用され得、モデルは、入力を取り込み、トレーニングされたパラメータを使用して出力を生成する。
ニューラル・ネットワークのトレーニング段階中、検証された入力が与えられ、したがって、ニューラル・ネットワークの計算された出力を、次いでネットワークが必要であるコレクトと比較することが可能である。ニューラル・ネットワークにおける各ノードについての誤差項又は損失関数が確立され、将来の出力が予想される結果により近くなるように、重みが調整され得る。バックプロパゲーション技法も、その又は各ニューラル・ネットワークのためのトレーニング・スケジュールにおいて使用され得る。
モデルは、ネットワークを通したバックプロパゲーションとフォワード・パスとを使用してトレーニングされ得る。密なトレーニングのための損失関数は、個々のピクセルについての損失関数の空間次元にわたる合計である。
Figure 2021527473

ここで、L(x)は全体画像にわたる損失であり、l’(x)は、i、jにおけるピクセルについての損失である。これにより、システムは、システムによって作成された画像から1つ又は複数の病変を自動的に識別することが可能になる。
損失関数は、次のように定義される、DICE損失であり得る。
Figure 2021527473

ここで、s及びrは、それぞれ、予測マップ∈[0、…、1]の連続値、及び各ピクセルiにおけるグランド・トゥルース(ground truth)を表す。代替的に、クロス・エントロピーが使用され得る。i、jにおけるピクセルについてのクロス・エントロピー損失は次のように定義される。
Figure 2021527473

ここで、Cはクラスの数であり、y∈{0、1}はクラスcについてのバイナリ・インジケータであり、sはクラスcについてのスコアである。完全な画像についての損失x、は、ピクセルについてのすべての損失にわたる合計として定義される。
Figure 2021527473
出力がニューラル・ネットワークによって生成されると、出力からの1つ又は複数のパッチがサンプリングされ得る。サンプリングは、病変の存在の確率に比例し得、特に、サンプリングは、所定のしきい値によって定義される、病変である確率がより高いエリアから取られ得る。代替的に、ポアソン・サンプリング又は一様サンプリングがサンプル・パッチのために使用され得る。ポアソン・サンプリングは乳房組織のすべてのより良いカバレージを与え得る。CNNはまた、異なるプロセス、たとえば、ランダム・フォレスト・ベースの候補セレクタ又は任意の同様の病変検出方法の結果を使用してトレーニングされ得る。
マルチタスク学習設定では、損失は複数パートからなる。各タスクについての損失項。
L(x)=λ+λ
ここで、L、Lは2つの異なるタスクについての損失項であり、λ、λは重み付け項である。
本明細書で説明するシステム特徴は、方法特徴としても与えられ得、その逆も同様である。本明細書で使用する際、ミーンズ・プラス・ファンクション特徴は、それらの対応する構造に関して代替的に表され得る。
一態様における特徴は、適切な組合せで他の態様に適用され得る。特に、方法態様はシステム態様に適用され得、その逆も同様である。さらに、一態様における任意の、いくつかの及び/又はすべての特徴は、適切な組合せで、他の態様における任意の、いくつかの及び/又はすべての特徴に適用され得る。
また、本発明のいずれかの態様において説明され、定義された様々な特徴の特定の組合せは、単独で実装及び/又は供給及び/又は使用され得ることを諒解されたい。
本発明は、医療撮像のためのディープ・ラーニング実装形態に関する。より詳細には、本発明は、実質的にリアルタイムで、初期医療スクリーニング中の予備分析の後に、追加の医学的検査が必要とされるかどうかを示すための方法及びシステムに関する。
マンモグラフィ(mammography)は、人間乳房の内部構造の画像を生成するために低線量X線を利用する、人間乳房組織を走査する高度な方法である。マンモグラム(mammogram)と呼ばれるこれらの画像のスクリーニングは、乳房異常及び病気の早期検出及び診断を助ける。より正確な走査を確認するために、マンモグラム機械は、通常、組織を広げるために乳房を圧縮し、放射線科医がマンモグラムを検査するのを助ける、2つのプレートを有する。
人間の人力による評価は、画像評価の最も正確な方法であると考えられ、包括的な分析のために、医療走査をセクションごとに検査する、放射線科医又は同様の専門家によって実行されるタスクを指す。しかしながら、マンモグラムは、2次元画像平面上に投影された3次元情報の表現であることを考えると、検査される2D医療走査画像(マンモグラム)中に組織の重ね合わせがしばしばある。結果として、乳房の画像内に重ね合わせられて現れる組織は、悪性(malignant)異常の可視性を低減するか、又は、時々、さらには、異常の外観(偽陽性(false positive))をシミュレートすることができる。これにより、マンモグラムを分析するタスクがより困難になり、マンモグラムが異常を正確に精密に検出するときに困難が生じ得る。
したがって、スクリーニング、及び精密検査(たとえば代替撮像技法を使用することを含むさらなる医学的検査)を要求する現在の方法は、不明瞭なマンモグラムを検査するために放射線科医のみに依拠するときに非効率的で及び/又は遅いことがある。しばしば、最終結果は、患者にとって不要でコストがかかるリコール手順、生検(biopsy)及び/又は心理的ストレスになる。
さらに、現在の医療スクリーニング・レジームの下で、マンモグラムに疑わしい所見があり、さらなる検査が必要とされる場合、追加の検査のためのコール・バック(call back)時間は通常2〜3週間である。
米国特許第6574304(B1)号は、患者診断ワークフローを支援するための自動化された意思決定支援機能を与える目的で、システムが医療画像から抽出されるべき関連がある特徴を分析することを「学習」することを可能にする、機械学習技法を使用することによる医療画像に基づいて、自動化された診断及び意思決定支援のためのシステム及び方法を開示している。
米国特許出願第2005/049497(A1)号は、追加の画像データ収集を案内するためにCAD情報を実装する方法を開示している。より詳細には、D1の方法は、当該の特徴がCADアルゴリズムによって識別された疑わしい関心領域において追加の画像を収集するように撮像システムに自動的に指示することができる。
米国特許出願第2016/364857(A1)号は、診断を助けるために追加の撮像検査を決定するように構成され得る医療画像を分析するための機械学習技法の使用を述べている。
米国特許第6574304(B1)号 米国特許出願第2005/049497(A1)号 米国特許出願第2016/364857(A1)号
態様及び/又は実施例は、ディープ・ラーニングを使用して、初期医療走査を分析することに基づいて、実質的にリアルタイムで、追加の医学的検査のための要件を推奨するか又は示すための方法及びシステムを提供することを求める。
第1の態様によれば、実質的にリアルタイムで医療画像を分析するコンピュータ援用方法であって、本方法は、1つ又は複数の医療画像を受信するステップと、1つ又は複数の特性を決定するために前記1つ又は複数の医療画像を分析するステップと、決定された1つ又は複数の特性に基づいて出力データを生成するステップとを含み、出力データは、1つ又は複数の追加の医学的検査を取得するための要件を示す、コンピュータ援用方法が提供される。
医療画像を分析し、さらなる医学的検査を確認する決定を行うための従来の方法は、マンモグラムにおける異常を識別するために、専門家、通常は放射線科医に依拠する。しばしば、放射線科医がマンモグラムを検査する際に遅延がある。さらなる放射線科医は、たとえば、タスクの手動性質により、一貫した正確さを証明せず、マンモグラムにおける重ね合わせられた乳房組織、及び/又は人間の眼が検出するには細かすぎる詳細により、誤りを犯す。反対に、本明細書で開示する方法は、人間の入力なしに医療画像を分析する方法を提供し、さらなる医学的検査が必要とされるかどうかに関する瞬時の推奨を与える。
随意に、1つ又は複数の追加の医学的検査は、コンピュータ化トモグラフィ(CT)走査、超音波走査、磁気共鳴撮像(MRI)走査、トモシンセシス(tomosynthesis)走査、及び/又は生検のうちのいずれか又はそれらの任意の組合せを備える。
さらなる医学的検査が、予備スクリーニングの分析に基づいて示唆され得る。例として、初期マンモグラムが不明瞭であるか、又は特徴が重ね合わせられているか、又は調査する価値がある病変(lesion)があり得る場合、より詳細なトモシンセシス走査が瞬時に推奨され得る。場合によっては、初期医療画像からの分析は、さらなる精密検査(workup)又は医学的検査を必要としないことがある。随意に、出力データはまた、乳房密度又は組織分類タイプを示し得る。
随意に、1つ又は複数の医療画像は1つ又は複数のマンモグラフィ走査又はX線走査を備える。
たいていの医療スクリーニング・プログラムでは、X線又はマンモグラフィが第1のタイプの医療走査である。
随意に、分析する及び決定するステップは、1つ又は複数のトレーニングされた機械学習モデルを使用して実行される。
トレーニングされた機械学習モデルは、人間専門家よりもはるかに迅速に医療画像を分析し、したがって、全体的に分析される医療画像の数を増加させることができる。正確さは、一般に、機械学習モデルを使用するときに一貫している。したがって、問題、たとえばがん性腫瘍の増殖が、人間専門家の手が空くのを待つよりも迅速に検出され得、したがって、治療をより早く開始し得るか、又は追加の医学的検査がより早く要求され得る。病変を含み得る、関心領域の識別は、したがって、他の医療問題の中でも乳がんのスクリーニング及び臨床的評価を助け得る。より早い診断及び治療は、患者への心理的ストレスを低減し、また、長期における生存の可能性を高めることができる。
随意に、トレーニングされた機械学習モデルは畳み込み(convolutional)ニューラル・ネットワークを備える。
畳み込みネットワークは、特徴の階層をもたらすようにトレーニングされ得、特に画像認識に好適である、生物学的ニューラル・プロセスによって触発された強力なツールである。畳み込みレイヤは、畳み込み演算を入力に適用し、結果を後続のレイヤに渡す。トレーニングにより、畳み込みネットワークは、マンモグラムなど、デジタル医療画像中の解剖学的(anatomical)領域及び病理(pathological)領域をセグメント化し、位置特定することに関して、専門家レベルの又はより大きい正確さを達成することができる。
随意に、分析する及び決定するステップは、1つ又は複数の解剖学的領域をセグメント化することを含む。随意に、出力データは、セグメント化アウトラインを示すオーバーレイ・データ、及び/又は1つ若しくは複数のセグメント化された領域の1つ若しくは複数のロケーションを示す確率マスクをさらに備える。
領域の明確で正確なセグメント化を行うことは、マンモグラムなど、医療画像を検討するときに極めて役立ち得る。これは、患者に医学的問題があると疑う理由がある場合、たとえば、それが前の走査におけるよりも大きい腫れたエリアがある場合、特に重要であり得る。そのような変化は、異なる領域が明確にセグメント化されている場合に、より容易に検出可能であり得る。さらに、セグメント化情報はまた、放射線医療部門が病院において使用するピクチャ・アーカイビング通信システム(PACS:Picture Archiving Communication Systems)を強化するために使用され得る。このセグメント化データがPACSに含まれることにより、本方法が半自動化されるか、完全に自動化されるか、又は手動で実行されるかにかかわらず、同様のケースにフラグを立てる将来の方法を有利に改善する。
随意に、分析する及び決定するステップは、組織タイプと密度カテゴリーとを識別することを含む。随意に、1つ又は複数の追加の医学的検査の必要とされるタイプは、1つ又は複数の医療画像に基づいて決定された密度カテゴリーに依存する。随意に、このステップは、組織タイプと密度カテゴリーとを共同で推定し得る。
組織タイプと密度カテゴリーとを正しく分類することは、本方法が適切な追加の医学的検査又は特定の精密検査を推奨することを可能にすることができる。
随意に、分析する及び決定するステップは、医療画像中の1つ又は複数の異常(anomalous)領域を自動的に識別することを含む。
随意に、分析する及び決定するステップは、悪性病変及び/又は良性(benign)病変及び/又は一般的病変を識別する及び区別することを含む。
随意に、出力データは、1つ又は複数の病変のための確率マスクを示すオーバーレイ・データをさらに備える。
随意に、分析する及び決定するステップは、アーキテクチャひずみ(architectural distortion)を識別することを含む。
随意に、1つ又は複数の医療画像及び1つ又は複数の追加の医療画像は、医療におけるデジタル撮像及び通信(DICOM:digital imaging and communications in medicine)ファイルの使用を備える。
DICOMファイルは、従来、医療画像を記憶し、共有するために使用されるので、そのような規格に準拠することは、医療画像及び/又はオーバーレイ又は他の寄与データのより容易な分配と将来の分析とを可能にし得る。1つ又は複数のバイナリ・マスクは、DICOM画像ファイルの一部として記憶され、画像ファイルに追加され、及び/又は、さもなければ、DICOM規格又は規格の部分に従って記憶され、及び/又は表され得る。
さらなる態様によれば、医療画像を実質的にリアルタイムで分析するためのシステムであって、本システムは、医療撮像デバイスと、ピクチャ・アーカイビング通信システム(PACS)と、1つ又は複数の特性を決定するために、PACS上の1つ又は複数の医療画像を分析するように動作可能な処理ユニットと、決定された1つ又は複数の特性に基づいて生成された出力データを表示するように動作可能な出力ビューア(output viewer)であって、出力データは、1つ又は複数の追加の医療画像を取得するための要件を示す、出力ビューアとを備える、システムが提供される。
そのようなシステムは、分析されるべき医療画像のための待ち時間を低減するために、病院内又は病院の近くに設置されるか、又はデジタル・ネットワークを介して病院に接続され得る。患者は、したがって、医療走査の結果を知らないことからのストレスを免れ、決定をより迅速に受け取り得る。
随意に、処理ユニットは医療撮像デバイスと一体化される。
このようにして、医療スキャナは、医療画像が走査されるとすぐに、医療画像を分析するために処理ユニットと結合され得る。
随意に、処理ユニットは、リモートに配置され、通信チャネルを介してアクセス可能である。
この構成では、処理ユニットは、既存の走査機器を交換及び変更する必要なしにリモート・クラウド・システムから展開され得る。
さらなる態様によれば、他の態様による方法を実行するように動作可能なシステムが提供される。
さらなる態様によれば、他の態様による方法を実行するように動作可能なコンピュータ・プログラムが提供される。
コンピュータ又は他のデジタル技術の使用によって、医療画像の審査が、人間専門家に依拠するよりも高い正確さ、速度、及び/又は信頼度で実行され得る。したがって、より多数の医療画像が1度で検討され得、それにより、専門家のためのバックログ(backlog)が低減し、医療画像自体が実際に検討されるときに生じる誤りがさらに低減する。
次に、単に例として、同様の参照番号を有する添付の図面を参照しながら、実施例について説明する。
一実施例の流れ図を示す図である。 (たとえば、医療走査デバイス内での)第1の展開を示す図である。 (たとえば、医療施設の構内での)第2の展開を示す図である。 (たとえば、クラウド・システムを使用した)第3の展開を示す図である。
次に、図1〜図4を参照しながら、一実施例について説明する。
図1に見られるように、医療撮像スキャナ101を使用して(マンモグラフィなど)患者の医療走査を実行した後、走査された画像は、医療画像を記憶するために一般的に使用されるファイル・フォーマットである、DICOMフォーマットでコレート(collate)される。本方法は、放射線医療部門が病院において使用するピクチャ・アーカイビング通信システム(PACS)102上に記憶される前処理されたデータを使用する。この方法の出力はまた、マンモグラフィ画像を分析する将来のアプリケーションを改善するためにPACSデータベースを強化する。画像データがDICOMファイルから抽出され、画像が生成される。
画像は、次いで、前処理段103を受ける。画像は、サイズ[幅1、高さ1]の4Dテンソル上にロードされる。前処理段は、画像データを所定のウィンドウイング・レベルにウィンドウイングすることを備え得る。ウィンドウイング・レベルは、画像において考えられるビット値の範囲を定義する。医療画像は、従来16ビット画像であり、ここで、各ピクセルは、0から216−1にわたる16ビット整数、すなわち[0、1、2、…、65535]として表される。情報コンテンツは、これらの画像において極めて高く、一般に、人間の眼が検出することが可能であるものよりも多い情報を備える。ウィンドウイング・レベルのための設定値は、一般に、DICOMファイル内に含まれる。
場合によっては、画像解像度を維持することが重要であり得る。しばしば、従来のグラフィックス処理ユニット(GPU:graphics processing unit)制約は、解像度を維持するために画像が複数のパッチに分割されることを要求する。各パッチは、次いで、完全畳み込みネットワーク(FCN:Fully Convolutional Network)に与えられ得る。パッチが大きくなるほど、与えられ得るコンテキストは多くなるが、ある程度の精度が失われ得る。たとえば、小さい腫瘍を含む大きい画像の場合、FCNが、このパッチ中のどこかに腫瘍があることを指示された場合、ネットワークは、それが分類され得る前に、最初にどのようにそれを見つけるかを学習する必要があるであろう。この実施例では、300×300ピクセルのパッチ・サイズが使用されるが、より大きいパッチ・サイズ及びより小さいパッチ・サイズが使用され得る。
従来のハードウェアの上述の制約により、再スケーリング・ステップが含まれ得る。医療画像は、一般に約3500×2500ピクセルの領域中にある。この画像に適用されるFCN100は、従来のグラフィックス・処理ユニット(GPU)メモリ中に収まらない。画像は、より大きい若しくはより小さいサイズに再スケーリングされるか、又はさらにはまったく再スケーリングされ得ず、及びFCNがより高い解像度を見ることを可能にし、より微細な詳細をピック・アップし得る。しかしながら、これは、GPUメモリ中に収まる可能性がなく、本方法をかなりより遅くさせ得る。画像をより小さいサイズに再スケーリングすることによって、GPUメモリ中に収まることができる可能性がより高くなり、プロセスをより速い速度において実行することが可能になる。FCNはまた、入力パラメータの数がより小さいことにより、より良く一般化し得る。
本方法は、マンモグラムにおいて病変を識別し、検出するために使用され得る。セグメント化され得る病変は、生物組織内の1つ若しくは複数のがん性増殖、塊、膿瘍、裂傷、石灰化、及び/又は他の不整を備え得る。
画像は、画像を、畳み込みニューラル・ネットワークなど、トレーニングされた機械学習モデルに送ることによって分析される。この実施例は、畳み込みネットワークをトレーニングし、発展させるためにディープ・ラーニング技法を利用する。モデルは、既知の精密検査を用いてデータセット上でトレーニングされ、したがって、必要とされる精密検査を推定するために、受信された画像と既知の精密検査との間の関係を直接確立する。特に、機械学習モデルの出力105はバイナリ・ベクトルであり、ここで、インデックスは様々なタイプの精密検査を表す。たとえば、精密検査は、さらなる行為を必要としない、超音波走査、トモシンセシス走査、MRI走査及び/若しくは生検の実施のいずれか、又はそれらの任意の組合せであり得る。
ニューラル・ネットワークをトレーニングするために使用されるデータセットは、既知の密度又は組織タイプをも含み得る。その場合、モデルに密度(A、B、C、D)又は組織タイプ(1、2、3、4、5)をも出力させるために、マルチタスク学習手法が取られ得る。
乳房組織には、乳がんの検出可能性に影響を及ぼす異なるタイプのパターンがある。したがって、どのような種類のパターンが存在するかを知ることが重要である。この分類を開発したLaszlo Tabar教授にちなんで名付けられた、「Tabarパターン」として知られている5つのマンモグラフィ実質(parenchymal)パターンがある。
Tabarパターン(又は分類タイプ)は、3次元のサブグロス(subgross)(厚切り)技法との組織学的マンモグラフィ相関と、4つの「ビルディング・ブロック」(結節性(nodular)密度、線密度、同種線維組織、放射線透過性脂肪組織)相対的比率とに基づく。5つの分類は以下のようになる。
1.線維性組織のわずかな優位を伴う乳房組織のすべての成分のバランスの取れた割合
2.脂肪組織の優位
3.後輪状(retroareolar)残存線維組織をもつ脂肪組織の優位
4.優位結節性密度
5.優位線維性組織(密な乳房)。
クラス4及び5は、危険性が高いと考えられ、それらのパターンをもつ乳房におけるがんを検出することが困難であることを意味するが、クラス1、2及び3は、がん領域を見つけることがより容易であるので、危険性がより低いと考えられる。
いくつかの治療は、ホルモン交換治療(HRT:hormone replacement therapy)の場合と同様に、実質密度を高めることによって、又は選択的エストロゲンレセプタ変調器(SERM:selective oestrogen−receptor modulators)を用いた治療の場合と同様に、実質密度を低減することによって、パターンを変更し得る。
同様に、乳房密度カテゴリーは、BI−RADSシステムを使用して放射線科医によって分類される。この場合も、この分類は品質管理目的のために使用される。たとえば、密な乳房において異常を見つけることは極めて困難である。BI−RADSシステムには次の4つの4つのカテゴリーがある。
A.乳房がほとんど完全に脂肪質である
B.線維腺密度(fibroglandular density)の散乱エリアがある
C.乳房が不均一に密であり、これは小塊を不明瞭にし得る
D.乳房が極めて密であり、これはマンモグラフィの感度を下げる。
重要なことには、乳房密度及び組織パターンは、乳がん発症との相互相関を有することも知られている。
場合によっては、本方法は、2つのタイプの出力データを生成することができる。出力データは、示唆された精密検査又は追加の医学的検査105aに関することができるが、出力データは密度又は組織分類105bをも示し得る。出力データは、さらなる検査のための要件に関するバイナリ出力を示すことができる。随意に、出力データは、Tabarパターン、組織分類タイプ、乳房密度、結節性密度、線密度、均質線維組織、放射線透過性脂肪組織、BI−RADSカテゴリー、画像内の重ね合わせられた特徴の測度、確率及び/又は確信度(confidence rating)のいずれかを含む、どのようにバイナリ出力に到達したかに関するデータを含むことができる。
マンモグラフィは、乳がん検出のために広く使用されている医療撮像モダリティである。マンモグラフィは、人間乳房の内部構造の詳細な画像を生成するために「ソフトな」X線を利用する。これらの画像はマンモグラムと呼ばれ、この方法は、治癒可能な段階にあるがんの有効な診断を与える、乳房異常の早期検出におけるゴールド・スタンダードであると考えられる。
残念ながら、マンモグラムを分析する手順はしばしば困難である。乳房の密度及び組織タイプは、非常に多様であり、順に、患者遺伝学により、視覚的特徴の高い多様性を提示する。これらの背景視覚パターンは、しばしば悪性腫瘍の小さい兆候を不明瞭にすることができ、したがって、兆候は人間の眼では容易に見落とされ得る。したがって、マンモグラムの分析は、しばしば偽陽性又は偽陰性(false−negative)の診断結果につながり、これは、治療の失敗(偽陰性の場合)、並びに不要な心理的及び次善のダウンストリーム診断及び治療結果(偽陽性の場合)を引き起こし得る。
たいていの先進国は、ある年齢層の女性(症状がない場合でも)に定期的な乳房スクリーニングを受けるように呼び集めるための包括的なシステムを備える、人口全体のスクリーニング・プログラムを維持する。これらのスクリーニング・プログラムは、日常的に多数のマンモグラムを確実に分析することができる経験豊富な専門訓練された医師が従うべき、高度に標準化されたプロトコルを必要とする。たいていのプロのガイドラインは、2人の等しい専門家放射線科医による各マンモグラムの読み(二重読み(double−reading)とも呼ばれる)を強く示唆する。現今では、手が空いている放射線科医の数が不十分であり、減少しているとき、二重読み要件はしばしば実施が困難であるか又は不可能である。
マンモグラムを分析するとき、解剖学的構造の信頼できる識別は、視覚的評価のために、特に、最終診断結果に深い影響を及ぼし得る、視覚的特徴の解剖学的ロケーションと、解剖学的構造との視覚的特徴の関係とに基づく視覚的特徴の分析的査定のために重要である。解剖学的構造が歪んで見える場合、それらはまた、あり得る悪性腫瘍の存在を示し得る。
従来のX線は、構造物と骨とを含む空気に関する構造的異常、並びにそれらに影響を及ぼす病気の検出のための広く使用されている医療撮像モダリティである。従来のX線は、最も広く使用されている撮像方法であり、肺と骨格との内部構造の詳細な画像を生成するために「ハードな」X線を利用する。これらの画像はレントゲン写真又は単にX線と呼ばれる。
残念ながら、X線を分析する手順は、特に伝染病(たとえばTB)又は初期段階における肺がんを検出するために肺X線を分析するときに、しばしば困難である。
断面医療撮像モダリティは、人間の内臓に視覚的に識別可能な構造的影響を及ぼす、構造的又は機能的異常及び病気の検出のために広く使用されている。一般に、画像は、身体の複数の断面における内部構造を明らかにする。最も広く使用されている断面技法の本質について以下で説明する。
コンピュータ断層撮影(CT)は、広く使用されている撮像方法であり、特別に回転する器械によって生成され、検出される「ハードな」X線を利用し、得られた減衰データ(生データとも呼ばれる)は、内臓の内部構造の詳細な画像を生成するコンピュータ分析ソフトウェアによって提示される。画像の生成されたセットはCTスキャンと呼ばれ、CTスキャンは、人体の軸に垂直な断面(又は他の角度で合成されたセクション)における内部解剖学的構造を提示するために、異なる設定と異なる造影剤相をもつ複数のシリーズを構成し得る。
磁気共鳴撮像(MRI)は、あらゆる生体組織の最も小さい本質的要素である陽子の動きに対する磁界の影響の効果を利用する、高度な診断技法である。MRI機械において、検出器はアンテナであり、信号は、人体のセクションにおける内部構造の場合、詳細な画像を作成するコンピュータによって分析される。MRIは、移動する陽子によって生成される信号強度に基づいて、有用な機能情報を追加することができる。
しかしながら、特に腫瘍性疾患の場合、初期兆候はしばしば隠されており、冒されたエリアの外観は正常とわずかに異なるだけであるので、任意の種類の断面画像を分析する手順はしばしば困難である。
断面走査を分析するとき、診断は解剖学的構造の視覚的評価に基づく。それらの解剖学的ロケーションと解剖学的構造とのそれらの関係とに基づく視覚的外観の、特に分析的評価のための、信頼できる評価は、最終診断結果に深い影響を及ぼし得る。解剖学的構造が歪んで見える場合、それらはまた、あり得る悪性腫瘍の存在を示し得る。
一般に、(マンモグラフィ、従来のX線、CT、MRIを含む)すべての放射線医療診断方法の場合、異常及び/又は所見の識別、位置特定(登録)、セグメント化及び分類は、診断ワークフローにおける重要な連結されたステップである。
人間の放射線科医によって実行される通常の診断ワークフローの場合、これらのステップは、部分的に又は無意識のうちにのみ実行され得るが、コンピュータ・ベース又はコンピュータ援用診断及び分析の場合、ステップは、しばしば、明確な、具体的な、記述的な、及び正確な様式で実行される必要がある。
ローカリティ及び分類は、診断を定義し、診断に著しい影響を及ぼし得る。ローカリティと分類の両方は、視覚的特徴の厳密な形状及び広がり(すなわち境界のサイズ及びロケーション、他の特徴からの距離及びそれらとの関係、及び/又は解剖学)に関して、セグメント化によって通知され得る。セグメント化はまた、病気のステータスの変化(たとえば進行又は後退)に関する重要な情報を与え得る。
機械学習は、エクスペリエンスから生成されたフィードバック、又は機械学習プロセスがそれらのタスクのコンピュータ実行中に取得した収集されたデータを使用して、タスクのクラスを実行することを、1つ又は複数のコンピュータが学習する研究分野である。
一般に、機械学習は教師あり(supervised)手法と教師なし(unsupervised)手法とに広く分類され得るが、特殊なルール、技法及び/又は手法を有する強化学習及び半教師あり学習など、特定の手法がある。教師あり機械学習は、オペレータ又はプログラマーによって事前決定される例示的な入力と望まれる出力との間でマッピングするための1つ若しくは複数のルール又は機能を学習するコンピュータに関係し、通常、入力を含んでいるデータセットはラベリングされる。
教師なし学習は、たとえばパターン認識を実行するときに、入力データのための構造を決定することに関係し、一般にラベリングされていないデータセットを使用する。強化学習は、たとえばゲームをしたり、車両を駆動したりするときに、1つ又は複数のコンピュータが動的環境と対話することを可能にすることに関係する。
トレーニング・データ・セットが部分的にのみラベリングされている「半教師あり」機械学習など、これらのカテゴリーの様々なハイブリッドが可能である。教師なし機械学習の場合、たとえば、画像処理又はビデオ・エンハンスメントへのコンピュータ・ビジョン技法の適用など、様々な可能な適用例がある。教師なし機械学習は、一般に、未知のデータ構造がデータ中に存在し得る問題を解決するために適用される。データはラベリングされていないので、機械学習プロセスは、たとえば内部的に導出される情報に基づいてクラスタ化メトリックを導出することによって、データ間の暗黙的関係を識別するように動作することが要求される。たとえば、教師なし学習技法は、データセットの次元を低減し、データセット中のクラスタ間の関係を識別し、モデル化することを試みるために使用され得、たとえば、(たとえば、高次元データセットに適用され得る、重み付き相関ネットワーク分析と呼ばれる技法を使用して、又は各データ間のユークリッド距離の測度によってデータをクラスタ化するためにk平均クラスタ化(k−means clustering)を使用する、)クラスタ・メンバーシップの測度を生成するか、又はクラスタ中又はクラスタ間のハブ又はノードを識別することができる。
半教師あり学習は、一般に、部分的にラベリングされたデータセットがある、たとえばデータのサブセットのみがラベリングされている問題を解決するために適用される。半教師あり機械学習は、外部から与えられたラベル及び目的関数並びに暗黙的データ関係を利用する。機械学習システムを最初に構成するとき、特に教師あり機械学習手法を使用するとき、機械学習アルゴリズムには、何らかのトレーニング・データ又はトレーニング例のセットが与えられ得、各例は、一般に入力信号/ベクトルと所望の出力値、ラベル(又は分類)又は信号とのペアである。機械学習アルゴリズムは、トレーニング・データを分析し、見えない入力ベクトル/信号のための所望の出力値又は信号を生成するために、見えないデータセットとともに使用され得る一般化された関数を生成する。ユーザは、トレーニング・データとしてどのタイプのデータが使用されるべきかを決定し、データの代表的現実世界セットを作成する必要がある。ユーザは、しかしながら、トレーニング・データが、(多すぎる次元がトレーニング中に機械学習プロセスによって考えられることをもたらし得、また、機械学習プロセスがすべての又は特定の例のための良好なソリューションに収斂しないことを意味する)多すぎる特徴を与えることなしに、所望の出力値を正確に予測するために十分な情報を含んでいることを保証するように注意しなければならない。ユーザは、また、学習された又は一般化された機能の所望の構造、たとえば、サポート・ベクター・マシン又は決定木を使用するべきかどうかを決定しなければならない。
教師なし又は半教師ありの機械学習手法の使用は、ラベリングされたデータが容易に利用可能でないとき、又はシステムが、いくつかの初期シード・ラベルを与えられた未知のデータから新しいラベリングされたデータを生成する場合に、時々使用される。
機械学習は、非線形階層アルゴリズム、ニューラル・ネットワーク、畳み込みニューラル・ネットワーク、リカレント・ニューラル・ネットワーク、長短期メモリ・ネットワーク、多次元畳み込みネットワーク、メモリ・ネットワーク、のうちの1つ又は複数の使用によって実行され得、完全畳み込みネットワーク又はゲート付きリカレント・ネットワークは、視覚データの予測されたブロックを生成するときにフレキシブルな手法を可能にする。長短期メモリ・ネットワーク(LSTM:long short−term memory network)、メモリ・ネットワーク又はゲート付きリカレント・ネットワークなど、メモリ・ユニットを用いたアルゴリズムの使用は、同じ元の入力フレーム上で実行される動き補償プロセスから予測されたブロックの状態を保つことができる。これらのネットワークの使用は、アルゴリズムが動きの変化の何らかの種類の状態又はメモリを維持するので、計算効率を改善し、また、いくつかのフレームにわたる動き補償プロセスにおける時間的一貫性を改善することができる。これは、さらに、エラー率の低減をもたらすことができる。
機械学習システムを開発することは、一般に、(1)トレーニング、及び(2)生成の2つの段階からなる。トレーニング中、機械学習モデルのパラメータは、目的関数又は損失として知られている、特定の学習目的を最適化するために、反復的に変更される。モデルがトレーニングされると、それは製造において使用され得、モデルは、入力を取り込み、トレーニングされたパラメータを使用して出力を生成する。
ニューラル・ネットワークのトレーニング段階中、検証された入力が与えられ、したがって、ニューラル・ネットワークの計算された出力を、次いでネットワークが必要であるコレクトと比較することが可能である。ニューラル・ネットワークにおける各ノードについての誤差項又は損失関数が確立され、将来の出力が予想される結果により近くなるように、重みが調整され得る。バックプロパゲーション技法も、その又は各ニューラル・ネットワークのためのトレーニング・スケジュールにおいて使用され得る。
モデルは、ネットワークを通したバックプロパゲーションとフォワード・パスとを使用してトレーニングされ得る。密なトレーニングのための損失関数は、個々のピクセルについての損失関数の空間次元にわたる合計である。
Figure 2021527473

ここで、L(x)は全体画像にわたる損失であり、l’(x)は、i、jにおけるピクセルについての損失である。これにより、システムは、システムによって作成された画像から1つ又は複数の病変を自動的に識別することが可能になる。
損失関数は、次のように定義される、DICE損失であり得る。
Figure 2021527473

ここで、s及びrは、それぞれ、予測マップ∈[0、…、1]の連続値、及び各ピクセルiにおけるグランド・トゥルース(ground truth)を表す。代替的に、クロス・エントロピーが使用され得る。i、jにおけるピクセルについてのクロス・エントロピー損失は次のように定義される。
Figure 2021527473

ここで、Cはクラスの数であり、y∈{0、1}はクラスcについてのバイナリ・インジケータであり、sはクラスcについてのスコアである。完全な画像についての損失x、は、ピクセルについてのすべての損失にわたる合計として定義される。
Figure 2021527473
出力がニューラル・ネットワークによって生成されると、出力からの1つ又は複数のパッチがサンプリングされ得る。サンプリングは、病変の存在の確率に比例し得、特に、サンプリングは、所定のしきい値によって定義される、病変である確率がより高いエリアから取られ得る。代替的に、ポアソン・サンプリング又は一様サンプリングがサンプル・パッチのために使用され得る。ポアソン・サンプリングは乳房組織のすべてのより良いカバレージを与え得る。CNNはまた、異なるプロセス、たとえば、ランダム・フォレスト・ベースの候補セレクタ又は任意の同様の病変検出方法の結果を使用してトレーニングされ得る。
マルチタスク学習設定では、損失は複数パートからなる。各タスクについての損失項。
L(x)=λ+λ
ここで、L、Lは2つの異なるタスクについての損失項であり、λ、λは重み付け項である。
本明細書で説明するシステム特徴は、方法特徴としても与えられ得、その逆も同様である。本明細書で使用する際、ミーンズ・プラス・ファンクション特徴は、それらの対応する構造に関して代替的に表され得る。
一態様における特徴は、適切な組合せで他の態様に適用され得る。特に、方法態様はシステム態様に適用され得、その逆も同様である。さらに、一態様における任意の、いくつかの及び/又はすべての特徴は、適切な組合せで、他の態様における任意の、いくつかの及び/又はすべての特徴に適用され得る。
また、本発明のいずれかの態様において説明され、定義された様々な特徴の特定の組合せは、単独で実装及び/又は供給及び/又は使用され得ることを諒解されたい。
ニューラル・ネットワークのトレーニング段階中、検証された入力が与えられ、したがって、ニューラル・ネットワークの計算された出力を検証された入力と比較し、次いでネットワーク必要に応じて修正することが可能である。ニューラル・ネットワークにおける各ノードについての誤差項又は損失関数が確立され、将来の出力が予想される結果により近くなるように、重みが調整され得る。バックプロパゲーション技法も、その又は各ニューラル・ネットワークのためのトレーニング・スケジュールにおいて使用され得る。

Claims (19)

  1. 実質的にリアルタイムで医療画像を分析するコンピュータ援用方法であって、前記方法は、
    1つ又は複数の医療画像を受信するステップと、
    1つ又は複数の特性を決定するために前記1つ又は複数の医療画像を分析するステップと、
    前記決定された1つ又は複数の特性に基づいて出力データを生成するステップと
    を含み、前記出力データが、1つ又は複数の追加の医学的検査を取得するための要件を示す、コンピュータ援用方法。
  2. 前記1つ又は複数の追加の医学的検査が、コンピュータ化トモグラフィ(CT)走査、超音波走査、磁気共鳴撮像(MRI)走査、トモシンセシス走査、及び/又は生検のうちのいずれか又はそれらの任意の組合せを備える、請求項1に記載の方法。
  3. 前記1つ又は複数の医療画像が1つ又は複数のマンモグラフィ走査又はX線走査を備える、請求項1又は2に記載の方法。
  4. 分析する及び決定する前記ステップが、1つ又は複数のトレーニングされた機械学習モデルを使用して実行される、請求項1から3までのいずれか一項に記載の方法。
  5. 前記トレーニングされた機械学習モデルが畳み込みニューラル・ネットワークを備える、請求項4に記載の方法。
  6. 分析する及び決定する前記ステップが、1つ又は複数の解剖学的領域をセグメント化することを含む、請求項1から5までのいずれか一項に記載の方法。
  7. 前記出力データが、セグメント化アウトラインを示すオーバーレイ・データ、及び/又は1つ若しくは複数のセグメント化された領域の1つ若しくは複数のロケーションを示す確率マスクをさらに備える、請求項6に記載の方法。
  8. 分析する及び決定する前記ステップが、組織タイプと密度カテゴリーとを識別することを含む、請求項1から7までのいずれか一項に記載の方法。
  9. 1つ又は複数の追加の医学的検査の必要とされるタイプが、前記1つ又は複数の医療画像に基づいて決定された前記密度カテゴリーに依存する、請求項2及び8に記載の方法。
  10. 分析する及び決定する前記ステップが、前記医療画像中の1つ又は複数の異常領域を自動的に識別することを含む、請求項1から9までのいずれか一項に記載の方法。
  11. 分析する及び決定する前記ステップが、悪性病変及び/又は良性病変及び/又は一般的病変を識別する及び区別することを含む、請求項1から10までのいずれか一項に記載の方法。
  12. 前記出力データが、前記1つ又は複数の病変のための確率マスクを示すオーバーレイ・データをさらに備える、請求項11に記載の方法。
  13. 分析する及び決定する前記ステップが、アーキテクチャひずみを識別することを含む、請求項1から12までのいずれか一項に記載の方法。
  14. 前記1つ又は複数の医療画像及び前記1つ又は複数の追加の医療画像が、医療におけるデジタル撮像及び通信(DICOM)ファイルの使用を備える、請求項1から13までのいずれか一項に記載の方法。
  15. 医療画像を実質的にリアルタイムで分析するためのシステムであって、前記システムは、
    医療撮像デバイスと、
    ピクチャ・アーカイビング通信システム(PACS)と、
    1つ又は複数の特性を決定するために、前記PACS上の1つ又は複数の医療画像を分析するように動作可能な処理ユニットと、
    前記決定された1つ又は複数の特性に基づいて生成された出力データを表示するように動作可能な出力ビューアであって、前記出力データが、1つ又は複数の追加の医療画像を取得するための要件を示す、出力ビューアとを備える、システム。
  16. 前記処理ユニットが前記医療撮像デバイスと一体化される、請求項15に記載のシステム。
  17. 前記処理ユニットが、リモートに配置され、通信チャネルを介してアクセス可能である、請求項15に記載のシステム。
  18. 請求項1から14までのいずれか一項に記載の方法を実行するように動作可能な請求項15から17までのいずれか一項に記載のシステム。
  19. 請求項1から18までのいずれか一項に記載の方法及び/又はシステムを実行するように動作可能なコンピュータ・プログラム製品。
JP2020568668A 2018-06-14 2019-06-14 即時精密検査 Pending JP2021527473A (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
GB1809796.4A GB2574659A (en) 2018-06-14 2018-06-14 Immediate workup
GB1809796.4 2018-06-14
GB1819329.2A GB2579244A (en) 2018-11-27 2018-11-27 Second reader
GB1819329.2 2018-11-27
GB201900212 2019-01-07
GB1900212.0 2019-01-07
PCT/GB2019/051666 WO2019239153A1 (en) 2018-06-14 2019-06-14 Immediate workup

Publications (1)

Publication Number Publication Date
JP2021527473A true JP2021527473A (ja) 2021-10-14

Family

ID=67439247

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020568668A Pending JP2021527473A (ja) 2018-06-14 2019-06-14 即時精密検査
JP2020568666A Pending JP2021527472A (ja) 2018-06-14 2019-06-14 第2のリーダー示唆
JP2020568814A Pending JP2021527478A (ja) 2018-06-14 2019-06-14 第2のリーダー

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2020568666A Pending JP2021527472A (ja) 2018-06-14 2019-06-14 第2のリーダー示唆
JP2020568814A Pending JP2021527478A (ja) 2018-06-14 2019-06-14 第2のリーダー

Country Status (10)

Country Link
US (3) US11455723B2 (ja)
EP (3) EP3806744B1 (ja)
JP (3) JP2021527473A (ja)
AU (3) AU2019285392A1 (ja)
CA (3) CA3102174C (ja)
DK (3) DK3806745T3 (ja)
ES (3) ES2914415T3 (ja)
HU (2) HUE058687T2 (ja)
SI (3) SI3806744T1 (ja)
WO (3) WO2019239155A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201705911D0 (en) 2017-04-12 2017-05-24 Kheiron Medical Tech Ltd Abstracts
US11455723B2 (en) 2018-06-14 2022-09-27 Kheiron Medical Technologies Ltd Second reader suggestion
WO2020048620A1 (en) * 2018-09-07 2020-03-12 Toyota Motor Europe Method and system for processing an image by determining rotation hypotheses
CN110136829A (zh) * 2019-05-16 2019-08-16 腾讯科技(深圳)有限公司 乳腺钼靶图像的辅助诊断方法、装置、系统及介质
US20200395123A1 (en) * 2019-06-16 2020-12-17 International Business Machines Corporation Systems and methods for predicting likelihood of malignancy in a target tissue
JP7415787B2 (ja) * 2020-05-15 2024-01-17 コニカミノルタ株式会社 医用画像システム
WO2022112731A1 (en) * 2020-11-26 2022-06-02 Kheiron Medical Technologies Ltd Decision for double reader
EP4033497A1 (en) 2021-01-25 2022-07-27 Aigea Medical S.r.l. Training procedure and system for artificial intelligence intended for the analysis of mammographic data for the identification or exclusion of the presence of breast cancer
WO2023069524A1 (en) * 2021-10-19 2023-04-27 PaxeraHealth Corp High-definition labeling system for medical imaging ai algorithms
US20230352172A1 (en) * 2022-04-27 2023-11-02 MX Healthcare GmbH System and method for identifying breast cancer
WO2024123311A1 (en) * 2022-12-06 2024-06-13 Google Llc Mammography device outputs for broad system compatibility

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001511372A (ja) * 1997-07-25 2001-08-14 アーチ・デベロップメント・コーポレーション 放射線検査での識別診断における精度を向上させるための方法
JP2004105728A (ja) * 2002-09-13 2004-04-08 Ge Medical Systems Global Technology Co Llc コンピュータを利用した医療用画像の収集
JP2006504464A (ja) * 2002-10-31 2006-02-09 シーメンス コンピュータ エイディッド ダイアグノシス リミテッド マンモグラムのコンピュータ支援診断用ディスプレイ
JP2007524461A (ja) * 2003-06-25 2007-08-30 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド 乳房撮像の自動診断及び決定支援システム及び方法
JP2007528746A (ja) * 2003-06-27 2007-10-18 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド Cad(コンピュータ援用決定)プロセスを日常的なcadシステム利用から得られた知識に適合させるために機械学習を利用する医用画像診断用のcad支援
US20090118640A1 (en) * 2007-11-06 2009-05-07 Steven Dean Miller Biopsy planning and display apparatus
JP2009525800A (ja) * 2006-02-10 2009-07-16 ノルディック・ビオサイエンス・エー/エス 乳房組織密度測定
US20120099771A1 (en) * 2010-10-20 2012-04-26 Lao Zhiqiang Computer aided detection of architectural distortion in mammography
JP2012512672A (ja) * 2008-12-22 2012-06-07 ザ メディパターン コーポレイション 医用画像内病変自動検出方法およびシステム
US20160063699A1 (en) * 2009-11-24 2016-03-03 Penrad Technologies, Inc. Mammography information system
US20160314579A1 (en) * 2015-04-22 2016-10-27 King Fahd University Of Petroleum And Minerals Method, system and computer program product for breast density classification using parts-based local features
US20160364857A1 (en) * 2015-06-12 2016-12-15 Merge Healthcare Incorporated Methods and Systems for Automatically Determining Image Characteristics Serving as a Basis for a Diagnosis Associated with an Image Study Type
US20170053403A1 (en) * 2014-05-06 2017-02-23 Simens Healthcare Gmbh Evaluation of an x-ray image of a breast produced during a mammography
US20170200266A1 (en) * 2016-01-07 2017-07-13 ClearView Diagnostics Inc. Method and means of cad system personalization to reduce intraoperator and interoperator variation
US20180033144A1 (en) * 2016-09-21 2018-02-01 Realize, Inc. Anomaly detection in volumetric images
JP2019195627A (ja) * 2018-05-07 2019-11-14 ゼブラ メディカル ビジョン リミテッド 解剖学的画像の解析のためのシステム及び装置

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06251038A (ja) * 1993-03-01 1994-09-09 Toshiba Corp 医用診断支援システム
US6075879A (en) 1993-09-29 2000-06-13 R2 Technology, Inc. Method and system for computer-aided lesion detection using information from multiple images
JPH09502918A (ja) 1994-07-14 1997-03-25 フィリップス エレクトロニクス エヌ ベー スポットを弁別するために複数の閾値レベルを用いるデジタルx線画像のマス検出
CA2232164A1 (en) 1995-09-19 1997-03-27 Morphometrix Technologies Inc. A neural network assisted multi-spectral segmentation system
US5999639A (en) * 1997-09-04 1999-12-07 Qualia Computing, Inc. Method and system for automated detection of clustered microcalcifications from digital mammograms
US6901156B2 (en) * 2000-02-04 2005-05-31 Arch Development Corporation Method, system and computer readable medium for an intelligent search workstation for computer assisted interpretation of medical images
BR0314589A (pt) * 2002-09-24 2005-08-09 Eastman Kodak Co Método e sistema para visualizar resultados de uma análise por detecção com auxìlio de computador de uma imagem digital, e, método para identificar anormalidades em um mamograma
US7418119B2 (en) * 2002-10-31 2008-08-26 Siemens Computer Aided Diagnosis Ltd. Display for computer-aided evaluation of medical images and for establishing clinical recommendation therefrom
US7490085B2 (en) * 2002-12-18 2009-02-10 Ge Medical Systems Global Technology Company, Llc Computer-assisted data processing system and method incorporating automated learning
US20040228509A1 (en) 2003-05-15 2004-11-18 Beth Israel Deaconess Medical Center, Inc. Automatic spacial identification of tissue implanted linear sources using medical imaging
US20050113651A1 (en) 2003-11-26 2005-05-26 Confirma, Inc. Apparatus and method for surgical planning and treatment monitoring
DE102004051401A1 (de) 2004-10-21 2006-05-24 Siemens Ag Verfahren zur Befundung in der dreidimensionalen Bildgebung, insbesondere in der Mammographie
US7646902B2 (en) * 2005-02-08 2010-01-12 Regents Of The University Of Michigan Computerized detection of breast cancer on digital tomosynthesis mammograms
JP2006325638A (ja) * 2005-05-23 2006-12-07 Konica Minolta Medical & Graphic Inc 異常陰影候補の検出方法及び医用画像処理システム
JP2008541889A (ja) 2005-06-02 2008-11-27 ザ メディパターン コーポレイション コンピュータ支援検出のシステムおよび方法
US7809175B2 (en) 2005-07-01 2010-10-05 Hologic, Inc. Displaying and navigating computer-aided detection results on a review workstation
FR2897182A1 (fr) * 2006-02-09 2007-08-10 Gen Electric Procede de traitement d'images de projection en tomosynthese pour une detection de signes radiologiques
ITRM20060213A1 (it) * 2006-04-13 2007-10-14 Univ Palermo Metodo di elaborazione di immagini biomediche
US8238637B2 (en) 2006-10-25 2012-08-07 Siemens Computer Aided Diagnosis Ltd. Computer-aided diagnosis of malignancies of suspect regions and false positives in images
US7903861B2 (en) * 2006-12-28 2011-03-08 Carestream Health, Inc. Method for classifying breast tissue density using computed image features
US8203338B2 (en) 2007-08-06 2012-06-19 Carestream Health, Inc. Linear structure verification in medical applications
JP5264136B2 (ja) * 2007-09-27 2013-08-14 キヤノン株式会社 医用診断支援装置及びその制御方法、ならびにコンピュータプログラム及び記憶媒体
JP2009082182A (ja) * 2007-09-27 2009-04-23 Fujifilm Corp 検査作業支援装置及び方法、並びに検査作業支援システム
JP5100285B2 (ja) 2007-09-28 2012-12-19 キヤノン株式会社 医用診断支援装置およびその制御方法、プログラム、記憶媒体
US20100135562A1 (en) 2008-11-28 2010-06-03 Siemens Computer Aided Diagnosis Ltd. Computer-aided detection with enhanced workflow
US8064677B2 (en) 2009-11-25 2011-11-22 Fujifilm Corporation Systems and methods for measurement of objects of interest in medical images
US8582858B2 (en) 2009-12-17 2013-11-12 The Regents Of The University Of California Method and apparatus for quantitative analysis of breast density morphology based on MRI
JP5875285B2 (ja) 2011-08-16 2016-03-02 キヤノン株式会社 医療診断支援装置、情報処理方法及びプログラム
EP2747640A4 (en) * 2011-08-22 2015-04-29 Joel Ironstone METHOD AND SYSTEM FOR DISEASE RISK MANAGEMENT
JP5945803B2 (ja) 2012-03-07 2016-07-05 東芝メディカルシステムズ株式会社 医用画像読影システム
US8891841B2 (en) 2012-06-04 2014-11-18 Verizon Patent And Licensing Inc. Mobile dermatology collection and analysis system
TWI483711B (zh) 2012-07-10 2015-05-11 Univ Nat Taiwan Tumor detection system and method of breast ultrasound image
US9047664B2 (en) 2013-05-31 2015-06-02 Kathryn Pearson Peyton Apparatus and method for utilizing mammogram images for verification
US9741116B2 (en) 2013-08-29 2017-08-22 Mayo Foundation For Medical Education And Research System and method for boundary classification and automatic polyp detection
EP3072082A4 (en) 2013-11-19 2017-09-13 Vucomp, Inc. Obtaining breast density measurements and classifications
WO2016057960A1 (en) 2014-10-10 2016-04-14 Radish Medical Solutions, Inc. Apparatus, system and method for cloud based diagnostics and image archiving and retrieval
US9550912B2 (en) 2014-12-19 2017-01-24 Hexion Inc Curing agent for epoxy coatings
US9922433B2 (en) 2015-05-29 2018-03-20 Moira F. Schieke Method and system for identifying biomarkers using a probability map
US11200664B2 (en) * 2015-12-18 2021-12-14 The Regents Of The University Of California Interpretation and quantification of emergency features on head computed tomography
WO2018031919A1 (en) * 2016-08-11 2018-02-15 Clearview Diagnostics, Inc. Method and means of cad system personalization to provide a confidence level indicator for cad system recommendations
CN106096491B (zh) 2016-02-04 2022-04-12 上海市第一人民医院 一种眼底彩色照相图像中微动脉瘤自动化识别方法
CN105931226A (zh) 2016-04-14 2016-09-07 南京信息工程大学 基于深度学习的自适应椭圆拟合细胞自动检测分割方法
CN106204587B (zh) 2016-05-27 2019-01-08 浙江德尚韵兴图像科技有限公司 基于深度卷积神经网络和区域竞争模型的多器官分割方法
WO2017210690A1 (en) 2016-06-03 2017-12-07 Lu Le Spatial aggregation of holistically-nested convolutional neural networks for automated organ localization and segmentation in 3d medical scans
US9589374B1 (en) 2016-08-01 2017-03-07 12 Sigma Technologies Computer-aided diagnosis system for medical images using deep convolutional neural networks
JP2018061771A (ja) * 2016-10-14 2018-04-19 株式会社日立製作所 画像処理装置、及び画像処理方法
US20180129900A1 (en) 2016-11-04 2018-05-10 Siemens Healthcare Gmbh Anonymous and Secure Classification Using a Deep Learning Network
US11449985B2 (en) 2016-12-02 2022-09-20 Regents Of The University Of Minnesota Computer vision for cancerous tissue recognition
EP3573520A4 (en) 2017-01-27 2020-11-04 Arterys Inc. AUTOMATED SEGMENTATION USING FULLY CONVOLUTIVE NETWORKS
GB201705876D0 (en) 2017-04-11 2017-05-24 Kheiron Medical Tech Ltd Recist
GB201705911D0 (en) 2017-04-12 2017-05-24 Kheiron Medical Tech Ltd Abstracts
US10223610B1 (en) 2017-10-15 2019-03-05 International Business Machines Corporation System and method for detection and classification of findings in images
US10916341B2 (en) * 2017-12-15 2021-02-09 International Business Machines Corporation Automated report generation based on cognitive classification of medical images
EP3784139A4 (en) * 2018-04-27 2021-12-29 Delphinus Medical Technologies, Inc. System and method for feature extraction and classification on ultrasound tomography images
US10706545B2 (en) 2018-05-07 2020-07-07 Zebra Medical Vision Ltd. Systems and methods for analysis of anatomical images
US11455723B2 (en) 2018-06-14 2022-09-27 Kheiron Medical Technologies Ltd Second reader suggestion
GB2579244A (en) 2018-11-27 2020-06-17 Kheiron Medical Tech Ltd Second reader

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001511372A (ja) * 1997-07-25 2001-08-14 アーチ・デベロップメント・コーポレーション 放射線検査での識別診断における精度を向上させるための方法
JP2004105728A (ja) * 2002-09-13 2004-04-08 Ge Medical Systems Global Technology Co Llc コンピュータを利用した医療用画像の収集
JP2006504464A (ja) * 2002-10-31 2006-02-09 シーメンス コンピュータ エイディッド ダイアグノシス リミテッド マンモグラムのコンピュータ支援診断用ディスプレイ
JP2007524461A (ja) * 2003-06-25 2007-08-30 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド 乳房撮像の自動診断及び決定支援システム及び方法
JP2007528746A (ja) * 2003-06-27 2007-10-18 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド Cad(コンピュータ援用決定)プロセスを日常的なcadシステム利用から得られた知識に適合させるために機械学習を利用する医用画像診断用のcad支援
JP2009525800A (ja) * 2006-02-10 2009-07-16 ノルディック・ビオサイエンス・エー/エス 乳房組織密度測定
US20090118640A1 (en) * 2007-11-06 2009-05-07 Steven Dean Miller Biopsy planning and display apparatus
JP2012512672A (ja) * 2008-12-22 2012-06-07 ザ メディパターン コーポレイション 医用画像内病変自動検出方法およびシステム
US20160063699A1 (en) * 2009-11-24 2016-03-03 Penrad Technologies, Inc. Mammography information system
US20120099771A1 (en) * 2010-10-20 2012-04-26 Lao Zhiqiang Computer aided detection of architectural distortion in mammography
US20170053403A1 (en) * 2014-05-06 2017-02-23 Simens Healthcare Gmbh Evaluation of an x-ray image of a breast produced during a mammography
US20160314579A1 (en) * 2015-04-22 2016-10-27 King Fahd University Of Petroleum And Minerals Method, system and computer program product for breast density classification using parts-based local features
US20160364857A1 (en) * 2015-06-12 2016-12-15 Merge Healthcare Incorporated Methods and Systems for Automatically Determining Image Characteristics Serving as a Basis for a Diagnosis Associated with an Image Study Type
US20170200266A1 (en) * 2016-01-07 2017-07-13 ClearView Diagnostics Inc. Method and means of cad system personalization to reduce intraoperator and interoperator variation
US20180033144A1 (en) * 2016-09-21 2018-02-01 Realize, Inc. Anomaly detection in volumetric images
JP2019195627A (ja) * 2018-05-07 2019-11-14 ゼブラ メディカル ビジョン リミテッド 解剖学的画像の解析のためのシステム及び装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DEZSO R. ET AL.: "Detecting and classifying lesions in mammograms with Deep Learning", SCIENTIFIC REPORTS, vol. 8, no. 1, JPN7023000382, 2018, pages 4165 - 1, ISSN: 0004980196 *
HUO Z. ET AL.: "Computerized analysis of multiple-mammographic views: potential usefulness of special view mammogram", IEEE TRANSACTIONS ON MEDICAL IMAGING, vol. 20, no. 12, JPN7023000381, 2001, pages 1285 - 1292, XP001101457, ISSN: 0004980197, DOI: 10.1109/42.974923 *
ZHENG Y. ET AL.: "Breast cancer screening using convolutional neural network and follow-up digital mammography", PROCEEDINGS OF SPIE (COMPUTATIONAL IMAGING III), vol. 10669, JPN7023000380, 2018, pages 1066905 - 1, ISSN: 0004980198 *

Also Published As

Publication number Publication date
DK3806745T3 (da) 2022-05-23
CA3102174C (en) 2022-07-19
AU2019285392A1 (en) 2021-01-07
CA3102174A1 (en) 2019-12-19
AU2019285393A9 (en) 2023-02-02
SI3806746T1 (sl) 2022-07-29
EP3806746B1 (en) 2022-03-02
US11410307B2 (en) 2022-08-09
AU2019285393B2 (en) 2022-12-08
AU2019285393A1 (en) 2021-01-07
ES2914415T3 (es) 2022-06-10
US11488306B2 (en) 2022-11-01
US20210248744A1 (en) 2021-08-12
ES2914873T3 (es) 2022-06-17
JP2021527472A (ja) 2021-10-14
DK3806744T3 (da) 2022-05-23
EP3806746A1 (en) 2021-04-21
JP2021527478A (ja) 2021-10-14
EP3806744A1 (en) 2021-04-21
WO2019239154A1 (en) 2019-12-19
HUE058907T2 (hu) 2022-09-28
US20210313043A1 (en) 2021-10-07
AU2019285394A1 (en) 2021-01-07
US20210312618A1 (en) 2021-10-07
CA3102170A1 (en) 2019-12-19
DK3806746T3 (da) 2022-05-23
EP3806745A1 (en) 2021-04-21
EP3806744B1 (en) 2022-02-16
ES2914387T3 (es) 2022-06-10
SI3806745T1 (sl) 2022-07-29
SI3806744T1 (sl) 2022-07-29
WO2019239153A1 (en) 2019-12-19
HUE058687T2 (hu) 2022-09-28
CA3102173A1 (en) 2019-12-19
WO2019239155A1 (en) 2019-12-19
EP3806745B1 (en) 2022-02-16
US11455723B2 (en) 2022-09-27

Similar Documents

Publication Publication Date Title
US11488306B2 (en) Immediate workup
US11127137B2 (en) Malignancy assessment for tumors
CN109583440B (zh) 结合影像识别与报告编辑的医学影像辅助诊断方法及系统
JP4310099B2 (ja) 肺疾患検出のための方法及びシステム
US20220254023A1 (en) System and Method for Interpretation of Multiple Medical Images Using Deep Learning
Yoon et al. Medical image analysis using artificial intelligence
JP2019082881A (ja) 画像検索装置、方法およびプログラム
CN114782307A (zh) 基于深度学习的增强ct影像直肠癌分期辅助诊断系统
JP7170000B2 (ja) 学習システム、方法及びプログラム
US20230057933A1 (en) Storage medium, diagnosis support apparatus and diagnosis support method
Kaliyugarasan et al. Pulmonary nodule classification in lung cancer from 3D thoracic CT scans using fastai and MONAI
WO2022112731A1 (en) Decision for double reader
Janjua et al. Chest x-ray anomalous object detection and classification framework for medical diagnosis
CN113450306A (zh) 提供骨折检测工具的方法
GB2574659A (en) Immediate workup
Sreenivasu et al. Research Article Dense Convolutional Neural Network for Detection of Cancer from CT Images
CN117711576A (zh) 用于提供医学报告的模板数据结构的方法和系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210210

A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20210209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230831