JP2021527472A - 第2のリーダー示唆 - Google Patents

第2のリーダー示唆 Download PDF

Info

Publication number
JP2021527472A
JP2021527472A JP2020568666A JP2020568666A JP2021527472A JP 2021527472 A JP2021527472 A JP 2021527472A JP 2020568666 A JP2020568666 A JP 2020568666A JP 2020568666 A JP2020568666 A JP 2020568666A JP 2021527472 A JP2021527472 A JP 2021527472A
Authority
JP
Japan
Prior art keywords
medical images
medical
images
analyzing
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020568666A
Other languages
English (en)
Inventor
ケクスケメシー、ピーター
リューケン、トバイアス
カルパティ、イーディス
オニール、マイケル
ヘインドル、アンドレアス
エリオット イヤーズリー、ジョセフ
コルキノフ、ディミトリオス
カーラ、ガルバン
Original Assignee
ケイロン メディカル テクノロジーズ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GB1809796.4A external-priority patent/GB2574659A/en
Priority claimed from GB1819329.2A external-priority patent/GB2579244A/en
Application filed by ケイロン メディカル テクノロジーズ リミテッド filed Critical ケイロン メディカル テクノロジーズ リミテッド
Publication of JP2021527472A publication Critical patent/JP2021527472A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/502Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of breast, i.e. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19147Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/025Tomosynthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0825Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the breast, e.g. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Artificial Intelligence (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Physiology (AREA)
  • Quality & Reliability (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Dentistry (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)

Abstract

本発明は、医療撮像のためのディープ・ラーニング実装形態に関する。より詳細には、本発明は、第1のユーザが初期医療スクリーニングからの医療画像のセットの手動検討/分析を実行した後に、第2の検討を取得するかどうかを示唆するための方法及びシステムに関する。態様及び/又は実施例は、医療画像の各ケース/セットに対する(たとえばディープ・ラーニングを使用した)コンピュータ援用分析の使用と、第1の放射線科医の検討とに基づいて、第2の放射線科医が、医療画像のケースの第1の放射線科医の検討に応答して、医療画像の1つ又は複数のケース/セットを検討することを示唆するための方法及びシステムを提供することを求める。

Description

本発明は、医療撮像のためのディープ・ラーニング実装形態に関する。より詳細には、本発明は、第1のユーザが初期医療スクリーニングからの医療画像のセットの手動検討/分析を実行した後に、第2の検討を取得するかどうかを示唆するための方法及びシステムに関する。
マンモグラフィ(mammography)は、人間乳房の内部構造の画像を生成するために低線量X線を利用する、人間乳房組織を走査する高度な方法である。マンモグラム(mammogram)と呼ばれるこれらの画像のスクリーニングは、乳房異常及び病気の早期検出及び診断を助ける。より正確な走査を確認するために、マンモグラム機械は、通常、組織を広げるために乳房を圧縮し、放射線科医がマンモグラムを検査するのを助ける、2つのプレートを有する。
人間の放射線科医による評価は、画像評価の最も正確な方法であると考えられ、包括的な分析を生成するために、医療走査をセクションごとに検査する、放射線科医又は同様の専門家によって実行されるタスクを指す。しかしながら、マンモグラムは、2次元画像平面上に投影された3次元情報の表現であることを考えると、検査される2D医療走査画像(マンモグラム)中に組織の重ね合わせがしばしばある。結果として、乳房の画像内に重ね合わせられて現れる組織は、悪性(malignant)異常の可視性を低減するか、又は、時々、さらには、異常の外観(偽陽性(false positive))をシミュレートすることができる。これにより、マンモグラムを分析するタスクがより困難になり、マンモグラムが異常を正確に精密に検出するときに困難が生じ得る。
いくつかの状況では、1人の放射線科医のみが、マンモグラム画像データの各セットから生成された画像のセットを検討し、診断することができる。したがって、時々、1人の放射線科医が、マンモグラム画像データのそれらの検討に基づいて患者を正確に診断しない可能性がある。時々、各患者のマンモグラム画像データを独立して検討するために、2人の独立した放射線科医を使用することが好ましいが、これは常にロジスティック的に又は経済的に可能であるとは限らない。
Paul F. Jaeger ら、「Retina U−Net:Embarrassingly Simple Exploitation of Segmentation Supervision for Medical Object Detection」(https://arxiv.org/pdf/1811.08661.pdf)
態様及び/又は実施例は、医療画像の各ケース/セットに対する(たとえばディープ・ラーニングを使用した)コンピュータ援用分析の使用と、第1の放射線科医の検討とに基づいて、第2の放射線科医が、医療画像のケースの第1の放射線科医の検討に応答して、医療画像の1つ又は複数のケース/セットを検討することを示唆するための方法及びシステムを提供することを求める。
第1の態様によれば、医療画像を分析するコンピュータ援用方法であって、本方法は、1つ又は複数の医療画像を受信するステップと、1つ又は複数の特性を決定するために前記1つ又は複数の医療画像を分析するステップと、決定された1つ又は複数の特性に基づいて出力データを生成するステップと、1つ又は複数の医療画像の手動で決定された特性に関するユーザからの入力データを受信するステップと、決定された1つ又は複数の特性と手動で決定された特性との類似度(degree of similarity)を決定するステップとを含み、出力データは、1つ又は複数の追加の医学的検査を取得するための要件を示し、類似度が所定のしきい値を下回る場合、1つ又は複数の医療画像のさらなる分析をトリガするために出力が生成される、コンピュータ援用方法が提供される。
放射線科医は、たとえば、タスクの手動性質により、一貫した正確さを証明せず、マンモグラムにおける重ね合わせられた乳房組織、及び/又は人間の眼が検出するには細かすぎる詳細により、誤りを犯す。手動で決定された1つ又は複数の特性を、同じデータについてのコンピュータで決定された特性と比較することによって、本方法は、データの第2の手動検討をトリガし、したがって、たださらには、ユーザ診断と医療画像の各セットのコンピュータ援用分析との間に著しい不整合がある場合、第2の手動検討をトリガすることによって1人の放射線科医手法をより安全にすることができる。
随意に、本方法は実質的にリアルタイムで実行される。これは、第2の手動検討のためのトリガを即座に可能にすることができ、したがって、本方法は著しい遅延を引き起こさないので、既存の医療ワークフローとより容易に一体化することが可能になる。
随意に、本方法は、コンピュータ化トモグラフィ(CT)走査、超音波走査、磁気共鳴撮像(MRI)走査、トモシンセシス(tomosynthesis)走査、及び/又は生検(biopsy)のうちのいずれか又はそれらの任意の組合せを備える、1つ又は複数の追加の医学的検査をトリガするか、又は推奨することができる。
さらなる医学的検査が、予備スクリーニングの分析に基づいて示唆され得る。例として、初期マンモグラムが不明瞭であるか、又は特徴が重ね合わせられているか、又は調査する価値がある病変(lesion)があり得る場合、より詳細なトモシンセシス走査が瞬時に推奨され得る。場合によっては、初期医療画像からの分析は、さらなる精密検査(workup)又は医学的検査を必要としないことがある。随意に、出力データはまた、乳房密度又は組織分類タイプを示し得る。
随意に、1つ又は複数の医療画像は1つ又は複数のマンモグラフィ走査又はX線走査を備える。
たいていの医療スクリーニング・プログラムでは、X線又はマンモグラフィが第1のタイプの医療走査である。
随意に、分析する及び決定するステップは、1つ又は複数のトレーニングされた機械学習モデルを使用して実行される。
トレーニングされた機械学習モデルは、人間専門家よりもはるかに迅速に医療画像を分析し、したがって、全体的に分析される医療画像の数を増加させることができる。正確さは、一般に、機械学習モデルを使用するときに一貫している。したがって、問題、たとえばがん性腫瘍の増殖が、人間専門家の手が空くのを待つよりも迅速に検出され得、したがって、治療をより早く開始し得るか、又は追加の医学的検査がより早く要求され得る。病変を含み得る、関心領域の識別は、したがって、他の医療問題の中でも乳がんのスクリーニング及び臨床的評価を助け得る。より早い診断及び治療は、患者への心理的ストレスを低減し、また、長期における生存の可能性を高めることができる。
随意に、トレーニングされた機械学習モデルは畳み込み(convolutional)ニューラル・ネットワークを備える。
畳み込みネットワークは、特徴の階層をもたらすようにトレーニングされ得、特に画像認識に好適である、生物学的ニューラル・プロセスによって触発された強力なツールである。畳み込みレイヤは、畳み込み演算を入力に適用し、結果を後続のレイヤに渡す。トレーニングにより、畳み込みネットワークは、マンモグラムなど、デジタル医療画像中の解剖学的(anatomical)領域及び病理(pathological)領域をセグメント化し、位置特定することに関して、専門家レベルの又はより大きい正確さを達成することができる。
随意に、分析する及び決定するステップは、1つ又は複数の解剖学的領域をセグメント化することを含む。随意に、出力データは、セグメント化アウトラインを示すオーバーレイ・データ、及び/又は1つ又は複数のセグメント化された領域の1つ又は複数のロケーションを示す確率マスクをさらに備える。
領域の明確で正確なセグメント化を行うことは、マンモグラムなど、医療画像を検討するときに極めて役立ち得る。これは、患者に医学的問題があると疑う理由がある場合、たとえば、それが前の走査におけるよりも大きい腫れたエリアがある場合、特に重要であり得る。そのような変化は、異なる領域が明確にセグメント化されている場合に、より容易に検出可能であり得る。さらに、セグメント化情報はまた、放射線医療部門が病院において使用するピクチャ・アーカイビング通信システム(PACS:Picture Archiving Communication Systems)を強化するために使用され得る。このセグメント化データがPACSに含まれることにより、本方法が半自動化されるか、完全に自動化されるか、又は手動で実行されるかにかかわらず、同様のケースにフラグを立てる将来の方法を有利に改善する。
随意に、分析する及び決定するステップは、組織タイプと密度カテゴリーとを識別することを含む。随意に、1つ又は複数の追加の医学的検査の必要とされるタイプは、1つ又は複数の医療画像に基づいて決定された密度カテゴリーに依存する。随意に、このステップは、組織タイプと密度カテゴリーとを共同で推定し得る。
組織タイプと密度カテゴリーとを正しく分類することは、本方法が適切な追加の医学的検査又は特定の精密検査を推奨することを可能にすることができる。
随意に、分析する及び決定するステップは、医療画像中の1つ又は複数の異常(anomalous)領域を自動的に識別することを含む。
随意に、分析する及び決定するステップは、悪性病変及び/又は良性(benign)病変及び/又は一般的病変を識別し、区別することを含む。
随意に、出力データは、1つ又は複数の病変のための確率マスクを示すオーバーレイ・データをさらに備える。
随意に、分析する及び決定するステップは、アーキテクチャひずみ(architectural distortion)を識別することを含む。
随意に、1つ又は複数の医療画像及び1つ又は複数の追加の医療画像は、医療におけるデジタル撮像及び通信(DICOM:digital imaging and communications in medicine)ファイルの使用を備える。
DICOMファイルは、従来、医療画像を記憶し、共有するために使用されるので、そのような規格に準拠することは、医療画像及び/又はオーバーレイ又は他の寄与データのより容易な分配と将来の分析とを可能にし得る。1つ又は複数のバイナリ・マスクは、DICOM画像ファイルの一部として記憶され、画像ファイルに追加され、及び/又は、さもなければ、DICOM規格又は規格の部分に従って記憶され、及び/又は表され得る。
さらなる態様によれば、医療画像のセットを実質的にリアルタイムで分析するためのシステムであって、本システムは、医療撮像デバイスと、ピクチャ・アーカイビング通信システム(PACS)と、医療画像の各セットについての診断メタデータを入力するように動作可能なユーザ端末と、1つ又は複数の特性を決定し、決定された1つ又は複数の特性と入力された診断メタデータとの類似度を決定するために、PACS上の医療画像の各セットのうちの1つ又は複数を分析するように動作可能な処理ユニットと、決定された1つ又は複数の特性に基づいて生成された出力データのための要件を表示するように動作可能な出力ビューア(output viewer)であって、類似度が所定のしきい値を下回る場合、出力データは、1つ又は複数の追加の医療画像を取得するための又は医療画像のセットのさらなる分析をトリガするための要件を示す、出力ビューアとを備える、システムが提供される。
そのようなシステムは、分析されるべき医療画像のための待ち時間を低減するために、病院内又は病院の近くに設置されるか、又はデジタル・ネットワークを介して病院に接続され得る。患者は、したがって、医療走査の結果を知らないことからのストレスを免れ、決定をより迅速に受け取り得る。
随意に、処理ユニットは医療撮像デバイスと一体化される。
このようにして、医療スキャナは、医療画像が走査されるとすぐに、医療画像を分析するために処理ユニットと結合され得る。
随意に、処理ユニットは、リモートに配置され、通信チャネルを介してアクセス可能である。
この構成では、処理ユニットは、既存の走査機器を交換及び変更する必要なしにリモート・クラウド・システムから展開され得る。
さらなる態様によれば、他の態様による方法を実行するように動作可能なシステムが提供される。
さらなる態様によれば、他の態様による方法を実行するように動作可能なコンピュータ・プログラムが提供される。
コンピュータ又は他のデジタル技術の使用によって、医療画像の審査が、人間専門家に依拠するよりも高い正確さ、速度、及び/又は信頼度で実行され得る。したがって、より多数の医療画像が1度で検討され得、それにより、専門家のためのバックログ(backlog)が低減し、医療画像自体が実際に検討されるときに生じる誤りがさらに低減する。
次に、単に例として、同様の参照番号を有する添付の図面を参照しながら、実施例について説明する。
一実施例の流れ図を示す図である。 (たとえば、医療走査デバイス内での)第1の展開を示す図である。 (たとえば、医療施設の構内での)第2の展開を示す図である。 (たとえば、クラウド・システムを使用した)第3の展開を示す図である。 一実施例の方法を示す図である。 一実施例の方法のアウトラインを示すフローチャートを示す図である。 随意に、入力された画像に適用され得る前処理を示す、入力された画像と事前トレーニングされた悪性腫瘍検出ニューラル・ネットワークとに基づいて悪性腫瘍出力を与えることに焦点を当てた、図6のフローチャートの部分を示す図である。 図6の実施例のマスク−RCNNをより詳細に示す図である。 実施例によって実行される平均及び最大動作のプロセスを示す図6のフローチャートの部分を示す図である。 図6の実施例の最終出力がどのように決定されるかを示す図である。
次に、図1〜図4を参照しながら、一実施例について説明する。
図1に見られるように、医療撮像スキャナ101を使用して(マンモグラフィなど)患者の医療走査を実行した後、走査された画像は、医療画像を記憶するために一般的に使用されるファイル・フォーマットである、DICOMフォーマットでコレート(collate)される。本方法は、放射線医療部門が病院において使用するピクチャ・アーカイビング通信システム(PACS)102上に記憶される前処理されたデータを使用する。この方法の出力はまた、マンモグラフィ画像を分析する将来のアプリケーションを改善するためにPACSデータベースを強化する。画像データがDICOMファイルから抽出され、画像が生成される。
画像は、次いで、前処理段103を受ける。画像は、サイズ[幅1、高さ1]の4Dテンソル上にロードされる。前処理段は、画像データを所定のウィンドウイング・レベルにウィンドウイングすることを備え得る。ウィンドウイング・レベルは、画像において考えられるビット値の範囲を定義する。医療画像は、従来16ビット画像であり、ここで、各ピクセルは、0から216−1にわたる16ビット整数、すなわち[0、1、2、…、65535]として表される。情報コンテンツは、これらの画像において極めて高く、一般に、人間の眼が検出することが可能であるものよりも多い情報を備える。ウィンドウイング・レベルのための設定値は、一般に、DICOMファイル内に含まれる。
場合によっては、画像解像度を維持することが重要であり得る。しばしば、従来のグラフィックス処理ユニット(GPU:graphics processing unit)制約は、解像度を維持するために画像が複数のパッチに分割されることを要求する。各パッチは、次いで、完全畳み込みネットワーク(FCN:Fully Convolutional Network)に与えられ得る。パッチが大きくなるほど、与えられ得るコンテキストは多くなるが、ある程度の精度が失われ得る。たとえば、小さい腫瘍を含む大きい画像の場合、FCNが、このパッチ中のどこかに腫瘍があることを指示された場合、ネットワークは、それが分類され得る前に、最初にどのようにそれを見つけるかを学習する必要があるであろう。この実施例では、300×300ピクセルのパッチ・サイズが使用されるが、より大きいパッチ・サイズ及びより小さいパッチ・サイズが使用され得る。
従来のハードウェアの上述の制約により、再スケーリング・ステップが含まれ得る。医療画像は、一般に約3500×2500ピクセルの領域中にある。この画像に適用されるFCN100は、従来のグラフィックス・処理ユニット(GPU)メモリ中に収まらない。画像は、より大きい若しくはより小さいサイズに再スケーリングされるか、又はさらにはまったく再スケーリングされ得ず、及びFCNがより高い解像度を見ることを可能にし、より微細な詳細をピック・アップし得る。しかしながら、これは、GPUメモリ中に収まる可能性がなく、本方法をかなりより遅くさせ得る。画像をより小さいサイズに再スケーリングすることによって、GPUメモリ中に収まることができる可能性がより高くなり、プロセスをより速い速度において実行することが可能になる。FCNはまた、入力パラメータの数がより小さいことにより、より良く一般化し得る。
本方法は、マンモグラムにおいて病変を識別し、検出するために使用され得る。セグメント化され得る病変は、生物組織内の1つ若しくは複数のがん性増殖、塊、膿瘍、裂傷、石灰化、及び/又は他の不整を備え得る。
画像は、画像を、畳み込みニューラル・ネットワークなど、トレーニングされた機械学習モデルに送ることによって分析される。この実施例は、畳み込みネットワークをトレーニングし、発展させるためにディープ・ラーニング技法を利用する。モデルは、既知の精密検査を用いてデータセット上でトレーニングされ、したがって、必要とされる精密検査を推定するために、受信された画像と既知の精密検査との間の関係を直接確立する。特に、機械学習モデルの出力105はバイナリ・ベクトルであり、ここで、インデックスは様々なタイプの精密検査を表す。たとえば、精密検査は、さらなる行為を必要としない、超音波走査、トモシンセシス走査、MRI走査及び/若しくは生検の実施のいずれか、又はそれらの任意の組合せであり得る。
ニューラル・ネットワークをトレーニングするために使用されるデータセットは、既知の密度又は組織タイプをも含み得る。その場合、モデルに密度(A、B、C、D)又は組織タイプ(1、2、3、4、5)をも出力させるために、マルチタスク学習手法が取られ得る。
乳房組織には、乳がんの検出可能性に影響を及ぼす異なるタイプのパターンがある。したがって、どのような種類のパターンが存在するかを知ることが重要である。この分類を開発したLaszlo Tabar教授にちなんで名付けられた、「Tabarパターン」として知られている5つのマンモグラフィ実質(parenchymal)パターンがある。
Tabarパターン(又は分類タイプ)は、3次元のサブグロス(sub−gross)(厚切り)技法との組織学的マンモグラフィ相関と、4つの「ビルディング・ブロック」(結節性(nodular)密度、線形密度、同種繊維組織、放射線透過性の脂肪組織)相対的比率とに基づく。5つの分類は以下のようになる。
1.線維性組織のわずかな優位を伴う乳房組織のすべての成分のバランスの取れた割合
2.脂肪組織の優位
3.後輪状(retro−areolar)残存線維組織をもつ脂肪組織の優位
4.優位結節性密度
5.優位線維性組織(密な乳房)。
クラス4及び5は、危険性が高いと考えられ、それらのパターンをもつ乳房におけるがんを検出することが困難であることを意味するが、クラス1、2及び3は、がん領域を見つけることがより容易であるので、危険性がより低いと考えられる。
いくつかの治療は、ホルモン交換治療(HRT:hormone replacement therapy)の場合と同様に、実質密度を高めることによって、又は選択的エストロゲンレセプタ変調器(SERM:selective oestrogen−receptor modulators)を用いた治療の場合と同様に、実質密度を低減することによって、パターンを変更し得る。
同様に、乳房密度カテゴリーは、BI−RADSシステムを使用して放射線科医によって分類される。この場合も、この分類は品質管理目的のために使用される。たとえば、密な乳房において異常を見つけることは極めて困難である。BI−RADSシステムには次の4つの4つのカテゴリーがある。
A.乳房がほとんど完全に脂肪質である
B.線維腺密度(fibro−glandular density)の散乱エリアがある
C.乳房が不均一に密であり、これは小塊を不明瞭にし得る
D.乳房が極めて密であり、これはマンモグラフィの感度を下げる。
重要なことには、乳房密度及び組織パターンは、乳がん発症との相互相関を有することも知られている。
場合によっては、本方法は、2つのタイプの出力データを生成することができる。出力データは、示唆された精密検査又は追加の医学的検査105aに関することができるが、出力データは密度又は組織分類105bをも示し得る。出力データは、さらなる検査のための要件に関するバイナリ出力を示すことができる。随意に、出力データは、Tabarパターン、組織分類タイプ、乳房密度、結節性密度、線密度、均質線維組織、放射線透過性脂肪組織、BI−RADSカテゴリー、画像内の重ね合わせられた特徴の測度、確率及び/又は確信度(confidence rating)のいずれかを含む、どのようにバイナリ出力に到達したかに関するデータを含むことができる。
マンモグラフィは、乳がん検出のために広く使用されている医療撮像モダリティである。マンモグラフィは、人間乳房の内部構造の詳細な画像を生成するために「ソフトな」X線を利用する。これらの画像はマンモグラムと呼ばれ、この方法は、治癒可能な段階にあるがんの有効な診断を与える、乳房異常の早期検出におけるゴールド・スタンダードであると考えられる。
残念ながら、マンモグラムを分析する手順はしばしば困難である。乳房の密度及び組織タイプは、非常に多様であり、順に、患者遺伝学により、視覚的特徴の高い多様性を提示する。これらの背景視覚パターンは、しばしば悪性腫瘍の小さい兆候を不明瞭にすることができ、したがって、兆候は人間の眼では容易に見落とされ得る。したがって、マンモグラムの分析は、しばしば偽陽性又は偽陰性(false−negative)の診断結果につながり、これは、治療の失敗(偽陰性の場合)、並びに不要な心理的及び次善のダウンストリーム診断及び治療結果(偽陽性の場合)を引き起こし得る。
たいていの先進国は、ある年齢層の女性(症状がない場合でも)に定期的な乳房スクリーニングを受けるように呼び集めるための包括的なシステムを備える、人口全体のスクリーニング・プログラムを維持する。これらのスクリーニング・プログラムは、日常的に多数のマンモグラムを確実に分析することができる経験豊富な専門訓練された医師が従うべき、高度に標準化されたプロトコルを必要とする。たいていのプロのガイドラインは、2人の等しい専門家放射線科医による各マンモグラムの読み(二重読み(double−reading)とも呼ばれる)を強く示唆する。現今では、手が空いている放射線科医の数が不十分であり、減少しているとき、二重読み要件はしばしば実施が困難であるか又は不可能である。
マンモグラムを分析するとき、解剖学的構造の信頼できる識別は、視覚的評価のために、特に、最終診断結果に深い影響を及ぼし得る、視覚的特徴の解剖学的ロケーションと、解剖学的構造との視覚的特徴の関係とに基づく視覚的特徴の分析的査定のために重要である。解剖学的構造が歪んで見える場合、それらはまた、あり得る悪性腫瘍の存在を示し得る。
従来のX線は、構造物と骨とを含む空気に関する構造的異常、並びにそれらに影響を及ぼす病気の検出のための広く使用されている医療撮像モダリティである。従来のX線は、最も広く使用されている撮像方法であり、肺と骨格との内部構造の詳細な画像を生成するために「ハードな」X線を利用する。これらの画像はレントゲン写真又は単にX線と呼ばれる。
残念ながら、X線を分析する手順は、特に伝染病(たとえばTB)又は初期段階における肺がんを検出するために肺X線を分析するときに、しばしば困難である。
断面医療撮像モダリティは、人間の内臓に視覚的に識別可能な構造的影響を及ぼす、構造的又は機能的異常及び病気の検出のために広く使用されている。一般に、画像は、身体の複数の断面における内部構造を明らかにする。最も広く使用されている断面技法の本質について以下で説明する。
コンピュータ断層撮影(CT)は、広く使用されている撮像方法であり、特別に回転する器械によって生成され、検出される「ハードな」X線を利用し、得られた減衰データ(生データとも呼ばれる)は、内臓の内部構造の詳細な画像を生成するコンピュータ分析ソフトウェアによって提示される。画像の生成されたセットはCTスキャンと呼ばれ、CTスキャンは、人体の軸に垂直な断面(又は他の角度で合成されたセクション)における内部解剖学的構造を提示するために、異なる設定と異なる造影剤相をもつ複数のシリーズを構成し得る。
磁気共鳴撮像(MRI)は、あらゆる生体組織の最も小さい本質的要素である陽子の動きに対する磁界の影響の効果を利用する、高度な診断技法である。MRI機械において、検出器はアンテナであり、信号は、人体のセクションにおける内部構造の場合、詳細な画像を作成するコンピュータによって分析される。MRIは、移動する陽子によって生成される信号強度に基づいて、有用な機能情報を追加することができる。
しかしながら、特に腫瘍性疾患の場合、初期兆候はしばしば隠されており、冒されたエリアの外観は正常とわずかに異なるだけであるので、任意の種類の断面画像を分析する手順はしばしば困難である。
断面走査を分析するとき、診断は解剖学的構造の視覚的評価に基づく。それらの解剖学的ロケーションと解剖学的構造とのそれらの関係とに基づく視覚的外観の、特に分析的評価のための、信頼できる評価は、最終診断結果に深い影響を及ぼし得る。解剖学的構造が歪んで見える場合、それらはまた、あり得る悪性腫瘍の存在を示し得る。
一般に、(マンモグラフィ、従来のX線、CT、MRIを含む)すべての放射線医療診断方法の場合、異常及び/又は所見の識別、位置特定(登録)、セグメント化及び分類は、診断ワークフローにおける重要な連結されたステップである。
人間の放射線科医によって実行される通常の診断ワークフローの場合、これらのステップは、部分的に又は無意識のうちにのみ実行され得るが、コンピュータ・ベース又はコンピュータ援用診断及び分析の場合、ステップは、しばしば、明確な、具体的な、記述的な、及び正確な様式で実行される必要がある。
ローカリティ及び分類は、診断を定義し、診断に著しい影響を及ぼし得る。ローカリティと分類の両方は、視覚的特徴の厳密な形状及び広がり(すなわち境界のサイズ及びロケーション、他の特徴からの距離及びそれらとの関係、及び/又は解剖学)に関して、セグメント化によって通知され得る。セグメント化はまた、病気のステータスの変化(たとえば進行又は後退)に関する重要な情報を与え得る。
次に図5を参照すると、一実施例による第2のリーダー示唆方法500が示されている。
マンモグラフィ画像データ510が各患者について取得され、標準的臨床手順に従って放射線科医によって評価される。放射線科医による評価/診断530が完了すると、マンモグラフィ画像データ510がモデル520に入力される。モデル520は、本明細書で説明する実施例のうちの1つに従って、たとえば、図1〜図4に関して説明する実施例、又は図6〜図10に従って説明する実施例のうちの1つに従って構成される。モデル520は、入力画像データ510の評価を出力し、たとえば、放射線科医に対して関心又は懸念を示す画像データ510の部分をハイライトする。次いで、放射線科医の評価530とモデル520の出力とが重複/一致するか又はしないかを決定するために、それらが比較される540。放射線科医の評価530とモデル520の出力とが一致しない場合、出力550は、第2のリーダーが示唆される560、すなわち、第2の独立した放射線科医が画像データ510を検討し、第2の独立した診断を実行することをトリガする。放射線科医の評価530とモデル520の出力とが一致するか、又は重複する場合、さらなるアクションを取る必要はない570。
モデル520は、機械学習(ML)モデル又はシステム、たとえば畳み込みニューラル・ネットワークであり得る。
放射線科医の評価530及びモデル520の出力は、相似のしきい値に基づいて一致するか、又は重複するように決定され得る。
代替的に、さらに、この実施例はまた、患者の年齢など、他の情報をモデル520に入力させ、モデル520を、この他の情報を考慮に入れるように構成させることができる。
別の代替は、第2の独立した放射線科医が、第2の独立した診断を実行するように示唆される代わりに、元の放射線科医がアラートされ得、元の放射線科医が第2の検討を実行することが示唆されるか、又はコンピュータ援用診断が画像データ510に対して実行されるかのいずれかである。
図6は、次に適宜図7から図10を参照しながら以下でより詳細に説明する、例示的な実施例を示す。
最初に図6を参照すると、入力されたマンモグラフィ画像10を受信し、悪性腫瘍出力、たとえば、はい/いいえバイナリ出力、又はバイナリ出力とともに関心領域を示すより詳細な出力を出力するための方法が示されている。
患者の医療走査(マンモグラフィ)では、走査された画像は、一般的に医療画像を記憶するために使用されるファイル・フォーマットである、DICOMフォーマットでコレートされる。本方法は、放射線医療部門が病院において使用するピクチャ・アーカイビング通信システム(PACS)上に記憶される前処理されたデータを使用する。この方法の出力はまた、マンモグラフィ画像を分析する将来のアプリケーションを改善するためにPACSデータベースを強化する。
いくつかの事例では、画像は、限定はしないが、ウィンドウイング、リサンプリング及び正規化を含む、様々な方法を使用して前処理され得る。入力された画像はまた、結果をさらに改善するためにドメイン適応及び/又はスタイル・トランスファー技法を受け得る。
前処理された又は前処理されてない、マンモグラムは、次いで、画像を分析し、画像が悪性病変を示すかどうかを評価するようにトレーニングされている畳み込みニューラル・ネットワーク(CNN)分類器30中に供給される。いくつかの実施例では、このタスクを完了するために、2つ以上のトレーニングされたCNNが使用される。マンモグラムにおいて悪性病変を検出する従来の方法も使用され得る。代替的に、畳み込みニューラル・ネットワークの代わりに他の機械学習実装形態が使用され得る。
CNNが悪性腫瘍モデルとして動作するために、ネットワークは、最初にトレーニングされる必要がある。上述の前処理方法と同様に、ネットワークをトレーニングする目的で入力された画像は、画像が使用される前に、ウィンドウイング、リサンプリング、正規化などを受け得る。いくつかの事例では、ネットワークをトレーニングするために使用される画像は、最大4000×4000ピクセルまで与えられるか、又はサイズ決定されるかのいずれかである。
画像がCNNに供給されると、いくつかのスタックされた数学演算が実行される。そうする際、CNNは、これらの演算の結果として悪性の又は悪性でないスコアが生成されるように、前のレイヤに可変テンソルを適用する。次いで、適用する勾配更新を算出するためにチェーンルール(chainrule)を利用してコスト関数の勾配(クロスエントロピー)に基づいて変数を更新する。このようにして、複数のCNNが、説明した態様/実施例において使用されるようにトレーニングされ得る。
さらに、CNNのトレーニングは、同じマンモグラフィ・ビューの撮られた前の画像を連結し、それをネットワーク中に供給される現在の画像と一緒にネットワークに通すことを含み得る。これにより、CNNの最後の数個のレイヤが複数の画像を考慮し得るように、それらのレイヤを微調整することが可能になる。
悪性腫瘍モデルがトレーニングされると、ネットワークとそれの重みとがフリーズされる。次いで、畳み込みレイヤの出力のうちの1つを取り、次いで、それをマスクRCNN40からマスク・ヘッド中に供給する。例示的なマスクRCNNが図8に示されている。これらのヘッドは境界ボックス予測器41を含み、境界ボックスは、元の画像の一部をカット・アウトするために使用され得る。
カットアウト・パッチに加えて、又はカットアウト・パッチの上に、悪性分類器42とセグメント化43ヘッドとが配置される。悪性腫瘍モデルと同様に、従来の境界ボックス、悪性腫瘍分類器又はセグメント化モデルがこのシステムとともに使用され得る。「マスクr−cnn」コンピュータ・ビジョン(ICCV)において、2017年、IEEEの2017IEEE国際会議において、He,Kaimingらが、参照により組み込まれる、少なくともいくつかの実施例において使用され得る旧来のRCNNについて説明している。
RCNNをトレーニングする様々な方法がある。第1に、悪性腫瘍モデルをマスクRCNNに接続すると、マスクRCNNヘッドが全体画像悪性腫瘍モデルと同時にトレーニングされ得る。第2に、悪性腫瘍モデル・ネットワークをフリーズすることなしにマスクRCNNをトレーニングすることも可能である。最後に、マスクRCNNヘッドは複数の悪性腫瘍モデルとともにトレーニングされ得る。したがって、マスクRCNNヘッドをトレーニングする方法は一定のタイプに限定されないので、手法を特定の用途に適合させることが可能になる。
ニューラル・ネットワークがトレーニングされると、使用中に、又は推論時に、悪性腫瘍モデルがトレーニング・データに基づいてフリーズされる。
例として、ラン・タイム中に、本実施例のシステムは、4つのタイプのマンモグラフィ画像、すなわち、左頭蓋尾側ビュー(L−CC)51、右頭蓋尾側ビュー(R−CC)53、左中外斜位方向(L−MLO)52、及び右中外斜位方向(R−MLO)54を受信する。画像のこの組合せは、ケースと呼ばれることが知られている。1つ又は複数の悪性腫瘍モデルを通過すると、本実施例のシステムは出力のケース全体を生成する。これらの出力は、次いで、単一の出力60Yを生成するために平均化される。
図9に見られるように、51は、すべての左頭蓋尾側ビューの平均スコアを表し、52は、すべての左中外斜位方向(L−MLO)ビューの平均スコアを表し、53は、すべての右頭蓋尾側(R−CC)ビューの平均スコアを表し、54は、すべての右中外斜位方向(R−MLO)ビューの平均スコアを表す。61a及び62aによって示されるように、本実施例のシステムは、次いで、それぞれの左側ビュー61及び右側ビュー62の平均を計算する。これは各側についての悪性腫瘍の出力を生じる。次いで、各側についての平均悪性腫瘍の出力に対して最大演算63が実行される。
図には示されていないが、説明された実施例では、本方法は、次いで、バイナリ悪性の又はそうでないスコア60Yを与える所定のしきい値を用いてこの結果をしきい値処理する。
最後に、図10に関して、マスクRCNNセグメント化又は境界ボックス40Xを示すか否かをゲートするために、スコア60Yが使用される。このようにして、多数の偽陽性につながる、マスクRCNNのみによって検出されたすべての病変を完全に示す代わりに、得られたマスクR−CNN出力は、バイナリ悪性のスコアが正である場合、すなわち悪性腫瘍を示している場合にのみ示される。60Yが、ケースが悪性であることを示さないとき、マスクRCNN出力は無視され、位置特定データはシステムの出力として生成されない。
場合によっては、マスクRCNNの結果は、事前決定された、十分な交差オーバー・ユニオン(IOU:intersection over union)を有する、(形状[N、M、x1、x2、y1、y2]の、ここで、Nはモデルの数を表し、Mは境界ボックスの最大数を表す)境界ボックス座標間を補間することによって集合され得る。他との十分なIOUを有しない境界ボックスは考慮から除かれる。得られた境界ボックスを用いて、生のセグメント化マスクは、次いで平均化され、その後、所定のしきい値を用いてしきい値処理され、また、十分な境界ボックスのすべてについて病変スコアを平均化する。
これらの演算により、形状[1、H、W]のセグメント化マスクと形状[1、M]の病変スコアとともに、形状[1、M、x1、x2、y1、y2]の境界ボックスの最後のセットが生じる。より良い方法は、参照により組み込まれる、Paul F. Jaeger らによって「Retina U−Net:Embarrassingly Simple Exploitation of Segmentation Supervision for Medical Object Detection」(https://arxiv.org/pdf/1811.08661.pdf)において説明される、重み付きボックス・クラスタ化(WBC:weighted box clustering)を使用することである。
上述のように、二重読みは、マンモグラフィを用いる乳がんスクリーニングのゴールド・スタンダードである。このシナリオでは、2人の放射線科医がケースについて報告する。2つのリーダーが、さらなるスクリーニング検査のために患者をリコールするべきかどうかについて同意しないとき、アービトレーションが行われる。
本実施例では、説明されたシステムは、独立した第2のリーダーとして動作することが可能であり、したがって、第1の放射線科医の診断と、随意に、(データの中でも)年齢など、各患者についての何らかのさらなる情報とが与えられるとき、第1の放射線科医の診断が、患者の医療画像のセットにおいて、すべての検出されたあり得る不整、異常及び/又は悪性の特徴を識別したかどうかを評価することができる。過去において、コンピュータ援用診断システムは、高い偽陽性率により、そのように機能することが可能ではなかった。人間放射線科医と同様に、本実施例の説明されたシステムは、低い偽陽性率を有することができ、これは、少なくとも以下の2つの方法において使用され得ることを意味する。
1.真に独立した第2のリーダーとして、第1の(人間)放射線科医がケースを見て、本システムがケースを独立して評価する。2つの意見が異なる場合、本実施例のシステムは、人間放射線科医が考えるための当該の病変についてのアウトラインを示し、2つの意見が一致する場合、放射線科医はシステムの出力を参照しない。又は
2.人間放射線科医が本実施例のシステムによってサポートされる点で、人間放射線科医と本実施例のシステムの両方がケースを分析する、非独立の第2のリーダーとして。放射線科医は、彼らが希望するときはいつでも、本実施例のシステムによって生成された結果を参照するためにクリックすることができる。
3.検証ツールに画像のセットと放射線科医からの診断情報の両方が与えられるという条件で、第1の放射線科医が患者についての画像のセットの手動検討及び診断を実行した後の検証ツール。画像のセットにおいて放射線科医が診断することをツールが予想するであろうことから(及び随意に、たとえば患者の年齢など、さらなるデータにも基づいて)、診断が分かれる場合、ツールは、第2の放射線科医が、画像のセットの独立した検討を実行し、第2の診断を行うことを示唆することができる。
最後の走査からの変化を探すための参照として前の画像を使用し、また、人間放射線科医がケースをコール・バックすることをトレード・オフする方法を模倣するために、平均の次いで最大の演算子を使用するなど、いくつかの実施例では、人間放射線科医によって使用される技法を模倣する多くの手法がシステムに組み込まれ得る。
機械学習は、エクスペリエンスから生成されたフィードバック、又は機械学習プロセスがそれらのタスクのコンピュータ実行中に取得した収集されたデータを使用して、タスクのクラスを実行することを、1つ又は複数のコンピュータが学習する研究分野である。
一般に、機械学習は教師あり(supervised)手法と教師なし(unsupervised)手法とに広く分類され得るが、特殊なルール、技法及び/又は手法を有する強化学習及び半教師あり学習など、特定の手法がある。教師あり機械学習は、オペレータ又はプログラマーによって事前決定される例示的な入力と望まれる出力との間でマッピングするための1つ若しくは複数のルール又は機能を学習するコンピュータに関係し、通常、入力を含んでいるデータ・セットはラベリングされる。
教師なし学習は、たとえばパターン認識を実行するときに、入力データのための構造を決定することに関係し、一般にラベリングされていないデータ・セットを使用する。強化学習は、たとえばゲームをしたり、車両を駆動したりするときに、1つ又は複数のコンピュータが動的環境と対話することを可能にすることに関係する。
トレーニング・データ・セットが部分的にのみラベリングされている「半教師あり」機械学習など、これらのカテゴリーの様々なハイブリッドが可能である。教師なし機械学習の場合、たとえば、画像処理又はビデオ・エンハンスメントへのコンピュータ・ビジョン技法の適用など、様々な可能な適用例がある。教師なし機械学習は、一般に、未知のデータ構造がデータ中に存在し得る問題を解決するために適用される。データはラベリングされていないので、機械学習プロセスは、たとえば内部的に導出される情報に基づいてクラスタ化メトリックを導出することによって、データ間の暗黙的関係を識別するように動作することが要求される。たとえば、教師なし学習技法は、データ・セットの次元を低減し、データ・セット中のクラスタ間の関係を識別し、モデル化することを試みるために使用され得、たとえば、(たとえば、高次元データ・セットに適用され得る、重み付き相関ネットワーク分析と呼ばれる技法を使用して、又は各データ間のユークリッド距離の測度によってデータをクラスタ化するためにk平均クラスタ化(k−means clustering)を使用する、)クラスタ・メンバーシップの測度を生成するか、又はクラスタ中又はクラスタ間のハブ又はノードを識別することができる。
半教師あり学習は、一般に、部分的にラベリングされたデータ・セットがある、たとえばデータのサブセットのみがラベリングされている問題を解決するために適用される。半教師あり機械学習は、外部から与えられたラベル及び目的関数並びに暗黙的データ関係を利用する。機械学習システムを最初に構成するとき、特に教師あり機械学習手法を使用するとき、機械学習アルゴリズムには、何らかのトレーニング・データ又はトレーニング例のセットが与えられ得、各例は、一般に入力信号/ベクトルと所望の出力値、ラベル(又は分類)又は信号とのペアである。機械学習アルゴリズムは、トレーニング・データを分析し、見えない入力ベクトル/信号のための所望の出力値又は信号を生成するために、見えないデータ・セットとともに使用され得る一般化された関数を生成する。ユーザは、トレーニング・データとしてどのタイプのデータが使用されるべきかを決定し、データの代表的現実世界セットを作成する必要がある。ユーザは、しかしながら、トレーニング・データが、(多すぎる次元がトレーニング中に機械学習プロセスによって考えられることをもたらし得、また、機械学習プロセスがすべての又は特定の例のための良好なソリューションに収斂しないことを意味する)多すぎる特徴を与えることなしに、所望の出力値を正確に予測するために十分な情報を含んでいることを保証するように注意しなければならない。ユーザは、また、学習された又は一般化された機能の所望の構造、たとえば、サポート・ベクター・マシン又は決定木を使用するべきかどうかを決定しなければならない。
教師なし又は半教師ありの機械学習手法の使用は、ラベリングされたデータが容易に利用可能でないとき、又はシステムが、いくつかの初期シード・ラベルを与えられた未知のデータから新しいラベリングされたデータを生成する場合に、時々使用される。
機械学習は、非線形階層アルゴリズム、ニューラル・ネットワーク、畳み込みニューラル・ネットワーク、リカレント・ニューラル・ネットワーク、長短期メモリ・ネットワーク、多次元畳み込みネットワーク、メモリ・ネットワーク、のうちの1つ又は複数の使用によって実行され得、完全畳み込みネットワーク又はゲート付きリカレント・ネットワークは、視覚データの予測されたブロックを生成するときにフレキシブルな手法を可能にする。長短期メモリ・ネットワーク(LSTM:long short−term memory network)、メモリ・ネットワーク又はゲート付きリカレント・ネットワークなど、メモリ・ユニットを用いたアルゴリズムの使用は、同じ元の入力フレーム上で実行される動き補償プロセスから予測されたブロックの状態を保つことができる。これらのネットワークの使用は、アルゴリズムが動きの変化の何らかの種類の状態又はメモリを維持するので、計算効率を改善し、また、いくつかのフレームにわたる動き補償プロセスにおける時間的一貫性を改善することができる。これは、さらに、エラー率の低減をもたらすことができる。
機械学習システムを開発することは、一般に、(1)トレーニング、及び(2)生成の2つの段階からなる。トレーニング中、機械学習モデルのパラメータは、目的関数又は損失として知られている、特定の学習目的を最適化するために、反復的に変更される。モデルがトレーニングされると、それは製造において使用され得、モデルは、入力を取り込み、トレーニングされたパラメータを使用して出力を生成する。
ニューラル・ネットワークのトレーニング段階中、検証された入力が与えられ、したがって、ニューラル・ネットワークの計算された出力を、次いでネットワークが必要であるコレクトと比較することが可能である。ニューラル・ネットワークにおける各ノードについての誤差項又は損失関数が確立され、将来の出力が予想される結果により近くなるように、重みが調整され得る。バックプロパゲーション技法も、その又は各ニューラル・ネットワークのためのトレーニング・スケジュールにおいて使用され得る。
モデルは、ネットワークを通したバックプロパゲーションとフォワード・パスとを使用してトレーニングされ得る。損失関数は、最小にされ得る目標であり、それはターゲット値とモデルの出力との間の測定値である。
クロス・エントロピー損失が使用され得る。クロス・エントロピー損失は、次のように定義される。
Figure 2021527472

ここで、Cはクラスの数であり、y∈{0、1}はクラスcのためのバイナリ・インジケータであり、sはクラスcのためのスコアである。
マルチタスク学習設定では、損失は複数パートからなる。各タスクについての損失項。
L(x)=λ+λ
ここで、L、Lは2つの異なるタスクについての損失項であり、λ、λは重み付け項である。
本明細書で説明するシステム特徴は、方法特徴としても与えられ得、その逆も同様である。本明細書で使用する際、ミーンズ・プラス・ファンクション特徴は、それらの対応する構造に関して代替的に表され得る。
一態様における特徴は、適切な組合せで他の態様に適用され得る。特に、方法態様はシステム態様に適用され得、その逆も同様である。さらに、一態様における任意の、いくつかの及び/又はすべての特徴は、適切な組合せで、他の態様における任意の、いくつかの及び/又はすべての特徴に適用され得る。
また、本発明のいずれかの態様において説明され、定義された様々な特徴の特定の組合せは、単独で実装及び/又は供給及び/又は使用され得ることを諒解されたい。

Claims (20)

  1. 医療画像を分析するコンピュータ援用方法であって、前記方法は、
    1つ又は複数の医療画像を受信するステップと、
    1つ又は複数の特性を決定するために前記1つ又は複数の医療画像を分析するステップと、
    前記決定された1つ又は複数の特性に基づいて出力データを生成するステップと、
    前記1つ又は複数の医療画像の手動で決定された特性に関するユーザからの入力データを受信するステップと、
    前記決定された1つ又は複数の特性と前記手動で決定された特性との類似度を決定するステップと
    を含み、
    前記類似度が所定のしきい値を下回る場合、前記1つ又は複数の医療画像のさらなる分析をトリガするために出力が生成される、コンピュータ援用方法。
  2. 前記さらなる分析が、別のユーザ又は前記ユーザによるさらなる分析を備える、請求項1に記載の方法。
  3. 前記さらなる分析が、コンピュータ援用診断システムによるさらなる分析を備える、請求項1又は2に記載の方法。
  4. 前記さらなる分析が、コンピュータ化トモグラフィ(CT)走査、超音波走査、磁気共鳴撮像(MRI)走査、トモシンセシス走査、及び/又は生検のいずれか又はそれらの任意の組合せを備える、請求項1から3までのいずれか一項に記載の方法。
  5. 前記1つ又は複数の医療画像が1つ又は複数のマンモグラフィ走査又はX線走査を備える、請求項1から4までのいずれか一項に記載の方法。
  6. 分析する及び決定する前記ステップが、1つ又は複数のトレーニングされた機械学習モデルを使用して実行される、請求項1から5までのいずれか一項に記載の方法。
  7. 前記トレーニングされた機械学習モデルが畳み込みニューラル・ネットワークを備える、請求項6に記載の方法。
  8. 分析する及び決定する前記ステップが、1つ又は複数の解剖学的領域をセグメント化することを含む、請求項1から7までのいずれか一項に記載の方法。
  9. 前記出力データが、セグメント化アウトラインを示すオーバーレイ・データ、及び/又は1つ若しくは複数のセグメント化された領域の1つ若しくは複数のロケーションを示す確率マスクをさらに備える、請求項1から8までのいずれか一項に記載の方法。
  10. 分析する及び決定する前記ステップが、組織タイプと密度カテゴリーとを識別することを含む、請求項1から9までのいずれか一項に記載の方法。
  11. 1つ又は複数の追加の医学的検査の必要とされるタイプが、前記1つ又は複数の医療画像に基づいて決定された前記密度カテゴリーに依存する、請求項4及び10に記載の方法。
  12. 分析する及び決定する前記ステップが、前記医療画像中の1つ又は複数の異常領域を自動的に識別することを含む、請求項1から11までのいずれか一項に記載の方法。
  13. 分析する及び決定する前記ステップが、悪性病変及び/又は良性病変及び/又は一般的病変を識別する及び区別することを含む、請求項1から12までのいずれか一項に記載の方法。
  14. 前記出力データが、前記1つ又は複数の病変のための確率マスクを示すオーバーレイ・データをさらに備える、請求項13に記載の方法。
  15. 分析する及び決定する前記ステップが、アーキテクチャひずみを識別することを含む、請求項1から14までのいずれか一項に記載の方法。
  16. 前記1つ又は複数の医療画像及び前記1つ又は複数の追加の医療画像が、医療におけるデジタル撮像及び通信(DICOM)ファイルの使用を備える、請求項1から15までのいずれか一項に記載の方法。
  17. 医療画像のセットを分析するためのシステムであって、前記システムは、
    医療撮像デバイスと、
    ピクチャ・アーカイビング通信システム(PACS)と、
    医療画像の各セットについての診断メタデータを入力するように動作可能なユーザ端末と、
    1つ又は複数の特性を決定し、前記決定された1つ又は複数の特性と前記入力された診断メタデータとの類似度を決定するために、前記PACS上の医療画像の各セットのうちの1つ又は複数を分析するように動作可能な処理ユニットと、
    前記類似度が所定のしきい値を下回る場合、医療画像の前記セットのための要件を表示するか、又は医療画像の前記セットのさらなる分析をトリガするように動作可能な出力ビューアと
    を備える、システム。
  18. 前記処理ユニットが、前記医療撮像デバイスと一体化されているか、又は前記処理ユニットが、リモートに位置し、通信チャネルを介してアクセス可能である、請求項17に記載のシステム。
  19. 請求項1から16までのいずれか一項に記載の方法を実行するように動作可能な請求項17又は18に記載のシステム。
  20. 請求項1から19までのいずれか一項に記載の方法及び/又はシステムを実行するように動作可能なコンピュータ・プログラム製品。
JP2020568666A 2018-06-14 2019-06-14 第2のリーダー示唆 Pending JP2021527472A (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
GB1809796.4A GB2574659A (en) 2018-06-14 2018-06-14 Immediate workup
GB1809796.4 2018-06-14
GB1819329.2 2018-11-27
GB1819329.2A GB2579244A (en) 2018-11-27 2018-11-27 Second reader
GB201900212 2019-01-07
GB1900212.0 2019-01-07
PCT/GB2019/051668 WO2019239155A1 (en) 2018-06-14 2019-06-14 Second reader suggestion

Publications (1)

Publication Number Publication Date
JP2021527472A true JP2021527472A (ja) 2021-10-14

Family

ID=67439247

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020568814A Pending JP2021527478A (ja) 2018-06-14 2019-06-14 第2のリーダー
JP2020568666A Pending JP2021527472A (ja) 2018-06-14 2019-06-14 第2のリーダー示唆
JP2020568668A Pending JP2021527473A (ja) 2018-06-14 2019-06-14 即時精密検査

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020568814A Pending JP2021527478A (ja) 2018-06-14 2019-06-14 第2のリーダー

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020568668A Pending JP2021527473A (ja) 2018-06-14 2019-06-14 即時精密検査

Country Status (10)

Country Link
US (3) US11410307B2 (ja)
EP (3) EP3806746B1 (ja)
JP (3) JP2021527478A (ja)
AU (3) AU2019285392A1 (ja)
CA (3) CA3102170A1 (ja)
DK (3) DK3806746T3 (ja)
ES (3) ES2914873T3 (ja)
HU (2) HUE058907T2 (ja)
SI (3) SI3806745T1 (ja)
WO (3) WO2019239155A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201705911D0 (en) 2017-04-12 2017-05-24 Kheiron Medical Tech Ltd Abstracts
WO2019239155A1 (en) 2018-06-14 2019-12-19 Kheiron Medical Technologies Ltd Second reader suggestion
US20220050997A1 (en) * 2018-09-07 2022-02-17 Toyota Motor Europe Method and system for processing an image by determining rotation hypotheses
CN110136829A (zh) * 2019-05-16 2019-08-16 腾讯科技(深圳)有限公司 乳腺钼靶图像的辅助诊断方法、装置、系统及介质
US20200395123A1 (en) * 2019-06-16 2020-12-17 International Business Machines Corporation Systems and methods for predicting likelihood of malignancy in a target tissue
JP7415787B2 (ja) * 2020-05-15 2024-01-17 コニカミノルタ株式会社 医用画像システム
WO2022112731A1 (en) * 2020-11-26 2022-06-02 Kheiron Medical Technologies Ltd Decision for double reader
EP4033497A1 (en) 2021-01-25 2022-07-27 Aigea Medical S.r.l. Training procedure and system for artificial intelligence intended for the analysis of mammographic data for the identification or exclusion of the presence of breast cancer
US20230118546A1 (en) * 2021-10-19 2023-04-20 PaxeraHealth Corp High-definition labeling system for medical imaging AI algorithms
US20230352172A1 (en) * 2022-04-27 2023-11-02 MX Healthcare GmbH System and method for identifying breast cancer
WO2024123311A1 (en) * 2022-12-06 2024-06-13 Google Llc Mammography device outputs for broad system compatibility

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06251038A (ja) * 1993-03-01 1994-09-09 Toshiba Corp 医用診断支援システム
JP2001525579A (ja) * 1997-11-28 2001-12-11 クァリア・コンピューティング・インコーポレーテッド 乳房x線デジタル像からのクラスター化微小カルシウム沈着の自動検出
JP2009082182A (ja) * 2007-09-27 2009-04-23 Fujifilm Corp 検査作業支援装置及び方法、並びに検査作業支援システム
US20090274349A1 (en) * 2006-04-13 2009-11-05 Donato Cascio Method for processing biomedical images
WO2018031919A1 (en) * 2016-08-11 2018-02-15 Clearview Diagnostics, Inc. Method and means of cad system personalization to provide a confidence level indicator for cad system recommendations
JP2018061771A (ja) * 2016-10-14 2018-04-19 株式会社日立製作所 画像処理装置、及び画像処理方法

Family Cites Families (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6075879A (en) 1993-09-29 2000-06-13 R2 Technology, Inc. Method and system for computer-aided lesion detection using information from multiple images
EP0719435A1 (en) 1994-07-14 1996-07-03 Koninklijke Philips Electronics N.V. Mass detection in digital x-ray images using multiple threshold levels to discriminate spots
WO1997011350A2 (en) 1995-09-19 1997-03-27 Morphometrix Technologies Inc. A neural network assisted multi-spectral segmentation system
US6058322A (en) * 1997-07-25 2000-05-02 Arch Development Corporation Methods for improving the accuracy in differential diagnosis on radiologic examinations
US6901156B2 (en) * 2000-02-04 2005-05-31 Arch Development Corporation Method, system and computer readable medium for an intelligent search workstation for computer assisted interpretation of medical images
US6574304B1 (en) 2002-09-13 2003-06-03 Ge Medical Systems Global Technology Company, Llc Computer aided acquisition of medical images
JP2006500124A (ja) 2002-09-24 2006-01-05 イーストマン コダック カンパニー 医療画像をコンピュータ支援検出(cad)のガイドによって読み取る方法及びシステム
US7203350B2 (en) * 2002-10-31 2007-04-10 Siemens Computer Aided Diagnosis Ltd. Display for computer-aided diagnosis of mammograms
US7418119B2 (en) * 2002-10-31 2008-08-26 Siemens Computer Aided Diagnosis Ltd. Display for computer-aided evaluation of medical images and for establishing clinical recommendation therefrom
US7490085B2 (en) 2002-12-18 2009-02-10 Ge Medical Systems Global Technology Company, Llc Computer-assisted data processing system and method incorporating automated learning
US20040228509A1 (en) 2003-05-15 2004-11-18 Beth Israel Deaconess Medical Center, Inc. Automatic spacial identification of tissue implanted linear sources using medical imaging
US7640051B2 (en) * 2003-06-25 2009-12-29 Siemens Medical Solutions Usa, Inc. Systems and methods for automated diagnosis and decision support for breast imaging
US7529394B2 (en) * 2003-06-27 2009-05-05 Siemens Medical Solutions Usa, Inc. CAD (computer-aided decision) support for medical imaging using machine learning to adapt CAD process with knowledge collected during routine use of CAD system
US20050113651A1 (en) 2003-11-26 2005-05-26 Confirma, Inc. Apparatus and method for surgical planning and treatment monitoring
DE102004051401A1 (de) 2004-10-21 2006-05-24 Siemens Ag Verfahren zur Befundung in der dreidimensionalen Bildgebung, insbesondere in der Mammographie
US7646902B2 (en) 2005-02-08 2010-01-12 Regents Of The University Of Michigan Computerized detection of breast cancer on digital tomosynthesis mammograms
JP2006325638A (ja) * 2005-05-23 2006-12-07 Konica Minolta Medical & Graphic Inc 異常陰影候補の検出方法及び医用画像処理システム
EP1893077A4 (en) 2005-06-02 2011-02-09 Medipattern Corp COMPUTER-ASSISTED NACHWEISS SYSTEM AND METHOD
US7809175B2 (en) 2005-07-01 2010-10-05 Hologic, Inc. Displaying and navigating computer-aided detection results on a review workstation
FR2897182A1 (fr) 2006-02-09 2007-08-10 Gen Electric Procede de traitement d'images de projection en tomosynthese pour une detection de signes radiologiques
GB0602739D0 (en) * 2006-02-10 2006-03-22 Ccbr As Breast tissue density measure
US8238637B2 (en) 2006-10-25 2012-08-07 Siemens Computer Aided Diagnosis Ltd. Computer-aided diagnosis of malignancies of suspect regions and false positives in images
US7903861B2 (en) 2006-12-28 2011-03-08 Carestream Health, Inc. Method for classifying breast tissue density using computed image features
US8203338B2 (en) * 2007-08-06 2012-06-19 Carestream Health, Inc. Linear structure verification in medical applications
JP5264136B2 (ja) * 2007-09-27 2013-08-14 キヤノン株式会社 医用診断支援装置及びその制御方法、ならびにコンピュータプログラム及び記憶媒体
JP5100285B2 (ja) 2007-09-28 2012-12-19 キヤノン株式会社 医用診断支援装置およびその制御方法、プログラム、記憶媒体
US7942829B2 (en) 2007-11-06 2011-05-17 Eigen, Inc. Biopsy planning and display apparatus
US20100135562A1 (en) * 2008-11-28 2010-06-03 Siemens Computer Aided Diagnosis Ltd. Computer-aided detection with enhanced workflow
US20100158332A1 (en) * 2008-12-22 2010-06-24 Dan Rico Method and system of automated detection of lesions in medical images
US9171130B2 (en) * 2009-11-24 2015-10-27 Penrad Technologies, Inc. Multiple modality mammography image gallery and clipping system
US8064677B2 (en) 2009-11-25 2011-11-22 Fujifilm Corporation Systems and methods for measurement of objects of interest in medical images
US8582858B2 (en) 2009-12-17 2013-11-12 The Regents Of The University Of California Method and apparatus for quantitative analysis of breast density morphology based on MRI
US20120099771A1 (en) * 2010-10-20 2012-04-26 Lao Zhiqiang Computer aided detection of architectural distortion in mammography
JP5875285B2 (ja) 2011-08-16 2016-03-02 キヤノン株式会社 医療診断支援装置、情報処理方法及びプログラム
EP2747640A4 (en) * 2011-08-22 2015-04-29 Joel Ironstone METHOD AND SYSTEM FOR DISEASE RISK MANAGEMENT
JP5945803B2 (ja) 2012-03-07 2016-07-05 東芝メディカルシステムズ株式会社 医用画像読影システム
US8891841B2 (en) 2012-06-04 2014-11-18 Verizon Patent And Licensing Inc. Mobile dermatology collection and analysis system
TWI483711B (zh) 2012-07-10 2015-05-11 Univ Nat Taiwan Tumor detection system and method of breast ultrasound image
US9047664B2 (en) 2013-05-31 2015-06-02 Kathryn Pearson Peyton Apparatus and method for utilizing mammogram images for verification
US9741116B2 (en) 2013-08-29 2017-08-22 Mayo Foundation For Medical Education And Research System and method for boundary classification and automatic polyp detection
EP3072082A4 (en) 2013-11-19 2017-09-13 Vucomp, Inc. Obtaining breast density measurements and classifications
DE102014208411A1 (de) * 2014-05-06 2015-11-12 Siemens Aktiengesellschaft Auswertung eines während einer Mammographie erzeugten Röntgenbildes einer Brust
WO2016057960A1 (en) 2014-10-10 2016-04-14 Radish Medical Solutions, Inc. Apparatus, system and method for cloud based diagnostics and image archiving and retrieval
US9550912B2 (en) 2014-12-19 2017-01-24 Hexion Inc Curing agent for epoxy coatings
US9519966B2 (en) 2015-04-22 2016-12-13 King Fahd University Of Petroleum And Minerals Method, system and computer program product for breast density classification using parts-based local features
US9922433B2 (en) 2015-05-29 2018-03-20 Moira F. Schieke Method and system for identifying biomarkers using a probability map
US20160364527A1 (en) * 2015-06-12 2016-12-15 Merge Healthcare Incorporated Methods and Systems for Automatically Analyzing Clinical Images and Determining when Additional Imaging May Aid a Diagnosis
JP7110098B2 (ja) * 2015-12-18 2022-08-01 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア 頭部コンピュータ断層撮影における緊急性の特徴の解釈及び定量化
US10339650B2 (en) 2016-01-07 2019-07-02 Koios Medical, Inc. Method and means of CAD system personalization to reduce intraoperator and interoperator variation
CN106096491B (zh) 2016-02-04 2022-04-12 上海市第一人民医院 一种眼底彩色照相图像中微动脉瘤自动化识别方法
CN105931226A (zh) 2016-04-14 2016-09-07 南京信息工程大学 基于深度学习的自适应椭圆拟合细胞自动检测分割方法
CN106204587B (zh) 2016-05-27 2019-01-08 浙江德尚韵兴图像科技有限公司 基于深度卷积神经网络和区域竞争模型的多器官分割方法
WO2017210690A1 (en) 2016-06-03 2017-12-07 Lu Le Spatial aggregation of holistically-nested convolutional neural networks for automated organ localization and segmentation in 3d medical scans
US9589374B1 (en) 2016-08-01 2017-03-07 12 Sigma Technologies Computer-aided diagnosis system for medical images using deep convolutional neural networks
US10417788B2 (en) 2016-09-21 2019-09-17 Realize, Inc. Anomaly detection in volumetric medical images using sequential convolutional and recurrent neural networks
US20180129900A1 (en) 2016-11-04 2018-05-10 Siemens Healthcare Gmbh Anonymous and Secure Classification Using a Deep Learning Network
US11449985B2 (en) 2016-12-02 2022-09-20 Regents Of The University Of Minnesota Computer vision for cancerous tissue recognition
US10600184B2 (en) 2017-01-27 2020-03-24 Arterys Inc. Automated segmentation utilizing fully convolutional networks
GB201705876D0 (en) 2017-04-11 2017-05-24 Kheiron Medical Tech Ltd Recist
GB201705911D0 (en) 2017-04-12 2017-05-24 Kheiron Medical Tech Ltd Abstracts
US10223610B1 (en) * 2017-10-15 2019-03-05 International Business Machines Corporation System and method for detection and classification of findings in images
US10916341B2 (en) 2017-12-15 2021-02-09 International Business Machines Corporation Automated report generation based on cognitive classification of medical images
WO2019210292A1 (en) 2018-04-27 2019-10-31 Delphinus Medical Technologies, Inc. System and method for feature extraction and classification on ultrasound tomography images
US10706545B2 (en) 2018-05-07 2020-07-07 Zebra Medical Vision Ltd. Systems and methods for analysis of anatomical images
EP3791310A4 (en) * 2018-05-07 2022-03-30 Zebra Medical Vision Ltd. SYSTEMS AND METHODS FOR PREPROCESSING ANATOMIC IMAGES FOR INTRODUCTION TO A CLASSIFICATION NEURAL NETWORK
GB2579244A (en) 2018-11-27 2020-06-17 Kheiron Medical Tech Ltd Second reader
WO2019239155A1 (en) 2018-06-14 2019-12-19 Kheiron Medical Technologies Ltd Second reader suggestion

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06251038A (ja) * 1993-03-01 1994-09-09 Toshiba Corp 医用診断支援システム
JP2001525579A (ja) * 1997-11-28 2001-12-11 クァリア・コンピューティング・インコーポレーテッド 乳房x線デジタル像からのクラスター化微小カルシウム沈着の自動検出
US20090274349A1 (en) * 2006-04-13 2009-11-05 Donato Cascio Method for processing biomedical images
JP2009082182A (ja) * 2007-09-27 2009-04-23 Fujifilm Corp 検査作業支援装置及び方法、並びに検査作業支援システム
WO2018031919A1 (en) * 2016-08-11 2018-02-15 Clearview Diagnostics, Inc. Method and means of cad system personalization to provide a confidence level indicator for cad system recommendations
JP2018061771A (ja) * 2016-10-14 2018-04-19 株式会社日立製作所 画像処理装置、及び画像処理方法

Also Published As

Publication number Publication date
AU2019285393A1 (en) 2021-01-07
US11410307B2 (en) 2022-08-09
SI3806746T1 (sl) 2022-07-29
EP3806746B1 (en) 2022-03-02
US20210248744A1 (en) 2021-08-12
EP3806744B1 (en) 2022-02-16
ES2914873T3 (es) 2022-06-17
JP2021527478A (ja) 2021-10-14
CA3102170A1 (en) 2019-12-19
DK3806745T3 (da) 2022-05-23
AU2019285393A9 (en) 2023-02-02
HUE058687T2 (hu) 2022-09-28
AU2019285392A1 (en) 2021-01-07
US20210312618A1 (en) 2021-10-07
ES2914415T3 (es) 2022-06-10
CA3102174C (en) 2022-07-19
DK3806746T3 (da) 2022-05-23
SI3806745T1 (sl) 2022-07-29
US11488306B2 (en) 2022-11-01
JP2021527473A (ja) 2021-10-14
WO2019239155A1 (en) 2019-12-19
EP3806745B1 (en) 2022-02-16
EP3806745A1 (en) 2021-04-21
AU2019285393B2 (en) 2022-12-08
AU2019285394A1 (en) 2021-01-07
HUE058907T2 (hu) 2022-09-28
WO2019239153A1 (en) 2019-12-19
SI3806744T1 (sl) 2022-07-29
US11455723B2 (en) 2022-09-27
EP3806746A1 (en) 2021-04-21
US20210313043A1 (en) 2021-10-07
CA3102173A1 (en) 2019-12-19
CA3102174A1 (en) 2019-12-19
EP3806744A1 (en) 2021-04-21
DK3806744T3 (da) 2022-05-23
WO2019239154A1 (en) 2019-12-19
ES2914387T3 (es) 2022-06-10

Similar Documents

Publication Publication Date Title
US11455723B2 (en) Second reader suggestion
US11127137B2 (en) Malignancy assessment for tumors
CN109583440B (zh) 结合影像识别与报告编辑的医学影像辅助诊断方法及系统
US7529394B2 (en) CAD (computer-aided decision) support for medical imaging using machine learning to adapt CAD process with knowledge collected during routine use of CAD system
US20220254023A1 (en) System and Method for Interpretation of Multiple Medical Images Using Deep Learning
Yoon et al. Medical image analysis using artificial intelligence
US20100266173A1 (en) Computer-aided detection (cad) of a disease
WO2022112731A1 (en) Decision for double reader
Janjua et al. Chest x-ray anomalous object detection and classification framework for medical diagnosis
GB2574659A (en) Immediate workup
Ramos Analysis of medical images to support decision-making in the musculoskeletal field

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20210204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220610

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230323

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231017