JP2023503610A - 医療スキャン映像の相互位置合わせおよびそれとともに使用する方法 - Google Patents
医療スキャン映像の相互位置合わせおよびそれとともに使用する方法 Download PDFInfo
- Publication number
- JP2023503610A JP2023503610A JP2022530661A JP2022530661A JP2023503610A JP 2023503610 A JP2023503610 A JP 2023503610A JP 2022530661 A JP2022530661 A JP 2022530661A JP 2022530661 A JP2022530661 A JP 2022530661A JP 2023503610 A JP2023503610 A JP 2023503610A
- Authority
- JP
- Japan
- Prior art keywords
- medical scan
- image
- medical
- data
- scan image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 65
- 230000002452 interceptive effect Effects 0.000 claims abstract description 166
- 238000012545 processing Methods 0.000 claims description 100
- 230000011218 segmentation Effects 0.000 claims description 76
- 230000004044 response Effects 0.000 claims description 59
- 230000005856 abnormality Effects 0.000 claims description 37
- 238000002156 mixing Methods 0.000 claims description 21
- 230000003993 interaction Effects 0.000 claims description 15
- 230000006870 function Effects 0.000 description 498
- 230000003902 lesion Effects 0.000 description 218
- 238000012549 training Methods 0.000 description 130
- 238000010191 image analysis Methods 0.000 description 128
- 230000015654 memory Effects 0.000 description 105
- 238000005259 measurement Methods 0.000 description 92
- 238000004458 analytical method Methods 0.000 description 74
- 230000010354 integration Effects 0.000 description 68
- 238000001514 detection method Methods 0.000 description 62
- 238000013503 de-identification Methods 0.000 description 61
- 238000003384 imaging method Methods 0.000 description 60
- 239000013598 vector Substances 0.000 description 60
- 238000003860 storage Methods 0.000 description 54
- 238000012552 review Methods 0.000 description 53
- 230000008859 change Effects 0.000 description 38
- 238000010586 diagram Methods 0.000 description 30
- 230000008439 repair process Effects 0.000 description 30
- 230000001815 facial effect Effects 0.000 description 28
- 230000002159 abnormal effect Effects 0.000 description 26
- 238000004422 calculation algorithm Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 24
- 238000012360 testing method Methods 0.000 description 20
- 210000003484 anatomy Anatomy 0.000 description 19
- 238000003745 diagnosis Methods 0.000 description 18
- 238000000275 quality assurance Methods 0.000 description 17
- 230000005540 biological transmission Effects 0.000 description 16
- 238000002591 computed tomography Methods 0.000 description 16
- 238000003062 neural network model Methods 0.000 description 16
- 230000006854 communication Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 15
- 239000000203 mixture Substances 0.000 description 14
- 238000002595 magnetic resonance imaging Methods 0.000 description 13
- 238000013507 mapping Methods 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 11
- 238000002372 labelling Methods 0.000 description 11
- 238000011156 evaluation Methods 0.000 description 10
- 206010028980 Neoplasm Diseases 0.000 description 9
- 230000002547 anomalous effect Effects 0.000 description 9
- 201000011510 cancer Diseases 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 9
- 239000003973 paint Substances 0.000 description 9
- 238000005067 remediation Methods 0.000 description 8
- 210000003109 clavicle Anatomy 0.000 description 7
- 230000036210 malignancy Effects 0.000 description 7
- 206010054107 Nodule Diseases 0.000 description 6
- 230000002411 adverse Effects 0.000 description 6
- 230000036961 partial effect Effects 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 238000001574 biopsy Methods 0.000 description 5
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 210000003128 head Anatomy 0.000 description 5
- 238000012800 visualization Methods 0.000 description 5
- 206010017076 Fracture Diseases 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000007596 consolidation process Methods 0.000 description 4
- 239000002872 contrast media Substances 0.000 description 4
- 238000002059 diagnostic imaging Methods 0.000 description 4
- 201000010099 disease Diseases 0.000 description 4
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 210000001165 lymph node Anatomy 0.000 description 4
- 238000011022 operating instruction Methods 0.000 description 4
- 208000037821 progressive disease Diseases 0.000 description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 3
- 208000006029 Cardiomegaly Diseases 0.000 description 3
- 229910052688 Gadolinium Inorganic materials 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 210000004087 cornea Anatomy 0.000 description 3
- 238000002790 cross-validation Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000002349 favourable effect Effects 0.000 description 3
- UIWYJDYFSGRHKR-UHFFFAOYSA-N gadolinium atom Chemical compound [Gd] UIWYJDYFSGRHKR-UHFFFAOYSA-N 0.000 description 3
- 230000003211 malignant effect Effects 0.000 description 3
- 230000000873 masking effect Effects 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000000844 transformation Methods 0.000 description 3
- 238000009966 trimming Methods 0.000 description 3
- 238000002604 ultrasonography Methods 0.000 description 3
- 206010007572 Cardiac hypertrophy Diseases 0.000 description 2
- 206010014561 Emphysema Diseases 0.000 description 2
- 241000282412 Homo Species 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 206010003246 arthritis Diseases 0.000 description 2
- 230000002308 calcification Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000008602 contraction Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013479 data entry Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 239000003102 growth factor Substances 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 208000024891 symptom Diseases 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000014616 translation Effects 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000011179 visual inspection Methods 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 206010008111 Cerebral haemorrhage Diseases 0.000 description 1
- 206010016042 Facial bones fracture Diseases 0.000 description 1
- 206010021034 Hypometabolism Diseases 0.000 description 1
- 241000208125 Nicotiana Species 0.000 description 1
- 235000002637 Nicotiana tabacum Nutrition 0.000 description 1
- 208000018737 Parkinson disease Diseases 0.000 description 1
- 208000003837 Second Primary Neoplasms Diseases 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000011976 chest X-ray Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000007621 cluster analysis Methods 0.000 description 1
- 230000001351 cycling effect Effects 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000011157 data evaluation Methods 0.000 description 1
- 238000001739 density measurement Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- JXSJBGJIGXNWCI-UHFFFAOYSA-N diethyl 2-[(dimethoxyphosphorothioyl)thio]succinate Chemical group CCOC(=O)CC(SP(=S)(OC)OC)C(=O)OCC JXSJBGJIGXNWCI-UHFFFAOYSA-N 0.000 description 1
- 230000009365 direct transmission Effects 0.000 description 1
- 206010013663 drug dependence Diseases 0.000 description 1
- 206010015037 epilepsy Diseases 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 210000003054 facial bone Anatomy 0.000 description 1
- 238000011049 filling Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000012010 growth Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000033001 locomotion Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000010008 shearing Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000000391 smoking effect Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000002560 therapeutic procedure Methods 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
- A61B5/0004—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
- A61B5/0013—Medical image data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
- A61B5/0015—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
- A61B5/0022—Monitoring a patient using a global network, e.g. telephone networks, internet
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5217—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/56—Details of data transmission or power supply, e.g. use of slip rings
- A61B6/563—Details of data transmission or power supply, e.g. use of slip rings involving image data transmission via a network
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
- G06F3/04855—Interaction with scrollbars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
- G06T7/0016—Biomedical image inspection using an image reference approach involving temporal comparison
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H15/00—ICT specially adapted for medical reports, e.g. generation or transmission thereof
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2576/00—Medical imaging apparatus involving image processing or analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/7435—Displaying user selection data, e.g. icons in a graphical user interface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20101—Interactive definition of point of interest, landmark or seed
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Theoretical Computer Science (AREA)
- Biomedical Technology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Molecular Biology (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Artificial Intelligence (AREA)
- High Energy & Nuclear Physics (AREA)
- Physiology (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Psychiatry (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- Fuzzy Systems (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Pulmonology (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
Abstract
医療スキャン映像閲覧システムは、医療ピクチャアーカイブシステムから第1の医療スキャン映像および第2の医療スキャン映像を受信することであって、第1の医療スキャン映像は、一意の患者IDおよび第1のスキャン日付に関連付けられ、第2の医療スキャン映像は、一意の患者IDおよび第2のスキャン日付に関連付けられている、受信することと、第1の医療スキャン映像における解剖学的ランドマークの場所を識別することと、第2の医療スキャン映像における解剖学的ランドマークの対応する場所を識別することと、第1の医療スキャン映像における解剖学的ランドマークの場所と第2の医療スキャン映像における解剖学的ランドマークの対応する場所とに基づいて、第1の医療スキャン映像を第2の医療スキャン映像と相互位置合わせすることと、インタラクティブユーザインターフェースを介して、表示するために、第1の医療スキャン映像を第2の医療スキャン映像とともに提示することであって、第1の医療スキャン映像および第2の医療スキャン映像は、相互位置合わせすることに基づいて同期して提示される、提示することと、を行うように構成されている。
【選択図】図14D
【選択図】図14D
Description
連邦政府による資金提供を受けた研究または開発の記載
該当なし。
該当なし。
技術分野
本発明は、概して、クライアント/サーバネットワークアーキテクチャとともに使用される医療撮像デバイスおよび知識ベースシステムに関する。
本発明は、概して、クライアント/サーバネットワークアーキテクチャとともに使用される医療撮像デバイスおよび知識ベースシステムに関する。
本米国実用特許出願は、2017年5月25日に出願された「MEDICAL SCAN ASSISTED REVIEW SYSTEM AND METHODS」と題する米国仮特許出願第62/511,150号に対する米国特許法第119条(e)による優先権を主張する、2017年6月20日に出願された「MEDICAL SCAN ASSISTED REVIEW SYSTEM」と題する米国実用特許出願第15/627,644号に関連し、また、2018年11月21日に出願された「LESION TRACKING SYSTEM」と題する米国仮特許出願第62/770,334号に対する米国特許法第119条(e)による優先権を主張する、2019年3月14日に出願された「LESION TRACKING SYSTEM」と題する米国実用特許出願第16/353,935号にも関連しており、これらのすべては、その全体が参照により本明細書に組み込まれ、すべての目的のために本米国実用特許出願の一部をなす。
種々の実施形態によれば、医療スキャン映像閲覧システムは、ネットワークインターフェースと、プロセッサを含む処理システムとを含む。メモリデバイスは、実行可能命令を記憶し、実行可能命令は、処理システムによって実行されると、ネットワークインターフェースを介して、医療ピクチャアーカイブシステムから第1の医療スキャン映像および第2の医療スキャン映像を受信することであって、第1の医療スキャン映像は、第1の一意の患者IDおよび第1のスキャン日付に関連付けられ、第2の医療スキャン映像は、第1の一意の患者IDおよび第1のスキャン日付よりも最近の第2のスキャン日付に関連付けられ、第1の医療スキャン映像は、第1の複数の画像スライスを含み、第2の医療スキャン映像は、第2の複数の画像スライスを含む、受信することと、第1の医療スキャン映像における複数の解剖学的ランドマークの場所を識別することと、第2の医療スキャン映像における複数の解剖学的ランドマークの対応する場所を識別することと、第1の医療スキャン映像における複数の解剖学的ランドマークの場所と第2の医療スキャン映像における複数の解剖学的ランドマークの対応する場所とに基づいて、第1の医療スキャン映像を第2の医療スキャン映像と相互位置合わせすることと、インタラクティブユーザインターフェースを介して、表示するために、第1の医療スキャン映像を第2の医療スキャン映像とともに提示することであって、第1の医療スキャン映像および第2の医療スキャン映像は、相互位置合わせすることに基づいて同期して提示される、提示することと、を含み得る動作を実行するようにプロセッサを構成する。
種々の実施形態によれば、医療スキャン映像閲覧システムは、ネットワークインターフェースと、プロセッサを含む処理システムとを含む。メモリデバイスは、実行可能命令を記憶し、実行可能命令は、処理システムによって実行されると、ネットワークインターフェースを介して、医療ピクチャアーカイブシステムから医療スキャン映像を受信することと、インタラクティブユーザインターフェースを介して表示するために医療スキャン映像を提示することと、インタラクティブユーザインターフェースを介して、医療スキャン映像における異常または他の特徴を自動的にセグメント化するコマンドを受信することと、インタラクティブユーザインターフェースを介して受信されたコマンドに応答して、異常または他の特徴を含むスキャン映像内の領域を識別するために医療スキャン映像を自動的にセグメント化することと、を含み得る動作を実行するようにプロセッサを構成する。
種々の実施形態によれば、医療スキャン映像閲覧システムは、ネットワークインターフェースと、プロセッサを含む処理システムとを含む。メモリデバイスは、実行可能命令を記憶し、実行可能命令は、処理システムによって実行されると、ネットワークインターフェースを介して、医療ピクチャアーカイブシステムから医療スキャン映像を受信することと、インタラクティブユーザインターフェースを介して表示するために医療スキャン映像を提示することと、インタラクティブユーザインターフェースを介して表示するためにグリッドを提示することであって、グリッドは、医療スキャン映像上に重ねられる、提示することと、インタラクティブユーザインターフェースを介して、医療スキャン映像のセグメント化に対応する選択データを受信することであって、セグメント化は、異常を含む医療スキャン映像内の領域を識別し、選択データは、異常を含む医療スキャン映像内の領域を集合的に識別する、グリッドの複数の要素を識別する、受信することと、を含み得る動作を実行するようにプロセッサを構成する。
種々の実施形態によれば、医療スキャン映像閲覧システムは、ネットワークインターフェースと、プロセッサを含む処理システムとを含む。メモリデバイスは、実行可能命令を記憶し、実行可能命令は、処理システムによって実行されると、ネットワークインターフェースを介して、医療ピクチャアーカイブシステムから医療スキャン映像を受信することであって、医療スキャン映像は、複数の画像スライスを含む、受信することと、複数の画像スライスのうち、異常が及ぶ画像スライスの範囲を識別することと、画像スライスの範囲のサブセットを選択することと、サブセットの各個々の画像スライスをセグメント化して、異常を含む個々の画像スライス内の領域を識別することであって、セグメント化することは、複数のアンカーポイントを識別することを含む、識別することと、連続する画像スライスペアの複数のアンカーポイントに基づくブレンド動作によって、サブセットにおける各連続する画像スライスペア間で、画像の範囲の中間画像スライスを自動的にセグメント化することであって、中間スライスの各々のセグメント化は、異常を含む中間画像スライスの各々における領域を識別する、セグメント化することと、を含み得る動作を実行するようにプロセッサを構成する。
図1は、医療スキャン映像処理システム100を提示しており、有線および/または無線ネットワーク150を介して1つ以上のクライアントデバイス120と双方向に通信する1つ以上の医療スキャンサブシステム101を含み得る。医療スキャンサブシステム101は、医療スキャン支援レビューシステム102、医療スキャン映像レポートラベリングシステム104、医療スキャン映像注釈付けシステム106、医療スキャン映像診断システム108、医療スキャンインターフェース特徴評価システム110、医療スキャン画像分析システム112、医療スキャン映像自然言語分析システム114、および/または医療スキャン映像比較システム116を含み得る。サブシステム101の一部または全部は、例えば、ネットワーク150に接続された共有サーバの同一のセット上で動作する、同じ処理デバイス、メモリデバイス、および/またはネットワークインターフェースを利用することができる。代替として、または加えて、サブシステム101の一部または全部は、それら自体の処理デバイス、メモリデバイス、および/またはネットワークインターフェースを割り当てられ、これらは、例えば、ネットワーク150に接続されたサーバの異なるセット上で別個に動作する。サブシステム101の一部または全部は、互いに直接対話することができ、例えば、1つのサブシステムの出力が、ネットワーク150を介して別のサブシステムへの入力として直接送信される。ネットワーク150は、1つ以上の無線および/または有線通信システム、1つ以上の非公衆イントラネットシステムおよび/または公衆インターネットシステム、および/または1つ以上のローカルエリアネットワーク(LAN)および/または広域ネットワーク(WAN)を含み得る。
医療スキャン映像処理システム100は、データベースストレージシステム140をさらに含み得、データベースストレージシステム140は、ネットワーク150に接続された1つ以上のサーバ、1つ以上のサブシステム101の1つ以上のメモリデバイス、および/または1つ以上の他のメモリデバイスを含み得る。データベースストレージシステム140は、本明細書で説明されるようなデータベースエントリを含む1つ以上のメモリデバイス上に記憶された、1つ以上の共有データベースおよび/または1つ以上のファイルを記憶することができる。共有データベースおよび/またはファイルはそれぞれ、医療スキャン映像処理システムのサブシステムの一部または全部によって利用することができ、これにより、サブシステムおよび/またはクライアントデバイスの一部または全部が、1つ以上のデータベースおよび/またはファイルへのエントリを取り出し、編集し、追加し、または削除することが可能となる。
1つ以上のクライアントデバイス120はそれぞれ、医療スキャン映像処理システムの1つ以上のサブシステムの1人以上のユーザに関連付けることができる。クライアントデバイスのうちの一部または全部は、病院もしくは他の医療機関に関連付けられ得、かつ/または、例えば、医療機関のうちの1つ以上に位置する医療専門家、従業員、もしくは他の個々のユーザに関連付けられ得る。クライアントデバイス120のうちの一部は、医療スキャン映像処理システムの1つ以上のサブシステムの1人以上の管理者に対応することができ、管理者が、担当する1つ以上のサブシステムの機能を管理、監督、またはオーバーライドすることを可能にする。
医療スキャン映像処理システム100のサブシステム101の一部または全部は、クライアントデバイス120のブラウザを介して操作するためのウェブサイトを提示するサーバを含み得る。代替として、または加えて、各クライアントデバイスは、一部または全部のサブシステム、例えば、クライアントデバイスのメモリ内のユーザに関連するサブシステムのサブセットに対応するアプリケーションデータを記憶することができ、クライアントデバイスのプロセッサは、メモリ内に記憶されたインターフェースデータ内の命令に基づいて、インタラクティブインターフェースを表示することができる。例えば、サブシステムによって提示されるウェブサイトは、アプリケーションを介して操作することができる。提示されるウェブサイトの一部または全部は、複数のサブシステムに対応することができ、例えば、複数のサブシステムは、ウェブサイトを提示するサーバを共有する。さらに、ネットワーク150は、データベースストレージシステムに記憶されたデータ、ならびに医療スキャンサブシステム101と、クライアントデバイス120と、データベースストレージシステム140との間で通信されるデータを不正アクセスから保護するために、医療スキャンサブシステム101と、クライアントデバイス120と、データベースストレージシステム140との間の安全かつ/または認証された通信のために構成することができる。
医療スキャン支援レビューシステム102を使用して、選択された医療スキャン映像の医療スキャン映像データおよび/または選択されたインターフェース特徴のインターフェース特徴データを、クライアントデバイスの表示デバイスを介して表示するために医療スキャン支援レビューシステムのユーザに対応するクライアントデバイス120に送信することによって、ユーザによるレビューのために医療スキャン映像を提示することで、医療スキャン映像を診断し、トリアージし、分類し、ランク付けし、かつ/または別様でレビューする際に、医療専門家または他のユーザを支援することができる。医療スキャン支援レビューシステム102は、スキャン映像レビューデータを提供するためのプロンプトに応答して表示デバイスによって表示されたインタラクティブインターフェースへのユーザ入力に基づいて、医療スキャン映像のためのスキャン映像レビューデータを生成することができ、ここで例えば、プロンプトは、1つ以上のインターフェース特徴に対応する。
医療スキャン支援レビューシステム102は、ネットワークを介して、レビューのための医療スキャン映像を受信するように動作可能であり得る。異常注釈データは、複数の訓練医療スキャン映像上で訓練されたコンピュータビジョンモデルを利用することによって、医療スキャン映像における1つ以上の異常を識別することによって生成することができる。異常注釈データは、複数の異常の各々についての場所データおよび分類データ、ならびに/またはスキャン画像データにおける異常の可視化を容易にするデータを含み得る。異常データに基づいて、複数の異常の各々を説明するテキストを含むレポートデータが生成される。可視化およびレポートデータは、集合的に表示される注釈データとすることができ、クライアントデバイスに送信することができる。クライアントデバイスに関連付けられた表示デバイスは、インタラクティブインターフェースを介して医療スキャン映像と併せて可視化を表示することができ、表示デバイスはさらに、インタラクティブインターフェースを介してレポートデータを表示することができる。
種々の実施形態では、時系列データ、例えば医療スキャン映像または類似スキャン映像の時系列データ433の1つ以上の追加のスキャン映像は、自動的に、またはユーザ入力を介して時系列データを閲覧することを選択するユーザに応答して、医療スキャン映像と併せて表示することができる。例えば、医療スキャン支援レビューシステムは、自動的に、またはユーザが過去の患者データを閲覧することを選択したことに応答して、患者データベースまたは医療スキャン映像データベースから患者の以前のスキャン映像または将来のスキャン映像を取り出すことができる。1つ以上の以前のスキャン映像は、現在の医療スキャン映像に隣接する1つ以上の対応するウィンドウに表示することができる。例えば、ユーザは、表示するために、時系列データから過去のスキャン映像を選択することができる。代替として、または加えて、ユーザは、経過した時間量、スキャンタイプ、最新の、および/または最新でないスキャン映像を選択すること、将来のスキャン映像を選択すること、スキャン映像に最も近い日付のスキャン映像を選択すること、または他の基準などの時系列パラメータを選択することができ、医療スキャン支援レビューシステムは、時系列パラメータと最も有利に比較される以前のスキャン映像を自動的に選択することができる。選択された追加のスキャン映像は、現在の医療スキャン映像と並んで隣接するウィンドウに表示することができる。一部の実施形態では、複数の追加のスキャン映像が選択され、複数の隣接するウィンドウに表示することができる。
種々の実施形態では、医療スキャン映像の画像スライス412を表示する第1のウィンドウと、選択された追加のスキャン映像の画像スライスを表示する隣接する第2のウィンドウとは、医療スキャン映像の現在表示されているスライス412に対応すると判定された画像スライス412を表示する。選択された類似の医療スキャン映像のスライスを表示のために選択することに関して説明したように、これは、一致するスライス番号を有する画像スライスを選択することに基づいて、現在のスキャン映像の現在表示されているスライスに対応する解剖学的領域に最も密接に一致する画像スライスを自動的に決定することに基づいて、かつ/または現在表示されているスライスと最も類似する異常のビューを有する以前のスキャン映像におけるスライスを決定することに基づいて、達成することができる。ユーザは、単一のスクロールバーまたは他の単一のユーザ入力指示を使用して、異なる画像スライスにジャンプすることができ、複数のウィンドウは、同じ番号の画像スライスを同時に表示することができ、または異なるスライス番号が最初に表示されている場合、同じ数のスライスだけスクロールまたはジャンプすることができる。一部の実施形態では、医療スキャン映像および2つ以上の追加のスキャン映像に対応する3つ以上の隣接するウィンドウが表示され、これらはすべて、単一のスクロールバーを用いて同様に制御することができる。
医療スキャン支援レビューシステム102は、異常場所データなどの異常データに基づいて、識別された以前の異常の状態を自動的に検出することができる。識別された異常の以前の検出された状態は、それらの対応するウィンドウにおいて、円で囲まれ、強調表示され、または別様に示すことができる。医療スキャン支援レビューシステム102は、医療スキャン映像データベース342から以前のスキャン映像にマッピングされた類似の異常の異常注釈データ442を取り出すことによって、以前の異常の状態についての分類データを取り出すことができる。このデータは、以前のスキャン映像に割り当てられなくてもよく、医療スキャン支援レビューシステムは、考察したような医療スキャン画像分析システムを利用することによって、以前の医療スキャン映像に対する分類または他の診断データを自動的に決定することができる。代替として、または加えて、以前のスキャン映像についての異常分類データ445または他の診断データ440の一部または全部に、現在のスキャン映像について決定された異常分類データまたは他の診断データに基づいて決定された値を割り当てることができる。かかる以前のスキャン映像について決定された異常分類データ445または他の診断データ440は、データベース内の以前のスキャン映像にマッピングされ得、かつ/または時系列データ433にマッピングされ得、かつ/またはネットワークを介して責任エンティティに送信され得る。
医療支援レビューシステムは、サイズ、体積、悪性腫瘍の変化、または異常の種々の分類器に対する他の変化などの状態変化データを自動的に生成することができる。これは、1つ以上の以前のスキャン映像および現在のスキャン映像の画像データを自動的に比較することによって、かつ/または以前のスキャン映像の異常データを現在のスキャン映像の異常データと比較することによって、達成することができる。一部の実施形態では、かかるメトリックは、医療スキャン映像類似性分析機能を利用することによって計算することができ、例えば、類似性スコアなどの医療スキャン映像類似性分析機能の出力は、1つ以上の異常分類器カテゴリ444および/または異常パターンカテゴリ446における距離、誤差、または他の測定された不一致を示す。各カテゴリにおけるこの計算された距離、誤差、または他の測定された不一致を用いて、状態変化データを定量化し、1つ以上のカテゴリにおける新しい分類器を示し、特定のカテゴリがより深刻になったか、またはより深刻でなくなったかを判定し、あるいは別様で異常が経時的にどのように変化したかを判定することができる。種々の実施形態では、このデータは、1つのウィンドウ内に表示することができ、例えば、異常のサイズの増加は、以前の異常の対応する画像スライス上に現在の異常の輪郭をオーバーレイまたは強調することによって示され、逆もまた同様である。複数の過去のスキャン映像が利用可能である種々の実施形態では、かかる状態変化データを経時的に決定することができ、例えば、経時的な成長速度変化または経時的な悪性腫瘍変化を示し、成長速度が経時的に低下しているかまたは悪化しているかどうかを示す統計データを生成することができる。複数の過去のスキャン映像に対応する画像スライスは、順に表示することができ、例えば、第1のスクロールバーは、ユーザが画像スライス番号間でスクロールすることを可能にし、第2のスクロールバーは、ユーザが同じ画像スライス間で経時的にスクロールすることを可能にする。種々の実施形態では、異常データ、ヒートマップデータ、または他のインターフェース特徴は、過去の画像データの画像スライスと併せて表示される。
医療スキャン映像レポートラベリングシステム104を使用して、医療スキャン映像レポートラベリングシステム104のユーザによって識別された、医療スキャン映像の医療スキャン映像レポートにおける自然テキストデータのユーザ識別キーワード、フレーズ、または他の関連する病状用語に基づいて、医療コードを医療スキャン映像に自動的に割り当てることができる。医療スキャン映像レポートラベリングシステム104は、表示のために、自然言語テキストを含む医療レポートを第1のクライアントデバイスに送信するように動作可能であり得る。識別された病状用語データは、それに応答して第1のクライアントデバイスから受信され得る。医療ラベルエイリアスデータベース内のエイリアスマッピングペアは、エイリアスマッピングペアの病状用語が、識別された病状用語データと有利に比較されると判定することによって識別することができる。エイリアスマッピングペアに対応する医療コードおよび医療レポートに対応する医療スキャン映像は、表示のためにエキスパートユーザの第2のクライアントデバイスに送信することができ、それに応答して、精度データを第2のクライアントデバイスから受信することができる。医療コードが医療スキャン映像と有利に比較されることを精度データが示した場合、医療コードは、医療スキャン映像データベース内の第1の医療スキャン映像にマッピングされる。
医療スキャン映像注釈付けシステム106を使用して、放射線医または他の医療専門家などのシステムのユーザによる医療スキャン画像データのレビューに基づいて、医療スキャン映像の注釈を収集することができる。例えば、病院または他のトリアージエンティティからトリアージされた注釈を必要とする医療スキャン映像を、医療スキャン映像注釈付けシステム106によって選択された複数のユーザに送信することができる。また、複数の医療専門家から受信した注釈は、医療スキャン映像注釈付けシステムの処理システムによって自動的に処理することができ、それにより、医療スキャン映像注釈付けシステムが各医療スキャン映像のコンセンサス注釈を自動的に決定することが可能となる。さらに、ユーザの注釈がコンセンサス注釈、または例えば、真のフラグを割り当てられた医療スキャン映像の注釈に対応した他の何らかの真の注釈にどれほど密接に一致するかに基づいて、医療スキャン映像注釈付けシステムによってユーザに自動的にスコア付けすることができる。ユーザは、その全体的なスコアに基づいて、かつ/または入力医療スキャン映像の識別されたカテゴリに対応する分類されたスコアに基づいて、後続の入力医療スキャン映像に注釈を付すために自動的に割り当てられることができる。
医療スキャン映像注釈付けシステム106は、インタラクティブインターフェースを介して表示するために、第1のクライアントデバイスおよび第2のクライアントデバイスにネットワークを介して送信するための医療スキャン映像を選択するように動作可能であり得る。それに応答して、注釈データは、第1のクライアントデバイスおよび第2のクライアントデバイスから受信することができる。注釈類似性データは、第1の注釈データを第2の注釈データと比較することによって生成することができる。コンセンサス注釈データは、第1の注釈データと第2の注釈データとの間の差が注釈不一致閾値と有利に比較されることを示す注釈類似性データに応答して、第1の注釈データおよび第2の注釈データに基づいて生成することができる。コンセンサス注釈データは、医療スキャン映像データベース内の医療スキャン映像にマッピングすることができる。
医療スキャン映像診断システム108は、病院、医療専門家、または他の医療エンティティによって使用され、コンピュータビジョン技術および/または自然言語処理技術を利用することによって、所与の医療スキャン映像についての推論データを自動的に生成することができる。この自動的に生成された推論データを使用して、医療スキャン映像データベース内の対応する医療スキャンエントリの診断データまたは他の対応するデータを生成および/または更新することができる。医療スキャン映像診断システムは、ネットワーク150を介してデータベースストレージシステム140と通信することによって、医療スキャン映像データベース、ユーザデータベース、および/もしくは医療スキャン映像分析機能データベースを利用することができ、かつ/またはローカルメモリに記憶された別の医療スキャン映像データベース、ユーザデータベース、および/もしくは機能データベースを利用することができる。
医療スキャン映像診断システム108は、医療スキャン映像を受信するように動作可能であり得る。医療スキャン映像の診断データは、医療スキャン映像に対して医療スキャン映像推論機能を実行することによって生成することができる。第1の医療スキャン映像は、医療スキャン映像が非正常な診断に対応することを示す診断データに応答して、医療スキャン映像診断システムのユーザに関連付けられた第1のクライアントデバイスに送信することができる。医療スキャン映像は、第1のクライアントデバイスに対応する表示デバイスによって表示されるインタラクティブインターフェースを介して、ユーザに表示することができる。レビューデータは、第1のクライアントデバイスから受信することができ、このレビューデータは、インタラクティブインターフェースを介したプロンプトに応答して第1のクライアントデバイスによって生成される。更新済み診断データは、レビューデータに基づいて生成することができる。更新済み診断データは、要求元のエンティティに関連付けられた第2のクライアントデバイスに送信することができる。
医療スキャンインターフェース特徴評価システム110を使用して、インタラクティブインターフェースの提案されたインターフェース特徴または現在使用されているインターフェース特徴を評価し、1つ以上のサブシステム101の医療専門家または他のユーザによるレビューのために医療スキャン映像を提示することができる。医療スキャンインターフェース特徴評価システム110は、順序付けられた医療スキャン映像のセットの各々とともに表示されるユーザインターフェース特徴のセットを選択することによって、順序付けられた画像-プロンプトマッピングを生成するように動作可能であり得る。医療スキャン映像のセットおよび順序付けられた画像-プロンプトマッピングは、クライアントデバイスのセットに送信することができる。一連の応答は、ユーザインターフェースを介して順序付けられた画像-プロンプトマッピングにおいて示されるマッピングされたユーザインターフェース特徴に関連して、医療スキャン映像のセットの各々を順次表示することに応答して、各クライアントデバイスによって生成され得る。応答スコアデータは、各応答を、対応する医療スキャン映像の真の注釈データと比較することによって生成することができる。各ユーザインターフェース特徴に対応するインターフェース特徴スコアデータは、応答スコアデータを集計することに基づいて生成することができ、かつ、ユーザインターフェース特徴のセットのランキングを生成するために使用される。
医療スキャン画像分析システム112を使用して、既知の注釈データ、診断データ、ラベリングおよび/または医療コードデータ、レポートデータ、患者病歴データ、患者リスク因子データ、および/または医療スキャン映像に関連付けられた他のメタデータを有する医療スキャン映像の訓練セットに対してコンピュータビジョンベースの学習アルゴリズム1350を利用することで、1つ以上の医療スキャン画像分析機能を生成および/または実行することができる。これらの医療スキャン画像分析機能を使用して、トリアージされた、あるいは別様で推論された注釈データ、診断データ、ラベリングおよび/または医療コードデータ、および/またはレポートデータを必要とする、新しい医療スキャン映像の推論データを生成することができる。例えば、一部の医療スキャン画像分析機能は、医療スキャン映像診断システムの医療スキャン映像推論機能または医療スキャン映像分析機能データベースの他の医療スキャン映像分析機能に対応し得る。医療スキャン画像分析機能を使用して、医療スキャン映像が正常であるか否かを判定し、医療スキャン映像の1つ以上のスライスにおける異常の場所を検出し、かつ/または検出された異常を特徴付けることができる。医療スキャン画像分析システムは、本明細書に記載される医療スキャン映像処理システムの他のサブシステムによって利用されるコンピュータビジョンベースの医療スキャン画像分析機能を生成および/または実行するために使用することができ、医療専門家が患者を診断すること、および/または医療スキャン映像を特徴付けるためのさらなるデータおよびモデルを生成することを支援する。医療スキャン画像分析システムは、プロセッサを含む処理システムと、処理システムによって実行されると動作の実行を容易にする実行可能命令を記憶するメモリとを含み得る。
医療スキャン画像分析システム112は、複数の医療スキャン映像を受信するように動作可能であり得、この複数の医療スキャン映像は、三次元解剖学的領域を表し、複数の断面画像スライスを含む。複数の医療スキャン映像の各々に対応する複数の三次元サブ領域は、各医療スキャン映像から複数の断面画像スライスの適切なサブセットを選択し、さらに断面画像スライスの各適切なサブセットから二次元サブ領域を選択することによって生成することができる。ニューラルネットワークを生成するために、複数の三次元サブ領域に対して学習アルゴリズムを実行することができる。ネットワークを介して受信された新しい医療スキャン映像に対応する推論データは、ニューラルネットワークを利用して新しい医療スキャン映像に対して推論アルゴリズムを実行することによって生成することができる。推論された異常は、推論データに基づいて、新しい医療スキャン映像において識別することができる。
医療スキャン映像自然言語分析システム114は、真のデータであると判定された医療コードを用いて、医療スキャン映像の訓練セットを決定することができる。医療スキャン映像に関連付けられた対応する医療レポートおよび/または他の自然言語テキストデータを利用して、医療レポート自然言語モデルを生成することにより、医療スキャン映像自然言語分析機能を訓練することができる。医療スキャン映像自然言語分析機能を利用して、対応する医療コードを自動的に決定するために、他の医療スキャン映像のための入力医療レポートについての推論データを生成することができる。対応する医療コードは、対応する医療スキャン映像にマッピングすることができる。医療レポート自然言語モデルを利用することにより医療スキャン映像に割り当てられた医療コードは、例えば、他の医療スキャン映像分析機能を訓練するために、他のサブシステムによって利用することができ、他のサブシステムを介して提供された注釈を検証するための真のデータとして使用することができ、診断を支援することができ、または別様で、本明細書に記載される他のサブシステムによって使用することができる。
医療スキャン映像比較システム116は、1つ以上のサブシステムによって利用されて、類似の医療スキャン映像を識別および/または表示し、例えば、医療スキャン映像類似性分析機能のための機能パラメータを実行または決定し、類似のスキャン映像データを生成または取り出し、あるいは別様で医療スキャン映像データを比較することができる。医療スキャン映像比較システム116はまた、本明細書に説明されるような他のサブシステムの一部または全部の特徴を利用することができる。医療スキャン映像比較システム116は、ネットワークを介して医療スキャン映像を受信するように動作可能であり得、類似スキャン映像データを生成することができる。類似スキャン映像データは、医療スキャン映像データベースからの医療スキャン映像のサブセットを含むことができ、医療スキャン映像類似性分析機能などの異常類似性機能を実行することによって生成され、医療スキャン映像のサブセットに含まれる異常のセットが医療スキャン映像で識別された異常と有利に比較されることを判定することができる。医療スキャン映像とともに医療スキャン映像比較システムのユーザに関連付けられた表示デバイス上に表示するために、医療スキャン映像のサブセットの各医療スキャン映像から少なくとも1つの断面画像を選択することができる。
図2Aは、クライアントデバイス120の一実施形態を提示している。各クライアントデバイス120は、1つ以上のクライアント処理デバイス230、1つ以上のクライアントメモリデバイス240、1つ以上のクライアント入力デバイス250、ネットワーク150を介した1つ以上の通信リンクを間接的および/または直接的にさらにサポートするように動作可能な1つ以上のクライアントネットワークインターフェース260、および/または1つ以上のクライアント表示デバイス270を含み得、これらはバス280を介して接続されている。クライアントアプリケーション202、204、206、208、210、212、214、および/または216は、医療スキャン映像処理システムのサブシステム102、104、106、108、110、112、114、および/または116にそれぞれ対応する。各クライアントデバイス120は、1つ以上のメモリデバイス240に記憶するために、ネットワークインターフェース260を利用することによって、ネットワーク150を介して対応するサブシステムからアプリケーションデータを受信することができる。種々の実施形態では、一部または全部のクライアントデバイス120は、本明細書で説明されるような1つ以上のサブシステムの放射線医、医療エンティティ、または他のユーザに関連付けられたコンピューティングデバイスを含み得る。
1つ以上の処理デバイス230は、クライアントアプリケーション102、104、106、108、110、112、114、および/または116のうちの1つ以上に従って、1つ以上のクライアント表示デバイス270上にインタラクティブインターフェース275を表示することができる。例えば、異なるインタラクティブインターフェース275が、対応するサブシステム202、204、206、208、210、212、214、および/または216によって提示されたウェブサイトに従って、クライアントアプリケーションの一部または全部について表示される。ユーザは、1つ以上のクライアント入力デバイス250を介して、インタラクティブインターフェースによって提示されるメニューデータまたは他のプロンプトに応答して入力を提供することができる。1つ以上のクライアント入力デバイス250は、マイクロフォン、マウス、キーボード、表示デバイス270自体のタッチスクリーンもしくは他のタッチスクリーン、および/またはユーザがインタラクティブインターフェースと対話することを可能にする他のデバイスを含み得る。1つ以上の処理デバイス230は、ネットワークインターフェース260を利用して、ネットワーク150を介して医療スキャン映像処理システムの1つ以上のサブシステムおよび/またはデータベースと双方向に通信することによって、入力データを処理し、かつ/または未処理のもしくは処理済みの入力データを対応するサブシステムに送信し、かつ/またはそれに応じてインタラクティブインターフェース275を介した提示のために新しいデータを受信および/または生成することができる。
図2Bは、サブシステム102、104、106、108、110、112、114および/または116とともに利用され得るサブシステム101の一実施形態を提示している。各サブシステム101は、バス285を介して接続された1つ以上のサブシステム処理デバイス235、1つ以上のサブシステムメモリデバイス245、および/または1つ以上のサブシステムネットワークインターフェース265を含み得る。サブシステムメモリデバイス245は、本明細書の各サブシステムについて説明されるように、1つ以上のサブシステム処理デバイス235によって実行されると、サブシステム101による動作の実行を容易にする実行可能命令を記憶することができる。
図3は、データベースストレージシステム140の一実施形態を提示している。データベースストレージシステム140は、少なくとも1つのデータベース処理デバイス330、少なくとも1つのデータベースメモリデバイス340、および少なくとも1つのデータベースネットワークインターフェース360を含むことができ、これらは、ネットワーク150を介して間接的および/または直接的に1つ以上の通信リンクをさらにサポートするように動作可能であり、すべてバス380を介して接続されている。データベースストレージシステム140は、少なくとも1つのメモリ340に1つ以上のデータベースを記憶することができ、少なくとも1つのメモリ340には、複数の医療スキャンエントリ352を含む医療スキャン映像データベース342、複数のユーザプロファイルエントリ354を含むユーザデータベース344、複数の医療スキャン映像分析機能エントリ356を含む医療スキャン映像分析機能データベース346、複数のインターフェース特徴エントリ358を含むインターフェース特徴データベース348、および/またはサブシステム101によって生成および/または利用されるデータを記憶する他のデータベースが含まれ得る。データベース342、344、346および/または348の一部または全部は、複数のデータベースから構成することができ、関連付けて、または関連付けずに記憶することができ、本明細書に記載されるものとは異なる種類のエントリおよび異なるマッピングを含み得る。データベースエントリは、リレーショナルテーブル内のエントリまたは非リレーショナル構造内のエントリを含み得る。エントリ352、354、356、および/または358のデータ属性の一部または全部は、エントリ自体に含まれるデータ、またはエントリに含まれる識別子に別様にマッピングされるデータを指すことができ、エントリの所与の識別子に基づいてデータベースストレージシステム140から取り出し、追加し、修正し、または削除することができる。データベース342、344、346、および/または348の一部または全部は、代わりに、例えば、それらが1つのサブシステムのみによって利用される場合、対応するサブシステムによってローカルに記憶することができる。
処理デバイス330は、少なくとも1つのメモリデバイス340に記憶された各データベースに対する読み出し/書き込みパーミッションに基づいて、ネットワーク150を介してサブシステムおよび/またはクライアントデバイスから受信される読み出し/書き込み要求を容易にすることができる。異なるサブシステムは、サブシステムの機能に基づいて、各データベースに対して異なる読み出し/書き込みパーミッションを割り当てられ得る。異なるクライアントデバイス120は、各データベースに対して異なる読み出し/書き込みパーミッションを割り当てられ得る。1つ以上のクライアントデバイス120は、データベースストレージシステムによって記憶された1つ以上のデータベースの1人以上の管理者に対応することができる。データベース管理者デバイスは、インタラクティブインターフェース275を介したクライアントデバイスへの入力に基づいて、1つ以上の割り当てられたデータベースを管理し、評価および/または効率を監督し、パーミッションを編集し、あるいは別様でデータベースプロセスを監督することができる。
図4Aは、医療スキャン映像データベース342に記憶され、医療スキャン映像のメタデータに含まれ、かつ/または別様で医療スキャン映像に関連付けられた医療スキャンエントリ352の一実施形態を提示している。医療スキャン映像は、人体、動物、生物、または物体の解剖学的領域のCTスキャン映像、X線、MRI、PETスキャン映像、超音波、EEG、マンモグラム、または他のタイプの放射線スキャン映像もしくは医療スキャン映像に対応する撮像データを含み得、撮像データに対応するメタデータをさらに含み得る。医療スキャンエントリの一部または全部は、医療におけるデジタル撮像および通信(DICOM:Digital Imaging and Communications in Medicine)フォーマットまたは他の標準化された画像フォーマットに従ってフォーマット化することができる。医療スキャンエントリ352のフィールドの一部または複数は、医療スキャン映像のDICOMヘッダまたは他の標準化されたヘッダに含めることができる。医療スキャン映像は、レビュー待ちであるか、または1人以上のユーザもしくは自動プロセスによって既にレビューされている場合がある。医療スキャン映像は、サブシステムによって自動的に生成され、ユーザ入力に基づいて生成され、かつ/または別のソースから生成された仮診断データを含み得る。一部の医療スキャン映像は、サブシステムによって生成され、かつ/またはユーザ入力に基づいて生成され、かつ/または別のソースから生成された最終的な既知の診断データを含み得る。また、一部の医療スキャン映像は、医療スキャン画像分析システム112および/または医療スキャン映像自然言語分析システム114などの1つ以上のサブシステムによって使用されるプロセスを訓練するために使用される訓練セットに含めることができる。
一部の医療スキャン映像は、ユーザによって識別され得るか、または自動的に識別され得る、1つ以上の異常を含み得る。異常には、結節、例えば胸部CTスキャン映像で同定される悪性結節が含まれ得る。異常はまた、例えば、胸部X線において同定される、心肥大、硬化、滲出、肺気腫、および/または骨折などの1つ以上の異常パターンカテゴリを含み得、かつ/またはそれらによって特徴付けられ得る。異常はまた、正常でないと識別された医療スキャン映像の任意の他の未知の悪性または良性の特徴を含み得る。一部のスキャン映像は、0の異常を含み得、正常スキャン映像として識別され得る。正常スキャン映像として識別される一部のスキャン映像は、良性として分類される識別された異常を含み得、未知または悪性のいずれかとして分類される0の異常を含み得る。正常スキャン映像として識別されるスキャン映像は、1つ以上のサブシステムおよび/または発信元エンティティによって検出されなかった異常を含み得る。したがって、一部のスキャン映像は、不適切に正常として識別される場合がある。同様に、少なくとも1つの異常を含むと識別されたスキャン映像は、1つ以上のサブシステムおよび/または発信元エンティティによって不適切に異常として検出された少なくとも1つの異常を含み得る。したがって、一部のスキャン映像は、異常を含むものとして不適切に識別される可能性がある。
各医療スキャンエントリ352は、それ自体の医療スキャン映像識別子353によって識別することができ、医療スキャン画像データ410、ならびにスキャン映像分類器データ420、患者病歴データ430、診断データ440、注釈作成者データ450、信頼スコアデータ460、表示パラメータデータ470、類似スキャン映像データ480、訓練セットデータ490、および/または医療スキャン映像に関連する他のデータなどのメタデータを含むか、または別様でそれにマッピングすることができる。医療スキャンエントリ352に含まれるデータの一部または全部は、例えば、医療スキャン支援レビューシステム102、医療スキャン映像レポートラベリングシステム104、および/または医療スキャン映像注釈付けシステム106とともに、診断データ440を生成または編集する際にユーザを支援するために使用することができる。医療スキャンエントリ352に含まれるデータの一部または全部を使用して、医療スキャン映像レポートラベリングシステム104および/または医療スキャン映像診断システム108の自動化された部分など、1つ以上のサブシステム101が、診断データ440または医療スキャン映像の他のデータを自動的に生成および/または編集することを可能にすることができる。医療スキャンエントリ352に含まれるデータの一部または全部を使用して、例えば、医療スキャン画像分析システム112、医療スキャン映像自然言語分析システム114、および/または医療スキャン映像比較システム116とともに、1つ以上の医療スキャン画像分析機能、1つ以上の医療スキャン映像自然言語分析機能、1つ以上の医療スキャン映像類似性分析機能、1つ以上の医療レポートジェネレータ機能、および/または1つ以上の医療レポート分析機能など、医療スキャン映像分析機能データベース346の一部または全部の医療スキャン映像分析機能を訓練することができる。
本明細書に記載される医療スキャンエントリ352および関連データはまた、医療スキャン映像データベースによって記憶されない、例えば、サブシステムへの直接送信のためにクライアントデバイスによってアップロードされる医療スキャン映像に関連するデータ、サブシステムによって生成され、別のサブシステムへの入力として使用されるかまたはクライアントデバイスに直接送信されるデータ、医療スキャン映像処理システム100と通信するピクチャアーカイブ通信システム(PACS:Picture Archive and Communication System)によって記憶されるデータ、または医療スキャン映像データベース342に記憶されることなく受信および/または生成される医療スキャン映像に関連する他のデータを指すことができる。例えば、医療スキャンエントリ352に関して説明される構造およびデータ属性の一部または全部はまた、医療スキャン映像に対応するサブシステムおよび/またはクライアントデバイスによって生成され、かつ/またはそれらの間で送信される、データオブジェクトまたは他のデータの構造および/またはデータ属性に対応し得る。本明細書では、医療スキャンエントリ352に関して説明されるデータ属性のいずれも、サブシステムもしくはクライアントデバイスによって生成されたデータオブジェクトから抽出されたデータ、または医療スキャン映像に対応するネットワーク150を介してサブシステム、クライアントデバイス、もしくは他のソースから別様に受信されたデータに対応することもできる。
医療スキャン画像データ410は、医療スキャン映像に対応する1つ以上の画像を含み得る。医療スキャン画像データ410は、例えば、単一のX線画像、CTスキャン映像などのスキャン映像の複数の断面断層画像、または同一もしくは異なる角度で同一もしくは異なる点から撮影された任意の複数の画像に対応する1つ以上の画像スライス412を含み得る。医療スキャン画像データ410はまた、1つ以上の画像スライス412の順序を示すことができる。本明細書では、「医療スキャン映像」は、医療スキャン画像データ410によって表される任意のタイプの完全なスキャン映像を指すことができる。本明細書では、「画像スライス」は、医療スキャン画像データ410の複数の断面画像のうちの1つ、医療スキャン画像データ410の異なる角度から撮影された複数の画像のうちの1つ、および/または1つの画像のみを含む医療スキャン画像データ410の単一の画像を指すことができる。さらに、「複数の画像スライス」は、関連する医療スキャン映像の画像のすべてを指すことができ、医療スキャン画像データ410が1つの画像のみを含む場合、単一の画像のみを指す。各画像スライス412は、画像スライスの各ピクセルにマッピングされた複数のピクセル値414を含み得る。各ピクセル値は、ハウンズフィールド値または他の密度の測定値などの密度値に対応し得る。ピクセル値はまた、グレースケール値、RGB(赤色-緑色-青色)もしくは他の色値、または画像スライス412の各ピクセルによって記憶された他のデータに対応し得る。
スキャン映像分類器データ420は、医療スキャン映像の分類データを示すことができる。スキャン映像分類器データは、例えば、スキャン映像のモダリティを示すスキャンタイプデータ421を含み得る。スキャン映像分類器データは、スキャン映像がCTスキャン映像、X線、MRI、PETスキャン映像、超音波、EEG、マンモグラム、または他のタイプのスキャン映像であることを示すことができる。スキャン映像分類器データ420はまた、解剖学的領域データ422を含み得、解剖学的領域データ422は、例えば、スキャン映像が胸部、頭部、右膝、または他の解剖学的領域のスキャン映像であることを示す。スキャン映像分類器データはまた、スキャン映像が撮影された病院および/またはスキャン映像をシステムにアップロードしたユーザを示す、発信元エンティティデータ423を含み得る。発信元エンティティデータが1つ以上のサブシステム101のユーザに対応する場合、発信元エンティティデータは、対応するユーザプロファイル識別子を含み得、かつ/またはユーザのユーザプロファイルエントリ354からの他のデータを含み得る。スキャン映像分類器データ420は、地理的領域データ424を含み得、地理的領域データ424は、例えば、発信元エンティティに基づいてユーザデータベース344から取り出されたユーザデータに基づいて、スキャン映像が発信された都市、州、および/または国を示す。スキャン映像分類器データはまた、機械データ425を含み得、機械データ425は、例えば、発信元エンティティデータ423に基づいてユーザデータベース344から取り出された撮像機械データに基づく、機械識別子データ、機械モデルデータ、機械較正データ、および/または造影剤データを含み得る。スキャン映像分類器データ420は、スキャン映像が行われたときを示すスキャン日付データ426を含み得る。スキャン映像分類器データ420は、スキャン優先度データ427を含み得、スキャン優先度データ427は、優先度スコア、ランキング、キュー内の数、またはトリアージおよび/もしくはレビューに関する他の優先度データを示し得る。スキャン優先度データ427の優先度スコア、ランキング、またはキュー数は、スキャン優先度データ427に基づいて、リスク因子データ432における患者の症状または他の指標の重症度に基づいて、発信元エンティティに対応する優先度に基づいて、スキャン映像について以前に生成された診断データ440に基づいて、サブシステムによって自動的に生成することができ、かつ/または発信元エンティティおよび/またはシステムのユーザによって割り当てることができる。
スキャン映像分類器データ420は、図4Aに示されていない他の分類データを含み得る。例えば、スキャン映像のセットは、異なる撮像面に対応する医療スキャン画像データ410を含み得る。スキャン映像分類器データは、画像データに対応する1つ以上の撮像面を示す撮像面データをさらに含み得る。例えば、撮像面データは、スキャン映像がアキシャル面、サジタル面、またはコロナル面に対応することを示すことができる。単一の医療スキャンエントリ352は、複数の平面に対応する医療スキャン画像データ410を含むことができ、これらの平面の各々は、画像データ内で適切にタグ付けされ得る。他の実施形態では、各平面に対応する医療スキャン画像データ410は、例えば、これらのエントリが同じスキャン映像セットに属することを示す共通の識別子とともに、別個の医療スキャンエントリ352として記憶することができる。
代替として、または加えて、スキャン映像分類器データ420は、シーケンシングデータを含み得る。例えば、スキャン映像のセットは、異なるシーケンスに対応する医療スキャン画像データ410を含み得る。スキャン映像分類器データは、画像データの複数のシーケンスのうちの1つ以上が対応することを示すシーケンシングデータをさらに含み、例えば、MRIスキャン映像がT2シーケンス、T1シーケンス、コントラストを有するT1シーケンス、拡散シーケンス、FLAIRシーケンス、または他のMRIシーケンスに対応するかどうかを示すことができる。単一の医療スキャンエントリ352は、複数のシーケンスに対応する医療スキャン画像データ410を含むことができ、これらのシーケンスの各々は、エントリ内で適切にタグ付けされ得る。他の実施形態では、各シーケンスに対応する医療スキャン画像データ410は、例えば、これらのエントリが同じスキャン映像セットに属することを示す共通の識別子とともに、別個の医療スキャンエントリ352として記憶することができる。
代替として、または加えて、スキャン映像分類器データ420は、画質スコアを含み得る。このスコアは、1つ以上のサブシステム101によって自動的に決定することができ、かつ/または医療スキャン映像に手動で割り当てることができる。画質スコアは、画像データ410の解像度に基づくことができ、より高い解像度の画像データには、より低い解像度の画像データよりも好ましい画質スコアが割り当てられる。画質スコアは、画像データ410が、対応する撮像機械から直接受信したデジタル化画像データに対応するか、または後にスキャンインされた画像データのハードコピーに対応するかに基づくことができる。一部の実施形態では、画質スコアは、検出された破損、および/または医療スキャン映像の取り込み中および/または医療スキャン映像の取り込み後に画像データの品質に悪影響を及ぼすと判定された検出された外部因子に基づくことができる。一部の実施形態では、画質スコアは、画像データ内の検出されたノイズに基づくことができ、検出されたノイズのレベルが高い医療スキャン映像は、検出されたノイズのレベルが低い医療スキャン映像よりも好ましくない画質スコアを受け取ることができる。この判定された破損または外部因子を伴う医療スキャン映像は、破損または外部因子が検出されない医療スキャン映像よりも好ましくない画質スコアを受け取る可能性がある。
一部の実施形態では、画質スコアは、機械データ425に基づき得る。一部の実施形態では、1つ以上のサブシステムは、画質スコアを利用して、画質閾値を下回る画質スコアを有する医療スキャン映像にフラグを立てることができる。画質閾値は、異なるサブシステム、医療スキャン映像モダリティ、および/または解剖学的領域について同じであっても異なっていてもよい。例えば、医療スキャン画像分析システムは、画質閾値と有利に比較される画質スコアを有する医療スキャン映像のみを選択することに基づいて、訓練セットを自動的にフィルタリングすることができる。別の例として、1つ以上のサブシステムは、画質閾値と不利に比較される画質スコアを有する医療スキャン映像の少なくとも閾値の数および/もしくは割合を生成した特定の撮像機械ならびに/または病院もしくは他の医療エンティティに、フラグを立てることができる。別の例として、画質スコアが画質閾値と不利に比較される場合、ノイズ除去アルゴリズムを自動的に利用して、画像データをクリーンにすることができる。別の例として、医療スキャン画像分析システムは、医療画像分析機能のセットから特定の医療画像分析機能を選択して医療スキャン映像上で利用して、医療スキャン映像に関する推論データを生成することができる。この医療画像分析機能のセットの各々は、異なるレベルの画質に対して訓練することができ、選択された画像分析機能は、決定された画質スコアが、画像分析機能が訓練され、かつ/または別様で好適である画質スコアの範囲内に入ることに基づいて選択することができる。
患者病歴データ430は、患者識別子データ431を含み得、患者識別子データ431は、患者の機密性、年齢、および/または性別を保護するために匿名化され得る名前または識別子などの基本的な患者情報を含み得る。患者識別子データ431はまた、データベースストレージシステムによって記憶されるか、または他の場所に記憶される別個の患者データベース内の患者エントリにマッピングすることができる。患者病歴データは、患者リスク因子データ432を含み得、患者リスク因子データ432は、以前の医療履歴、家族の医療履歴、喫煙および/または薬物の習慣、タバコ使用量に対応するパック年数(pack year)、環境曝露、患者症状などを含み得る。患者病歴データ430はまた、時系列データ433を含み得、時系列データ433は、例えば患者識別子データ431に基づいて取り出された、または患者識別子データ431に別様にマッピングされた、患者に対応する1つ以上の追加の医療スキャン映像を識別することができる。一部または全部の追加の医療スキャン映像は、医療スキャン映像データベースに含まれ得、それらの対応する識別子である医療スキャン映像識別子353に基づいて識別され得る。一部または全部の追加の医療スキャン映像は、異なるソースから受信することができ、別様で識別することができる。代替として、または加えて、時系列データは、単に、1つ以上の追加的な医療スキャン映像に対応する医療スキャンエントリ352の一部または全部の関連するスキャンエントリデータを含み得る。追加の医療スキャン映像は、同じタイプのスキャン映像または異なるタイプのスキャン映像であり得る。追加のスキャン映像の一部または全部は、過去の医療スキャン映像に対応してもよく、かつ/または追加のスキャン映像の一部もしくは全部は、将来の医療スキャン映像に対応してもよい。時系列データ433はまた、最終生検データ、または診断データ440の一部もしくは全部など、スキャン映像後の日付で受信および/または決定されたデータを含み得る。患者病歴データはまた、時系列品質スコア434を含み得る。時系列品質スコア434は、例えば、追加の医療スキャン映像の数に基づいて、医療スキャン映像および追加の医療スキャン映像のスキャン日付データ426に基づくスキャン映像の前および/または後にファイル内の追加のスキャン映像のうちのいくつが撮影されたかに基づいて、最も早いスキャン映像に対応しかつ最も遅いスキャン映像に対応する日付範囲に基づいて、これらのスキャン映像のスキャンタイプデータ421に基づいて、かつ/あるいは生検もしくは他の最終データが含まれるか否かに基づいて、サブシステムによって自動的に計算することができる。本明細書で使用される場合、「高い」時系列品質スコアは、「低い」時系列品質スコアを有するものよりも好ましい時系列データを有するスキャン映像を指す。
診断データ440は、自動診断、仮診断を示すデータ、および/または医療専門家もしくは他のユーザによる医療診断、トリアージ、医療評価および/または他のレビューをサポートするために別様で使用され得るデータを含み得る。医療スキャン映像の診断データ440は、バイナリ異常識別子441を含み得、バイナリ異常識別子441は、スキャン映像が正常であるかまたは少なくとも1つの異常を含むかを示す。一部の実施形態では、バイナリ異常識別子441は、信頼スコアデータ460の一部または全部を閾値と比較することによって決定することができ、確率値を閾値と比較することによって決定することができ、かつ/またはスキャン映像が1つ以上の異常を含む計算された尤度を示す別の連続値または離散値を閾値と比較することによって決定することができる。一部の実施形態では、非バイナリ値、例えばスキャン映像が1つ以上の異常を含む尤度を示す1つ以上の連続値または離散値を、バイナリ異常識別子441に加えて、またはその代わりに診断データ440に含めることができる。診断データ440によって1つ以上の異常を識別することができ、識別された各異常は、それ自体の異常注釈データ442のセットを含み得る。代替的に、診断データ440の一部または全部は、複数の異常を示し、かつ/または記述することができるため、異常注釈データ442内の各異常については提示されない。例えば、診断データ440のレポートデータ449は、すべての識別された異常を記述することができるため、単一のレポートを診断に含めることができる。
図4Bは、異常注釈データ442の一実施形態を提示している。各異常についての異常注釈データ442は、異常場所データ443を含み得、異常場所データ443は、解剖学的場所および/またはピクセルに固有の場所、画像スライス、座標または医療スキャン映像自体の領域を識別する他の場所情報を含み得る。異常注釈データ442は、異常分類データ445を含み得る。異常分類データ445は、全体として異常のバイナリデータ、定量的データ、および/もしくは記述的データを含み得、または1つ以上の異常分類器カテゴリ444に対応することができる。異常分類器カテゴリ444は、サイズ、体積、前後コントラスト、倍加時間、石灰化、成分、平滑度、棘状突起形成、小葉形成、球形度、内部構造、テクスチャ、または異常を分類および/もしくは別様で特徴付けることができる他のカテゴリを含み得る。異常分類器カテゴリ444には、かかるカテゴリが存在するか否かを示すバイナリ値を割り当てることができる。例えば、このバイナリ値は、信頼スコアデータ460の一部もしくは全部を閾値と比較することによって決定することができ、確率値を閾値と比較することによって決定することができ、かつ/または対応する異常分類器カテゴリ444が存在する計算された尤度を示す別の連続的もしくは離散的な値を、各異常分類器カテゴリ444について同一もしくは異なる閾値であり得る閾値と比較することによって決定することができる。一部の実施形態では、異常分類器カテゴリ444には、1つ以上の非バイナリ値、例えば対応する分類器カテゴリ444が存在する尤度を示す1つ以上の連続値または離散値を割り当てることができる。
異常分類器カテゴリ444はまた、悪性腫瘍カテゴリを含み得る。異常分類データ445は、Lung-RADSスコア、Fleischnerスコア、ならびに/または悪性腫瘍レベル、悪性腫瘍重症度、および/もしくは悪性腫瘍の確率を示す1つ以上の計算値などの悪性腫瘍評価を含み得る。代替として、または加えて、悪性腫瘍カテゴリは、「はい(yes)」、「いいえ(no)」、または「おそらく(maybe)」の値を割り当てられ得る。異常分類器カテゴリ444はまた、心肥大、圧密、滲出、肺気腫、および/または骨折などの異常パターンカテゴリ446を含むことができ、各異常パターンカテゴリ446に対する異常分類データ445は、異常パターンの各々が存在するか否かを示すことができる。
異常分類器カテゴリは、固形腫瘍における応答評価基準(RECIST:Response Evaluation Criteria in Solid Tumors)適格性および/またはRECIST評価カテゴリに対応し得る。例えば、RECIST適格性に対応する異常分類器カテゴリ444は、バイナリ値「はい」もしくは「いいえ」を示す対応する異常分類データ445を有することができ、かつ/または異常が「標的病変」および/もしくは「非標的病変」であるかどうかを示すことができる。別の例として、RECIST評価カテゴリに対応する異常分類器カテゴリ444は、時系列データ433に基づいて決定することができ、対応する異常分類データ445を有することができる。対応する異常分類データ445には、可能な値のセット「完全奏効」、「部分奏効」、「安定疾患」、または「進行性疾患」のうちの1つが含まれる。
診断データ440全体、および/または各異常についての異常注釈データ442は、バイナリ異常識別子441、異常場所データ443、および/または1つ以上の異常分類器カテゴリ444の異常分類データ445の一部もしくは全部を識別するカスタムコードまたはデータタイプを含み得る。代替として、または加えて、各異常についての異常注釈データ442および/または他の診断データ440の一部または全部は、DICOMフォーマットもしくは他の標準化された画像注釈フォーマットで提示することができ、かつ/または元々DICOMフォーマットで提示された異常注釈データに基づいてカスタムデータタイプに抽出することができる。代替として、または加えて、各異常についての診断データ440および/または異常注釈データ442は、SNOMEDコード、Current Procedure Technology(CPT)コード、ICD-9コード、ICD-10コード、または医療スキャン映像をラベル付けするか、もしくは別様で記述するために使用される他の標準化医療コードなどの1つ以上の医療コード447として、提示することができる。
代替として、または加えて、診断データ440は、医療スキャン映像を全体として注釈するかもしくは別様で記述する自然言語テキストデータ448を含み得、かつ/または異常注釈データ442は、各対応する異常を注釈するかもしくは別様で記述する自然言語テキストデータ448を含み得る。一部の実施形態では、診断データ440の一部または全部は、自然言語テキストデータ448としてのみ提示される。一部の実施形態では、診断データ440の一部または全部は、例えば、医療スキャン画像データ410を利用することなく、例えば、医療スキャン映像自然言語分析システム114によって訓練された1つ以上の医療スキャン映像自然言語分析機能を利用することで、自然言語テキストデータ448に基づいて1つ以上のサブシステムによって自動的に生成される。代替として、または加えて、一部の実施形態、自然言語テキストデータ448の一部または全部は、例えば、医療スキャン映像自然言語分析システム114によって訓練された医療スキャン映像自然言語生成機能を利用することによって、異常注釈データ442などの他の診断データ440に基づいて自動的に生成される。
診断データは、少なくとも1つの医療レポートを含むレポートデータ449を含むことができ、これは、医療コード447の一部もしくは全部、自然言語テキストデータ448の一部もしくは全部、他の診断データ440、表示パラメータデータ470および/またはそれへのリンクに基づいてフォーマット化された完全もしくはトリミングされた画像スライス、類似スキャン映像データ480の類似スキャン映像および/またはそれへのリンクに基づく完全またはトリミングされた画像スライスまたは他のデータ、時系列データ433および/またはそれへのリンクなどの患者病歴データ430に基づく完全またはトリミングされた画像または他のデータ、および/または医療スキャン映像および関連する異常を記述するデータへの他のデータまたはリンクを含むように、フォーマット化することができる。診断データ440はまた、患者の将来のスキャン映像および/または将来の診断に対応する最終的な診断データ、例えば、スキャン映像後に続いて決定される生検データまたは他の時系列データ433を含み得る。レポートデータ449の医療レポートは、フォント、テキストサイズ、ヘッダデータ、箇条書きまたは番号付けタイプ、マージン、ファイルタイプ、1つ以上の完全またはトリミングされた画像スライス412を含めるための選好性、類似の医療スキャン映像を含めるための選好性、追加の医療スキャン映像を含めるための選好性、または自然言語テキストデータおよび/もしくは画像データをリストするための他のフォーマッティングなどの指定されたフォーマッティングパラメータに基づいて、例えば、発信元エンティティデータ423に示されたユーザまたは対応するレポートフォーマッティングデータにおける他の責任ユーザの選好性に基づいて、フォーマット化することができる。
注釈作成者データ450は、各異常の診断データにマッピングすることができ、かつ/または全体としてスキャン映像にマッピングすることができる。これは、1つ以上の注釈作成者識別子451を含み得、注釈作成者識別子451は、システムを使用する個々の医療専門家、医療施設、および/または医療エンティティなどのシステムのユーザの1つ以上のユーザプロファイル識別子を含み得る。注釈作成者データ450を使用して、ユーザプロファイルエントリ354の使用データを決定することができる。注釈作成者データ450はまた、診断データの一部もしくは全部を自動的に生成するおよび/または生成する際にユーザを支援する責任を負うサブシステムの1つ以上の機能または他のプロセスを示す1つ以上の医療スキャン映像分析機能識別子357または他の機能識別子を含み得る。これは、例えば、診断データ440の一部もしくは全部を生成するために使用された医療スキャン映像診断システム108によって使用される医療スキャン画像分析機能の特定のタイプおよび/またはバージョンの識別子、ならびに/あるいは診断データ440の入力および/またはレビューを容易にするためにユーザに提示される1つ以上のインターフェース特徴を示すインターフェース特徴識別子である。注釈作成者データは、診断データ440の1つ以上の部分について、この部分が人間によって生成されたか、または医療スキャン映像処理システムのサブシステムによって自動的に生成されたかを単純に示すこともできる。
一部の実施形態では、医療スキャン映像が複数のエンティティによってレビューされた場合、複数の別個の診断データエントリ440を医療スキャンエントリ352に含め、注釈作成者データ450内の各診断作成者にマッピングすることができる。これにより、複数のエンティティから受信される診断データ440の異なるバージョンが可能となる。例えば、特定の医療スキャン映像の注釈作成者データは、注釈データが医療エンティティAの医師によって書かれ、医療コードデータが医療スキャン映像レポートラベリングシステム104を利用することでユーザYによって生成され、これがエキスパートユーザXによって確認されたことを示すことができる。別の医療スキャン映像の注釈作成者データは、医療コードが胸部X線に関する医療スキャン画像分析機能のバージョン7を利用することによって自動的に生成され、エキスパートユーザXによって確認されたことを示すことができる。別の医療スキャン映像の注釈作成者データは、場所および第1の悪性評価が胸部X線に関する医療スキャン画像分析機能のバージョン7を利用することによって自動的に生成され、第2の悪性評価がユーザZによって入力されたことを示すことができる。一部の実施形態では、複数の診断エントリのうちの1つは、例えば、複数の診断データ440に基づいて、複数の診断データ440の各々の信頼スコアデータ460に基づいて、かつ/あるいは複数の診断データ440の各々の対応する1つの注釈作成者データ内で識別された対応するユーザの性能スコアデータ、医療スキャン映像分析機能、またはインターフェース特徴に基づいて、医療スキャン映像注釈付けシステム106などのサブシステムによって自動的に生成されたコンセンサス注釈データを含むことが可能である。
信頼スコアデータ460は、各異常について、かつ/またはスキャン映像全体について、診断データ440の一部または全部にマッピングすることができる。これは、診断についての全体的な信頼スコア、スキャン映像が正常であったか否かのバイナリインジケータについての信頼スコア、検出された異常の場所についての信頼スコア、および/または異常分類器データの一部もしくは全部についての信頼スコアを含み得る。これは、例えば、注釈作成者データと、1人以上の識別されたユーザの対応する性能スコアおよび/または注釈作成者データによって示されるインタラクティブインターフェースタイプまたは医療スキャン画像分析機能などのサブシステム属性とに基づいて、サブシステムによって自動的に生成され得る。複数の診断データエントリ440が異なるソースから含まれる場合、信頼スコアデータ460は、各エントリについて計算することができ、かつ/または、例えば、コンセンサス診断データに対応する全体的な信頼スコアは、計算された距離または他の誤差および/またはエントリ間の不一致に基づくことができ、かつ/または各エントリの信頼スコアデータ460に対して重み付けすることができる。種々の実施形態では、信頼スコアデータ460は、診断データが「既知」または「真」であるとみなされることを示す真のフラグ461を含むことができ、これは例えば、ユーザ入力に基づいてフラグが立てられ、作成者データに基づいて自動的にフラグが立てられ、かつ/または信頼スコアデータの計算された信頼スコアが真の閾値を超えることに基づいて自動的にフラグが立てられる。本明細書で使用される場合、「高い」信頼スコアは、「低い」信頼スコアよりも高い程度またはより好ましいレベルの信頼度を指す。
表示パラメータデータ470は、インタラクティブインターフェース275による医療スキャン映像の最適なまたは好ましい表示を示すパラメータ、および/または各異常についておよび/またはスキャン映像全体についてフォーマット化されたレポートを示すことができる。表示パラメータデータの一部または全部は、例えば、異常注釈データ442に基づいてサブシステム101によって自動的に生成される、各異常に対する別個のエントリを有することができる。表示パラメータデータ470は、インタラクティブインターフェース特徴データ471を含み得る。インタラクティブインターフェース特徴データ471は、例えば、分類されたインターフェース特徴性能スコアデータならびに異常および/または医療スキャン映像自体に関連付けられたカテゴリに基づいて、異常の表示および/もしくは全体としての医療スキャン映像の表示に関連付けられた1つ以上の選択されたインターフェース特徴、ならびに/または医療スキャン映像とのユーザインタラクションに関連付けられた選択されたインターフェース特徴を示すことができる。表示パラメータデータは、スライスサブセット472を含むことができ、これは、複数の画像スライスの選択されたサブセットを示すことができる。このサブセットは、ユーザインターフェースによる表示のための医療スキャン画像データ410の単一の画像スライス412または複数の画像スライス412を含む。表示パラメータデータ470は、スライス順序データ473を含み得、スライス順序データ473は、スライスサブセット472について、または医療スキャン映像のスライス412のすべてについて、選択されたカスタム順序付けおよび/またはランク付けを示す。表示パラメータデータ470は、スライスサブセット472の一部もしくは全部、または医療スキャン映像の画像スライス412のすべてに対応するスライストリミングデータ474を含むことができ、表示のための各画像スライス412の選択されたカスタムトリミング領域、またはスライスサブセット472もしくはすべてのスライス412について同じ選択されたカスタムトリミング領域を示すことができる。表示パラメータデータは、密度ウィンドウデータ475を含むことができ、これは、医療スキャン映像全体の表示のための選択されたカスタム密度ウィンドウ、スライスサブセット472のための選択されたカスタム密度ウィンドウ、ならびに/またはスライスサブセット472の画像スライス412の各々のためのおよび/もしくは医療スキャン映像の各画像スライス412のための選択されたカスタム密度ウィンドウを示すことができる。密度ウィンドウデータ475は、選択された上限密度値のカットオフおよび選択された下限密度値のカットオフを示すことができ、かつ/または、好ましい密度ウィンドウに基づいてピクセルの各密度値をグレースケール値にマッピングするための選択された決定論的関数を含み得る。インタラクティブインターフェース特徴データ471、スライスサブセット472、スライス順序データ473、スライストリミングデータ474、および/または密度ウィンドウデータ475は、ユーザ入力を介して選択することができ、かつ/または、例えば異常注釈データ442に基づいて、かつ/もしくは異なるインタラクティブインターフェースバージョンの性能スコアデータに基づいて、1つ以上のサブシステム101によって自動的に生成することができる。
類似スキャン映像データ480は、各異常またはスキャン映像全体にマッピングすることができ、例えば、医療スキャン画像分析システム112の類似スキャン映像識別ステップを適用することによって、かつ/または医療スキャン映像の医療スキャンエントリに記憶されたデータの一部もしくは全部に、および/もしくは医療スキャン映像データベース内の他の医療スキャン映像の対応するデータの一部もしくは全部に医療スキャン映像類似性分析機能を適用することによって、例えば、サブシステム101によって自動的に識別された1つ以上の識別された類似医療スキャン映像に対応する類似スキャン映像識別子データ481を含み得る。類似スキャン映像データ480は、別のソースから受信された医療スキャン映像に対応することもできる。記憶された類似性データは、システムのユーザに類似症例を提示するために使用することができ、かつ/または医療スキャン画像分析機能もしくは医療スキャン映像類似性分析機能を訓練するために使用することができる。
各識別された類似医療スキャン映像は、それ自体のデータを有する医療スキャン映像データベース342内にそれ自体の医療スキャンエントリ352を有することができ、類似スキャン映像識別子データ481は、各類似医療スキャン映像の医療スキャン映像識別子353を含み得る。各識別された類似の医療スキャン映像は、医療スキャン映像と同じスキャンタイプまたは異なるスキャンタイプのスキャン映像であり得る。
類似スキャン映像データ480は、例えば、医療スキャン映像に関する医療スキャンエントリ352のデータの一部または全部に基づいて、かつ識別された類似医療スキャン映像に関する医療スキャンエントリ352の対応するデータの一部または全部に基づいて生成された、各識別された類似スキャン映像に関する類似性スコア482を含み得る。例えば、類似性スコア482は、医療スキャン映像類似性分析機能を医療スキャン映像および402の医療画像スキャン映像データに、医療スキャン映像および402の異常注釈データの一部もしくは全部に、かつ/またはリスク因子データ432などの医療スキャン映像および402の患者病歴データ430の一部もしくは全部に適用することに基づいて生成することができる。本明細書で使用される場合、「高い」類似性スコアは、「低い」類似性スコアよりも高いレベルの類似性を指す。
類似スキャン映像データ480は、それ自体の類似スキャン映像表示パラメータデータ483を含むことができ、これは、識別された類似医療スキャン映像の表示パラメータデータ470の一部または全部に基づいて決定することができる。類似スキャン映像表示パラメータデータ483の一部または全部は、例えば、識別された類似医療スキャン映像の表示パラメータデータ470に基づいて、医療スキャン映像自体の異常注釈データ442に基づいて、かつ/または医療スキャン映像自体の表示パラメータデータ470に基づいて、サブシステムによって自動的に生成することができる。したがって、類似スキャン映像表示パラメータデータ483は、識別された類似医療スキャン映像にマッピングされた表示パラメータデータ470と同じであっても異なっていてもよく、かつ/または医療スキャン映像自体の表示パラメータデータ470と同じであっても異なっていてもよい。これは、インタラクティブインターフェース275を介して類似スキャン映像をユーザに表示する際に利用することができ、かつ/または、例えば医療スキャン支援レビューシステム102とともに類似スキャン映像を含むレポートデータ449を生成する際に利用することができる。
類似スキャン映像データ480は、識別された類似医療スキャン映像の複数の異常のうちの1つおよびその対応する異常注釈データ442を示し得る類似スキャン映像異常データ484を含み得る。例えば、類似スキャン映像異常データ484は、医療スキャン映像の複数の異常のうちの1つを示し、例えば、類似の異常として識別された、識別された類似の医療スキャン映像の複数の異常のうちの1つを示す異常ペアを含み得る。
類似スキャン映像データ480は、類似スキャン映像フィルタデータ485を含み得る。類似スキャン映像フィルタデータは、サブシステムによって自動的に生成することができ、類似スキャン映像データ480のすべての識別された類似スキャン映像の、選択され、順序付けられたもしくは順序付けられていないサブセット、および/またはすべての識別された類似スキャン映像のランキングを含み得る。例えば、各類似性スコア482に基づいて、かつ/または各識別された類似医療スキャン映像の時系列品質スコア434などに基づく他の因子に基づいて、サブセットを選択することができ、かつ/または識別された類似スキャン映像の一部もしくは全部をランク付けすることができる。
訓練セットデータ490は、医療スキャン映像が属する1つ以上の訓練セットを示すことができる。例えば、訓練セットデータは、1つ以上の訓練セット識別子491を示すことができ、1つ以上の訓練セット識別子491は、その訓練セットにおいて医療スキャン映像を利用した1つ以上の医療スキャン映像分析機能を示し、かつ/またはその訓練セットにおいて医療スキャン映像を利用した1つ以上の医療スキャン映像分析機能の特定のバージョン識別子641を示す。訓練セットデータ490はまた、例えば、対応する医療スキャン映像分析機能のモデルパラメータデータ623に基づいて、医療スキャンエントリのどの部分が訓練セットによって利用されたかを示すことができる。例えば、訓練セットデータ490は、医療スキャン画像データ410が胸部X線医療スキャン画像分析機能のバージョンXを訓練するために利用された訓練セットに含まれていたこと、またはこの医療スキャン映像の自然言語テキストデータ448が自然言語分析機能のバージョンYを訓練するために使用されたことを示すことができる。
図5は、医療スキャン映像分析機能データベース346に記憶されるか、または別様で1つ以上のサブシステム101によって訓練および/もしくは利用される複数の医療スキャン映像分析機能のうちの1つに関連付けられた医療スキャン映像分析機能エントリ356の一実施形態を提示している。例えば、医療スキャン映像分析機能は、医療スキャン画像分析システム112によって訓練された1つ以上の医療スキャン画像分析機能と、医療スキャン映像自然言語分析システム114によって訓練された1つ以上の医療スキャン映像自然言語分析機能と、医療スキャン画像分析システム112、医療スキャン映像自然言語分析システム114、および/または医療スキャン映像比較システム116によって訓練された1つ以上の医療スキャン映像類似性分析機能と、医療スキャン映像自然言語分析システム114および/または医療スキャン画像分析システム112によって訓練された1つ以上の医療レポートジェネレータ機能、および/または医療スキャン映像自然言語分析システム114によって訓練された医療レポート分析機能と、を含み得る。医療スキャン映像分析機能の一部または全部は、医療スキャン映像診断システム108の医療スキャン映像推論機能、図8A~8Fに関連して考察されるような医療ピクチャアーカイブ統合システムによって利用される非識別化機能および/または推論機能、あるいは1つ以上のサブシステム101に関連して本明細書で説明する他の機能および/またはプロセスに対応し得る。各医療スキャン映像分析機能エントリ356は、医療スキャン映像分析機能識別子357を含み得る。
医療スキャン映像分析機能エントリ356は、機能分類器データ610を含み得る。機能分類器データ610は、機能に対応する入力および出力タイプを含み得る。例えば、機能分類器データは、どのタイプのスキャン映像が医療スキャン映像分析機能への入力として使用され得るかを示す入力スキャン映像カテゴリ611を含み得る。例えば、入力スキャン映像カテゴリ611は、医療スキャン映像分析機能が特定の病院または他の医療エンティティからの胸部CTスキャン映像に対するものであることを示し得る。入力スキャン映像カテゴリ611は、スキャン映像分類器データ420に含まれる1つ以上のカテゴリを含み得る。種々の実施形態では、入力スキャン映像カテゴリ611は、医療スキャン映像分析機能を訓練するために使用された医療スキャン映像のタイプに対応する。機能分類器データ610はまた、機能によって生成される出力のタイプを特徴付ける出力タイプデータ612を含み得、これは、例えば、医療スキャン映像分析機能が医療コード447を生成するために使用されることを示す。入力スキャン映像カテゴリ611はまた、どのサブシステム101が医療スキャン映像分析機能を実行する責任があるかを識別する情報を含み得る。
医療スキャン映像分析機能エントリ356は、訓練パラメータ620を含み得る。訓練パラメータ620は、訓練セットデータ621を含み得る。訓練セットデータ621は、医療スキャン映像分析機能を訓練するために使用される医療スキャン映像に対応する医療スキャン映像識別子353のセット、医療スキャン映像分析機能を訓練するために使用される医療スキャン映像に使用される対応する医療コードなどの、医療スキャン映像分析機能を訓練するために使用されるデータの識別子を含み得る。訓練セットの特定のスキャン映像を識別する代わりに、またはそれに加えて、訓練セットデータ621は、訓練セット基準を識別することができ、この訓練セット基準としては、例えば、必要なスキャン映像分類器データ420、必要な異常場所、分類器、または異常注釈データ442に対応する他の基準、例えば、真のフラグ461を割り当てられた診断データ440を有する、もしくは別様で訓練セット信頼スコア閾値と有利に比較される信頼スコアデータ460を有する医療スキャン映像のみが含まれることを示す必要な信頼スコアデータ460、含まれる医療スキャン映像の数、および異なる基準に対応する比率データ、または医療スキャン映像のデータで訓練セットをポピュレートするために使用される他の基準などが挙げられる。訓練パラメータ620は、訓練セット621を利用することによって医療スキャン映像分析機能を決定するために使用されるモデル、方法、および/または訓練機能の1つ以上のタイプを示すモデルタイプデータ622を含み得る。訓練パラメータ620は、モデルパラメータデータ623を含み得、モデルパラメータデータ623は、医療スキャン映像分析機能を訓練するために選択された訓練データの特徴のセット、選択された入力および出力特徴に対応する重みの決定値、モデル自体に対応するモデルパラメータの決定値などを含み得る。訓練パラメータデータはまた、試験データ624を含み得、試験データ624は、医療スキャン映像分析機能を試験するために使用される医療スキャン映像または他のデータの試験セットを識別することができる。試験セットは、訓練セット621のサブセットであってもよく、訓練セット621とは完全に別個のデータを含んでもよく、かつ/または訓練セット621と重複してもよい。代替として、または加えて、試験データ624は、試験のために訓練セットからランダムもしくは擬似ランダムに選択されるデータの割合などの検証パラメータ、交差検証プロセスを特徴付けるパラメータ、または試験に関する他の情報を含み得る。訓練パラメータ620はまた、例えば、試験データ624に示される交差検証を適用することに基づいて、医療スキャン映像分析機能に関連付けられた訓練エラーを示す訓練エラーデータ625を含み得る。
医療スキャン映像分析機能エントリ356は、性能スコアデータ630を含み得る。性能データは、例えば、新しいデータに対して実行された場合の機能の精度に基づいて生成および/または更新されるモデル精度データ631を含み得る。例えば、モデル精度データ631は、例えば、医療スキャン映像分析機能の出力を、サブシステム101と連動したインタラクティブインターフェース275へのユーザ入力によって生成された対応するデータと比較することによって生成された、かつ/または医療スキャン映像分析機能の出力を真のフラグ461を有する医療スキャン映像と比較することによって生成された、個々の使用について決定されたモデル誤差を含むか、またはそれに基づいて計算することができる。モデル精度データ631は、経時的な機能の個々の使用のモデル誤差に基づいて計算された集約モデル精度データを含み得る。性能スコアデータ630はまた、モデル効率データ632を含み得、モデル効率データ632は、医療スキャン映像分析機能がどれほど迅速に実行するか、医療スキャン映像分析機能によってどれほど多くのメモリが利用されるか、または医療スキャン映像分析機能に関連する他の効率データに基づいて、生成することができる。性能スコアデータ630の一部または全部は、訓練エラーデータ625または訓練および/もしくは検証中に決定された他の精度および/または効率データに基づき得る。本明細書で使用される場合、「高い」性能スコアは、「低い」性能スコアよりも好ましい性能または評価を指す。
医療スキャン映像分析機能エントリ356は、バージョンデータ640を含み得る。バージョンデータは、バージョン識別子641を含み得る。バージョンデータは、1つ以上の以前のバージョン識別子642を示すことができ、1つ以上の以前のバージョン識別子642は、機能の以前のバージョンに対応する他の医療スキャン映像分析機能エントリ356に記憶されたバージョン識別子641にマッピングすることができる。代替として、または加えて、バージョンデータは、機能分類器データ610に基づいて同じタイプの複数のバージョンを示すことができ、バージョンの対応する順序および/もしくはランクを示すことができ、かつ/または各バージョンに関連付けられた訓練パラメータ620を示すことができる。
医療スキャン映像分析機能エントリ356は、修復データ650を含み得る。修復データ650は、修復命令データ651を含み得、修復命令データ651は、修復が必要な場合に、医療スキャン映像分析機能がどのようにコミッションから外され、かつ/または以前のバージョンに戻されるかを示す修復プロセスにおけるステップを示すことができる。バージョンデータ640は、修復基準データ652をさらに含み得、修復基準データ652は、いつ修復が必要であるかを自動的に決定するために使用される閾値データまたは他の基準を含み得る。例えば、修復基準データ652は、モデル精度データおよび/またはモデル効率データが、示されたモデル精度閾値および/または示されたモデル効率閾値と不利に比較される場合、いつでも修復が必要であることを示すことができる。修復データ650はまた、医療スキャン映像分析機能を再コミッショニングし、かつ/または医療スキャン映像分析機能を更新するために必要な基準を識別する、再コミッショニング命令データ653を含み得る。修復データ650はまた、医療スキャン映像分析機能がコミッションから外されたおよび/または再コミッショニングされた1つ以上のインスタンスを示す修復履歴を含み得る。
図6Aおよび6Bは、医療スキャン映像診断システム108の一実施形態を提示している。医療スキャン映像診断システム108は、ローカルに記憶されて実行され、別のサブシステム101によって記憶されて実行され、かつ/または医療スキャン映像分析機能データベース346に記憶された医療スキャン映像推論機能1105のセットを利用することによって、医療スキャン映像に関する推論データ1110を生成することができる。ここで、機能および/または機能のパラメータは、医療スキャン映像診断システムによってデータベースから取り出すことができる。例えば、医療スキャン映像推論機能1105のセットは、本明細書に記載される医療スキャン映像分析機能の一部もしくは全部、または医療スキャンエントリ352の一部もしくは全部のデータなどの医療スキャン映像に対応するデータの一部もしくは全部に基づいて推論データ1110を生成する他の機能を含み得る。このセット内の各医療スキャン映像推論機能1105は、スキャン映像カテゴリ1120に対応することができ、スキャン映像カテゴリ1120と有利に比較される医療スキャン映像のセットに対して訓練することができる。例えば、各推論機能は、同一および/もしくは類似のスキャンタイプ、同一および/もしくは類似の解剖学的領域位置、同一および/もしくは類似の機械モデル、同一および/もしくは類似の機械較正、使用される同一および/もしくは類似の造影剤、同一および/もしくは類似の発信元エンティティ、同一および/もしくは類似の地理的領域の場所、ならびに/または他の分類器などの1つ以上の同じスキャン映像分類器データ420の医療スキャン映像のセットに対して訓練することができる。したがって、スキャン映像カテゴリ1120は、スキャンタイプ、スキャン映像解剖学的領域データ、病院もしくは他の発信元エンティティデータ、機械モデルデータ、機械較正データ、造影剤データ、地理的領域データ、および/または他のスキャン映像分類データ420のうちの1つ以上に対応し得る。例えば、第1の医療スキャン映像推論機能は、膝部X線を特徴付けることを対象とすることができ、第2の医療スキャン映像推論機能は、胸部CTスキャン映像を対象とすることができる。別の例として、第1の医療スキャン映像推論機能は、第1の病院からのCTスキャン映像を特徴付けることを対象とすることができ、第2の医療スキャン画像分析機能は、第2の病院からのCTスキャン映像を特徴付けることを対象とすることができる。
これらの分類されたセットを別々に訓練することにより、各医療スキャン映像推論機能1105がそのスキャン映像カテゴリ1120に従って較正されることを確実にすることができ、例えば、異なる推論機能を、タイプ固有、解剖学的領域固有、病院固有、機械モデル固有、および/または領域固有の傾向および/または不一致について較正することが可能になる。医療スキャン映像推論機能1105の一部もしくは全部は、医療スキャン画像分析システムおよび/もしくは医療スキャン映像自然言語処理システムによって訓練することができ、かつ/または一部の医療スキャン映像推論機能1105は、推論データ1110を生成するために画像分析および自然言語分析技術の両方を利用することができる。例えば、推論機能の一部または全部は、医療スキャン画像データ410の画像分析、ならびに/または異常注釈データ442および/もしくはレポートデータ449から抽出された自然言語データを入力として利用し、医療コード447などの診断データ440を出力として生成することができる。各医療スキャン映像推論機能は、同一または異なる学習モデルを利用して、例えばモデルタイプデータ622およびモデルパラメータデータ623に示される同一または異なるモデルパラメータを用いて、医療スキャン映像データの同一または異なる特徴に関して訓練することができる。モデルタイプおよび/またはパラメータは、1つ以上の対応するスキャン映像カテゴリ1120の特定の特性に基づいて特定の医療スキャン映像推論機能のために選択することができ、モデルタイプデータ622およびモデルパラメータデータ623に示される一部または全部は、1つ以上の対応するスキャン映像カテゴリ1120の特定の学習されたおよび/または別様で決定された特性に基づいて、訓練プロセス中にサブシステムによって自動的に選択することができる。
図6Aに示すように、医療スキャン映像診断システム108は、ネットワークを介して医療エンティティから医療スキャン映像を受信したことに応答して、処理のために医療スキャン映像を自動的に選択することができる。代替的に、医療スキャン映像診断システム108は、特定のスキャン映像についてユーザから受信した要求に基づいて、かつ/またはスキャン優先度データ427に基づいて医療スキャン映像診断システム108もしくは別のサブシステムによって自動的に順序付けられたスキャン映像のキューに基づいて選択された医療スキャン映像を、医療スキャン映像データベースから自動的に取り出すことができる。
処理される医療スキャン映像が決定されると、医療スキャン映像診断システム108は、選択された医療スキャン映像の決定されたスキャン映像カテゴリ1120に基づいて、かつ対応する推論機能スキャン映像カテゴリに基づいて、推論機能1105を自動的に選択することができる。スキャン映像のスキャン映像カテゴリ1120は、スキャン映像分類器データ420のうちの一部もしくは全部に基づいて、かつ/またはスキャン映像に関連付けられた他のメタデータに基づいて決定することができる。これは、例えば、スキャン映像カテゴリ1120を機能分類器データ610の入力スキャン映像カテゴリと比較することによって、複数の医療スキャン映像推論機能1105のうちのどの1つがスキャン映像カテゴリ1120と一致するかまたは別様でそれと有利に比較されるかを判定することを含み得る。
代替として、または加えて、医療スキャン映像診断システム108は、推論機能1105によって出力される推論データ1110の所望のタイプに対応する出力の選好性に基づいて、どの医療スキャン映像推論機能1105が利用されるかを自動的に決定することができる。出力の選好性は、医療スキャン映像診断システム108のユーザによって、かつ/または医療スキャン映像診断システム108を利用するサブシステム101の機能に基づいて指定される。例えば、推論機能のセット1105は、医療スキャン映像が正常であるか否かを示すため、スキャン映像における少なくとも1つの異常を自動的に識別するため、スキャン映像における少なくとも1つの異常を自動的に特徴付けるため、スキャン映像に1つ以上の医療コードを割り当てるため、スキャン映像のための自然言語テキストデータおよび/またはフォーマット化されたレポートを生成するため、かつ/あるいは医療スキャン映像に基づく診断データ440の一部もしくは全部などの他の診断データを自動的に生成するために利用される推論機能を含み得る。代替として、または加えて、一部の推論機能を利用して、信頼スコアデータ460、表示パラメータデータ470、および/または類似スキャン映像データ480を自動的に生成することもできる。医療スキャン映像診断システム108は、出力の選好性を医療スキャン映像推論機能1105の出力タイプデータ612と比較して、選択された推論機能1105を決定することができる。例えば、これを使用して、医療コードを自動的に生成する第1の医療スキャン映像推論機能と、所望のタイプの推論データ1110に基づいて医療レポート用の自然言語テキストを自動的に生成する第2の医療スキャン映像推論機能との間で決定することができる。
選択された医療スキャン映像推論機能1105を実行する前に、医療スキャン映像診断システム108は、適切なスキャン映像カテゴリ1120の適切な医療スキャン映像推論機能1105が選択されるように、入力品質保証機能1106を自動的に実行して、医療スキャン映像のスキャン映像分類器データ420または他のメタデータが医療スキャン映像を正確に分類することを保証することができる。入力品質保証機能は、例えば、検証されたスキャン映像カテゴリを有する複数の以前の医療スキャン映像の医療スキャン画像データ410に対して訓練され得る。したがって、入力品質保証機能1106は、医療スキャン画像データ410を入力として取り込むことができ、推論スキャン映像カテゴリを出力として生成することができる。推論スキャン映像カテゴリは、スキャン映像のスキャン映像カテゴリ1120と比較することができ、入力品質保証機能1106は、スキャン映像カテゴリ1120が、自動生成推論スキャン映像カテゴリと有利に比較されるかどうかを判定することによって、スキャン映像カテゴリ1120が適切であるかどうかを判定することができる。また、入力品質保証機能1106を利用して、スキャン映像カテゴリ1120が自動生成推論スキャン映像カテゴリと有利に比較される場合に、生成された推論スキャン映像カテゴリをスキャン映像カテゴリ1120に再割り当てすることができる。入力品質保証機能1106を利用して、生成された推論スキャン映像カテゴリを、分類データを含まない入力医療スキャン映像のスキャン映像カテゴリ1120に割り当てることができ、かつ/またはスキャン映像分類器データ420内の分類器を、1つ以上の分類器を欠いた医療スキャン映像に追加することもできる。
種々の実施形態では、入力品質保証機能1106を利用してスキャン映像分類器データ420または他のメタデータによって決定されたスキャン映像カテゴリ1120が不正確であると判定した際に、医療スキャン映像診断システム108は、医療エンティティに、スキャン映像がスキャン映像分類器データ420または他のメタデータにおいて不正確に分類されていることを示す警告および/または自動生成推論スキャン映像カテゴリを送信することができる。一部の実施形態では、例えば、スキャン映像が誤って分類されたと判定したことに応答してより低い性能スコアが生成される場合、および/またはスキャン映像が正しく分類されたと判定したことに応答してより高い性能スコアが生成される場合、医療スキャン映像診断システム108は、発信元エンティティデータ423に示されるスキャン映像の発信元エンティティ、またはスキャン映像を分類する責任がある別のユーザもしくはエンティティに対応する性能スコアデータを自動的に更新することができる。
一部の実施形態では、医療スキャン映像診断システム108は、医療スキャン映像および/または自動生成推論スキャン映像カテゴリを選択されたユーザに送信することができる。ユーザには、医療スキャン画像データ410および/または医療スキャン映像の他のデータが、例えば、医療スキャン支援レビューシステム102とともに表示されるインタラクティブインターフェース275を介して提示され得る。インターフェースは、適切なスキャン映像カテゴリ1120を示すようにユーザを促すことができ、かつ/または推論スキャン映像カテゴリを確認および/もしくは編集するようにユーザを促すことができ、これらもユーザに提示される。例えば、スキャン映像レビューデータは、ユーザが生成および/または検証したスキャン映像カテゴリ1120を反映するように、自動的に生成することができる。このユーザが示したスキャン映像カテゴリ1120を利用して、医療スキャン映像推論機能1105を選択し、かつ/またはそれに応じてスキャン映像分類器データ420または他のメタデータを更新することができる。一部の実施形態では、例えば、スキャン映像レビューデータが、選択されたユーザが入力品質保証機能1106によって作成された自動生成推論スキャン映像カテゴリに同意しないことを示した場合、医療スキャン映像診断システム108は、低い性能スコアを生成することによって、入力品質保証機能1106の性能スコアデータ630を自動的に更新することができ、かつ/または入力品質保証機能1106の修復ステップ1140に入ることを判定することができる。
医療スキャン映像診断システム108はまた、図6Bに提示される実施形態に示されるように、医療スキャン映像推論機能1105が医療スキャン映像に対して実行されて推論データ1110を生成した後に、出力品質保証ステップを自動的に実行することができる。出力品質保証ステップを利用して、選択された医療スキャン映像推論機能1105がエキスパートフィードバックに基づいて適切な推論データ1110を生成したことを保証することができる。選択された医療スキャン映像推論機能1105を実行することによって生成された推論データ1110は、例えば、対応するユーザエントリの分類された性能データおよび/または資格データに基づいて推論データ1110内の識別された異常分類器カテゴリ444および/または異常パターンカテゴリ446をレビューするのに最も適したエキスパートユーザを選択することによって、スキャン映像カテゴリ1120および/または推論自体に対応する分類された性能データおよび/または資格データに基づいて選択されたユーザデータベース内のエキスパートユーザなど、選択されたエキスパートユーザのクライアントデバイス120に送信することができる。選択されたユーザはまた、発信元エンティティで採用された医療専門家または他のユーザに対応することができ、かつ/または発信元エンティティデータ423に示される元の医療専門家に対応することができる。
図6Bは、修復ステップ1140の実行に関連する医療スキャン映像診断システム108の一実施形態を示している。医療スキャン映像診断システム108は、例えば、推論データ評価機能によって出力された推論精度データの評価に基づいて、かつ/または医療スキャン映像分析機能データベース内の性能スコアデータ630に対する監視に基づいて、医療スキャン映像推論機能1105のセットの性能を監視することができ、対応する医療スキャン映像推論機能1105が適切に実行されているか否かを判定することができる。これは、例えば、性能スコアデータ630および/または推論精度データを修復基準データ652と比較することによって、修復ステップ1140が医療スキャン映像推論機能1105に必要であるか否かを判定することを含み得る。また、修復ステップ1140が必要であるか否かの判定は、1つ以上の識別された医療スキャン映像推論機能1105および/またはすべての医療スキャン映像推論機能1105に修復が必要であるという指示を、エキスパートユーザまたは別のユーザから受信することに基づき得る。
種々の実施形態では、修復評価機能は、修復ステップ1140が医療スキャン映像推論機能1105に必要であるか否かを判定するために利用される。修復評価機能は、特定の医療スキャン映像推論機能1105の最近の精度データおよび/または効率データが特定の推論機能の通常の性能レベルを下回った場合に修復が必要であると判定することを含み得る。修復評価機能は、特定の医療スキャン映像推論機能1105の最近のまたは全体的な精度データおよび/または効率データが、すべてのまたは類似の医療スキャン映像推論機能1105についての最近のまたは全体的な平均を下回った場合に、修復が必要であると判定することを含み得る。修復評価機能は、閾値数の不正確な診断が行われた後にのみ修復が必要であると判定することを含み得る。種々の実施形態では、不正確な診断の複数の閾値数は、異なる診断カテゴリに対応する。例えば、修復のための不正確な診断の閾値数は、偽陽性診断よりも偽陰性診断の方が高くなり得る。同様に、異なる診断の重症度および/または希少度に対応するカテゴリは、異なる閾値を有する場合があり、例えば、修復を必要とする不正確な重度および/または希少な診断の閾値数は、不正確な軽度および/または希少でない診断の閾値数よりも低い。
修復ステップ1140は、識別された医療推論機能1105を自動的に更新することを含み得る。これは、同じ訓練セットに対して、または新しいデータ、より高い対応する信頼スコアを有するデータ、もしくは新しい訓練セット基準に基づいて選択されたデータを含む新しい訓練セットに対して、識別された医療推論機能1105を自動的に再訓練することを含み得る。識別された医療推論機能1105はまた、クライアントデバイスから受信されたレビューデータに基づいて更新および/または変更することができる。例えば、医療スキャン映像およびエキスパートフィードバックデータは、医療スキャン映像推論機能1105の訓練セットに追加することができ、医療スキャン映像推論機能1105は、更新された訓練セットに対して再訓練することができる。代替として、または加えて、エキスパートユーザは、医療スキャン映像のための推論データ1110を生成する際に推論機能によってなされたエラーに基づいて、エキスパートフィードバックデータ内の追加のパラメータおよび/またはルールを識別することができ、これらのパラメータおよび/またはルールは、例えばモデルタイプデータ622および/またはモデルパラメータデータ623を更新することによって、医療スキャン映像推論機能を更新するために適用することができる。
修復ステップ1140はまた、スキャン映像カテゴリ1120を2つ以上のサブカテゴリに分割することを判定することを含み得る。したがって、2つ以上の新しい医療スキャン映像推論機能1105を作成することができ、ここで各新しい医療スキャン映像推論機能1105は、対応する訓練セットで訓練され、この訓練セットは、元の訓練セットのサブセットであり、かつ/またはサブカテゴリに対応する新しい医療スキャン映像データを含む。これにより、医療スキャン映像推論機能1105をより専門化することが可能となり、かつ/または推論データ1110を生成する際に機能がサブカテゴリに固有の特性および/または不一致を利用することが可能となる。同様に、医療スキャン映像推論機能1105のいずれによっても以前に表されなかった新しいスキャン映像カテゴリ1120を修復ステップに追加することができ、新しい医療スキャン映像推論機能1105を、新しいスキャン映像カテゴリ1120に対応する新しい医療スキャン映像データセットに対して訓練することができる。スキャン映像カテゴリの分割および/またはスキャン映像カテゴリの追加は、修復ステップ1140を実行するときに、例えば性能スコアデータ630に基づいて、医療スキャン映像診断システム108によって自動的に決定することができる。これはまた、エキスパートユーザまたはシステムの他のユーザから、カテゴリを分割し、かつ/または新しいスキャン映像カテゴリを追加する命令を受信することに基づいて決定することができる。
医療スキャン映像推論機能1105が初めて更新または作成された後、修復ステップ1140は、コミッショニング試験をさらに受けることができ、コミッショニング試験は、例えば、訓練パラメータ620に基づく、試験セットに対する医療スキャン映像推論機能1105の厳密な試験を含み得る。例えば、コミッショニング試験は、医療スキャン映像推論機能1105が閾値数の正しい推論データ1110を生成するときに合格することができ、かつ/または推論データと試験データとの間の全体的もしくは平均的な不一致レベルが設定された誤差閾値を下回る場合に合格することができる。コミッショニング試験は、効率を評価することもでき、医療スキャン映像推論機能1105は、閾値効率レベルで実行するかまたはそれを超える場合にのみ、コミッショニング試験に合格する。医療スキャン映像推論機能1105がコミッショニング試験に不合格であった場合、モデルタイプおよび/またはモデルパラメータを自動的にまたはユーザ入力に基づいて修正することができ、医療スキャン映像推論機能を再試験することができる。このプロセスは、医療スキャン映像推論機能1105がコミッショニング試験に合格するまで継続される。
修復ステップ1140は、例えば、医療スキャン映像推論機能が再訓練されている間および/またはコミッショニング試験を受けている間に、医療スキャン映像推論機能1105をデコミッショニングすることを含み得る。デコミッショニングされた医療スキャン映像推論機能1105に対応するスキャン映像カテゴリ1120を有する医療スキャン映像診断システム108への入力スキャン映像は、例えば、医療スキャン映像注釈付けシステム106と連動して、1人以上のユーザによるレビューのために直接送信することができる。これらのユーザレビューされた医療スキャン映像および対応する注釈は、更新された訓練セットに含まれ得、この更新された訓練セットは、修復ステップ1140の一部としてデコミッショニングされた医療スキャン映像推論機能1105を訓練するために使用される。一部の実施形態では、複数の医療スキャン画像分析機能の以前のバージョンは、医療スキャン映像診断システムのメモリに記憶することができ、かつ/または医療スキャン映像推論機能1105のバージョンデータ640に基づいて決定することができる。最新バージョンまたは最高性能スコアを有するバージョンなど、医療スキャン映像推論機能1105の以前のバージョンは、すべての医療スキャン映像をユーザレビューに送信するのではなく、修復ステップ1140中に利用することができる。
医療スキャン映像推論機能はまた、医療スキャン映像推論機能1105が記憶および/または実行される処理、メモリ、および/または他のコンピューティングデバイス上のハードウェアおよび/またはソフトウェア更新に応答して、自動的に修復ステップ1140を受けることができる。異なる医療スキャン映像推論機能1105は、マイクロサービスアーキテクチャを利用することによってそれら自体のデバイス上にコンテナ化することができる。そのため、ハードウェアおよび/またはソフトウェアの更新は、医療スキャン映像推論機能1105のうちの1つが修復ステップ1140を受けることのみを必要とし得る一方で、他のものは影響を受けないままであってもよい。医療スキャン映像推論機能1105はまた、通常のシステム起動に応答して自動的に、かつ/または固定された間隔で周期的に、修復ステップ1140を受けることができる。例えば、スケジュールされたまたは自動的に検出されたハードウェアおよび/またはソフトウェアの更新、変更、または問題に応答して、このハードウェアまたはソフトウェアによって影響を受ける1つ以上の医療スキャン映像推論機能1105は、それぞれがコミッショニング試験に合格するまで、コミッショニングから外され得る。かかる基準は、修復基準データ652に示され得る。
医療スキャン映像診断システム108は、例えば、ユーザデータベースのサブスクリプションデータの一部もしくは全部を利用、生成および/または更新することによって、システムのユーザ使用に対応する複数のユーザの使用データ、サブスクリプションデータおよび/または課金データを自動的に管理することができる。ユーザは、システムへのサブスクリプションに対して支払いを行うことができ、これには、異なる費用に対応し得る異なるサブスクリプションレベルが含まれ得る。例えば、病院は、月々の費用を支払い、月に100回までの医療スキャン映像を自動的に診断することができる。病院は、割当量に達した後に受信された追加のスキャン映像の自動診断のために、自身のサブスクリプションをアップグレードするかもしくはスキャン映像ごとの費用を支払うことを選択することができ、かつ/または医療スキャン映像診断システム108は、割当量に達した後に受信された医療スキャン映像を、病院に関連付けられたエキスパートユーザに自動的に送信することができる。種々の実施形態では、医療スキャン映像診断システムによるインセンティブプログラムを使用して、異なる医療エンティティからの医療スキャン映像をレビューするようにエキスパートを促すことができる。例えば、エキスパートは、レビューされたすべての医療スキャン映像に対して、または閾値数の医療スキャン映像がレビューされた後に、自身のアカウントに対するクレジットおよび/またはサブスクリプションアップグレードを受け取ることができる。インセンティブプログラムは、ユーザによる他のサブシステムとのインタラクションを含み得、これは例えば、他のサブシステムとのインタラクションを介して医療スキャンエントリに対してなされた寄与に基づいている。
図7Aは、医療スキャン画像分析システム112の一実施形態を提示している。1つ以上の医療スキャン画像分析機能を訓練するために使用される医療スキャン映像の訓練セットは、ネットワークを介して1つ以上のクライアントデバイスから受信することができ、かつ/または、例えば、医療スキャン画像分析機能に対応する訓練セットデータ621に基づいて、医療スキャン映像データベース342から取り出すことができる。例えば、医療スキャン画像分析機能の訓練パラメータ620で識別される訓練セット基準を利用して、複数の利用可能な医療スキャン映像から訓練セットに含まれる医療スキャン映像を自動的に識別および選択することができる。訓練セット基準は、例えば、以前に学習された基準に基づいて自動的に生成することができ、かつ/または訓練セット基準は、例えば、医療スキャン画像分析システムの管理者からネットワークを介して受信することができる。訓練セット基準は、最小訓練セットサイズを含み得る。訓練セット基準には、訓練セット内の医療スキャン映像のデータ完全性要件を含まれ得る。これには、例えば、医療スキャン映像に真のフラグ461が割り当てられることを要求することと、医療スキャン映像に関連付けられた病院および/または医療専門家の性能スコアデータが性能スコア閾値と有利に比較されることを要求することと、医療スキャン映像が少なくとも閾値数の医療専門家によってレビューされていることを要求することと、医療スキャン映像および/または医療スキャン映像の患者ファイルに対応する診断が閾値経過期間よりも古いこと、あるいは訓練セット内の医療スキャン映像および関連データが「真」のデータとみなされるのに十分信頼できることを保証することを意図した他の基準に基づいていることを要求することと、が含まれ得る。訓練セット基準は、時系列要件、例えば、患者に対する必要な後続の医療スキャン映像の数、患者に対する複数の必要なタイプの追加のスキャン映像、および/または他の患者ファイル要件を含み得る。
訓練セット基準は、1つ以上の医療スキャン映像分類データに対する割り当ておよび/または比率要件を含み得る。例えば、訓練セット基準は、1つ以上のスキャンタイプおよび/またはスキャン映像の人体の場所に対する割り当ておよび/または比率要件を満たすこと、正常な医療スキャン映像の数および識別された異常を有する医療スキャン映像の数に対する割り当てまたは比率要件を満たすこと、特定の場所に異常を有する医療スキャン映像の数および/または特定のサイズ、タイプ、または他の特性を満たす異常を有する医療スキャン映像の数に対する割り当ておよび/または比率要件を満たすこと、特定の診断または特定の対応する医療コードを有する医療スキャン映像の数に対する割り当ておよび/または比率データを満たすこと、ならびに/あるいはメタデータ、患者データ、または医療スキャン映像に関連する他のデータに関連する他の識別された割り当ておよび/または比率データを満たすことを含み得る。
一部の実施形態では、複数の訓練セットが作成されて、対応する医療スキャン画像分析機能が生成され、これらは、例えば、医療スキャン映像推論機能1105のセットの一部または全部に対応する。一部または全部の訓練セットは、医療スキャン映像診断システム108に関連して説明したように、スキャン映像分類器データ420の一部または全部に基づいて分類することができ、この場合、医療スキャン映像は、訓練セットのスキャン映像カテゴリに一致するスキャン映像分類器データ420に基づいた訓練セットに含まれる。一部の実施形態では、入力品質保証機能1106または別の入力チェックステップを、各訓練セットについて選択された医療スキャン映像に対して実行して、それらの対応するスキャン映像分類器データ420が正しいことを確認することができる。一部の実施形態では、入力品質保証機能は、医療スキャン画像分析システムによって訓練されたそれ自体の医療スキャン画像分析機能に対応することができ、入力品質保証機能は、高レベルコンピュータビジョン技術を利用して、スキャン映像カテゴリ1120を決定し、かつ/または医療スキャン映像に既に割り当てられているスキャン映像分類器データ420を確認する。
一部の実施形態では、訓練セットを使用して、単一のニューラルネットワークモデル、または上述の医療スキャン映像分類データおよび/または他のメタデータ、患者データ、もしくは医療スキャン映像に関連付けられた他のデータの一部もしくは全部に対して訓練され得る医療スキャン画像分析機能のモデルタイプデータ622および/またはモデルパラメータデータ623に対応する他のモデルが作成される。他の実施形態では、複数の訓練セットを作成して、複数の対応するニューラルネットワークモデルが生成され、ここで複数の訓練セットは、上述の医療スキャン映像分類データおよび/もしくは他のメタデータ、患者データ、または医療スキャン映像に関連付けられた他のデータの一部もしくは全部に基づいて分割される。複数のニューラルネットワークモデルの各々は、複数の訓練セットのうちの対応する1つにおける医療スキャン映像の同一または異なる特徴を利用する同一または異なる学習アルゴリズムに基づいて生成することができる。医療スキャン映像を複数の訓練セットに分離するために選択された医療スキャン映像分類は、例えば管理者からの管理者クライアントデバイスへの入力に基づいて、ネットワークを介して受信することができる。医療スキャン映像を分離するために選択された医療スキャン映像分類は、医療スキャン画像分析システムによって自動的に決定することができ、例えば、教師なしクラスタリングアルゴリズムを元の訓練セットに適用して、教師なしクラスタリングアルゴリズムの出力に基づいて適切な医療スキャン映像分類が決定される。
医療スキャン画像分析システムが医療スキャン映像診断システムとともに使用される実施形態では、各ニューラルネットワークモデルに関連付けられた医療スキャン画像分析機能の各々は、医療スキャン画像分析システムによって生成された複数のニューラルネットワークモデルのうちの1つに対応し得る。例えば、複数のニューラルネットワークモデルの各々は、医療スキャン映像診断システムに関連して考察したように、スキャンタイプ、スキャン映像人体場所、病院もしくは他の発信元エンティティデータ、機械モデルデータ、機械較正データ、造影剤データ、地理的領域データ、および/または他のスキャン映像分類データに基づいて分類された訓練セットで訓練することができる。訓練セット分類器が学習される実施形態では、医療スキャン映像診断システムは、元の訓練セットを分離するために使用される学習された分類基準に基づいて、医療スキャン画像分析機能のうちのどれを適用すべきかを判定することができる。
各ニューラルネットワークモデルを作成するために使用されるコンピュータビジョンベースの学習アルゴリズムは、訓練セット内の各医療スキャン映像について三次元サブ領域1310を選択することを含み得る。この三次元サブ領域1310は、スキャン映像全体から「サンプリングされた」領域に対応することができ、これはスキャン映像全体の小部分を表すことができる。医療スキャン映像は、複数の順序付けられた断面画像スライスを含み得ることを想起されたい。三次元サブ領域1310を選択することは、複数の医療スキャン映像の各々から複数の断面画像スライスの適切な画像スライスサブセット1320を選択することによって、かつさらに、医療スキャン映像の各々の断面画像スライスの選択されたサブセットの各々から二次元サブ領域1330を選択することによって行うことができる。一部の実施形態では、選択された画像スライスは、1つ以上の不連続な画像スライスを含むことができ、それにより、複数の切断された三次元サブ領域が作成される。他の実施形態では、複数の画像スライスの選択された適切なサブセットは、単一の接続された三次元サブ領域が選択されるように、連続する画像スライスのセットに対応する。一部の実施形態では、訓練セットのスキャン映像全体が、ニューラルネットワークモデルを訓練するために使用される。かかる実施形態では、本明細書で使用されるように、三次元サブ領域1310は、医療スキャン映像の医療スキャン画像データ410のすべてを指すことができる。
一部の実施形態では、密度ウィンドウ化ステップを、完全なスキャン映像または選択された三次元サブ領域に適用することができる。密度ウィンドウ化ステップは、選択された上限密度値のカットオフおよび/または選択された下限密度値のカットオフを利用することと、上限密度値のカットオフより高い値を有するピクセルをマスキングするステップおよび/または下限密度値のカットオフより低い値を有するピクセルをマスキングすることと、を含み得る。上限密度値のカットオフおよび/または選択された下限密度値のカットオフは、異常を含む領域に含まれる密度値の範囲および/または分布に基づいて、かつ/あるいは異常自体に関連する密度値の範囲および/または分布に基づいて、サブシステムへのユーザ入力に基づいて、医療スキャン映像に関連するまたは同じタイプの医療スキャン映像に関連する表示パラメータデータに基づいて決定することができ、かつ/または訓練ステップで学習することができる。一部の実施形態では、非線形密度ウィンドウ化機能を適用して、ピクセル密度値を変更し、例えば、コントラストを伸張または圧縮することができる。一部の実施形態では、この密度ウィンドウ化ステップは、異なる密度ウィンドウに従って医療スキャン映像のための追加の訓練データを作成するために、データ増強ステップとして実行することができる。
訓練セット内の完全な医療スキャン映像のセットに対応する三次元サブ領域1310のサブ領域訓練セット1315を決定すると、医療スキャン画像分析システムは、複数の三次元サブ領域に対して学習アルゴリズムを実行して対応する学習モデルのモデルパラメータデータ1355を生成することによって、訓練ステップ1352を完了することができる。学習モデルは、ニューラルネットワーク、人工ニューラルネットワーク、畳み込みニューラルネットワーク、ベイジアンモデル、サポートベクターマシンモデル、クラスタ分析モデル、または他の教師付きもしくは教師なし学習モデルのうちの1つ以上を含み得る。モデルパラメータデータ1355は、学習アルゴリズム1350を実行することによって生成することができ、モデルパラメータデータ1355を利用して、対応する医療スキャン画像分析機能を決定することができる。例えば、モデルパラメータデータ1355の一部または全部は、モデルパラメータデータ623内の医療スキャン映像分析機能にマッピングされてもよく、または別様で医療スキャン映像分析機能を定義してもよい。
訓練ステップ1352は、モデルパラメータデータ1355を生成するために学習アルゴリズム1350によって使用される訓練セットの各三次元サブ領域について特徴ベクトルを作成することを含み得る。特徴ベクトルは、決定された密度ウィンドウに基づく各ピクセルの密度値および/またはグレースケール値などの三次元サブ領域のピクセルデータを含み得る。特徴ベクトルはまた、場所および/もしくは分類データなどの既知の異常データ、リスク因子データまたは以前の医療スキャン映像などの患者病歴データ、診断データ、責任医療エンティティデータ、スキャン映像機械モデルまたは較正データ、造影剤データ、医療コードデータ、生または処理された自然言語テキストデータを含み得る注釈データ、スキャンタイプおよび/または解剖学的領域データ、あるいは医療スキャンエントリ352の一部もしくは全部のデータなどの画像に関連する他のデータなど、追加の入力特徴または所望の出力特徴として他の特徴を含み得る。特徴は、ネットワークを介して受信された管理者の命令に基づいて選択することができ、かつ/または、例えば、異なる特徴セットを使用して作成された複数のモデルに対して交差検証ステップを実行することによって、分類エラーにおけるエラーを低減する特徴セットを決定することに基づいて決定することができる。特徴ベクトルは、入力特徴ベクトルと出力特徴ベクトルとに分割することができる。入力特徴ベクトルは、後続の医療スキャン映像入力において利用可能となるデータを含み得、このデータは、例えば、三次元サブ領域ピクセルデータおよび/または患者病歴データを含み得る。出力特徴ベクトルは、後続の医療スキャン映像入力において推論されるデータを含み得、単一の出力値、例えば、医療スキャン映像が異常を含むか否かを示すバイナリ値または画像に対応する複数の医療コードのうちの1つに対応する値を含み得る。出力特徴ベクトルはまた、複数の値を含み得、この複数の値は、異常場所および/もしくは分類データ、診断データ、または他の出力を含み得る。出力特徴ベクトルはまた、例えば、どのピクセル値が異常の検出および/または分類に関連するかを特徴付ける、決定された上限密度値のカットオフおよび/または下限密度値のカットオフを含み得る。出力特徴ベクトルに含まれる特徴は、訓練セットでは既知であるが、医療スキャン映像診断システムによって診断されるトリアージされたスキャン映像、および/または医療スキャン映像レポートラベリングシステムによってラベル付けされるスキャン映像など、後続の医療スキャン映像において既知でない可能性がある特徴を含むように選択することができる。入力特徴ベクトルおよび出力特徴ベクトルにおける特徴のセット、ならびに各特徴が対応する重みを割り当てられる異なる特徴の重要度も、モデルパラメータデータ1355において指定することができる。
ニューラルネットワークを利用する医療スキャン画像分析機能を検討する。ニューラルネットワークは、複数の層を含むことができ、各層は、複数のニューラルノードを含む。1つの層内の各ノードは、次の層内の一部または全部のノードへの接続を有することができ、各接続は、重み値によって定義される。したがって、モデルパラメータデータ1355は、重みベクトルを含み得、重みベクトルは、ネットワーク内のすべての接続に対する重み値を含む。代替として、または加えて、モデルパラメータデータ1355は、ニューラルネットワークモデルに関連付けられた任意のベクトルまたはパラメータのセットを含み得、これは、入力画像のピクセルデータの一部をマスキングするために使用される上限密度値のカットオフおよび/もしくは下限密度値のカットオフ、カーネル値、フィルタパラメータ、バイアスパラメータ、ならびに/またはニューラルネットワークモデルの複数の畳み込み関数のうちの1つ以上を特徴付けるパラメータを含み得る。医療スキャン画像分析機能を利用して、入力特徴ベクトルとニューラルネットワークモデルを特徴付けるモデルパラメータデータ1355との関数として、出力ベクトルを生成することができる。特に、医療スキャン画像分析機能は、複数のニューラルネットワーク層の順伝播ステップを実行して、重みベクトルまたは他のモデルパラメータデータ1355に基づいて推論された出力ベクトルを生成することを含み得る。したがって、ニューラルネットワークモデルとともに利用される学習アルゴリズム1350は、例えば、出力誤差を最もよく低減する最適な重みを重みベクトルにポピュレートすることによって、ニューラルネットワークモデルに対応するモデルパラメータデータ1355を決定することを含み得る。
特に、モデルパラメータデータ1355を決定することは、逆伝播ストラテジを利用することを含み得る。順伝播アルゴリズムは、訓練セット内の少なくとも1つの医療スキャン映像に対応する少なくとも1つの入力特徴ベクトルに対して実行されて、管理者によって設定されたまたはランダムに選択された初期重み値の初期重みベクトルなどの初期および/もしくはデフォルトモデルパラメータデータ1355に基づいて、複数のニューラルネットワーク層を通して少なくとも1つの入力特徴ベクトルを伝播させることができる。少なくとも1つの入力特徴ベクトルに対して順伝播アルゴリズムを実行することによって生成された少なくとも1つの出力ベクトルを、対応する少なくとも1つの既知の出力特徴ベクトルと比較して、出力誤差を決定することができる。出力誤差を決定することは、例えば、生成された出力ベクトルと既知の出力ベクトルとの間のユークリッド距離もしくは二乗ユークリッド距離などのベクトル距離を計算すること、および/または複数の入力特徴ベクトルが使用された場合、平均ユークリッド距離または二乗ユークリッド距離などの平均出力誤差を決定することを含み得る。次に、勾配降下を実行して、出力誤差または平均出力誤差に基づいて更新された重みベクトルを決定することができる。この勾配降下ステップは、出力層から始まる各層において、各重みまたはモデルパラメータデータ1355内の他のパラメータに関する誤差の偏導関数を計算することを含み得る。連鎖則を利用して、すべての重みの勾配が計算されるまで、以前の各層における各重みまたはパラメータに関する勾配を反復的に計算することができる。次の更新された重み、またはモデルパラメータデータ1355内の他のパラメータは、その対応する計算された勾配に基づいて各重みを更新することによって生成される。このプロセスは、モデルパラメータデータ1355内の更新された重みベクトルおよび/または他の新しい更新されたパラメータに基づいて、以前の反復において使用された同一または異なる少なくとも1つの特徴ベクトルを含み得る少なくとも1つの入力特徴ベクトルに対して繰り返され、モデルパラメータデータ1355内の新しい更新された重みベクトルおよび/または他の新しい更新されたパラメータを作成することができる。このプロセスは、出力誤差が収束するまで、出力誤差が特定の誤差閾値内にあるまで、あるいは最も最近更新された重みベクトルおよび/もしくは他のモデルパラメータデータ1355が選択のために最適であるか、または別様で決定されるかを判定するための別の基準に達するまで、繰り返し続けることができる。
医療スキャン映像ニューラルネットワークおよびその最終的な他のモデルパラメータデータ1355を決定すると、推論ステップ1354を新しい医療スキャン映像に対して実行して、図7Bに示すように、推論された出力ベクトルなどの推論データ1370を生成することができる。推論ステップは、最終重みベクトルの重み値などの最終的なモデルパラメータデータ1355に基づいて、順伝播アルゴリズムを実行して複数のニューラルネットワーク層を通して入力特徴ベクトルを伝播させ、推論データを生成することを含み得る。この推論ステップ1354は、新しい医療スキャン映像に対して、最終的なモデルパラメータデータ1355によって定義されるような医療スキャン画像分析機能を実行して推論データ1370を生成することに対応することができ、例えば、医療スキャン映像診断システム108と連動して、その対応する入力特徴ベクトルに基づいてトリアージされた医療スキャン映像に対する推論された診断データまたは他の選択された出力データが生成される。
推論ステップ1354は、密度ウィンドウ化ステップを新しい医療スキャン映像に適用することを含み得る。推論ステップを実行するときに、学習された密度ウィンドウ化カットオフ値および/または非線形密度ウィンドウ化機能を自動的に適用することができる。例えば、訓練ステップ1352を使用して、最適な上限密度値のカットオフ値および/または下限密度値のカットオフ値を決定し、最適な密度ウィンドウを指定した場合には、推論ステップ1354は、順伝播アルゴリズムを適用する前に、この決定された密度ウィンドウの外側にある入力スキャン映像のピクセルをマスキングすることを含み得る。別の例として、1つ以上の畳み込み関数の学習されたパラメータが、最適な上限密度値のカットオフ値および/または下限密度値のカットオフ値に対応する場合、新しい医療スキャン映像に対して順伝播アルゴリズムが実行された際に、密度ウィンドウ化ステップが本質的に適用される。
医療スキャン映像分析機能がニューラルネットワークモデルに対応するモデルパラメータデータ1355によって定義される一部の実施形態では、ニューラルネットワークモデルは、完全畳み込みニューラルネットワークであり得る。かかる実施形態では、順伝播アルゴリズムにおいてニューラルネットワークの層を通して入力特徴ベクトルを伝播させるために、畳み込み関数のみが実行される。これにより、医療スキャン画像分析機能が任意のサイズの入力特徴ベクトルを処理することが可能となる。例えば、本明細書で考察されるように、三次元サブ領域に対応するピクセルデータは、訓練ステップ1352が重みベクトルおよび/または他のモデルパラメータデータ1355をポピュレートするために採用されるとき、順伝播アルゴリズムへの入力として利用される。しかしながら、推論ステップ1354において順伝播アルゴリズムを実行する場合、完全な医療スキャン映像のピクセルデータは、入力として利用することができ、それにより、スキャン映像全体を処理して異常を検出および/または分類すること、あるいは別様で推論データ1370を生成することが可能になる。これは、三次元サブ領域を選択することによって新しいスキャン映像もサンプリングする必要がある他の実施形態、および/または推論ステップが別々に処理された複数の三次元サブ領域に対応する推論データ1370を「継ぎ合わせる(piecing together)」ことを必要とする他の実施形態よりも好ましい実施形態であり得る。
推論データ1370の推論された出力ベクトルは、新しい医療スキャン映像の複数の断面画像スライスの各々のピクセル場所にマッピングされた複数の異常確率を含み得る。例えば、推論された出力ベクトルは、確率行列1371のセットを示すことができ、セット内の各行列は、医療スキャン映像の複数の画像スライスのうちの1つに対応する。各行列は、各画像スライス内のピクセルの数に対応するサイズであり、各行列の各セルは、対応する画像スライスのピクセルに対応し、その値は、対応するピクセルの異常確率である。
検出ステップ1372は、複数の異常確率に基づいて、医療スキャン映像に異常が存在するかどうかを判定することを含み得る。異常が存在するか否かを判定することは、例えば、異常確率の閾値比率が閾値異常確率を満たすかまたは超える必要がある場合、領域内のピクセルの平均異常確率が閾値異常確率を満たすかまたは超える必要がある場合、ピクセルのクラスタを含む領域が少なくとも特定のサイズである必要がある場合など、医療スキャン映像の同じ領域内のピクセルのクラスタが高い異常確率に対応すると判定することを含み得る。異常が存在するかどうかを判定することはまた、異常確率および/または患者病歴データなどの医療スキャン映像に対応する他のデータに基づいて信頼スコアを計算することを含み得る。検出された異常の場所は、高い異常確率を有するピクセルの場所に基づいて、検出ステップ1372において決定することができる。検出ステップは、異常の一部または全部を含む1つ以上の画像スライス上の二次元サブ領域などの異常領域1373を決定することをさらに含み得る。検出ステップ1372で決定された異常領域1373は、医療スキャン映像にマッピングされて、1つ以上の他のサブシステム101および/またはクライアントデバイス120による使用のために、異常場所データ443の一部または全部をポピュレートすることができる。さらに、検出ステップ1372において異常が存在するか否かを判定することを用いて、医療スキャン映像の診断データ440の一部または全部をポピュレートして、例えば、スキャン映像が正常であるか、または診断データ440に異常を含むことを示すことができる。
異常分類ステップ1374は、異常が存在するという判定に応答して、医療スキャン映像に対して実行することができる。検出された異常に基づいて、異常の大きさ、体積、収縮前後、倍加時間、石灰化、成分、平滑性、質感、診断データ、1つ以上の医療コード、Lung-RADSスコアなどの悪性度評価、または本明細書に記載の他の分類データなど、1つ以上の分類カテゴリに対応する分類データ1375を決定することができる。異常分類ステップ1374によって生成された分類データ1375は、医療スキャン映像にマッピングされて、対応する異常分類器カテゴリ444および/または異常パターンカテゴリ446の異常分類データ445の一部もしくは全部をポピュレートし、かつ/あるいは医療スキャン映像の1つ以上の医療コード447を決定することができる。異常分類ステップ1374は、完全な医療スキャン映像、または検出ステップ1372で決定された異常領域1373に対して異常分類機能を実行することを含み得る。異常分類機能は、サポートベクターマシンモデル、別のニューラルネットワークモデル、または医療スキャン映像もしくは医療スキャン映像の一部について訓練された任意の教師あり分類モデルなどの異常データについて訓練された別のモデルに基づいてもよく、これには、分類カテゴリの一部または全部について推論データを生成するための既知の異常分類データが含まれる。例えば、異常分類機能は、別の医療スキャン映像分析機能を含み得る。複数の分類カテゴリの各々における分類データ1375はまた、それら自体の計算された信頼スコアを割り当てられ得、それはまた、異常分類機能を利用することによって生成され得る。異常分類機能への出力はまた、例えば、訓練データに基づいて、少なくとも1つの識別された類似医療スキャン映像および/または少なくとも1つの識別された類似トリミング画像を含み得る。異常分類ステップはまた、推論ステップ1354に含めることができ、医療スキャン画像分析機能の推論された出力ベクトルまたは他の推論データ1370は、分類データ1375を含む。
異常分類機能は、完全な医療スキャン映像および/または異常を含む医療スキャン映像からの、1つ以上のトリミングされたまたは完全に選択された画像スライスに対して訓練することができる。例えば、異常分類機能は、異常を含む二次元のトリミングされたスライスのセットに対して訓練することができる。訓練セット内の各スキャン映像について選択された画像スライスおよび/または各選択された画像スライス内のトリミングされた領域は、既知の異常の場所に基づいて自動的に選択することができる。異常分類機能への入力は、完全な医療スキャン映像、1つ以上の選択された完全な画像スライス、および/または選択された領域に基づいてトリミングされた1つ以上の選択された画像スライスを含み得る。したがって、異常分類ステップは、検出された異常を含む1つ以上の画像スライスを自動的に選択することを含み得る。スライス選択は、異常を含むと判定された連続スライスのセット内の中心スライスを選択すること、もしくは異常の最大断面を有するスライスを選択すること、または他の基準に基づいて1つ以上のスライスを選択することを含み得る。異常分類ステップはまた、異常を含む自動的に選択された領域に基づいて、選択された画像スライスの1つ以上に対応する1つ以上のトリミングされた二次元画像を自動的に生成することを含み得る。
異常分類機能への入力はまた、患者病歴、リスク因子、または他のメタデータを含む、医療スキャン映像に関連する他のデータを含み得る。異常分類ステップはまた、医療スキャン映像自体のデータに基づいて特性の一部または全部を決定することを含み得る。例えば、異常のおよび体積は、検出された異常の一部であると判定されたピクセルの数に基づいて決定することができる。異常テクスチャおよび/または平滑度などの他の分類器は、かかる特徴を特徴付けるように特に設計された画像に対して1つ以上の他の前処理機能を実行することによって決定することができる。かかる前処理された特性は、医療コードを割り当てるかまたは他の診断データを生成する、より困難なタスクに対する異常分類機能への入力に含まれ得る。訓練データはまた、かかる前処理された特徴を含むように前処理され得る。
類似スキャン映像識別ステップ1376はまた、検出された異常を有する医療スキャン映像に対して実行することができ、かつ/または検出ステップ1372において決定された異常領域1373に対して実行することができる。類似スキャン映像識別ステップ1376は、例えば、医療スキャン映像のデータベースおよび/またはトリミングされた二次元画像のデータベースから、1つ以上の類似医療スキャン映像または1つ以上の類似トリミングされた二次元画像を識別することによって類似異常データ1377を生成することを含み得る。類似の医療スキャン映像および/またはトリミングされた画像は、視覚的に類似する医療スキャン映像またはトリミングされた画像、所与の医療スキャン映像の推定された異常場所と類似の場所に既知の異常を有する医療スキャン映像またはトリミングされた画像、所与のスキャン映像における異常の推定された特性と類似の特性を有する既知の異常を有する医療スキャン映像、類似の患者病歴および/または類似のリスク因子を有する医療スキャン映像、あるいはこれらの因子および/または他の既知のおよび/または推定された因子の何らかの組み合わせを含み得る。類似異常データ1377は、医療スキャン映像にマッピングされて、1つ以上の他のサブシステム101および/またはクライアントデバイス120による使用のために、その対応する類似スキャン映像データ480の一部または全部をポピュレートすることができる。
類似スキャン映像識別ステップ1376は、スキャン映像類似性アルゴリズムを実行することを含み得る。スキャン映像類似性アルゴリズムは、所与の医療スキャン映像および医療スキャン映像のセット内の医療スキャン映像に対する特徴ベクトルを生成することを含むことができ、特徴ベクトルは、定量的および/またはカテゴリベースの視覚的特徴、推論された特徴、所定のサイズおよび/または体積などの異常場所および/または特性、患者病歴および/またはリスク因子特徴、あるいは他の既知のもしくは推論された特徴に基づいて生成することができる。医療スキャン映像類似性分析機能は、所与の医療スキャン映像の特徴ベクトルおよびセット内の医療スキャン映像の1つ以上の特徴ベクトルに適用することができる。医療スキャン映像類似性分析機能は、特徴ベクトル間のユークリッド距離などの類似性距離を計算することと、類似性距離をセット内の対応する医療スキャン映像に割り当てることと、を含み得る。類似の医療スキャン映像は、最小の計算された類似性距離を有するセット内の1つ以上の医療スキャン映像を決定することに基づいて、計算された類似性距離に基づいてセット内の医療スキャン映像をランク付けして、上位にランク付けされた医療スキャン映像の指定された数を識別することに基づいて、かつ/または所与の医療スキャン映像とセット内の医療スキャン映像との間の類似性距離が類似性閾値よりも小さいか否かを判定することに基づいて、識別することができる。類似の医療スキャン映像はまた、医療スキャン映像の医療コードと一致する医療コードにマッピングされた、または他の一致する分類データにマッピングされたデータベース内の医療スキャン映像を決定することに基づいて識別することができる。識別された類似の医療スキャン映像のセットは、他の入力されたまたは自動的に生成された基準に基づいてフィルタリングすることもでき、例えば、信頼できる診断データまたは豊富な患者レポートを有する医療スキャン映像のみ、後日取得された複数の後続のスキャン映像などの患者ファイル内の時系列データに対応する医療スキャン映像、所与の患者のリスク因子に対応する患者データを有する医療スキャン映像、または他の識別された基準に基づいてフィルタリングすることもできる。ここで、基準と有利に比較されるスキャン映像のサブセットのみがセットから選択され、かつ/または最も高くランク付けされた単一のスキャン映像またはスキャン映像のサブセットのみがセットから選択される。このランク付けは、基準に基づいて自動的に計算される。このようにして類似スキャン映像をフィルタリングすることは、本明細書で考察される1つ以上のスコアを計算することを含み得、または以前に計算された1つ以上のスコアに基づくことができる。例えば、ランク付けは、時系列品質スコア434などの時系列品質スコアに基づくことができ、時系列品質スコアは、患者の後続および/または以前のスキャン映像の数に基づいて、識別された医療スキャン映像について計算することができる。代替として、または加えて、ランク付けは、信頼スコアデータ460などのスキャン映像の診断データに関連付けられた信頼スコアに基づくことができ、スキャン映像に関連付けられたユーザまたは医療エンティティに関連付けられた性能スコアデータに基づくことができ、患者病歴データまたは医療スキャンエントリ352内のデータの量に基づくことができ、あるいは他の品質因子に基づくことができる。識別された類似の医療スキャン映像は、それらの品質スコアに基づくスキャン映像のランク付けに基づいて、かつ/またはそれらの品質スコアを品質スコア閾値と比較することに基づいてフィルタリングすることができる。一部の実施形態では、時系列閾値に到達する必要がある。また、時系列閾値と有利に比較されるスキャン映像のみが選択される。例えば、患者および最終生検データのファイルには、少なくとも3回のスキャン映像を有するスキャン映像のみが含まれる。
一部の実施形態では、類似性アルゴリズムは、識別された類似スキャン映像の1つ以上にマッピングされた異常分類データ445または他の診断データ440などの分類データに基づいて、訓練された異常分類機能に加えて、またはその代わりに利用して、医療スキャン映像の推論された分類データ1375の一部または全部を決定することができる。他の実施形態では、類似性アルゴリズムは、単に、医療専門家によるレビューのための類似スキャン映像を識別して、レビュー、診断、および/または医療画像に関する医療レポートの生成を支援するために使用される。
パラメータ表示ステップ1378は、異常の検出および/または分類に基づいて実行することができる。パラメータ表示ステップは、表示パラメータデータ1379を生成することを含み得る。表示パラメータデータ1379は、各異常を最良に表示するためにインタラクティブインターフェースによって使用することができるパラメータを含み得る。各異常に対して、同一または異なる表示パラメータを生成することができる。パラメータ表示ステップ1378で生成された表示パラメータデータは、医療スキャン映像にマッピングされて、1つ以上の他のサブシステム101および/またはクライアントデバイス120による使用のために、その対応する表示パラメータデータ470の一部または全部をポピュレートすることができる。
パラメータ表示ステップ1378を実行することは、異常を含む1つ以上の画像スライスを決定することによって、かつ/または異常の最も最適な二次元ビューを有する1つ以上の画像スライスを決定することによって、異常を含む1つ以上の画像スライスを選択することを含み得、この決定は、例えば、異常を含むと判定された連続スライスのセットにおける中心スライスを選択すること、異常の最大断面を有するスライスを選択すること、選択された最も類似する二次元画像に最も類似する異常の二次元画像を含むスライスを選択すること、異常分類ステップおよび/または類似スキャン映像識別ステップへの入力として使用されたスライスを選択すること、あるいは他の基準に基づくことによって行われる。これはまた、異常を含む識別された領域に基づいて1つ以上の選択された画像スライスを自動的にトリミングすることを含み得る。これはまた、異常を最もよく表示する理想的なハンスフィールドウィンドウを選択することができる。これはまた、医療スキャンインターフェース評価システムによって生成されたデータに基づいて、かつ医療スキャン映像に基づいて他の表示パラメータを選択することを含み得る。
図8A~8Fは、医療ピクチャアーカイブ統合システム2600の実施形態を示している。医療ピクチャアーカイブ統合システム2600は、医療スキャン映像を記憶するPACSのような、医療ピクチャアーカイブシステム2620に統合サポートを提供することができる。医療ピクチャアーカイブ統合システム2600は、ネットワーク2630を介して中央サーバシステム2640から受信したモデルパラメータを利用して、医療ピクチャアーカイブシステム2620から受信した医療スキャン映像の非識別化医療スキャン映像に対して推論機能を実行することができる。推論機能を実行することによって生成された注釈データは、医療ピクチャアーカイブシステムに返送することができる。さらに、注釈データおよび/または非識別化医療スキャン映像は、中央サーバシステム2640に送信することができ、中央サーバシステムは、この情報を訓練して、後に受信される医療スキャン映像で使用するために医療ピクチャアーカイブ統合システム2600に返送するための新しいおよび/または更新されたモデルパラメータを生成することができる。
種々の実施形態では、医療ピクチャアーカイブ統合システム2600は、保護された健康情報(PHI:protected health information)用に指定された第1のメモリを含む非識別化システムを含み、これは、医療ピクチャアーカイブシステムから受信されたDICOM画像に対して非識別化機能を実行して、少なくとも1つの患者識別子を識別し、少なくとも1つの患者識別子を含まない非識別化医療スキャン映像を生成するように動作可能である。医療ピクチャアーカイブ統合システムは、第1のメモリとは別個の第2のメモリに非識別化医療スキャン映像を記憶する非識別化画像ストレージシステムと、第2のメモリから取り出された非識別化医療スキャン映像に対して推論機能を実行するために中央サーバから受信したモデルパラメータを利用して、注釈付きDICOMファイルとして医療ピクチャアーカイブシステムに送信するための注釈データを生成するように動作可能な注釈付けシステムと、をさらに含む。
第1のメモリおよび第2のメモリは、別個のストレージシステムを利用することによって実装することができ、第1のメモリは、PHI記憶用に指定された第1のストレージシステムによって実装することができ、第2のメモリは、非識別化データの記憶用に指定された第2のストレージシステムによって実装することができる。第1のストレージシステムは、注釈付けシステムによるアクセスから保護することができ、第2のストレージシステムは、注釈付けシステムによってアクセス可能であり得る。医療ピクチャアーカイブ統合システム2600は、第1のストレージシステム内のデータに対して非識別化機能を実行して、非識別化されたデータを生成するように動作可能であり得る。次いで、非識別化データは、注釈付けシステムによるアクセスのために第2のストレージシステムに記憶することができる。第1および第2のストレージシステムは、物理的に分離することができ、それぞれが、それ自体の別個のメモリデバイスのうちの少なくとも1つを利用する。代替的に、第1および第2のストレージシステムは、データがメモリデバイスの同一のセット上の別個の仮想メモリロケーションに記憶される場合、事実上別個であり得る。ファイアウォール、仮想機械、および/または他の保護されたコンテナ化を利用して、各ストレージシステム内のデータの分離を実施し、第1のストレージシステムを注釈付けシステムによるアクセスおよび/または他の無許可アクセスから保護し、かつ/あるいは非識別化機能の適用によって適切に非識別化された第1のストレージシステムのデータのみを第2のストレージシステムに記憶できることを保証することができる。
図8Aに示すように、医療ピクチャアーカイブシステム2620は、複数のモダリティ機械2622から、例えばCT機械、MRI機械、X線機械、および/または医療スキャン映像を生成する他の医療撮像機械から画像データを受信することができる。医療ピクチャアーカイブシステム2620は、図4Aおよび4Bに関連して説明した属性の一部または全部に関連して説明したように、この画像データをDICOM画像フォーマットで記憶することができ、かつ/または画像データを複数の医療スキャンエントリ352に記憶することができる。「DICOM画像」は、本明細書では、医療ピクチャアーカイブシステム2620によって記憶された医療スキャン映像を指すために使用される。一方、医療ピクチャアーカイブ統合システム2600は、他のフォーマットで医療スキャン映像を記憶する医療ピクチャアーカイブシステム2620に統合サポートを提供することができる。
医療ピクチャアーカイブ統合システム2600は、医療ピクチャアーカイブシステム2620からデータをそれぞれ送信および受信するように動作可能な受信機2602および送信機2604を含み得る。例えば、受信機2602および送信機2604は、医療画像アーカイブシステム2620によって認識されるDICOM通信プロトコルおよび/または別の通信プロトコルに従って、データをそれぞれ受信および送信するように構成することができる。受信機は、医療ピクチャアーカイブシステム2620からDICOM画像を受信することができる。送信機2604は、注釈付きDICOMファイルを医療ピクチャアーカイブシステム2620に送信することができる。
受信機2602を介して受信されたDICOM画像は、非識別化システム2608に直接送信することができる。非識別化システム2608は、第1のDICOM画像に対して非識別化機能を実行して、DICOM画像内の少なくとも1つの患者識別子を識別し、識別された少なくとも1つの患者識別子を含まない非識別化医療スキャン映像を生成するように動作可能であり得る。本明細書で使用されるように、患者識別子は、患者ID番号または他の一意の患者識別子、アクセッション番号、サービスオブジェクトペア(SOP)インスタンス一意識別子(UID)フィールド、その日付および/または時間にスキャン映像された患者のアイデンティティを決定するために使用され得るスキャン日付および/または時間、ならびに/あるいは患者、医師、または病院に対応する他のプライベートデータなどの、医療スキャン映像の画像データ、ヘッダ、および/またはメタデータにおける任意の患者識別データを含み得る。一部の実施形態では、非識別化医療スキャン映像は依然としてDICOM画像フォーマットである。例えば、患者識別子を含まない複製DICOM画像を生成することができ、かつ/または新しいDICOM画像の患者識別子がマスキングされ、難読化され、除去され、カスタム基準と置き換えられ、かつ/もしくは別様で匿名化されるように元のDICOM画像を変更することができる。他の実施形態では、非識別化医療スキャン映像は、識別情報を含まない異なる画像フォーマットおよび/または異なるデータフォーマットに従ってフォーマット化される。一部の実施形態では、例えば、特定の医師または他の医療専門家に関連付けられた他の個人情報も、識別および匿名化することができる。
一部の患者識別情報は、DICOM画像のDICOMヘッダに、例えば、患者識別子の指定フィールドに含めることができる。これらの対応するフィールドは、対応するDICOMヘッダフィールド内で匿名化することができる。他の患者識別情報は、医療スキャン画像データ410などの画像自体に含めることができる。例えば、画像データは、画像がデジタル化される前に画像のハードコピー上に手書きされた患者名または他の識別子を含み得る。別の例として、病院で管理されているアームバンドまたは患者の近くの他の視覚的な患者情報が、画像自体に取り込まれていてもよい。コンピュータビジョンモデルは、例えば、新しいDICOM画像が元のDICOM画像の識別部分をカバーする基準画像を含む場合、これらの識別子の存在を匿名化のために検出することができる。一部の実施形態では、DICOMヘッダ内で識別された患者情報を利用して、画像自体内の対応する患者情報を検出することができる。例えば、匿名化前にDICOMヘッダから抽出された患者名を使用して、画像内の患者名を検索し、かつ/または患者名を含む画像の場所を検出することができる。一部の実施形態では、非識別化システム2608は、図10A、10Bおよび11に関連して考察した非識別化システムによって実装され、かつ/または図10A、10Bおよび11に関連して考察した機能および/または動作を利用する。
非識別化医療スキャン映像は、非識別化画像ストレージシステム2610に記憶することができ、注釈付けシステム2612は、非識別化画像ストレージシステム2610から非識別化医療スキャン映像にアクセスして処理することができる。非識別化ストレージシステムは、注釈付けシステム2612による非識別化医療スキャン映像の処理が完了するまで、複数の非識別化DICOM画像をアーカイブすることができ、かつ/または非識別化医療スキャン映像の一時的ストレージとして機能することができる。注釈付けシステム2612は、中央サーバシステム2640から受信されたモデルパラメータを利用して、非識別化医療スキャン映像に対して推論機能を実行することによって、注釈データを生成することができる。注釈データは、図4Aおよび4Bに関連して考察したように、診断データ440の一部または全部に対応し得る。一部の実施形態では、注釈付けシステム2612は、モデルパラメータを利用して、図7Bに関連して考察したように、医療ピクチャアーカイブシステム2620から受信した非識別化医療スキャン映像に対して、医療スキャン画像分析システム112の推論ステップ1354、検出ステップ1372、異常分類ステップ1374、類似スキャン映像識別ステップ1376、および/またはパラメータ表示ステップ1378を実行することができる。
一部の実施形態では、複数の推論機能のためのモデルパラメータは、中央サーバシステム2640から受信することができる。例えば、各推論機能は、異なるスキャン映像カテゴリのセットのうちの1つに対応する。各スキャン映像カテゴリは、1つ以上のスキャン映像モダリティ、複数の解剖学的領域のうちの1つ、および/または他のスキャン映像分類器データ420の一意の組み合わせに対応し得る。例えば、第1の推論機能は、胸部CTスキャン映像に対応する非識別化医療スキャン映像に対して訓練され、それを対象とすることができ、第2の推論機能は、頭部MRIスキャン映像に対応する非識別化医療スキャン映像に対して訓練され、それを対象とすることができる。注釈付けシステムは、非識別化医療スキャン映像において示されるDICOM画像のスキャン映像カテゴリを決定し、決定されたスキャン映像カテゴリに対応する推論機能を選択することに基づいて、推論機能のセットのうちの1つを選択することができる。
医療ピクチャアーカイブシステム2620から受信されたスキャン映像が、注釈付けシステムが対応する推論機能を実行するように動作可能であるスキャン映像カテゴリのセットと一致することを確実にするために、送信機は、スキャン映像分類器データ420に対応するパラメータなどの画像タイプパラメータを示すDICOMクエリなどの要求を送信することができ、スキャン映像分類器データ420は、例えば1つ以上のスキャン映像モダリティ、1つ以上の解剖学的領域、および/または他のパラメータを示す。例えば、この要求は、推論機能のセットに対応するスキャン映像カテゴリのセットに一致するすべての入力スキャン映像を示すことができ、そのために、注釈付けシステム2612は、中央サーバシステム2640からモデルパラメータを取得し、実行するように動作可能である。
選択された推論機能を実行することによって注釈データが生成されると、注釈付けシステム2612は、記憶用に医療画像アーカイブシステム2620に送信するための注釈付きDICOMファイルを生成することができる。注釈付きDICOMファイルは、図4Aおよび4Bの診断データ440および/または異常注釈データ442のフィールドの一部または全部を含み得る。注釈付きDICOMファイルは、識別された異常の場所データおよび/または表示データを提供するスキャン映像オーバーレイデータを含むことができ、これらは、元のDICOM画像とともに使用して、DICOM画像内に異常を視覚的に示すことができ、かつ/または別様で例えば医療スキャン支援レビューシステム102とともに使用するために注釈データを視覚的に提示することができる。例えば、DICOMプレゼンテーション状態ファイルを生成して、非識別化医療スキャン映像において識別された異常の場所を示すことができる。DICOMプレゼンテーション状態ファイルは、注釈データを元のDICOM画像にリンクするために、例えばDICOMプレゼンテーション状態ファイルのメタデータ内に元のDICOM画像の識別子を含み得る。他の実施形態では、完全な複製DICOM画像が生成され、これは、この複製注釈付きDICOM画像を元のDICOM画像にリンクする識別子を有する注釈データを含む。
注釈付きDICOMファイルを元のDICOM画像にリンクする識別子は、非識別化システム2608によって元のDICOMファイルから抽出することができ、したがって、医療ピクチャアーカイブシステム2620を注釈付きDICOMファイルをそのストレージ内の元のDICOM画像にリンクすることが可能となる。例えば、非識別化医療スキャン映像は、非識別化医療スキャン映像を元のDICOMファイルにリンクする識別子であって、非識別化医療スキャン映像を患者識別子または他のプライベートデータにリンクしない識別子を含み得る。
一部の実施形態では、注釈付きDICOMファイルを生成することは、元のDICOMヘッダの1つ以上のフィールドを変更することを含む。例えば、標準化されたヘッダフォーマット化機能パラメータは、中央サーバシステムから受信することができ、かつ、注釈付けシステムによって利用して、元のDICOMヘッダを変更して標準化されたDICOMヘッダフォーマットに一致させることができる。標準化されたヘッダフォーマット化機能は、本明細書で考察する他の医療スキャン映像分析機能と同様に訓練することができ、かつ/または医療スキャン映像分析機能エントリ356の一部もしくは全部のフィールドによって特徴付けることができる。注釈付けシステムは、非識別化医療スキャン映像に対して標準化されたヘッダフォーマット化機能を実行して、注釈付きDICOMファイル内で医療ピクチャアーカイブシステム2620に返送される医療スキャン映像用の新しい標準化されたDICOMヘッダを生成し、かつ/または元のDICOMファイルのヘッダを置き換えることができる。標準化されたヘッダフォーマット化機能は、注釈データを生成するために利用される他の推論機能に加えて実行することができる。他の実施形態では、医療ピクチャアーカイブ統合システム2600は、主に、医療ピクチャアーカイブシステム2620によって記憶された医療スキャン映像のヘッダ標準化のために実装される。かかる実施形態では、元のDICOM画像に対する修正されたDICOMヘッダを生成するために、非識別化データに対して標準化ヘッダフォーマット化機能のみが実行されるが、非識別化医療スキャン映像には注釈が付けられない。
ヘッダ標準化の一部の実施形態では、注釈付けシステムは、DICOMヘッダフィールドの一部または全部に対する許容可能な標準化エントリのセットを記憶することができる。また、注釈付けシステムは、注釈付きDICOMファイルに対する新しいDICOMヘッダの1つ以上のフィールドをポピュレートする際に、許容可能な標準化エントリのセットのうちの1つを選択することができる。例えば、注釈付けシステムによって決定されるスキャン映像カテゴリのセットの各々は、DICOMヘッダの1つ以上のフィールドの標準化されたエントリに対応し得る。したがって、新しいDICOMヘッダは、決定されたスキャン映像カテゴリに基づいてポピュレートされ得る。
一部の実施形態では、標準化されたエントリのセットの各々は、異なる順序のエントリ、概してスペルが誤ったエントリ、または標準化されたフォーマットに従わない他の類似のエントリなど、関連する標準化されていないエントリのセットにマッピングすることができる。例えば、スキャン映像カテゴリに対応するフィールドに対する許容可能な標準化されたエントリのセットの1つは、「胸部CT」を含むことができ、これは、「CT胸部」、「コンピュータ断層撮影CT」、および/または標準化されていない他のエントリを含み得る類似の標準化されていないエントリのセットにマッピングすることができる。かかる実施形態では、注釈付けシステムは、元のDICOMヘッダが類似の非標準化エントリのうちの1つであると判定することができ、マッピングされた標準化エントリを、修正DICOMヘッダのエントリとして選択することができる。他の実施形態では、画像データ自体および/または他のヘッダデータは、標準化されたフィールドを決定するために注釈システムによって利用され得る。例えば、入力品質保証機能1106は、中央サーバシステムによって訓練され、注釈付けシステムに送信されて、非識別化医療スキャン映像の画像データまたは他のデータに基づいて、1つ以上の適切なスキャン映像分類器フィールドまたは1つ以上の他のDICOMヘッダフィールドを決定することができる。入力品質保証機能によって決定された1つ以上のフィールドに基づいて、修正されたDICOMヘッダの対応するフィールドに1つ以上の標準化ラベルを割り当てることができる。
一部の実施形態では、DICOMヘッダは、推論機能を実行する際に生成された注釈データに基づいて修正される。特に、DICOM優先ヘッダフィールドは、推論機能を実行する際に検出された異常の重大度および/または時間感度に基づいて、自動的に生成および/または修正することができる。例えば、頭部CTスキャン映像に対応するDICOM画像の非識別化医療スキャン映像における脳出血を示す注釈データに応答して、DICOM優先ヘッダフィールドを低優先度から高優先度に変更することができ、高優先度DICOM優先ヘッダフィールドを含む新しいDICOMヘッダを医療ピクチャアーカイブシステム2620に返送して、頭部CTスキャン映像の元のDICOM画像に置き換えるか、または別様でマッピングすることができる。
種々の実施形態では、医療ピクチャアーカイブシステム2620は、保護された健康情報(PHI)に関する要件に準拠するために、ネットワーク2630から切断され、PHIは、例えば、DICOM画像に含まれ、かつ/または別様で医療ピクチャアーカイブシステム2620によって記憶される患者識別子および他のプライベート患者情報などである。医療ピクチャアーカイブ統合システム2600は、非識別化システム2608を利用して最初にDICOMデータを非識別化することによりプライベート患者情報を依然として保護しながら、DICOM画像の処理を可能にすることができる。非識別化システム2608は、例えばPHI用に指定された医療ピクチャアーカイブ統合システムの指定されたプロセッサおよびメモリを利用することができる。非識別化システム2608をネットワーク2630から切り離して、患者識別子を依然として含むDICOM画像がネットワーク2630を介してアクセスされるのを防止することができる。例えば、図8Aに示すように、非識別化システム2608は、ネットワークインターフェース2606に接続されていない。さらに、非識別化システム2608のみが、受信機2602を介して、医療ピクチャアーカイブシステム2620から受信された元のDICOMファイルにアクセスしている。非識別化画像ストレージシステム2610および注釈付けシステム2612は、ネットワークインターフェース2606を介してネットワーク2630に接続されているので、非識別化システム2608によって生成された非識別化医療スキャン映像のみを記憶し、それにアクセスする。
非識別化システム2608を非識別化画像ストレージシステム2610および注釈付けシステム2612から分離するこのコンテナ化は、医療ピクチャアーカイブ統合システム2600の一実施形態を提示する図8Bにさらに示されている。非識別化システム2608は、バス2659を介して受信機2602に接続された、それ自体の指定メモリ2654および処理システム2652を含み得る。例えば、このメモリ2654および処理システム2652は、PHI用に指定することができ、PHIを処理するための要件に準拠することができる。メモリ2654は、実行可能命令を記憶することができ、この実行可能命令は、処理システム2652によって実行されると、非識別化システムが非識別化システムの受信機2602を介して受信されたDICOM画像に対して非識別化機能を実行することを可能にする。入力DICOM画像は、処理のためにメモリ2654に一時的に記憶することができ、非識別化機能を実行する際に検出された患者識別子は、匿名化を受けるためにメモリ2654に一時的に記憶され得る。インターフェース2655は、非識別化画像ストレージシステム2610および注釈付けシステム2612によって使用するために、非識別化医療スキャン映像をインターフェース2661に送信することができる。インターフェース2655は、元のDICOMファイルを送信することから保護することができ、非識別化医療スキャン映像のみを送信するように指定することができる。
バス2669は、インターフェース2661、ならびに送信機2604およびネットワークインターフェース2606を、非識別化画像ストレージシステム2610および注釈付けシステム2612に接続する。非識別化画像ストレージシステム2610および注釈付けシステム2612は、別個のプロセッサおよびメモリを利用することができ、または共有プロセッサおよび/またはメモリを利用することができる。例えば、非識別化画像ストレージシステム2610は、非識別化画像が受信され、注釈データを生成するために処理される際に、注釈付けシステム2612の一時メモリとして機能することができる。
図8Bに描写するように、非識別化画像ストレージシステム2610は、メモリ2674を含み得、メモリ2674は、注釈付けシステム2612による処理を受ける際の入力非識別化医療スキャン映像を一時的に記憶することができ、かつ/または医療ピクチャアーカイブ統合システム2600によって受信された複数のDICOM画像に対応する複数の非識別化医療スキャン映像をアーカイブすることができる。注釈付けシステム2612は、実行可能命令を記憶するメモリ2684を含み得、この実行可能命令は、処理システム2682によって実行されると、注釈付けシステム2612に非識別化医療スキャン映像に対して第1の推論機能を実行させて、インターフェース2606を介して受信されたモデルパラメータを利用することによって注釈データを生成させ、送信機2604を介した送信用に注釈データに基づく注釈付きDICOMファイルを生成させる。モデルパラメータは、メモリ2684に記憶することができ、例えば、異なるスキャン映像カテゴリのセットに対応する複数の推論機能のモデルパラメータを含み得る。
医療ピクチャアーカイブ統合システムは、第1の地理的サイト、例えば医療ピクチャアーカイブシステム2620と提携している病院または他の医療エンティティに設置されたオンサイトシステムであり得る。病院または他の医療エンティティはさらに、非識別化システムのPHIの責任を負うことができ、ここで例えば、メモリ2654および処理システム2652は、病院または他の医療エンティティによって所有され、維持され、かつ/または別様で病院または他の医療エンティティと提携している。中央サーバシステム2640は、病院または他の医療エンティティと提携していない第2の別個の地理的サイト、および/または医療ピクチャアーカイブシステム2620と提携していない別個の地理的サイトに配置することができる。中央サーバシステム2640は、ネットワークファイアウォールの外側、および/または病院もしくは他の医療エンティティの物理的セキュリティの外側にあるように構成されるか、別様で病院もしくは他の医療エンティティの特定の管理的、物理的、および技術的なセーフガードによってカバーされないサーバであり得る。
図8Cはさらに、既存の推論機能を改善するため、かつ/または、例えば新しいスキャン映像カテゴリに対応する新しい推論機能を追加するために、モデルパラメータが経時的にどのように更新され得るかを示している。具体的には、非識別化システム2608によって生成された非識別化医療スキャン映像の一部または全部は、中央サーバシステムに返送することができ、中央サーバシステム2640は、このデータに基づいて訓練して、既存の推論機能の更新されたモデルパラメータを生成することによって既存のモデルを改善することができ、かつ/または新しい推論機能の新しいモデルパラメータを生成することによって、例えば新しいスキャン映像カテゴリに対応する新しいモデルを生成することができる。例えば、中央サーバシステム2640は、医療ピクチャアーカイブ統合システム2600から受信した複数の非識別化医療スキャン映像に対して、図7Aに関連して考察したように、医療スキャン画像分析システム112の訓練ステップ1352を実行することによって、更新されたおよび/または新しいモデルパラメータを生成することができる。
画像タイプパラメータは、モデルを訓練および/または再訓練するために受信される非識別化医療スキャン映像のセットの特性を決定するために、中央サーバシステムによって決定され得る。例えば、画像タイプパラメータは、1つ以上のスキャン映像カテゴリに対応することができ、スキャン映像分類器データ420を示すことができ、1つ以上のスキャン映像モダリティ、1つ以上の解剖学的領域、日付範囲、および/または他のパラメータを示すことができる。画像タイプパラメータは、訓練される対応する推論機能について決定された訓練パラメータ620に基づいて、ならびに/または訓練される推論機能に対応する新しいおよび/もしくは既存のスキャン映像カテゴリの特性に基づいて、中央サーバシステムによって決定され得る。画像タイプパラメータは、医療ピクチャアーカイブ統合システム2600に送信することができ、かつ画像タイプパラメータを示すDICOMクエリなどの要求を、送信機2604を介して医療ピクチャアーカイブシステム2620に送信することができる。例えば、処理システム2682を利用して、中央サーバシステム2640から受信した画像タイプパラメータに基づいてDICOMクエリを生成することができる。医療ピクチャアーカイブシステムは、1つ以上のDICOM画像が画像タイプパラメータと有利に比較されるという判定に応答して、1つ以上のDICOM画像を医療ピクチャアーカイブ統合システムに自動的に送信することができる。応答して受信されたDICOM画像は、非識別化システム2608によって非識別化することができる。一部の実施形態では、非識別化医療スキャン映像は、例えば、注釈データを生成することなく、中央サーバシステム2640に直接送信することができる。
中央サーバシステムは、非識別化医療スキャン映像の受信されたセット上で訓練することによって新しいおよび/または更新されたモデルパラメータを生成することができ、新しいおよび/または更新されたモデルパラメータを非識別化ストレージシステムに送信することができる。モデルパラメータが新しいスキャン映像カテゴリの新しい推論機能に対応する場合、医療ピクチャアーカイブ統合システム2600は、医療ピクチャアーカイブシステムへの送信のためのDICOMクエリなどの要求を生成することができ、医療ピクチャアーカイブシステムは、新しいスキャン映像カテゴリに対応する画像タイプパラメータに対応する入力スキャン映像が医療ピクチャアーカイブ統合システムに送信されることを示す。注釈付けシステムは、新しい推論機能を含むように推論機能のセットを更新することができる。注釈付けシステムは、対応するDICOM画像が新しいスキャン映像カテゴリに対応することをこれらの非識別化医療スキャン映像の各々が示すと判定することで、非識別化システムによって後に生成される非識別化医療スキャン映像のための推論機能のセットから新しい推論機能を選択することができる。新しいモデルパラメータを利用して、これらの非識別化医療スキャン映像の各々に対して新しい推論機能を実行して、対応する注釈データを生成することができる。これらの非識別化医療スキャン映像の各々に対応する注釈付きDICOMファイルは、送信機を介して医療ピクチャアーカイブシステムに送信するために生成することができる。
一部の実施形態では、中央サーバシステム2640は、ネットワーク2630を介して、例えば、各々が複数の異なる病院または他の医療エンティティに設置された複数の医療ピクチャアーカイブ統合システム2600から、複数の非識別化医療スキャン映像を受信する。中央サーバシステムは、複数の医療ピクチャアーカイブ統合システム2600の一部または全部からの非識別化医療スキャン映像を統合することにより訓練セットを生成して、1つ以上の推論機能を訓練し、モデルパラメータを生成することができる。複数の医療ピクチャアーカイブ統合システム2600は、推論機能の同一のセットまたは推論機能の異なるセットを利用することができる。一部の実施形態では、複数の医療ピクチャアーカイブシステム2620の各々によって利用される推論機能のセットは、訓練データの異なるセットに対して訓練される。例えば、訓練データの異なるセットは、対応する医療ピクチャアーカイブ統合システム2600から受信された非識別化医療スキャン映像のセットに対応し得る。
一部の実施形態では、医療スキャン映像診断システム108を利用して注釈付けシステム2612を実装することができる。ここで、医療スキャン映像診断システム108の対応するサブシステム処理デバイス235およびサブシステムメモリデバイス245を利用して、それぞれ処理システム2682およびメモリ2684が実装される。図6Aに関連して考察したようにネットワーク150を介して医療スキャン映像を受信するのではなく、医療スキャン映像診断システム108は、非識別化システム2608によって生成され、かつ/または非識別化画像ストレージシステム2610から取り出された入力非識別化医療スキャン映像に対して、選択された医療スキャン映像推論機能1105を実行することができる。メモリ2684は、各々がスキャン映像カテゴリ1120に対応する医療スキャン映像推論機能1105のセットを記憶することができ、推論機能は、非識別化医療スキャン映像のスキャン映像カテゴリを決定し、対応する推論機能を選択することに基づいて、セットから選択される。処理システム2682は、選択された推論機能1105を実行して推論データ1110を生成することができ、この推論データ1110は、注釈付けシステム2612によってさらに利用されて、医療ピクチャアーカイブシステム2620に返送するための注釈付きDICOMファイルを生成することができる。新しい医療スキャン映像推論機能1105は、対応するモデルパラメータが中央サーバシステムから受信されたときにセットに追加され得る。修復ステップ1140は、注釈付けシステム2612によってローカルに実行することができ、かつ/または中央サーバシステム2640に送信された1つ以上の非識別化医療スキャン映像および対応する注釈データを利用することで、中央サーバシステム2640によって実行することができる。更新されたモデルパラメータは、修復ステップ1140を実行した結果として、中央サーバシステム2640によって生成され、医療ピクチャアーカイブ統合システム2600に送信され得る。
中央サーバシステム2640は、医療スキャン画像分析システム112および/または医療スキャン映像診断システム108などの医療スキャンサブシステム101のうちの1つ以上を利用することによって実装され、1つ以上の推論機能のモデルパラメータを生成することができる。中央サーバシステムは、1つ以上の医療ピクチャアーカイブ統合システム2600から受信された非識別化医療スキャン映像および/または注釈データを含む医療スキャン映像データベース342を記憶するか、あるいは別様でそれらと通信することができる。医療スキャン映像データベース342の一部または全部のエントリは、1つ以上の推論機能のモデルパラメータを生成するための訓練データとして利用することができる。医療スキャン映像データベース342のこれらのエントリは、本明細書で考察されるように、他のサブシステム101によって利用することができる。例えば、他のサブシステム101は、中央サーバシステム2640を利用して、指定された基準を満たす医療スキャン映像および/または対応する注釈データをフェッチすることができる。中央サーバシステム2640は、この基準に基づいて医療ピクチャアーカイブ統合システム2600に照会することができ、それに応答して、非識別化医療スキャン映像および/または注釈データを受信することができる。これは、要求元のサブシステム101に直接送信することができ、かつ/または要求元のサブシステム101によるアクセスのために医療スキャン映像データベース342またはデータベースストレージシステム140の別のデータベースに追加することができる。
代替として、または加えて、中央サーバシステム2640は、ユーザデータベース344を記憶するか、または別様でそれと通信することができる。ユーザデータベース344は、各々が複数の医療ピクチャアーカイブ統合システム2600のうちの対応する1つを利用する、複数の医療エンティティの各々に対応するユーザプロファイルエントリを記憶する。例えば、医療エンティティに対応する基本ユーザデータは、基本ユーザデータとして記憶することができ、対応する医療ピクチャアーカイブ統合システムによる1つ以上の推論機能の使用を示すスキャン映像の数または他の消費情報は、消費使用データとして記憶することができ、かつ/または訓練データとして中央サーバシステムに送信された非識別化スキャン映像を示すスキャン映像の数または他の寄与情報は、寄与使用データとして記憶することができる。ユーザプロファイルエントリはまた、モデルパラメータまたは機能識別子(例えば、対応する医療ピクチャアーカイブ統合システム2600によって現在利用されている推論機能の医療スキャン映像分析機能識別子357など)のリストを有する推論機能データを含み得る。ユーザデータベース344のこれらのエントリは、本明細書で考察されるように、他のサブシステム101によって利用することができる。
代替として、または加えて、中央サーバシステム2640は、医療スキャン映像分析機能データベース346を記憶するか、または別様にそれと通信して、医療スキャン映像分析機能エントリ356として、モデルパラメータ、訓練データ、または1つ以上の推論機能のための他の情報を記憶することができる。一部の実施形態では、モデルパラメータデータ623はモデルパラメータを示すことができ、機能分類器データ610は、推論機能エントリのスキャン映像カテゴリを示すことができる。一部の実施形態では、医療スキャン映像分析機能エントリ356は、使用識別情報をさらに含み得、この使用識別情報は、医療ピクチャアーカイブ統合システム識別子、医療エンティティ識別子を示し、かつ/あるいは別様で医療スキャン映像分析機能エントリ356に対応する推論機能を利用するためにどの医療アーカイブ統合システムおよび/または医療エンティティが対応するモデルパラメータを受信したかを示す。医療スキャン映像分析機能データベース346のこれらのエントリは、本明細書で考察されるように、他のサブシステム101によって利用することができる。
一部の実施形態では、非識別化機能は、例えば、医療スキャン映像分析機能データベース346内の対応する医療スキャン映像分析機能エントリ356を有する医療スキャン映像分析機能である。一部の実施形態では、非識別化機能は、中央サーバシステム2640によって訓練される。例えば、中央サーバシステム2640は、非識別化システム2608による使用のために、非識別化機能パラメータを医療ピクチャアーカイブ統合システム2600に送信することができる。複数の医療ピクチャアーカイブ統合システム2600を有する実施形態では、複数の医療ピクチャアーカイブ統合システム2600の各々は、同一または異なる非識別化機能を利用することができる。一部の実施形態では、複数の医療ピクチャアーカイブ統合システム2600の各々によって利用される非識別化機能は、訓練データの異なるセットに対して訓練される。例えば、訓練データの異なるセットは、各対応する医療ピクチャアーカイブ統合システム2600から受信された非識別化医療スキャン映像の各異なるセットに対応し得る。
一部の実施形態では、図8D~8Fに示すように、医療ピクチャアーカイブ統合システム2600はさらに、医療ピクチャアーカイブシステム2620によって記憶されたDICOM画像に対応する複数の医療レポートを含む、放射線医学情報システム(RIS:Radiology Information System)などのレポートデータベース2625と通信することができる。
図8Dに示すように、医療ピクチャアーカイブ統合システム2600は、受信機2603をさらに含み得、受信機2603は、DICOM画像に対応するレポートデータをレポートデータベース2625から受信する。レポートデータベース2625は、医療ピクチャアーカイブシステム2620と提携することができ、医療ピクチャアーカイブシステムに記憶されたDICOM画像に対応するレポートデータを記憶することができる。レポートデータベース2625のレポートデータはPHIを含むことができ、したがって、レポートデータベース2625はネットワーク2630から切断することができる。
レポートデータは、例えば、対応するDICOM画像をレビューした放射線医によって生成された自然言語テキストを含み得る。レポートデータを使用して、非識別化医療スキャン映像を生成することができる。例えば、非識別化システム2608は、レポートデータに対して自然言語分析機能を実行して、レポートデータ内の患者識別テキストを識別する。非識別化システム2608は、この患者識別テキストを利用して、DICOM画像内の一致する患者識別子を検出して、DICOM画像の患者識別子を識別し、非識別化医療スキャン映像を生成することができる。一部の実施形態では、レポートデータは、識別された患者識別テキストを難読化、ハッシング、除去、基準との置換、または別様で匿名化することによって、非識別化して、非識別化レポートデータを生成することができる。
非識別化レポートデータは、注釈データを生成するために、例えばDICOM画像とともに注釈付けシステム2612によって利用することができる。例えば、注釈付けシステム2612は、レポートデータの非識別化自然言語テキストに対して自然言語分析機能を実行して、注釈データの一部または全部を生成することができる。一部の実施形態では、非識別化レポートデータは、中央サーバシステムに送信され、例えば、推論機能、自然言語分析機能、他の医療スキャン映像分析機能、および/または少なくとも1つの他のサブシステム101による使用のための訓練データとして使用される。例えば、他のサブシステム101は、中央サーバシステム2640を利用して、特定の医療スキャン映像に対応するか、または別様で指定された基準を満たす医療レポートをフェッチすることができる。中央サーバシステム2640は、この基準に基づいて医療ピクチャアーカイブ統合システム2600に照会することができ、それに応じて非識別化医療レポートを受信することができる。これは、要求元のサブシステム101に直接送信することができ、医療スキャン映像データベース342、非識別化レポートデータベース、または要求元のサブシステム10によるアクセスのためのデータベースストレージシステム140の別のデータベースに追加することができる。
一部の実施形態では、医療ピクチャアーカイブ統合システム2600は、DICOM画像から抽出された共通識別子を利用することによって、受信したDICOM画像に対応するレポートデータについてレポートデータベース2625に照会することができる。
一部の実施形態では、レポートデータは、複数のDICOM画像に対応し得る。例えば、レポートデータは、患者の複数の医療スキャン映像を記述する自然言語テキストを含み得、これには、複数のシーケンス、複数のモダリティ、および/または経時的に取得された複数の医療スキャン映像が含まれ得る。かかる実施形態では、レポートデータ内で検出された患者識別テキストおよび/または注釈データを適用して、それが記述する複数のDICOM画像に対する注釈データを非識別化および/または生成することもできる。かかる実施形態では、医療ピクチャアーカイブ統合システム2600は、レポートデータに対応する1つ以上の追加のDICOM画像について医療ピクチャアーカイブシステム2620に照会することができ、それに応じて、レポートデータを利用することによって、これらの追加のDICOM画像についての非識別化データおよび注釈データを生成することができる。
一部の実施形態では、図8Eに示すように、医療ピクチャアーカイブシステム2620は、レポートデータベース2625と通信する。医療ピクチャアーカイブシステム2620は、レポートデータベース2625からDICOM画像に対応するレポートデータを要求することができる。医療ピクチャアーカイブシステム2620は、受信機2602を介して受信するために、DICOM通信プロトコルを介してレポートデータを医療ピクチャアーカイブ統合システム2600に送信することができる。医療ピクチャアーカイブシステム2620は、対応するDICOM画像を医療ピクチャアーカイブ統合システム2600に送信することを判定したことに応答して、対応するDICOM画像から抽出された共通識別子を利用して、レポートデータについてレポートデータベース2625に照会することができる。
図8Fは、レポートデータが注釈付けシステム2612によって生成され、送信機2605を介して、例えばDICOM通信プロトコルまたはレポートデータベース2625によって認識される他のプロトコルを介してレポートデータベース2625に送信される一実施形態を提示している。他の実施形態では、レポートデータは代わりに送信機2604を介して医療ピクチャアーカイブシステム2620に送信される。また、医療ピクチャアーカイブシステム2620は、レポートデータをレポートデータベース2625に送信する。
レポートデータは、非識別化医療スキャン映像に対して推論機能を実行する出力として、注釈付けシステム2612によって生成することができる。レポートデータは、異常注釈データ442などの他の診断データ440に基づいて自動的に生成された自然言語テキストデータ448を含み得、この異常注釈データ442は、推論機能を実行することによって、例えば、医療スキャン映像自然言語分析システム114によって訓練された医療スキャン映像自然言語生成機能を利用することによって決定される。レポートデータは、注釈付きDICOMファイルの代わりに、またはそれに加えて生成することができる。
図9は、医療ピクチャアーカイブ統合システム2600によって実行するための方法を示すフローチャートを提示しており、医療ピクチャアーカイブ統合システム2600は、少なくとも1つの第1のプロセッサおよび少なくとも1つの第2のプロセッサによってそれぞれ実行されると、医療ピクチャアーカイブ統合システムに以下のステップを実行させる実行命令を記憶する第1のメモリおよび第2のメモリを含む。種々の実施形態では、第1のメモリおよび少なくとも1つの第1のプロセッサは、それぞれ、図8Bのメモリ2654および処理システム2652を利用することによって実装される。種々の実施形態では、第2のメモリは、図8Bのメモリ2674および/またはメモリ2684を利用することによって実装される。種々の実施形態では、少なくとも1つの第2のプロセッサは、図8Bの処理システム2682を利用することによって実装される。
ステップ2702は、PHI用に指定された第1のメモリに記憶するための第1のDICOM画像を、受信機を介して医療ピクチャアーカイブシステムから受信することを含み、第1のDICOM画像は、少なくとも1つの患者識別子を含む。ステップ2704は、第1のメモリに結合され、PHI用に指定された少なくとも1つの第1のプロセッサを介して、第1のDICOM画像に対して非識別化機能を実行して、少なくとも1つの患者識別子を識別し、少なくとも1つの患者識別子を含まない第1の非識別化医療スキャン映像を生成することを含む。
ステップ2706は、第1のメモリとは別個の第2のメモリに第1の非識別化医療スキャン映像を記憶することを含む。ステップ2708は、医療ピクチャアーカイブシステムを含まないネットワークと通信するネットワークインターフェースを介して、中央サーバから第1のモデルパラメータを受信することを含む。
ステップ2710は、第2のメモリから第1の非識別化医療スキャン映像を取り出すことを含む。ステップ2712は、第1のモデルパラメータを利用して第1の非識別化医療スキャン映像に対して第1の推論機能を実行して、少なくとも1つの第1のプロセッサとは異なる少なくとも1つの第2のプロセッサを介して第1の注釈データを生成することを含む。ステップ2714は、少なくとも1つの第2のプロセッサを介して、送信機を介して医療ピクチャアーカイブシステムに送信するための第1の注釈付きDICOMファイルを生成することを含み、第1の注釈付きDICOMファイルは、第1の注釈データを含み、第1のDICOM画像を示す識別子をさらに含む。種々の実施形態では、第1の注釈付きDICOMファイルは、DICOMプレゼンテーション状態ファイルである。
種々の実施形態では、第2のメモリは、少なくとも1つの第2のプロセッサによって実行されると、医療ピクチャアーカイブ統合システムに、非識別化画像ストレージシステムから第2の非識別化医療スキャン映像をさらに取り出させる動作命令をさらに含む。ここで、第2の非識別化医療スキャン映像は、医療ピクチャアーカイブシステムから受信された第2のDICOM画像に対して非識別化機能を実行することによって少なくとも1つの第1のプロセッサによって生成されたものである。更新されたモデルパラメータは、第2の非識別化医療スキャン映像に対して第1の推論機能を実行して第2の注釈データを生成するために利用される。第2の注釈付きDICOMファイルは、送信機を介して医療ピクチャアーカイブシステムに送信するために生成され、第2の注釈付きDICOMファイルは、第2の注釈データを含み、さらに第2のDICOM画像を示す識別子を含む。
種々の実施形態では、第2のメモリは、受信機を介して医療ピクチャアーカイブシステムから受信された対応する複数のDICOM画像に対して非識別化機能を実行することによって、少なくとも1つの第1のプロセッサによって生成された複数の非識別化医療スキャン映像を記憶する。複数の非識別化医療スキャン映像は、ネットワークインターフェースを介して中央サーバに送信され、中央サーバは、複数の非識別化医療スキャン映像を含む訓練データに対して訓練機能を実行することによって、第1のモデルパラメータを生成する。
種々の実施形態では、中央サーバは、ネットワークを介して複数の医療ピクチャアーカイブ統合システムから受信された複数の非識別化医療スキャン映像を含む訓練データに対して訓練機能を実行することによって、第1のモデルパラメータを生成する。複数の医療ピクチャアーカイブ統合システムの各々は、複数の医療ピクチャアーカイブシステムの対応する1つと双方向に通信し、複数の非識別化医療スキャン映像は、複数の医療ピクチャアーカイブ統合システムによって記憶された複数のDICOM画像に対応する。
種々の実施形態では、第1の非識別化医療スキャン映像は、第1のDICOM画像のスキャン映像カテゴリを示している。第2のメモリは、少なくとも1つの第2のプロセッサによって実行されると、医療ピクチャアーカイブ統合システムに、スキャン映像カテゴリに基づいて推論機能のセットから第1の推論機能をさらに選択させる動作命令をさらに記憶する。推論機能のセットは、スキャン映像カテゴリを含む一意のスキャン映像カテゴリのセットに対応する。種々の実施形態では、一意のスキャン映像カテゴリのセットのうちの各一意のスキャン映像カテゴリは、複数のモダリティのうちの1つおよび複数の解剖学的領域のうちの1つによって特徴付けられる。
種々の実施形態では、第1のメモリは、少なくとも1つの第1のプロセッサによって実行されると、送信機を介して医療ピクチャアーカイブシステムに送信されたクエリに応答して第1のメモリに記憶するために、医療ピクチャアーカイブ統合システムに、受信機を介して医療ピクチャアーカイブシステムから複数のDICOM画像データをさらに受信させる動作命令をさらに記憶する。クエリは、ネットワークを介して中央サーバから受信された新しいスキャン映像カテゴリを示す要求に応答して、医療ピクチャアーカイブ統合システムによって生成される。新しいスキャン映像カテゴリは一意のスキャン映像カテゴリのセットに含まれず、複数のDICOM画像データは新しいスキャン映像カテゴリに対応する。非識別化機能は、複数のDICOM画像データに対して実行され、ネットワークを介して中央サーバに送信するための複数の非識別化医療スキャン映像が生成される。
第2のメモリは、少なくとも1つの第2のプロセッサによって実行されると、医療ピクチャアーカイブ統合システムに、新たなスキャン映像カテゴリに対応する新たな推論機能のための第2のモデルパラメータをネットワークを介して中央サーバからさらに受信させる動作命令をさらに記憶する。推論機能のセットは、新しい推論機能を含むように更新される。第2の非識別化医療スキャン映像は、第1のメモリから取り出され、第2の非識別化医療スキャン映像は、少なくとも1つの第1のプロセッサによって、医療ピクチャアーカイブシステムから受信した第2のDICOM画像に対して非識別化機能を実行することによって生成されたものである。新しい推論機能は、第2のDICOM画像が新しいスキャン映像カテゴリに対応することを第2の非識別化医療スキャン映像が示すと判定することによって、推論機能のセットから選択される。第2のモデルパラメータは、第2の非識別化医療スキャン映像に対して新しい推論機能を実行して第2の注釈データを生成するために利用される。第2の注釈付きDICOMファイルは、送信機を介して医療ピクチャアーカイブシステムに送信するために生成され、第2の注釈付きDICOMファイルは、第2の注釈データを含み、さらに第2のDICOM画像を示す識別子を含む。
種々の実施形態では、医療ピクチャアーカイブ統合システムは、一意のスキャン映像カテゴリのセットを示す、医療ピクチャアーカイブシステムに送信するためのパラメータデータを生成する。医療ピクチャアーカイブシステムは、第1のDICOM画像が一意のスキャン映像カテゴリのセットのうちの1つと有利に比較されるとの判定に応答して、第1のDICOM画像を医療ピクチャアーカイブ統合システムに自動的に送信する。
種々の実施形態では、第2のメモリは、少なくとも1つの第2のプロセッサによって実行されると、医療ピクチャアーカイブ統合システムに、第1の注釈データに基づく自然言語レポートデータを生成させ、第2の送信機を介して、医療ピクチャアーカイブ統合システムに関連付けられたレポートデータベースに自然言語レポートデータを送信させる動作命令をさらに記憶する。ここで自然言語レポートデータは、第1のDICOM画像に対応する識別子を含む。
種々の実施形態では、第1のメモリは、少なくとも1つの第1のプロセッサによって実行されると、医療ピクチャアーカイブ統合システムに、第2の受信機を介して、レポートデータベースから第1のDICOM画像に対応する自然言語レポートを受信させる動作命令をさらに記憶する。自然言語レポートに含まれる患者識別テキストのセットが識別される。第1のDICOM画像に対して非識別化機能を実行することは、患者識別テキストのセットについて第1のDICOM画像を検索して、少なくとも1つの患者識別子を識別することを含む。
種々の実施形態では、第1のメモリは、医療ピクチャアーカイブシステムに関連付けられた医療エンティティによって管理される。医療ピクチャアーカイブ統合システムは、医療エンティティに対応する第1の地理的サイトに配置され、中央サーバは第2の地理的サイトに配置される。種々の実施形態では、第1のメモリは、少なくとも1つの患者識別子を含む第1のDICOM画像がネットワークを介して通信されることを防止するために、ネットワークから切り離される。種々の実施形態では、医療ピクチャアーカイブシステムは、ピクチャアーカイブ通信システム(PACS)サーバであり、第1のDICOM画像は、DICOM通信プロトコルに従って送信機によって医療ピクチャアーカイブシステムに送信されたクエリに応答して受信される。
図10Aは、非識別化システム2800の一実施形態を提示している。非識別化システム2800は、図8A~8Fの非識別化システム2608を実施するために利用することができる。一部の実施形態では、非識別化システム2800は、他のサブシステムによって利用されて、画像データ、医療レポートデータ、患者識別子データ431などの医療スキャンエントリ352のプライベートフィールド、および/またはデータベースメモリデバイス340のデータベースに記憶された他のプライベートフィールドを非識別化することができる。
非識別化システムは、少なくとも1つの第1のエンティティから、医療スキャン映像および医療スキャン映像に対応する医療レポートを受信するように動作可能であり得る。患者識別子のセットは、医療スキャン映像のヘッダのフィールドのサブセットにおいて識別することができる。患者識別子のセットの各々に対してヘッダ匿名化機能を実行して、対応する匿名化されたフィールドのセットを生成することができる。非識別化医療スキャン映像は、医療スキャン映像のヘッダのフィールドのサブセットを、対応する匿名化されたフィールドのセットで置き換えることによって生成することができる。
患者識別子のセットの患者識別子のサブセットは、患者識別子のセットについて医療レポートのテキストを検索することによって、医療レポートにおいて識別することができる。テキスト匿名化機能は、患者識別子のサブセットに対して実行され、患者識別子のサブセットの各々に対して対応する匿名化プレースホルダテキストを生成することができる。非識別化医療レポートは、患者識別子のサブセットの各々を、対応する匿名化プレースホルダテキストで置き換えることによって生成することができる。非識別化医療スキャン映像および非識別化医療レポートは、ネットワークを介して第2のエンティティに送信され得る。
図10Aに示すように、非識別化システム2800は、DICOM画像フォーマットの医療スキャン映像などの医療スキャン映像を受信するように動作可能な少なくとも1つの受信機2802を含み得る。少なくとも1つの受信機2802は、さらに、レポートデータ449または他のレポートのような医療レポートを受信するように動作可能であり、他のレポートには、非識別化システムによって受信された医療スキャン映像を診断し、記述し、または別様で関連付けられた自然言語テキストが含まれる。医療スキャン映像およびレポートデータは、同一または異なるエンティティから受信することができ、同一または異なる通信プロトコルに従って同一または異なる受信機2802によって受信することができる。例えば、医療スキャン映像は、図8A~8Fの医療ピクチャアーカイブシステム2620から受信することができ、レポートデータは、図8D~8Fのレポートデータベース2625から受信することができる。かかる実施形態では、受信機2802は、図8Bの受信機2602を実装するために利用され得る。
非識別化システム2800は、少なくとも1つのプロセッサを含む処理システム2804と、メモリ2806と、をさらに含み得る。メモリ2806は、動作命令を記憶することができ、この動作命令は、処理システムによって実行されると、非識別化システムに、受信された医療スキャン映像および/または医療レポートに対して少なくとも1つの患者識別子検出機能を実行させて、医療スキャン映像および/または医療レポート内の患者識別子のセットを識別させる。動作命令は、処理システムによって実行されると、さらに、非識別化システムに、医療スキャン映像および/または医療レポートに対して匿名化機能を実行させて、少なくとも1つの患者識別子検出機能を実行する際に見出された患者識別子のセットを含まない非識別化医療スキャン映像および/または非識別化医療レポートを生成させることができる。非識別化医療スキャン映像を生成することは、非識別化ヘッダを生成することと、非識別化画像データを生成することと、を含むことができ、非識別化医療スキャン映像は、非識別化ヘッダと非識別化画像データとを含む。メモリ2806は、インターネット接続から分離することができ、PHI用に指定することができる。
非識別化システム2800は、非識別化医療スキャン映像および非識別化医療レポートを送信するように動作可能な少なくとも1つの送信機2808をさらに含み得る。非識別化医療スキャン映像および非識別化医療レポートは、それぞれ、それらが受信された同じエンティティに返送することができ、かつ/または別個のエンティティに送信することができる。例えば、少なくとも1つの送信機は、非識別化医療スキャン映像を図8A~8Fの非識別化画像ストレージシステム2610に送信することができ、かつ/または非識別化医療スキャン映像を図8A~8Fのネットワーク2630を介して中央サーバシステム2640に送信することができる。かかる実施形態では、送信機2808は、図8Bのインターフェース2655を実装するために利用され得る。受信機2802、処理システム2804、メモリ2806、および/または送信機2808は、バス2810を介して接続され得る。
本明細書で考察する少なくとも1つの患者識別子検出機能および/または少なくとも1つの匿名化機能の一部または全部は、本明細書で考察する他の医療スキャン映像分析機能と同様に1つ以上のサブシステム101によって訓練および/もしくは実施することができ、図3の医療スキャン映像分析機能データベース346に記憶することができ、かつ/または別様で図5の医療スキャン映像分析機能エントリ356の一部もしくは全部のフィールドによって特徴付けることができる。
非識別化システム2800は、医療レポートおよび/もしくは医療スキャン映像のヘッダに対して、医療レポートのテキストデータに対して、かつ/または医療スキャン映像の画像データから抽出されたテキストなどの医療スキャン映像の画像データに対して、別個の患者識別子検出機能を実行することができる。これらの機能の各々を実行することにより、それ自身の識別された患者識別子のセットの出力が生成される。これらの患者識別子のセットを組み合わせることにより、ブラックリスト用語セットが得られる。このブラックリスト用語セットを利用する医療レポートのテキストデータに対する、および/または医療スキャン映像の画像データに対する、医療レポートおよび/または医療スキャン映像のヘッダの第2のパスは、それぞれの患者識別子検出機能によって見逃された任意の用語を捕捉することができるため、これらの複数の識別プロセスの出力は、相互にサポートすることができる。例えば、ヘッダ内のデータの一部は構造化された形式であり、したがってより容易に、確実に識別することができる。これは、これらの識別子がフリーテキストヘッダフィールド、レポートデータ、および/または医療スキャン映像の画像データに現れるときに、これらの識別子をさらに匿名化するために活用および使用することができる。一方、フリーテキストヘッダフィールド内の非構造化テキスト、レポートデータ、および/または医療スキャン映像の画像データは、匿名化プロセスにおいて保存される関連臨床情報を含む可能性が高いため、例えば、少なくとも1つのサブシステム101によって活用することができ、かつ/または少なくとも1つの医療スキャン映像分析機能を訓練する際に活用することができる。
少なくとも1つの第1の患者識別子検出機能は、DICOMヘッダのフィールドのサブセット、または患者識別データに対応する既知のタイプを有する医療スキャン映像および/または医療レポートの別のヘッダまたは他のメタデータのデータを抽出することを含み得る。例えば、フィールドのこの患者識別サブセットは、名前フィールド、患者ID番号フィールドもしくは他の一意の患者識別子フィールド、日付フィールド、時間フィールド、年齢フィールド、アクセッション番号フィールド、SOPインスタンスUID、ならびに/または患者を識別するために利用され得、かつ/もしくは個人情報を含み得る他のフィールドを含み得る。ヘッダのフィールドの非識別サブセットは、病院識別子、機械モデル識別子、および/または患者識別データに対応しない医療スキャンエントリ352の一部もしくは全部のフィールドを含み得る。フィールドの患者識別サブセットおよびフィールドの非識別サブセットは、ヘッダに関して互いに排他的であり、集合的に網羅的であり得る。少なくとも1つの患者識別子機能は、フィールドの非識別サブセットを無視し、フィールドの患者識別サブセットのエントリのみを抽出することによって、患者識別子の第1のセットを生成することを含み得る。患者識別子のこの第1のセットは、本明細書で考察されるように、匿名化されて非識別化ヘッダを生成することができる。
一部の実施形態では、少なくとも1つの第2の患者識別子検出機能を医療レポートのレポートデータに対して実行することができる。少なくとも1つの第2の患者識別子検出機能は、例えば、医療スキャン映像自然言語分析システム114により訓練された自然言語分析機能を実行することによって、レポートデータ内の患者識別テキストを識別することを含み得る。例えば、少なくとも1つの第2の患者識別子検出機能は、医療レポートの既知の構造および/または医療レポートのコンテキストを活用することができる。患者識別テキストに対応する患者識別子の第2のセットを決定することができ、患者識別子の第2のセットを匿名化して、非識別化医療レポートを生成することができる。一部の実施形態では、非識別化医療レポートは、臨床情報を含む。これは例えば、臨床情報を含む元の医療レポートの部分が患者識別テキストを含まないとみなされるため、かつ/または臨床情報を含む元の医療レポートの部分が保存される関連情報を含むと判定されるためである。
一部の実施形態では、医療レポートは、フリーハンドまたはタイピングされたテキストに対応する画像データを含む。例えば、医療レポートは、放射線医または他の医療専門家によって書かれたオリジナルのフリーハンドテキストのデジタル化スキャン映像に対応し得る。かかる実施形態では、患者識別子検出機能は、最初に、少なくとも1つの第2の患者識別子検出機能が医療レポートのテキストに対して実行されて患者識別子の第2のセットを生成する前に、画像データ内のフリーハンドテキストからテキストを抽出してテキストデータを生成することができる。
一部の実施形態では、少なくとも1つの第2の患者識別子検出機能を同様に利用して、例えば医療スキャン映像自然言語分析システム114により訓練された自然言語分析機能を実行することによって、医療スキャン映像および/または医療レポートデータのDICOMヘッダおよび/または他のメタデータのフリーテキストフィールドおよび/または非構造化テキストフィールド内の患者識別テキストを識別することができる。フリーテキストおよび/または非構造化ヘッダフィールドのこの患者識別テキストに対応する患者識別子の第3のセットを決定することができ、患者識別子の第3のセットを匿名化して、非識別化フリーテキストヘッダフィールドおよび/または非構造化ヘッダフィールドを生成することができる。一部の実施形態では、非識別化フリーテキストヘッダフィールドおよび/または非構造化ヘッダフィールドは、臨床情報を含む。これは例えば、臨床情報を含む元の対応するヘッダフィールドの部分が患者識別テキストを含まないとみなされるため、かつ/または臨床情報を含む元の対応するヘッダフィールドの部分が保存すべき関連情報を含むと判定されるためである。
患者識別子はまた、医療スキャン映像自体の画像データに含めることができる。例えば、デジタル化前に医療スキャン映像のハードコピーに書かれた患者名に対応するフリーハンドテキストを、図10Bに関連して考察したように、画像データに含めることができる。患者のリストバンド上に含まれる情報、または患者上もしくは患者の近傍内に位置する他の識別情報などの他の患者識別子は、医療スキャン映像が取得されたときに取り込まれてもよく、そのため画像内に含めることができる。少なくとも1つの第3の患者識別子検出機能は、例えば、医療スキャン画像分析システム112によって訓練された医療スキャン画像分析機能を実行することによって、画像データからテキストを抽出すること、および/または画像データ内の非テキスト識別子を検出することを含み得る。例えば、患者識別子を含むことが既知である画像場所に対応する検出されたテキスト、患者識別子のフォーマットに対応する検出されたテキスト、および/または患者識別子に対応すると判定された検出されたテキストもしくは他の画像データを識別することができる。少なくとも1つの第3の患者識別子検出機能は、少なくとも1つの第2の患者識別子検出機能を実行することによって、かつ/または自然言語分析機能を実行することによって、画像データから抽出されたテキスト内の患者識別テキストを識別することをさらに含み得る。医療スキャン映像の画像データ内で検出された患者識別テキストまたは他の患者識別子に対応する患者識別子の第4のセットを決定することができ、患者識別子の第4のセットを画像データ内で匿名化して、本明細書で説明するように医療スキャン映像の非識別化画像データを生成することができる。特に、患者識別子の第4のセットは、医療スキャン映像の画像データの領域のセットにおいて検出することができ、画像データの領域のセットは匿名化され得る。
一部の実施形態では、本明細書で説明される患者識別子検出機能のサブセットのみが、匿名化のための患者識別子のそれぞれのセットを生成するために実行される。一部の実施形態では、医療スキャン映像および/または医療レポートに対して追加の患者識別子検出機能を実行して、匿名化のための患者識別子の追加のそれぞれのセットを決定することができる。各患者識別子検出機能を実行することによって出力される患者識別子のセットは、ヌル(null)または非ヌル交差を有することができる。各患者識別子機能を実行することによって出力される患者識別子のセットは、ヌルまたは非ヌルのセット差を有することができる。
患者識別子のセットがヌルでないセット差を有する場合は、1つの機能によって検出された患者識別子が別の機能によって見逃された可能性があることを示すことができる。例えば、各患者識別子機能を実行することによって出力される患者識別子のセットの和集合として生成される、患者識別子の組み合わされたセットは、例えば、メモリ2806に記憶されるブラックリスト用語セットを構築するために使用することができる。ブラックリスト用語セットは、匿名化される用語の最終セットを指定することができる。ヘッダデータ、医療スキャン映像、医療レポート、ならびに/またはヘッダデータ、医療スキャン映像、および/もしくは医療レポートから抽出された任意のフリーテキストの第2のパスは、それぞれの少なくとも1つの患者識別子検出機能を実行する際に捕捉されなかった匿名化のためのフラグ用語に設定されたブラックリスト用語を利用することによって、実行することができる。例えば、第2のパスを実行することは、医療スキャン映像のヘッダ、医療レポート、および/または画像データ内のブラックリスト用語セットの少なくとも1つの患者識別子を識別することを含み得る。これは、ブラックリスト用語セットに含まれる用語について、ヘッダ、医療レポート、および/もしくは画像データの対応する抽出されたテキストを検索すること、ならびに/または抽出されたテキスト内の各用語がブラックリスト用語セットに含まれるかどうかを判定することを含み得る。
一部の実施形態では、少なくとも1つの患者識別子は、第2のパスが実行されるまで検出されない。DICOMヘッダのフリーテキストフィールドが、DICOMヘッダのフリーテキストフィールドに対してそれぞれの患者識別子検出機能を実行する際に検出されなかった患者名を含む例を検討する。ただし、患者名は、医療レポートに対して患者識別子検出機能を実行する際に、医療レポートのテキストにおいて正常に識別されている。この患者名は、ブラックリスト用語リストに追加され、DICOMヘッダのフリーテキストフィールドの第2のパスにおいて検出される。第2のパスにおける検出に応答して、DICOMヘッダのフリーテキストフィールドの患者名は、それに応じて匿名化されて、非識別化フリーテキストフィールドを生成することができる。患者名が医療スキャン映像の画像データに含まれるが、DICOMヘッダのフリーテキストフィールドに対してそれぞれの患者識別子検出機能を実行する際に検出されなかったさらなる例を検討する。第2のパスにおいて、この患者名は、ブラックリスト用語セットについて画像データを検索することによって、医療スキャン映像の画像データの少なくとも1つの領域において検出され得る。
一部の実施形態では、患者識別子検出機能の一部または全部を実行することは、ヘッダのフィールドの非識別サブセットなどの非識別用語のセットを識別することを含む。特に、非識別用語は、臨床情報として識別された用語および/または保存されると判定された他の用語を含み得る。例えば、各患者識別子機能を実行することにより出力された非識別用語セットの和集合として生成された非識別用語の結合セットは、例えば、メモリ2806に記憶されたホワイトリスト用語セットを構築することができる。第2のパスを実行することは、ヘッダ、医療レポート、および/または医療スキャン映像の画像データ内のホワイトリスト用語セットの少なくとも1つの非識別用語を識別することと、非識別用語を匿名化しないかまたは別様で無視することを判定することと、をさらに含み得る。
種々の実施形態では、ホワイトリスト用語セットの一部または全部の用語は、ブラックリスト用語セットから除去することができる。具体的には、1つ以上の患者識別子検出機能を実行する際に患者識別子として以前に識別された少なくとも1つの用語は、その用語がホワイトリスト用語セットに含まれると判定したことに応答して、無視され、匿名化されないと判定される。これは、臨床的に重要な情報が匿名化されないことと、そのためその情報が非識別化医療スキャン映像および非識別化医療レポート内に保存されることとを確実にするのに役立ち得る。
一部の実施形態では、第2のパスは、患者識別子検出機能の各々が実行された後に実行することができる。例えば、匿名化機能を実行することは、匿名化される用語の最終セットを決定するためにブラックリスト用語セットを利用することによって、この第2のパスを実行することを含み得る。患者識別子の第1のセットまたは患者識別子の第3のセットを生成する際に以前に検出されていない、ヘッダフィールド内のテキストの新しい部分は、テキストのこれらの新しい部分がブラックリスト用語セットの用語に対応すると判定することによって、匿名化のためにフラグを立てることができる。患者識別子の第2のセットにおいて生成する際に以前に検出されていない、医療レポートのテキストの新しい部分は、テキストのこれらの新しい部分がブラックリスト用語セットの用語に対応することを判定することによって、匿名化のためにフラグを立てることができる。患者識別子の第4のセットを生成する際に以前に検出されていない、医療スキャン映像の画像データの新しい領域は、テキストのこれらの新しい部分がブラックリスト用語セットの用語に対応すると判定することによって、匿名化のためにフラグを立てることができる。
一部の実施形態では、ブラックリスト用語セットは、各患者識別子検出機能が実行されるときに構築される。後続の患者識別子検出機能を実行することは、現在のブラックリスト用語セットを利用することを含む。例えば、第2の患者識別子検出機能を実行することは、ブラックリスト用語セットについて医療レポートのテキストを検索することによって、かつ/または医療レポートのテキスト内の各用語がブラックリスト用語セットに含まれるかどうかを判定することによって、医療レポート内のブラックリスト用語セットの第1のサブセットを識別することを含み得る。第2の患者識別子検出機能を実行することは、ホワイトリスト用語セットに含まれる医療レポート内の少なくとも1つの用語を識別することと、それに応じてその用語を無視することを判定することと、をさらに含み得る。第1のサブセットは、本明細書で考察されるように、匿名化されて、非識別化医療レポートを生成することができる。まだ見出されていない新しい患者識別子を、ブラックリスト用語セットに付加することができる。更新されたブラックリスト用語セットを適用して、医療スキャン映像のヘッダおよび/または画像データの第2の検索を実行することができる。新しい患者識別子のうちの少なくとも1つを、ヘッダの第2の検索においてヘッダ内で、かつ/または画像データの第2の検索において画像データ内で、識別することができる。ヘッダおよび/または画像データ内のこれらの新たに識別された患者識別子は、非識別化医療スキャン映像を生成する際に匿名化される。
別の例として、ブラックリスト用語セットの第2のサブセットは、医療スキャン映像の画像データに対して医療スキャン画像分析機能を実行することによって、医療スキャン映像の画像データの領域のセット内で検出することができる。ここで、画像分析機能は、患者識別子のセットについて画像データを検索することを含む。例えば、医療スキャン画像分析機能は、テキストについて画像データを検索することを含み得、第2のサブセットは、ブラックリスト用語セットの1つ以上の用語と一致する検出されたテキストを含み得る。一部の実施形態では、ホワイトリスト用語セットの1つ以上の用語に一致する検出されたテキストは無視することができる。第2のサブセットは、本明細書で考察されるように、匿名化されて、非識別化画像データを生成することができる。検出された新しい患者識別子は、ブラックリスト用語セットに付加することができる。更新されたブラックリスト用語セットは、医療スキャン映像のヘッダおよび/またはメタデータの第2の検索を実行するために適用することができ、かつ/または医療レポートの第2の検索を実行するために適用することができる。新しい患者識別子のうちの少なくとも1つは、ヘッダの第2の検索を実行した結果としてヘッダ内で識別することができ、かつ/または新しい患者識別子のうちの少なくとも1つは、医療レポートの第2の検索を実行した結果として識別することができる。これらの新たに識別された患者識別子は、非識別化ヘッダを生成する際に、最初に識別されたブラックリスト用語セットとともにヘッダ内で匿名化することができ、かつ/または非識別化医療レポートを生成する際に、最初に識別された第1のサブセットとともに医療レポート内で匿名化することができる。
一部の実施形態では、メモリ2806は、例えば、既知の患者識別用語の膨大なセットを含むグローバルブラックリストをさらに記憶する。一部の実施形態では、グローバルブラックリストはまた、匿名化のための患者識別用語を決定するために、少なくとも1つの患者識別子検出機能によって、かつ/または第2のパスを実行する際に利用される。一部の実施形態では、特定の医療スキャン映像および対応する医療レポートに対して生成されたブラックリスト用語セットは、第2のパスを実行する際、かつ/またはその後に受信される医療スキャン映像および/または医療レポートにおける患者識別子を検出する際に使用するために、グローバルブラックリストに付加することができる。
代替として、または加えて、メモリ2806は、グローバルホワイトリストをさらに記憶することができ、グローバルホワイトリストは、例えば、無視される可能性のある膨大な用語のセットを含む。特に、グローバルホワイトリストは、患者識別情報に対応しないが、保存するのに有益であると考えられる臨床用語および/または他の用語を含み得る。一部の実施形態では、グローバルホワイトリストは、少なくとも1つの患者識別子検出機能によって、かつ/または第2のパスを実行する際に利用されて、ヘッダ、画像データ、および/または医療レポートにおいて無視すべき用語が決定される。一部の実施形態では、特定の医療スキャン映像および対応する医療レポートに対して生成されたホワイトリスト用語セットは、第2のパスを実行する際、かつ/またはその後に受信される医療スキャン映像および/または医療レポートにおける用語を無視する際に使用するために、グローバルホワイトリストに付加することができる。
代替として、または加えて、メモリ2806は、グローバルグレイリストをさらに記憶することができ、グローバルグレイリストは、例えば、一部の状況では患者識別用語であり得るが、他の状況では非識別用語であり得る曖昧な用語を含む。例えば、「パーキンソン」は、「ジョン・パーキンソン」などの患者名の一部である場合には患者識別データに対応し得るが、「パーキンソン疾患」などの診断用語の一部である場合には、非識別化医療レポートおよび/または非識別化医療スキャン映像において無視および保存されることが意図された非患者識別データに対応し得る。一部の実施形態では、グローバルグレイリストはまた、第2のパスを実行する際、かつ/または少なくとも1つの患者識別子検出機能を実行する際に利用されて、用語がグレイリストに含まれることを判定する。グローバルグレイリストはさらに、付随するテキストのコンテキストを活用することによって、用語が抽出されたヘッダフィールドの既知のデータタイプを活用することによって、用語の既知の構造を活用することによって、用語が抽出された画像データの場所の既知のデータタイプを活用することによって、かつ/または他のコンテキスト情報を活用することによって、用語が匿名化のためのブラックリスト用語セットまたは無視されるホワイトリスト用語セットに追加されるかどうかを判定する。一部の実施形態では、グレイリスト用語セットは、特定の医療スキャン映像および対応する医療レポートに関するブラックリストおよび/またはホワイトリスト用語セットに基づいて更新することができる。
一部の実施形態では、少なくとも1つの匿名化機能は、基準置換機能を含む。例えば、ブラックリスト用語セットの一部または全部を、ヘッダ、レポートデータ、および/または画像データ内の対応するグローバル基準と置き換えることができる。一部の実施形態では、グローバル基準は、対応する患者識別子のタイプに基づいて、グローバル基準のセットから選択することができる。ヘッダおよび/または医療レポート内で検出された各患者識別子は、グローバルテキスト基準のセットのうちの対応する1つと置き換えられ得る。画像データ内で検出された各患者識別子は、グローバル画像基準のセットのうちの対応する1つと置き換えられ得る。例えば、1つ以上のグローバル画像基準により、識別患者データを含む画像データの領域のピクセルをオーバーレイして、非識別化画像データにおける識別患者データを難読化することができる。
グローバルテキスト基準および/またはグローバル画像基準は、推論機能および/または訓練機能によって認識可能であり得、例えば、グローバルテキスト基準およびグローバル画像基準は、推論機能を訓練するための訓練ステップにおいて処理されるときに無視され、かつ/または推論機能によって処理されるときに推論ステップにおいて無視される。さらに、グローバルテキスト基準および/またはグローバル画像基準は、ヘッダ、医療レポート、および/または画像データを閲覧する人間によって認識可能であり得る。例えば、放射線医または他の医療専門家は、ヘッダ、医療レポート、および/または画像データを閲覧すると、基準によって置き換えられた患者識別子の場所を明確に識別することができ、かつ/または基準によって置き換えられた患者識別子のタイプを識別することができる。
一例として、名前「ジョン・スミス」は、ヘッダおよび/または医療レポートにおいて、テキスト「%PATIENT NAME%」で置き換えることができる。このテキスト「%PATIENT NAME%」は、医療レポートのヘッダおよび/またはテキストの名前タイプの全体的な基準である。医療スキャン映像自然言語分析機能の訓練ステップおよび/または推論ステップは、「%PATIENT NAME%」と一致するテキストを自動的に認識し、無視することができる。
図10Bは、医療スキャン映像の画像データ内の患者識別子を匿名化する例を示している。この例では、名前「ジョン・スミス」および日付「2010年5月4日」が、医療スキャン映像の元の画像データ内でフリーハンドテキストとして検出される。患者識別子を含む画像データの領域はそれぞれ、矩形バーの形状または任意の他の形状のグローバル基準によって置き換えることができる。図10Bに示すように、元の画像データにおける「ジョン・スミス」の場所に対応する第1の領域は、非識別化画像データにおける基準2820によって置き換えられ、元の画像データにおける「2010年5月4日」の場所に対応する第2の領域は、非識別化画像データにおける基準2822によって置き換えられる。各グローバル外観基準のサイズ、形状、および/または場所は、患者識別子を含む領域のサイズ、形状、および/または場所に基づいて自動的に判定される。これらは、難読化した画像データの量を最小限にする一方で、依然としてテキスト全体がカバーされることを確実にすることができる。図10Bには描写されていないが、基準は、特定の色であってもよい。例えば、特定の色のピクセルは、対応する領域が無視されることを示すために医療スキャン画像分析機能の訓練ステップおよび/もしくは推論ステップによって自動的に認識され、かつ/または、特定の色は、元の医療スキャン映像に含まれず、かつ/もしくはいずれの医療スキャン映像にも含まれないことが既知である。この基準は、図10Bに描写されるように、「%PATIENT NAME」および「%DATE」などの人間の検査で認識可能なテキストを含むことができ、かつ/またはQRコード(登録商標)、ロゴ、または人間の検査で認識可能な他の一意の記号を含むことができ、かつ/または対応する領域が無視されることを示すために、医用スキャン画像分析機能の訓練ステップおよび/もしくは推論ステップによって自動的に認識可能である。
一部の実施形態では、患者識別フィールドサブセットのうちの異なるフィールドに対して他の匿名化機能を実行して、非識別化ヘッダ、非識別化レポートデータ、および/または非識別化画像データを生成することができる。例えば、ヘッダの各フィールドの識別データのタイプに基づいて、異なるタイプのヘッダ匿名化機能および/またはテキスト匿名化機能を選択し、ヘッダフィールド、レポートのテキスト、および/または画像データから抽出されたテキストに対して利用することができる。匿名化機能のセットは、シフト機能を含み得、シフト機能は、例えば、日付、時刻、または他の時間データを決定量だけオフセットして、絶対時間差を保存し、かつ/または単一の患者の複数の医療スキャン映像および/または医療レポートにわたる相対的順序を保存するために利用される。図10Bは、基準2822を生成するために画像データ内で検出された日付に対してシフト機能が実行される例を描写しており、決定量は、10年および1ヶ月である。決定量は、各患者に対して、かつ/または各医療スキャン映像および対応する医療レポートに対してランダムに、かつ/または擬似ランダムに非識別化システムによって決定することができ、元の日付が既知のオフセットを利用することによって回復できないことを保証する。種々の実施形態では、他の医療スキャン映像および/または医療レポートは、ヘッダの患者ID番号または他の一意の患者識別子を利用することによって、同じ患者についてフェッチされる。これらの医療スキャン映像およびレポートは、同様に匿名化することができる。この場合、これらの医療スキャン映像および/または医療レポートにおいて検出された日付および/または時間は、例えば患者ID番号に対してハッシュ機能を実行することに基づいて、特定の患者ID番号に対してランダム化または擬似ランダム化された同じ決定量だけオフセットされる。
匿名化機能のセットは、例えば、患者ID番号、アクセッション番号、ならびに/またはヘッダおよび/もしくはテキストのSOPインスタンスUIDなどの一意の患者IDをハッシュするために利用される少なくとも1つのハッシュ機能を含み得る。一部の実施形態では、ハッシュ化されたSOPインスタンスUID、アクセッション番号、および/または患者ID番号は、一意の識別子が先頭に付加され、メモリ2806のデータベースに記憶され、かつ/または非識別化医療スキャン映像および/もしくは医療レポートが送信されるエンティティと共有される。その結果、非識別化医療スキャン映像と、それらの対応する非識別化医療レポートとがリンクされ、遡及的に取り出すことができる。同様に、同じ患者の複数の医療スキャン映像および/または医療レポートが同じハッシュ化された患者IDを割り当てられるので、時系列データを保存することができる。
匿名化機能のセットは、一部のタイプの患者識別子に対する少なくとも1つのマニピュレータ機能をさらに含み得る。通常はプライベート情報とみなされないヘッダフィールドおよび/またはレポートテキストの一部の値が、可能なオプションの非常に小さいサブセットから対応する患者を識別するために利用され得る異常値または他の稀少な値に対応する場合、この値は、患者データを識別するものとみなされ得る。例えば、89歳を超える患者の年齢は、例えば、89歳を超える患者が非常に少ない場合、患者のアイデンティティを決定するために利用される可能性がある。かかる場合を防止するために、患者識別子が異常値に対応すると判定したことに応答して、かつ/または患者識別子が正常範囲の閾値と不利に比較されると判定したことに応答して、患者識別子は、正常範囲の閾値で上限を定められ得るか、または別様に操作され得る。例えば、年齢に対応する正常範囲の閾値を89に設定することができる。また、非識別化された患者年齢を生成することは、89より高い患者年齢を89に制限することを含むことができ、かつ/または89以下の患者年齢について同じ値を維持することを含むことができる。
一部の実施形態では、非識別化ヘッダデータを利用して、医療レポート内で検出された患者識別子の対応する第1のサブセットが非識別化ヘッダフィールドのテキストで置き換えられる。他の実施形態では、テキスト匿名化機能のセットは、医療レポート内の対応するタイプの患者識別子を別々に匿名化するグローバルテキスト基準置換機能、シフト機能、ハッシュ機能、および/またはマニピュレータ機能を含む。
医療スキャン映像の画像データが患者の頭部に対応する解剖学的領域を含む一部の実施形態では、画像データは、識別する顔の構造および/または顔の特徴を含み得、これらは、患者のアイデンティティを決定するために利用され得る。例えば、患者を含む対応する複数の人々にマッピングされた顔画像のデータベースを検索することができ、顔認識機能を利用してデータベース内の患者を識別することができる。したがって、画像データに含まれる顔の構造は、患者識別データとみなされる場合がある。
この問題を防止し、患者のプライバシーを維持するために、非識別化システムは、医療スキャン映像において検出された顔の構造について顔の難読化を実行するようにさらに実装され得る。顔構造を識別することを含む画像データの少なくとも1つの領域は、医療画像分析機能を利用することによって決定することができる。例えば、医療画像分析機能は、顔の皮膚、顔の骨構造、または顔の構造の識別に対応する解剖学的質量タイプの他の密度に対応する密度値を有するピクセルについて画像データを検索することに基づいて、顔の構造の識別を含む画像データの領域を決定する顔検出機能を含むことができる。この顔難読化機能は、識別されたピクセルに対して実行することができる。代替として、または加えて、顔検出機能は、顔構造に対応する画像データ内の少なくとも1つの形状を識別することに基づいて、この領域を決定することができる。
画像難読化機能は、顔構造難読化機能を含み得、顔構造難読化機能は、医療スキャン映像上で実行され、顔構造を識別することを含まない非識別化画像データを生成する。例えば、顔構造難読化機能は、顔検出機能によって識別された領域のピクセルをマスキングするか、スクランブル化するか、基準と置き換えるか、または別様で難読化することができる。一部の実施形態では、顔構造難読化機能は、患者が識別可能でないように識別用顔構造を依然として難読化しながら、鼻の骨折または顔の皮膚のしわなどの画像の対応する部分の異常を保存する領域に対して一方向機能を実行することができる。例えば、識別用顔構造のピクセルは、それらが固定された一般的な顔構造に向かって収束するように変更され得る。一部の実施形態では、複数の患者の複数の顔構造画像データを利用して、例えば、複数の顔の平均または他の組み合わせに対応する一般的な顔構造を生成することができる。例えば、一般的な顔構造のピクセルは、非識別化画像データを生成する際に、顔検出機能によって識別された画像データの領域のピクセルと平均化されるか、重ねられるか、または別様で組み合わされ得る。
一部の実施形態では、ハッシュ機能は、画像データの一般的な顔構造および識別された顔構造の平均に対して実行することができ、その結果、一般的な顔構造は、元の識別用顔構造を再現するために、非識別化画像データの結果として得られるデータと併せては利用されない場合がある。かかる実施形態では、ハッシュ機能は、依然として異常を保存しながらピクセル値を変更することができる。一部の実施形態では、複数の顔構造画像データを利用することによって、複数のランダムな一般的な顔構造を生成することができる。例えば、複数の顔構造画像データのそれぞれに、一般的な顔構造を作成するために利用される平均化関数においてランダムまたは擬似ランダムな重みが割り当てられており、顔構造難読化機能を利用して、非識別化画像データを作成する際に識別された顔構造と平均化される新しい一般的な顔構造を作成するたびに、新しいランダムまたは擬似ランダムな重みのセットが生成されて、得られた非識別化画像データから元の識別用顔構造が抽出できないようになる。
本明細書では顔の難読化について説明しているが、同様の技術を、患者識別子を含むと判定された他の解剖学的領域、および/または匿名化されていない場合に患者識別情報を抽出するために利用され得る他の解剖学的領域にも同様に適用することができる。
一部の実施形態では、少なくとも1つの受信機2802は、例えば、医療ピクチャアーカイブシステム2620および/またはレポートデータベース2625間の双方向通信を可能にする少なくとも1つの送受信機に含まれる。かかる実施形態では、非識別化システム2800は、特定の医療スキャン映像および/または医療レポートそれぞれについて、医療ピクチャアーカイブシステム2620および/またはレポートデータベース2625へのクエリを生成することができる。特に、医療スキャン映像および医療レポートが別々のメモリおよび/または別々のエンティティによって記憶および/または管理される場合、それらは同時に受信されない場合がある。しかしながら、医療スキャン映像および/または医療レポートのヘッダまたはメタデータ内のDICOM識別子などのリンク識別子、例えば、アクセッション番号、患者ID番号、SOPインスタンスUID、または医療スキャン映像を医療レポートにマッピングする他のリンク識別子を利用して、受信した医療スキャン映像に対応する医療レポートをフェッチし、かつ/または少なくとも1つの送受信機を利用して送信されたクエリを介して受信した医療レポートに対応する医療スキャン映像をフェッチすることができる。例えば、医療ピクチャアーカイブシステム2620から医療スキャン映像を受信することに応答して、非識別化システムは、医療スキャン映像のDICOMヘッダからリンク識別子を抽出することができ、クエリにおいてリンク識別子を示すことによって、対応する医療レポートについてレポートデータベース2625にクエリを行うことができる。逆に、レポートデータベース2625から医療レポートを受信することに応答して、非識別化システムは、医療レポートのヘッダ、メタデータ、および/またはテキスト本文からリンク識別子を抽出することができ、クエリにおいてリンク識別子を示すことによって、対応する医療スキャン映像について医療ピクチャアーカイブシステム2620にクエリすることができる。一部の実施形態では、非識別化医療スキャン映像の元の医療スキャン映像へのマッピング、および/または非識別化医療レポートの元の医療レポートへのマッピングは、メモリ2806に記憶することができる。一部の実施形態では、患者ID番号などのリンク識別子を利用して、同じ患者に対応する追加の医療スキャン映像、追加の医療レポート、または他の時系列データをフェッチすることができる。
図11は、非識別化システム2800による実行のための方法を示すフローチャートを提示しており、非識別化システム2800は、少なくとも1つのプロセッサによって実行されたときに、以下のステップを実行して非識別化する実行命令を記憶する。
ステップ2902は、第1のエンティティから、受信機を介して、第1の医療スキャン映像および医療スキャン映像に対応する医療レポートを受信することを含む。ステップ2904は、第1の医療スキャン映像の第1のヘッダのフィールドのサブセットにおける患者識別子のセットを識別することを含む。ステップ2906は、患者識別子のセットの各々に対してヘッダ匿名化機能を実行して、対応する匿名化フィールドのセットを生成することを含む。ステップ2908は、第1の医療スキャン映像の第1のヘッダのフィールドのサブセットを対応する匿名化フィールドのセットで置き換えることによって、第1の非識別化医療スキャン映像を生成することを含む。ステップ2910は、患者識別子のセットについて医療レポートのテキストを検索することによって、医療レポートにおける患者識別子のセットの患者識別子の第1のサブセットを識別することを含む。ステップ2912は、患者識別子の第1のサブセットに対してテキスト匿名化機能を実行して、患者識別子の第1のサブセットの各々について対応する匿名化プレースホルダテキストを生成することを含む。ステップ2914は、患者識別子の第1のサブセットの各々を対応する匿名化プレースホルダテキストで置き換えることによって、非識別化医療レポートを生成することを含む。ステップ2916は、送信機を介して、非識別化された第1の医療スキャン映像および非識別化医療レポートをネットワークを介して第2のエンティティに送信することを含む。
種々の実施形態では、医療スキャン映像はピクチャアーカイブ通信システム(PACS)から受信され、医療レポートは放射線情報システム(RIS)から受信され、第1の非識別化医療スキャン映像および非識別化医療レポートは、PACSまたはRISと提携していない中央サーバに送信される。種々の実施形態では、第1の医療スキャン映像および医療レポートは、処理のために第1のメモリに記憶される。第1のメモリは、患者識別子のセットがネットワークを介して通信されることを防止するために、ネットワークから切り離される。第1の非識別化医療スキャン映像および非識別化医療レポートは、第1のメモリとは別個の第2のメモリに記憶される。第1の非識別化医療スキャン映像および非識別化医療レポートは、第2のエンティティに送信するために第2のメモリからフェッチされる。
種々の実施形態では、患者識別子のセットの各々に対して実行されるヘッダ匿名化機能は、フィールドのサブセットのうちの対応する1つの複数の識別子タイプのうちの1つに基づいて、複数のヘッダ匿名化機能から選択される。種々の実施形態では、複数の識別子タイプは、日付タイプを含む。日付タイプに対応するシフト機能は、第1の非識別化医療スキャン映像を生成するために第1のヘッダの第1の日付に対して実行され、シフト機能は、決定量だけ第1の日付をオフセットすることを含む。第2のヘッダを含む第2の医療スキャン映像が、受信機を介して受信される。第1のヘッダの一意の患者IDは、第2のヘッダの一意の患者IDと一致する。シフト機能は、決定量だけ第2の日付をオフセットすることによって第2のヘッダの第2の日付に対して実行されて、第2の非識別化医療スキャン映像を生成する。第2の非識別化医療スキャン映像は、ネットワークを介して第2のエンティティに送信される。
種々の実施形態では、複数の識別子タイプは、一意の患者IDタイプを含む。一意の患者IDタイプに対応するハッシュ機能が、第1のヘッダの一意の患者IDに対して実行されて、第1の非識別化医療スキャン映像を生成する。ハッシュ機能は、第2の非識別化医療スキャン映像を生成するために、第2のヘッダの一意の患者IDに対して実行される。第1の非識別化医療スキャン映像の匿名化された一意の患者IDフィールドは、第1のヘッダの一意の患者IDが第2のヘッダの一意の患者IDと一致する結果として、第2の非識別化医療スキャン映像の匿名化された一意の患者IDフィールドと一致する。
種々の実施形態では、複数の識別子タイプは、医療スキャン映像を医療レポートにマッピングするリンク識別子タイプを含む。リンク識別子タイプに対応するハッシュ機能が、第1のヘッダのリンク識別子に対して実行されて、ハッシュ化されたリンク識別子を生成する。第1の非識別化医療スキャン映像のリンク識別子フィールドは、ハッシュ化リンク識別子を含む。患者識別子の第1のサブセットに対してテキスト匿名化機能を実行することは、患者識別子の第1のサブセットのうちの1つがリンク識別子テキストに対応することを判定することと、患者識別子の第1のサブセットのうちの1つに対してハッシュ機能を実行してハッシュ化リンク識別子を生成することと、を含み、非識別化医療レポートは、ハッシュ化リンク識別子を含む。
種々の実施形態では、患者識別子のセットの患者識別子の第2のサブセットは、医療スキャン映像の画像データに対して画像分析機能を実行することによって、医療スキャン映像の画像データの領域のセットにおいて識別される。画像分析機能は、患者識別子のセットについて画像データを検索することを含む。識別子タイプは、患者識別子の第2のサブセットの各々について決定される。複数の画像基準のうちの1つが、識別子タイプに基づいて患者識別子の第2のサブセットの各々について選択される。非識別化画像データが生成され、ここで、画像データの領域のセットに対応する非識別化画像データの領域のセットは、患者識別子の第2のサブセットの各々を難読化するために複数の画像基準のうちの1つを含む。第1の非識別化医療スキャン映像を生成することは、医療スキャン映像の画像データを非識別化画像データで置き換えることをさらに含む。
種々の実施形態では、新しい患者識別子は、医療レポートに対して自然言語分析機能を実行することによって医療レポート内で識別され、新しい患者識別子は患者識別子のセットに含まれない。患者識別子のセットは、患者識別子のセットについて医療スキャン映像の画像データを検索する前に新しい患者識別子を含むように更新され、患者識別子の第2のサブセットは、新しい患者識別子を含む。
種々の実施形態では、メモリは、グローバル識別子ブラックリストをさらに記憶する。自然言語分析機能は、新しい患者識別子を識別するために、グローバル識別子ブラックリストに含まれる複数の用語について医療レポートを検索することを含む。種々の実施形態では、非識別化システムは、グローバル識別子ブラックリストが患者識別子のセットのうちの1つを含まないと判定し、グローバル識別子ブラックリストは、患者識別子のセットのうちの1つを含むように更新される。
種々の実施形態では、画像分析機能を実行することは、画像データ内の新しい患者識別子を識別することをさらに含み、新しい患者識別子は、患者識別子のセットに含まれない。識別テキストは、新しい患者識別子に対応する画像データの領域から抽出される。新しい患者識別子は、識別テキストについて医療レポートのテキストを検索することによって、医療レポート内で識別される。テキスト匿名化機能は、新しい患者識別子について匿名化プレースホルダテキストを生成するために、新しい患者識別子に対して実行される。非識別化医療レポートを生成することは、識別テキストを、新しい患者識別子のための匿名化プレースホルダテキストで置き換えることをさらに含む。
種々の実施形態では、非識別化画像データを生成することは、医療スキャン映像の画像データ内の識別用顔構造を検出することをさらに含む。非識別化画像データを生成することは、画像データに対して顔構造難読化機能を実行することを含み、非識別化画像データは識別用顔構造を含まない。
図12Aは、病変追跡システム3002の一実施形態を示している。病変追跡システム3002は、同じ患者の複数のスキャン映像または他の時系列を受信して、経時的に複数のスキャン映像で検出された1つ以上の病変の変化を追跡することができる。具体的には、病変のサイズ、形状、直径、および/もしくは体積、ならびに/または他の異常分類データ445などの病変の他の特性を各スキャン映像について決定することができ、経時的なこれらの特徴の変化を測定および追跡することができる。例えば、病変は、その後の医療スキャン映像にわたって縮小、成長、もしくは消失したと判定することができ、かつ/または新しい病変が、その後の医療スキャン映像にわたって出現することを検出することができる。病変追跡システム3002を利用することによってかかる計算を自動的に実行することで、1つ以上の医療スキャン映像の放射線医の視覚的検査によって生成されるものよりも正確な測定値を生成することができる。したがって、これらの自動化された測定を使用して、患者の状態が好転しているか悪化しているかをより正確に決定もしくは予測すること、患者が治療に対して良好に応答しているか不良に応答しているかをより正確に決定もしくは予測すること、および/または別様で患者の状態の診断に役立てることができる。
図12Aに示されるように、病変追跡システム3002は、ネットワーク150を介して、医療スキャン映像データベース342および/またはデータベースストレージシステム140の他のデータベース、1つ以上のクライアントデバイス120、および/または図12Aには示されていないが図1の1つ以上のサブシステム101と、双方向に通信することができる。一部の実施形態では、病変追跡システム3002は、医療スキャン映像処理システム100の追加のサブシステム101であり、これは、図2Aのサブシステムメモリデバイス245、サブシステム処理デバイス235、および/またはサブシステムネットワークインターフェース265を利用することによって実装される。一部の実施形態では、病変追跡システム3002の一部または全部は、他のサブシステム101を利用することによって実装され、かつ/または1つ以上の他のサブシステム101と併せて説明される機能または他の動作を実施するように動作可能である。
病変追跡システム3002は、サブシステムネットワークインターフェース265または別の受信機を介して、第1の一意の患者IDおよび第1のスキャン日付に関連付けられた第1の医療スキャン映像を受信するように動作可能であり得る。病変追跡システム3002はまた、第1の一意の患者IDおよび第1のスキャン日付とは異なる第2のスキャン日付に関連付けられた第2の医療スキャン映像を受信することができる。第1の医療スキャン映像は第1の複数の画像スライスを含み得、第2の医療スキャン映像は第2の複数の画像スライスを含み得る。図12Aに示すように、第1の医療スキャン映像および第2の医療スキャン映像は、それぞれ医療スキャンエントリ3005および3006として受信することができる。医療スキャンエントリは、医療スキャン映像データベース342から受信することができ、各エントリは、図4Aに関連して説明したように、医療スキャンエントリ352の一部または全部のフィールドを含み得る。例えば、一意の患者IDを患者識別子データ431に示すことができ、かつ/またはスキャン日付をスキャン日付データ426に示すことができる。一部の実施形態では、患者の2つを超える医療スキャン映像を処理のために受信することができる。一部の実施形態では、医療スキャンエントリ3006は、医療スキャンエントリ3006の時系列データ433として受信することができ、かつ/または医療スキャンエントリ3005の識別子は、医療スキャンエントリ3006の時系列データ433から決定することができる。これらを病変追跡システムが利用して、医療スキャン映像データベース342から医療スキャンエントリ3005をフェッチすることができる。医療スキャンエントリ3005および3006は、同一または異なるスキャン映像カテゴリに対応することができ、例えば、同一または異なるモダリティに対応し得る。
病変検出機能3020を実行して、医療スキャンエントリ3005および3006内の少なくとも1つの病変を検出することができる。一部の実施形態では、病変検出機能3020は、医療スキャンエントリ3005および3006上の画像データ410に対して実行されて、病変の解剖学的場所を決定し、各医療スキャン映像について病変を含む画像スライスのサブセットを決定し、病変に対応する異常場所データ443を決定し、かつ/または画像データ内の病変の場所を別様に決定する。例えば、図12Aに描写されるように、画像スライスサブセット3030は、医療スキャンエントリ3006の画像データ410において検出された病変を含むスライスのサブセットに対応し得、画像スライスサブセット3031は、医療スキャンエントリ3005の画像データ410において検出された病変を含むスライスのサブセットに対応し得る。
一部の実施形態では、病変検出機能3020は、例えば、医療スキャン画像分析システム112によって訓練された医療スキャン映像分析機能を利用することによって実装される。かかる実施形態では、病変検出機能は、異常領域1373を決定するために、図7Bに関連して説明した推論ステップ1354および/または検出ステップ1372に対応し得る。一部の実施形態では、病変は、画像データ410の画像スライス内で検出される。画像スライス内の病変に対応すると判定されたピクセルの密度値、密度範囲、および/または他のピクセル値が判定される。この密度値、密度範囲および/または他のピクセル値は、隣接する画像スライス中のピクセル、または画像スライス中に病変を含むと判定された座標値の近傍内のピクセルに対応する値と比較される。例えば、隣接する画像スライスは、画像データの連続的なスライス順序付けにおける画像スライスの前または後の1つ以上の画像スライスを含み得る。ピクセル値が有利に比較される場合、これを利用して、病変がこれらの隣接スライスに含まれることを判定し、かつ/または隣接画像スライスのどのピクセルが病変を含むかを判定することができる。このプロセスは、画像スライスサブセット3030の残りを決定するために後続の隣接画像スライスに対して継続することができ、隣接画像スライスが病変を含むと判定されなくなるまで継続する。したがって、画像スライスサブセット3030は、画像データ410の画像スライスの連続的な順序付けに関して、画像スライスの連続的なサブセットに対応し得る。
一部の実施形態では、病変検出機能3020は、最初に医療スキャンエントリ3005に対して実行され、解剖学的場所および/または画像スライスのサブセットを利用して、医療スキャンエントリ3006内の病変を検出し、例えば、同じ病変が両方の医療スキャンエントリ内で検出されることを確実にし、かつ/または医療スキャンエントリ3006の処理を容易にする。例えば、医療スキャンエントリ3006に対して病変検出機能を実行することは、画像スライスサブセット3030に対応するおよび/またはそれに隣接する医療スキャンエントリ3006の画像スライスのサブセットのみを検索すること、病変について医療スキャンエントリ3005を処理する際に決定された解剖学的領域を検索すること、ならびに/あるいは解剖学的領域に対応するおよび/またはそれに近接する一部もしくは全部の画像スライスのピクセルのサブセットのみを検索し、かつ/または病変を含むと判定された画像スライスサブセット3030のピクセルを検索することを含み得る。一部の実施形態では、病変検出機能は、医療スキャン映像比較システム116によって訓練および/または実行される異常類似性機能または他の医療スキャン映像類似性分析機能を実行することを含む。ここで、医療スキャンエントリ3005および3006において検出された病変の類似性スコアは、閾値と比較され、これを利用して、類似性スコアが閾値と有利に比較される場合に、医療スキャンエントリ3006において検出された病変が3005において検出された病変と同じ病変であると判定する。
病変が検出されると、画像スライスサブセット3030、解剖学的領域データ、検出された病変に対応するピクセル座標、および/または病変に対応する他の異常場所データ443を、1つ以上の病変測定機能3045への入力として利用することができる。一部の実施形態では、病変検出機能3020は、病変追跡システム3002によって実行されない。代わりに、画像スライスサブセット3030および/もしくは3031のサブセットを示す異常場所データ443、解剖学的領域データ、検出された病変に対応するピクセル座標、ならびに/または他の場所データを、病変測定機能3045への入力として使用するために、医療スキャン映像データベース342および/または別のサブシステム101から受信することができる。
1つ以上の病変測定機能3045は、図12Bに示すように、病変直径測定機能を含み、これにより、医療スキャンエントリ3006の画像データ410内で検出された病変3010の直径測定値3022を決定し、かつ/または医療スキャンエントリ3005の画像データ410内で検出された病変3010の直径測定値3024を決定することができる。
医療スキャンエントリ3005の画像データにおいて検出された病変3010について、病変直径測定機能は、画像スライスサブセット3030の各々に対して病変直径計算を実行して、直径測定値のセットを生成することを含み得る。医療スキャンエントリ3005の病変に対する病変直径測定値を生成することは、直径測定値のセットの最大値を選択することを含み得る。病変直径測定値は、画像スライスサブセット3030のうちの1つにおける病変の周囲の第1の点と第2の点とを接続するセグメントに対応し得る。一部の実施形態では、セグメントは、画像スライスサブセットのうちの1つのx軸に対して傾いている。一部の実施形態では、病変直径測定機能を実行することは、画像スライスの第1のサブセットのうちの1つの中の第1の病変の周囲に対応する画像スライスのサブセットの一部または全部のピクセルのセットを決定することを含み得る。複数のピクセルの各ペア間の距離に対応するセグメント長のセットを計算することができ、例えば、複数のピクセルのペアは、ピクセルのセットのうちの選択された2つのすべての組み合わせを含む。病変直径測定値は、セグメント長のセットの最大値を選択することによって決定することができる。
医療スキャンエントリ3006の画像データ内の病変3010の直径に対応する直径測定値3024は、同一または異なる方法で計算することができる。直径測定値3024は、医療スキャンエントリ3005の直径測定値3022を含む画像スライスの同じ画像スライスインデックスまたは異なる画像スライスインデックス上のセグメントに対応し得る。例えば、病変の直径を含む画像スライスは、病変が経時的に形状をどのように変化させたかに依存して変化し得る。同様に、図12Bに示すように、画像スライスの座標系に対して直径がそれに該当する軸は、直径測定値3022および3024について異なる場合がある。
一部の実施形態では、直径測定値は、例えば、病変の三次元構造に基づいて、複数のスライスにわたって測定することができる。例えば、画像スライスサブセット3030の一部または全部にわたる病変の三次元表面に対応する複数のピクセルのペアのセグメント長を利用して、直径測定値3022を計算することができる。具体的には、スライス厚は、例えば、医療スキャンエントリ3005のメタデータに基づいて、かつ/または医療スキャンエントリ3005のモダリティに基づいて決定することができ、複数のペアの各々についてセグメント長を計算する際に使用することができる。最大セグメント長は、直径測定値3022として利用することができる。
一部の実施形態では、1つ以上の病変測定機能3045は、病変面積測定機能を含み得る。例えば、病変に含まれると判定された画像スライスのサブセットの各々におけるピクセルに基づいて、面積を計算することができる。特に、各個々のピクセルによって表される真の領域に対応する固定ピクセル面積は、例えば、医療スキャンエントリメタデータにおいて、かつ/または医療スキャン映像のモダリティに基づいて決定することができる。このピクセル面積に、病変に含まれると判定されたピクセルの数を乗算して、画像スライスサブセット内の各画像スライスに対する病変面積を計算することができる。
さらに、この計算された領域のセットを利用して、病変体積測定機能に対応する病変測定機能3045を実行することによって、病変の体積近似値を計算することができる。病変体積測定機能を実行することは、病変面積測定値のセットに対してリーマン和計算を実行することを含むことができる。ここでリーマン和の均一な区分幅は、画像データ内の画像スライスの決定されたスライス厚さに基づいて決定される。例えば、画像スライスサブセット3030の各連続する画像スライスペアは、複数の台形領域のうちの1つに対応し得る。病変体積計算を実行することは、複数の台形領域の和算を実行することを含み得る。複数の台形領域の各々は、スライス厚に第1のベースおよび第2の底辺の合計の半分を乗算することによって計算することができる。ここで第1の底辺の値は、連続する画像スライスの対応するペアの第1のものに対応する病変面積測定値のセットの第1のものに等しく、第2の底辺の値は、対応する連続する画像スライスペアの第2のものに対応する病変面積測定値のセットの第2のものに等しい。
図12Cは、病変体積測定機能を実行する例を示している。画像スライスサブセット3030は、病変3010の検出に基づいて画像データ410から決定され、スライスインデックス0~10を含む。病変3010の病変面積は、スライスインデックスに対する病変面積の離散プロット3032に図示されるように、各画像スライスについて計算することができる。プロット3032を利用して、プロット3034の曲線下面積として体積を決定し、病変体積の台形リーマン和近似を行うことができ、ここで、x軸により、スライス0からの断面距離または幅が測定される。これは、プロット3032のx軸のスライスインデックスにスライス厚さを乗算じて、プロット3032にプロットされた座標の各々のx値を決定することによって決定することができる。病変面積の連続曲線は、プロット3032の離散点を接続してプロット3024の曲線を作成することによって近似することができる。図12Cでは離散点を接続するために線形セグメントが示されているが、面積曲線を生成するために任意の曲線適合関数を利用することができる。この例では、曲線下面積を計算して体積を近似することは、台形リーマン和近似に対応し得るが、他のリーマン和近似、他の積分近似関数、および/または他の体積近似技術を利用して、プロット3032の離散面積に基づいて体積を近似することができる。
病変測定機能3045のうちの1つ以上は、医療スキャン映像分析機能であり得、これは、例えば、医療スキャン画像分析システム112によって訓練および/もしくは実行され、ならびに/または本明細書に記載される他の医療スキャン映像分析機能と同じ様式で訓練および/もしくは実行される。一部の実施形態では、病変測定機能は、異常分類ステップ1374を利用して、病変測定データ3040および/または3041を含む分類データ1375を生成することによって実施される。
病変測定は、病変測定データ3040および3041に対して病変測定変更機能3050を実行することによって比較することができる。病変測定変更機能3050は、病変の直径の差および/または体積の差など、対応する測定値の差を計算することを含み得る。病変測定機能はまた、病変測定データ3040および3041内の測定値のセットを含むベクトルのユークリッド距離を計算することができる。病変測定変更機能3050は、医療スキャン映像比較機能などの医療スキャン映像分析機能であり得、これは、医療スキャン画像分析システム112によって訓練および/または実行され、医療スキャン映像比較システム116によって訓練および/または実行され、かつ/あるいは本明細書に記載の他の医療スキャン映像分析機能と同じ方法で訓練および/または実行される。
一部の実施形態では、病変測定機能3045は、病変追跡システム3002によって実行されない。代わりに、1つ以上の測定カテゴリ444に対応する異常分類データ445は、病変測定データ3040および/または3041を含むことができ、病変測定変更機能3050への入力として使用するために、医療スキャン映像データベース342および/または別のサブシステム101から受信することができる。
病変測定変化データ3055は、表示デバイスを介して表示するために1つ以上のクライアントデバイス120に送信するために、サブシステムネットワークインターフェース265を介して、かつ/または別の送信機を介して送信することができる。例えば、病変測定変化データは、テキストとして表示することができ、かつ/または医療スキャン支援レビューシステム102を利用することによって、医療スキャンエントリ3005および/もしくは3006の画像データ410とともに視覚的に表示することができる。例えば、測定データは、医療スキャン支援レビューシステム102に関連して説明したように、時系列データにおいて検出された異常の状態変化データとして表示することができる。代替として、または加えて、病変測定変化データ3055は、処理のために1つ以上の他のサブシステムに送信され、例えば、医療スキャン画像分析システム112によって訓練される1つ以上の医療スキャン映像分析機能によって訓練データとして利用することができる。代替として、または加えて、病変測定変化データ3055は、例えば、医療スキャンエントリ3005および/または3006に対する時系列データ433の一部として、記憶のために医療スキャン映像データベースに送信され得る。代替として、または加えて、病変測定データ3040および/または3041は、例えば、それぞれ、直径カテゴリ、面積カテゴリ、体積カテゴリ、または他の測定カテゴリに対応する異常分類器カテゴリ444に対応する、医療スキャンエントリ3005および/または3006に対する異常分類データ445の一部として、記憶のために医療スキャン映像データベースに送信され得る。
一部の実施形態では、同じ患者の3つ以上の医療スキャン映像のセットが受信され、病変測定変化データは、スキャン映像データに関して3つ以上の医療スキャン映像のセットのうちの連続するものについて計算される。一部の実施形態では、病変測定変化データはまた、3つ以上の医療スキャン映像のセットにおける医療スキャン映像のすべての可能なペアのうちの一部または全部について計算される。
図12Dは、クライアントデバイス120の表示デバイス上に表示され得るインターフェース3080の一例を示している。インターフェースは、各画像スライスサブセット3030および3031の選択された画像スライスを提示することができる。病変を含むことが検出された領域は、注釈データとして画像スライス上にオーバーレイすることができ、かつ/または他の注釈データを表示して病変を示すことができる。一部の実施形態では、直径測定データは、医療スキャンエントリ3005および/または3006について視覚的に表示することができる。例えば、最大直径を含むと判定された画像スライスサブセット3030および/または3031の画像スライスは、自動的に提示することができ、直径の終点に対応すると判定された対応する第1のピクセルおよび第2のピクセルを接続するセグメントは、表示された画像スライス上に自動的にオーバーレイされ得る。一部の実施形態では、医療スキャンエントリ3005の画像スライス内に病変を含むと判定されたピクセルの実線または半透明の輪郭および/または陰影を、インターフェースによって、医療スキャンエントリ3006の対応する画像スライスの表示において対応するピクセル座標上にオーバーレイして、例えば、病変がどれだけ縮小、成長、または別様で変化した形状および/または位置を視覚的に描写することができる。一部の実施形態では、病変測定データおよび/または病変測定変化データの一部または全部は、画像データと併せてテキストとして表示される。一部の実施形態では、病変体積測定データに基づいて生成された病変の三次元レンダリングを、三次元可視化インターフェースに従って表示することができる。
一部の実施形態では、病変測定データの直径測定、面積測定、および/または体積測定に基づいて、他の分類データを生成することができる。例えば、病変直径データは、RECIST適格性データを決定するために利用することができ、かつ/または病変が標的病変または非標的病変に対応するか否かを判定するために利用することができる。病変変化測定データを利用して、以前のスキャン映像と比較してより最近のスキャン映像における病変の変化に基づいて、RECIST評価データを決定することができる。特に、病変変化測定データは、病変が「完全奏効」、「部分奏効」、「安定疾患」、または「進行性疾患」であるかどうかを示すために利用することができる。患者について3回以上のスキャン映像を評価する場合、RECIST評価データは経時的な変化を反映することができる。一部の実施形態では、複数の病変が、医療スキャンエントリ3005および3006において検出され、測定され、追跡される。RECIST適格性データおよび/またはRECIST評価データは、複数の病変のそれぞれについて生成することができ、かつ/またはRECIST評価データおよび/または診断データは、複数の病変を全体として評価することに基づいて生成することができる。
RECIST適格性データおよび/または評価データは、表示デバイスを介して表示するためにクライアントデバイスに送信することができ、異常注釈データ442および/または時系列データ433として対応する医療スキャンエントリに記憶するために医療スキャン映像データベースに送信することができ、かつ/または、例えば医療スキャン映像分析機能を訓練するための訓練セットの一部として他のサブシステム101に送信することができる。Lung-RADS評価スコアなどの病変を特徴付ける他の標準化された医学的評価スコアは、測定データに基づいて自動的に生成することができる。
医療スキャンエントリ3005および3006は、処理のために同時にまたは異なる時間に受信することができる。例えば、医療スキャンエントリ3005および3006は、異なるスキャン日付に対応するので、それらは、スキャン映像が患者に対して行われるときに処理するために、医療スキャン映像病変追跡システムに送信することができる。一部の実施形態では、医療スキャンエントリ3005のみが受信され、病変測定データは、医療スキャンエントリ3005について計算される。これは、異常注釈データ442または医療スキャンエントリ3005の他のデータとして記憶するために、クライアントデバイス120に送信することができ、かつ/または医療スキャン映像データベース342に送信することができる。その後、医療スキャンエントリ3006を受信することができ、病変測定変化データ3055の生成に応答して、医療スキャンエントリ3005内の病変に対応する病変場所データおよび/または病変測定データ3040をデータベースからフェッチすることができる。また、医療スキャンエントリ3005内の病変の病変場所および/または測定データを利用して、医療スキャンエントリ3006内の病変に関する病変測定データを生成するのを支援し、医療スキャンエントリ3006内の病変を検出するのを支援することができる。
一部の実施形態では、病変追跡システム3002によって生成されたデータを利用して、時系列病変モデルを訓練することができる。時系列病変モデルは、病変追跡モデルによって生成することができ、かつ/または病変追跡モデルの出力は、医療スキャン画像分析システムなどの別のサブシステムに送信することができる。例えば、訓練ステップ1352は、時系列データの複数のセットに対して実行することができ、時系列データの各セットは、患者に対応し、患者の対応する複数の医療スキャンエントリについて決定された病変測定データ、病変測定変化データ、RECIST適格性データ、RECIST評価データ、および/またはLung-RADS評価データなどの分類データを含む。時系列データの複数のセットの各々は、画像データ、診断データ、患者病歴、および/または対応する患者の1つ以上の医療スキャンエントリの他の関連するフィールドなど、患者の対応する複数の医療スキャンエントリの他のフィールドを含み得る。
時系列病変モデルを利用して、新しい患者の単一の医療スキャンエントリまたは新しい患者の医療スキャンエントリのセットなど、後続の医療スキャン映像に対して推論機能を実行することができる。推論機能は、病変追跡システム3002によって、医療スキャン画像分析システム112によって、かつ/または別のサブシステム101によって実行することができる。時系列病変モデルに対応する推論機能は、医療スキャン映像分析機能とすることができ、医療スキャン映像分析機能に関して本明細書で考察するように訓練および/または実行することができる。
患者の1つ以上の医療スキャン映像に対して推論機能を実行することによって、1つ以上の医療スキャン映像において検出された少なくとも1つの病変についての病変変化予測データを生成することができる。例えば、病変変化予測データは、病変成長因子または病変収縮因子を含み得る。代替として、または加えて、推論機能は、他の評価および/または予測データなどの他の推論データを生成することができる。これには、医療スキャン映像のセットにおける病変の成長および/または縮小を評価する推論データ、患者の状態の重症度の変化を評価および/または予測する推論データ、新しい患者を診断する推論データ、新しい患者のための決定された治療ステップを含む推論データ、新しい患者が治療に対して有利に応答しているか不利に応答しているかを判定する推論データ、ならびに/あるいは別様で新しい患者の現在の状態および/または将来の状態を評価および/または予測する推論データが含まれ得る。推論機能を実行することによって生成される推論データの一部または全部は、検出された病変のサイズおよび/または特性を評価することに基づいて、かつ/または検出された病変のサイズの変化または特性の変化を予測することに基づいて決定することができる。
一部の実施形態では、推論機能を実行することは、新しい患者の1つ以上の医療スキャン映像に対して病変測定機能を実行することを含み、かつ/または新しい患者の1つ以上の医療スキャン映像に対して病変測定変更機能を実行することを含む。新しい患者について生成された病変測定データおよび/または病変測定変化データは、1つ以上の医療スキャンエントリ自体に加えて、またはその代わりに、推論機能に入力することができる。
病変変化予測データまたは他の推論データは、例えば、新しい患者の1つ以上の医療スキャン映像と併せて、インターフェースを介して表示デバイス上に表示するために、クライアントデバイスに送信することができる。病変変化予測データを提示することは、病変の予測された直径、面積、および/または体積変化をオーバーレイすることを含むことができ、例えば、1つ以上の新しい医療スキャンエントリの少なくとも1つの画像スライスにおける病変の予測された将来のサイズ、予測された将来の形状、および/または予測された将来の場所に従って、ピクセルの実線または半透明の輪郭および/または陰影を表示することによって、病変がどれだけ収縮、成長、または別様で形状および/または位置を変化させると予測されるかを視覚的に描写することができる。一部の実施形態では、予測される病変の将来の三次元レンダリングは、三次元可視化インターフェースに従って表示することができる。
一部の実施形態では、推論機能は、異なる計画された時間範囲のセットに対応する病変変化予測データのセットを生成することができる。例えば、病変変化予測データは、将来の1年、2年、および3年について生成することができ、各計画期間についての予測データは、表示のためにクライアントデバイスに送信することができる。一部の実施形態では、インターフェースは、異なる予測時間範囲のセットのうちの1つを選択するようにユーザを促すことができ、それに応じて、予測時間範囲のうちの選択された1つに対する予測データが表示される。この能力を可能にするために、時系列病変モデルは、種々の時間範囲の医療スキャン映像を用いて時系列データのセットで訓練することができ、医療スキャン映像の日付および/または時系列データのセット内の他のデータの日付の間の相対時間は、訓練ステップを実行する際に利用することができる。
一部の実施形態では、新しい患者の1つ以上の医療スキャン映像に対して推論機能を実行する前に、表示デバイスによって表示されたインターフェースと対話するユーザは、選択肢の離散的なセットから予測される時間範囲を選択することができ、かつ/または任意の予測される時間範囲を入力することができる。推論機能は、クライアントデバイスから受信された選択された予測時間範囲を利用することによって実行することができ、予測データは、現在の日付から、かつ/または新しい患者についての1つ以上の医療スキャン映像における直近のスキャン映像の日付から、この選択された予測時間範囲を反映することができる。例えば、選択された予測期間が18ヶ月である場合、推論データは、病変成長因子、病変収縮因子、および/または将来の18ヶ月に予測される他の予測データを含み得る。
一部の実施形態では、医療スキャンエントリ3005および/または医療スキャンエントリ3006は、関連付けられた測定データを既に有している。ヒューマンアセスメントデータ、例えば病変の放射線医の測定値または他の人間の測定値に対応する人間の測定データは、医療スキャンエントリに含めることができ、かつ/または医療スキャンエントリと併せて受信することができる。例えば、人間の直径測定値は、医療スキャン映像の画像データの視覚的検査に基づく直径の放射線医の文書に対応する医療スキャン映像のヒューマンアセスメントデータに含めることができる。このヒューマンアセスメントデータは、測定を行った放射線医または他の人間に対応する診断作成者データ450を有する異常注釈データ442に対応し得る。この診断作成者データ450は、ユーザデータベース344の対応するユーザプロファイルエントリ354における放射線医または他の人間の識別子に対応し得る。ヒューマンアセスメントデータはまた、RECIST適格性データ、RECISTデータ、Lung-RADS評価スコアなどの異常分類データ445、または本明細書で考察される他の異常分類データ445を含み得る。
医療スキャンエントリ3005および/または3006に対して1つ以上の病変測定機能を実行することは、放射線医によって取得されたヒューマンアセスメントデータの精度を測定するためにさらに利用することができる。例えば、放射線医は、病変の周囲の2点間の距離を適切に測定不可能であることによって、画像スライス上の誤ったセグメントを、病変の周囲点を接続する最大セグメントであると識別することによって、異なる画像スライスがより大きい最大セグメントを有する病変の部分を含むとき、画像スライス内の最大セグメントを識別することによって、直径を決定する際に、病変の一部ではないまたは病変の周囲に対応しない画像スライスのピクセルを考慮することによって、病変の三次元表現の表面に沿った2つの点(2つの点は医療スキャン映像の異なる画像スライス上にある)を接続する真の直径を考慮しないことによって、スキャン映像を誤って特徴付けし、実際には病変ではない病変について測定を行うことによって、病変が存在しなかったという判定に基づいて、または病変がRECIST基準などの基準を満たさないという判定に基づいて、スキャン映像を誤って特徴付け、病変の測定を行うことに失敗することによって、病変を標的病変または非標的病変として不適切に特徴付けることによって、病変または医療スキャン映像を「完全奏効」、「部分奏効」、「安定疾患」または「進行性疾患」として不適切に特徴付けることによって、異常分類データ445を誤って決定することによって、別様で病変を不適切に測定および/もしくは特徴付けることによって、ならびに/あるいは別様で、患者の複数の医療スキャン映像にわたる病変の変化を不適切に測定および/もしくは別様で特徴付けることによって、直径を不正確に測定する可能性がある。
ヒューマンアセスメントデータの精度は、自動評価データを生成することによって決定することができる。自動評価データは、病変検出機能を実行することによって、1つ以上の病変測定機能を実行することによって、かつ/または病変を分類することによって、例えば、異常分類ステップ1374を実行することによって、生成することができる。検出データにおいて決定された病変場所、病変測定データにおいて決定された病変の大きさ、面積および/または体積、ならびに/あるいは1つ以上の異常分類器カテゴリ444についての異常分類データ445は、類似性機能を実行することによって、値の差を計算することによって、値が一致するかまたは別様で有利に比較されるか否かを判定することによって、かつ/またはヒューマンアセスメントデータおよび自動評価データの特徴ベクトル間のユークリッド距離を計算することによって、ヒューマンアセスメントデータの対応する部分と比較することができる。
ヒューマンアセスメントデータの一部または全部と自動評価データとの差を閾値と比較して、ヒューマンアセスメントデータが正しいか、または正しくないかを判定することができる。ヒューマンアセスメントデータの一部または全部と自動評価データとの間の差は、精度スコアなどの精度データに対応することもでき、精度スコアは、対応する放射線医または他の人間に割り当てることができる。例えば、精度スコアは、ユーザデータベース344の対応するユーザプロファイルエントリ354において、放射線医にマッピングすることができる。精度スコアは、表示デバイスを介して表示するためにクライアントデバイスに送信することもできる。閾値と不利に比較される精度スコアを利用して、病変の不正確な測定または特徴付けを記録し、かつ/または病変の不正確な測定または特徴付けを一貫して記録している放射線医または他の人間に、自動的にフラグを立てることができる。
図13は、種々の実施形態による医療スキャン映像閲覧システムの概略ブロック図である。特に、医療スキャン映像閲覧システム3100が提示されており、医療スキャン映像閲覧システム3100は、医療ピクチャアーカイブシステム2620、医療スキャン映像データベース342および/または他の医療スキャン映像データベースとともに使用されて、ユーザによるレビューのために医療スキャン映像3120を取り出すことができる。
種々の実施形態では、医療ピクチャアーカイブシステム2620は、複数のモダリティ機械2622、例えばCT機械、MRI機械、X線機械、および/または医療スキャン映像3120を生成する他の医療撮像機械から画像データを受信することができる。医療スキャン映像3120は、人体、動物、または他の生物の解剖学的領域のCTスキャン映像、X線、MRI、PETスキャン映像、超音波、EEG、マンモグラム、または他のタイプの放射線スキャン映像もしくは医療スキャン映像に対応する撮像データを含み得、撮像データに対応するメタデータをさらに含み得る。PACSまたは他のデータベースなどの医療ピクチャアーカイブシステム2620は、これらの医療スキャン映像3120をDICOM画像フォーマットまたは他の医療スキャン画像データ410で記憶することができ、かつ/または図4Aおよび4Bに関連して説明した属性の一部もしくは全部に関連して説明したように、画像データを複数の医療スキャンエントリ352に記憶することができる。
種々の実施形態では、医療スキャン映像閲覧システム3100は、クライアントデバイス120または他のコンピュータを含み、ここで他のコンピュータは、医療トリアージ、診断、管理評価、監査、および/または訓練の目的で、レポートデータベース2625に記憶されたレポートデータ3122および/または医療ピクチャアーカイブシステム2620に記憶された注釈付き医療スキャン映像3123の作成において放射線医または他の医療専門家などのユーザを支援するPACSビューアまたは他のインタラクティブ閲覧システムとして動作する。医療スキャン映像閲覧システム3100は、図1で最初に紹介された医療スキャン支援レビューシステム102、医療スキャン映像レポートラベリングシステム104、医療スキャン映像注釈付けシステム106、医療スキャン映像診断システム108、医療スキャンインターフェース特徴評価システム110、医療スキャン画像分析システム112、医療スキャン映像自然言語分析システム114、および/または医療スキャン映像比較システム116、ならびに/あるいは図12Aに関連して最初に提示された病変追跡システム3002に関連して上述した機能および特徴を含み得る。例えば、医療スキャン映像閲覧システム3100は、コンピュータビジョン技術、自然言語処理または他の人工知能を利用して、所与の医療スキャン映像3120についての推論データを自動的に生成することができる。この自動的に生成された推論データは、レポートデータ3122および/または注釈付き医療スキャン映像3123を生成および/または更新する際にユーザを支援するために使用することができる。
注釈付き医療スキャン映像3123は、注釈付きDICOMファイルまたは何らかの他のフォーマットの注釈付き医療画像データとすることができる。注釈付きDICOMファイルは、図4Aおよび4Bの診断データ440ならびに/または異常注釈データ442ならびに/または図12A~12Dの病変変化測定データ3055ならびに/または他のレポートデータおよび注釈のフィールドの一部または全部を含み得る。注釈付きDICOMファイルは、識別された異常の場所データおよび/または表示データを提供するスキャン映像オーバーレイデータを含むことができ、これらは、元のDICOM画像とともに使用して、DICOM画像内に異常を視覚的に示すことができ、かつ/または別様で例えば医療スキャン支援レビューシステム102とともに使用するために注釈データを視覚的に提示することができる。例えば、DICOMプレゼンテーション状態ファイルを生成して、非識別化医療スキャン映像において識別された異常の場所を示すことができる。DICOMプレゼンテーション状態ファイルは、注釈データを元のDICOM画像にリンクするために、例えばDICOMプレゼンテーション状態ファイルのメタデータ内に元のDICOM画像の識別子を含み得る。他の実施形態では、完全な複製DICOM画像が生成され、これは、この複製注釈付きDICOM画像を元のDICOM画像にリンクする識別子を有する注釈データを含む。
レポートデータ3122は、テキストとしてフォーマット化することができ、任意選択的に他の媒体を含み得、例えば、図4Aおよび4Bに関連して説明した診断データ440、異常データ440、患者病歴データ430、診断作成者データ450、スキャン映像分類器データ420、信頼スコアデータ460、図12A~12Dの病変変化測定データ3055、ならびに/または他のレポートデータを含み得る。放射線情報システム(RIS)または他のデータベースなどのレポートデータベース2625は、レポートデータ3122を、医療ピクチャアーカイブシステム2620によって記憶された医療スキャン映像3120に対応する複数の医療レポートとして記憶する。
医療スキャン映像閲覧システム3100は、ネットワークインターフェース3102と、プロセッサを含む処理システム3106と、メモリデバイス3104と、タッチスクリーンまたは他の表示デバイスなどの表示デバイス3108と、マイクロフォン、スピーカ、マウス、タッチパッド、サムホイール、ジョイスティック、1つ以上のボタンおよび/またはユーザが医療スキャン映像閲覧システムと対話することを可能にする他のデバイスなどの1つ以上の他のユーザインターフェースデバイス3100と、を含む。動作中、メモリデバイス3104は、処理システム3106によって実行されると、プロセッサが医療スキャン映像レビューシステム3100の種々の動作を実行するように構成する実行可能命令を記憶し、この動作には、例えば、
●レビューのための医療スキャン映像3120の選択を容易にするインタラクティブユーザインターフェースを提供すること、
●ネットワークインターフェース3102を介した医療ピクチャアーカイブシステム2620からの医療スキャン映像3120の取り出しを容易にすること、
●インタラクティブユーザインターフェースを介して、ユーザによるレビューのために表示デバイス3108上での医療スキャン映像3120の表示を容易にすること、
●インタラクティブユーザインターフェースを介して、レポートデータ3122および/または注釈付き医療スキャン映像3123の生成および収集を容易にすること、
●ネットワークインターフェース3102を介したレポートデータベース2625へのレポートデータ3122の送信を容易にすること、ならびに/あるいは
●ネットワークインターフェース3102を介した医療ピクチャアーカイブシステム2620への注釈付き医療スキャン映像3123の送信を容易にすることが含まれる。
上述した種々の動作に加えて、医療スキャン映像閲覧システム3100は、他の複数のより専門化されたツールを含むように構成することができ、これには、以下の段落で説明され、さらに別個にまたは組み合わせて実施され得る複数の機能および特徴を可能にする動作が含まれる。
●レビューのための医療スキャン映像3120の選択を容易にするインタラクティブユーザインターフェースを提供すること、
●ネットワークインターフェース3102を介した医療ピクチャアーカイブシステム2620からの医療スキャン映像3120の取り出しを容易にすること、
●インタラクティブユーザインターフェースを介して、ユーザによるレビューのために表示デバイス3108上での医療スキャン映像3120の表示を容易にすること、
●インタラクティブユーザインターフェースを介して、レポートデータ3122および/または注釈付き医療スキャン映像3123の生成および収集を容易にすること、
●ネットワークインターフェース3102を介したレポートデータベース2625へのレポートデータ3122の送信を容易にすること、ならびに/あるいは
●ネットワークインターフェース3102を介した医療ピクチャアーカイブシステム2620への注釈付き医療スキャン映像3123の送信を容易にすることが含まれる。
上述した種々の動作に加えて、医療スキャン映像閲覧システム3100は、他の複数のより専門化されたツールを含むように構成することができ、これには、以下の段落で説明され、さらに別個にまたは組み合わせて実施され得る複数の機能および特徴を可能にする動作が含まれる。
種々の実施形態では、医療スキャン映像閲覧システム3100は、ユーザ識別された解剖学的ランドマークに基づいて2つ以上の時系列スキャン映像の相互位置合わせを容易にするツールを含む。この相互位置合わせツールは、ランドマークを識別および位置特定するためにユーザ入力を必要とするが、複数の時系列スキャン映像の表示およびナビゲーションを同期させる際に自動ランドマーク検出よりも効果的であるため、医療スキャン映像閲覧システム3100自体の機能を改善することができる。これらの改善により、異なる時間に、または異なるタイプで、かつ/または異なるデバイスを用いて撮影された同じ患者のスキャン映像間のより正確な同期が提供され、より正確な診断が容易となる。
例えば、医療スキャン映像閲覧システム3100によって実行される動作は、ネットワークインターフェース3102を介して、医療ピクチャアーカイブシステム2620から第1の医療スキャン映像3120および第2の医療スキャン映像3120を受信することを含み得る。特に、第1の医療スキャン映像は、一意の患者IDおよび第1のスキャン日付に関連付けられ、第2の医療スキャン映像は、(同一の)一意の患者IDおよび第1のスキャン日付より新しい第2のスキャン日付に関連付けられる。医療スキャン映像は、MRI、PETスキャン映像、CTスキャン映像、図4Aおよび4Bに関連して提示された医療スキャン画像データ410、または他の医療撮像であり得る。結果として、第1の医療スキャン映像は、第1の複数の画像スライスを含み、第2の医療スキャン映像は、医療スキャン映像閲覧システム3100によって表示されスクロールされ得る第2の複数の画像スライスを含む。
医療スキャン映像閲覧システム3100の動作は、インタラクティブユーザインターフェースを介して受信された第1の入力を介して、第1の医療スキャン映像における複数の解剖学的ランドマークの場所を識別することと、インタラクティブユーザインターフェースを介して受信された第2の入力を介して、第2の医療スキャン映像における複数の解剖学的ランドマークの対応する場所を識別することと、をさらに含む。次いで、医療スキャン映像閲覧システム3100は、第1の医療スキャン映像における複数の解剖学的ランドマークの場所と第2の医療スキャン映像における複数の解剖学的ランドマークの対応する場所とに基づいて、第1の医療スキャン映像を第2の医療スキャン映像と自動的に相互位置合わせすることによって動作する。第1の医療スキャン映像は、インタラクティブユーザインターフェースを介して、表示のために第2の医療スキャン映像と同期的に提示される。2つのスキャン映像を相互位置合わせすることにより、ユーザにより同期されたスキャン映像が可能になる。これは、例えば、異常の同じ部分が両方のスキャン映像において同時に閲覧されることを可能にし、ユーザが、「完全奏功」、「部分奏功」、「安定疾患」、または「進行性疾患」を示す病変変化測定データ3055を生成すること、あるいは別様で異常が成長したか、縮小したか、変化しないままであったか、領域が治癒したか、変化しないままであったか、または悪化したかなどを判定することを容易にする。
複数の任意選択の機能および特徴を含む相互位置合わせツールのさらなる考察は、以下の図14A~14Dに関連して提示される。
種々の実施形態では、医療スキャン映像閲覧システム3100は、スマートセグメンテーションツールを含み、スマートセグメンテーションツールは、例えば、シングルクリックに基づいて、2Dまたは3Dにおける結節/異常の自動セグメンテーションを容易にする。このシングルクリック特徴および自動セグメンテーションは、医療スキャン映像閲覧システム3100のユーザスピード、生産性、および使いやすさを向上させることにより、医療スキャン映像閲覧技術の動作を改善する。
例えば、医療スキャン映像閲覧システム3100によって実行される動作は、ネットワークインターフェースを介して、医療ピクチャアーカイブシステムから医療スキャン映像を受信することと、
インタラクティブユーザインターフェースを介して表示のために医療スキャン映像を提示することと、インタラクティブユーザインターフェースを介して、医療スキャン映像における異常を自動的にセグメント化するコマンドを受信することと、インタラクティブユーザインターフェースを介して受信されたコマンドに応答して、異常を含むスキャン映像内の領域を識別するために医療スキャン映像を自動的にセグメント化することと、を含み得る。
複数の任意選択の機能および特徴を含むスマートセグメンテーションツールのさらなる考察は、以下の図15A~15Fに関連して提示される。
種々の実施形態では、医療スキャン映像閲覧システム3100は、ユーザが手動で異常を迅速かつ容易にセグメント化することを可能にするペイントスクエアツールを含む。例えば、医療スキャン映像閲覧システム3100によって実行される動作は、ネットワークインターフェースを介して、医療ピクチャアーカイブシステムから医療スキャン映像を受信することと、インタラクティブユーザインターフェースを介して表示するために医療スキャン映像を提示することと、インタラクティブユーザインターフェースを介して表示するためにグリッドを提示することであって、グリッドは、医療スキャン映像上に重ねられる、提示することと、インタラクティブユーザインターフェースを介して、医療スキャン映像のセグメント化に対応する選択データを受信することであって、セグメント化は、異常を含む医療スキャン映像内の領域を識別し、選択データは、異常を含む医療スキャン映像内の領域を集合的に識別する、グリッドの複数の要素を識別する、受信することと、を含み得る。このペイントスクエアツールは、医療スキャン映像閲覧システム3100のユーザスピード、生産性、および使いやすさを向上させることにより、医療スキャン映像閲覧技術の動作を改善する。
複数の任意選択の機能および特徴を含むペイントスクエアツールのさらなる考察は、以下の図16A~16Gに関連して提示される。
スマートセグメンテーションツールおよびペイントスクエアセグメンテーションツールは、自動または手動のいずれかのセグメンテーションを容易にするが、種々の実施形態では、医療スキャン映像閲覧システム3100は、ブレンドツールを含み、ブレンドツールは、ユーザが手動および自動セグメンテーションの組み合わせを用いてセグメントの範囲にわたって異常を迅速かつ容易にセグメント化することを可能にする。
このブレンドツールは、多くのスライスにわたって持続し得る異常および/または非正常な形状の異常(例えば、あらゆるスライス内の異常の自動および/または手動セグメンテーションが可能/理想的ではない場合がある顕著なスライス間変化を伴う)に有用である。このブレンドツールは、医療スキャン映像閲覧システム3100のユーザスピード、生産性、および使いやすさを向上させることによって、ならびに画像スライスの範囲(span)または範囲(range)のより正確なセグメンテーションを生成することによって、医療スキャン映像閲覧技術の動作を改善する。
例えば、医療スキャン映像閲覧システム3100によって実行される動作は、ネットワークインターフェースを介して、医療ピクチャアーカイブシステムから医療スキャン映像を受信することであって、医療スキャン映像は、複数の画像スライスを含む、受信することと、複数の画像スライスのうち、異常が及ぶ画像スライスの範囲を識別することと、画像スライスの範囲のサブセットを選択することと、
サブセットの各個々の画像スライスをセグメント化して、異常を含む個々の画像スライス内の領域を識別することであって、セグメント化することは、複数のアンカーポイントを識別することを含む、識別することと、連続する画像スライスペアの複数のアンカーポイントに基づくブレンド動作によって、サブセットにおける各連続する画像スライスペア間で、画像の範囲の中間画像スライスを自動的にセグメント化することであって、中間スライスの各々のセグメント化は、異常を含む中間画像スライスの各々における領域を識別する、セグメント化することと、を含み得る。
複数の任意選択の機能および特徴を含むブレンドツールのさらなる考察は、以下の図17A~17Cと併せて提示される。
図14A、14Bおよび14Cは、種々の実施形態による医療スキャン映像閲覧システム3100のインタラクティブユーザインターフェースの説明図を提示している。特に、医療スキャン映像閲覧システム3100のインタラクティブユーザインターフェースとのインタラクションのシーケンスが示されている。これらの例では、患者の医療スキャン映像3130は、ガドリニウム体積補間呼吸停止検査シーケンスを用いた全身アキシャル磁気共鳴撮像の一部に対応する。インタラクティブユーザインターフェースは、クライアントデバイス120のグラフィカルユーザインターフェース(GUI)であり、例えば、ラップトップ、デスクトップ、タブレット、またはディスプレイを有する他のコンピュータなどのパーソナルコンピュータである。
放射線医によって識別されたランドマークに基づいて時系列スキャン映像の相互位置合わせを容易にする、相互位置合わせツールの例が提示される。このツールは、ランドマークを識別するために人間の入力を必要とするが、自動ランドマーク検出のみよりも時系列スキャン映像を同期させるのに効果的であり得る。動作中、インタラクティブユーザインターフェースは、ユーザに、第1の医療スキャン映像において2つのランドマークを選択し、第2の医療スキャン映像においてこれら2つのランドマークの対応する場所(同じ患者の時系列データに対応する)を選択するように促す。この簡単な手順は、わずか4回のクリックと簡単なスクロールで実行することができる。2つのランドマークは、例えば、鎖骨の底部、角膜、または任意の他の明確な解剖学的特徴であり得る。インタラクティブユーザインターフェースは、(例えば、スキャンタイプ、ビュー、および/または解剖学的領域に基づいてインデックス付けされたデータベースからの解剖学的ランドマーク候補のメニューに基づいて)良好なランドマークの既知のリストから、ランドマークとして識別したい解剖学的特徴を選択するようにユーザを促すことができる。代替的に、インターフェースは、デフォルトまたはカスタマイズされた設定に基づいて2つの解剖学的特徴を事前に指定することができ、「スキャン映像1において鎖骨の底部をクリックしてください」、「スキャン映像1において角膜をクリックしてください」、...「スキャン映像2で角膜をクリックしてください」のように促すことができる。
種々の実施形態では、解剖学的ランドマークは、医療スキャン映像のX-Y平面における固定位置を有する1つの特徴と、医療スキャン映像のZ軸に沿ってロックされた別の特徴とを含むように選択することができる。選択された特徴は、選択されたランドマークによって指示される基準フレーム/座標系における計算された変化に基づいて、2つのスキャン映像の相互位置合わせを可能にする。相互位置合わせは、同様のソースからの同様のタイプの2つのスキャン映像に対して動作し得ることに留意されたい。相互位置合わせはまた、異なるソースからの情報の融合、例えば、位置特定のためのCTスキャン映像に対するマップPETスキャン映像(例えば、PETがてんかんの低代謝の領域を同定する場合)を提示することができる。相互位置合わせはまた、他のスキャン映像を、(例えば、がんの病期分類、生検計画、治療計画などにおいて)例えば損傷の位置を識別するために使用されるMRIスキャン映像と融合させるように動作し得る。
図14Aにおいて、医療スキャン映像3130は、インタラクティブユーザインターフェースの第1の部分3200を介して、表示のために提示される。インタラクティブユーザインターフェースは、第1の解剖学的ランドマークの場所を識別するようにユーザを促すテキストボックス3134を含む。図示の例では、ユーザは左鎖骨の位置を識別するように促される。インタラクティブユーザインターフェースの第1の部分3200は、スクロールバー3132を介した医療スキャン映像3130の画像スライスの選択的表示を容易にする。このようにして、医療スキャン映像閲覧システム3100のユーザは、医療スキャン映像3130の画像スライスをスクロールして、図示されるように左鎖骨の明瞭なビューを有する画像スライスを識別することができる。インタラクティブユーザインターフェースは、ユーザがカーソルをその場所にナビゲートし、マウスまたは他のポインティングデバイスを介してその場所をクリックすることに応答して、医療スキャン映像3130における左鎖骨の場所を受信する。
次いで、このプロセスは、医療スキャン映像3130の後の時点で撮影された患者の第2の医療スキャン映像3130’に対して繰り返すことができる。インタラクティブユーザインターフェースの第2の部分3200’は、スクロールバー3132’を介した医療スキャン映像3130’の画像スライスの選択的表示を容易にする。このようにして、医療スキャン映像閲覧システム3100のユーザは、医療スキャン映像3130’の画像スライスをスクロールして、図示されるように左鎖骨の明瞭なビューを有する画像スライスを識別することができる。インタラクティブユーザインターフェースは、ユーザがカーソルをその場所にナビゲートし、マウスまたは他のポインティングデバイスを介してその場所をクリックすることに応答して、医療スキャン映像3130’における左鎖骨の場所を受信する。これにより、医療スキャン映像3130および3130’のX-Y平面における固定位置を有する解剖学的特徴のランドマーク位置が提供される。マウスまたは他のポインティングデバイスの使用に関して上記で説明したが、以前に考察したように、タッチスクリーンとのユーザインタラクションも同様に使用することができる。医療スキャン映像3130および3130’の両方における第1の解剖学的ランドマークの場所の受信に応答して、場所は、図14Bに示されるようにマーキングされる。
図14Aおよび14Bのプロセスは、医療スキャン映像3130および3130’のZ軸に沿った固定位置を有する第2の解剖学的ランドマークに対して繰り返すことができる。次いで、アフィン変換または他の座標変換に基づいて、2つの医療スキャン映像を相互位置合わせすることができる。その結果を図14Cに示している。インタラクティブユーザインターフェースは、医療スキャン映像3130および3130’の両方を同時に同期してスクロールすることを容易にする単一のスクロールバー3132を含み、ここで、異なる時間からの患者における同様の場所が、両方の医療スキャン映像において並んで示されている。
図14Dは、種々の実施形態による方法を示すフローチャートを提示している。特に、本明細書に記載される医療スキャン映像レビューシステムの機能および特徴のいずれかとともに使用するための方法が提示される。ステップ3140は、ネットワークインターフェースを介して、医療ピクチャアーカイブシステムから第1の医療スキャン映像および第2の医療スキャン映像を受信することを含み、第1の医療スキャン映像は、第1の一意の患者IDおよび第1のスキャン日付に関連付けられ、第2の医療スキャン映像は、第1の一意の患者IDおよび第1のスキャン日付よりも最近の第2のスキャン日付に関連付けられ、第1の医療スキャン映像は、第1の複数の画像スライスを含み、第2の医療スキャン映像は、第2の複数の画像スライスを含む。ステップ3142は、第1の医療スキャン映像における複数の解剖学的ランドマークの場所を識別することを含む。ステップ3144は、第2の医療スキャン映像における複数の解剖学的ランドマークの対応する場所を識別することを含む。ステップ3146は、第1の医療スキャン映像における複数の解剖学的ランドマークの場所と第2の医療スキャン映像における複数の解剖学的ランドマークの対応する場所とに基づいて、第1の医療スキャン映像を第2の医療スキャン映像と相互位置合わせすることを含む。ステップ3148は、インタラクティブユーザインターフェースを介して、表示するために、第1の医療スキャン映像を第2の医療スキャン映像とともに提示することを含み、第1の医療スキャン映像および第2の医療スキャン映像は、相互位置合わせすること(co-registering)/相互位置合わせ(co-registration)に基づいて同期して提示される。
種々の実施形態では、ステップ3142は、インタラクティブユーザインターフェースの第1の部分を介して表示するために第1の医療スキャン映像を提示することであって、インタラクティブユーザインターフェースの第1の部分は、第1の複数の画像スライスの選択的表示を容易にする、提示することと、インタラクティブユーザインターフェースを介して、第1の医療スキャン映像における複数の解剖学的ランドマークのうちの第1の解剖学的ランドマークの場所を識別するようにユーザを促すことと、インタラクティブユーザインターフェースを介して、第1の医療スキャン映像における第1の解剖学的ランドマークの場所を示す第1の入力を受信することと、インタラクティブユーザインターフェースを介して、第1の医療スキャン映像における複数の解剖学的ランドマークのうちの第2の解剖学的ランドマークの場所を識別するようにユーザを促すことと、インタラクティブユーザインターフェースを介して、第1の医療スキャン映像における第2の解剖学的ランドマークの場所を示す第2の入力を受信することと、を含む。第1の解剖学的ランドマークおよび第2の解剖学的ランドマークは、解剖学的ランドマーク候補のリストから、インタラクティブユーザインターフェースとのユーザインタラクションを介して選択することができ、またはメモリデバイスに記憶されたユーザのプロファイルから取り出すことができる。
種々の実施形態では、ステップ3144は、インタラクティブユーザインターフェースの第2の部分を介して表示するために第2の医療スキャン映像を提示することであって、インタラクティブユーザインターフェースの第2の部分は、第2の複数の画像スライスの選択的表示を容易にする、提示することと、インタラクティブユーザインターフェースを介して、第2の医療スキャン映像における第1の解剖学的ランドマークの対応する場所を識別するようにユーザを促すことと、インタラクティブユーザインターフェースを介して、第2の医療スキャン映像における第1の解剖学的ランドマークの対応する場所を受信することと、インタラクティブユーザインターフェースを介して、第2の医療スキャン映像における第2の解剖学的ランドマークの対応する場所を識別するようにユーザを促すことと、インタラクティブユーザインターフェースを介して、第2の医療スキャン映像における第2の解剖学的ランドマークの場所を受信することと、を含む。
種々の実施形態では、第1の医療スキャン映像を第2の医療スキャン映像と相互位置合わせすることは、第1の医療スキャン映像における第1の解剖学的ランドマークの場所と、第2の医療スキャン映像における第1の解剖学的ランドマークの対応する場所との間の第1の差を決定することと、第1の医療スキャン映像における第2の解剖学的ランドマークの場所と、第2の医療スキャン映像における第2の解剖学的ランドマークの対応する場所との間の第2の差を決定することと、を含み、相互位置合わせすることは、第1の差および第2の差に基づく。
種々の実施形態では、第1の解剖学的ランドマークの場所は、第1の医療スキャン映像のX-Y平面における固定位置にあり、第2の解剖学的ランドマークの場所は、第1の医療スキャン映像のZ軸に沿った固定位置にある。第1の医療スキャン映像を第2の医療スキャン映像と相互位置合わせすることは、第1の複数の画像スライスのうちの1つを第2の複数の画像スライスのうちの対応する1つと同期させることを含む。
種々の実施形態では、ステップ3148は、インタラクティブユーザインターフェースの第1の部分において、第1の複数の画像スライスのうちの1つを、インタラクティブユーザインターフェースの第2の部分において、第2の複数の画像スライスのうちの対応する1つと同時に提示することを含む。第1の複数の画像スライスのうちの1つは、第1のスキャン日付における異常の画像を含み、第2の複数の画像スライスのうちの対応する1つは、第2のスキャン日付における異常の画像を含む。ステップ3148は、第1の医療スキャン映像を第2の医療スキャン映像と相互位置合わせすることに従って、第2の複数の画像と同期して第1の複数の画像をインタラクティブユーザインターフェースを介してスクロールすることを容易にすることを含み得る。
相互位置合わせ手順のさらなる例を以下に提示する。時間tにおける第1のスキャン映像と、時間t+1によって表される後の時間における第2のスキャン映像とを検討する。ランドマークの場所は、2つのランドマークiおよびjに対してLによって表すことができ、Sはピクセル間隔を表すことができる。以下の表は、時間の関数としてこれらの量の三次元表現を示している。
時系列位置合わせの問題は、Lk t+1を計算する問題に還元され、残りの量はそれぞれ、医療スキャン映像閲覧システム3100のインタラクティブユーザインターフェースを介して実行される解剖学的ランドマーク位置特定手順に基づいて決定される。
時系列位置合わせの問題は、Lk t+1を計算する問題に還元され、残りの量はそれぞれ、医療スキャン映像閲覧システム3100のインタラクティブユーザインターフェースを介して実行される解剖学的ランドマーク位置特定手順に基づいて決定される。
3Dにおける標準的なアフィン変換は、並進、スケーリング、剪断および回転の固定シーケンスによって完全に記述することができ、それぞれが特定の組成の4×4行列によって定義される。かかる一連の線形変換を構成することにより、12個のパラメータを有する統一された4×4行列が形成される。
ここで、項αは、回転、スケーリング、剪断の効果を集合的に表し、項γは並進を表す。合計12個のパラメータを有する線形方程式の上記システムを解くには、少なくとも4つの対応点(各ペアが3つの方程式を生成する)が必要である。ランドマークの観察が制限されているため、解を特定可能にするために自由度を低減する必要がある。したがって、x軸またはy軸の周りに回転がないと仮定すると、回転行列が単純化され、tからt+1までのクエリランドマークは、以下の関係式で表される。
式中、
ここで、項αは、回転、スケーリング、剪断の効果を集合的に表し、項γは並進を表す。合計12個のパラメータを有する線形方程式の上記システムを解くには、少なくとも4つの対応点(各ペアが3つの方程式を生成する)が必要である。ランドマークの観察が制限されているため、解を特定可能にするために自由度を低減する必要がある。したがって、x軸またはy軸の周りに回転がないと仮定すると、回転行列が単純化され、tからt+1までのクエリランドマークは、以下の関係式で表される。
式中、
2つのランドマークLiおよびLjを用いて、ZxおよびZyを解くことができる。
x-y平面上の回転角θを計算するために、ベクトルを使用する。
tおよびt+1でそれぞれ2つのランドマークを接続すると、VtとVt+1との間の角度は次のように計算できる。
および
x-y平面上の回転角θを計算するために、ベクトルを使用する。
tおよびt+1でそれぞれ2つのランドマークを接続すると、VtとVt+1との間の角度は次のように計算できる。
および
図14Eは、種々の実施形態による、座標を図示する説明図/グラフィック図を提示している。特に、ランドマーク座標は、軸方向内側スキャン映像とともに提示される。時間T0における2つのランドマーク(v0およびw0)、および時間T1における2つの対応するランドマーク(v1およびw1)が与えられると、それらの相対ベクトルを定義することができる。
d0=w0-v0 (9)
d1=w1-v1 (10)
これらの相対ベクトルは、第1のランドマークを共通の原点として扱うため、この共通の原点に変換されたベクトルの空間内の平面を定義する。これから、相対平面に対する法線ベクトルを決定することができる。
n=d0×d1 (11)
2つの相対ベクトルは角度を記述する。
また、相対的長さを有する。
d0=w0-v0 (9)
d1=w1-v1 (10)
これらの相対ベクトルは、第1のランドマークを共通の原点として扱うため、この共通の原点に変換されたベクトルの空間内の平面を定義する。これから、相対平面に対する法線ベクトルを決定することができる。
n=d0×d1 (11)
2つの相対ベクトルは角度を記述する。
また、相対的長さを有する。
ベクトルを
の周りでθだけ回転させる回転行列Rを定義することができる。
ベクトルzを以下のように定義した場合、
z=v1-αRv0 (16)
次に、同次座標におけるアフィン変換行列を定義することができる。
これは、次の条件を満たす。
の周りでθだけ回転させる回転行列Rを定義することができる。
ベクトルzを以下のように定義した場合、
z=v1-αRv0 (16)
次に、同次座標におけるアフィン変換行列を定義することができる。
これは、次の条件を満たす。
図15A~15Eは、種々の実施形態による医療スキャン映像閲覧システム3100のインタラクティブユーザインターフェースの説明図を提示している。具体的には、図15Aおよび15Bは、例示的な医療スキャン映像閲覧システム3100のインタラクティブユーザインターフェースとの一連のインタラクションを提示している。図15C~15Eは、別の例示的な医療スキャン映像閲覧システム3100のインタラクティブユーザインターフェースとのインタラクションのシーケンスを提示している。いずれの場合も、インタラクティブユーザインターフェースは、クライアントデバイス120のグラフィカルユーザインターフェース(GUI)であり、例えば、ラップトップ、デスクトップ、タブレット、またはディスプレイを有する他のコンピュータなどのパーソナルコンピュータである。
特に、医療スキャン映像を表示し、インタラクティブユーザインターフェースへのユーザ入力(マウス、タッチスクリーンなど)を介して行われる単一のクリックポイントに応答して、病変、結節、他の異常、または他の関心領域の場所を決定するスマートセグメンテーションツールの例が提示される。種々の実施形態では、スマートセグメンテーションツールは、2D(面積)または3D(体積)セグメンテーションツールのいずれかであるというユーザ選択に応答することができる。2Dモードでは、セグメンテーションは、ハウンズフィールド単位(HU)の値または他の密度値が一致する隣接ピクセルに基づいて、すなわち閾値デルタ値内で類似している隣接ピクセルに基づいて決定することができ、さらに、HU/密度値がもはや閾値デルタ内になくなるまで反復的に外向きに比較されて、セグメンテーションを指示することができる。3Dモードでは、セグメンテーションは、1つ以上の隣接するスライスにおける対応する場所がまた、閾値デルタ内で一致/類似するHU/密度値を有する場合に決定することができる。そうである場合、スマートセグメンテーションツールは、このスライスに対して2Dセグメンテーションを実行し、後続のスライスにおけるHU/密度値がもはやデルタ閾値と有利に比較されなくなるまで、このプロセスを反復的に外向きに継続することができる。結果として得られるセグメンテーションは、強調表示を介して2Dで(および3Dの場合は複数のスライスにわたって)表示することができ、かつ/または異常の輪郭を含み得る。スマートセグメンテーションツールは、セグメント化された結節、病変、および/または他の異常もしくは領域の面積および/または体積測定を実行することができ、かつ/または平均密度/密度の均一性/他の特徴的な特徴を提示することができる。図12A~12Dに関連して説明した病変検出機能3020、病変測定機能3045、および他の関連する技術も、セグメンテーションを実行する際に利用することができることに留意されたい。
大部分の場合、異常の近傍をクリックするだけでセグメンテーションを開始することができる。ただし、選択された場所の密度値が、結節、病変、または他の異常の密度範囲と一致しない場合、スマートセグメンテーションツールは、近傍の密度値をチェックし、近傍の結節、病変、または他の異常、および/または結節病変、および/または既にセグメント化された他の異常識別することができる。しかしながら、スマートセグメンテーションツールがクリックの近傍に2つ以上の結節、病変、もしくは他の異常の位置を特定した場合、スマートセグメンテーションツールは、結節、病変、および/もしくは他の異常の各々をセグメント化するように進行することができ、かつ/またはユーザに、セグメント化すべき結節病変、および/もしくは他の異常のうちの特定の1つ以上を選択するように促すことができる。これは、例えば、特徴の候補のリストに基づいて、ユーザがセグメント化するために選択する任意の特徴に対して実行することができる。スマートセグメンテーションツールは、必ずしも異常ではない領域をセグメント化するように動作し得ることに留意されたい。
ここで図15Aを参照すると、医療スキャン映像3130は、医療スキャン映像閲覧システム3100の例示的なインタラクティブユーザインターフェースを介して提示されている。図示の例では、患者の医療スキャン映像3133は、ガドリニウム増強体積補間呼吸停止検査シーケンスを用いた全身磁気共鳴撮像の一部に対応する。スクロールバー3132は、ユーザがスキャン映像の種々の画像スライスをナビゲートすることを可能にする。インタラクティブユーザインターフェースは、テキストボックス3134を含み、テキストボックス3134は、ユーザに画像をクリックしてスキャン映像に存在する特徴を自動的にセグメント化するように促す。この場合、ユーザは、カーソルを置き、異常の可能性があるリンパ節をクリックすることによってセグメンテーションコマンドを発行する。図15Bにおいて、スマートセグメンテーションツールは画像をセグメント化し、セグメンテーション3150を提示する。得られたセグメンテーションは、注釈付き医療スキャン映像3123に含めることができる。
種々の実施形態では、医療スキャン映像閲覧システム3100は、上述したような1つ以上の医療スキャン映像分析機能をさらに実行する。図示の例では、医療スキャン映像閲覧システム3100は、セグメント化された領域内の医療スキャン映像3120を分析し、テキストボックス3134内に示されるリンパ節の拡大の可能性を判定する。
ここで図15Cを参照すると、医療スキャン映像3135が、医療スキャン映像閲覧システム3100のさらなる例示的なインタラクティブユーザインターフェースを介して提示されている。図示の例では、患者の医療スキャン映像3135は、アキシャルMRIの一部に対応する。スクロールバー3132は、ユーザがスキャン映像の種々の画像スライスをナビゲートすることを可能にする。インタラクティブユーザインターフェースは、プレビュー領域3136を含み、プレビュー領域3136は、ロードされた4つの異なるスキャン映像のサムネイル画像を提示し、閲覧されている特定の画像のサムネイルを強調表示する。各医療スキャン映像に含まれる画像(または画像スライス)の数は、各サムネイルの右下隅に示される。インタラクティブユーザインターフェースの閲覧領域は、医療スキャン映像3135の画像を提示する。現在表示されているスライス/画像番号(例えば、263のうちの197)は、閲覧領域の右下隅に示される。
ツールバー領域3137は、インタラクティブユーザインターフェースの種々のツールを提示する。スマートセグメンテーションツールセレクタ3138は、インタラクティブユーザインターフェースを介して2つのモード、すなわち体積モード(図15Cに示されるような)またはエリアモードに設定することができる。図15Dでは、ユーザは、スマートセグメンテーションツールセレクタ3138と対話して、エリアモードを選択している。ユーザは、関心領域の上にカーソルを置き、その領域をクリックする。これに応答して、スマートセグメンテーションツールは、画像をセグメント化し、領域境界、領域面積、ならびにこの領域におけるHU値の平均および標準偏差を含むセグメンテーションを提示する。
ここで図15Eを参照すると、ユーザは、別の関心領域上にカーソルを置き、この他の領域をクリックする。これに応答して、スマートセグメンテーションツールは、画像をセグメント化し、この他の領域の領域境界、領域面積、ならびにこの他の領域におけるHU値の平均および標準偏差を含むセグメンテーションを提示する。領域境界および他の情報は、このデータを区別するために、各領域について異なる色で提示され得ることに留意されたい。得られたセグメンテーションは、注釈付き医療スキャン映像3123に含めることができる。
図15Fは、種々の実施形態による方法を示すフローチャートを提示している。特に、本明細書に記載される医療スキャン映像レビューシステムの機能および特徴のいずれかとともに使用するための方法が提示される。ステップ3152は、ネットワークインターフェースを介して、医療ピクチャアーカイブシステムから医療スキャン映像を受信することを含む。ステップ3154は、インタラクティブユーザインターフェースを介して表示するために医療スキャン映像を提示することを含む。ステップ3156は、インタラクティブユーザインターフェースを介して、医療スキャン映像における異常を自動的にセグメント化するコマンドを受信することを含む。ステップ3158は、インタラクティブユーザインターフェースを介して受信されたコマンドに応答して、異常を含むスキャン映像内の領域を識別するために医療スキャン映像を自動的にセグメント化することを含む。
図16A~16Fは、種々の実施形態による医療スキャン映像閲覧システムのインタラクティブユーザインターフェースの説明図を提示している。特に、図16Aおよび16Bは、例示的な医療スキャン映像閲覧システム3100のインタラクティブユーザインターフェースとの一連のインタラクションを提示している。図16C~16Fは、別の例示的な医療スキャン映像閲覧システム3100のインタラクティブユーザインターフェースとのインタラクションのシーケンスを提示している。いずれの場合も、インタラクティブユーザインターフェースは、クライアントデバイス120のグラフィカルユーザインターフェース(GUI)であり、例えば、ラップトップ、デスクトップ、タブレット、またはディスプレイを有する他のコンピュータなどのパーソナルコンピュータである。
具体的には、グリッド正方形(または長方形もしくは他の多角形)の放射線医選択に基づいて、関心領域を自動的にセグメント化するように動作するペイントスクエアツールの例が提示され、グリッド正方形は、対応する注釈がどこに関連付けられるか、どこにフォーカスされるか、またはどこに結び付けられるかを示す。例えば、各クリックは、関心領域を効果的に「ペイント」する正方形を選択する。この特徴により、ユーザは、循環/トリミング/その他のセグメント化に負担をかける必要なく、関心領域を迅速かつ容易に選択できる。
種々の実施形態では、ペイントスクエアツールは、医療スキャン映像閲覧システム3100のインタラクティブユーザインターフェースに提示された医療画像をオーバーレイするグリッドを表示する。グリッドは、自動的に表示することができ、インタラクティブユーザインターフェースを介してペイントスクエアツールを使用することをユーザが選択したことに応答して、または検出ラベルが注釈パネルに入力されたことに応答して表示することができる。さらに、ユーザは、インタラクティブユーザインターフェースを介してコマンドを発行して、グリッドサイズを選択し、かつ/またはオプションのデフォルトセットもしくはユーザプロファイルもしくは任意のユーザ選択グリッド選択(16×16、32×32、64×64、または任意のR×RもしくはH×W)からデフォルトグリッドサイズをカスタマイズすることができる。他の例では、グリッドサイズは、対象のラベルによって決定することができる。例えば、小結節注釈ラベルは64×64グリッドを必要とし、心肥大注釈ラベルはより大きな16×16グリッドを必要とする。
さらに、医療スキャン映像閲覧システム3100が、グリッドベースの推論機能を含む1つ以上の医療スキャン映像分析機能を実行する例を検討する。推論機能の出力は、K個の異常クラスの各々についてN×N個の確率値を示すN×N×K行列を含み得る。K個のクラスの各々についてのN×N個の値の各々は、画像データのN×N個の画像パッチのうちの1つに対応し得る。K個のクラスの各々に対するN×N個の確率値の各々は、異常クラスのセットのうちの対応する1つが対応する画像パッチ内に存在する確率に対応し得る。図12Aに関連して考察したように、Nの値は、モデルの複数の解像度レイヤの解像度に対応し得る。例えば、新しい医療スキャン映像の画像データのサイズが1024×1024ピクセルである場合、Nの値は、各々が16×16ピクセルを含む合計642個の画像パッチに対して、64に対応し得る。この場合、グリッドサイズは、画像データを分析するために推論機能によって使用される画像パッチのサイズに対応し得る。
インタラクティブユーザインターフェースは、例えば、ユーザが関心領域に含めたい各正方形上を1回クリックし、選択された正方形を強調表示/輪郭表示することができる。ユーザは、その選択完了を示すことができ、結果として生じる選択により、関心領域を指示することができる。代替的に、インタラクティブユーザインターフェースは、ユーザが単一の正方形をクリックし、含めたい他の正方形上をドラッグまたはスワイプすることを可能にし、解放されると、選択されたセットが関心領域を指示する。このようにして、クリックが開始された点からクリックが解除された点までのカーソルの軌跡と交差するグリッド正方形のすべてを一度にペイントすることができる。
ペイントスクエアツールは、すべての正方形が少なくとも1つの他の正方形に隣接していることを要求することができ、1つ以上の正方形が不連続なグループ内にあることを可能にし、かつ/または、例えば選択された正方形の幅および広さに基づいて、結果として得られる関心領域が長方形であることを要求するか、または自動的に塗り潰すことができる。さらに、関心領域は、ユーザによって選択された単一のグリッド矩形のみを含み得る。
種々の実施形態では、ユーザは、テキストボックス内のこの関心領域に注釈を付けることができ、この注釈は、例えば、選択された関心領域に含まれる面積のみを記述することができる。注釈は、注釈付き医療スキャン映像3123内にDICOMメタデータとして記憶することができ、かつ/または別様でレポートデータ3122内に示すことができる。インタラクティブユーザインターフェースは、ユーザが、選択された関心領域上で自動的にズームインし、関心領域の輪郭を描き、選択されたグリッド正方形を編集し、かつ/または選択が行われた後に他のすべてのグリッド正方形を消すことを可能にし得る。ズームインが行われた場合、選択された関心領域内により小さいサブグリッドを任意選択的に提示することができ、このプロセスを繰り返して、所望であれば、ユーザが選択された関心領域を絞り込むことが可能になり得る。レポートデータ3122は、関心領域のみを含むトリミングされたピクチャ、および/または注釈が参照しているスキャン映像の部分を容易にレビューするために、注釈とともに、関心領域の輪郭が描かれた完全なスキャン映像のピクチャを有する最終レポートを含むことができる。そのように選択された関心領域はまた、対応する注釈/ラベルに紐づけることができ、画像および対応するラベル(識別された関心領域のみに紐づけられる)は、モデルを訓練するための訓練データとして利用される。
ここで図16Aを参照すると、医療スキャン映像3130は、医療スキャン映像閲覧システム3100の例示的なインタラクティブユーザインターフェースを介して提示される。図示の例では、患者の医療スキャン映像3133は、ガドリニウム増強体積補間呼吸停止検査シーケンスを用いた全身磁気共鳴撮像の一部に対応する。スクロールバー3132は、ユーザがスキャン映像の種々の画像スライスをナビゲートすることを可能にする。インタラクティブユーザインターフェースは、テキストボックス3134を含み、テキストボックス3134は、対象のグリッド正方形を選択することによってスライスをセグメント化するようにユーザを促す。
ここで図16Bを参照すると、ユーザは、拡大したリンパ節の領域内のグリッド正方形のグループをスワイプすることによって、インタラクティブユーザインターフェースと対話している。画像は、選択されたグリッド正方形を強調表示することによってセグメント化される。さらに、ユーザは、異常に拡大したリンパ節が存在することを示すテキストをテキストボックス3134に入力している。セグメンテーションおよびテキストは、注釈付き医療スキャン映像3123内にDICOMメタデータとして記憶することができ、かつ/またはレポートデータ3122内に含めることができる。
ここで図16Cを参照すると、医療スキャン映像3220が、医療スキャン映像閲覧システム3100のさらなる例示的なインタラクティブユーザインターフェースを介して提示されている。図示の例では、患者の医療スキャン映像3220は、骨折の可能性がある患者の4つの手首X線写真のセットのうちの1つに対応する。ユーザは、16×16グリッドを有する大きなグリッドサイズを選択し、検出された関節炎の領域内のグリッド正方形のグループをスワイプすることによって、インタラクティブユーザインターフェースと対話している。画像は、選択されたグリッド正方形を強調表示することによってセグメント化される。強調表示された領域は、図16Dに示すように、メニューから選択された診断のテキスト表示とともに保存される。セグメンテーションおよびテキストは、注釈付き医療スキャン映像3123内にDICOMメタデータとして記憶することができ、かつ/またはレポートデータ3122内に含めることができる。
ここで図16Eを参照すると、医療スキャン映像3222が、医療スキャン映像閲覧システム3100のさらなる例示的なインタラクティブユーザインターフェースを介して提示されている。図示の例では、患者の医療スキャン映像3222は、骨折の可能性がある患者の4つの手首X線写真のセットのうちの別の1つに対応する。ユーザは、より小さいグリッドサイズ32×32グリッドを選択し、検出された関節炎の領域内のグリッド正方形のグループをスワイプすることによって、インタラクティブユーザインターフェースと対話している。画像は、選択されたグリッド正方形を強調表示することによってセグメント化される。強調表示された領域は、図16Fに示すように、診断のテキスト表示とともに保存される。セグメンテーションおよびテキストは、DICOMメタデータとして注釈付き医療スキャン映像3123に記憶することができ、かつ/または以前のテキストおよびセグメンテーションならびにすべての他のテキストおよびセグメンテーションとともにレポートデータ3122に含めることができる。医療スキャン映像3220および医療スキャン映像3222のセグメンテーションは、2つのスキャン映像をさらに区別し、レポートが参照する医師によって読みやすくなるように、異なる色で行うことができることに留意されたい。
図16Gは、種々の実施形態による方法を示すフローチャートを提示している。特に、本明細書に記載される医療スキャン映像レビューシステムの機能および特徴のいずれかとともに使用するための方法が提示される。ステップ3162は、ネットワークインターフェースを介して、医療ピクチャアーカイブシステムから医療スキャン映像を受信することを含む。ステップ3164は、インタラクティブユーザインターフェースを介して表示するために医療スキャン映像を提示することを含む。ステップ3166は、インタラクティブユーザインターフェースを介して表示するためにグリッドを提示することを含み、グリッドは、医療スキャン映像上に重ねられる。ステップ3168は、インタラクティブユーザインターフェースを介して、医療スキャン映像のセグメント化に対応する選択データを受信することを含み、セグメント化は、異常を含む医療スキャン映像内の領域を識別し、選択データは、異常を含む医療スキャン映像内の領域を集合的に識別する、グリッドの複数の隣接する要素を識別する。
図17Aおよび17Bは、種々の実施形態による医療スキャン映像閲覧システムのブレンドツールに関するグラフィカル/ブロック図を提示している。特に、他のスライスのサブセットのブレンドに基づいて異常の複数の中間スライスを自動的にセグメント化するように動作するブレンドツールが提示される。このブレンドツールは、複数の画像スライスにわたる異常の、より容易かつ迅速なセグメンテーションを提供することによって、ユーザ体験を改善する。
ここで図17Aを参照すると、異常にわたる医療スキャン映像3120の画像スライス3170の範囲のサブセットのグラフィカル/ブロック図が提示されている。図示の例では、異常は、画像スライス0~100の範囲(span)(または範囲(range))内に存在する病変3010によって表される。ブレンドツールは、セグメント化される異常を含む医療スキャン映像3120の画像スライスの範囲を含むスライスのサブセットとして、画像スライス3170の範囲のサブセットを選択することによって動作する。図示の例では、画像スライス3170スライスの範囲のサブセットは、非隣接(すなわち、異常を含む101スライスにわたって間隔を置いて配置された5スライス)である。
種々の実施形態では、画像スライス3170の範囲のサブセットは、各選択されたスライス間で最大かつ等しい数の選択されていないスライスを生成するように選択する(例えば、101個の連続スライスのセットのうち、スライス0、25、50、75、および100が選択される)ことができる。画像スライス3170の範囲のサブセットの選択は、代替として、または加えて、顕著な構造変化に基づき得る。顕著な構造変化は、ユーザによって識別され得るか、または1つ以上の隣接するスライスの比較に基づいて自動的に検出され得る。
特に、画像スライス3170の範囲のサブセットの自動選択は、理想的な間隔ウィンドウ内の選択されたスライス間の間隔を達成しようとする試みに基づいて決定することができ、同時に、最大の構造変化を導入し、かつ/または自動または手動セグメンテーションのための最も明白な「境界」を有する理想的な間隔ウィンドウ内の最適なスライスも決定する。画像スライス3170の範囲のサブセットの数は、固定することができ、異常を含むスライスの総数の関数とすることができ、かつ/または以前の連続スライスおよび/もしくは以前に選択されたスライスから少なくとも閾値量の構造変化を導入するあらゆるスライスを選択することに基づき得る。特に、画像スライス3170スライスの範囲のサブセットは、これらの基準の一部もしくは全部に基づいて自動的に選択することができ、かつ/またはユーザによって選択することができる(例えば、放射線医は、この基準の一部もしくは全部に基づいておよび/または自身の決定に基づいてセグメント化するスライスの小さなサブセットを選択するように促される)。これは、医療スキャン映像閲覧システム3100のインタラクティブユーザインターフェースを介して、異常を含む少なくとも開始スライスおよび終了スライスを選択するようにユーザを促すこと、ならびに開始スライスと終了スライスとの間の少なくとも1つの追加のスライスを選択するようにユーザを促すことを含み得る。
動作において、ブレンドツールは、画像スライス3170の範囲のサブセットをセグメント化して、ブレンドのための「アンカーポイント」のセットを生成するように動作する。画像スライス3170の範囲のサブセットの各個々の画像スライスは、自動的にセグメント化することができ、自動セグメンテーションは、インタラクティブユーザインターフェースを介して、ユーザによってレビューおよび/またはオーバーライドすることができる。代替的に、ユーザは、インタラクティブユーザインターフェースのブレンドツールとのインタラクションを介して、すべてのセグメンテーションを手動で実行することができる。
画像スライス3170の範囲のサブセットの個々の画像スライスがセグメント化されると、画像スライス3170の範囲のサブセットの隣接する画像スライスの各ペア間のセグメント化された「アンカーポイント」間の異常の「ブレンド」変換に基づいて、中間画像スライスを自動的にセグメント化することができる。種々の実施形態では、ユーザは、画像スライス3170の範囲のサブセットが選択されてセグメント化され、アンカーポイントが識別されると、インタラクティブユーザインターフェースの「ブレンド」ボタンをクリックすることができる。ブレンドすることは、最も近い2つのアンカーポイント間の一部または全部のセグメント化されていないスライスにおけるセグメンテーションの増分変化を導入することを含み、この増分変化により、セグメンテーションは、第1のアンカーポイントにおける異常の形状/サイズから後続のアンカーポイントにおける異常の形状/サイズへと着実に「ブレンド」される。隣接するアンカーポイントの各ペア間のセグメント化されていないスライスの各々は、このブレンドを介して同様にセグメント化することができる。2つのアンカーポイント間のブレンドにおいて生成された増分変化は、対応する中間スライスにおける異常について生成されたセグメンテーションとして視覚的に提示することができ、かつ/またはこれらの中間スライスにわたる面積/体積の測定値を計算するために利用することができる。
図示の例では、画像スライス1~24のセグメンテーションは、画像スライス0および25内のアンカーポイントに基づくことができ、画像スライス26~49のセグメンテーションは、画像スライス25および50内のアンカーポイントに基づくことができ、画像スライス51~74のセグメンテーションは、画像スライス50および75内のアンカーポイントに基づくことができ、画像スライス76~99のセグメンテーションは、画像スライス75および100内のアンカーポイントに基づくことができる。高次のブレンド操作により、画像スライス3170の範囲のサブセットの画像スライスのうちの3つ以上におけるアンカーポイントの位置に基づいて、中間画像スライスの各々をセグメント化することができることに留意されたい。
ここで図17Bを参照すると、種々の実施形態による画像スライス3170の範囲のサブセットのセグメント化画像の図が提示されている。図示の例では、サブセット内の連続する画像スライスペア、スライス50およびスライス75がセグメント化されており、アンカーポイント(「x」によって表される)が識別されている。種々の実施形態では、セグメンテーションは、領域境界の周りに間隔を置いて配置されたアンカーポイントを有する、病変3010の領域境界(または輪郭)として生成することができる。特に、アンカーポイント間の間隔は、病変3010の重心(示される例において「o」によって示される)に関連して境界の周りの等しい角度間隔として決定され得るか、または単にユーザによって手動で選択され得る。中間スライス51~74のセグメンテーションは、スライス50および75におけるアンカーポイントの各々の位置の線形補間、または高次補間、三次スプライン、変換、または例えばスライス0、25および/または100のアンカーポイントも含む他のブレンドによって生成することができる。
これらのブレンド動作は、画像スライス3170の範囲のサブセットの各画像スライス内に一定数のアンカーポイントを有することによって簡略化することができるが、異なる数のアンカーポイントとの他のブレンドを実施することができることに留意されたい。例えば、画像スライス0および100は、他の画像スライスのアンカーポイントが収束する単一のアンカーポイントのみを有し得る。さらに、図示の例は、病変3010の領域境界に沿って排他的にアンカーポイントを提示しているが、内部および/または外部アンカーポイントを有する他の構成も同様に可能である。
種々の実施形態では、ユーザは、インタラクティブユーザインターフェースを介して、自動的に生成された「ブレンド」されたセグメンテーションをレビューすることができ、必要に応じて任意のセグメンテーションを調整することができる。また、これを利用して、重要な「顕著な変化」が第1の選択において見落とされたかどうかを判定するために、かつ/または隣接するスライスのグループにわたってより高品質のブレンドされたセグメンテーションを生成するために、追加のスライスがセグメント化される必要があるかどうかを判定することができる。任意の自動ブレンドセグメンテーションを「固定」するためのユーザによる各インタラクションにより、これは、(新しいセグメンテーションが放射線医によってこれらの新しいスライスに対して設定されたため)選択されたスライスのサブセットに含まれる新しい「アンカーポイント」として利用することができる。このセグメント化されたスライスと、一方または両方の方向において次に最も近いアンカーポイントとの間のスライスのサブセットは、「再ブレンド」されて、(ブレンドのこの第2の反復は、これらのスライスに対するブレンドの第1の反復よりも少ない数の隣接スライスにわたるため)対応する中間スライスにおいてより良好な品質のブレンドを生成することができる。自動生成されたセグメンテーションを固定するためにユーザインタラクションに基づいてアンカーポイントを反復的に追加し、スライスのより小さいサブセットにわたって再ブレンドしてこれらのスライスにおいてセグメンテーションを再生成するこのプロセスは、ユーザが最終的なセグメンテーションに満足するまで継続することができる。代替的に、ユーザは、複数のセグメンテーションを固定して複数の新しいアンカーポイントを導入することができ、この再ブレンドは、ユーザがインタラクティブユーザインターフェースの「ブレンド」ボタンを再びクリックするまで発生しない。
図17Cは、種々の実施形態による方法を示すフローチャートを提示している。特に、本明細書に記載される医療スキャン映像レビューシステムの機能および特徴のいずれかとともに使用するための方法が提示される。ステップ3172は、ネットワークインターフェースを介して、医療ピクチャアーカイブシステムから医療スキャン映像を受信することを含み、医療スキャン映像は、複数の画像スライスを含む。ステップ3174は、複数の画像スライスのうち、異常が及ぶ画像スライスの範囲を識別することを含む。ステップ3176は、画像スライスの範囲のサブセットを選択することを含む。ステップ3178は、サブセットの各個々の画像スライスをセグメント化して、異常を含む個々の画像スライス内の領域を識別することを含み、セグメント化することは、複数のアンカーポイントを識別することを含む。ステップ3180は、連続する画像スライスペアの複数のアンカーポイントに基づくブレンド動作によって、サブセットにおける各連続する画像スライスペア間で、画像の範囲の中間画像スライスを自動的にセグメント化することを含み、中間スライスの各々のセグメント化は、異常を含む中間画像スライスの各々における領域を識別する。
ビットストリーム、ストリーム、信号など(またはそれらの等価物)などの本明細書で使用され得る用語は、そのコンテンツが一部の所望のタイプ(例えば、データ、ビデオ、音声、テキスト、グラフィックス、オーディオなど、それらのいずれも概して「データ」と称され得る)のいずれかに対応するデジタル情報を記述するために互換的に使用されていることに留意されたい。
本明細書で使用され得るように、「実質的に」および「およそ」という用語は、その対応する用語および/またはアイテム間の相対性に対して産業上許容される公差を提供する。一部の産業では、産業上許容される公差は1パーセント未満であり、他の産業では、産業上許容される公差は10パーセント以上である。産業上許容される公差の他の例は、1パーセント未満から50パーセントまでの範囲である。産業上許容される公差は、コンポーネント値、集積回路プロセス変動、温度変動、立ち上がり時間および立ち下がり時間、熱雑音、寸法、シグナリングエラー、欠落パケット、温度、圧力、材料組成、および/または性能メトリックに対応するが、これらに限定されない。ある産業では、許容される公差の公差分散は、パーセントレベルよりも大きい場合も小さい場合もある(例えば、±1%未満の寸法公差)。アイテム間の何らかの相対性は、パーセントレベル未満の差から数パーセントまでの範囲であり得る。アイテム間の他の相対性は、数パーセントの差からマグニチュードの差までの範囲であり得る。
また、本明細書で使用され得るように、「構成する」、「動作可能に結合される」、「結合される」、および/または「結合する」という用語は、アイテム間の直接結合および/または介在アイテムを介したアイテム間の間接結合を含み(例えば、アイテムは、限定はしないが、構成要素、要素、回路、および/またはモジュールを含む)、間接結合の例では、介在アイテムは、信号の情報を修正しないが、その電流レベル、電圧レベル、および/または電力レベルを調整することができる。本明細書でさらに使用され得るように、推論された結合(すなわち、1つの要素が推論によって別の要素に結合される場合)は、「結合される」と同じ様式で2つのアイテム間の直接的結合および間接的結合を含む。
本明細書でさらに使用され得るように、「構成する」、「動作可能である」、「結合される」、または「動作可能に結合される」という用語は、アイテムが、起動されたときに1つ以上のその対応する機能を実行するために、電力接続、入力、出力などのうちの1つ以上を含み、1つ以上の他のアイテムへの推論される結合をさらに含み得ることを示す。本明細書でさらに使用され得るように、「関連付けられる」という用語は、別個のアイテムの直接的および/または間接的な結合、および/または1つのアイテムが別のアイテム内に埋め込まれることを含む。
本明細書で使用され得るように、「有利に比較される」という用語は、2つ以上のアイテム、シグナルなどの間の比較が所望の関係を提供することを示す。例えば、所望の関係が、信号1が信号2よりも大きいマグニチュードを有するというものである場合、有利な比較は、信号1のマグニチュードが信号2のマグニチュードよりも大きいとき、または信号2のマグニチュードが信号1のマグニチュードよりも小さいときに達成され得る。本明細書で使用され得るように、「不利に比較される」という用語は、2つ以上のアイテム、シグナルなどの間の比較が、所望の関係を提供できないことを示す。
本明細書で使用され得るように、1つ以上の請求項は、この一般的な形態の特定の形態において、語句「a、b、およびcのうちの少なくとも1つ」、またはこの一般的な形態において「a」、「b」、および「c」よりも多いか、または少ない要素を伴う、「a、b、またはcのうちの少なくとも1つ」を含み得る。いずれの表現においても、表現は同一に解釈されるべきである。特に、「a、b、およびcのうちの少なくとも1つ」は、「a、b、またはcのうちの少なくとも1つ」と等価であり、a、b、および/またはcを意味するものとする。例として、「a」のみ、「b」のみ、「c」のみ、「a」および「b」、「a」および「c」、「b」および「c」、ならびに/または「a」、「b」および「c」が挙げられる。
また、本明細書で使用され得るように、「処理モジュール」、「処理回路」、「プロセッサ」、「処理回路」、および/または「処理ユニット」という用語は、単一の処理デバイスまたは複数の処理デバイスであり得る。かかる処理デバイスは、マイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ、マイクロコンピュータ、中央処理デバイス、フィールドプログラマブルゲートアレイ、プログラマブル論理デバイス、状態機械、論理回路、アナログ回路、デジタル回路、ならびに/または回路および/もしくは動作命令のハードコーディングに基づいて信号(アナログおよび/もしくはデジタル)を操作する任意のデバイスであってもよい。処理モジュール、モジュール、処理回路(processing circuit)、処理回路(processing circuitry)、および/または処理ユニットは、単一のメモリデバイス、複数のメモリデバイス、および/または別の処理モジュール、モジュール、処理回路(processing circuit)、処理回路(processing circuitry)、および/または処理ユニットの埋め込み回路であってもよいメモリおよび/または集積メモリ要素であってもよく、またはそれらをさらに含んでもよい。かかるメモリデバイスは、読み取り専用メモリ、ランダムアクセスメモリ、揮発性メモリ、不揮発性メモリ、スタティックメモリ、ダイナミックメモリ、フラッシュメモリ、キャッシュメモリ、および/またはデジタル情報を記憶する任意のデバイスであってよい。処理モジュール、モジュール、処理回路(processing circuit)、処理回路(processing circuitry)、および/または処理ユニットが2つ以上の処理デバイスを含む場合、処理デバイスは、中央に配置されてもよく(例えば、有線および/または無線バス構造を介して互いに直接結合される)、または分散して配置されてもよい(例えば、ローカルエリアネットワークおよび/またはワイドエリアネットワークを介した間接結合によるクラウドコンピューティング)ことに留意されたい。さらに、処理モジュール、モジュール、処理回路(processing circuit)、処理回路(processing circuitry)、および/または処理ユニットが、状態機械、アナログ回路、デジタル回路、および/または論理回路を介してその機能のうちの1つ以上を実装する場合、対応する動作命令を記憶するメモリおよび/またはメモリ要素は、状態機械、アナログ回路、デジタル回路、および/または論理回路を備える回路の内部または外部に埋め込まれ得ることに留意されたい。なおさらに、メモリ要素は、図のうちの1つ以上に示されるステップおよび/または機能のうちの少なくとも一部に対応するハードコードされた命令および/または動作命令を記憶することができ、処理モジュール、モジュール、処理回路(processing circuit)、処理回路(processing circuitry)および/または処理ユニットは、これらの命令を実行することに留意されたい。かかるメモリデバイスまたはメモリ素子は、製品に含めることができる。
1つ以上の実施形態が、指定された機能の性能およびそれらの関係を示す方法ステップの支援を受けて上記で説明された。これらの機能的構成要素および方法ステップの境界および順序は、説明の便宜上、本明細書において任意に定義されている。指定された機能および関係が適切に実行される限り、代替の境界および順序を定義することができる。したがって、任意のかかる代替的な境界またはシーケンスは、特許請求の範囲および趣旨の範囲内である。さらに、これらの機能的構成要素の境界は、説明の便宜のために任意に定義されている。特定の重要な機能が適切に実行される限り、代替の境界を定義することができる。同様に、フロー図ブロックはまた、特定の重要な機能を示すために、本明細書において任意に定義されている場合がある。
使用される範囲で、フロー図のブロック境界およびシーケンスは、別様で定義されてもよく、依然として特定の重要な機能を実行する。したがって、機能的構成要素ならびにフロー図ブロックおよびシーケンスの両方のかかる代替的な定義は、特許請求の範囲および趣旨の範囲内である。当業者はまた、本明細書における機能的構成要素、ならびに他の例示的ブロック、モジュール、および構成要素が、図示されるように、または離散構成要素、特定用途向け集積回路、適切なソフトウェアを実行するプロセッサなど、もしくはそれらの任意の組み合わせによって実装され得ることを認識するであろう。
さらに、フロー図は、「開始」および/または「継続」の表示を含み得る。「開始」および「継続」の表示は、提示されたステップが任意選択的に1つ以上の他のルーチンに組み込まれるか、または別様で1つ以上の他のルーチンとともに使用され得ることを反映する。さらに、フロー図は、「終了」および/または「継続」の表示を含み得る。「終了」および/または「継続」の表示は、提示されたステップが、説明および図示されるように終了することができ、または任意選択的に、1つ以上の他のルーチンに組み込まれるか、または別様で1つ以上の他のルーチンとともに使用され得ることを反映する。この文脈において、「開始」は、提示された第1のステップの開始を示し、具体的に示されていない他のアクティビティが先行してもよい。さらに、「継続」の表示は、提示されたステップが複数回実行されてもよく、かつ/または具体的に示されていない他の活動によって引き継がれてもよいことを反映する。さらに、フロー図はステップの特定の順序を示しているが、因果関係の原理が維持されるならば、他の順序も同様に可能である。
1つ以上の実施形態は、本明細書では、1つ以上の態様、1つ以上の特徴、1つ以上の概念、および/または1つ以上の例を示すために使用される。装置、製品、機械、および/またはプロセスの物理的な実施形態は、本明細書で考察される実施形態のうちの1つ以上を参照して説明される態様、特徴、概念、例などのうちの1つ以上を含み得る。さらに、図ごとに、実施形態は、同一または異なる参照番号を使用し得る同一または同様に命名された機能、ステップ、モジュールなどを組み込むことができ、そのため、機能、ステップ、モジュールなどは、同一または同様の機能、ステップ、モジュールなどであっても、異なるものであってもよい。
特に反対のことが述べられない限り、本明細書に提示される図のいずれかの図における要素への、要素からの、および/または要素間の信号は、アナログまたはデジタル、連続時間または離散時間、およびシングルエンド型または差動型であり得る。例えば、信号経路がシングルエンド経路として示されている場合、それは差動信号経路も表す。同様に、信号経路が差動経路として示される場合、それはまたシングルエンド信号経路を表す。1つ以上の特定のアーキテクチャが本明細書で説明されるが、当業者によって認識されるように、明示的に示されていない1つ以上のデータバス、要素間の直接接続性、および/または他の要素間の間接結合を使用する他のアーキテクチャも同様に実装され得る。
「モジュール」という用語は、1つ以上の実施形態の説明において使用される。モジュールは、動作命令を記憶するメモリを含むか、またはそれと関連して動作し得る、プロセッサもしくは他の処理デバイスまたは他のハードウェアなどのデバイスを介して、1つ以上の機能を実装する。モジュールは、独立して、および/またはソフトウェアおよび/またはファームウェアとともに動作することができる。また、本明細書で使用されるように、モジュールは、1つ以上のサブモジュールを含有してもよく、その各々は、1つ以上のモジュールであってもよい。
本明細書でさらに使用され得るように、コンピュータ可読メモリは、1つ以上のメモリ要素を含む。メモリ要素は、別個のメモリデバイス、複数のメモリデバイス、またはメモリデバイス内のメモリロケーションのセットであってよい。かかるメモリデバイスは、読み取り専用メモリ、ランダムアクセスメモリ、揮発性メモリ、不揮発性メモリ、スタティックメモリ、ダイナミックメモリ、フラッシュメモリ、キャッシュメモリ、および/またはデジタル情報を記憶する任意のデバイスであってよい。メモリデバイスは、ソリッドステートメモリ、ハードドライブメモリ、クラウドメモリ、サムドライブ、サーバメモリ、コンピューティングデバイスメモリ、および/またはデジタル情報を記憶するための他の物理的媒体の形態であってもよい。
1つ以上の実施形態の種々の機能および特徴の特定の組み合わせが本明細書で明示的に説明されているが、これらの特徴および機能の他の組み合わせも同様に可能である。本開示は、本明細書に開示される特定の例によって限定されず、これらの他の組み合わせを明示的に組み込む。
Claims (23)
- 医療スキャン映像閲覧システムであって、
ネットワークインターフェースと、
プロセッサを含む処理システムと、
実行可能命令を記憶するメモリデバイスと、を備え、前記実行可能命令は、前記処理システムによって実行されると、
前記ネットワークインターフェースを介して、医療ピクチャアーカイブシステムから第1の医療スキャン映像および第2の医療スキャン映像を受信することであって、前記第1の医療スキャン映像は、第1の一意の患者IDおよび第1のスキャン日付に関連付けられ、前記第2の医療スキャン映像は、前記第1の一意の患者IDおよび前記第1のスキャン日付よりも最近の第2のスキャン日付に関連付けられ、前記第1の医療スキャン映像は、第1の複数の画像スライスを含み、前記第2の医療スキャン映像は、第2の複数の画像スライスを含む、受信することと、
インタラクティブユーザインターフェースを介して受信された第1の入力を介して、前記第1の医療スキャン映像における複数の解剖学的ランドマークの場所を識別することと、
前記インタラクティブユーザインターフェースを介して受信された第2の入力を介して、前記第2の医療スキャン映像における前記複数の解剖学的ランドマークの対応する場所を識別することと、
前記第1の医療スキャン映像における前記複数の解剖学的ランドマークの前記場所と前記第2の医療スキャン映像における前記複数の解剖学的ランドマークの前記対応する場所とに基づいて、前記第1の医療スキャン映像を前記第2の医療スキャン映像と相互位置合わせすることと、
前記インタラクティブユーザインターフェースを介して、表示するために、前記第1の医療スキャン映像を前記第2の医療スキャン映像とともに提示することであって、前記第1の医療スキャン映像および前記第2の医療スキャン映像は、前記相互位置合わせすることに基づいて同期して提示される、提示することと、を含む動作を実行するように前記プロセッサを構成する、医療スキャン映像閲覧システム。 - 前記第1の医療スキャン映像における前記複数の解剖学的ランドマークの前記場所を前記識別することは、
前記インタラクティブユーザインターフェースの第1の部分を介して表示するために前記第1の医療スキャン映像を提示することであって、前記インタラクティブユーザインターフェースの前記第1の部分は、前記第1の複数の画像スライスの選択的表示を容易にする、提示することと、
前記インタラクティブユーザインターフェースを介して、前記第1の医療スキャン映像における前記複数の解剖学的ランドマークのうちの第1の解剖学的ランドマークの前記場所を識別するようにユーザを促すことと、
前記インタラクティブユーザインターフェースを介して、前記第1の医療スキャン映像における前記第1の解剖学的ランドマークの前記場所を示す前記第1の入力を受信することと、
前記インタラクティブユーザインターフェースを介して、前記第1の医療スキャン映像における前記複数の解剖学的ランドマークのうちの第2の解剖学的ランドマークの場所を識別するように前記ユーザを促すことと、
前記インタラクティブユーザインターフェースを介して、前記第1の医療スキャン映像における前記第2の解剖学的ランドマークの前記場所を示す前記第2の入力を受信することと、を含む、請求項1に記載の医療スキャン映像閲覧システム。 - 前記第1の解剖学的ランドマークおよび前記第2の解剖学的ランドマークは、前記インタラクティブユーザインターフェースとのユーザインタラクションを介して、解剖学的ランドマーク候補のリストから選択される、請求項2に記載の医療スキャン映像閲覧システム。
- 前記第1の解剖学的ランドマークおよび前記第2の解剖学的ランドマークは、前記メモリデバイスに記憶された前記ユーザのプロファイルから取り出される、請求項2に記載の医療スキャン映像閲覧システム。
- 前記第2の医療スキャン映像における前記複数の解剖学的ランドマークの対応する場所を識別することは、
前記インタラクティブユーザインターフェースの第2の部分を介して表示するために前記第2の医療スキャン映像を提示することであって、前記インタラクティブユーザインターフェースの前記第2の部分は、前記第2の複数の画像スライスの選択的表示を容易にする、提示することと、
前記インタラクティブユーザインターフェースを介して、前記第2の医療スキャン映像における前記第1の解剖学的ランドマークの前記対応する場所を識別するように前記ユーザを促すことと、
前記インタラクティブユーザインターフェースを介して、前記第2の医療スキャン映像における前記第1の解剖学的ランドマークの前記対応する場所を受信することと、
前記インタラクティブユーザインターフェースを介して、前記第2の医療スキャン映像における前記第2の解剖学的ランドマークの前記対応する場所を識別するように前記ユーザを促すことと、
前記インタラクティブユーザインターフェースを介して、前記第2の医療スキャン映像における前記第2の解剖学的ランドマークの前記場所を受信することと、を含む、請求項2に記載の医療スキャン映像閲覧システム。 - 前記第1の医療スキャン映像を前記第2の医療スキャン映像と前記相互位置合わせすることは、
前記第1の医療スキャン映像における前記第1の解剖学的ランドマークの前記場所と、前記第2の医療スキャン映像における前記第1の解剖学的ランドマークの前記対応する場所との間の第1の差を決定することと、
前記第1の医療スキャン映像における前記第2の解剖学的ランドマークの前記場所と、前記第2の医療スキャン映像における前記第2の解剖学的ランドマークの前記対応する場所との間の第2の差を決定することと、を含み、
前記相互位置合わせすることは、前記第1の差および前記第2の差に基づく、請求項5に記載の医療スキャン映像閲覧システム。 - 前記第1の解剖学的ランドマークの前記場所は、前記第1の医療スキャン映像のX-Y平面における固定位置にある、請求項2に記載の医療スキャン映像閲覧システム。
- 前記第2の解剖学的ランドマークの前記場所は、前記第1の医療スキャン映像のZ軸に沿った固定位置にある、請求項7に記載の医療スキャン映像閲覧システム。
- 前記第1の医療スキャン映像を前記第2の医療スキャン映像と前記相互位置合わせすることは、前記第1の複数の画像スライスのうちの1つを前記第2の複数の画像スライスのうちの対応する1つと同期させることを含む、請求項5に記載の医療スキャン映像閲覧システム。
- 表示するために前記提示することは、
前記インタラクティブユーザインターフェースの前記第1の部分において、前記第1の複数の画像スライスのうちの前記1つを、前記インタラクティブユーザインターフェースの前記第2の部分において、前記第2の複数の画像スライスのうちの前記対応する1つと同時に提示することを含む、請求項9に記載の医療スキャン映像閲覧システム。 - 前記第1の複数の画像スライスのうちの前記1つは、前記第1のスキャン日付における異常の画像を含み、前記第2の複数の画像スライスのうちの前記対応する1つは、前記第2のスキャン日付における前記異常の画像を含む、請求項9に記載の医療スキャン映像閲覧システム。
- 表示するために前記提示することは、前記第1の医療スキャン映像を前記第2の医療スキャン映像と前記相互位置合わせすることに従って、前記第2の複数の画像と同期して前記第1の複数の画像を前記インタラクティブユーザインターフェースを介してスクロールすることを容易にすることを含む、請求項1に記載の医療スキャン映像閲覧システム。
- ネットワークインターフェースを介して、医療ピクチャアーカイブシステムから第1の医療スキャン映像および第2の医療スキャン映像を受信することであって、前記第1の医療スキャン映像は、第1の一意の患者IDおよび第1のスキャン日付に関連付けられ、前記第2の医療スキャン映像は、前記第1の一意の患者IDおよび前記第1のスキャン日付よりも最近の第2のスキャン日付に関連付けられ、前記第1の医療スキャン映像は、第1の複数の画像スライスを含み、前記第2の医療スキャン映像は、第2の複数の画像スライスを含む、受信することと、
インタラクティブユーザインターフェースを介して受信された第1の入力を介して、前記第1の医療スキャン映像における複数の解剖学的ランドマークの場所を識別することと、
前記インタラクティブユーザインターフェースを介して受信された第2の入力を介して、前記第2の医療スキャン映像における前記複数の解剖学的ランドマークの対応する場所を識別することと、
前記第1の医療スキャン映像における前記複数の解剖学的ランドマークの前記場所と前記第2の医療スキャン映像における前記複数の解剖学的ランドマークの前記対応する場所とに基づいて、前記第1の医療スキャン映像を前記第2の医療スキャン映像と相互位置合わせすることと、
前記インタラクティブユーザインターフェースを介して、表示するために、前記第1の医療スキャン映像を前記第2の医療スキャン映像とともに提示することであって、前記第1の医療スキャン映像および前記第2の医療スキャン映像は、前記相互位置合わせすることに基づいて同期して提示される、提示することと、を含む、方法。 - 前記第1の医療スキャン映像における前記複数の解剖学的ランドマークの前記場所を前記識別することは、
前記インタラクティブユーザインターフェースの第1の部分を介して表示するために前記第1の医療スキャン映像を提示することであって、前記インタラクティブユーザインターフェースの前記第1の部分は、前記第1の複数の画像スライスの選択的表示を容易にする、提示することと、
前記インタラクティブユーザインターフェースを介して、前記第1の医療スキャン映像における前記複数の解剖学的ランドマークのうちの第1の解剖学的ランドマークの場所を識別するようにユーザを促すことと、
前記インタラクティブユーザインターフェースを介して、前記第1の医療スキャン映像における前記第1の解剖学的ランドマークの前記場所を示す第1の入力を受信することと、
前記インタラクティブユーザインターフェースを介して、前記第1の医療スキャン映像における前記複数の解剖学的ランドマークのうちの第2の解剖学的ランドマークの場所を識別するように前記ユーザを促すことと、
前記インタラクティブユーザインターフェースを介して、前記第1の医療スキャン映像における前記第2の解剖学的ランドマークの前記場所を示す第2の入力を受信することと、を含む、請求項13に記載の方法。 - 前記第1の解剖学的ランドマークおよび前記第2の解剖学的ランドマークは、前記インタラクティブユーザインターフェースとのユーザインタラクションを介して、解剖学的ランドマーク候補のリストから選択される、請求項14に記載の方法。
- 前記第1の解剖学的ランドマークおよび前記第2の解剖学的ランドマークは、前記メモリデバイスに記憶された前記ユーザのプロファイルから取り出される、請求項14に記載の方法。
- 前記第2の医療スキャン映像において前記複数の解剖学的ランドマークの対応する場所を識別することは、
前記インタラクティブユーザインターフェースの第2の部分を介して表示するために前記第2の医療スキャン映像を提示することであって、前記インタラクティブユーザインターフェースの前記第2の部分は、前記第2の複数の画像スライスの選択的表示を容易にする、提示することと、
前記インタラクティブユーザインターフェースを介して、前記第2の医療スキャン映像における前記第1の解剖学的ランドマークの前記対応する場所を識別するように前記ユーザを促すことと、
前記インタラクティブユーザインターフェースを介して、前記第2の医療スキャン映像における前記第1の解剖学的ランドマークの前記対応する場所を受信することと、
前記インタラクティブユーザインターフェースを介して、前記第2の医療スキャン映像における前記第2の解剖学的ランドマークの前記対応する場所を識別するように前記ユーザを促すことと、
前記インタラクティブユーザインターフェースを介して、前記第2の医療スキャン映像における前記第2の解剖学的ランドマークの前記場所を受信することと、を含む、請求項14に記載の方法。 - 前記第1の医療スキャン映像を前記第2の医療スキャン映像と前記相互位置合わせすることは、
前記第1の医療スキャン映像における前記第1の解剖学的ランドマークの前記場所と、前記第2の医療スキャン映像における前記第1の解剖学的ランドマークの前記対応する場所との間の第1の差を決定することと、
前記第1の医療スキャン映像における前記第2の解剖学的ランドマークの前記場所と、前記第2の医療スキャン映像における前記第2の解剖学的ランドマークの前記対応する場所との間の第2の差を決定することと、を含み、
前記相互位置合わせすることは、前記第1の差および前記第2の差に基づく、請求項17に記載の方法。 - 前記第1の解剖学的ランドマークの前記場所は、前記第1の医療スキャン映像のX-Y平面における固定位置にある、請求項14に記載の方法。
- 前記第2の解剖学的ランドマークの前記場所は、前記第1の医療スキャン映像のZ軸に沿った固定位置にある、請求項19に記載の方法。
- 医療スキャン映像閲覧システムであって、
ネットワークインターフェースと、
プロセッサを含む処理システムと、
実行可能命令を記憶するメモリデバイスと、を備え、前記実行可能命令は、前記処理システムによって実行されると、
前記ネットワークインターフェースを介して、医療ピクチャアーカイブシステムから医療スキャン映像を受信することと、
インタラクティブユーザインターフェースを介して表示するために前記医療スキャン映像を提示することと、
前記インタラクティブユーザインターフェースを介して、前記医療スキャン映像における異常を自動的にセグメント化するコマンドを受信することと、
前記インタラクティブユーザインターフェースを介して受信された前記コマンドに応答して、前記異常を含む前記スキャン映像内の領域を識別するために前記医療スキャン映像を自動的にセグメント化することと、を含む動作を実行するように前記プロセッサを構成する、医療スキャン映像閲覧システム。 - 医療スキャン映像閲覧システムであって、
ネットワークインターフェースと、
プロセッサを含む処理システムと、
実行可能命令を記憶するメモリデバイスと、を備え、前記実行可能命令は、前記処理システムによって実行されると、
前記ネットワークインターフェースを介して、医療ピクチャアーカイブシステムから医療スキャン映像を受信することと、
インタラクティブユーザインターフェースを介して表示するために前記医療スキャン映像を提示することと、
前記インタラクティブユーザインターフェースを介して表示するためにグリッドを提示することであって、前記グリッドは、前記医療スキャン映像上に重ねられる、提示することと、
前記インタラクティブユーザインターフェースを介して、前記医療スキャン映像のセグメント化に対応する選択データを受信することであって、前記セグメント化は、異常を含む前記医療スキャン映像内の領域を識別し、前記選択データは、前記異常を含む前記医療スキャン映像内の前記領域を集合的に識別する、前記グリッドの複数の隣接する要素を識別する、受信することと、を含む動作を実行するように前記プロセッサを構成する、医療スキャン映像閲覧システム。 - 医療スキャン映像閲覧システムであって、
ネットワークインターフェースと、
プロセッサを含む処理システムと、
実行可能命令を記憶するメモリデバイスと、を備え、前記実行可能命令は、前記処理システムによって実行されると、
前記ネットワークインターフェースを介して、医療ピクチャアーカイブシステムから医療スキャン映像を受信することであって、前記医療スキャン映像は、複数の画像スライスを含む、受信することと、
前記複数の画像スライスのうち、異常が及ぶ画像スライスの範囲を識別することと、
前記画像スライスの範囲のサブセットを選択することと、
前記サブセットの各個々の画像スライスをセグメント化して、前記異常を含む前記個々の画像スライス内の領域を識別することであって、前記セグメント化することは、複数のアンカーポイントを識別することを含む、識別することと、
連続する画像スライスペアの前記複数のアンカーポイントに基づくブレンド動作によって、前記サブセットにおける各前記連続する画像スライスペア間で、前記画像の範囲の中間画像スライスを自動的にセグメント化することであって、前記中間スライスの各々の前記セグメント化は、前記異常を含む前記中間画像スライスの各々における領域を識別する、セグメント化することと、を含む動作を実行するように前記プロセッサを構成する、医療スキャン映像閲覧システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/695,657 | 2019-11-26 | ||
US16/695,657 US11462315B2 (en) | 2019-11-26 | 2019-11-26 | Medical scan co-registration and methods for use therewith |
PCT/US2020/059064 WO2021108100A1 (en) | 2019-11-26 | 2020-11-05 | Medical scan co-registration and methods for use therewith |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023503610A true JP2023503610A (ja) | 2023-01-31 |
Family
ID=75971283
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022530661A Pending JP2023503610A (ja) | 2019-11-26 | 2020-11-05 | 医療スキャン映像の相互位置合わせおよびそれとともに使用する方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11462315B2 (ja) |
JP (1) | JP2023503610A (ja) |
WO (1) | WO2021108100A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6818424B2 (ja) * | 2016-04-13 | 2021-01-20 | キヤノン株式会社 | 診断支援装置、情報処理方法、診断支援システム及びプログラム |
WO2021177357A1 (ja) * | 2020-03-03 | 2021-09-10 | 富士フイルム株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
TWI783219B (zh) * | 2020-04-01 | 2022-11-11 | 緯創資通股份有限公司 | 醫學影像辨識方法及醫學影像辨識裝置 |
US20220013232A1 (en) * | 2020-07-08 | 2022-01-13 | Welch Allyn, Inc. | Artificial intelligence assisted physician skill accreditation |
CN111738900A (zh) * | 2020-07-17 | 2020-10-02 | 支付宝(杭州)信息技术有限公司 | 图像的隐私保护方法、装置及设备 |
USD1041654S1 (en) | 2021-02-04 | 2024-09-10 | Fibonacci Phyllotaxis Inc. | Transparent tumor size measuring ruler |
US11908154B2 (en) * | 2021-02-04 | 2024-02-20 | Fibonacci Phyllotaxis Inc. | System and method for evaluating tumor stability |
USD1036665S1 (en) | 2021-02-04 | 2024-07-23 | Fibonacci Phyllotaxis Inc. | Transparent tumor size measuring ruler with transparent slider |
JP2023036291A (ja) * | 2021-09-02 | 2023-03-14 | コニカミノルタ株式会社 | プログラム、表示制御装置及び医用画像表示システム |
CN114266797B (zh) * | 2021-12-08 | 2024-09-06 | 集美大学 | 一种基于概率程序推断的锤具识别方法及装置 |
CN118039134B (zh) * | 2024-04-09 | 2024-06-04 | 达州市中心医院(达州市人民医院) | 基于大数据的医疗信息数据增强方法及系统 |
Family Cites Families (85)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6850252B1 (en) | 1999-10-05 | 2005-02-01 | Steven M. Hoffberg | Intelligent electronic appliance system and method |
US6466687B1 (en) | 1997-02-12 | 2002-10-15 | The University Of Iowa Research Foundation | Method and apparatus for analyzing CT images to determine the presence of pulmonary tissue pathology |
WO2001078005A2 (en) | 2000-04-11 | 2001-10-18 | Cornell Research Foundation, Inc. | System and method for three-dimensional image rendering and analysis |
US20020186818A1 (en) | 2000-08-29 | 2002-12-12 | Osteonet, Inc. | System and method for building and manipulating a centralized measurement value database |
US6524246B1 (en) | 2000-10-13 | 2003-02-25 | Sonocine, Inc. | Ultrasonic cellular tissue screening tool |
US7130457B2 (en) | 2001-07-17 | 2006-10-31 | Accuimage Diagnostics Corp. | Systems and graphical user interface for analyzing body images |
US7123762B2 (en) | 2002-02-08 | 2006-10-17 | University Of Chicago | Method and system for risk-modulated diagnosis of disease |
AU2003216295A1 (en) | 2002-02-15 | 2003-09-09 | The Regents Of The University Of Michigan | Lung nodule detection and classification |
US6819790B2 (en) | 2002-04-12 | 2004-11-16 | The University Of Chicago | Massive training artificial neural network (MTANN) for detecting abnormalities in medical images |
US7418123B2 (en) | 2002-07-12 | 2008-08-26 | University Of Chicago | Automated method and system for computerized image analysis for prognosis |
US7260250B2 (en) | 2002-09-30 | 2007-08-21 | The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services | Computer-aided classification of anomalies in anatomical structures |
US10714213B2 (en) | 2002-10-29 | 2020-07-14 | Practice Velocity, LLC | Method and system for automated medical records processing with patient tracking |
US7244230B2 (en) | 2002-11-08 | 2007-07-17 | Siemens Medical Solutions Usa, Inc. | Computer aided diagnostic assistance for medical imaging |
AU2003278463A1 (en) | 2002-12-09 | 2004-06-30 | Koninklijke Philips Electronics N.V. | Distributed medical imaging system |
DE10259316A1 (de) | 2002-12-18 | 2004-07-15 | Siemens Ag | Verfahren und Vorrichtung zur Erstellung standardisierter medizinischer Befunde |
US6937776B2 (en) | 2003-01-31 | 2005-08-30 | University Of Chicago | Method, system, and computer program product for computer-aided detection of nodules with three dimensional shape enhancement filters |
US8045770B2 (en) | 2003-03-24 | 2011-10-25 | Cornell Research Foundation, Inc. | System and method for three-dimensional image rendering and analysis |
US20050027566A1 (en) | 2003-07-09 | 2005-02-03 | Haskell Robert Emmons | Terminology management system |
JP2005352900A (ja) | 2004-06-11 | 2005-12-22 | Canon Inc | 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法 |
US7920152B2 (en) | 2004-11-04 | 2011-04-05 | Dr Systems, Inc. | Systems and methods for viewing medical 3D imaging volumes |
US8317518B2 (en) | 2005-01-28 | 2012-11-27 | University Of Maryland, Baltimore | Techniques for implementing virtual persons in a system to train medical personnel |
WO2007056601A2 (en) | 2005-11-09 | 2007-05-18 | The Regents Of The University Of California | Methods and apparatus for context-sensitive telemedicine |
WO2007058997A2 (en) | 2005-11-11 | 2007-05-24 | The University Of Houston System | Scoring method for imaging-based detection of vulnerable patients |
US8303505B2 (en) | 2005-12-02 | 2012-11-06 | Abbott Cardiovascular Systems Inc. | Methods and apparatuses for image guided medical procedures |
EP1996959A4 (en) | 2006-03-03 | 2012-02-29 | Medic Vision Brain Technologies Ltd | SYSTEM AND METHOD FOR PRIORITIZE PRIORITIZATION AND AUTOMATIC ANALYSIS OF MEDICAL IMAGES |
US10410308B2 (en) | 2006-04-14 | 2019-09-10 | Fuzzmed, Inc. | System, method, and device for personal medical care, intelligent analysis, and diagnosis |
US20080008366A1 (en) | 2006-06-20 | 2008-01-10 | Vladimir Desh | Simultaneous visualization, analysis and navigation of multi-modality medical imaging data |
US10796390B2 (en) | 2006-07-03 | 2020-10-06 | 3M Innovative Properties Company | System and method for medical coding of vascular interventional radiology procedures |
US7974924B2 (en) | 2006-07-19 | 2011-07-05 | Mvisum, Inc. | Medical data encryption for communication over a vulnerable system |
JP5026148B2 (ja) | 2006-09-19 | 2012-09-12 | 株式会社リコー | 画像処理装置、方法、及びプログラム |
EP2120702B1 (en) | 2007-03-06 | 2014-04-09 | Koninklijke Philips N.V. | Automated diagnosis and alignment supplemented with pet/mr flow estimation |
US9968256B2 (en) | 2007-03-08 | 2018-05-15 | Sync-Rx Ltd. | Automatic identification of a tool |
US20080243539A1 (en) | 2007-03-31 | 2008-10-02 | Barish Matthew A | Method and System for Exchanging, Storing, and Analyzing Health Information |
JP2010525363A (ja) | 2007-04-23 | 2010-07-22 | サムスン エレクトロニクス カンパニー リミテッド | 遠隔医療診断システム及び方法 |
US8121362B2 (en) | 2007-04-30 | 2012-02-21 | Siemens Medical Solutions Usa, Inc. | Registration of medical images using learned-based matching functions |
US8195598B2 (en) | 2007-11-16 | 2012-06-05 | Agilence, Inc. | Method of and system for hierarchical human/crowd behavior detection |
EP2353139B1 (en) | 2008-10-01 | 2014-04-30 | Koninklijke Philips N.V. | Selection of snapshots of a medical image sequence |
US20100088117A1 (en) | 2008-10-02 | 2010-04-08 | Siemens Medical Solutions Usa, Inc. | Multi-Mode Medical Data Reporting System |
US9174065B2 (en) | 2009-10-12 | 2015-11-03 | Kona Medical, Inc. | Energetic modulation of nerves |
GB2478329B (en) | 2010-03-03 | 2015-03-04 | Samsung Electronics Co Ltd | Medical image processing |
US9965592B2 (en) | 2010-07-16 | 2018-05-08 | The University Of Houston System | Methods of computing pericardial and abdominal fat and methods for motion compensation |
US10282840B2 (en) | 2010-07-21 | 2019-05-07 | Armin Moehrle | Image reporting method |
BR112013002534B1 (pt) | 2010-08-05 | 2020-12-22 | Koninklijke Philips N.V | sistema de auxílio à criação de relatórios, estação de trabalho, e método de auxílio à criação de relatórios |
US8885898B2 (en) | 2010-10-07 | 2014-11-11 | Siemens Medical Solutions Usa, Inc. | Matching of regions of interest across multiple views |
US20120130734A1 (en) | 2010-11-16 | 2012-05-24 | Intermountain Invention Management, Llc | Medical data and medical information system integration and communication |
US11074495B2 (en) | 2013-02-28 | 2021-07-27 | Z Advanced Computing, Inc. (Zac) | System and method for extremely efficient image and pattern recognition and artificial intelligence platform |
JP5970766B2 (ja) | 2011-09-26 | 2016-08-17 | 大日本印刷株式会社 | 医用画像処理装置、医用画像処理方法、プログラム |
WO2013082289A1 (en) | 2011-11-30 | 2013-06-06 | Rush University Medical Center | System and methods for identification of implanted medical devices and/or detection of retained surgical foreign objects from medical images |
JP6321548B2 (ja) | 2012-01-29 | 2018-05-09 | センシブル メディカル イノヴェイションズ リミテッド | 被験者の個人的胸部パラメータの導出 |
EP2916738B1 (en) | 2012-09-13 | 2018-07-11 | The Regents of the University of California | Lung, lobe, and fissure imaging systems and methods |
US9165360B1 (en) | 2012-09-27 | 2015-10-20 | Zepmed, Llc | Methods, systems, and devices for automated analysis of medical scans |
CN105027164B (zh) | 2013-03-14 | 2018-05-18 | 文塔纳医疗系统公司 | 完整载片图像配准和交叉图像注释设备、系统和方法 |
US10541054B2 (en) | 2013-08-19 | 2020-01-21 | Massachusetts General Physicians Organization | Structured support of clinical healthcare professionals |
US9324140B2 (en) | 2013-08-29 | 2016-04-26 | General Electric Company | Methods and systems for evaluating bone lesions |
WO2015048196A1 (en) | 2013-09-25 | 2015-04-02 | Heartflow, Inc. | Systems and methods for validating and correcting automated medical image annotations |
WO2015054597A2 (en) | 2013-10-12 | 2015-04-16 | H. Lee Moffitt Cancer Center And Research Institute, Inc. | Systems and methods for diagnosing tumors in a subject by performing a quantitative analysis of texture-based features of a tumor object in a radiological image |
US9730643B2 (en) | 2013-10-17 | 2017-08-15 | Siemens Healthcare Gmbh | Method and system for anatomical object detection using marginal space deep neural networks |
US10147189B2 (en) | 2013-12-06 | 2018-12-04 | The Johns Hopkins University | Gross feature recognition of anatomical images based on atlas grid |
WO2015109331A1 (en) | 2014-01-17 | 2015-07-23 | The Johns Hopkins University | Automated anatomical labeling by multi-contrast diffeomorphic probability fusion |
KR20150098119A (ko) | 2014-02-19 | 2015-08-27 | 삼성전자주식회사 | 의료 영상 내 거짓양성 병변후보 제거 시스템 및 방법 |
US9585632B2 (en) | 2014-04-23 | 2017-03-07 | Siemens Medical Solutions Usa, Inc. | Estimation of a mechanical property of anatomy from medical scan data |
US10340041B2 (en) | 2014-05-09 | 2019-07-02 | Acupath Laboratories, Inc. | Biopsy mapping tools |
KR20160012038A (ko) | 2014-07-23 | 2016-02-02 | 삼성전자주식회사 | 비교영상을 제시하는 관심영역의 진단 지원 장치 및 방법 |
KR20160020917A (ko) | 2014-08-14 | 2016-02-24 | 삼성전자주식회사 | 컴퓨터 보조 진단 장치 및 방법 |
US9349178B1 (en) | 2014-11-24 | 2016-05-24 | Siemens Aktiengesellschaft | Synthetic data-driven hemodynamic determination in medical imaging |
US9786051B2 (en) | 2015-04-23 | 2017-10-10 | Derrick K. Harper | System combining automated searches of cloud-based radiologic images, accession number assignment, and interfacility peer review |
US9846938B2 (en) | 2015-06-01 | 2017-12-19 | Virtual Radiologic Corporation | Medical evaluation machine learning workflows and processes |
US10282835B2 (en) | 2015-06-12 | 2019-05-07 | International Business Machines Corporation | Methods and systems for automatically analyzing clinical images using models developed using machine learning based on graphical reporting |
US9959615B2 (en) | 2015-07-01 | 2018-05-01 | Arizona Board Of Regents On Behalf Of Arizona State University | System and method for automatic pulmonary embolism detection |
US9858385B2 (en) | 2015-07-23 | 2018-01-02 | International Business Machines Corporation | Identifying errors in medical data |
US10949501B2 (en) | 2015-09-04 | 2021-03-16 | Agfa Healthcare | System and method for compiling medical dossier |
US9792531B2 (en) | 2015-09-16 | 2017-10-17 | Siemens Healthcare Gmbh | Intelligent multi-scale medical image landmark detection |
US9569736B1 (en) | 2015-09-16 | 2017-02-14 | Siemens Healthcare Gmbh | Intelligent medical image landmark detection |
US10039510B2 (en) | 2015-09-22 | 2018-08-07 | Siemens Healthcare Gmbh | Visualizing different types of airway wall abnormalities |
US9760978B1 (en) | 2016-05-09 | 2017-09-12 | Adobe Systems Incorporated | Missing region prediction |
US10706533B2 (en) | 2016-05-13 | 2020-07-07 | National Jewish Health | Systems and methods for automatic detection and quantification of pathology using dynamic feature classification |
US10163040B2 (en) | 2016-07-21 | 2018-12-25 | Toshiba Medical Systems Corporation | Classification method and apparatus |
CN106295139B (zh) | 2016-07-29 | 2019-04-02 | 汤一平 | 一种基于深度卷积神经网络的舌体自诊健康云服务系统 |
US10452951B2 (en) | 2016-08-26 | 2019-10-22 | Goodrich Corporation | Active visual attention models for computer vision tasks |
US20180060535A1 (en) | 2016-08-31 | 2018-03-01 | International Business Machines Corporation | Updating probabilities of conditions based on annotations on medical images |
US10417788B2 (en) | 2016-09-21 | 2019-09-17 | Realize, Inc. | Anomaly detection in volumetric medical images using sequential convolutional and recurrent neural networks |
US10304198B2 (en) | 2016-09-26 | 2019-05-28 | Siemens Healthcare Gmbh | Automatic medical image retrieval |
US10825167B2 (en) | 2017-04-28 | 2020-11-03 | Siemens Healthcare Gmbh | Rapid assessment and outcome analysis for medical patients |
US11664114B2 (en) | 2017-05-25 | 2023-05-30 | Enlitic, Inc. | Medical scan assisted review system |
EP3445048A1 (en) | 2017-08-15 | 2019-02-20 | Holo Surgical Inc. | A graphical user interface for a surgical navigation system for providing an augmented reality image during operation |
-
2019
- 2019-11-26 US US16/695,657 patent/US11462315B2/en active Active
-
2020
- 2020-11-05 WO PCT/US2020/059064 patent/WO2021108100A1/en active Application Filing
- 2020-11-05 JP JP2022530661A patent/JP2023503610A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
US11462315B2 (en) | 2022-10-04 |
US20210158936A1 (en) | 2021-05-27 |
WO2021108100A1 (en) | 2021-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11694136B2 (en) | Generating lesion change prediction data for medical scans | |
US11631175B2 (en) | AI-based heat map generating system and methods for use therewith | |
US11462315B2 (en) | Medical scan co-registration and methods for use therewith | |
US20220051771A1 (en) | Report generating system and methods for use therewith | |
US20200373003A1 (en) | Automatic medical scan triaging system and methods for use therewith | |
US12061994B2 (en) | Inference process visualization system for medical scans | |
US20220037019A1 (en) | Medical scan artifact detection system and methods for use therewith | |
US20230316505A1 (en) | Medical scan viewing system with roc adjustment and methods for use therewith | |
JP2023537619A (ja) | 自動医療スキャントリアージシステムおよびその使用のための方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231018 |