CN110114834A - 用于医疗程序的深度学习医疗系统和方法 - Google Patents
用于医疗程序的深度学习医疗系统和方法 Download PDFInfo
- Publication number
- CN110114834A CN110114834A CN201780080798.7A CN201780080798A CN110114834A CN 110114834 A CN110114834 A CN 110114834A CN 201780080798 A CN201780080798 A CN 201780080798A CN 110114834 A CN110114834 A CN 110114834A
- Authority
- CN
- China
- Prior art keywords
- engine
- deep learning
- deployment
- image
- acquisition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 245
- 238000000034 method Methods 0.000 title claims abstract description 111
- 238000012549 training Methods 0.000 claims abstract description 193
- 238000003384 imaging method Methods 0.000 claims abstract description 175
- 238000011156 evaluation Methods 0.000 claims abstract description 24
- 230000013016 learning Effects 0.000 claims description 86
- 238000003745 diagnosis Methods 0.000 claims description 76
- 238000004458 analytical method Methods 0.000 claims description 47
- 230000036541 health Effects 0.000 claims description 37
- 238000013527 convolutional neural network Methods 0.000 claims description 27
- 230000003862 health status Effects 0.000 claims description 21
- 230000006399 behavior Effects 0.000 claims description 13
- 238000007405 data analysis Methods 0.000 claims description 6
- 230000001537 neural effect Effects 0.000 claims description 4
- 238000012544 monitoring process Methods 0.000 abstract description 12
- 238000013461 design Methods 0.000 description 52
- 238000012545 processing Methods 0.000 description 48
- 230000001976 improved effect Effects 0.000 description 42
- 238000012360 testing method Methods 0.000 description 35
- 238000003860 storage Methods 0.000 description 34
- 230000008569 process Effects 0.000 description 33
- 238000013528 artificial neural network Methods 0.000 description 31
- 238000010801 machine learning Methods 0.000 description 31
- 238000005259 measurement Methods 0.000 description 28
- 230000006872 improvement Effects 0.000 description 26
- 238000013507 mapping Methods 0.000 description 25
- 230000008859 change Effects 0.000 description 21
- 238000007689 inspection Methods 0.000 description 21
- 230000015654 memory Effects 0.000 description 21
- 241000196324 Embryophyta Species 0.000 description 20
- 238000002591 computed tomography Methods 0.000 description 20
- 238000001514 detection method Methods 0.000 description 20
- 238000004422 calculation algorithm Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 16
- 238000013178 mathematical model Methods 0.000 description 16
- 239000000047 product Substances 0.000 description 16
- 238000012423 maintenance Methods 0.000 description 14
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 11
- 238000013441 quality evaluation Methods 0.000 description 11
- 239000002872 contrast media Substances 0.000 description 10
- 201000010099 disease Diseases 0.000 description 10
- 238000010191 image analysis Methods 0.000 description 10
- 230000002829 reductive effect Effects 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 10
- 238000013473 artificial intelligence Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000004195 computer-aided diagnosis Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 230000004913 activation Effects 0.000 description 7
- 238000013136 deep learning model Methods 0.000 description 7
- 238000002059 diagnostic imaging Methods 0.000 description 7
- 238000009826 distribution Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 238000013526 transfer learning Methods 0.000 description 7
- 230000009466 transformation Effects 0.000 description 7
- 238000011282 treatment Methods 0.000 description 7
- 238000002347 injection Methods 0.000 description 6
- 239000007924 injection Substances 0.000 description 6
- 238000002600 positron emission tomography Methods 0.000 description 6
- 238000004088 simulation Methods 0.000 description 6
- 238000010200 validation analysis Methods 0.000 description 6
- 238000010276 construction Methods 0.000 description 5
- 238000013480 data collection Methods 0.000 description 5
- 230000007547 defect Effects 0.000 description 5
- 230000001419 dependent effect Effects 0.000 description 5
- 238000002360 preparation method Methods 0.000 description 5
- 230000009897 systematic effect Effects 0.000 description 5
- 210000001519 tissue Anatomy 0.000 description 5
- 238000002604 ultrasonography Methods 0.000 description 5
- 241001269238 Data Species 0.000 description 4
- 210000003484 anatomy Anatomy 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 238000000354 decomposition reaction Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 238000009434 installation Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 208000020816 lung neoplasm Diseases 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 4
- 230000036961 partial effect Effects 0.000 description 4
- 230000010412 perfusion Effects 0.000 description 4
- 238000012805 post-processing Methods 0.000 description 4
- 238000013442 quality metrics Methods 0.000 description 4
- 230000005855 radiation Effects 0.000 description 4
- 238000007637 random forest analysis Methods 0.000 description 4
- 238000003325 tomography Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 241000208340 Araliaceae Species 0.000 description 3
- 206010058467 Lung neoplasm malignant Diseases 0.000 description 3
- 206010028980 Neoplasm Diseases 0.000 description 3
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 3
- 235000003140 Panax quinquefolius Nutrition 0.000 description 3
- 230000003466 anti-cipated effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000005520 cutting process Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 231100000673 dose–response relationship Toxicity 0.000 description 3
- 239000003814 drug Substances 0.000 description 3
- 238000002565 electrocardiography Methods 0.000 description 3
- 238000011049 filling Methods 0.000 description 3
- 235000008434 ginseng Nutrition 0.000 description 3
- 239000007943 implant Substances 0.000 description 3
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 210000004185 liver Anatomy 0.000 description 3
- 201000005202 lung cancer Diseases 0.000 description 3
- 210000005036 nerve Anatomy 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 239000007858 starting material Substances 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 230000002459 sustained effect Effects 0.000 description 3
- 238000012800 visualization Methods 0.000 description 3
- 208000014644 Brain disease Diseases 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000000454 anti-cipatory effect Effects 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 230000003139 buffering effect Effects 0.000 description 2
- 201000011510 cancer Diseases 0.000 description 2
- 210000000038 chest Anatomy 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 150000001875 compounds Chemical class 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013170 computed tomography imaging Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 208000002173 dizziness Diseases 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000002045 lasting effect Effects 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000002285 radioactive effect Effects 0.000 description 2
- 238000002601 radiography Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 239000000243 solution Substances 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 238000010408 sweeping Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000004797 therapeutic response Effects 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- ZCYVEMRRCGMTRW-UHFFFAOYSA-N 7553-56-2 Chemical compound [I] ZCYVEMRRCGMTRW-UHFFFAOYSA-N 0.000 description 1
- 208000006545 Chronic Obstructive Pulmonary Disease Diseases 0.000 description 1
- 206010016654 Fibrosis Diseases 0.000 description 1
- 208000031481 Pathologic Constriction Diseases 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000003339 best practice Methods 0.000 description 1
- 239000000090 biomarker Substances 0.000 description 1
- 238000001574 biopsy Methods 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 238000009534 blood test Methods 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 230000002308 calcification Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000007882 cirrhosis Effects 0.000 description 1
- 208000019425 cirrhosis of liver Diseases 0.000 description 1
- 238000003759 clinical diagnosis Methods 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 208000029078 coronary artery disease Diseases 0.000 description 1
- 210000004351 coronary vessel Anatomy 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 208000035475 disorder Diseases 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000002526 effect on cardiovascular system Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000002569 electronystagmography Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 230000004217 heart function Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 210000002364 input neuron Anatomy 0.000 description 1
- 229910052740 iodine Inorganic materials 0.000 description 1
- 239000011630 iodine Substances 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 208000019423 liver disease Diseases 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000002558 medical inspection Methods 0.000 description 1
- 238000010197 meta-analysis Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000000491 multivariate analysis Methods 0.000 description 1
- 230000007830 nerve conduction Effects 0.000 description 1
- 238000009659 non-destructive testing Methods 0.000 description 1
- 238000009206 nuclear medicine Methods 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 210000004197 pelvis Anatomy 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 206010035653 pneumoconiosis Diseases 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000002685 pulmonary effect Effects 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 230000003014 reinforcing effect Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000000241 respiratory effect Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000007863 steatosis Effects 0.000 description 1
- 231100000240 steatosis hepatitis Toxicity 0.000 description 1
- 230000036262 stenosis Effects 0.000 description 1
- 208000037804 stenosis Diseases 0.000 description 1
- 230000003319 supportive effect Effects 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 239000003826 tablet Substances 0.000 description 1
- 238000002560 therapeutic procedure Methods 0.000 description 1
- 230000008719 thickening Effects 0.000 description 1
- 230000035922 thirst Effects 0.000 description 1
- 210000000115 thoracic cavity Anatomy 0.000 description 1
- 201000008827 tuberculosis Diseases 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/40—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management of medical equipment or devices, e.g. scheduling maintenance or upgrades
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Epidemiology (AREA)
- General Physics & Mathematics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Medical Treatment And Welfare Office Work (AREA)
- Image Processing (AREA)
Abstract
本发明提供了用于监测并且改进成像系统操作的方法和装置。示例性装置包括第一部署的深度学习网络(DLN),所述第一部署的深度学习网络与采集引擎一起操作以生成成像设备配置。所述示例性装置包括第二部署的DLN,所述第二部署的DLN与重建引擎一起基于采集的图像数据来操作。所述示例性装置包括具有第三部署的DLN的第一评估引擎。所述评估引擎从所述采集引擎或所述重建引擎中的至少一者接收输出以评估所述采集引擎或所述重建引擎中的所述相应至少一者的操作并且向所述采集引擎或所述重建引擎中的所述相应至少一者提供反馈。所述第一部署的DLN和所述第二部署的DLN分别由第一训练DLNS和第二训练DLNS生成和部署。
Description
技术领域
本公开整体涉及改进的医疗系统,并且更具体地讲,涉及用于医疗程序的改进的深度学习医疗系统和方法。
背景技术
多种经济、技术和管理障碍对向患者提供优质护理的医疗机构(诸如医院、诊所、医生办公室等)提出了挑战。医疗企业的经济动因、员工技能欠缺、员工较少、设备复杂以及最近兴起对控制以及标准化辐射暴露剂量用法的认证给患者检查、诊断和治疗的成像和信息系统的有效管理和使用带来了困难。
医疗提供者的合并形成了跨地域分布的医院网络,在这些医院网络中与系统的物理接触太昂贵。与此同时,转介医师希望更直接访问报告中的支持性数据并且需要更好的合作渠道。医师具有更多患者、更少时间并且被淹没在海量数据中,他们渴望得到帮助。
发明内容
某些示例提供了装置,该装置包括与采集引擎相关联的第一部署的深度学习网络,该采集引擎与成像设备相关联,第一部署的深度学习网络被配置为与采集引擎一起操作以生成成像设备的配置,该第一部署的深度学习网络由第一训练深度学习网络生成和部署。示例性装置还包括与重建引擎相关联的第二部署的深度学习网络,该重建引擎经由采集引擎从成像设备接收采集的图像数据并且由采集的图像数据重建图像,该第二部署的深度学习网络与重建引擎一起基于采集的图像数据来操作,该第二部署的深度学习网络由第二训练深度学习网络生成和部署。示例性装置还包括具有第三部署的深度学习网络的第一评估引擎,该评估引擎从采集引擎或重建引擎中的至少一者接收输出以评估采集引擎或重建引擎中的相应至少一者的操作并且向采集引擎或重建引擎中的相应至少一者提供反馈。
某些示例提供了方法,该方法包括经由与和成像设备相关联的采集引擎相关的第一部署的深度学习网络来生成用于图像采集的成像设备的配置,该第一部署的深度学习网络由第一训练深度学习网络生成和部署。示例性方法包括使用第二部署的深度学习网络来监测重建引擎对成像设备经由采集引擎采集的图像数据的图像重建,该第二部署的深度学习网络与重建引擎相关联并且与重建引擎一起基于采集的图像数据来操作,该第二部署的深度学习网络由第二训练深度学习网络生成和部署。示例性方法包括基于从采集引擎或重建引擎中的相应至少一者接收到的输出来评估采集引擎或重建引擎中的相应至少一者的操作。示例性方法包括向采集引擎或重建引擎中的相应至少一者提供反馈。
某些示例提供了包括指令的计算机可读介质。示例性指令在被执行时引起机器至少经由与和成像设备相关联的采集引擎相关的第一部署的深度学习网络来生成用于图像采集的成像设备的配置,该第一部署的深度学习网络由第一训练深度学习网络生成和部署。示例性指令在被执行时引起机器至少使用第二部署的深度学习网络来监测重建引擎对成像设备经由采集引擎采集的图像数据的图像重建,该第二部署的深度学习网络与重建引擎相关联并且与重建引擎一起基于采集的图像数据来操作,该第二部署的深度学习网络由第二训练深度学习网络生成和部署。示例性指令在被执行时引起机器至少基于从采集引擎或重建引擎中的相应至少一者接收到的输出来评估采集引擎或重建引擎中的相应至少一者或诊断引擎的操作。示例性指令在被执行时引起机器至少向采集引擎或重建引擎中的相应至少一者提供反馈。
附图说明
图1是示例性深度学习神经网络的表示。
图2示出了作为卷积神经网络的示例性神经网络的特定实施方式。
图3是图像分析卷积神经网络的示例性实施方式的表示。
图4A示出了应用深度学习网络来处理和/或以其他方式评估图像的示例性配置。
图4B示出了多个深度学习网络的组合。
图5示出了深度学习网络的示例性训练和部署阶段。
图6示出了利用经训练的网络包来提供深度学习产品供应的示例性产品。
图7A至图7C示出了各种深度学习设备配置。
图8A至图8B示出了利用深度学习网络的示例性学习与改进工厂。
图8C示出了训练并部署深度学习网络模型的示例性方法的示例性流程图。
图8D示出了在基于部署的深度学习网络模型的设备的操作期间收集并存储反馈并且重新训练该模型以便重新部署的示例性过程。
图9示出了示例性系统,其包括利用深度学习来为一个或多个系统和/或相关联的用户提供应用程序的数据工厂、应用程序工厂和学习工厂。
图10示出了医疗设备生态系统的概览,该医疗设备生态系统包括使用数字工厂内部地和外部地物理部署的设备(物理工厂)。
图11示出了示例性物理设备以及其与数字工厂交互的数据流。
图12示出了在数字工厂中处理并利用数据的示例性方法的流程图。
图13提供了有关在数据工厂和学习工厂中处理并利用数据的示例性方法的更多细节。
图14示出了使用深度学习进行患者评估和诊断的示例性医疗系统。
图15A示出了用于患者评估和诊断的示例性改进的医疗系统的更详细视图。
图15B示出了示例性系统实施方式,其中采集引擎、重建引擎和诊断引擎伴随数据质量评估引擎、图像质量评估引擎和诊断评估引擎。
图16示出了用于改进的图像采集、处理和患者诊断的示例性方法的流程图。
图17示出了信息在图15A的示例性系统的各部件之间流动时的示例性数据流和变换。
图18示出了使用图14至图15B的示例性系统进行图像采集、图像重建、图像分析和患者诊断的示例性医疗分析框架。
图19示出了用于图像采集的示例性方法的流程图。
图20示出了示例性图像采集配置系统。
图21示出了训练并部署图20的图像采集配置设备的示例性方法的流程图。
图22示出了随向患者提供的剂量而变化的图像质量指数的坐标图。
图23A至图23B示出了用于图像质量深度学习网络的示例性学习和测试/评估阶段。
图24A至图24B示出了用于示例性深度卷积网络的示例性学习、验证和测试阶段。
图25A示出了用来确定重建参数初始集的输出质量的示例性经训练的网络。
图25B示出了使用部署的网络模型进行图像质量评估和反馈的示例性系统。
图25C示出了使用部署的网络模型进行检测和/或诊断评估和反馈的示例性系统。
图26至图30描绘了使用本文所公开的技术得出的实验结果的坐标图。
图31A示出了用于图像重建的示例性方法的流程图。
图31B提供了有关用于图像重建的图31A的示例性方法的特定实施方式的更多细节。
图32A示出了图15A的系统设计引擎的示例性实施方式。
图32B示出了图32A的复合系统数字模型的示例性实施方式。
图33示出了监测并改进系统健康状态、配置和/或设计的方法的流程图。
图34示出了系统设计引擎深度学习网络和与设备相关联的深度学习网络之间的数据流的示例性表示。
图35是处理器平台的框图,该处理器平台被结构化为执行示例性机器可读指令以实现本文所公开和描述的部件。
图36至图37示出了本文所公开的方法、装置和制品可应用的示例性成像系统。
附图未按比例绘制。在所有的附图以及附带的书面描述中,只要有可能,都会使用相同的附图标记来指代相同或类似的部件。
具体实施方式
在以下详细描述中,参考形成其一部分的附图,并且其中通过图示的方式示出了可实践的具体示例。足够详细地描述了这些示例以使得本领域技术人员能够实践本主题,并且应当理解,可以利用其他示例,并且可以在不脱离本公开主题的范围的情况下进行逻辑、机械、电气和其他改变。因此提供以下详细描述的目的是为了描述示例性实施方式,而非被看作对本公开所述的主题的范围进行限制。来自以下描述的不同方面的某些特征可组合形成下文所讨论的主题的新方面。
当介绍本公开的各种实施方案的元件时,词语“一个”、“一种”、“该”和“所述”旨在意指存在这些元件中的一个或多个。术语“包含”、“包括”和“具有”旨在是包含性的,并且意指除了列出的元件之外还可存在附加元件。
虽然下文在医学或医疗系统的背景下描述了某些示例,但可在医疗环境之外实现其他示例。例如,某些示例可应用于非医学成像,诸如非破坏性测试、爆炸物检测等。
I.概述
成像设备(例如,γ相机、正电子发射断层成像(PET)扫描仪、计算机断层成像(CT)扫描仪、X射线机、磁共振(MR)成像机、超声扫描仪等)生成表示身体部位(例如,器官、组织等)的医学图像(例如,原始医学数字成像与通信(DICOM)图像)以诊断和/或治疗疾病。医学图像可包括体数据,包括与医学图像中捕获的身体部位相关联的体素。医学图像可视化软件允许临床医生分割、注释、测量和/或报告医学图像的各个位置上的功能或解剖特性。在一些示例中,临床医生可利用医学图像可视化软件以医学图像来识别感兴趣区域。
医学图像数据的采集、处理、分析和存储对医疗环境中患者的诊断和治疗起着重要作用。医学成像工作流以及该工作流中涉及的设备可在医学成像工作流和设备的整个操作中配置、监测和更新。机器学习可用于帮助配置、监测和更新医学成像工作流和设备。
某些示例提供和/或促进改进的成像设备,由此提高诊断准确性和/或覆盖率。某些示例促进改进的图像采集和重建,从而提供提高的诊断准确性。例如,可使用深度学习和/或其他机器学习技术来促进图像质量(IQ)度量和自动化验证。
例如,机器学习技术(不论是深度学习网络,还是其他体验/观察学习系统)可用于定位图像中的对象,理解语音并且将语音转换为文本,并且提高搜索引擎结果的相关性。深度学习是机器学习的子集,其使用一套算法使用具有多个处理层(包括线性和非线性变换)的深度图对数据中的高层抽象化进行建模。虽然许多机器学习系统都是先植入初始特征和/或网络权重、再通过机器学习网络的学习和更新加以修改,但是深度学习网络是通过训练自身来识别分析的“良好”特征。使用多层体系结构时,采用深度学习技术的机器对原始数据的处理可好于使用常规机器学习技术的机器。使用评估或抽象化的不同层促进了各组高度相关的值或区别性主题的数据检查。
在本说明书和权利要求书中,以下术语自始至终都采取与本文明确相关联的含义,除非上下文另外清楚指明。术语“深度学习”是利用多个数据处理层来识别数据集中的各种结构并且以高准确性对这些数据集进行分类的机器学习技术。深度学习网络可以是基于多个输入和输出来学习模式的训练网络(例如,训练网络模型或设备)。深度学习网络可以是由训练网络生成并且响应于输入而提供输出的部署的网络(例如,部署的网络模型或设备)。
术语“监督学习”是向机器提供来自人类来源的已分类数据的深度学习训练方法。术语“无监督学习”是不向机器给予已分类数据而是使机器可用于异常检测的深度学习训练方法。术语“半监督学习”是这样的深度学习训练方法,其中向机器提供少量来自人类来源的分类数据,相比之下,更大量的未分类数据可供机器使用。
术语“表示学习”是将原始数据变换为可在机器学习任务中利用的表示或特征的方法领域。在监督学习中,经由标记输入来学习特征。
术语“卷积神经网络”或“CNN”是用于在深度学习中检测、分割和识别数据集中的相关对象和区域的互连数据的生物启发网络。CNN以多个阵列的形式评估原始数据,将数据分为一系列级,检查数据中学习到的特征。
术语“迁移学习”是机器存储正确地或不正确地解决一个问题时所使用的信息来解决与第一问题相同或类似性质的另一个问题的过程。迁移学习可也称为“归纳学习”。例如,迁移学习可利用来自先前任务的数据。
术语“主动学习”是机器选择要接收训练数据的一组示例而不是被动地接收外部实体所选的示例的机器学习过程。例如,当机器学习时,可允许机器选择机器确定将对学习最有用的示例,而非仅仅依赖外部人类专家或外部系统来识别和提供示例。
术语“计算机辅助检测”或“计算机辅助诊断”是指出于建议可能的诊断的目的而分析医学图像的计算机。
深度学习
深度学习是采用表示学习方法的一类机器学习技术,其允许机器被给予原始数据并且确定数据分类所需的表示。深度学习使用用于改变深度学习机器的内部参数(例如,节点权重)的反向传播算法来确定数据集中的结构。深度学习机器可利用多种多层体系结构和算法。例如,虽然机器学习涉及识别要用于训练网络的特征,但深度学习处理原始数据来识别感兴趣特征而无需外部识别。
神经网络环境中的深度学习包括许多称为神经元的互连节点。由外部来源激活的输入神经元基于受机器参数控制的与其他神经元的连接来激活这些其他神经元。神经网络以基于其自身参数的一定方式起作用。学习改善机器参数,并且广义来说,改善网络中的各神经元之间的连接,使得神经网络以所需方式起作用。
利用卷积神经网络的深度学习使用卷积过滤器来分割数据以定位并且识别数据中学习到的可观测特征。CNN体系结构的每个过滤器或层变换输入数据以增加数据的选择性和不变性。数据的该抽象化允许机器聚焦于数据中其尝试分类的特征并且忽略不相关的背景信息。
深度学习的操作建立在许多数据集包括高级特征而高级特征又包括低级特征这一理解上。例如,当检查图像时,并不查找对象,更有效的做法是查找边缘,边缘形成模体,模体形成部分,部分形成要寻找的对象。特征的这些层次可见于许多不同形式的数据,诸如语音和文本等。
学习到的可观测特征包括机器在监督学习期间学习到的对象和可量化正则性。提供有有效分类的数据的大集合的机器更有条件区分并且提取与新数据的成功分类相关的特征。
利用迁移学习的深度学习机器可将数据特征正确地连接到由人类专家确认的某些分类。相反,同一机器可在人类专家告知分类错误时更新用于分类的参数。例如,可通过学习到的设置和/或其他配置信息的使用来引导设置和/或其他配置信息,并且当系统使用更多次(例如,反复使用和/或由多个用户使用)时,对于给定情况而言,可减少设置和/或其他配置信息的变化和/或其他可能性的数量。
例如,可使用专家分类数据集来训练示例性深度学习神经网络。该数据集构建了神经网络的第一参数,并且这将为监督学习阶段。在监督学习阶段,可测试神经网络是否已实现所需行为。
一旦已实现所需神经网络行为(例如,机器经过训练以根据指定阈值来操作等),就可部署机器以便使用(例如,使用“真实”数据来测试机器等)。在操作期间,可(例如,由专家用户、专家系统、参考数据库等)确认或拒绝神经网络分类以继续改善神经网络行为。然后示例性神经网络处于迁移学习状态,因为确定神经网络行为的分类参数基于正在进行的交互来更新。在某些示例中,神经网络可向另一个过程提供直接反馈。在某些示例中,神经网络输出的数据先经过缓冲(例如经由云等)和验证,再向另一个过程提供。
使用卷积神经网络(CNN)的深度学习机器可用于图像分析。CNN分析的阶段可用于自然图像中的面部识别、计算机辅助诊断(CAD)等。
可使用诸如x射线、计算机断层成像(CT)、分子成像与计算机断层成像(MICT)、磁共振成像(MRI)等一种或多种成像模式来采集高质量医学图像数据。医学图像质量通常不受产生图像的机器的影响,而是受患者的影响。例如,患者在MRI期间移动可形成模糊或畸变图像,从而可妨碍准确诊断。
在不考虑质量的情况下解释医学图像仅仅是最近的发展。医学图像大部分由医师解释,但这些解释可能带有主观性,受到医师在本领域中的经验和/或疲劳状况的影响。经由机器学习的图像分析可支持医疗从业者的工作流。
例如,深度学习机器可提供计算机辅助检测支持以在图像质量和分类方面改进其图像分析。然而,应用于医疗领域的深度学习机器所面临的问题通常会引起许多错误分类。例如,深度学习机器必须克服小的训练数据集并且需要反复调节。
例如,深度学习机器在经过最少训练的情况下可用于确定医学图像的质量。半监督和无监督深度学习机器可用于定量测量图像的质量方面。例如,可在已采集图像之后利用深度学习机器来确定图像的质量是否足以用于诊断。监督深度学习机器可也用于计算机辅助诊断。例如,监督学习可有助于减少错误分类敏感性。
深度学习机器可在与医师交互时利用迁移学习来抵消监督训练中可用的小数据集。这些深度学习机器可随时间推移通过训练和迁移学习来改进其计算机辅助诊断。
II.示例描述
示例性深度学习网络系统
图1是示例性深度学习神经网络100的表示。示例性神经网络100包括层120、140、160和180。层120和140与神经连接130相连。层140和160与神经连接150相连。层160和180与神经连接170相连。数据经由输入112、114、116从输入层120向前流动到输出层180并流动到输出190。
层120是输入层,其在图1的示例中包括多个节点122、124、126。层140和160是隐藏层,并且在图1的示例中包括节点142、144、146、148、162、164、166、168。神经网络100可包括比所示更多或更少的隐藏层140和160。层180是输出层,并且在图1A的示例中包括具有输出190的节点182。每个输入112至116对应于输入层120的节点122至126,并且输入层120的每个节点122至126具有到隐藏层140的每个节点142至148的连接130。隐藏层140的每个节点142至148具有到隐藏层160的每个节点162至168的连接150。隐藏层160的每个节点162至168具有到输出层180的连接170。输出层180具有输出190以提供来自示例性神经网络100的输出。
在连接130、150和170之中,可为神经网络100中的某些示例性连接132、152、172给予附加权重,同时可为其他示例性连接134、154、174给予更小权重。例如,通过经由输入112至116接收输入数据来激活输入节点122至126。通过数据分别经由连接130和150向前流过网络100来激活隐藏层140和160的节点142至148和162至168。在经由连接170发送隐藏层140和160中处理的数据之后激活输出层180的节点182。当激活输出层180的输出节点182时,节点182基于神经网络100的隐藏层140和160中完成的处理来输出适当值。
图2示出了作为卷积神经网络200的示例性神经网络100的特定实施方式。如图2的示例中所示,将输入110提供给第一层120,该第一层处理输入110并将该输入传播到第二层140。进一步在第二层140中处理输入110并将该输入传播到第三层160。第三层160对数据进行分类以便提供给输出层180。更具体地讲,如图2的示例中所示,将卷积204(例如,5×5卷积等)应用于第一层120中的输入110(例如,32×32数据输入等)的部分或窗口(也称为“接受域”)202以提供特征映射206(例如,(6×)28×28特征映射等)。卷积204将来自输入110的元素映射到特征映射206。第一层120还提供子采样(例如,2×2子采样等)以生成减小的特征映射210(例如,(6×)14×14特征映射等)。特征映射210发生卷积212并且从第一层120传播到第二层140,在第二层中,特征映射210变为扩展的特征映射214(例如,(16×)10×10特征映射等)。在第二层140中的子采样216之后,特征映射214变为减小的特征映射218(例如,(16×)4×5特征映射等)。特征映射218发生卷积220并且传播到第三层160,在第三层中,特征映射218变为分类层222,从而形成例如具有到卷积层222的连接226的N个类别的输出层224。
图3是图像分析卷积神经网络300的示例性实施方式的表示。卷积神经网络300接收输入图像302,并且在卷积层304中将该图像抽象化以识别学习到的特征310至322。在第二卷积层330中,图像被变换为多个图像330至338,其中学习到的特征310至322各自在相应子图像330至338中加强。进一步处理图像330至338以聚焦于图像340至348中的感兴趣特征310至322。然后通过池化层处理所得的图像340至348,该池化层减小图像340至348的尺寸以分离包括感兴趣特征310至322在内的图像340至348的部分350至354。卷积神经网络300的输出350至354从最后非输出层接收值,并且基于从最后非输出层接收到的数据对图像进行分类。在某些示例中,卷积神经网络300可包含卷积层、池化层、学习到的特征和输出等的许多不同变型。
图4A示出了应用深度学习网络来处理和/或以其他方式评估图像的示例性配置400。深度学习可应用于多种过程,包括图像采集、图像重建、图像分析/诊断等。如图4A的示例性配置400中所示,原始数据410(例如,从成像扫描仪诸如x射线、计算机断层成像、超声、磁共振等扫描仪获得的原始数据410,诸如声谱图原始数据)被馈入深度学习网络420。深度学习网络420处理数据410以将原始图像数据420关联和/或以其他方式合并到所得图像430(例如,“良好质量”图像和/或其他提供足以诊断的质量的图像等)中。深度学习网络420包括节点和连接(例如,路径)以将原始数据410与完成的图像430相关联。例如,深度学习网络420可为训练深度学习网络,其学习这些连接并且处理反馈以建立连接并识别模式。例如,深度学习网络420可为部署的深度学习网络,其由训练网络生成,并且利用在训练网络中建立的连接和模式来获取输入原始数据410并生成所得图像430。
一旦DLN 420经过训练并从原始图像数据410产生良好图像630,网络420就可继续“自学习”过程并且在操作时改善其性能。例如,输入数据(原始数据)410中存在“冗余”,网络420中存在冗余,并且可利用该冗余。
如果检查分配给DLN 420中的节点的权重,则可能存在许多具有极低权重的连接和节点。低权重指示这些连接和节点对DLN 420的整体性能的贡献很少。因此,这些连接和节点是冗余的。可评估此类冗余以减少输入(原始数据)410中的冗余。例如,减少输入410冗余可节省扫描仪硬件,降低对部件的要求,并且还减少对患者的暴露剂量。
在部署中,配置400形成包400,其包括输入定义410、经训练的网络420和输出定义430。可相对于另一个系统诸如成像系统、分析引擎等部署并安装包400。
如图4B的示例中所示,深度学习网络420可与多个深度学习网络421至423链接和/或以其他方式组合在一起而形成更大的学习网络。例如,网络420至423的组合可用于进一步改善对输入的响应和/或将网络420至423分配给系统的各个方面。
在一些示例中,在操作中,可最初将“弱”连接和节点设定为零。然后DLN 420在保持过程中处理其节点。在某些示例中,不允许在重新训练期间改变被设定为零的节点和连接。考虑到网络420中存在冗余,很有可能会生成同样好的图像。如图4B所示,在重新训练之后,DLN 420变为DLN 421。还检查DLN 421以识别弱连接和节点,并且将它们设定为零。该进一步重新训练的网络是DLN 422。示例性DLN 422包括DLN 421中的“零点”以及节点和连接的新集合。DLN 422继续重复该处理直到在DLN 423(其称为“最小可行性网(MVN)”)处达到良好图像质量。DLN 423之所以为MVN,是因为如果试图在DLN 423中将附加连接或节点设定为零,则图像质量会变差。
一旦已用DLN 423获得MVN,就将“零”区域(例如,坐标图中的不规则暗区域)映射到输入410。每个暗区可能映射到输入空间中的一个或一组参数。例如,零区域之一可与原始数据中的视图数量和通道数量联系起来。由于可减少与这些参数相对应的网络423中的冗余,很有可能可减少输入数据并且该输入数据可生成同样好的输出。为了减少输入数据,获得与减少的参数相对应的原始数据新集合并且通过DLN 421运行该原始数据新集合。可简化或可不简化网络420至423,但处理DLN 420至423中的一者或多者直到达到原始数据输入410的“最小可行性输入(MVI)”。在MVI处,输入原始数据410的进一步减少可导致图像430质量降低。例如,MVI可使得数据采集的复杂性降低、对系统部件的要求更少、患者的紧张感减轻(例如,屏气或造影剂更少)和/或对患者的剂量减少。
通过使DLN 420至423中的一些连接和节点强制变为零,网络420至423构建“侧支”来补偿。在该过程中,获得对DLN 420至423的拓朴结构的洞察。应当注意,DLN 421和DLN422例如具有不同拓朴结构,这是由于已强制一些节点和/或连接变为零。从网络有效移除连接和节点的该过程超出了“深度学习”,并且可称为“深度-深度学习”。
在某些示例中,输入数据处理和深度学习阶段可被实现为单独系统。然而,作为单独系统,两个模块可能都不知晓更大的输入特征评估回路以选择感兴趣/重要的输入参数。由于输入数据处理选择对产生高质量输出很重要,因此来自深度学习系统的反馈可用于经由模型来执行输入参数选择优化或改进。并非通过在整个输入参数集内扫描来形成原始数据(例如,这是强力的且昂贵的),而是可实现主动学习的变型。使用主动学习的该变型,可确定起始参数空间以在模型中产生所需或“最佳”结果。然后可随机减小参数值以生成原始输入,这会降低结果的质量,同时仍保持质量的可接受范围或阈值,并且通过处理对模型质量没有什么影响的输入来缩短运行时间。
图5示出了深度学习网络的示例性训练和部署阶段。如图5的示例中所示,在训练阶段,向网络504提供一组输入502以便进行处理。在该示例中,该组输入502可包括待识别的图像的面部特征。网络504沿正向506处理输入502以关联数据元素并识别模式。网络504确定输入502表示狗508。在训练中,在510处将网络结果508与已知结局512进行比较。在该示例中,已知结局512是人类面部(例如,输入数据集502表示人类面部,而非狗面部)。由于在510处网络504的确定508不匹配已知结局512,因此生成错误514。错误514触发沿着经过网络504的反向传播516相反地分析已知结局512和相关联的数据502。因此,训练网络504从数据502、512经过网络405的正向传播506和反向传播516中学习。
一旦在510处网络输出508与已知输出512的比较根据一定标准或阈值相匹配(例如,匹配n次,匹配大于x%等),就可使用训练网络504生成待用外部系统部署的网络。一旦被部署,就向部署的深度学习网络522提供单个输入520以生成输出524。在这种情况下,基于训练网络504,部署的网络522确定输入520是人类面部524的图像。
图6示出了利用经训练的网络包来提供深度学习产品供应的示例性产品。如图6的示例中所示,提供输入610(例如,原始数据)以便进行预处理620。例如,在620处对原始输入数据610进行预处理以检查格式、完整性等。一旦已在620处对数据610进行预处理,就在630处创建数据的分块。例如,在630处以一定尺寸和格式创建数据的分块或部分或“组块”以便进行处理。然后将这些分块馈入经训练的网络640以便进行处理。基于学习到的模式、节点和连接,经训练的网络640基于输入分块来确定输出。在650处组装这些输出(例如,将这些输出组合和/或以其他方式集合在一起以生成可用输出等)。然后在660处显示该输出和/或将该输出以其他方式输出给用户(例如,人类用户、临床系统、成像模式、数据存储(例如,云存储、本地存储、边缘设备等)等)。
如上所讨论,可将深度学习网络包装为供训练、部署和应用于多种系统之用的设备。图7A至图7C示出了各种深度学习设备配置。例如,图7A示出了一般深度学习设备700。示例性设备700包括输入定义710、深度学习网络模型720和输出定义730。输入定义710可包括经由网络720转换为一个或多个输出730的一个或多个输入。
图7B示出了示例性训练深度学习网络设备701。即,训练设备701是被配置为训练深度学习网络设备的设备700的示例。在图7B的示例中,向网络721提供多个训练输入711以在网络721中建立连接并且提供输出以便由输出评估器731进行评估。然后输出评估器731向网络721中提供反馈以进一步形成(例如,训练)网络721。可向网络721提供附加输入711直到输出评估器731确定网络721经过训练(例如,根据一定阈值、误差容限等,该输出已满足输入与输出的已知相关性)。
图7C描绘了示例性部署的深度学习网络设备703。一旦训练设备701已学习到必要的水平,就可部署训练设备701以便使用。例如,虽然训练设备701通过处理多个输入来学习,但部署的设备703通过处理单个输入来确定输出。如图7C的示例中所示,部署的设备703包括输入定义713、经训练的网络723和输出定义733。例如,一旦网络721已经过充分训练,就可由网络721生成经训练的网络723。部署的设备703接收系统输入713并且经由网络723处理输入713以生成输出733,然后例如已与部署的设备703相关联的系统可使用该输出。
在某些示例中,训练设备701和/或部署的设备703可集成在学习与改进工厂中以向目标系统提供输出、收集反馈并基于该反馈来更新/重新训练。图8A示出了示例性学习与改进工厂800,其包括训练深度学习设备701和部署的深度学习设备703。如图8A的示例中所示,训练深度学习设备701向模型评估器802提供输出。模型评估器802将设备701的输出与已知输出进行比较和/或以其他方式测量输出的准确性、精度和/或质量以确定训练设备701是否准备好部署。一旦模型评估器802已确定设备701已经过适当训练,模型评估器802就将来自设备701的经训练的网络的模型提供给模型部署模块804,该模型部署模块准备经训练的模型以便部署。模块804将准备好的模型提供给部署的深度学习设备发生器806,该部署的深度学习设备发生器使用来自设备701的经训练的网络的模型方面的输入定义和输出定义的框架或包来实例化部署的深度学习设备703。
部署的设备703对输入进行操作并提供输出,并且反馈收集器808监测输出(和输入)并基于部署的深度学习设备703的操作来搜集反馈。将反馈存储在反馈存储810中,直到已收集一定量的反馈(例如,一定数量、一定质量/一致性、一定时间段等)。一旦已收集足够的反馈,就触发重新训练启动器812。重新训练启动器812从反馈存储810检索数据并且与重新训练数据选择器814一起操作以从反馈存储810选择要向训练深度学习设备701提供的数据。然后使用反馈来更新/重新训练训练设备701的网络,直到模型评估器802确信训练网络模型完整。然后在如上所述部署的深度学习设备703中准备并部署更新/重新训练的模型。
如图8B的示例中所示,学习与改进工厂800可在多种层级/层次中实现。例如,微型学习与改进工厂801可对特定设备、设备特征等建模和/或提供支持。例如,学习与改进工厂803可把总体系统或安装作为目标。全局学习与改进工厂805可提供输出并对组织、机构等建模。因此,学习与改进工厂801至805可通过组织来实现以学习、建模并提高系统准确性、性能、有效性、安全性、效率等。
图8C示出了训练并部署深度学习网络模型的示例性方法820的流程图。在方框822处,训练深度学习网络模型。例如,向网络提供多个输入,并且生成输出。在方框824处,评估深度学习网络模型。例如,将网络的输出与这些输入的已知/参考输出进行比较。当网络进行连接并学习时,网络模型的准确性得以提高。在方框826处,评估输出以确定网络是否已对预期输出成功建模。如果网络未成功建模,则训练过程在方框822处继续。如果网络已对输出成功建模,则在方框828处,生成基于深度学习模型的设备。在方框830处,部署深度学习设备。
在方框832处,收集并存储来自基于部署的深度学习模型的设备的操作的反馈直到收集的反馈满足阈值(方框834)。反馈可包括输入、部署的模型信息、预处理和/或后处理信息、实际和/或校正的输出等。一旦满足反馈收集阈值,就在方框836处,启动模型重新训练。在方框838处,选择来自收集的反馈的数据(和/或其他输入数据)以重新训练深度学习模型。数据选择可包括预处理和/或后处理以使用于模型训练等的数据正确格式化。然后控制转到方框822以(重新)训练深度学习网络模型。
图8D重述了在基于部署的深度学习网络模型的设备的操作840期间收集并存储反馈并且重新训练该模型以便重新部署的示例性过程。反馈可包括输入、部署的模型信息、预处理和/或后处理信息、实际和/或校正的输出等。在方框842处,检查收集的反馈以确定收集的反馈是否满足收集/反馈阈值(例如,反馈的量、反馈的频率、反馈的类型、反馈经过的时间量等)。如果不满足阈值,则在方框840处继续反馈收集和存储。然而,如果满足阈值,则在方框844处,启动模型重新训练。
在方框846处,选择数据以重新训练深度学习网络模型。数据包括收集的反馈,并且可还包括其他数据,例如包括初始输入数据到模型和/或其他参考数据。因此,例如,模型可不专门对反馈数据进行重新训练,而是对馈入深度学习模型的混合的新旧数据进行重新训练。数据选择可包括预处理和/或后处理以使用于模型训练等的数据正确格式化。
在方框848处,(重新)训练深度学习网络模型。即,将数据作为输入提供以修改网络模型并生成输出。在方框850处,评估输出以确定是否已(重新)训练网络模型。在方框852处,如果网络尚未对预期输出建模,则控制返回至方框848以继续用输入和输出评估进行模型训练。如果(重新)训练的网络已对预期输出成功建模(例如,在一定时间阈值内等),则在方框854处,生成基于深度学习模型的设备。在方框856处,部署深度学习设备。因此,模型可开始接受训练和/或重新训练,并且用于生成基于部署的网络模型的设备。例如,虽然部署的设备在操作期间未被修改,但训练模型可被更新和/或以其他方式修改并且定期用于更换/重新部署该部署的网络模型。
图9示出了示例性系统,其包括利用深度学习来为一个或多个系统和/或相关联的用户提供应用程序的数据工厂902、应用程序工厂916和学习工厂924。在图9的示例中,数据工厂902包括一个或多个数据模式904、管护工具906、批量数据获取908、数据选择/过滤910、连续数据获取912以及数据目录/湖914。示例性数据工厂902在908、912处获取数据,并且可处理该数据以在910处选择/过滤该数据并根据一定模式904使数据格式化。可根据一个或多个管护工具906来组织该数据并将该数据存储在数据目录/湖914中以便可供应用程序工厂916和/或学习工厂924使用。应用程序工厂916包括查看器918,从而允许系统和/或相关联的用户经由应用程序服务920和/或管道目录922查看和/或访问可用的应用程序。
在图9的示例中,学习工厂924包括模型目录926,该模型目录包括可供例如应用程序工厂916和/或其他外部系统使用的一个或多个网络模型(例如,基于深度学习的网络模型、基于机器学习的网络机器等)。学习工厂924还包括数据科学928,该数据科学包括要形成模型目录926中的模型和/或由该模型目录中的模型利用的数据。示例性数据科学928包括体系结构目录930、数据准备932、结果/报告934、训练与验证936以及测试938,以组织并以其他方式预处理数据、训练并验证学习网络、报告结果并且测试结局等。例如,经训练和验证的网络可用于经由模型目录926部署在一个或多个应用程序中。
图10示出了医疗设备生态系统1000的概览,该医疗设备生态系统包括使用数字工厂1006在1002处内部地和在1004处外部地物理部署的设备(物理工厂)。如图10的示例中所示,数字工厂1006包括数据工厂902、数据目录914、学习工厂924、基于深度学习网络的模型目录926等。数字工厂1006提供一个或多个数字模型1008(例如,深度学习网络模型、机器学习模型等)和/或与所述一个或多个数字模型交互。数字工厂1006与物理工厂交互,该物理工厂包括多个设备1010至1016,这些设备在1002处内部地部署(例如,设备1010和1012)并在1004处外部地部署(例如,设备10140和1016)。设备1010至1016连接到数字工厂1006并且可将数据上传到数字工厂1006,从目录926订阅一个或多个模型,更新模型等。内部部署1002中的设备1010、1012可用于例如使用数字工厂1006进行测试和改善的目的,而外部部署1004中的设备1014、1016与部署的模型“相伴”,从而例如有助于设备1014、1016作出决策和/或其他执行。
图11示出了物理设备1010以及其与数字工厂1006交互的数据流的示例性配置1100,该配置可包括数据工厂902以及其数据目录914、数据管护906、以及学习工厂924以及其模型目录926、以及具有其应用程序管道目录922的应用程序工厂916等。如图11的示例中所示,物理设备1010(例如,成像扫描仪)包括设备控制器1102、检测器1104以及用于采集患者1108的图像数据的来源1106。扫描仪设备1010在图像采集1114中提供扫描环境1110和扫描仪数据1112。采集引擎1114与数字工厂1006交互以对图像数据的采集等建模。为重建1116提供采集的图像数据,并且重建引擎1116也与数字工厂1006交互以便获取基于模型的资源以用于采集的图像数据的重建。为查看1118提供重建的图像,同时例如从数字工厂1006提供应用程序。例如,一个或多个应用程序和/或测量1120可应用于重建的图像(例如,基于来自数字工厂1006的模型和/或其他应用程序等)。可在一个或多个临床工作流1122中利用经处理的图像和/或其他数据,所述一个或多个临床工作流继而利用来自数字工厂1006的应用程序、数据和模型来促进所述一个或多个临床工作流1122的改进的和/或自动化的执行。可向分析与决策支持1124提供一个或多个工作流的一个或多个结局,以与例如数字工厂1006一起推动一个或多个结论、一个或多个建议、一个或多个下一动作、模型改善等。
图12示出了在数据工厂902和学习工厂924中处理并利用数据的示例性方法1200的流程图。在方框1202处,获取数据(例如,通过批量获取908和/或连续获取912等)。在方框1204处,管护获取的数据。例如,可应用一个或多个数据分类、处理和/或其他管护工具906来组织获取的数据。在方框1206处,处理管护的数据并将该数据用于学习。例如,可分析管护的数据,将该数据用于训练深度学习网络等。在方框1208处,包装并部署由处理的数据生成且基于学习的输出。例如,可将一个或多个经训练的深度学习网络编目在模型目录926中并且可供部署使用。
图13提供了有关在数据工厂902和学习工厂924中处理并利用数据的示例性方法1200的更多细节。如图13的示例中所示,数据获取1202包括从诸如图片存档及通信系统(PACS)、厂商中立存档(VNA)、企业存档(EA)、成像扫描仪等一个或多个内部部署数据源1302提取数据。在1304处将获取的数据收集并存储在数据目录/湖1306中。在方框1308处,选择和/或获取数据以便在1310处经由图像和/或其他数据查看器1310查看。
图13还提供有关数据管护/组织1204的更多细节。在方框1312处,分析所选择/获取的数据以确定是否是应用程序和/或其他请求的正确数据。如果不是,则控制返回至方框1308以选择/获取不同数据。如果已选择正确数据,则在方框1314处,检查数据以确定数据是否被管护。如果数据未被管护,则在方框1316处,进行数据管护。例如,数据管护涉及准确标记数据、用可编辑的边界框标识感兴趣区域(ROI)、添加元数据信息、修改不当的预管护信息等以及保存为新数据集。将管护的数据往回提供到数据目录1306。如果在方框1314处,数据被管护,则控制转移到方框1206处的数据处理。
如图13中更详细示出,数据处理1206包括使用一个或多个数据准备工具1320来准备数据1318。准备该数据以用于人工智能(AI)的开发(方框1322),诸如深度学习网络模型和/或其他机器学习模型等的开发。数据准备1318(例如,用于训练、验证、测试等)包括数据分块的创建和标记、图像处理(例如,裁剪、压缩等)、生成更多训练样本所用的数据扩充、要向学习网络模型提供的三维图像处理、数据库创建和存储(例如,json和/或其他格式)、分块图像数据存储(例如,.png、.jpeg等)等。在一些示例中,将最终分块图像数据数据集存储在数据目录/湖1306中。
在方框1324处,例如,从可用模型的AI目录1326选择AI方法(例如,深度学习网络模型和/或其他机器学习模型等)。例如,可导入深度学习模型,可修改该模型,可促进迁移学习,可选择和/或修改激活函数,可进行机器学习选择和/或改进(例如,支持向量机(SVM)、随机森林(RF)等),可选择和/或修改优化算法(例如,随机梯度下降(SGD)、AdaG等)等。AI目录1326可包括一个或多个AI模型,诸如有效的老式人工智能(GOFAI)(例如,专家系统等)、机器学习(ML)(例如,SVM、RF等)、深度学习(DL)(例如,卷积神经网络(CNN)、递归神经网络(RNN)、长短期记忆(LSTM)、生成对抗网络(GAN)等)、范例(例如,监督、无监督、强化等)等。
在方框1328处,使模型开发初始化(例如,使用激活函数、权重、偏置、超参数等),并且在方框1330处,进行模型的训练(例如,如上所述等)。在某些示例中,训练1330是迭代过程,其包括涉及超参数设置、超参数搜索、一个或多个训练/验证集准确性图、曲线下面积(AUC)绘图、间歇性模型生成与保存、提前和/或手动停止训练等的训练与验证。在方框1332处,评估AI模型的准确性以确定该准确性是否可接受。如果该准确性不可接受,则控制返回至方框1318以进行附加数据准备和后续开发。如果该准确性可接受,则在方框1334处,放行AI模型以进行测试(例如,提供一个或多个附加输入并评估一个或多个输出等)。在方框1336处,报告该测试的结果。例如,可提供实验参数和结局的连续记录。
图13还提供有关包装与部署1208的更多示例性细节。在方框1338处,如果经测试的模型的准确性不可接受,则控制返回至方框1318以便进行数据准备。如果经测试的模型的准确性可接受,则在方框1340处,将模型添加到经训练的模型的目录。在方框1342处,包装经训练的模型的目录中的一个或多个模型,并且在方框1344处,部署该包(例如,部署到目标站点、目标系统等)。
利用深度和/或其他机器学习的示例性改进的医疗系统以及相关联的方法
图14示出了用于患者评估和诊断的示例性医疗系统1400。示例性系统1400包括用于与人类1402诸如用户1404(例如,医师、护士、技术员和/或其他医疗从业者等)和患者1406交互的成像设备1410、信息子系统1420、采集引擎1430、重建引擎1440和诊断引擎1450。医疗系统1400的部件可使用执行硬编码配置、固件配置、软件指令的一个或多个处理器以及存储器等来实现。例如,系统1400的一个或多个部件可包括基于处理器的系统,其包括适于执行本发明所讨论的功能(包括本文其他地方描述的方法的各种要素的执行)的硬件和/或软件代码、例程、模块或指令的组合。应当注意,此类软件例程可体现在制品中(例如,压缩盘、硬盘驱动器、闪速存储器、基于通用串行总线(USB)的驱动器、随机存取存储器(RAM)、只读存储器(ROM)等),并且被配置为由处理器执行以实现本文所述功能的执行。
使用示例性系统1400,可通过成像系统1410(例如,CT、x射线、MR、PET、超声、MICT、单光子发射计算机断层成像(SPECT)、数字断层融合等)基于来自信息子系统1420和/或采集引擎1430的设置来检查患者1404。设置可由诸如CNN、RNN等部署的深度学习网络模型/设备决定和/或影响。基于诸如检查原因、患者身份识别信息、患者背景、人群健康信息等信息,成像设备1410设置可被配置用于由单独的或与信息子系统1420(例如,图片存档及通信系统(PACS)、医院信息系统(HIS)、放射信息系统(RIS)、实验室信息系统(LIS)、心血管信息系统(CVIS)等)相结合的采集引擎1430对患者1406进行图像采集。可将来自信息子系统1420和/或采集引擎1430的信息以及来自成像设备1410的反馈收集并提供给训练深度学习网络模型以修改例如用于图像采集的未来设置、建议等。训练深度学习网络模型可定期地和/或在满足一定标准时处理反馈并生成更新的模型以便相对于系统1400进行部署。
向重建引擎1440提供单独的或与附加患者病史、患者背景、人群健康信息、检查原因等相结合的来自成像设备1410的采集或原始图像数据以处理该数据,从而生成所得图像。重建引擎1440使用该信息和采集的图像数据来重建患者1406的一个或多个二维(2D)和/或三维(3D)图像。一种或多种重建方法、一个或多个重建引擎1440设置等可由诸如CNN、RNN等深度学习网络设定和/或影响。例如,可使用深度学习网络来确定并修改层厚、图像质量等。
在某些示例中,可由重建引擎1440预处理原始图像数据。预处理可包括一个或多个子过程,诸如强度校正、模拟、过滤等。在某些示例中,可检测图像数据中的解剖学标志,并且可创建图像网格。基于解剖学标志和图像网格,重建引擎可配准图像数据(例如,根据参考坐标系等)。在配准后,可提取图像数据中的感兴趣特征。
在某些示例中,原始图像数据中感兴趣的特定特征可根据感兴趣的特定疾病或病症而变化。例如,在诊断神经病症过程中,可能有用的是提取脑图像数据的某些特征以促进诊断。此外,在一些示例中,可能希望确定患者或一个或多个参考个体的大脑皮层的厚度。
某些示例处理由成像设备1410和采集引擎1430采集的原始数据,并且将原始图像数据提供给重建引擎1440以产生以下图像中的一者或两者:a)向诊断决策支持引擎1450提供的机器可读的图像,以及b)显示以供用户诊断的人类可查看的图像。
例如,虽然主要是为了供人类消费而执行图像重建,但机器也可使用预重建数据,它并不关心数据是否已被重建为可供人类查看。因此,可针对人类消费和机器消费以不同方式处理预重建数据。重建引擎1440可根据例如给定疾病的指标来处理机器可读的图像数据,以使得重建引擎1440和/或诊断引擎1450可在不执行重建的情况下(例如,在原始图像数据采集状态下)识别指示该疾病的模式。因此,在一些示例中,重建引擎1440可与诊断引擎1450一起执行诊断,而非依赖用户1404与诊断引擎1450交互来作出临床诊断。
然后可向诊断引擎1450提供从重建引擎1440输出的图像。诊断引擎1450可从重建引擎1440获取图像数据和/或从信息子系统1420获取非图像数据,并且处理该数据(例如,静态数据、动态数据、纵向数据等)以确定对患者1406的诊断(和/或促进用户1404进行诊断)。向诊断引擎1450提供的数据可还包括来自一个或多个患者监护仪的数据,所述患者监护仪诸如为脑电描记(EEG)设备、心电描记(ECG或EKG)设备、肌电描记(EMG)设备、电阻抗断层成像(EIT)设备、眼震电图描记(ENG)设备、适于收集神经传导数据的设备、和/或这些设备的某种组合。
在一些示例中,诊断引擎1450处理来自图像数据的一个或多个感兴趣特征以促进在一种或多种疾病类型或疾病严重程度方面对患者1406作出诊断。可从各种来源获得图像数据,这些来源诸如为成像设备1410、信息子系统1420、其他设备、其他数据库等。此外,此类图像数据可与特定患者(诸如患者1406)相关,或与群体样本的一个或多个参考个体相关。可由重建引擎1440和/或诊断引擎1450处理图像数据以例如配准并提取来自图像的感兴趣特征。
然后可将信息从诊断引擎1450输出到用户1404、信息子系统1420和/或其他系统以便进一步存储、传输、分析、处理等。例如,信息可以字母数字数据格式显示并制表以便进一步分析和检查(例如,基于度量分析、偏差度量、历史参考比较等)。另选地或除此之外,例如,可整体地呈现数据以便经由热图、偏差图、表面矩阵等单独地或相对于参考数据进行分析。本受让人共同拥有的美国专利No.9,271,651、8,934,685、8,430,816、8,099,299和8,010,381提供了有关示例性整体分析的进一步公开内容。
可在各种患者疾病类型和/或患者病症以及相关联的严重程度方面提供患者诊断,同时还为患者的用户诊断提供决策支持工具。例如,患者临床图像和非图像信息可以以整体、直观和一致的方式一起可视化,从而促进用户1404进行有效诊断。在另一个示例中,已知脑部疾病的患者皮层偏差图和参考皮层偏差图可与附加患者和参考偏差图的计算以及此类图与其他临床检测的组合一起可视化,以实现脑部疾病的定量评估和诊断。
作出诊断是很专业的任务,即使是训练有素的医学图像专家也会对图像作出主观评估。由于这种固有的主观性,诊断可能不一致且不标准化。诊断引擎1450可采用诸如CNN、RNN等深度学习网络来帮助提高诊断的一致性、标准化和准确性。诊断引擎1450可将诸如非图像数据的附加数据包括在深度学习网络中以提供患者诊断的整体方法。
在某些示例中,系统1400的部件可经由任何类型的公用或专用网(诸如但不限于互联网、电话网、局域网(LAN)、电缆网和/或无线网)传送并交换信息。为了实现经由网络的通信,系统1400的一个或多个部件包括实现到以太网、数字用户线(DSL)、电话线、同轴电缆或任何无线连接等的连接的通信接口。
在某些示例中,信息子系统1420包括本地存档和远程系统。远程系统定期地和/或在触发时经由网络接收本地存档。远程系统可从各种计算设备搜集本地存档(例如,包括来自信息子系统1420、重建引擎1440、诊断引擎1450等的本地存档)以生成远程医学图像存档的数据库。在一些示例中,远程系统包括机器学习算法以分析、关联和/或处理信息,从而基于来自各种临床站点的存档来建立大数据分析。例如,可由远程系统搜集多个图像来训练并测试神经网络以便部署为自动地检测图像中的感兴趣区域(例如,自动轮廓等)。
图15示出了用于患者评估和诊断的示例性改进的医疗系统1500的更详细视图。在图15的示例中,成像设备1410、信息系统1420、采集引擎1430、重建引擎1440和诊断引擎1450被配置有多个深度学习网络1522、1532、1542、系统健康模块1550和系统设计引擎1560。
如图15A的示例中所示,采集引擎1430、重建引擎1440和诊断引擎1450中的每一者与相关联的学习与改进工厂1520、1530、1540通信以进行反馈评估和训练,并且还分别包括部署的深度学习设备1522、1532、1542(例如,CNN、RNN、其他深度神经网络、深度信念网络、递归神经网络、其他机器学习等)以有助于参数选择、配置、数据处理、结局确定等。虽然在图15A的示例中针对引擎1430、1440、1450描绘了设备1522、1532、1542,但设备1522至1542可结合在工厂1520至1540中,如上文针对例如图8A所描述。学习与改进工厂1520、1530、1540实现例如学习、反馈和更新部署的深度学习设备1522、1532、1542的过程。引擎1430、1440、1450向工厂1520至1540中的一者或多者提供反馈以便进行处理并且训练更新的模型以调节设置、调节输出、请求输入等。例如,工厂1520、1530、1540可定期地和/或另外在达到阈值、满足标准等时为设备1522、1532、1542更换和/或重新部署深度学习网络模型。
部署的深度学习网络(DLN)设备1522、1532、1542以及相关联的工厂1520、1530、1540可使用处理器和存储器来实现,该处理器和存储器被特别配置为实现与上述示例性网络100、200、300类似的网络,诸如深度学习卷积神经网络。可通过建立与网络1520、1530、1540的预期用途相关联的已知输入和输出来教导每个工厂1520、1530、1540。例如,采集学习与改进工厂1520负责基于患者信息、检查原因、成像设备1410数据等来改进采集引擎1430的图像采集设置以向成像设备1410提供。重建学习与改进工厂1530负责例如基于采集的图像数据、成像设备1410设置和历史数据来确定图像质量和重建反馈。诊断学习与改进工厂1540负责例如基于患者信息、图像重建信息和分析以及临床知识库来帮助患者诊断。
为每个工厂1520、1530、1540建立用于训练、验证和测试的数据集。训练并验证工厂1520、1530、1540以及其包括的训练网络模型的学习部分是例如可用数据的验证和测试部分的倍数。可以多种方式使工厂1520、1530、1540初始化。例如,如果不存在有关与相应工厂1520、1530、1540相关联的部件1430、1440、1450的先验知识,则工厂1520、1530、1540的训练深度学习网络可通过对除该网络的最后分类器层(其可被初始化为零)之外的所有层使用随机数来初始化。如果存在先验知识,则工厂1520、1530、1540的网络层可通过将先前学习到的值转移到该网络中的节点来初始化。另选地,即使当不存在先验知识时,网络层也可使用堆叠自编码器技术来初始化。
在某些示例中,往和/或返工厂1520、1530和/或1540的反馈被捕获在存储中(例如,被存储和/或缓冲在基于云的存储中等),包括输入数据、实际输出和所需输出。当接收到足量反馈时,对应工厂1520、1530、1540的训练DLN以递增方式进行重新训练或使用附加反馈数据进行新训练(例如,基于初始反馈数据加上附加反馈数据等),具体取决于接收到的反馈数据量。一旦经过(重新)训练,来自工厂1520至1540的网络模型就可用于生成和/或重新部署深度学习设备1522至1542的部署的网络模型。
在某些示例中,自编码器技术诸如在人工神经网络中提供有效编码的无监督学习。可使用自编码器技术学习一组数据的表示或编码。自编码可用于使用编码器和解码器来学习数据的模型和/或其他降维以构建层(包括隐藏层)以及层之间的连接,从而形成神经网络。
例如,自编码器可使用3层神经网络(包括输入层、隐藏层和输出层)来实现。在该示例中,输入层和输出层包括相同数量的节点或单元,但并非所有隐藏层节点都连接到输入层中的所有节点。相反,隐藏层中的每个节点连接到输入层的局部区域中的输入节点。与图3的示例一样,例如,自编码器网络可对图像的部分建模以使用减少数量的参数来检测局部模式和/或特征。示例性自编码器可包括两个部件:1)将输入x映射到隐藏层表示h=f(x)的编码器函数f,以及2)映射h以便为输出层重建x的解码器函数g。使用权重和偏置,自编码器可用于通过隐藏层h生成输入x的新表示。
误差反向传播或后向传播可分批(例如,小批量等)使用,其涉及使用随机梯度下降(SGD)从学习数据集随机选择的数据的预定集合(例如,小集合)以便最小化或以其他方式减小预定成本函数,同时尝试通过自编码器网络中的正则化(例如,丢弃法、非线性之前小批量的批标准化等)来防止培训过度。由于使用的是小批量而非整个训练数据集,该分析应更快收敛。在利用初始量的训练数据来训练工厂1520、1530、1540的DLN(例如,验证数据的倍数等)之后,对训练期间的每批后续数据执行验证并且监测验证误差。例如,在整个过程中跟踪并积累具有最佳验证误差的学习参数以改进未来训练。在验证之后选择提供最小误差的参数(例如,超参数)。另外,如果在预定数量的迭代之后验证误差未改善,则可停止学习迭代。如果验证误差改善,则可继续迭代直到验证误差保持稳定。然后,可例如为工厂1520、1530、1540的DLN选择参数。
超参数表示要在工厂1520、1530、1540中调节的变量。在一些示例中,先为特定学习算法选择超参数,再将该学习算法应用于神经网络。例如,超参数可手动选定和/或由算法确定。在一些示例中,用于选择超参数值的数据(例如,训练数据)不能用于测试工厂1520、1530、1540的DLN。因此,例如,一旦使用训练数据确定超参数值,就使用单独测试数据集来测试网络。
将来自采集引擎1430、重建引擎1440和诊断引擎1450的输出和/或其他反馈提供给系统健康模块1550,以例如基于来自重建引擎1440的图像质量指标、由诊断引擎1450提供的诊断置信评分、和/或深度学习网络1522、1532、1542经由采集引擎1530、重建引擎1440和/或诊断引擎1450生成的其他反馈,来生成系统1500的健康状态的指示。还将采集引擎1430、重建引擎1440和诊断引擎1450提供给系统健康模块1550的输出/反馈提供给学习与改进工厂1520、1530,以基于输出和/或其他反馈来更新其网络模型。因此,可使用来自后一级1530、1540的反馈等更新前一级的学习与改进工厂1520、1530。系统健康模块1550可包括其自身部署的深度学习设备1552和系统学习与改进工厂1555,以便对系统健康状态和一个或多个相关联的度量、一个或多个建议等的确定进行建模和调节。
深度学习网络通过学习模式来识别这些模式。学习包括使用已知的输入和输出来调谐网络的参数。学习的网络可在给定新输入的情况下预测输出。因此,在学习过程期间,网络以一定方式调节参数,使得表示一般输入-输出映射中的映射,因此,它们可以极高的准确性确定输出。
部署的深度学习设备(DDLD)1522、1532、1542的输入和输出可基于DDLD 1522、1532、1542的用途而变化。例如,对于采集DDLD 1522而言,输入和输出可包括患者参数和成像设备1410扫描参数。例如,对于重建DDLD 1532而言,输入和输出可包括投影域数据以及使用计算密集型算法重建的数据。例如,对于诊断DDLD 1542而言,输入可包括二维和/或三维图像,并且输出可包括标记的可视化或放射报告。用于实现DDLD 1522、1532、1542的网络类型可基于一个或多个目标任务而变化。在某些示例中,可通过利用非医学以及医学数据来训练对应采集、重建或诊断学习与改进工厂1520、1530、1540,并且使用经训练的模型来生成DDLD 1522、1532、1542。
例如,重建引擎1440向采集学习与改进工厂1520提供反馈,该采集学习与改进工厂可基于重建引擎1440确定的图像质量和/或其他输出特性来重新部署DDLD 1522和/或以其他方式更新采集引擎1430参数。当由DDLD 1522建模和处理时,采集引擎1430可使用这种反馈来调节其设置。重建引擎1440可也向其自身重建学习与改进工厂1530提供反馈。采集引擎1430可也向其自身采集学习与改进工厂1520提供反馈。
类似地,例如,诊断引擎1450向用于重建引擎1440的学习与改进工厂1530提供反馈,该学习与改进工厂可基于与诊断引擎1450确定的诊断和/或其他输出特性相关联的置信评分来重新部署DDLD 1532和/或以其他方式更新重建引擎1440参数。当由DDLD 1532建模和处理时,重建引擎1440可使用这种反馈来调节其设置。
学习与改进工厂1520、1530、1540中的一者或多者可还从一个或多个人类用户1404接收反馈(例如,基于使用诊断引擎1450的结局来诊断和治疗患者1406等)。通过将反馈链接在一个或多个引擎1430至1450之间,工厂1520至1540d、系统健康模块1550、引擎1430、1440、1450可从成像和诊断过程的当前和/或后续阶段学习并改进。
因此,某些示例结合采集部署的深度学习设备1522、重建部署的深度学习设备1532、诊断部署的深度学习设备1542和系统健康部署的深度学习设备1552来考虑患者的检查原因,以改进系统1500及其部件诸如成像设备1410、信息子系统1420、采集引擎1430、重建引擎1440、诊断引擎1450等的配置和操作。深度学习可用于图像分析、图像质量(例如,清晰度质量、分辨率和/或其他图像质量特征等)等。
学习数据集可作为输入应用于每个学习与改进工厂1520、1530、1540。例如,学习数据集可包括以分配的图像质量度量(例如,1至5量表等)作为输出的图像数据集。系统1500及其部件评估一个或多个度量作为对工厂1520、1530、1540的输出和反馈以实现持续的改进。使对工厂1520、1530、1540、1555以及DDLD 1522、1532、1542、1552的输入和输出自动化有利于持续的系统操作和改进。
在某些示例中,使用来自不同成像模式(MRI、CT、x射线等)的医学图像的3D地形可提供分类、卷积等的变化。可由相应DDLD 1522、1532、1542形成模型。可基于解剖结构、临床应用、患者信息(例如,数据和/或定位扫描等)、患者病史等来调节一个或多个模型。
在某些示例中,每个DDLD 1522、1532、1542确定签名。例如,DDLD 1522、1532、1542为机器(例如,成像设备1410、信息子系统1420等)维修问题、与患者健康状态相关的临床问题、噪声纹理问题、伪影问题等确定一个或多个签名。DDLD 1522、1532、1542可基于输入、学习到的历史模式、患者病史、偏好等来确定指示这些问题之一的签名。
某些示例经由DDLD 1522、1532、1542来提供用于验证和回归测试的度量。输出可还包括来自一个或多个签名分类的一个或多个通知。某些示例提供用于人类视觉检查的图像质量矩阵/度量。某些示例提供用于非人类解释(例如,大数据分析、机器学习等)的图像质量矩阵/度量。
某些示例可提供用于质量控制的输出(例如,提供反映成像扫描的总体质量的数字或值等)。某些示例提供用于重新扫描协助(例如,决定是否有必要进行重新扫描等)的输出。某些示例可用于使方案选择和/或新方案定制自动化(例如,可基于图像质量度量等来计算新方案参数)。
在某些示例中,输出可用于改进硬件系统的开发。例如,如果在医疗系统中识别问题(例如,由硬件等引起的伪影),则下一个迭代可提出修复或减轻该问题的解决方案。在某些示例中,将临床环境添加到DDLD 1522、1532、1542以促进临床决策和支持。
来自DDLD 1522、1532、1542的输出可用于改进算法(诸如用于测量质量的算法)的开发。通过向工厂1520、1530、1540提供反馈,可经由相应工厂1520、1530、1540的DLN对算法的变化进行建模和测试以确定该变化可如何影响输出数据。例如,反馈回路中的变化捕获和建模可与采集的图像数据的非线性迭代重建一起使用。
某些示例促进经由系统1500的自动化诊断来监测和调节机器健康状态。可基于深度学习输出信息来作出服务决策(例如,机器可在其自身上运行的自动化服务、人工修复请求等)。可提供基于机器的决策支持,并且可调查并调节指示问题的一个或多个机器特定的签名。
某些示例可基于来自信息子系统1420的患者信息输入与来自采集引擎1430、重建引擎1440和诊断引擎1450及其DDLD 522、1532、1542的输出的组合来外推有关患者的附加信息。在某些示例中,基于患者病史、医疗问题、过往数据集等,DDLD 1522可有助于确定哪些采集设置对于采集图像数据集最佳,并且DDLD 1532可有助于确定什么方案是提供图像数据集输出的最佳选择。例如,DDLD 1522可搜集诸如扫描期间移动、其身体如何处理造影剂、扫描定时、感知剂量等患者行为作为输入,例如以确定图像设备1410采集设置。
某些示例提供端对端图像采集与分析系统,包括将多个DDLD 1522、1532、1542链接在一起的改进的基础设施。例如,处理由成像设备1410和采集引擎1430采集的原始数据,并且将该原始数据提供给重建引擎1440以产生以下图像中的一者或两者:a)向诊断决策支持引擎1450提供的机器可读的图像,以及b)显示以供用户诊断的人类可查看的图像。为采集、重建和诊断提供不同DLN,并且每个DDLD 1522、1532、1542具有不同输入、不同处理和不同输出。
因此,示例性系统1500使用互连的DDLD 1522、1532、1542和对应引擎1430、1440来创建一个或多个图像,并且经由诊断引擎1450和DDLD 1542将一个或多个图像与决策支持联系起来以便进行诊断。实时(或基本上实时(考虑到有处理和传输延迟))反馈(例如,学习与改进工厂1520、1530、1540与引擎1430、1440、1450之间的前馈和反馈)回路在示例性系统1500中采集与重建之间以及诊断与重建之间形成,例如以便持续改进采集引擎1430、重建引擎1440和诊断引擎1450的设置和操作(例如,直接改进和/或通过基于更新/重新训练的DLN等更换/更新DDLD1522、1532、1542来改进)。当系统1500从其部件的操作学习时,系统1500可改进其功能。用户1404可还(例如向工厂1520、1530、1540等)提供离线反馈。因此,每个工厂1520、1530、1540例如基于系统1500输入和用户输入以及与患者1406相关联的个性化变量以不同方式学习。
在某些示例中,诊断引擎1450与DDLD 1542一起操作,该DDLD使用可充分表示诊断引擎1450将遇到的预期数据中的变异性的足够大的数据集来训练、验证并测试。例如,诊断学习与改进工厂1540可用于在诊断引擎1450和/或重建引擎1440向其提供更多输入时改善其输出。例如,然后工厂1540可更换DDLD 1542的部署的DLN。
诊断引擎1450基于来自群体患者的大数据(例如,从信息子系统1420检索)来识别一个或多个图像中的一个或多个模式以向用户1404建议患者1406的诊断。例如,示例性诊断引擎1450突出显示用户1404关注的一个或多个区域,并且可基于大数据分析来预测一个或多个未来感兴趣区域。即使以次优方式呈现图像,诊断引擎1450也可提供患者依赖性答案,而非依赖于该特定成像扫描的确定答案。诊断引擎1450可分析图像并且识别用户1404基于采集、重建、分析等中使用的设置可能无法发现的一个或多个故障点。输出可自动地触发另一个系统/设备和/或可作为建议呈现给用户1404。例如,可将从系统1500输出的数据提供给基于云的系统。可将输出提供给系统健康模块1550的系统学习与改进工厂1555,使得系统健康模块1550学习何时应采取动作来保持或改善系统1500的健康状态。
系统健康模块1550从多个部件1430、1440、1450接收输入,并且处理该输入以确定是否应对系统1500进行改变。基于暴露于影响采集引擎1430、重建引擎1440、诊断引擎1450等的问题并从这些问题学习,系统健康模块1550向采集引擎1430提供输出以修改成像设备1410和/或其他系统部件的行为。系统健康模块1550还为系统设计引擎1560提供输出,该系统设计引擎例如使用识别的难题/问题来修改成像设备1410和/或系统1400、1500部件的设计。
图15B示出了示例性系统实施方式1501,其中采集引擎1430、重建引擎1440和诊断引擎1450伴随数据质量评估引擎1570、图像质量评估引擎1572和诊断评估引擎1574。在图15B的配置1501中,每个引擎1430、1440、1450从相关联的评估引擎1570、1572、1574接收直接反馈。在某些示例中,采集引擎1430、重建引擎1440和/或诊断引擎1450接收反馈,而不必更新其相关联的部署的深度学习模块1522、1532、1542。另选地或除此之外,数据质量评估引擎1570、图像质量评估引擎1572和诊断评估引擎1574向引擎1430至1450提供反馈。虽然为了简单起见而在图15B的示例中描绘了直接连接,但应当理解,基于深度学习的反馈模块1570至1574中的每一者例如具有相关联的训练图像数据库(包括不同类别的示例性条件)、相关联的学习与改进工厂模块、编排模块、以及用于相关联的参数更新和重新启动的触发器。
因此,采集引擎1430可例如从数据质量评估引擎(DQ-AE)1570、图像质量评估引擎(IQ-AE)1572和/或诊断评估引擎(Diag-AE)1574接收反馈。重建引擎1440可例如从IQ-AE1572和/或Diag-AE 1574接收反馈。诊断引擎1450可例如从Diag-AE 1574接收反馈。
图16示出了用于改进的图像采集、处理和患者诊断的示例性方法1600的流程图。在方框1602处,将个性化患者特性输入到采集引擎1430中。例如,临床医生可将个性化患者特性输入到采集引擎1430中。另选地或除此之外,可经由信息子系统1420为待成像的识别的患者提供个性化患者特性。在方框1604处,采集引擎1430例如基于输入个性化患者特性以及从DDLD 1522提取的学习信息来建议一个或多个成像设备1410设置。
因此,使用患者1406特有的信息以及DDLD 1522学习到的信息,可确定成像设备1410的图像采集的改进设置。在方框1606处,由成像设备1410获得患者1406的一个或多个图像。根据由采集引擎1430提供的设置来获得这些图像。这些设置可由采集引擎1430在成像设备1410处自动地配置,和/或由用户1404(例如,临床医生、放射科医生、技术员等)手动输入/重写。
在方框1608处,重建引擎1440从采集引擎1430接收原始图像数据并且处理该图像数据以分配一个或多个图像质量度量。图像质量(IQ)度量可为综合图像质量指标(IQI)和/或与图像质量的各方面有关的一个或多个特定度量。例如,特定图像质量度量包括空间分辨率、噪声等。在上述方框840处,可收集并存储由重建引擎1440生成的反馈。因此,可将系统1500从采集的图像数据的重建中学到的经验反馈到采集学习与改进工厂1520中以便进一步改善成像设备1410设置。在对图像数据执行图像质量分析之后,重建引擎1440处理图像数据以重建供进一步检查和分析之用的图像。可处理所得的一个或多个图像以用于图像的自动化机器分析(诸如计算机辅助诊断(CAD))或供人类查看。
来自重建DDLD 1532的配置设置用于确定是否要处理采集的图像数据以用于机器分析和/或供人类查看。在方框1612处,重建图像以供人类检查所得图像的显示。在方框1614处,处理图像数据以产生适用于图像的机器评估和分析的图像。利用机器可分析的图像时,例如,图像的特征可针对计算机检测进行优化,但不需要用户(诸如放射科医生)在视觉上可感知。然而,对于人类可查看的图像而言,为了使重建可用,图像解剖结构的特征应当可由人类观察者检测到。
在方框1616处,如果已重建人类可查看的图像,则重建代理1440向诊断引擎1450提供图像,该诊断引擎向用户1404显示图像。在方框1618处,已生成机器可分析的图像,然后重建引擎1440向诊断引擎1450提供机器可读的图像,该诊断引擎进行自动化处理并且基于来自诊断引擎1450的图像数据来建议诊断。
在方框840处,从诊断引擎450提供与人类可查看的图像和/或机器建议的诊断有关的反馈。在方框1624处,基于用户1404对图像的人类查看和/或诊断引擎1450对图像的自动化处理(单独考虑或与来自DDLD 1542和/或信息子系统1420的数据结合考虑)来作出患者1406的诊断。
例如,可将该诊断提供给用户1404、患者1406,和/或路由到另一个系统。例如,在方框840处,从诊断引擎1450和/或用户1404提供反馈。还可向系统设计引擎1560提供反馈。可向系统健康模块1560提供来自用户1404、诊断引擎1450、重建引擎440、采集引擎1430和/或其他系统1500部件的反馈以计算系统1500健康状态的指示。
图17示出了信息1700在系统1500的各部件之间流动时的示例性数据流和变换。如图17的示例中所示,成像设备1410向采集引擎1430提供第一数据1702。信息子系统1420向采集引擎1430提供第二数据1704。采集引擎1430将包括第一数据1702和/或第二数据1704的第三数据1706发送到采集DDLD 1522。采集DDLD 1522将第三数据1706变换为第四数据1708,并且将第四数据1708发送回采集引擎1430。采集引擎1430将第四数据1708发送到成像设备1410。采集引擎1430将第五数据1710发送到重建引擎1440。
重建引擎1440将包括第五数据1710的第六数据1712发送到重建DDLD 1532。DDLD1532将第六数据1012变换为第七数据1714,并且将第七数据1714发送回重建引擎1440。重建引擎1440将第七数据1714发送到采集引擎1430。重建引擎1440将第八数据1716发送到诊断引擎1450。
诊断引擎1450将包括第八数据1716的第九数据1718发送到诊断DDLD 1542。DDLD1542将第九数据1718变换为第十数据1720,并且将第十数据1720发送回诊断引擎1450。诊断引擎1450将第十数据1720发送到重建引擎1440。
因此,某些示例将患者信息、检查原因和患者图像数据变换为诊断和其他医疗相关信息。例如,使用机器学习(诸如深度学习网络等),通过成像、信息和分析设备的操作,可建立、监测并改善多个参数、设置等。使用深度学习网络,例如,可在部署成像系统(例如,在内部或测试环境中)之前促进学习/训练和测试,同时例如在已部署系统并激活系统以便使用之后“在现场”进行参数的持续调节。
某些示例提供内核处理能力,该内核处理能力被组织成可部署在多种位置中的单元或模块。可利用设备外处理来提供微云、迷你云和/或全球云等。例如,微云提供与成像设备控制台的一对一配置,其针对没有云连接等的客户的超低延时处理(例如,描边等)。迷你云部署在客户网络等上,其针对例如更喜欢将其数据保持在内部的客户的低延时处理。全球云部署在整个客户组织中以便实现操作优异的信息技术基础设施的高性能计算和管理。
例如,使用一个或多个设备外处理引擎(例如,采集引擎1430、重建引擎1440、诊断引擎1450等及其相关联的部署的深度学习网络设备1522、1532和/或1542等),可确定采集设置并将采集设置发送到成像设备1410。例如,检查目的、电子医疗记录信息、心率和/或心率变异性、血压、体重、俯卧/仰卧、头先进或脚先进的视觉评估等可用于确定一个或多个采集设置,诸如默认视场(DFOV)、中心、间距、取向、造影剂注射速率、造影剂注射定时、电压、电流等,从而提供“一键式”成像设备。类似地,例如,核信息、层厚、层距等可用于确定一个或多个重建参数,包括图像质量反馈。可向系统设计引擎1560提供采集反馈、重建反馈等以提供成像设备1410的实时(或基本上实时(考虑到有处理和/或传输延迟)健康分析,如由一个或多个数字模型(例如,深度学习模型、机器模型、数字孪生等)表示。一个或多个数字模型可用于实时(或基本上实时(考虑到有处理和/或传输延迟)预测成像设备1410的部件健康状态。
可使用具有相关联的结局结果的管护的数据来训练每个深度学习网络。例如,可使用有关卒中的数据(例如,从发作到治疗后90天的数据等)来训练神经网络以推出预测性卒中结局。因此,可识别操作、临床、治疗和疗法“生物标志物”以实现最佳和/或其他改善的结局。类似地,可通过深度学习网络来分析肺癌数据,该深度学习网络包括一个或多个成像设备1410(包括CT、PET/CT、核医学等)的筛查、诊断、治疗计划、治疗反应、最终结局等的科室间跟踪。
对于图像采集而言,在给定一个或多个已知输入和一个或多个已知输出的情况下,可自动地确定采集设置以训练采集学习与改进工厂1520得出可预测输出以生成部署的DDLD 1522。当成像设备1410的设置的输出达到可靠性阈值时,采集引擎1430可被认证为提供成像设备1410的采集设置(例如,被集成在成像设备1410中和/或作为与成像设备1410通信的单独设备等)。可在不经过进一步客户训练或测试的情况下使用并修改设置。因此,用户可获得高质量图像采集并且避免一组不良或低于标准的图像采集。可训练采集设置和相关联的DDLD 1522以仅响应于良好质量图像采集,并且DDLD 1522可在获得不良质量图像时建议设置调节。因此,从用户角度来看,按下一个按钮就能一致地采集快速图像检查。联合使用检查目的与患者参数、所需输出的DICOM标头及从现有医学检查获得的与成功和/或不成功数据集的成像设备1410参数相对应的所需输出的指示,DDLD 1522可识别良好图像质量并且建议对应设置作为默认设置,以及当用户在将成像设备1410配置用于图像采集过程中出错时,建议设置以从该错误恢复。例如,随时间推移,采集学习与改进工厂1520可基于学习到的成功和失败来进化和改进,以重新训练和重新部署改进的DDLD 1522,从而推动到采集引擎1430。
在某些示例中,可捕获并管理基于云的方案以使方案和/或规则的选择自动化,从而可经由云提供最佳实践。
还可从图像重建获得质量反馈。例如,在没有人类检查的情况下,可由DDLD 1532识别良好或不良图像并且将该图像与一个或多个图像质量度量和/或指标相关联。例如,这种图像质量指数(IQI)和/或其他度量可由重建引擎1440使用DDLD 1532生成,并且用于在有或没有人类检查的情况下作出医疗决策。所生成的指数/度量可用于告知DDLD 1532和/或用户1404成像设备1410采集的是良好还是不良质量图像以及处于什么条件等。
在深度学习过程中,测试可在一定程度上自动地对已知案例评估图像质量。例如,可将基于与成像设备1410设置相比的图像质量分析的反馈提供给系统设计引擎1560以促进进一步的成像设备1410开发。例如,使用系统设计引擎1560和学习与改进工厂1520和/或1530,可检测图像质量的下降并将其用于评估系统健康状态1550,包括成像设备1410的健康状态。虽然人类用户1404可能无法检测质量的逐渐降低,但深度学习可以为早期检测提供客观的无偏评估。
在某些示例中,可以以与图像质量指标类似的方式计算诊断指数或可检测性指数。诊断指数可以是用户1404在什么条件下可在给定一组数据时作出诊断的量度。DDLD1542和相关联的诊断学习与改进工厂1540分析当前和历史数据以及来自其他部件的系统1500参数以提供用户1404、患者1406、病症类型、患者类型、检查类型等的一致指示。例如,一旦工厂1540的训练DLN经过训练,就可将该模型部署到DDLD 1542,并且可将诊断数据与图像质量进行比较。例如,可将反馈提供给重建引擎1440、采集引擎1430、相关联的学习与改进工厂1520、1530和/或用户1404,以提供图像质量的进一步指示和/或用于采集的成像设备1410设置的对应变化。
在一些示例中,作为患者诊断的数字指示的替代或补充,可提供整体分析/显示。使用整体分析,可提供视觉指示(诸如热图、偏差图等)以使患者1406如何符合或不符合特定疾病或病症的趋势、特性、指标等可视化。在某些示例中,当工厂1540在其诊断学习方面改进时,视觉表示可改进。联合使用整体方法与诊断引擎1450及其DDLD 1542,处理来自多个来源的数据并将该数据变换为人类可在其中识别模式的形式。使用深度学习,DDLD 1542可处理该数据的数以千计的视图,而人类用户1404可能仅能够合理处理十张视图,注意力就会不集中。
DDLD 1542的深度学习过程可识别一个或多个模式(并潜在地实现经由诊断引擎1450显示识别的模式的指示),而无需人类用户1404手动检测并理解(例如,查看)该模式。可由DDLD 1542促进多元分析和模式识别,而人类用户1404可能难以做到。例如,DDLD 1542和诊断引擎1540可能能够识别人类无法理解的不同模式,和/或人类可理解但掩埋在太多可能性之中而使人类不能合理检查和分析的模式。例如,DDLD 1542和诊断引擎1450可与人类检查联合提供反馈。
在某些示例中,整体分析馈入由用户1404单独或结合诊断引擎1450作出的诊断。例如,诊断引擎1450及其DDLD 1542可用于为人类决策提供第二意见作为法律规定的/医用的策略。在某些示例中,诊断引擎1450可与DDLD 1542协作以提供自动化诊断。
示例性分析框架
在某些示例中,可使用示例性系统1400、1500(包括采集引擎1430、重建引擎1440和诊断引擎1450以及其相关联的DDLD 1520至150和学习与改进工厂1520至1540)为图像采集、图像重建、图像分析和患者诊断提供医疗分析框架1800。如图18的示例中所示,可向基于物理的设备比较1810提供诸如成像设备1410参数、重建引擎1440参数等输入。例如,可由DDLD 1522和/或其他机器学习网络促进设备比较1810。设备比较1810使用该输入将成像设备1410与来自相同和/或不同供应商的相同和/或不同类型的其他成像设备进行比较。深度学习和/或其他机器学习技术可用于学习并帮助基于设备1410特性、图像采集参数、重建设置等来形成比较。例如,DDLD 1522和/或1532可用于设备比较1810以形成成像设备1410与其他成像扫描仪的简档和/或其他比较。
将设备1410比较信息提供给数据评估规范1820。例如,数据评估规范1820也可由DDLD 1522和/或1532和/或单独处理器实现。数据评估规范1820处理来自重建引擎1440的重建图像1822以及来自采集引擎1430和成像设备1410的原始图像数据1824的变换。诸如深度学习、字典学习(例如,由其他图像构建字典并且将字典定义应用于当前图像等)等机器学习方法可应用于重建和/或原始图像数据以定义图像属性和/或基于任务的图像质量评估度量1826。可使用深度学习和/或其他机器学习技术直接从图像和原始图像数据(例如,具有感兴趣区域,不使用特定体模和/或调制传递函数(MTF)等)提取图像质量信息(例如,噪声、分辨率等)。另外,可使用深度学习和/或其他机器学习从该数据提取一个或多个基于任务的度量(例如,可检测性等)。一个或多个属性和度量1826根据基于设备的比较来形成数据评估的规范。
在某些示例中,可形成模型。数据评估规范1820构建传递函数1828以对数据评估规范1820的输入和输出进行数学表示或建模。传递函数1828有助于生成图像属性和/或基于任务的图像质量评估度量1826并对其建模。在某些示例中,可基于诸如计算结节体积、直接估计一个或多个图像的变异来源等分析来对变异建模,并且建模的变异可用于使重建的图像标准化并改进分析。
基于模型和传递函数1828提供图像数据的分析和修改,结局处理器1830确定一个或多个临床结局。例如,可向结局处理器1830提供信息以(例如,经由诊断引擎1450)促进临床结局的用户确定。另选地或除此之外,结局处理器1830可生成临床结局的机器确定(例如,使用诊断引擎1450和DDLD 1542与图像分析)。
因此,例如,传统上已联合使用一个或多个体模(例如,线、边缘等)与MTF来测量图像分辨率质量。然而,许多放射科医生通过观察临床图像可以判断该图像具有更低分辨率。例如,深度学习和/或其他机器网络通过反复暴露和分析来学习模拟该观察结果。例如,联合使用来自设备比较1810的信息与重建的图像1822、标准化变换1824等,数据评估规范1820可使重建引擎1440及其DDLD 1532例如能够计算图像属性并重新校准变换以与诊断引擎1450及其DDLD 1542协作,从而向临床医生提供分析并且相对于例如由DDLD 1542定义和/或学习的范围、阈值等识别图像的可接受或不可接受分辨率。例如,如果分辨率可接受,则可经由学习与改进工厂1520更新DDLD 1522,并且调节采集引擎1430设置。
图像采集示例
图19示出了使用成像设备1410和图像采集引擎1430进行图像采集的示例性方法1900的流程图。在方框1902处,将个性化患者变量输入到采集引擎1430。个性化患者变量可包括患者身高、患者体重、成像类型、检查原因、患者健康史等。例如,临床医生可将个性化患者特性输入到采集引擎1430中。另选地或除此之外,可经由信息子系统1420为待成像的识别的患者提供个性化患者特性。
在方框1904处,采集部署的深度学习网络设备1522分析对采集引擎1430的输入。例如,DDLD 1522处理患者参数、先验成像设备1410扫描参数等以生成用于图像采集的成像设备1410设置。使用CNN、RNN、自编码器网络和/或其他深度/机器学习网络,DLN 520利用先前的采集并与当前成像设备1410设置、患者信息、检查原因、患者病史和人群健康信息等相比较以生成预测输出。可探索设置、事件和结果之间的关系以基于检查类型和患者类型、成像设备1410设计的变化等确定适当的成像设备1410设置、理想或优选的采集设置。设置可包括保证足够(相对于较差质量和/或相对于高质量等)图像质量等的强度或辐射剂量设置。设置可包括采集类型、持续时间、角度、扫描数量、位置等。
在方框1906处,采集引擎1430例如基于输入个性化患者特性以及从DDLD 1522提取的学习信息来建议一个或多个成像设备1410设置。如上所述,可将来自DDLD 1522的输出组织为成像设备1410的一个或多个参数或配置设置以获得患者1406的图像。因此,使用患者1406特有的信息以及部署的深度学习网络设备1522学习到的信息,可确定成像设备1410的图像采集的改进设置。基于检查原因、特定患者信息和现有成像设备1410设置,采集DDLD1522可生成建议的设置以便采集引擎1430用来经由成像设备1410从患者1406获得图像数据。例如,这些设置可由采集引擎1430自动地应用于成像设备1410,和/或由用户1404手动地输入/重写。
在方框1908处,由成像设备1410获得患者1406的一个或多个图像。根据由采集引擎1430提供的设置来获得这些图像。例如,这些设置可由采集引擎1430在成像设备1410处自动地配置,和/或由用户1404(例如,临床医生、放射科医生、技术员等)手动输入/重写。
在方框1910处,将采集的图像数据发送到重建引擎1440(例如,以便重建为人类可查看的图像和/或进行机器处理等)。重建引擎1440(使用DDLD 1532)可将图像质量(IQ)度量生成为综合图像质量指标(IQI)和/或与采集的原始图像数据相关联的图像质量的各方面有关的一个或多个特定度量。例如,特定图像质量度量包括空间分辨率、噪声等。
在方框1912处,将来自重建引擎1440的反馈提供给采集学习与改进工厂1520以改进用于成像设备1410设置生成和建议的DDLD 520(例如,生成新DDLD 1522以便用采集引擎1430部署)。因此,可将系统1500从采集的图像数据的重建中学到的经验反馈到采集学习与改进工厂1520(和/或图像质量评估引擎1572等)中以便进一步改善网络操作并最终改进成像设备1410设置。该反馈确保(经由工厂1520)对DDLD 1522进行持续改进,因此,对向用于各种患者1406的图像采集的成像设备1410提供的设置进行持续改进。
在方框1914处,如果未显示图像,则未获得附加反馈。然而,如果显示了图像,则在方框1916处,向采集学习与改进工厂1520提供附加反馈。例如,重建DDLD 1532、诊断引擎1450、诊断DDLD 1542、用户1404等中的一者或多者可向采集学习与改进工厂1520(和/或图像质量评估引擎1572等)提供进一步的反馈以改进其学习和数据处理。例如,可提供有关所使用的核、降躁设置、层厚、层距等的反馈。
在某些示例中,采集引擎1430和相关联的DDLD 1522可被实现为设备,该设备可连接到成像设备1410以将成像设备1410的操作配置用于图像采集。采集配置设备可由技术员或现场安装器(销售给客户让其自行操作该设备)等使用。
图20示出了示例性图像采集配置系统2000,其包括训练学习设备2010以及与成像系统1401通信的图像采集配置设备2020。图像采集配置设备2020包括处理器2030和存储器2040。设备2020的处理器2030实例化部署的深度学习设备2050。
在某些示例中,图像采集配置设备2020最初使用第一组成像系统配置参数来配置,该第一组成像系统配置参数通过使用训练学习设备2010训练并测试一组先前参数而确定。设备2020还包括待使用训练学习设备2010来生成的其自身部署的学习设备2050以便帮助图像采集配置设备基于系统操作、患者输入等来确定配置参数。设备2050与配置设备2020一起操作,同时训练设备2010接收反馈并继续进化。当满足一定标准(例如,收集的反馈的阈值、设备2050结局与建模的设备2010结局之间的偏差容限等)时,训练设备2010可重新部署部署的学习设备2050。例如,设备2010、2050可诸如上述那样实现。
一旦设备2010的网络已经过训练(例如,达到与患者类型、检查类型、图像采集类型、图像质量阈值等的成像设备1410配置参数相关联的可靠性阈值),就可使用训练学习设备2010来部署设备2020及其初始参数。直到配置设备2020生成成像设备1410的相关可靠设置建议,训练设备2010才会继续提供建议和调节并且结合有关低效率、不准确性等的反馈以继续学习并改善对给定检查目的、患者类型、病症类型、剂量、安全阈值、操作条件等的参数选择,并且重新部署部署的学习设备2050。
一旦学习设备2050已被部署,并且配置设备2020已被验证为具有足够的可靠性和质量,就可放行图像采集配置设备2020以便在客户地点处部署和安装(例如,以供与成像设备1410制造商相关联的技术员使用,供客户直接使用等)。设备2020可被部署为(例如,通过电线、电缆、连接器等)物理连接或“插入”到成像设备1410。另选地或除此之外,图像采集配置设备2020可(例如,经由BluetoothTM、低功耗蓝牙(BLETM)、近场通信(NFC)、Wi-FiTM等)与成像设备1410无线地通信以将设置传输到成像设备1410并且从成像设备1410接收反馈。训练学习设备2010例如在设备1410、2020的操作期间使用反馈继续学习、修改并改进设置建议。设备2020还可与重建引擎1440和/或其他图像处理工作站通信以获得对成像设备1410的图像数据采集所产生的图像的图像质量反馈。例如,训练设备2010也使用该反馈来进一步训练以响应于良好质量并且对不良质量图像采集提出建议。
图21示出了训练并部署图像采集配置设备2020的示例性方法2100的流程图。在方框2102处,使用训练设备2010来训练图像采集配置设备2020。例如,可首先使用训练学习设备2010基于设备2010对参数的一个或多个参考集进行训练和测试来训练设备2020以及其初始配置设置。
在方框2104处,继续训练直到训练学习设备2010的输出满足阈值(例如,与来自参考数据的已知响应相比较)。例如,良好参考数据和不良参考数据均可用于训练设备2010以识别可用结局和不可用结局。直到训练设备2010达到与患者类型、检查类型、图像采集类型、图像质量阈值等的成像设备1410配置参数相关联的可靠性阈值,训练设备2010才会继续训练并结合有关低效率、不准确性等的反馈以继续学习并改善对给定检查目的、患者类型、病症类型、剂量、安全阈值、操作条件等的参数选择。
一旦训练设备2010已经过训练并被验证为具有足够的可靠性和质量,则在方框2106处,生成部署的学习设备2050。例如,训练设备2010的经训练的网络用于生成部署的学习设备2050的部署网络模型。
在方框2108处,可放行图像采集配置设备2020以便在客户地点处部署(例如,以供与成像设备1制造商相关联的技术员使用,供客户直接使用等)。设备2020可被部署为(例如,通过电线、电缆、连接器等)物理连接或“插入”到成像设备1410。另选地或除此之外,图像采集配置设备1120可(例如,经由BluetoothTM、低功耗蓝牙(BLETM)、近场通信(NFC)、Wi-FiTM等)与成像设备1410无线地通信以将设置传输到成像设备1410并且从成像设备1410接收反馈。
在方框2110处,图像采集配置设备2020可生成成像设备1410的配置参数以获得患者1406的一个或多个图像。基于患者1406、先验患者信息(例如,患者病史、来自信息子系统1420的家族史、二维和/或三维定位扫描等)、检查原因和/或检查类型等,配置设备2020的部署的网络2050生成配置参数以将成像设备1410配置用于患者1406的图像采集。
在方框2112处,由配置设备2020输出配置参数。配置设备2020可向成像设备1410提供这些参数以将成像设备1410自动地配置用于图像采集(同时例如操作员进行重写和/或调节)。配置设备2020还可向操作员提供这些参数以用于设置图像采集用的成像设备1410。
在方框2114处,由图像采集配置设备2020从成像设备1410接收反馈。例如,可在成像设备1410的图像采集期间和/或之后经由有线和/或无线连接来接收该反馈。在某些示例中,还可向采集配置设备2020和/或训练设备2010提供与采集的图像数据的重建和/或其他处理有关的反馈以改进DDLD 2050的用于参数生成的操作。例如,可由训练设备2010处理图像质量的指示(例如,太低、足够、太高等)以生成要部署在设备2050中的新深度学习网络,从而改进配置设备2020对成像设备1410设置的确定。在方框840处,如上所述那样收集并存储反馈以便进行处理。训练设备2010例如在设备1410、2020的操作期间使用反馈继续学习、修改并改进设置建议。例如,该反馈可用于进一步训练以响应于良好质量并且对不良质量图像采集提出建议。
因此,图像采集配置设备2020用作客户和/或供应商可连同成像设备1410一起提供的黑盒,以在最少用户交互的情况下配置并改进成像设备1410的操作。客户可在使用成像设备1410部署设备2020之前使用并微调设备2020,但不必训练并测试设备2020。普通用户可使用配置设备2020及其部署的学习设备2050获得高质量(或足以用于读取的诊断质量等)图像采集,同时避免来自成像设备1410的一组不良质量或不可接受的图像采集。
在某些示例中,可促进图像采集用的单次按钮操作,其中用户1404按下该按钮或以其他方式选择选项并且配置设备2020执行其余操作以配置并激活成像设备1410。例如,设备2020生成DICOM标头信息以便与患者信息一起提供给用于图像采集的成像设备1410。所得图像可与包括诸如患者病史、血压等数据的DICOM标头相关联。可包括与先前图像、先前诊断、来自一个或多个其他模式的信息等有关的信息。
部署的学习设备2050经过训练以响应于良好(或足够)质量图像,并且在获得不良(或不足)质量图像时向用户1404提供建议。设备2050识别良好图像质量并且建议在特定情况下获得良好质量图像所使用的设置作为该特定情况的默认设置。当(例如通过不良设置、用户错误等)获得不良质量图像时,设备2050可建议如何从该错误中恢复,诸如通过建议为纠正该错误而可改变的不同设置。输入参数包括默认视场(DFOV)、中心、电压(kV)、电流(mA)、间距、取向、注射速率、注射定时等。并非采集定位图像来识别界标并使用这些设置,而是通过部署的设备2050的深度学习可促进扫描范围、视场和/或其他设置的一键式确定,并且操作员可例如修改或批准并激活图像采集。
例如,对于肝研究而言,存在扫描患者的不同方式。通过提供症状、嘱咐做该研究的原因、血液检测结果等,而不是纯粹的操作员选择、血液检测等,部署的学习设备2050可确定如何扫描患者1406,使用或不使用造影剂注射(例如,速度多快、浓度、总注射体积等),使用或不使用双能量等。可针对诸如CT、MICT、SPECT、PET等多个成像模式(它们遵循不同输入得出不同输出的相同过程)来评估并配置设置。可使用配置设备2020支持并改进心脏成像、神经灌注、肺癌筛查、治疗反应等。
例如,如果安排患者1406接受对比度增强肝检查,则具有正常心脏大小、体格和肝功能的患者使用一定造影剂设置,但如果患者的心脏功能较弱(例如,受损),则可将更慢的团注(例如,更慢的注射速率)且更久稀释的造影剂与成像设备1410一起配置以帮助确保在患者的特定部位中提供造影剂。若配置设备2020未提供更准确的配置设置,可获得患者的九百多张视图。然而,例如,通过利用先验学习,诊断可仅涉及六十张视图。在某些示例中,与系统健康模块1550和系统设计引擎1560协作时,如果系统不能以最佳性能操作,则可调节采集和/或重建以获得诊断图像质量,即使成像设备1410不能正常操作。在某些示例中,可(例如,定期地和/或基于诸如结果、数据类型、检查类型等事件触发器)扰动训练学习设备2010以迫使设备2010重新评估其节点、连接、权重等。
在某些示例中,往和/或返设备2020的反馈被捕获在存储中(例如,被存储和/或缓冲在基于云的存储中等),包括输入数据、实际输出和所需输出。当接收到足量反馈时,设备1120的训练学习网络2010以递增方式进行重新训练或使用附加反馈数据进行新训练(例如,基于初始反馈数据加上附加反馈数据等),具体取决于接收到的反馈数据量。因此,训练网络2010可随时间推移而了解用户和/或站点对成像设备1410等的偏好,并且通过重新部署部署的学习设备2050来对设置、警报、建议方案等的这些偏好作出反应。
图像重建示例
如上所述,可重建和/或以其他方式处理采集的图像数据以供机器处理和/或供人类查看。然而,除非图像数据具有足够用于预期机器处理和/或人类读取的质量,否则成像设备1410的图像采集不成功且对患者1406无益处。
图像质量是医学成像的重要参数。以前,医学成像业界已广泛使用诸如空间分辨率、时间分辨率和低对比可检测性的传统成像测量度量来比较不同成像设备(诸如x射线CT)的性能。最近,已在重新定义可与基于任务的结果的性能更密切联系起来的图像质量度量方面做出重大努力。然而,这些努力只取得了有限的成功,因为有许多影响图像质量的因素,诸如复杂解剖结构、对象依赖性空间分辨率、剂量依赖性空间分辨率、图像纹理、应用依赖性、噪声和模式、人类视觉系统、图像伪影、解剖结构依赖性时间分辨率、对象依赖性低对比可检测性(LCD)、剂量依赖性LCD等。
在某些示例中,迭代重建使许多测量度量呈非线性且较难预测。例如,迭代重建的图像的调制传递函数(MTF)既是对象造影依赖性的,也是剂量依赖性的。因此,例如,为整个CT系统引用单一组MTF数值不再充分。必须指示获得MTF的测试条件。这将数值变换为复合多维变量。
人类视觉系统使该问题变得更加复杂。图像“质量”的判定可因观察者不同而变化。例如,每个放射科医生基于过往经验对图像的外观都有着个人的偏好。一些放射科医生更喜欢较粗糙的噪声纹理,而其他放射科医生更喜欢较精细的纹理。通常,放射科医生将图像中的噪声存在与图像中的结构的“锐度”联系起来。另外,当前不能在数学上定义图像纹理。例如,许多尝试(诸如噪声功率谱(NPS)的引入)都无法区分噪声纹理中的细微差别。
考虑到问题的复杂性,某些示例提供了基于深度学习和/或其他机器学习来建立图像质量度量的系统和方法。仅仅为了举例说明的目的,该方法聚焦于x射线CT成像分析和质量度量。然而,应当理解,这种技术可广泛适用于其他成像模式,诸如MR、PET、SPECT、x射线、超声等。
对于x射线CT而言,图像质量指数(IQI)包括诸如剂量的多个因素,并且可受诸如x射线通量水平的环境因素的影响。一般来讲,更高的x射线剂量产生更好的图像质量。然而,由于CT使用电离辐射,因此对患者健康状态会有有害影响,并且较高的辐射暴露水平与增加的患癌概率有关。因此,希望建立随向患者提供的剂量而变化的IQI,诸如图22的坐标图中示出。应当注意,IQI与剂量的关系可为临床应用依赖性的。例如,40至50毫戈瑞(mGy)辐射用于产生良好的非增强头部图像,而8至10mGy用于生成良好的腹部和骨盆图像。
在某些示例中,IQI基于人类消费用的5点量表。在其他示例中,按照图像分类的概率值变化生成图像质量以用于计算机分析。例如,在1至5的量表上,3指示图像可诊断(例如,具有诊断质量),5指示完美图像(例如,可能在过高的剂量下得出),并且1指示图像数据不可用于诊断。因此,优选评分为3至4。DDLD 1532可基于通过模拟放射科医生行为而采集的图像数据以及1至5量表来生成IQI。DDLD 1532可使用图像数据属性来分析图像、确定特征(例如,小病灶)并且评估图像数据中的每个特征的诊断质量。如果IQI较低(例如,1、2等),则DDLD 1532可提供如何在采集DDLD 1522处改进图像质量的建议。如果IQI令人满意(例如,3、4等),则可建议用户1404(例如,放射科医生等)读取该图像。在某些示例中,学习与改进工厂1530可随时间推移而了解特定用户和/或站点图像质量偏好。例如,S医生通常喜欢查看IQI为4的图像。通过对此进行学习,学习与改进工厂1530和/或图像质量评估引擎1572可提出实现IQI为4的扫描方案,或触发该方案将不能实现S医生的IQI偏好的警告。因此,重建学习与改进工厂1530和/或图像质量评估引擎1572可促进基于IQI确定的自学习方案(例如,工厂1530了解到用户更喜欢方案X以达到IQI为Y等)。
在某些示例中,重建DDLD 1532可将图像建模为具有属于一定值或类别的变化概率。例如,可将图像归类为有90%的相关概率属于类别4,图像有9%概率属于类别5,并且图像有1%概率属于类别3。可利用这些随时间推移的百分比的值在统计上确定更细粒度级别的渐变。
虽然生成IQI的传统方法并不成功(至少因为这些方法未能考虑非线性迭代重建和人类视觉系统的较难预测性质),但某些示例提供了考虑非线性迭代重建和人类可视化的IQI生成。如上所述,深度学习可用于基于输入数据和一个或多个所需输出来训练并改善目标算法。某些示例将深度学习和/或其他机器学习应用于图像重建和图像质量度量(诸如IQI等)确定。
深度学习试图通过使用分层方法识别对象来模拟人脑。当深度学习网络从下层导航到上层时,较高级别的特征集被提取并抽象化。该提取和抽象化提供该问题的答案并提供用于确定该答案的关键“特征”的识别。例如,用于确定IQI的图像特征包括局部信噪比、马尔科夫随机场、基于尺度和空间的Gabor小波分解、傅里叶变换等。例如,这些特征可用于初始化神经网络并补充自动化特征映射以生成图像质量的分类器。图像可为多种模式的二维(2D)、三维(3D)、四维(4D)或n维(ND)图像。
例如,深度学习输入包括标记图像和/或未标记图像。可基于临床应用、人类解剖结构和/或其他重要属性对标记图像进行分类。标记图像还经历了图像质量评估,并且可将IQI分配给每个标记图像。基于使用图像作出临床决策的置信水平来评定标记图像。例如,水平3指示基于图像作出决策的足够置信度,而水平5指示基于图像作出决策的最高置信水平。另一方面,水平1指示此类图像不能用于诊断。标记图像最初用于训练深度学习图像质量算法。
图23A至图23B示出了用于图像质量深度学习网络的示例性学习和测试/评估阶段。如图23A的示例中所示,将已知的标记图像2310应用于卷积网络2320。使用多个用户获得图像2310,并且它们的图像质量指数是已知的。如上文针对图1至图3所讨论,将卷积2320应用于输入图像2310以生成特征映射,并且池化2330减小图像尺寸以分离包括感兴趣特征在内的图像2310的部分2325,从而形成全连接层2340。分类器2350(例如,softmax分类器等)将权重与表示感兴趣特征的节点相关联。分类器2350提供加权特征,这些加权特征可用于生成已知的图像质量指数2360。在某些示例中,诸如平均图像质量指数的集中趋势度量可用作已知的图像质量指数2360以用于训练目的。例如,可单独地对各个图像执行评估。
在图23A的示例中,通过多个卷积核2320对输入2310进行卷积来创建多个特征映射。每个卷积核2320被随机初始化,并且当学习进行时,随机核收敛到“特征映射”。接着是池化层2330。通过池化2330来形成全连接层2340,并且可任选地添加附加卷积和池化层。分类器级2350是确定输出指数2360的最后一层。在某些示例中,使用随机梯度法(SGD)分批进行网络2300的训练。
未标记图像是尚未评估以识别图像中的特征并加以标记的图像。未标记图像可用于测试图23A中训练的深度学习算法的性能并且改善算法性能。如图23B的示例中所示,示例性网络2300也可应用于未标记图像2315。可生成图像质量指数2365,并且可将其与已知的图像质量指数2360进行比较以评估网络2300的建立和可靠性。例如,如果经测试发现网络2300是令人满意的图像质量确定器,则网络2300可被部署为重建DDLD 1532。
有若干深度学习和其他机器学习技术可用于对图像进行分类以便与一定IQI相关联。例如,可根据标记数据的可用性、计算和存储器约束、性能要求等以若干方式设置深度卷积网络。在示例性深度卷积网络的卷积层中,初始层包括多个特征映射,其中节点权重使用参数化正态随机变量来初始化。特征映射后跟第一池化层,第一池化层后跟第二卷积层,然后第二卷积层后跟第二池化层,以此类推。后续的池化和卷积层是任选的,具体取决于配置、复杂性、数据类型、目标环境等。最后一层是使用例如softmax分类器的分类层以评估该网络中的选项。
在某些示例中,用于分类层的权重和偏置被设定为0。来自softmax层的输出是总和为1的一组正数。换句话讲,来自softmax层的输出可被视为概率分布。使用该分布,该网络可用于为所需超参数选择值。图24A至图24B示出了用于示例性深度卷积网络的示例性学习、验证和测试阶段。
如图24A的示例中所示,如果较大的标记数据集在医疗数据集合中不可用,则可训练、验证并测试示例性网络2400。在学习阶段2410中,在2411处将标记图像输入到无监督学习层2413(例如,自编码器等)。无监督学习层2413使输入2411的特征空间初始化。在无监督学习层2413处理之后,图像信息随后传递到卷积网络的一个或多个监督学习层2415。如上所述,可经由卷积层2415创建特征映射并且可减少特征。监督学习层2415是网络2400中的隐藏层并且执行反向传播。然后经由分类层2417对输出进行分类,该分类层分析权重和偏置并且生成一个或多个图像质量指数2419。
在验证阶段2420中,通过将未标记图像2421输入到无监督学习层2413、然后输入到卷积网络的监督学习层2415来调谐超参数。在分类2417之后,生成一个或多个图像质量指数2419。
在验证阶段2420期间调谐参数之后,测试阶段2430使用卷积网络的经学习层2435来处理输入的未标记图像2431。分类层2417产生图像质量指数2439。
如果较大的标记数据集可用,则可如图24B的示例中所示的那样训练、验证并测试网络。在学习阶段2440中,在2441处将标记图像输入到卷积网络的一个或多个学习层2445。如上所述,可经由卷积层2445创建特征映射并且可减少特征。然后经由分类层2447对输出进行分类,该分类层分析权重和偏置并且生成一个或多个图像质量指数2449。
在验证阶段2450中,通过将未标记图像2451输入到卷积网络的学习层2445来调谐超参数。在分类2447之后,生成一个或多个图像质量指数2459。
在验证阶段2450期间调谐参数之后,测试阶段2460使用卷积网络的经学习层2465来处理输入的未标记图像2461。分类层2447产生图像质量指数2469。
虽然已使用自编码器和深度卷积网络示出了图24A至图24B的示例,但也可在这些示例中使用深度残差网络。在深度残差网络中,所需的底层映射明确地被定义为与网络的堆叠非线性内部层相关。由于使用前馈神经网络,深度残差网络可包括跳过一个或多个内部层来连接节点的快捷连接。可诸如上述那样使用反向传播通过随机梯度下降(SGD)对深度残差网络进行端对端训练。
另外,可通过操作中的持续学习和评估来改进深度学习网络。在某些示例中,神经网络中间层的分析联合输入数据的预处理可用于确定数据中的冗余以推动数据生成效率。数据的预处理可包括但不限于主成分分析、小波分解、傅里叶分解、匹配过滤器分解等。每个预处理可生成不同分析,并且可基于一个或多个已知条件下深度学习网络的结构来组合预处理技术。然后可在多个单独分析(例如,来自执行的每个预处理功能)之中执行元分析。
在某些示例中,来自深度学习系统的反馈可用于优化或改进输入参数选择,从而改变用于处理输入(例如,图像数据、设备参数等)的深度学习网络以生成输出(例如,图像质量、设备设置等)。并非在整个输入参数集内扫描以创建原始数据,而是可使用主动学习的变型来选择提供最佳结果的起始参数空间,然后随机减小参数值以生成原始输入,这会降低图像质量,但仍保持质量值的可接受范围。随机减小值可以通过处理对图像质量没有什么影响的输入,诸如通过消除网络中的冗余节点、冗余连接等来缩短运行时间。
例如,为了使用多个输入参数来处理每个原始数据集以产生对应输出数据集、同时减小参数集值使之仍保持处理的输出数据集,采用搜索策略在参数空间中导航。首先,确定用于数据处理的参数(例如,重建参数等)。如图25A的示例中所示,利用经训练的网络2500来确定输出质量(例如,重建的图像数据集的IQI)以用于重建参数的起始或初始参数集2510并且用作基线。例如,起始参数集2510包括重建参数Param 0、Param 1、…、Param N。从已知值(包括冗余参数)开始,可为N个数据集确定参考IQI。
由于目标是减小参数的数量,因此根据给定策略(例如,梯度下降等)减小参数值直到满足停止标准(例如,消除提供不良结果的已知繁琐选择)。参数值选择器2504确定搜索策略,从而限制搜索空间并更新结果。处理原始数据集2506(例如,数据集0、数据集1、…、数据集N)以用于重建2508,从而产生N个重建的图像数据集2510。IQI比较器2512处理每个图像数据集2510以向参数值选择器2504生成反馈值。反馈值依据基于平均参数的IQI与当前基于平均参数的IQI之间的差异。对不同数据集重复该过程以将参数修剪过程对每个参数的一般行为映射在规范化空间中。重复该过程直到识别提供最小参数值的集合,该集合仍能提供可接受的图像质量,由此可用作最佳的可用解决方案。
图25B示出了使用部署的网络模型进行图像质量评估和反馈的示例性系统2501。如图25B的示例中所示,采集参数更新器与重新启动器2520向采集引擎1430提供更新。重建参数更新器与重新启动器2522向重建引擎1440提供更新。编排器2524在引擎2520、2522与具有部署的模型的图像质量评估引擎2526之间协调。图像质量学习与更新工厂2528从训练图像数据库2530学习以训练深度学习网络模型,以便与图像质量评估引擎2526(例如,图像质量评估引擎1572等)一起部署。在操作中,具有部署的模型的图像质量评估引擎2526向训练图像数据集2530提供信息,该训练图像数据集可用于例如工厂2528的持续监测和改进。例如,训练图像数据集2530可包括表示不同类别的示例性误差条件的图像数据。例如,可使用编排器2524,分别通过采集参数更新器与重新启动器2520和/或重建参数更新器与重新启动器2522来更新并重新启动采集引擎1430和/或重建引擎1440。
图25C示出了示例性系统配置2503,其还包括与诊断引擎1450相关联的检测/诊断参数更新器与重新启动器2532。示例性系统2503还包括具有部署的模型的检测/诊断评估引擎2534。具有部署的模型的诊断评估引擎2534由检测/诊断学习与更新工厂2536利用来自训练图像数据库2530的数据来生成。例如,训练图像数据库2530包括表示不同类别的示例性条件检测和诊断的数据。
在图25C的示例中,编排器2524在引擎2520、2522、2532与具有部署的模型的检测/诊断评估引擎2534之间协调。检测/诊断学习与更新工厂2535从训练图像数据库2530学习以训练深度学习网络模型,以便与检测/诊断评估引擎2534(例如,诊断评估引擎1574等)一起部署。在操作中,具有部署的模型的检测/诊断评估引擎2534向训练图像数据集2530提供信息,该训练图像数据集可用于例如工厂2534的持续监测和改进。例如,引擎2534可与专家2538一起操作。例如,可使用编排器2524,分别通过采集参数更新器与重新启动器2520、重建参数更新器与重新启动器2522和/或检测/诊断参数更新器与重新启动器2532来更新并重新启动采集引擎1430、重建引擎1440和/或诊断引擎1450。
某些示例利用深度学习和/或其他机器学习技术由采集的目标图像数据来计算基于任务的图像质量。由于人类可通过查看图像来在视觉上理解图像质量(例如,噪声、分辨率、一般诊断质量等)的水平,因此可训练人工智能或学习方法(例如,使用人工神经网络等)以评估图像质量。通常基于使用线、线对和均匀区域(例如,由空气、水、其他材料等形成)的体模扫描来估计图像质量(IQ)。这需要人类操作员对物理体模的单独扫描以及技术员和/或放射科医生的读取,并且通过执行多次体模扫描来测量图像质量通常不切实际。此外,图像质量本身可取决于接受扫描的对象或患者。因此,用测试体模得出的图像质量可能并不代表扫描实际患者时获得的质量。最后,诸如点扩散函数(PSF)的半峰全宽(FWHM)、调制传递函数(MTF)截止频率、线对中的最大可见频率、噪声的标准偏差等传统IQ度量不反映真实的基于任务的图像质量。相反,在某些示例中,有效的做法是从采集的临床图像直接估计IQ。某些示例使用基于特征的机器学习或深度学习方法(称为学习模型)来评估图像质量。在某些示例中,可直接从实际患者图像和/或对象图像计算基于任务的图像质量(和/或总体图像质量指数)。
可使用具有已知的感兴趣图像质量(IQ)的图像(例如,临床图像)来训练学习模型。可通过操纵初始图像(例如,通过模糊或噪声插入等以获得具有不同图像质量的训练图像)来生成附加训练图像。一旦学习模型经过训练,就可将该模型应用于新临床图像以估计感兴趣的图像IQ。
例如,从裁剪的原始图像数据和边缘图信息获取的图像输入特征(诸如均值、标准偏差、峰度、偏度、能量、矩、对比度、熵等)与一个或多个标签(诸如空间分辨率水平、空间分辨率值等)组合以形成机器学习系统的训练集。机器学习网络使用该训练集来形成训练模型,并且将该模型应用于从图像数据的测试集获得的特征。因此,机器学习网络基于训练模型信息来输出估计的空间分辨率(例如,水平和/或值)。
在某些示例中,回归和/或分类方法可用于通过用对应图像IQ度量的绝对值和/或水平标记训练数据来生成图像质量度量。即,度量可包括图像质量的定量量度(例如,噪声级、可检测性等)、图像质量的描述性量度(例如,李克特评分等)、图像质量的分类(例如,图像是否为诊断级的,是否有伪影等)和/或图像质量的总体指数(例如,IQI)。
在基于特征的机器学习方法中,对模型训练的输入包括从训练图像数据集提取的特征。可为感兴趣的图像IQ定制特征选择。特征包括但不限于基于强度值直方图的特征(例如,均值、标准偏差、偏度、峰度、能量、能量、对比度、矩、熵等)。这些特征可从原始图像数据计算,和/或可在对图像应用差分过滤器以实现局部增强和/或其他图像操作和/或变换之后提取。这些特征可从整个图像、裁剪图像、和/或从一个或多个感兴趣区域(ROI)计算。可还包括基于邻接矩阵(诸如Mahotas Haralick等)的全局和/或局部纹理特征。
在基于深度学习(例如,卷积神经网络)的方法中,不需要定义特征集。DLN自身将基于其对训练数据集的分析来识别特征。在某些示例中,与已将特征识别为输入的一部分的基于特征的机器学习方法相比,训练涉及更多数据(如果尚未识别特征的话)。
因此,在某些示例中,输入可包括全图像、裁剪图像(例如,裁剪成感兴趣区域)、图像分块等。在采用图像分块时,更小的图像分块可用于在局部基础上评估图像质量,并且可为该图像生成图像质量图。可直接从临床图像提取度量,诸如定量图像IQ,如空间分辨率、噪声级和/或基于任务的IQ度量(例如,可检测性等)。某些示例可应用于执行或需要图像质量评估的任何环境,诸如比较成像技术(例如,硬件和/或算法);在图像采集期间实时(或基本上实时(考虑到有处理、存储和/或数据传输延迟))改进或优化扫描技术和重建,同时减少或最小化辐射剂量;和/或向临床医生提供量化图像IQ以帮助诊断等。所提出的技术可应用于CT示例之间的其他成像模式,诸如MRI、PET、SPECT、X射线、断层融合、超声等。
因此,通过识别(例如,图像分辨率等的)变异来源并根据该变异来重建图像,可由机器学习网络创建标准化变换,加以改善并应用于图像重建(例如,使用重建引擎1430和相关联的DDLD 1532)。当计算图像属性时,可形成重新校准变换,加以改善并应用于计算图像属性。可将分析提供给临床医生并且用于使用学习网络来评估图像分辨率。
例如,假设数据集包括九个心脏容积且每个容积有224张图像。将高斯模糊应用于这些图像以在四个附加分辨率水平下生成图像。于是总样本量为224×5×9=10080。从原始图像数据提取七个特征,并且从该图像的边缘图提取八个特征。通过将该样本分成训练集(70%)和测试集(30%)来促进交叉验证,并且使用随机森林回归。
生成结果并且在估计的(使用机器学习)和实际的(测量的)误差或分布之间对比。例如,图26示出了估计的FWHM(以毫米计)与真实的FWHM的比较。图27示出了示例性真实的FWHM分布。图28示出了示例性估计的FWHM分布。图29示出了PSF的FWHM中的示例性估计误差(例如,估计的FWHM-真实的FWHM(mm))。图30示出了来自示例性数据集的特征重要度的示例性比较。图30的示例性坐标图通过特征指数来组织特征重要度。来自原始图像数据的特征包括:0:均值,1:峰度,2:偏度,3:能量,4:矩,5:对比度,6:熵。来自边缘图的特征包括:7:均值,8:标准偏差,9:峰度,10:偏度,11:能量,12:矩,13:对比度,14:熵。如示例性数据所示,机器学习从临床数据集得出用于估计空间分辨率的合理结果。另外,边缘图的熵被示出为估计空间分辨率的重要特征,原始图像的熵也是如此。
附加用例可包括用于肺癌检测的肺结节/钙化或小结构检测和分析。变异来源可包括噪声(例如,mA、最大千伏电压(kVp)、患者体格等)、分辨率(例如,重建核类型、厚度、像素尺寸等)、呼吸与心脏运动(例如,旋转速度和患者依从性等)、晕状伪影(例如,重建方法、部分容积、运动等)。对结局的影响可包括容积和密度的测量误差,这会导致分期低估和结构遗漏。另一个用例可包括心脏灌注分析以诊断冠状动脉疾病(CAD)。变异来源可包括患者生理学(例如,患者间和相同患者、动态范围小等)、射束硬化伪影(患者摄取率、团注定时等)、心脏运动、造影剂淤积等。对结局的影响可包括错误灌注图(例如,灌注缺损遗漏或灌注缺损错误诊断等)。另一个用例可包括用于癌检测的肝病灶/暗色小结构。变异来源可包括噪声(例如,mA、kVp、患者体格等)、分辨率(例如,重建核类型、厚度、像素尺寸等)、结构性噪声(例如,条纹、模式、纹理等)、阴影伪影(例如,骨骼、肋骨、脊柱重建伪影等)、运动等。对结局的影响可包括因低对比可检测性引起的病灶遗漏或错误诊断。
另一个用例可包括冠状动脉/血管成像。变异来源可包括条状或晕状伪影(例如,重建方法、部分容积、运动等)、噪声(例如,mA、kVp、患者体格等)、分辨率等。对结局的影响可包括如果需要管腔分析,则噪声和分辨率有更大影响。
另一个用例可包括用于诊断卒中的脑灌注。变异来源可包括来自骨骼的阴影伪影、小生理变化(例如,动态范围小等)、结构性噪声(例如,重建方法等)等。对结局的影响可包括错误灌注图(例如,灌注缺损遗漏或灌注缺损错误诊断等)等。
另一个用例可包括慢性阻塞性肺病(COPD)和/或其他肺病(例如,尘肺等)诊断和分类(例如,Thoracic VCAR)等。变异来源可包括噪声(例如,mA、kVp、患者体格、层厚等)、分辨率(例如,核、像素尺寸、厚度尺寸等)、造影剂(例如,碘等)、患者生理学(例如,扫描期间的肺容积,可从图像测量等)、呼吸运动等。对结局的影响可包括测量误差(例如,气道直径/周长、管腔狭窄低估、壁增厚高估等)等。
另一个用例可包括肝脂肪定量(例如,脂肪变性分级、肝硬化分期等)。变异来源可包括噪声(例如,mA、kVp、患者体格等)、分辨率(例如,重建核类型、厚度、像素尺寸等)、结构性噪声(例如,条纹、模式、纹理等)、阴影伪影(例如,肋骨、脊柱重建伪影等)等。对结局的影响可包括测量误差和错误分期等。另一个用例可包括其他器官(例如,肾移植等)或器官肿块(例如,囊肿或结石等)的容积/尺寸定量等。
图31A示出了用于图像重建的示例性方法3100的流程图。在方框3102处,从采集引擎1430接收图像数据。例如,重建引擎1440经由采集引擎1430从成像设备1410接收图像。在方框3104处,预处理图像数据。例如,DDLD 1532根据一个或多个设置或参数(诸如是否要从采集的图像数据生成人类可查看和/或机器可读的图像)来预处理图像数据。例如,重建DDLD 1532可与经过训练以更换降噪算法(例如,通过在有噪声和无噪声的图像对的多个示例上训练学习与改进工厂1530中的DLN)的网络一起部署以便转换噪声数据而产生高质量数据。
如上所述,机器可读的图像不需要被格式化以供人类查看,而是可被处理以供机器分析(例如,计算机辅助诊断等)。相反,人类可查看的图像应具有特征清晰度(例如,足够的分辨率和降低的噪声等),使得放射科医生和/或其他人类用户1404可读取并评估图像(例如,执行放射学读取)。例如,DDLD 1532可在重建之前评估图像数据并且确定重建设置。可由DDLD 1532为人类可查看和/或机器可读的图像确定重建和/或其他处理参数。
在方框3106处,评估重建设置以确定是否要生成人类可查看和/或机器可读的图像。在一些示例中,仅将生成人类可查看的图像以供用户1404检查。在一些示例中,例如,仅将生成机器可处理的图像数据以供诊断引擎1450自动评估。在一些示例中,同时提供人类可查看的图像和机器可处理的图像数据。
如果需要人类可检查的图像,则在方框3108处,使用图像数据重建图像以供人类查看(例如,供放射科医生读取)。例如,并非采用接受原始数据并产生图像的计算密集型迭代重建算法,而是重建引擎1440和DDLD 1532(例如,在原始和重建的图像对的多个示例上训练)可处理原始图像数据并且产生与迭代算法相同或近乎相同质量的一个或多个重建的图像。另外,如上所述,例如,DDLD 1532可将噪声数据转换为更高质量的图像数据。此外,DDLD 1532可用于调节图像数据并且提供“宽视角”以在成像设备1410的检测器视场(FOV)之外重建图像。并非使用方程来外推检测器之外的数据,而是DDLD 1532可基于其已从其训练数据集学习到的内容来填补空白。如果需要机器可检查的图像数据,则在方框3110处,处理图像数据以供机器分析。例如,DDLD 1532可处理图像数据以去除噪声、扩展视场等。
在方框3112处,分析重建的图像。例如,由DDLD 1532分析图像的质量、IQI、数据质量指数、一个或多个其他图像质量度量等。DDLD 1532从重建的图像的内容(例如,识别的特征、分辨率、噪声等)学习并且与先前重建的图像(例如,对于相同患者1406、相同类型等)进行比较。在方框3114处,将重建的图像发送到诊断引擎1450。例如,可由诊断引擎1450以及其DDLD 1542显示和/或进一步处理该图像以促进患者1406的诊断。
类似地,在方框3116处,分析经处理的图像数据。例如,由DDLD 1532分析图像数据的质量、IQI、数据质量指数、一个或多个其他图像质量度量等。DDLD 1532从机器可处理的图像数据的内容(例如,识别的特征、分辨率、噪声等)学习并且与先前图像数据和/或重建的图像(例如,对于相同患者1406、相同类型等)进行比较。在方框3118处,将经处理的图像数据发送到诊断引擎1450。例如,可由诊断引擎1450及其DDLD 1542进一步处理该图像数据以促进患者1406的诊断。例如,可将机器可读的图像数据连同其他患者信息(例如,病史、实验室结果、2D/3D定位图像等)一起提供给诊断引擎1450,可将这些信息一起处理以生成在诊断患者1406时为用户1404提供支持的输出(例如,生成支持文档以帮助放射科医生读取图像等)。
图31B提供了有关用于图像重建的图31A的示例性方法3100的特定实施方式中的方框3112和3116的更多细节。可由示例性方法3100中的方框3112和3116中的一者或两者触发图31B的示例性方法。
在方框3120处,分析图像/图像数据以确定采集的图像是否为良好质量的图像。为了确定采集的图像数据是否表示“良好质量”的图像,可将该数据与一个或多个阈值、值、设置等进行比较。如上所述,可生成IQI、其他数据质量指数、可检测性指数、诊断指数等以表示该数据对于患者1406诊断的可靠性和/或有用性。IQI捕获的是图像对于放射科医生诊断的可接受性的量表(例如,李克特量表等)。但也可结合例如其他指数,诸如分辨率图像质量、噪声图像质量、活检数据质量和/或其他数据质量度量,以表示图像数据对于诊断的适用性。例如,任务特定的数据质量指数可表示采集的图像数据对于面向机器的分析的质量。
在方框3122处,如果采集并处理的图像和/或图像数据没有足够质量,则重建DDLD1532向采集学习与改进工厂1520发送反馈,指示所获得的图像数据的质量不足以用于分析和诊断。这样,工厂1520继续针对不同情况学习并改进图像采集设置,并且可生成网络模型以重新部署DDLD 1522。在方框3124处,采集引擎1430触发(例如,在方框3102处)经由成像设备1410从患者1406重新采集图像数据。因此,例如,重建DDLD 1532和采集DDLD 1522可一起协作以修改成像参数并重新采集图像数据,同时患者1406仍可在检查台上或至少紧密靠近成像设备1410,从而减轻患者1406和员工以及设备排程的困境。
在方框3126处,如果图像/图像数据质量满足阈值,则可评估图像质量以确定质量是否过高。过高(例如,IQI为5(指示“完美”图像)等)的图像质量可指示在获得图像数据时患者1406暴露于过多辐射。例如,如果3或4的图像质量足以供用户1404和/或诊断引擎1450进行诊断读取,则5的图像质量不必要。如果图像质量过高,则在方框3128处,由重建DDLD1532向采集学习与改进工厂1520提供反馈以调节成像设备1410的剂量/强度设置以用于未来图像采集(例如,特定类型、对于该患者等)。然后该过程在方框3114和/或3118处继续以将重建的图像(方框3114)和/或经处理的图像数据(方框3118)提供给诊断引擎1450进行处理和检查。
系统健康状态和系统改进
如上所述,系统设计引擎1560构建并保持系统1400、1500和/或其单独部件1410、1420、1430、1440、1450等的一个或多个数字模型。系统设计引擎1560还由系统健康模块1550评估系统健康状态的指示以识别潜在问题、难题、改进的地方等。例如,系统健康模块1550基于其对来自引擎1430、1440、1450的反馈的处理而给出的不良系统健康状态的指示可触发例如总体设计改进的分析。
如图32A的示例中所示,系统设计引擎1560包括输入格式化器1561、模型处理器1563、一个或多个训练深度学习网络模型1565和输出发生器1569。在某些示例中,多个目标系统1500部件连接到引擎1560,并且DLN可与每个部件相关联。每个DLN涉及已知的输入和输出以对其进行训练。这些输入和输出模拟物理部件的输入和输出。DLN可像部件那样连接以得出目标系统1500的数字模型。可使用该数字模型,基于模型处理器1563在数值模型上运行的模拟来提供一个或多个建议。
示例性系统设计引擎1560包括系统数字模型库1580,该系统数字模型库包括多个部件模型(例如,采集数字模型1581、重建数字模型1583、诊断数字模型1585等)和复合系统数字模型1587。使用训练深度学习网络模型1565来生成并部署模型1581至1587。模型1581至1585可在其对应系统1400、1500部件连接时连接以形成目标系统的数字模型(例如,复合模型1587等)。如图32B的示例中所示,每个模型(此处所示的示例是复合系统模型1587)使用以下几项实现:接收输入数据、参数、指令等的输入3202;使用经训练的深度学习网络生成的部署的深度学习网络模型3204以处理该输入并产生输出,该输出由输出3206获取并提供给模型处理器1563和/或输出发生器1565以用于给出须监测目标系统1400、1500的一个或多个部件的建议。
系统设计引擎1560利用系统输入和输出。系统设计引擎1560包括使用已知的部件输入和输出的足够大的数据集训练、验证和测试的DLN 1581至1587,这些数据集可充分表示系统设计引擎1560在系统1500及其部件的整个操作中遇到的预期数据中的变异性。DLN模型1581至1587从总体系统1500和/或其单独部件1410至1450、1520至1540、1522至1542、1550、1552、1555等接收输入。输入格式化器1561处理该输入以使该输入归一化和/或正确格式化,验证/核实该输入,补充该输入等。模型库1580中的这些模型与模型处理器1563协作以处理该输入并且使用模型1580来模拟系统1500和/或其部件1410至1450的操作。例如,训练模型1565可继续接收反馈以修改一个或多个模型1565以便在库1580中重新部署模型1581至1587。
在某些示例中,系统健康状态1550输入1561帮助DLN模型1580对系统1500的操作和状态建模以基于使用时间表、模式、设备1410、1420、1430、1440、1450状态等来建立维护和/或更换时间表。例如,来自重建DLN 1532的有关图像质量下降的反馈可由系统健康模块1550反映并且作为输入1561提供以更新一个或多个训练模型1565并影响采集数字模型1581,从而生成和/或修改维护时间表、更换时间线等(例如,由于x射线管出现故障,检测器变差等)。
在其他示例中,来自DDLD 1522、1532、1542的反馈可建议或用于识别现有设备(诸如成像设备1410、信息子系统1420等)中的设计缺陷。例如,始终偏离目标的图像采集可向DDLD 1552指示成像设备1410中的患者定位器未能正确定位一定体格的患者。当DLN设备1552和相关联的系统学习与改进工厂1555随时间推移搜集该类型的反馈并且在图像质量、患者定位和患者体格之间建立连接时,库1580中的模型1581至1587中的一者或多者可确定这些因素之间的关系并且例如建议成像设备1410的物理设计的变化。
在某些示例中,来自引擎1560和/或系统健康模块1550的建议可用于调节成像和/或其他检查方案。例如,可为某站点的成像设备1410提供“标准”或默认成像方案。然而,特定站点及其设备和操作员可具有某些偏好、约束条件等。例如,系统设计引擎1560使用默认方案处理其接收到的信息并且学习一致性和不一致性。然后引擎1560可为站点建议和/或自动进行成像方案的改变(例如,同时提供用户重写和/或调节的选项)。
例如,可基于检查之时患者1406的状态来调节检查方案。例如,患者心率和心率变异性可用于调节造影剂容积和/或定时。患者尺寸可决定最佳kV、mA和间距设置。也可使用设计引擎1560在持续学习反馈回路中针对机构偏好(例如,调节噪声级、mA设置等)来调节这些设置。然后可提供建议以使用相关联的DLN 1581、1583、1585来修改单独部件。
在某些示例中,可使用系统设计引擎1560来促进机器健康状态监测。例如,引擎1560可使用诸如IQI等数据质量指数使数据标准化或归一化,并且设计引擎1560可监测部件属于一个或多个种类或类别的概率(例如,监测成像设备1410最可能提供可接受质量的图像,更可能提供对于诊断不可接受的质量的图像等)。设计引擎1560还可分析数据日志文件、用户-患者交互的音频记录、机器噪声的音频记录、客户反馈数据集等,以监测并评估机器健康状态(例如,成像设备1410的健康状态等)。在某些示例中,系统设计引擎1560可计算当前机器值与对应“正常”或接受值等的归一化偏差(例如,z评分)。
在某些示例中,系统设计引擎1560基于对来自现场部署的机器(诸如成像设备1410)的维护和/或维修问题的分析来生成系统1400、1500设计改进。可例如经由学习与改进工厂1520、1530、1540和/或系统健康模块1550从成像设备1410检索数据,并且经由输入格式化器1561将数据提供给模型库1580。模型处理器1563与来自库1580的一个或多个模型1581至1587协作以处理该信息(例如,模拟操作以及结局、参数设置、配置等的一个或多个可能变化)以便建议成像设备1410的未来设计改进。可基于型号、模式、客户使用类型等针对一个或多个成像设备1410来处理数据。也可经由一个或多个训练深度学习网络模型1565(用于重新训练并重新部署该库中的一个或多个模型1581至1587)将诸如论文、专利、Web内容等附加文本来源添加到模型库1580中的一个或多个模型。成像设备1410(也称为扫描仪)可基于其相应能力和使用统计来区分。一个或多个模型1581至1587可识别模式和关系,并且有助于量化为什么应购买和/或使用某种扫描仪。这可使用扫描仪质量指数、扫描仪价值指数来量化(例如,分为1至5等级,其中5对于特定系统/应用最有用,而1对于特定系统/应用最没用,等等)。因此,系统设计引擎1560可促进竞争性基准测试。基于使用,系统设计引擎1560可确定需要什么来改进一个或多个未来系统1500设计,包括是否应购买新扫描仪以及应购买哪种扫描仪等。
在某些示例中,可使用系统设计引擎1560来支持并增强机器维修安排。可从成像设备1410和/或其学习与改进工厂1520、1530、1540检索信息以识别问题、错误、故障、低效率、不足、过时等,并且系统设计引擎1560可帮助工厂1520、1530和/或1540及相关联的DDLD1522、1532、1542,基于例如其对信息的处理和系统健康状态1550来调节成像设备1410参数和/或以其他方式补偿成像设备1410和/或其他系统1500部件的问题。因此,系统1500对于许多问题都可自我修复。如果问题涉及硬件维护和/或更换,则系统设计引擎1560可帮助通过自动排程、用户1404通知、出错记录等来预测并安排维护和/或更换。
因此,深度学习网络模型1581至1587与要仿真的目标系统1400、1500的每个部件相关联,并且使用模拟目标系统的相关联部件的输入和输出的已知输入和已知输出来训练每个深度学习网络模型。每个深度学习网络模型在要仿真的每个相关联部件连接在目标系统中时进行连接以形成目标系统的数字模型。模型处理器1563使用数字模型来模拟要仿真的目标系统和/或目标系统的每个部件的行为,以生成与目标系统的部件的配置和/或目标系统的部件的结构有关的建议。
图33示出了监测并改进系统健康状态、配置和/或设计的方法3300的流程图。在方框3302处,经由输入格式化器1561搜集与部件操作和系统健康状态有关的数据。例如,可经由系统健康模块1550、工厂1520、1530、1540、设备1410、1420、引擎1430、1440、1450等来搜集系统健康信息。
在方框3304处,基于输入来训练一个或多个训练学习网络模型1565。例如,与待监测的目标系统的每个部件的已知输出相对应的已知输入用于训练对应模型1565的行为,直到模型1565达到稳定并可预测以用于库1580中的部署。在某些示例中,经由系统健康模块1550、工厂1520、1530、1540、设备1410、1420、引擎1430、1440、1450等搜集的输入可用于继续在特定系统及其部件上训练一个或多个模型1565。在方框3306处,一旦一个或多个模型1565已经过训练,就使用一个或多个模型1565来生成模型库1580中部署的模型1581至1587。
在方框3308处,使用系统设计引擎1560监测系统操作并对系统操作建模。例如,由输入格式化器1561格式化所搜集的输入数据,并且联合使用模型处理器1563及来自与待建模和监测的每个部件相关联的模型库1580的一个或多个模型1581至1587对该数据进行处理。例如,该数据用于形成和/或修改库或目录1580中的一个或多个模型1581至1587(如上所述)中体现的深度学习网络(诸如深度卷积神经网络、自编码器网络、深度残差网络、机器学习网络等)中的节点和/或节点之间的连接。例如,也可通过输入数据中的一个或多个模型1581至1587所发现的模式、关系、值、值存在或不存在等来修改与节点、连接等相关联的权重和/或偏置。模型处理器1563可使用每个模型1581至1587(单独或相组合(例如,在对应系统部件连接在目标系统1500中时连接以形成数字模型、数字孪生等))在给定所接收的输入的情况下模拟一个或多个部件和/或总体系统1500操作。
因此,系统设计引擎1560可使用输入数据以及库1580中的一个或多个模型来模拟成像设备1410和/或其他部件的操作并且预测结果、故障、维护时间表等。当从成像设备1410的实际操作中搜集到更多数据时,可更新一个或多个训练网络模型1565以改善设备1410的建模和理解,从而例如生成模型库1580中更准确的部署的网络模型。
在方框3310处,模型处理器1563基于使用一个或多个模型1581至1587的模拟来生成建议。例如,系统设计引擎1560可基于系统操作信息的处理来建议成像设备1410的维护/维修、成像设备1410的配置设置的变化、建议的物理修改和/或新产品特征等。
在方框3312处,分析该建议以确定该变化是否影响部件配置和/或部件结构。如果所观察到的变化影响部件配置,则在方框3314处,系统设计引擎1560可处理该变化并且例如建议/生成对该配置的校正。如果所观察到的变化影响部件结构,则在方框3316处,可生成提出的设计变化以供(例如,设计团队)后续开发。
如果该建议是配置变化,则在方框3314处,生成与一个或多个系统部件的配置有关的输出建议1569。例如,成像设备1410的维护/维修请求、成像设备1410的配置设置变化等可在1569处输出到成像设备1410、DDLD 1522、学习与改进工厂1520、信息子系统1420和/或外部系统以便进行实现、发布、进一步处理等。在某些示例中,基于输出建议的接收,修改学习与改进工厂1520、1530、1540中的一者或多者。例如,工厂1520、1530、1540从该处理以及系统设计引擎1560所生成的建议中学习以改进其信息、理解和操作。如果来自系统设计引擎1560的输出建议包括参数和/或其他设置的变化,则对应工厂1520、1530、1540基于该建议来修改其包括的DLN的一个或多个节点、权重、连接、偏置等。因此,工厂1520、1530、1540、1555继续在反馈回路中从彼此学习,并且继续进化并为其对应部件提供更好的输出。
如果该建议是结构变化,则在方框3316处,使用与一个或多个系统部件的未来设计变化和/或物理布置有关的建议来生成输出1569建议。例如,成像设备1410的维护/维修、建议的物理修改和/或新产品特征等可在1569处输出到成像设备1410、DDLD 1522、学习与改进工厂1520、信息子系统1420和/或外部系统以便进行实现、发布、进一步处理等。例如,基于输出1569建议和/或来自对应数字工厂1520、1530、1540的进一步反馈,可修改(例如,改变物理配置和/或设计等)和/或重新配置(例如,改变设置或参数等)成像设备1410、信息子系统1420、采集引擎1430、重建引擎1440、诊断引擎1450等中的一者或多者。
在方框3318处,评估输入和输出以确定是否应调节训练模型1565。例如,输入中指出的偏差可用于更新一个或多个模型1565,从而例如潜在地引起部署的模型库1580中的一个或多个模型1581至1587的重新部署。如果不调节,则继续系统操作的监测。
因此,机器健康状态影响患者健康状态,并且系统设计引擎1560可监测、建模并评估机器健康状态并且触发机器配置的变化以改进机器操作,从而有助于避免对患者健康状态的潜在负面影响。例如,系统设计引擎1560可指示采集学习与改进工厂1520和/或采集引擎1430自身(及其DDLD 1522)调节设置、减慢间距、调节对比度等,以有助于确保以所需图像质量获得所需图像。例如,系统设计引擎1560理解机器状态和能力,并且可帮助学习与改进工厂1520学会相应地作出反应。经引擎1560在系统级的机器学习也可用于利用系统和患者模式的学习通过方案、工作流、操作顺序、设备设置等的调节来推动患者行为。每一者均可映射为该网络中的节点,并且可基于设备特性、所需结局、关系等对不同节点进行不同加权。在某些示例中,可对系统1500之外和/或附属于该系统的医疗设备和/或其他设备进行建模和修改,诸如起搏器、婴儿保温箱、健身跟踪器、生物识别传感器等。
图34示出了系统设计引擎1560与其他系统1500部件(诸如成像设备1410、采集引擎1430、系统健康模块1550)和外部系统3420之间的数据流3400的示例性表示。采集引擎1430以及其DDLD 1522与设备1410交互以在3402处配置设备1410并且从设备1410获得反馈3404。系统健康模块1550监测来自采集引擎1430的反馈3406,并且向系统设计引擎1560提供反馈3410。系统设计引擎1560向系统健康模块1550提供与设备1410的配置有关的建议3412,系统健康模块1550在3408处将该建议路由到采集引擎1430,该采集引擎继而在3402处向设备1410提供信息。系统设计引擎1560还可针对设备1410的物理设计和/或配置的变化向外部系统3420提供建议3414。因此,部件1410、1430、1550、1560处于反馈回路中以实现持续监测、处理和改进。
在某些示例中,采集引擎1430(及其DDLD 1522)可随时间推移而了解特定用户和/或站点图像质量偏好。引擎1430可提出实现学习到的偏好的扫描方案,或在该偏好将不能实现时触发警告。因此,引擎1430(与其DDLD 1522和工厂1530相结合)可促进基于IQI确定的自学习方案(例如,了解到用户/站点更喜欢方案X以达到IQI为Y等)。
虽然结合图1至图34示出了示例性实施方式,但结合图1至图34所示的元件、过程和/或设备可组合、分割、重新布置、省略、消除和/或以任何其他方式实现。此外,本文所公开和描述的部件可由硬件、机器可读指令、软件、固件、和/或硬件、机器可读指令、软件和/或固件的任何组合来实现。因此,例如,本文所公开和描述的部件可由一个或多个模拟和/或数字电路、逻辑电路、可编程处理器、专用集成电路(ASIC)、可编程逻辑设备(PLD)和/或现场可编程逻辑设备(FPLD)来实现。当读到本专利中的任一项覆盖纯粹的软件和/或固件实现的装置或系统权利要求书时,这些部件中的至少一者在此明确地被定义为包括存储软件和/或固件的有形计算机可读存储设备或存储盘,诸如存储器、数字通用盘(DVD)、压缩盘(CD)、蓝光盘等。
结合至少图8C、图8D、图12、图13、图16、图17、图19、图21、图31A、图31B和图33示出了表示用于实现本文所公开和描述的部件的示例性机器可读指令的流程图。在这些示例中,机器可读指令包括供处理器(诸如下文结合图35讨论的示例性处理器平台3500中所示的处理器3512)执行的程序。该程序可体现在有形计算机可读存储介质(诸如CD-ROM、软盘、硬盘驱动器、数字通用盘(DVD)、蓝光盘或与处理器3512相关联的存储器)上存储的机器可读指令中,但整个程序和/或其部分可另选地由除处理器3512之外的设备执行和/或体现在固件或专用硬件中。此外,虽然参照结合至少图8C、图8D、图12、图13、图16、图17、图19、图21、图31A、图31B和图33所示的流程图描述了示例性程序,但可另选地使用实现本文所公开和描述的部件的许多其他方法。例如,可改变方框的执行顺序,和/或可改变、消除或组合所述的一些方框。虽然至少图8C、图8D、图12、图13、图16、图17、图19、图21、图31A、图31B和图33的流程图以所示的顺序描绘了示例性操作,但这些操作并不详尽并且不限于所示的顺序。另外,本领域技术人员可在本公开的精神和范围内作出各种变化和修改。例如,流程图中示出的方框可按替代顺序执行或可并行执行。
如上所提及,至少图8C、图8D、图12、图13、图16、图17、图19、图21、图31A、图31B和图33的示例性过程可使用存储在有形计算机可读存储介质上的编码指令(例如,计算机和/或机器可读指令)来实现,该有形计算机可读存储介质诸如为将信息存储任何持续时间(例如,存储延长时间段、永久存储、用于短暂实例、用于暂时缓冲和/或用于信息的高速缓存)的硬盘驱动器、闪速存储器、只读存储器(ROM)、压缩盘(CD)、数字通用盘(DVD)、高速缓存、随机存取存储器(RAM)和/或任何其他存储设备或存储盘。如本文所用,术语有形计算机可读存储介质明确地被定义为包括任何类型的计算机可读存储设备和/或存储盘,并且排除传播信号且排除传输介质。如本文所用,“有形计算机可读存储介质”和“有形机器可读存储介质”可互换使用。除此之外或另选地,至少图8C、图8D、图12、图13、图16、图17、图19、图21、图31A、图31B和图33的示例性过程可使用存储在非暂态计算机和/或机器可读介质上的编码指令(例如,计算机和/或机器可读指令)来实现,该非暂态计算机和/或机器可读介质诸如为将信息存储任何持续时间(例如,存储延长时间段、永久存储、用于短暂实例、用于暂时缓冲和/或用于信息的高速缓存)的硬盘驱动器、闪速存储器、只读存储器、压缩盘、数字通用盘、高速缓存、随机存取存储器和/或任何其他存储设备或存储盘。如本文所用,术语非暂态计算机可读介质明确地被定义为包括任何类型的计算机可读存储设备和/或存储盘,并且排除传播信号且排除传输介质。如本文所用,当短语“至少”用作权利要求书前序中的过渡性术语时,与术语“包含”是开放式的一样,其也是开放式的。另外,与术语“包含”是开放式的一样,术语“包括”也是开放式的。
图35是示例性处理器平台3500的框图,该处理器平台被结构化为执行至少图8C、图8D、图12、图13、图16、图17、图19、图21、图31A、图31B和图33的指令以实现本文所公开和描述的示例性部件。处理器平台3500可为例如服务器、个人计算机、移动设备(例如,蜂窝电话、智能电话、平板电脑诸如iPadTM)、个人数字助理(PDA)、互联网设备或任何其他类型的计算设备。
所示示例的处理器平台3500包括处理器3512。所示示例的处理器3512是硬件。例如,处理器3512可由来自任何所需产品系列或制造商的集成电路、逻辑电路、微处理器或控制器来实现。
所示示例的处理器3512包括本地存储器3513(例如,高速缓存)。图35的示例性处理器3512执行至少图8C、8D、12、13、16、17、19、21、31A、31B和33的指令以实现学习与改进工厂1520、1530、1540、1555和/或其他部件诸如信息子系统1420、采集引擎1430、重建引擎1440、诊断引擎1450等。所示示例的处理器3512经由总线3518来与主存储器(包括易失性存储器3514和非易失性存储器3516)通信。易失性存储器3514可由同步动态随机存取存储器(SDRAM)、动态随机存取存储器(DRAM)、RAMBUS动态随机存取存储器(RDRAM)和/或任何其他类型的随机存取存储器设备来实现。非易失性存储器3516可由闪速存储器和/或任何其他所需类型的存储器设备来实现。由时钟控制器控制对主存储器3514、3516的存取。
所示示例的处理器平台3500还包括接口电路3520。接口电路3520可由任何类型的接口标准诸如以太网接口、通用串行总线(USB)和/或PCI express接口来实现。
在所示的示例中,一个或多个输入设备3522连接到接口电路3520。一个或多个输入设备3522允许用户将数据和命令输入到处理器3512中。一个或多个输入设备可由例如传感器、麦克风、相机(静物相机或摄像机)、键盘、按钮、鼠标、触摸屏、触控板、轨迹球、isopoint和/或语音识别系统来实现。
一个或多个输出设备3524也连接到所示示例的接口电路3520。输出设备3524可例如由显示设备(例如,发光二极管(LED)、有机发光二极管(OLED)、液晶显示器、阴极射线管显示器(CRT)、触摸屏、触觉输出设备和/或扬声器)来实现。因此,所示示例的接口电路3520通常包括图形驱动器卡、图形驱动器芯片或图形驱动器处理器。
所示示例的接口电路3520还包括通信设备,诸如发射器、接收器、收发器、调制解调器和/或网络接口卡,以促进经由网络3526(例如,以太网连接、数字用户线(DSL)、电话线、同轴电缆、蜂窝电话系统等)来与外部机器(例如,任何种类的计算设备)交换数据。
所示示例的处理器平台3500还包括用于存储软件和/或数据的一个或多个大容量存储设备3528。此类大容量存储设备3528的示例包括软盘驱动器、硬盘驱动器、压缩盘驱动器、蓝光盘驱动器、RAID系统以及数字通用光盘(DVD)驱动器。
图35的编码指令3532可存储在大容量存储设备3528中,存储在易失性存储器3514中,存储在非易失性存储器3516中,和/或存储在可移动有形计算机可读存储介质诸如CD或DVD上。
根据前述内容,应当理解,已公开了以上所公开的方法、装置和制品以使用多种深度学习和/或其他机器学习技术来监测、处理并改进成像和/或其他医疗系统的操作。
上述方法、装置和制品可应用于多种医疗和非医疗系统。在一个特定示例中,上述方法、装置和制品可应用于CT成像系统的部件、配置和操作。图36至图38示出了本文所公开的方法、装置和制品可应用的CT成像扫描仪形式的成像设备1410的示例性实施方式。图36和图37示出了包括机架12的计算机断层(CT)成像系统10。机架12具有带x射线源14的旋转构件13,该x射线源朝向旋转构件13的相对侧上的检测器组件18投射一束x射线16。可利用主轴承将旋转构件13附接到机架12的固定结构。X射线源14包括固定靶或旋转靶。检测器组件18由多个检测器20和数据采集系统(DAS)22形成,并且可包括准直仪。所述多个检测器20感测透过受检者24的投射x射线,并且DAS 22将该数据转换为数字信号以便进行后续处理。每个检测器20产生模拟或数字电信号,该模拟或数字电信号表示照射的x射线束的强度以及因此透过受检者24时的衰减束的强度。在扫描以采集x射线投射数据期间,旋转构件13及安装在其上的部件可围绕旋转中心旋转。
旋转构件13的旋转以及x射线源14的操作由CT系统10的控制机构26控制。控制机构26可包括向x射线源14提供功率和定时信号的x射线控制器28和发生器30,以及控制旋转构件13的旋转速度和位置的机架电机控制器32。图像重建器34从DAS 22接收采样并数字化的x射线数据,并且执行高速图像重建。重建的图像被输出到计算机36,该计算机将图像存储在计算机存储设备38中。
计算机36还经由操作员控制台40从操作员接收命令和扫描参数,该操作员控制台具有某种形式的操作员接口,诸如键盘、鼠标、触敏控制器、语音激活的控制器或任何其他合适的输入装置。显示器42允许操作员从计算机36观察重建的图像和其他数据。计算机36使用操作员提供的命令和参数来向DAS 22、x射线控制器28和机架电机控制器32提供控制信号和信息。另外,计算机36操作检查台电机控制器44,该检查台电机控制器控制电动检查台46以定位受检者24和机架12。特别地,检查台46使受检者24全部或部分地移动通过机架开口48或入口。坐标系50限定受检者24沿着其移进和移出开口48的患者或Z轴52、检测器组件18沿着其经过的机架圆周或X轴54、以及沿着从x射线管14的焦点到检测器组件18的方向经过的Y轴56。
因此,某些示例可将深度学习和/或其他机器学习技术应用于CT扫描仪10及其机架12、旋转构件13、x射线源14、检测器组件18、控制机构26、图像重建器34、计算机36、操作员控制台40、显示器42、检查台控制器44、检查台46和/或机架开口48等的配置、设计和/或操作。可基于输入、所需输出、实际输出等来监测部件配置、操作、结构以学习并建议例如扫描仪10和/或其部件的配置、操作和/或结构的一个或多个变化。
虽然本文已描述了某些示例性方法、装置和制品,但本专利的覆盖范围不限于此。相反,本专利覆盖合理落入本专利的权利要求书的范围内的所有方法、装置和制品。
Claims (20)
1.一种装置,包括:
第一部署的深度学习网络,所述第一部署的深度学习网络与采集引擎相关联,所述采集引擎与成像设备相关联,所述第一部署的深度学习网络被配置为与所述采集引擎一起操作以生成所述成像设备的配置,所述第一部署的深度学习网络由第一训练深度学习网络生成和部署;
第二部署的深度学习网络,所述第二部署的深度学习网络与重建引擎相关联,所述重建引擎经由所述采集引擎从所述成像设备接收采集的图像数据并且由所述采集的图像数据重建图像,所述第二部署的深度学习网络与所述重建引擎一起基于所述采集的图像数据来操作,所述第二部署的深度学习网络由第二训练深度学习网络生成和部署;
第一评估引擎,所述第一评估引擎具有第三部署的深度学习网络,所述评估引擎从所述采集引擎或所述重建引擎中的至少一者接收输出以评估所述采集引擎或所述重建引擎中的所述相应至少一者的操作并且向所述采集引擎或所述重建引擎中的所述相应至少一者提供反馈。
2.根据权利要求1所述的装置,还包括:
第四部署的深度学习网络,所述第四部署的深度学习网络与诊断引擎相关联,所述诊断引擎促进使用来自所述重建引擎的所述重建的图像进行的诊断,所述第四部署的深度学习网络与所述诊断引擎一起操作,所述第四部署的深度学习网络由第四训练深度学习网络生成和部署;以及
第二评估引擎,所述第二评估引擎具有第五部署的深度学习网络,所述评估引擎从所述采集引擎、所述重建引擎或所述诊断引擎中的至少一者接收输出以评估所述采集引擎、所述重建引擎或所述诊断引擎中的所述相应至少一者的操作并且向所述采集引擎、所述重建引擎或所述诊断引擎中的所述相应至少一者提供反馈。
3.根据权利要求1所述的装置,其中所述采集引擎、所述重建引擎和所述诊断引擎交换反馈以生成系统健康状态的指示。
4.根据权利要求1所述的装置,其中所述重建引擎生成所述重建的图像以供人类查看,并且处理所述采集的图像数据以便所述诊断引擎对所述图像数据进行计算机分析。
5.根据权利要求1所述的装置,其中所述第一部署的深度学习网络基于所述采集引擎、所述成像设备以及与待成像的所述患者相关联的患者变量来生成所述成像设备的配置。
6.根据权利要求1所述的装置,其中所述第一部署的深度学习网络、所述第二部署的深度学习网络或所述第三部署的深度学习网络中的至少一者包括卷积神经网络。
7.根据权利要求1所述的装置,其中所述第一训练深度学习网络、所述第二训练深度学习网络或所述第三训练深度学习网络中的至少一者在对应的所述第一部署的深度学习网络、所述第二部署的深度学习网络或所述第三部署的深度学习网络的训练中提供有一个或多个感兴趣特征。
8.一种方法,包括:
经由与和所述成像设备相关联的采集引擎相关的第一部署的深度学习网络来生成用于图像采集的所述成像设备的配置,所述第一部署的深度学习网络由第一训练深度学习网络生成和部署;
使用第二部署的深度学习网络来监测重建引擎对所述成像设备经由所述采集引擎采集的图像数据的图像重建,所述第二部署的深度学习网络与所述重建引擎相关联并且与所述重建引擎一起基于所述采集的图像数据来操作,所述第二部署的深度学习网络由第二训练深度学习网络生成和部署;
基于从所述采集引擎或所述重建引擎中的相应至少一者接收到的输出来评估所述采集引擎或所述重建引擎中的所述相应至少一者的操作;以及
向所述采集引擎或所述重建引擎中的所述相应至少一者提供反馈。
9.根据权利要求8所述的方法,还包括:
使用第三部署的深度学习网络来促进使用来自所述重建引擎的所述重建的图像进行的诊断,所述第三部署的深度学习网络与所述诊断引擎一起操作,所述第三部署的深度学习网络由第三训练深度学习网络生成和部署;以及
基于从所述采集引擎、所述重建引擎或所述诊断引擎中的相应至少一者接收到的输出来评估所述采集引擎、所述重建引擎或所述诊断引擎中的所述相应至少一者的操作以向所述采集引擎、所述重建引擎或所述诊断引擎中的所述相应至少一者提供反馈。
10.根据权利要求8所述的方法,还包括基于所述采集引擎、所述重建引擎和所述诊断引擎之间的反馈交换来生成系统健康状态的指示。
11.根据权利要求8所述的方法,其中所述重建引擎被配置为生成所述重建的图像以供人类查看,并且处理所述采集的图像数据以便所述诊断引擎对所述图像数据进行计算机分析。
12.根据权利要求8所述的方法,其中所述第一部署的深度学习网络基于所述采集引擎、所述成像设备以及与待成像的所述患者相关联的患者变量来生成所述成像设备的配置。
13.根据权利要求8所述的方法,其中所述第一部署的深度学习网络、所述第二部署的深度学习网络或所述第三部署的深度学习网络中的至少一者包括卷积神经网络。
14.根据权利要求8所述的方法,其中所述第一训练深度学习网络、所述第二训练深度学习网络或所述第三训练深度学习网络中的至少一者在对应的所述第一部署的深度学习网络、所述第二部署的深度学习网络或所述第三部署的深度学习网络的训练中提供有一个或多个感兴趣特征。
15.一种包括指令的计算机可读介质,所述指令在被执行时引起机器至少执行以下操作:
经由与和所述成像设备相关联的采集引擎相关的第一部署的深度学习网络来生成用于图像采集的所述成像设备的配置,所述第一部署的深度学习网络由第一训练深度学习网络生成和部署;
使用第二部署的深度学习网络来监测重建引擎对所述成像设备经由所述采集引擎采集的图像数据的图像重建,所述第二部署的深度学习网络与所述重建引擎相关联并且与所述重建引擎一起基于所述采集的图像数据来操作,所述第二部署的深度学习网络由第二训练深度学习网络生成和部署;
基于从所述采集引擎或所述重建引擎中的相应至少一者接收到的输出来评估所述采集引擎或所述重建引擎中的所述相应至少一者或所述诊断引擎的操作;以及
向所述采集引擎或所述重建引擎中的所述相应至少一者提供反馈。
16.根据权利要求15所述的计算机可读介质,其中所述指令在被执行时进一步引起所述机器执行以下操作:
使用第三部署的深度学习网络来促进使用来自所述重建引擎的所述重建的图像进行的诊断,所述第三部署的深度学习网络与所述诊断引擎一起操作,所述第三部署的深度学习网络由第三训练深度学习网络生成和部署;以及
基于从所述采集引擎、所述重建引擎或所述诊断引擎中的相应至少一者接收到的输出来评估所述采集引擎、所述重建引擎或所述诊断引擎中的所述相应至少一者的操作以向所述采集引擎、所述重建引擎或所述诊断引擎中的所述相应至少一者提供反馈。
17.根据权利要求15所述的计算机可读介质,其中所述指令在被执行时进一步引起所述机器基于所述采集引擎、所述重建引擎和所述诊断引擎之间的反馈交换来生成系统健康状态的指示。
18.根据权利要求15所述的计算机可读介质,其中所述重建引擎被配置为生成所述重建的图像以供人类查看,并且处理所述采集的图像数据以便所述诊断引擎对所述图像数据进行计算机分析。
19.根据权利要求15所述的计算机可读介质,其中所述第一部署的深度学习网络基于所述采集引擎、所述成像设备以及与待成像的所述患者相关联的患者变量来生成所述成像设备的配置。
20.根据权利要求15所述的计算机可读介质,其中所述第一部署的深度学习网络、所述第二部署的深度学习网络或所述第三部署的深度学习网络中的至少一者包括卷积神经网络。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/360,410 US10242443B2 (en) | 2016-11-23 | 2016-11-23 | Deep learning medical systems and methods for medical procedures |
US15/360,410 | 2016-11-23 | ||
PCT/US2017/062587 WO2018098077A1 (en) | 2016-11-23 | 2017-11-20 | Deep learning medical systems and methods for medical procedures |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110114834A true CN110114834A (zh) | 2019-08-09 |
CN110114834B CN110114834B (zh) | 2024-04-26 |
Family
ID=60812128
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780080798.7A Active CN110114834B (zh) | 2016-11-23 | 2017-11-20 | 用于医疗程序的深度学习医疗系统和方法 |
Country Status (5)
Country | Link |
---|---|
US (2) | US10242443B2 (zh) |
EP (1) | EP3545525A1 (zh) |
JP (1) | JP7051849B2 (zh) |
CN (1) | CN110114834B (zh) |
WO (1) | WO2018098077A1 (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110689068A (zh) * | 2019-09-25 | 2020-01-14 | 贵州电网有限责任公司 | 一种基于半监督svm的变压器故障类型诊断方法 |
CN110974299A (zh) * | 2019-12-31 | 2020-04-10 | 上海杏脉信息科技有限公司 | 超声扫查机器人系统、超声扫查方法及介质 |
CN111067507A (zh) * | 2019-12-26 | 2020-04-28 | 常熟理工学院 | 基于生成对抗网络和策略梯度的心电信号去噪方法 |
CN111161231A (zh) * | 2019-10-01 | 2020-05-15 | 上海联影智能医疗科技有限公司 | 用于增强患者定位系统的系统和方法 |
CN111311703A (zh) * | 2020-01-21 | 2020-06-19 | 浙江工业大学 | 一种基于深度学习的电阻抗断层图像重构方法 |
CN111382792A (zh) * | 2020-03-09 | 2020-07-07 | 兰州理工大学 | 一种基于双稀疏字典稀疏表示的滚动轴承故障诊断方法 |
CN111796710A (zh) * | 2020-06-02 | 2020-10-20 | 南京信息工程大学 | 一种在触摸屏上再现图像轮廓特征的方法 |
CN111968195A (zh) * | 2020-08-20 | 2020-11-20 | 太原科技大学 | 用于低剂量ct图像降噪及去伪影的双注意力生成对抗网络 |
CN111968108A (zh) * | 2020-09-02 | 2020-11-20 | 广州海兆印丰信息科技有限公司 | 基于智能扫描协议的ct智能成像方法、装置及系统 |
CN112164122A (zh) * | 2020-10-30 | 2021-01-01 | 哈尔滨理工大学 | 一种基于深度残差生成对抗网络的快速cs-mri重建方法 |
CN112426147A (zh) * | 2020-10-21 | 2021-03-02 | 华南师范大学 | 睡眠呼吸事件检测模型处理方法、系统和存储介质 |
CN112603361A (zh) * | 2019-10-04 | 2021-04-06 | 通用电气精准医疗有限责任公司 | 用于在超声图像中跟踪解剖特征的系统和方法 |
CN112612951A (zh) * | 2020-12-17 | 2021-04-06 | 上海交通大学 | 一种面向收益提升的无偏学习排序方法 |
CN113409825A (zh) * | 2021-08-19 | 2021-09-17 | 南京裕隆生物医学发展有限公司 | 健康智能检测方法、装置、电子设备及可读存储介质 |
CN113537373A (zh) * | 2021-07-23 | 2021-10-22 | 中国人民解放军陆军工程大学 | 基于数字孪生的柴油机健康状态评估方法、装置及设备 |
CN113763406A (zh) * | 2021-07-28 | 2021-12-07 | 华中师范大学 | 基于半监督学习的婴儿脑mri分割方法 |
Families Citing this family (166)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
KR20150104615A (ko) | 2013-02-07 | 2015-09-15 | 애플 인크. | 디지털 어시스턴트를 위한 음성 트리거 |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
JP6499918B2 (ja) * | 2015-05-20 | 2019-04-10 | 株式会社トプコン | 眼科検査支援システム及び眼科検査支援サーバ |
US9846938B2 (en) * | 2015-06-01 | 2017-12-19 | Virtual Radiologic Corporation | Medical evaluation machine learning workflows and processes |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10521902B2 (en) * | 2015-10-14 | 2019-12-31 | The Regents Of The University Of California | Automated segmentation of organ chambers using deep learning methods from medical imaging |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
CA3021697A1 (en) | 2016-04-21 | 2017-10-26 | The University Of British Columbia | Echocardiographic image analysis |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
CN107025369B (zh) * | 2016-08-03 | 2020-03-10 | 北京推想科技有限公司 | 一种对医疗图像进行转换学习的方法和装置 |
US10242443B2 (en) | 2016-11-23 | 2019-03-26 | General Electric Company | Deep learning medical systems and methods for medical procedures |
US11281993B2 (en) * | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
WO2018133034A1 (en) * | 2017-01-20 | 2018-07-26 | Intel Corporation | Dynamic emotion recognition in unconstrained scenarios |
US10275820B2 (en) | 2017-01-31 | 2019-04-30 | Walmart Apollo, Llc | Systems and methods for utilizing a convolutional neural network architecture for visual product recommendations |
DE102017203333A1 (de) * | 2017-03-01 | 2018-09-06 | Siemens Healthcare Gmbh | Verfahren zur Überprüfung eines medizinischen Bildes und Verfahren zur Anpassung eines Untersuchungsprotokolls während einer medizinischen Bildgebungsuntersuchung |
US10733533B2 (en) * | 2017-03-07 | 2020-08-04 | General Electric Company | Apparatus and method for screening data for kernel regression model building |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
DK201770429A1 (en) | 2017-05-12 | 2018-12-14 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770411A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | MULTI-MODAL INTERFACES |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
US20180342324A1 (en) * | 2017-05-26 | 2018-11-29 | pulseData Inc. | Systems and Methods for Creating Modular Data Processing Pipelines |
JP7169094B2 (ja) * | 2017-06-01 | 2022-11-10 | 株式会社東芝 | 画像処理システム及び医用情報処理システム |
US10832387B2 (en) * | 2017-07-19 | 2020-11-10 | Petuum Inc. | Real-time intelligent image manipulation system |
US10706534B2 (en) * | 2017-07-26 | 2020-07-07 | Scott Anderson Middlebrooks | Method and apparatus for classifying a data point in imaging data |
EP3435379A1 (en) * | 2017-07-27 | 2019-01-30 | Roche Diagnostics GmbH | Augmenting measurement values of biological samples |
CN107527069A (zh) * | 2017-08-22 | 2017-12-29 | 京东方科技集团股份有限公司 | 图像处理方法、装置、电子设备及计算机可读介质 |
CN107492099B (zh) * | 2017-08-28 | 2021-08-20 | 京东方科技集团股份有限公司 | 医学图像分析方法、医学图像分析系统以及存储介质 |
US10803984B2 (en) * | 2017-10-06 | 2020-10-13 | Canon Medical Systems Corporation | Medical image processing apparatus and medical image processing system |
US11517197B2 (en) | 2017-10-06 | 2022-12-06 | Canon Medical Systems Corporation | Apparatus and method for medical image reconstruction using deep learning for computed tomography (CT) image noise and artifacts reduction |
US11586905B2 (en) * | 2017-10-11 | 2023-02-21 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems and methods for customizing kernel machines with deep neural networks |
US10540589B2 (en) * | 2017-10-24 | 2020-01-21 | Deep North, Inc. | Image quality assessment using similar scenes as reference |
US11605447B2 (en) * | 2017-10-27 | 2023-03-14 | Siemens Healthcare Gmbh | Intelligent agents for patient management |
US10761894B2 (en) * | 2017-10-30 | 2020-09-01 | Sas Institute Inc. | Methods and systems for automated monitoring and control of adherence parameters |
WO2019090023A1 (en) | 2017-11-03 | 2019-05-09 | General Electric Company | System and method for interactive representation learning transfer through deep learning of feature ontologies |
US11335460B2 (en) * | 2017-11-09 | 2022-05-17 | International Business Machines Corporation | Neural network based selection of representative patients |
US11464490B2 (en) * | 2017-11-14 | 2022-10-11 | Verathon Inc. | Real-time feedback and semantic-rich guidance on quality ultrasound image acquisition |
WO2019098418A1 (ko) * | 2017-11-16 | 2019-05-23 | 삼성전자 주식회사 | 뉴럴 네트워크 학습 방법 및 디바이스 |
US10580137B2 (en) * | 2018-01-30 | 2020-03-03 | International Business Machines Corporation | Systems and methods for detecting an indication of malignancy in a sequence of anatomical images |
WO2019157214A2 (en) * | 2018-02-07 | 2019-08-15 | Ai Technologies Inc. | Deep learning-based diagnosis and referral of diseases and disorders |
US10839578B2 (en) * | 2018-02-14 | 2020-11-17 | Smarter Reality, LLC | Artificial-intelligence enhanced visualization of non-invasive, minimally-invasive and surgical aesthetic medical procedures |
US10347255B1 (en) * | 2018-03-08 | 2019-07-09 | Ces Advancements, Llc | Healthcare systems and methods using voice inputs |
US11514267B2 (en) * | 2018-04-11 | 2022-11-29 | ProKarma, Inc. | System and method for performing test data management |
US11557390B2 (en) * | 2018-04-30 | 2023-01-17 | Elekta, Inc. | Radiotherapy treatment plan modeling using generative adversarial networks |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
JP7282487B2 (ja) * | 2018-06-07 | 2023-05-29 | キヤノンメディカルシステムズ株式会社 | 医用画像診断装置 |
WO2019241659A1 (en) * | 2018-06-15 | 2019-12-19 | Subtle Medical, Inc. | Systems and methods for magnetic resonance imaging standardization using deep learning |
JP7199850B2 (ja) * | 2018-06-29 | 2023-01-06 | キヤノンメディカルシステムズ株式会社 | 医用情報処理装置 |
US10978176B2 (en) | 2018-06-29 | 2021-04-13 | pulseData Inc. | Machine learning systems and methods for predicting risk of renal function decline |
US10678822B2 (en) * | 2018-06-29 | 2020-06-09 | International Business Machines Corporation | Query expansion using a graph of question and answer vocabulary |
KR20200003444A (ko) * | 2018-07-02 | 2020-01-10 | 삼성전자주식회사 | 영상 모델 구축 장치 및 방법 |
JP7304223B2 (ja) * | 2018-07-09 | 2023-07-06 | タタ コンサルタンシー サービシズ リミテッド | ハイブリッド学習技法を生成するための方法およびシステム |
JP7091174B2 (ja) * | 2018-07-09 | 2022-06-27 | キヤノン株式会社 | システム、システムの制御方法及びプログラム |
WO2020028382A1 (en) * | 2018-07-30 | 2020-02-06 | Memorial Sloan Kettering Cancer Center | Multi-modal, multi-resolution deep learning neural networks for segmentation, outcomes prediction and longitudinal response monitoring to immunotherapy and radiotherapy |
KR102107021B1 (ko) * | 2018-08-10 | 2020-05-07 | 주식회사 딥핑소스 | 데이터를 식별 처리하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
US10430708B1 (en) * | 2018-08-17 | 2019-10-01 | Aivitae LLC | System and method for noise-based training of a prediction model |
US10751029B2 (en) * | 2018-08-31 | 2020-08-25 | The University Of British Columbia | Ultrasonic image analysis |
JP7175682B2 (ja) * | 2018-09-06 | 2022-11-21 | キヤノンメディカルシステムズ株式会社 | 診断支援装置、診断支援システム、診断支援方法、及び診断支援プログラム |
EP3628229B1 (de) * | 2018-09-27 | 2021-07-21 | Siemens Healthcare GmbH | Erzeugung eines ergebnisbildes |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
KR102246318B1 (ko) * | 2018-10-05 | 2021-04-30 | 주식회사 딥바이오 | 병리 이미지 검색을 위한 시스템 및 방법 |
US20210345970A1 (en) * | 2018-10-15 | 2021-11-11 | University Of Louisville Research Foundation, Inc. | Computer aided diagnostic systems and methods for detection of cancer |
US11494612B2 (en) * | 2018-10-31 | 2022-11-08 | Sony Interactive Entertainment Inc. | Systems and methods for domain adaptation in neural networks using domain classifier |
US11640519B2 (en) | 2018-10-31 | 2023-05-02 | Sony Interactive Entertainment Inc. | Systems and methods for domain adaptation in neural networks using cross-domain batch normalization |
CN109461495B (zh) | 2018-11-01 | 2023-04-14 | 腾讯科技(深圳)有限公司 | 一种医学图像的识别方法、模型训练的方法及服务器 |
US10957032B2 (en) * | 2018-11-09 | 2021-03-23 | International Business Machines Corporation | Flexible visual inspection model composition and model instance scheduling |
US10929708B2 (en) | 2018-12-10 | 2021-02-23 | International Business Machines Corporation | Deep learning network for salient region identification in images |
GB2579797B (en) * | 2018-12-13 | 2022-11-16 | Room4 Group Ltd | Classification of cell nuclei |
CN109740481B (zh) * | 2018-12-26 | 2019-12-10 | 山东科技大学 | 基于跳跃连接的cnn与lstm结合的房颤信号分类系统 |
US10373025B1 (en) * | 2019-01-28 | 2019-08-06 | StradVision, Inc. | Method and device for verifying integrity of parameters of CNN by using test pattern to enhance fault tolerance and fluctuation robustness in extreme situations for functional safety |
CA3129213A1 (en) * | 2019-02-06 | 2020-08-13 | The University Of British Columbia | Neural network image analysis |
US20200257985A1 (en) * | 2019-02-08 | 2020-08-13 | DeepSig Inc. | Adversarially generated communications |
GB2597857B (en) * | 2019-03-15 | 2023-05-17 | Invista Textiles Uk Ltd | Yarn quality control |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
JP7158783B2 (ja) * | 2019-03-22 | 2022-10-24 | 株式会社Medical Optfellow | プログラム、情報処理方法及び情報処理装置 |
WO2020212470A1 (en) * | 2019-04-17 | 2020-10-22 | Koninklijke Philips N.V. | Medical imaging systems and methods with auto-correction of image quality-based on the log analysis of medical devices |
US20220215646A1 (en) * | 2019-04-23 | 2022-07-07 | The Johns Hopkins University | Abdominal multi-organ segmentation with organ-attention networks |
CN110068760A (zh) * | 2019-04-23 | 2019-07-30 | 哈尔滨理工大学 | 一种基于深度学习的异步电动机故障诊断方法 |
US11120215B2 (en) * | 2019-04-24 | 2021-09-14 | International Business Machines Corporation | Identifying spans using visual recognition |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
TWI701681B (zh) * | 2019-05-16 | 2020-08-11 | 中國醫藥大學附設醫院 | 心房顫動預測模型及其預測系統 |
JP7334900B2 (ja) * | 2019-05-20 | 2023-08-29 | 国立研究開発法人理化学研究所 | 判別装置、学習装置、方法、プログラム、学習済みモデルおよび記憶媒体 |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11227599B2 (en) | 2019-06-01 | 2022-01-18 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US20210082565A1 (en) * | 2019-06-01 | 2021-03-18 | Inteneural Networks Inc. | Method and system for predicting neurological treatment |
WO2021009715A1 (en) * | 2019-07-16 | 2021-01-21 | 16 Bit Inc. | Approximating bone mineral density and fracture risk using single energy x-rays |
WO2021022365A1 (en) * | 2019-08-02 | 2021-02-11 | Intellijoint Surgical Inc. | Systems and methods to collaborate, to train an expert system and to provide an expert system |
JP7446736B2 (ja) * | 2019-08-09 | 2024-03-11 | キヤノンメディカルシステムズ株式会社 | 医用データ処理装置および医用画像診断装置 |
US11183294B2 (en) * | 2019-08-30 | 2021-11-23 | International Business Machines Corporation | Automatic detection and replacement of identifying information in images using machine learning |
CN110559009B (zh) * | 2019-09-04 | 2020-12-25 | 中山大学 | 基于gan的多模态低剂量ct转换高剂量ct的方法 |
US20210070334A1 (en) * | 2019-09-05 | 2021-03-11 | Progress Rail Services Corporation | Machine learning based train control |
EP4025311A4 (en) * | 2019-09-06 | 2024-01-03 | Sports Data Labs, Inc. | SYSTEM FOR GENERATING SIMULATED ANIMAL DATA AND MODELS |
CN110610207B (zh) * | 2019-09-10 | 2022-11-25 | 重庆邮电大学 | 一种基于迁移学习的小样本sar图像舰船分类方法 |
US10924334B1 (en) * | 2019-09-12 | 2021-02-16 | Salesforce.Com, Inc. | Monitoring distributed systems with auto-remediation |
US11070441B2 (en) * | 2019-09-23 | 2021-07-20 | Cisco Technology, Inc. | Model training for on-premise execution in a network assurance system |
JP7453767B2 (ja) * | 2019-09-25 | 2024-03-21 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP7350595B2 (ja) * | 2019-10-01 | 2023-09-26 | キヤノンメディカルシステムズ株式会社 | 画像処理装置、医用画像診断装置及び画像処理プログラム |
US11769587B2 (en) * | 2019-10-08 | 2023-09-26 | GE Precision Healthcare LLC | Systems and methods to configure, program, and personalize a medical device using a digital assistant |
US11570030B2 (en) * | 2019-10-11 | 2023-01-31 | University Of South Carolina | Method for non-linear distortion immune end-to-end learning with autoencoder—OFDM |
TWI726459B (zh) * | 2019-10-25 | 2021-05-01 | 中國醫藥大學附設醫院 | 遷移學習輔助預測系統、方法及電腦程式產品 |
US11804050B1 (en) * | 2019-10-31 | 2023-10-31 | Nvidia Corporation | Processor and system to train machine learning models based on comparing accuracy of model parameters |
CN110755076B (zh) * | 2019-11-01 | 2023-08-11 | 上海联影医疗科技股份有限公司 | 磁共振扫描仪的图像采集方法、装置、设备和介质 |
JP7337675B2 (ja) * | 2019-12-04 | 2023-09-04 | キヤノンメディカルシステムズ株式会社 | 医用データ処理装置 |
EP3835828A1 (en) * | 2019-12-11 | 2021-06-16 | Koninklijke Philips N.V. | Ai-based scintillator response modelling for increased spatial resolution in pet |
JP7466301B2 (ja) * | 2019-12-20 | 2024-04-12 | キヤノンメディカルシステムズ株式会社 | 医用システム、医用情報管理装置及び端末装置 |
CN110974217B (zh) * | 2020-01-03 | 2022-08-09 | 苏州大学 | 基于卷积自编码器的双阶段心电信号降噪方法 |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
US20210209509A1 (en) * | 2020-01-07 | 2021-07-08 | Alegion, Inc. | System and method for guided synthesis of training data |
US11574246B2 (en) * | 2020-01-21 | 2023-02-07 | Microsoft Technology Licensing, Llc | Updating training examples for artificial intelligence |
TWI753361B (zh) * | 2020-02-06 | 2022-01-21 | 商之器科技股份有限公司 | 用於醫療影像存取系統與輔助診斷的整合系統 |
US11077320B1 (en) | 2020-02-07 | 2021-08-03 | Elekta, Inc. | Adversarial prediction of radiotherapy treatment plans |
TWI767188B (zh) * | 2020-02-13 | 2022-06-11 | 國立中央大學 | 基於電腦斷層成像分析腦組織成分的系統及其運作方法 |
KR102322616B1 (ko) * | 2020-02-18 | 2021-11-05 | 서울대학교 산학협력단 | Mri 스캐너 고유의 장치특성정보를 이용하는 변환 네트워크부를 포함하는 mri 데이터 변환장치 및 이를 이용한 mri 데이터 변환방법 |
KR20210107288A (ko) * | 2020-02-24 | 2021-09-01 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
US11676031B2 (en) * | 2020-02-25 | 2023-06-13 | Ventech Solutions, Inc. | Anatomical position monitoring for bodily pressure ulcers |
GB2611627A (en) | 2020-02-26 | 2023-04-12 | Get Grin Inc | Systems and methods for remote dental monitoring |
EP3879482A1 (en) | 2020-03-09 | 2021-09-15 | Lyfegen HealthTech AG | System and methods for success based health care payment |
US11651107B2 (en) | 2020-03-17 | 2023-05-16 | Ventech Solutions, Inc. | Securing personally identifiable and private information in conversational AI-based communication |
US20210295551A1 (en) | 2020-03-19 | 2021-09-23 | Unitedhealth Group Incorporated | Systems and methods for automated digital image selection and pre-processing for automated content analysis |
US11568262B2 (en) | 2020-03-25 | 2023-01-31 | Ventech Solutions, Inc. | Neural network based radiowave monitoring of fall characteristics in injury diagnosis |
JP7495713B2 (ja) | 2020-03-31 | 2024-06-05 | 株式会社アラヤ | 情報処理装置及び情報処理方法 |
US11087883B1 (en) * | 2020-04-02 | 2021-08-10 | Blue Eye Soft, Inc. | Systems and methods for transfer-to-transfer learning-based training of a machine learning model for detecting medical conditions |
KR20230003485A (ko) * | 2020-04-16 | 2023-01-06 | 하마마츠 포토닉스 가부시키가이샤 | 방사선 화상 처리 방법, 학습 완료 모델, 방사선 화상 처리 모듈, 방사선 화상 처리 프로그램, 및 방사선 화상 처리 시스템 |
WO2021225390A1 (ko) * | 2020-05-06 | 2021-11-11 | 주식회사 슈파스 | 인공지능을 이용한 환자의 쇼크 발생 예측 방법, 장치 및 컴퓨터프로그램 |
US11043220B1 (en) | 2020-05-11 | 2021-06-22 | Apple Inc. | Digital assistant hardware abstraction |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
US20220139006A1 (en) * | 2020-07-29 | 2022-05-05 | Canon Medical Systems Corporation | Information processing method, medical image diagnostic apparatus, and information processing system |
US20220036281A1 (en) * | 2020-07-30 | 2022-02-03 | Spring Care, Inc. | Evaluating medical providers |
CN112137581A (zh) * | 2020-08-26 | 2020-12-29 | 西北大学 | 一种基于多层感知网络的契伦科夫荧光断层成像重建方法 |
US20220172825A1 (en) * | 2020-11-28 | 2022-06-02 | GE Precision Healthcare LLC | Medical scanner application platform |
CN112998697B (zh) * | 2021-02-22 | 2022-06-14 | 电子科技大学 | 一种基于骨架数据的跌倒伤害程度预测方法、系统及终端 |
US11996201B2 (en) * | 2021-03-04 | 2024-05-28 | Abbott Laboratories | Technology to automatically identify the most relevant health failure risk factors |
US20220327691A1 (en) * | 2021-04-07 | 2022-10-13 | Clarius Mobile Health Corp. | Method and system to assess medical images for suitability in clinical interpretation |
CN113128585B (zh) * | 2021-04-16 | 2022-08-16 | 重庆康如来科技有限公司 | 一种基于多尺寸卷积核的深度神经网络实现心电异常检测分类方法 |
CN113408697B (zh) * | 2021-05-31 | 2022-09-16 | 杭州电子科技大学 | 一种基于强化学习自编码器的脑电数据重建方法 |
US20220386977A1 (en) * | 2021-06-08 | 2022-12-08 | Canon Medical Systems Corporation | Method and system for automatic deployment of image restoration parameters |
US12004900B2 (en) * | 2021-06-09 | 2024-06-11 | GE Precision Healthcare LLC | System and methods for a measurement tool for medical imaging |
US11881041B2 (en) | 2021-09-02 | 2024-01-23 | Bank Of America Corporation | Automated categorization and processing of document images of varying degrees of quality |
CN113807267A (zh) * | 2021-09-22 | 2021-12-17 | 华北电力大学 | 基于紫外视频和深度学习的悬式绝缘子放电严重程度评估方法 |
WO2023081279A1 (en) * | 2021-11-03 | 2023-05-11 | Amit Bahl | Methods and systems for detecting intravascular device failure |
CN118235212A (zh) * | 2021-11-25 | 2024-06-21 | 通用电气精准医疗有限责任公司 | 用于使用机器学习技术来自动推荐放射学方案的系统和方法 |
WO2023126246A1 (en) * | 2021-12-27 | 2023-07-06 | Koninklijke Philips N.V. | Screening for subtle condition sign detection |
US20240020417A1 (en) * | 2022-04-29 | 2024-01-18 | BeeKeeperAI, Inc. | Systems and methods for federated feedback and secure multi-model training within a zero-trust environment |
WO2024008599A1 (en) * | 2022-07-07 | 2024-01-11 | Koninklijke Philips N.V. | System and method to improve image quality and prevent rescans by analyzing cross-hospital context and scan settings |
WO2024101875A1 (ko) * | 2022-11-08 | 2024-05-16 | 주식회사 트라이얼인포매틱스 | 인공지능 기반의 임상시험 영상 자동 표준화 장치, 방법 및 프로그램 |
CN116976566B (zh) * | 2023-09-22 | 2023-12-22 | 中国标准化研究院 | 基于深度学习的公共标识系统和方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001026026A2 (en) * | 1999-10-04 | 2001-04-12 | University Of Florida | Local diagnostic and remote learning neural networks for medical diagnosis |
US20120148125A1 (en) * | 2010-12-14 | 2012-06-14 | General Electric Company | Methods, apparatus and articles of manufacture to adaptively reconstruct medical diagnostic images |
US20140221832A1 (en) * | 2013-02-01 | 2014-08-07 | Siemens Medical Solutions Usa, Inc. | Tuning ultrasound acquisition parameters |
WO2016054287A1 (en) * | 2014-10-01 | 2016-04-07 | Bright.Md Inc. | Medical diagnosis and treatment support apparatus, system, and method |
US20160259994A1 (en) * | 2015-03-04 | 2016-09-08 | Accenture Global Service Limited | Digital image processing using convolutional neural networks |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003190105A (ja) * | 2001-12-27 | 2003-07-08 | Toshiba Corp | 画像蓄積サービスプロバイダ向けの医用画像診断装置の運用管理装置及び方法 |
US7529394B2 (en) * | 2003-06-27 | 2009-05-05 | Siemens Medical Solutions Usa, Inc. | CAD (computer-aided decision) support for medical imaging using machine learning to adapt CAD process with knowledge collected during routine use of CAD system |
US20090006132A1 (en) * | 2007-06-29 | 2009-01-01 | General Electric Company | Patient-specific electronic medical record and method for making same |
US20090006131A1 (en) * | 2007-06-29 | 2009-01-01 | General Electric Company | Electronic medical record-influenced data acquisition, processing, and display system and method |
US8010381B2 (en) | 2008-05-20 | 2011-08-30 | General Electric Company | System and method for disease diagnosis from patient structural deviation data |
US8099299B2 (en) | 2008-05-20 | 2012-01-17 | General Electric Company | System and method for mapping structural and functional deviations in an anatomical region |
US8430816B2 (en) | 2008-05-20 | 2013-04-30 | General Electric Company | System and method for analysis of multiple diseases and severities |
JP2010029481A (ja) * | 2008-07-29 | 2010-02-12 | Univ Of Tsukuba | 腫瘍の経過観察レポート自動作成診断支援システム |
US8053735B2 (en) * | 2008-12-19 | 2011-11-08 | Utah State University | Optimized case specific SPECT sampling |
US9271651B2 (en) | 2009-11-30 | 2016-03-01 | General Electric Company | System and method for integrated quantifiable detection, diagnosis and monitoring of disease using patient related time trend data |
US8934685B2 (en) | 2010-09-21 | 2015-01-13 | General Electric Company | System and method for analyzing and visualizing local clinical features |
US8923580B2 (en) * | 2011-11-23 | 2014-12-30 | General Electric Company | Smart PACS workflow systems and methods driven by explicit learning from users |
US20150161329A1 (en) * | 2012-06-01 | 2015-06-11 | Koninklijke Philips N.V. | System and method for matching patient information to clinical criteria |
JP2014188082A (ja) * | 2013-03-26 | 2014-10-06 | Fujifilm Corp | 携帯型コンソール端末 |
US9152761B2 (en) * | 2014-01-10 | 2015-10-06 | Heartflow, Inc. | Systems and methods for identifying medical image acquisition parameters |
US9324022B2 (en) | 2014-03-04 | 2016-04-26 | Signal/Sense, Inc. | Classifying data with deep learning neural records incrementally refined through expert input |
US20180144241A1 (en) * | 2016-11-22 | 2018-05-24 | Mitsubishi Electric Research Laboratories, Inc. | Active Learning Method for Training Artificial Neural Networks |
US10242443B2 (en) | 2016-11-23 | 2019-03-26 | General Electric Company | Deep learning medical systems and methods for medical procedures |
-
2016
- 2016-11-23 US US15/360,410 patent/US10242443B2/en active Active
-
2017
- 2017-11-20 WO PCT/US2017/062587 patent/WO2018098077A1/en unknown
- 2017-11-20 JP JP2019527370A patent/JP7051849B2/ja active Active
- 2017-11-20 EP EP17821753.5A patent/EP3545525A1/en active Pending
- 2017-11-20 CN CN201780080798.7A patent/CN110114834B/zh active Active
-
2019
- 2019-03-20 US US16/359,647 patent/US10438354B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001026026A2 (en) * | 1999-10-04 | 2001-04-12 | University Of Florida | Local diagnostic and remote learning neural networks for medical diagnosis |
US20120148125A1 (en) * | 2010-12-14 | 2012-06-14 | General Electric Company | Methods, apparatus and articles of manufacture to adaptively reconstruct medical diagnostic images |
US20140221832A1 (en) * | 2013-02-01 | 2014-08-07 | Siemens Medical Solutions Usa, Inc. | Tuning ultrasound acquisition parameters |
WO2016054287A1 (en) * | 2014-10-01 | 2016-04-07 | Bright.Md Inc. | Medical diagnosis and treatment support apparatus, system, and method |
US20160259994A1 (en) * | 2015-03-04 | 2016-09-08 | Accenture Global Service Limited | Digital image processing using convolutional neural networks |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110689068B (zh) * | 2019-09-25 | 2023-07-18 | 贵州电网有限责任公司 | 一种基于半监督svm的变压器故障类型诊断方法 |
CN110689068A (zh) * | 2019-09-25 | 2020-01-14 | 贵州电网有限责任公司 | 一种基于半监督svm的变压器故障类型诊断方法 |
CN111161231A (zh) * | 2019-10-01 | 2020-05-15 | 上海联影智能医疗科技有限公司 | 用于增强患者定位系统的系统和方法 |
CN112603361A (zh) * | 2019-10-04 | 2021-04-06 | 通用电气精准医疗有限责任公司 | 用于在超声图像中跟踪解剖特征的系统和方法 |
CN111067507A (zh) * | 2019-12-26 | 2020-04-28 | 常熟理工学院 | 基于生成对抗网络和策略梯度的心电信号去噪方法 |
CN110974299A (zh) * | 2019-12-31 | 2020-04-10 | 上海杏脉信息科技有限公司 | 超声扫查机器人系统、超声扫查方法及介质 |
CN111311703B (zh) * | 2020-01-21 | 2023-11-21 | 浙江工业大学 | 一种基于深度学习的电阻抗断层图像重构方法 |
CN111311703A (zh) * | 2020-01-21 | 2020-06-19 | 浙江工业大学 | 一种基于深度学习的电阻抗断层图像重构方法 |
CN111382792A (zh) * | 2020-03-09 | 2020-07-07 | 兰州理工大学 | 一种基于双稀疏字典稀疏表示的滚动轴承故障诊断方法 |
CN111382792B (zh) * | 2020-03-09 | 2022-06-14 | 兰州理工大学 | 一种基于双稀疏字典稀疏表示的滚动轴承故障诊断方法 |
CN111796710A (zh) * | 2020-06-02 | 2020-10-20 | 南京信息工程大学 | 一种在触摸屏上再现图像轮廓特征的方法 |
CN111796710B (zh) * | 2020-06-02 | 2023-05-23 | 南京信息工程大学 | 一种在触摸屏上再现图像轮廓特征的方法 |
CN111968195A (zh) * | 2020-08-20 | 2020-11-20 | 太原科技大学 | 用于低剂量ct图像降噪及去伪影的双注意力生成对抗网络 |
CN111968195B (zh) * | 2020-08-20 | 2022-09-02 | 太原科技大学 | 用于低剂量ct图像降噪及去伪影的双注意力生成对抗网络 |
CN111968108A (zh) * | 2020-09-02 | 2020-11-20 | 广州海兆印丰信息科技有限公司 | 基于智能扫描协议的ct智能成像方法、装置及系统 |
CN111968108B (zh) * | 2020-09-02 | 2024-04-16 | 广州海兆印丰信息科技有限公司 | 基于智能扫描协议的ct智能成像方法、装置及系统 |
CN112426147A (zh) * | 2020-10-21 | 2021-03-02 | 华南师范大学 | 睡眠呼吸事件检测模型处理方法、系统和存储介质 |
CN112426147B (zh) * | 2020-10-21 | 2023-08-08 | 华南师范大学 | 睡眠呼吸事件检测模型处理方法、系统和存储介质 |
CN112164122B (zh) * | 2020-10-30 | 2022-08-23 | 哈尔滨理工大学 | 一种基于深度残差生成对抗网络的快速cs-mri重建方法 |
CN112164122A (zh) * | 2020-10-30 | 2021-01-01 | 哈尔滨理工大学 | 一种基于深度残差生成对抗网络的快速cs-mri重建方法 |
CN112612951B (zh) * | 2020-12-17 | 2022-07-01 | 上海交通大学 | 一种面向收益提升的无偏学习排序方法 |
CN112612951A (zh) * | 2020-12-17 | 2021-04-06 | 上海交通大学 | 一种面向收益提升的无偏学习排序方法 |
CN113537373A (zh) * | 2021-07-23 | 2021-10-22 | 中国人民解放军陆军工程大学 | 基于数字孪生的柴油机健康状态评估方法、装置及设备 |
CN113763406A (zh) * | 2021-07-28 | 2021-12-07 | 华中师范大学 | 基于半监督学习的婴儿脑mri分割方法 |
CN113763406B (zh) * | 2021-07-28 | 2024-04-26 | 华中师范大学 | 基于半监督学习的婴儿脑mri分割方法 |
CN113409825A (zh) * | 2021-08-19 | 2021-09-17 | 南京裕隆生物医学发展有限公司 | 健康智能检测方法、装置、电子设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20180144465A1 (en) | 2018-05-24 |
JP7051849B2 (ja) | 2022-04-11 |
US10438354B2 (en) | 2019-10-08 |
WO2018098077A1 (en) | 2018-05-31 |
US10242443B2 (en) | 2019-03-26 |
CN110114834B (zh) | 2024-04-26 |
JP2020500378A (ja) | 2020-01-09 |
US20190220975A1 (en) | 2019-07-18 |
EP3545525A1 (en) | 2019-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110114834A (zh) | 用于医疗程序的深度学习医疗系统和方法 | |
US10628943B2 (en) | Deep learning medical systems and methods for image acquisition | |
US10896352B2 (en) | Deep learning medical systems and methods for image reconstruction and quality evaluation | |
US11003988B2 (en) | Hardware system design improvement using deep learning algorithms | |
US11069056B2 (en) | Multi-modal computer-aided diagnosis systems and methods for prostate cancer | |
CN111127389B (zh) | 用于医疗保健的可扩展人工智能模型生成系统和方法 | |
US10984894B2 (en) | Automated image quality control apparatus and methods | |
CN109817304A (zh) | 针对放射学发现物传送现场护理警报的系统和方法 | |
US11893729B2 (en) | Multi-modal computer-aided diagnosis systems and methods for prostate cancer | |
CN114762057A (zh) | 医学成像系统中的自动化方案拟定 | |
WO2023223060A1 (en) | Method for training a system adapted for aiding evaluation of a medical image | |
EP3965117A1 (en) | Multi-modal computer-aided diagnosis systems and methods for prostate cancer | |
CN118116603A (zh) | 用于对医学图像数据集进行分类的方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |