CN112102423A - 医学成像方法及系统 - Google Patents
医学成像方法及系统 Download PDFInfo
- Publication number
- CN112102423A CN112102423A CN201910519964.XA CN201910519964A CN112102423A CN 112102423 A CN112102423 A CN 112102423A CN 201910519964 A CN201910519964 A CN 201910519964A CN 112102423 A CN112102423 A CN 112102423A
- Authority
- CN
- China
- Prior art keywords
- image
- network
- processing
- user
- post
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 74
- 238000002059 diagnostic imaging Methods 0.000 title claims abstract description 33
- 238000012805 post-processing Methods 0.000 claims abstract description 53
- 238000003384 imaging method Methods 0.000 claims abstract description 51
- 238000012549 training Methods 0.000 claims description 45
- 230000001960 triggered effect Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 33
- 238000004891 communication Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 18
- 210000002569 neuron Anatomy 0.000 description 11
- 238000013135 deep learning Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000010606 normalization Methods 0.000 description 7
- 230000005855 radiation Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 230000002238 attenuated effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000005669 field effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000002603 single-photon emission computed tomography Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/008—Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5258—Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2211/00—Image generation
- G06T2211/40—Computed tomography
- G06T2211/441—AI-based methods, deep learning or artificial neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Pathology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radiology & Medical Imaging (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- High Energy & Nuclear Physics (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
Abstract
本申请提供了一种医学成像方法及系统,以及非暂态计算机可读存储介质。所述医学成像方法包括获取X射线成像系统采集得到的原始图像;以及基于训练的网络,对原始图像进行后处理,以得到处理后的优化图像。
Description
技术领域
本发明涉及医学成像技术,更具体地涉及一种医学成像方法及系统,以及非暂态计算机可读存储介质。
背景技术
在X射线成像系统中,来自源的辐射射向受试者,该受试者通常为医学诊断应用中的患者。辐射的一部分通过所述患者且冲击检测器,该检测器被划分成离散元件(例如像素)的矩阵。读出检测器元件以基于冲击每个像素区域的辐射的数量或强度而产生输出信号。可接着处理所述信号以产生可显示以供检视的医学图像,该医学图像可以显示在X射线成像系统的显示装置中。
基于检测器采集的信号得到的医学图像的图像质量并不理想,通常需要对该医学图像进行后处理(例如,降噪、细节增强、对比度调整等等),以提高图像质量,然而,在这个过程中,图像处理参数之间存在互相依赖性,某一项后处理的参数调整会对其他项后处理的效果产生影响,例如,基于对比度参数对医学图像的对比度进行调整,然而该参数的调整可能会对医学图像的细节产生影响(例如,模糊某些关键细节),相应地,对医学图像的背景噪声进行处理可能会对医学图像的细节(或对比度或其他方面)产生影响,因此,通过调节每个后处理过程中相对应的参数以得到比较理想的优化图像是需要反复尝试且比较困难的。
发明内容
本发明提供一种医学成像方法及系统,以及非暂态计算机可读存储介质,该成像方法基于深度学习技术构建和训练网络,通过将X射线成像系统采集得到的原始图像输入到网络中,就可以得到(输出)后处理之后的优化图像,该优化图像在对比度、细节增强、降噪等方面都有很好的表现。
本发明的示例性实施例提供了一种医学成像方法,所述方法包括获取X射线成像系统采集得到的原始图像以及基于训练的网络,对所述原始图像进行后处理,以得到处理后的优化图像。
本发明的示例性实施例还提供了一种非暂态计算机可读存储介质,其用于存储计算机程序,所述计算机程序由计算机执行时使计算机执行上述的用于医学成像方法的指令。
本发明的示例性实施例还提供了一种医学成像系统,所述系统包括控制模块和后处理模块。所述控制模块用于获取X射线成像系统采集得到的原始图像,所述后处理模块用于基于训练的网络,对所述原始图像进行后处理,以得到处理后的优化图像。
通过下面的详细描述、附图以及权利要求,其他特征和方面会变得清楚。
附图说明
通过结合附图对于本发明的示例性实施例进行描述,可以更好地理解本发明,在附图中:
图1是根据本发明一些实施例的X射线成像系统的示意图;
图2是根据本发明一些实施例的医学成像系统的示意图;
图3是根据本发明一些实施例的优化过程的示意图;
图4是根据本发明一些实施例的网络的示意图;
图5是根据图2所示的医学成像系统中的显示模块的图像显示界面的示意图;以及
图6是根据本发明一些实施例的医学成像方法的流程图。
具体实施方式
以下将描述本发明的具体实施方式,需要指出的是,在这些实施方式的具体描述过程中,为了进行简明扼要的描述,本说明书不可能对实际的实施方式的所有特征均作详尽的描述。应当可以理解的是,在任意一种实施方式的实际实施过程中,正如在任意一个工程项目或者设计项目的过程中,为了实现开发者的具体目标,为了满足系统相关的或者商业相关的限制,常常会做出各种各样的具体决策,而这也会从一种实施方式到另一种实施方式之间发生改变。此外,还可以理解的是,虽然这种开发过程中所作出的努力可能是复杂并且冗长的,然而对于与本发明公开的内容相关的本领域的普通技术人员而言,在本公开揭露的技术内容的基础上进行的一些设计,制造或者生产等变更只是常规的技术手段,不应当理解为本公开的内容不充分。
除非另作定义,权利要求书和说明书中使用的技术术语或者科学术语应当为本发明所属技术领域内具有一般技能的人士所理解的通常意义。本发明专利申请说明书以及权利要求书中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“一个”或者“一”等类似词语并不表示数量限制,而是表示存在至少一个。“包括”或者“包含”等类似的词语意指出现在“包括”或者“包含”前面的元件或者物件涵盖出现在“包括”或者“包含”后面列举的元件或者物件及其等同元件,并不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,也不限于是直接的还是间接的连接。
在X射线成像系统中,由于后处理过程中各个调节参数之间的互相影响,使得某一参数会对其他后处理过程产生影响,本发明一些实施例中的医学成像方法及系统基于深度学习技术可以对X射线成像系统得到的原始图像进行后处理,直接获取后处理之后的优化图像,基于此,不但减小了后处理过程中参数调节的难度以及调节的时间,而且还提高了后处理之后得到的优化图像的图像质量,此外,通过根据不同用户(例如,医生)的偏好训练不同的学习网络,并根据用户的指令进行网络的选择,可以得到不同风格(即不同用户的偏好)的优化图像。需要指出的是,从本领域或者相关领域普通技术人员的角度来看,这样的描述不应当理解为只将本发明限制在数字X射线成像系统中,实际上,这里描述的医学成像方法及系统可以被合理地应用于与医疗领域和非医疗领域中的其他成像领域,例如,CT系统、MR系统、PET系统、SPECT系统或其任何组合。
图1示出了根据本发明一些实施例的X射线成像系统100。如图1所示,X射线成像系统系统100包括X射线源104,检测器106,以及控制子系统108。在一些实施例中,所述的X射线成像系统系统100可以是设置在固定X射线成像室中的固定X射线成像系统,也可以是移动X射线成像系统。
X射线源104可以向被检测对象102中的预期感兴趣区(ROI)投射X射线114。具体地,X射线源104可以邻近准直仪116定位,准直仪116用于将X射线114对准到被检测对象102中的预期ROI。X射线114的至少一部分可以通过被检测对象102衰减,并且可以入射到检测器106上。
检测器106包括检测器面板阵列,其包括光感测光电二极管和开关薄膜场效应晶体管(FET)的像素阵列,其将光子转换成电信号。沉积在光电二极管和FET的像素阵列上的闪烁体材料将在闪烁体材料表面上接收的入射X射线辐射光子转换成较低能量的光子。如上文提到的,光电二极管和FET的像素阵列将光子转换成电信号。备选地,检测器面板阵列可直接将X射线光子转换成电信号。这些电信号由检测器面板阵列接口(其提供数字信号)给计算装置120以转换成图像数据并且重建被检测对象102的医学图像。在一些实施例中,检测器106可以配置成使用光转换、直接转换和/或其他任何适当的检测技术将入射X射线114转换成电信号。在一些实施例中,检测器106包括用于与通信链路112无线通信的无线通信接口以及有线通信接口,用于与控制子系统108无线和/或有线通信,其中,无线通信接口可利用任何适合的无线通信协议,例如超宽带(UWB)通信标准、蓝牙通信标准或任何IEEE802.11通信标准。
检测器106还可配置成经由有线或无线连接将未被处理或被部分处理的图像数据传送到工作站或便携式检测器控制装置或将经处理的X射线图像传送到打印机来生成图像的副本。便携式检测器控制装置可包括个人数字助理(PDA)、掌上型计算机、膝上型计算机、智能电话、例如iPadTM等平板计算机或任何适合的通用或专用便携式接口装置。便携式检测器控制装置配置成由用户持有并且与检测器106无线通信。注意检测器和便携式检测器控制装置可利用任何适合的无线通信协议,例如IEEE 802.15.4协议、UWB通信标准、蓝牙通信标准或任何IEEE 802.11通信标准。备选地,便携式检测器控制装置可配置成系连或可拆分地系连到检测器106以经由有线连接而通信。
控制子系统108包括源控制器(图中未示出)和检测器控制器(图中未示出)。源控制器用于命令X射线源104发出X射线114用于图像曝光。检测器控制器用于协调各种检测器功能的控制,例如,可执行各种信号处理和过滤功能,具体地,用于动态范围的初始调整、数字图像数据的交错等。在一些实施例中,控制子系统108可以提供用于控制X射线辐射源104和检测器106的操作的功率和定时信号。确切地说,控制子系统108可以分别通过使用电源110以及一个或多个有线和/或无线通信链路112向X射线辐射源104和/或检测器106提供功率和定时信号,其中,通信链路112可以对应于背板总线、局域网、广域网和/或互联网等。在一些实施例中,电源110包括一个或多个电池,此外,尽管图1示出了电源110与X射线源104通过通信链路连接,然而,本领域技术人员应该理解,电源110和X射线源104也可以直接耦合。
控制子系统108可以被设置和/或布置成以不同的方式使用。例如,在一些实现中,可以使用单个控制子系统108;在其他实现中,多个控制子系统108被配置成一起(例如,基于分布式处理配置)或单独地工作,每个控制子系统108被配置成处理特定方面和/或功能,和/或处理用于生成仅用于特定的医学成像系统的模型的数据。在一些实现中,控制子系统108可以是本地的(例如,与一个或多个X射线成像系统100同地,例如在同一设施和/或同一局部网络内);在其他实现中,控制子系统108可以是远程的,因此只能经由远程连接(例如,经由因特网或其他可用的远程访问技术)来访问。在特定实现中,控制子系统108可以以类似云的方式配置,并且可以以与访问和使用其他基于云的系统的方式基本上相似的方式被访问和/或使用。
在一些实施例中,系统100还包括计算装置120,计算装置120可以配置成使用数字化信号来重建一个或多个所需图像和/或确定与被检测对象102相对应的有用诊断信息,其中,计算装置120可以包括一个或多个专用处理器、图形处理单元、数字信号处理器、微型计算机、微控制器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其他适当的处理装置。
在一些实施例中,系统100还包括存储装置122,计算装置120可以将数字化信号存储在存储装置122中。例如,存储装置122可包括硬盘驱动器、软盘驱动器、光盘读/写(CD-R/W)驱动器、数字通用磁盘(DVD)驱动器、闪存驱动器和/或固态存储装置。该存储装置用于存储可以由计算机执行的程序,当计算机执行程序时,可以使X射线成像系统的多个部件实施对应于上述成像序列的操作。当计算机执行程序时,还可以执行医学成像方法,以对原始图像进行后处理,以得到后处理之后的优化图像。
尽管图1将存储装置122、计算装置120、和控制子系统108图示成单独的装置,但是在一些实施例中,它们中的一个或多个可以组合成单个装置,以有效地使用占地面积和/或满足预期的成像要求。
在一个实施例中,系统100还包括显示装置124,显示装置124可以用于显示重建图像和/或诊断信息等,例如,显示装置124可以显示上述的原始图像和/或优化图像,其图形显示界面将结合如图3进一步描述。
在一个实施例中,系统100还包括操作员工作站126,操作员工作站126允许用户接收和评估重建图像,以及输入控制指令(操作信号或控制信号)。操作员工作站126可以包括用户接口(或用户输入设备),诸如键盘、鼠标、语音激活控制器或任何其他适合的输入设备等操作者界面的某个形式,操作者可以通过用户接口来向控制子系统108输入操作信号/控制信号,例如一个或多个扫描参数和/或请求所需诊断信息和/或图像以评估被检测对象102的内部结构和/或机能。
图2示出了根据本发明一些实施例的医学成像系统200,图3示出了根据本发明一些实施例的优化过程的示意图,如图2-3所示,医学成像系统200包括控制模块210,后处理模块220以及显示模块230。
控制模块210用于获取X射线成像系统采集得到的原始图像。
在一些实施例中,通过检测器106(如图1所示)采集通过被检测对象的衰减的X射线并且进行数据处理和重构即可以获取原始图像,如图3中的原始图像246所示,其中原始图像246可以显示在显示模块230中。在一些实施例中,控制模块210与设置在如图1所示的X射线成像系统100中的控制子系统108(或计算装置120)连接或作为该控制子系统108(或计算装置120)的一部分。
后处理模块220用于基于训练的网络,对原始图像进行后处理,以得到处理后的优化图像。
具体地,如图3所示,通过将原始图像246输入到训练好的网络300中,即可得到(或输出)后处理之后的优化图像247。在一些实施例中,后处理模块220输出的优化图像247也可以显示在显示模块230中。在一些实施例中,后处理模块520与设置在如图1所示的X射线成像系统100中的控制子系统108(或计算装置120)连接或作为该控制子系统108(或计算装置120)的一部分。
在一些实施例中,医学成像系统200进一步包括训练模块(图中未示出),以用于基于样本原始图像集(已知输入)及目标图像集(期望输出)训练网络300。所述网络是通过训练数据的准备,网络模型的选择和构建,网络的训练、测试以及优化完成的。在一些实施例中,训练数据集存储在X射线成像系统100的存储装置122中,训练模块可以通过获取所述训练数据集以对网络进行训练和/或更新。
在一些实施例中,训练模块进一步被配置用于实现如下功能。
第一:获取多幅X射线成像系统采集得到的医学图像作为样本原始图像集。在一些实施例中,所述样本原始图像是基于X射线成像系统重构得到的医学图像进行预处理之后得到的,其中,预处理包括归一化处理等。在另一些实施例中,也可以将未进行归一化处理的医学图像作为样本图像集,并将所述样本图像集输入到网络中,然后基于网络中的归一化层对所述样本图像进行归一化处理。在另一些实施例中,所述样本原始图像是由不同型号的X射线成像系统采集重构并进行归一化处理之后得到的。
第二:获取所述样本原始图像集中每幅图像所对应的后处理之后的优化图像,以作为目标图像集。在一些实施例中,所述后处理包括降噪、细节增强、以及对比度调整过程中的一个或多个。在一些实施例中,所述优化图像是基于传统后处理方法得到的,例如通过手动调整一个或多个后处理参数并根据经验判断得到的。然而本领域技术人员可以理解,上述优化图像的获取并不局限上述表示方式,也可以采用任何合适的方式。
第三:将所述样本原始图像集作为输入,目标图像集作为输出,训练网络,以得到所述训练的网络。
在另一些实施例中,训练模块进一步被配置用于实现如下功能。
第一:获取多幅X射线成像系统采集得到的医学图像作为样本原始图像集。
第二:基于多个用户的偏好,分别对样本原始图像集中每幅图像进行后处理,以得到对应每个用户的偏好的多个目标图像集。在一些实施例中,由于用户(例如医生)对优化图像的偏好都是不同的,即有的用户喜欢对比度比较高的图像,有的用户喜欢细节突出的图像,因此,根据用户的偏好,可以对样本原始图像做不同的后处理,以得到多个目标图像集,例如,第一目标图像集对应对比度高的目标图像,第二目标图像集对应细节突出的目标图像。
第三:将所述样本原始图像集作为输入,多个目标图像集中的每一个作为输出,训练网络,以得到对应每个用户的偏好的一个或多个网络。例如,通过样本原始图像集以及第一目标图像集训练得到第一网络,该第一网络对应喜欢对比度高的用户,通过第一网络进行后处理得到的优化图像也是对比度比较高,同理,通过样本原始图像集以及第二目标图像集训练得到第二网络,该第二网络对应喜欢细节突出的用户,通过第二网络进行后处理得到的优化图像也是细节突出的。
在一些实施例中,所述一个或多个网络是基于UNet或其他公知的模型进行训练的。图4示出了根据本发明一些实施例的网络300的示意图。如图4所示,网络300包括包括输入层310、处理层(或称为隐藏层)330以及输出层320。
在一些实施例中,处理层330包括编码部分(331~338)和解码部分(341~348),具体地,处理层330包括第一编码层331以及与第一编码层331跳层连接(skip connection)的第一解码层341,第二编码层332及与其跳层连接的第二解码层342,第三编码层333及与其跳层连接的第三解码层343,第四编码层334及与其跳层连接的第四解码层344,第五编码层335及与其跳层连接的第五解码层345,第六编码层336及与其跳层连接的第六解码层346,第七编码层337及与其跳层连接的第七解码层347,第八编码层338及与其跳层连接的第八解码层348,且第一至第八编码层331~338以及第八至第一解码层348~341也依次连接。通过设置跳层连接,可以将某一编码层的输出直接传送给与其跳层连接的解码层,而非是临近层(即顺序连接层),因此,可以输出不同级别(例如,不同分辨率)的特征图像。
尽管图4中示出了处理层包括8个编码层和8个解码层,然而本领域技术人员应该理解,处理层可以包括任意数量的编码层(解码层数量与编码层数量相对应),并不限于8个,编码层(或解码层)的数量可以根据样本图像中的像素的数量而作适应性调整。此外,本领域技术人员应该理解,图4仅示例性的示出了网络的结构,可以采用任何其他合适的配置。
在一些实施例中,第一至第八编码层331~338以及第一至第八解码层341~348中的每个层都包括至少一个卷积层和至少一个池化层,每个卷积层和每个池化层都包括若干个神经元,且每个层中的神经元的数量可以相同,也可以根据需要进行不同的设置。基于样本原始图像(已知输入)和目标图像(期望输出),通过设置网络中处理层的数量和每个处理层中神经元的数量,并估计(或调整或校准)网络的权重和/或偏差,以识别出已知输入和期望输出之间的数学关系和/或识别和表征每层的输入和输出之间的数学关系。
具体地,当其中一层的神经元数量为n,且该n个神经元中对应的值为X1,X2,…Xn,与所述其中一层连接的下一层的神经元数量为m,且该m个神经元中对应的值为Y1,Y2,…Ym,则所述相邻的两层之间可以表示为:
其中,Xi表示前一层的第i个神经元所对应的值,Yj表示后一层的第j个神经元所对应的值,Wji表示权重,Bj表示偏差。在一些实施例中,函数f为修正线性单元(Rectifiedlinear unit,ReLU)。
因此,通过调整权重Wji和/或偏差Bj,即可识别出每层的输入和输出之间的数学关系,使得损失函数(loss frunction)收敛,以训练所述网络。
当网络创建或训练好时,只要将待后处理的原始图像输入到网络中,就可以获取后处理之后的优化图像。
在一个实施例中,虽然网络300的配置将由估计问题的先验知识、输入、输出等的维度引导,依赖于或者专门根据输入数据实现所需输出数据的最佳近似。在各种替代实施方式中,可以利用数据,成像几何,重建算法等的某些方面和/或特征来为网络300中的某些数据表示赋予明确的含义,这可以有助于加速训练。因为这创建了在网络300中单独训练(或预训练)或定义某些层的机会。
在一些实施例中,上述的样本图像集(包括样本原始图像集及其对应的目标图像集)可以更新,以基于新的样本图像集对所述训练好的网络进行更新或优化,其中,所述目标图像集可以基于传统后处理方法得到(即调整一个或多个后处理参数并根据经验判断得到),也可以是基于本发明一些实施例所述的医学成像方法(即通过上述训练好的网络)得到。
在另一些实施例中,上述的训练的网络是基于外部载体(例如,医学成像系统之外的设备)上的训练模块训练得到的。在一些实施例中,所述训练模块基于样本原始图像集及其对应进行后处理之后的目标图像集,基于UNet或其他公知的模型,训练所述的网络。在一些实施例中,训练系统可以包括用于存储训练数据集(包括样本原始图像集以及目标图像集)的第一模块,用于基于模型进行训练和/或更新的第二模块,以及用于连接第一模块和第二模块的网络。在一些实施例中,所述第一模块包括第一处理单元和第一存储单元,其中第一存储单元用于存储训练数据集,第一处理单元用于接收相关的指令(例如,获取训练数据集)并根据指令发送所述训练数据集,此外,所述第二模块包括第二处理单元和第二存储单元,其中第二存储单元用于存储训练模型,第二处理单元用于接收相关的指令、进行网络的训练和/或更新等,在另一些实施例中,还可以将训练数据集存储在第二模块的第二存储单元中,训练系统可以不包括第一模块。在一些实施例中,网络可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
一旦数据(例如,训练的网络)被生成和/或配置,数据就可以被复制和/或加载到X射线成像系统100中,这可以以不同的方式完成。例如,可以通过X射线成像系统100和控制子系统108之间的定向连接或链路加载模型。就这一点而言,可以使用可用的有线和/或无线连接和/或根据任何合适的通信(和/或网络)标准或协议来完成不同元件之间的通信。备选地或另外地,数据可以间接地加载到X射线成像系统100中。例如,数据可以存储到合适的机器可读介质(例如,闪存卡等)中,然后使用该介质将数据加载到X射线成像系统100(现场,诸如由系统的用户或授权人员),或者数据可以下载到能够本地通信的电子设备(例如,笔记本电脑等)中,然后在现场使用(例如,由系统的用户或授权人员)该设备以将该数据经由直接连接(例如,USB连接器等)上传到X射线成像系统100中。
如本文所讨论的,深度学习技术(又被称为深度机器学习、分层学习或深度结构化学习等)采用用于学习的人工神经网络。深度学习方法的特征在于使用一个或多个网络架构来提取或模拟感兴趣数据。深度学习方法可以使用一个或多个处理层(例如,输入层、输出层、卷积层、归一化层、采样层等等,按照不同的深度网络模型可以具有不同数量和功能的处理层)来完成,其中层的配置和数量允许深度网络处理复杂的信息提取和建模任务。通常通过所谓的学习过程(或训练过程)来估计网络的特定参数(又可以称为“权重”或“偏差”)。被学习或训练的参数通常会导致(或输出)一个对应于不同级别层的网络,因此提取或模拟初始数据的不同方面或前一层的输出通常可以表示层的层次结构或级联。在图像处理或重建的过程中,这可以表征为相对于数据中的不同特征级别的不同层。因此,处理可以分层进行,即,较早或较高级别的层可以对应于从输入数据中提取“简单”特征,接着是将这些简单特征组合成表现出更高复杂度的特征的层。实际上,每层(或者更具体地,每层中的每个“神经元”)可以采用一个或多个线性和/或非线性变换(所谓的激活函数)来将输入数据处理为输出数据表示。多个“神经元”的数量可以是在多个层之间恒定的,或者可以从层到层变化。
如本文所讨论的,作为解决特定问题的深度学习过程的初始训练的一部分,训练数据集包括已知输入值(例如,样本图像或图像进行坐标变换的像素矩阵)以及深度学习过程的最终输出的期望(目标)输出值(例如,图像或识别判断结果)。以这种方式,深度学习算法可以(以监督或引导的方式或以无监督或非指导的方式)处理该训练数据集,直到识别出已知输入和期望输出之间的数学关系和/或识别和表征每层的输入和输出之间的数学关系。学习过程通常利用(部分)输入数据,并为该输入数据创建网络输出,然后将创建的网络输出与该数据集的期望输出进行比较,然后使用创建的和期望的输出之间的差异来迭代地更新网络的参数(权重和/或偏差)。通常可以使用随机梯度下降(Stochastic gradientdescent,SGD)方法来更新网络的参数,然而本领域技术人员应当理解也可以使用本领域中已知的其他方法来更新网络参数。类似地,可以采用单独的验证数据集以对所训练的网络进行验证,其中已知输入和期望输出都是已知的,通过将已知输入提供给所训练的网络可以得到网络输出,然后将该网络输出与(已知的)期望输出进行比较以验证先前的培训和/或防止过度培训。
请继续参考图2,显示模块230用于显示原始图像和优化图像。图5示出医学成像系统200中的的显示模块230的图像显示界面231,如图5所示,图像显示界面231用于显示优化图像247,类似地,图3所示的原始图像246也可以显示在图像显示界面231中。
显示模块230包括第一操作单元,其用于产生第一指令,以将原始图像246输入到网络300中,例如,所述第一操作单元设置在图像显示界面231中,具体地,所述第一操作单元设置在图像显示界面231的菜单栏241中,更具体地,所述第一操作单元为菜单栏241中的后处理控制选项242。在一些实施例中,用户可以通过触发第一操作单元,以得到第一指令,具体地,用户可以通过鼠标或外部输入设备选择所述选项242,也可以通过触摸选择选项242等。
显示模块230包括第二操作单元,其用于产生第二指令,以在一个或多个网络中选择一个,以对原始图像246进行后处理。在一些实施例中,所述第二操作单元设置在图像显示界面231的菜单栏241中,更具体地,所述第一操作单元为菜单栏241中的网络选择选项(图中未示出),用户可以通过触发第一操作单元,以得到第一指令,具体地,用户可以通过鼠标或外部输入设备选择所述所述选项,也可以通过触摸选择所述选项等。在另一些实施例中,第二操作单元设置在用户登录界面,当用户登录自己的账号时,系统可以自动识别或选择该用户所对应的网络,可选地,当用户登录自己的账号后,弹出网络的选择界面,以使得用户可以手动选择所需要的网络(即对应于想要的优化图像风格)。
尽管上述实施例说明了第二操作单元设置在显示模块,然而,本领域技术人员可以理解,第二操作单元也可以设置在任何其他的控制设备或系统中,例如,可以通过设置在控制间的读卡器以识别用户的ID,以自动选择该用户所对应的网络。
显示模块230包括第三操作单元,其用于产生第三指令,以将所述原始图像和所述优化图像输入到所述网络中以优化所述网络,例如,所述第三操作单元设置在图像显示界面231的菜单栏241中,具体地,所述第三操作单元为菜单栏241中的网络优化选项(图中未示出)。在一些实施例中,用户可以通过触发第三操作单元,以得到第三指令,具体地,用户可以通过鼠标或外部输入设备选择所述选项,也可以通过触摸选择选项等。
在一些实施例中,图像显示界面231中的菜单栏241还可以包括放大或缩小、移动等操作单元。
尽管图5仅示出了菜单栏241位于图像显示界面左侧的位置,然而,本领域技术人员可以理解,菜单栏241可以以任何方式和/或位置和/或风格显示,例如,可以有一个悬浮窗口,通过选择可以展开所有的菜单选项,或者是菜单栏可以设置在显示界面的下方一排等等。此外,尽管图5中的图像显示界面231仅示出了优化图像247和菜单栏241,然而本领域技术人员应当理解,图像显示界面231可以进一步显示其他类型的内容,例如,优化图像显示部分的左侧还可以包括图像的地址、多个图像(原始图像以及优化图像)的切换控制等其他内容。在一些实施例中,也可以将原始图像以及优化图像显示在同一个图形用户界面中。
在一些实施例中,显示模块230即为X射线成像系统中的显示装置124(如图1中所示),显示模块230包括设置在扫描间(或设备间)的控制显示器和/或设置在控制间的显示器。
图6示出了根据本发明一些实施例的医学成像方法400的流程图。如图6所示,本发明一些实施例中的医学成像方法400包括步骤410和420。
在步骤410中,获取X射线成像系统采集得到的原始图像。
在一些实施例中,通过检测器采集通过被检测对象的衰减的X射线并且进行数据处理和重构即可以得到医学图像,其中所述原始图像可以显示在X射线成像系统中的显示装置或显示模块中。
在步骤420中,基于训练的网络,对所原始图像进行后处理,以得到处理后的优化图像。具体地,通过将原始图像输入到训练好的网络中,即可得到(或输出)后处理之后的优化图像,优化图像也同样可以显示在X射线成像系统中的显示设备中。
在一些实施例中,所述网络是通过训练数据的准备,网络模型的选择和构建,网络的训练、测试以及优化完成的。在一些实施例中,所述一个或多个网络是基于UNet或其他公知的模型进行训练的,其中,所述网络是基于样本原始图像集及目标图像集训练得到的,具体地,所述网络的训练包括以下步骤一到步骤三。
步骤一:获取多幅X射线成像系统采集得到的医学图像作为样本原始图像集。在一些实施例中,所述样本原始图像是基于X射线成像系统重构得到的医学图像进行预处理之后得到的,其中,预处理包括归一化处理等。在一些实施例中,所述样本原始图像是由不同型号的X射线成像系统采集重构并进行归一化处理之后得到的。
步骤二:获取所述样本原始图像集中每幅图像所对应的后处理之后的优化图像,以作为目标图像集。在一些实施例中,所述后处理包括降噪、细节增强、以及对比度调整过程中的一个或多个。在一些实施例中,所述优化图像是基于传统后处理方法得到的,例如通过手动调整一个或多个后处理参数并根据经验判断得到的。然而本领域技术人员可以理解,上述优化图像的获取并不局限上述表示方式,也可以采用任何合适的方式。
步骤三:将所述样本原始图像集作为输入,目标图像集作为输出,训练网络,以得到所述训练的网络。
在另一些实施例中,所述网络的训练包括以下步骤一到步骤三。
步骤一:获取多幅X射线成像系统采集得到的医学图像作为样本原始图像集。
步骤二:基于多个用户的偏好,分别对样本原始图像集中每幅图像进行后处理,以得到对应每个用户的偏好的多个目标图像集。在一些实施例中,由于用户(例如医生)对优化图像的偏好都是不同的,即有的用户喜欢对比度比较高的图像,有的用户喜欢细节突出的图像,因此,根据用户的偏好,可以对样本原始图像做不同的后处理,以得到多个目标图像集,例如,第一目标图像集对应对比度高的目标图像,第二目标图像集对应细节突出的目标图像。
步骤三:将所述样本原始图像集作为输入,多个目标图像集中的每一个作为输出,训练网络,以得到对应每个用户的偏好的一个或多个网络。例如,通过样本原始图像集以及第一目标图像集训练得到第一网络,该第一网络对应喜欢对比度高的用户,通过第一网络进行后处理得到的优化图像也是对比度比较高,同理,通过样本原始图像集以及第二目标图像集训练得到第二网络,该第二网络对应喜欢细节突出的用户,通过第二网络进行后处理得到的优化图像也是细节突出的。
在一些实施例中,在步骤420(基于训练的网络,对所述原始图像进行后处理,以得到处理后的优化图像)之前,还包括基于用户的第一指令将所述原始图像输入到所述网络中,具体地,所述第一指令是基于图像显示界面中的第一操作单元触发的。
在一些实施例中,所述训练的网络包括一个或多个网络,医学成像方法400进一步包括基于用户的第二指令选择所述一个或多个网络中的一个,以对所述原始图像进行后处理。在一些实施例中,所述用户的第二指令是基于用户的身份识别触发的。在另一些实施例中,所述用户的第二指令是基于图像显示界面中的第二操作单元触发的。
在一些实施例中,医学成像方法400进一步包括基于用户的第三指令,将所述原始图像和所述优化图像进一步输入到所述网络中以优化所述网络,具体地,所述第三指令是基于图像显示界面中的第三操作单元触发的。
本发明提出的基于深度学习的医学成像方法,可以更精确、更及时地对医学原始图像进行后处理,不再依靠于现场工程师的手动调整以及经验判断,不但减小了后处理过程中参数调节的难度以及调节的时间,而且还提高了后处理之后得到的优化图像的图像质量。此外,还可以根据用户的偏好(或风格),设置不同风格的样本图像集,以训练不同风格的学习网络,通过用户选择其对应的学习网络,即可得到对应用户偏好的优化图像风格。
本发明还可以提供一种非暂态计算机可读存储介质,其用于存储指令集和/或计算机程序,该指令集和/或计算机程序由计算机执行时使计算机执行上述的获医学成像方法,执行该指令集和/或计算机程序的计算机可以为X射线成像系统的计算机,也可以为X射线成像系统的其它装置/模块,在一种实施例中,该指令集和/或计算机程序可以编制于计算机的处理器/控制器中。
具体地,该指令集和/或计算机程序由计算机执行时使计算机:
获取X射线成像系统采集得到的原始图像;以及
基于训练的网络,对所述原始图像进行后处理,以得到处理后的优化图像。
如上所述的指令可以被合并为一个指令执行,任一指令也可以被拆分成多个指令以执行,此外,也并不限于按照上述的指令执行顺序。
在一些实施例中,在对所述原始图像进行后处理之前还包括基于用户的第一指令将所述原始图像输入到所述网络中。
在一些实施例中,所述训练的网络包括一个或多个网络,且所述方法进一步包括基于用户的第二指令选择所述一个或多个网络中的一个,以对所述原始图像进行后处理。
在一些实施例中,进一步包括基于用户的第三指令,将所述原始图像和所述优化图像进一步输入到所述网络中以优化所述网络。
如本文使用的,术语“计算机”可包括任何基于处理器或基于微处理器的系统,其包括使用微控制器、精简指令集计算机(RISC)、专用集成电路(ASIC)、逻辑电路和能够执行本文描述的功能的任何其它电路或处理器的系统。上文的示例只是示范性的,并且从而不意在采用任何方式限制术语“计算机”的定义和/或含义。
指令集可包括各种命令,其指示作为处理机的计算机或处理器执行特定的操作,例如各种实施例的方法和过程。指令集可采用软件程序的形式,该软件程序可形成一个或多个有形的非暂时性计算机可读介质的一部分。该软件可采用例如系统软件或应用软件的各种形式。此外,该软件可采用独立程序或模块的集合、在更大程序内的程序模块或程序模块的一部分的形式。该软件还可包括采用面向对象编程的形式的模块化编程。输入数据由处理机的处理可响应于操作者命令,或响应于先前的处理结果,或响应于由另外一个处理机作出的请求。
上面已经描述了一些示例性实施例,然而,应该理解的是,可以做出各种修改。例如,如果所描述的技术以不同的顺序执行和/或如果所描述的系统、架构、设备或电路中的组件以不同方式被组合和/或被另外的组件或其等同物替代或补充,则可以实现合适的结果。相应地,其他实施方式也落入权利要求的保护范围内。
Claims (17)
1.一种医学成像方法,其包括:
获取X射线成像系统采集得到的原始图像;以及
基于训练的网络,对所述原始图像进行后处理,以得到处理后的优化图像。
2.如权利要求1所述的方法,其中,在对所述原始图像进行后处理之前还包括基于用户的第一指令将所述原始图像输入到所述网络中。
3.如权利要求2所述的方法,其中,所述第一指令是基于图像显示界面中的第一操作单元触发的。
4.如权利要求1所述的方法,其中,所述训练的网络包括一个或多个网络,且所述方法进一步包括:
基于用户的第二指令选择所述一个或多个网络中的一个,以对所述原始图像进行后处理。
5.如权利要求4所述的方法,其中,所述用户的第二指令是基于用户的身份识别触发的。
6.如权利要求4所述的方法,其中,所述用户的第二指令是基于图像显示界面中的第二操作单元触发的。
7.如权利要求1所述的方法,其中,所述网络是基于样本原始图像集及目标图像集训练得到的。
8.如权利要求7所述的方法,其中,所述训练方法包括:
获取多幅X射线成像系统采集得到的原始图像,以得到样本原始图像集;
基于一个或多个用户的偏好,分别对所述原始图像进行后处理,以得到对应每个用户的偏好的多个目标图像集;以及
将所述样本原始图像集作为输入,所述多个目标图像集中的每一个分别作为输出,训练神经网络,以得到对应每个用户的偏好的一个或多个网络。
9.如权利要求1所述的方法,其中,进一步包括:
基于用户的第三指令,将所述原始图像和所述优化图像进一步输入到所述网络中以优化所述网络。
10.如权利要求9所述的方法,其中,所述第三指令是基于图像显示界面中的第三操作单元触发的。
11.一种非暂态计算机可读存储介质,其用于存储计算机程序,所述计算机程序由计算机执行时使计算机执行权利要求1-10任一项所述的医学成像方法。
12.一种医学成像系统,其包括:
控制模块,其用于获取X射线成像系统采集得到的原始图像;
后处理模块,其用于基于训练的网络,对所述原始图像进行后处理,以得到处理后的优化图像;以及
显示模块,其用于显示所述原始图像和所述优化图像。
13.如权利要求12所述的系统,其中,所述显示模块包括第一操作单元,其用于产生第一指令,以将所述原始图像输入到所述网络中。
14.如权利要求12所述的系统,其中,进一步包括:
训练模块,其用于基于样本原始图像集及目标图像集训练得到的。
15.如权利要求14所述的系统,其中,所述训练模块进一步被配置用于:
获取多幅X射线成像系统采集得到的原始图像,以得到样本原始图像集;
基于一个或多个用户的偏好,分别对所述原始图像进行后处理,以得到对应每个用户的偏好的多个目标图像集;以及
将所述样本原始图像集作为输入,所述多个目标图像集中的每一个分别作为输出,训练神经网络,以得到对应每个用户的偏好的一个或多个网络。
16.如权利要求15所述的系统,其中,所述显示模块包括第二操作单元,其用于产生第二指令,以选择所述一个或多个网络中的一个,以对所述原始图像进行后处理。
17.如权利要求12所述的系统,其中,所述显示模块包括第三操作单元,其用于产生第三指令,以将所述原始图像和所述优化图像输入到所述网络中以优化所述网络。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910519964.XA CN112102423A (zh) | 2019-06-17 | 2019-06-17 | 医学成像方法及系统 |
EP20180117.2A EP3753493A1 (en) | 2019-06-17 | 2020-06-15 | Medical imaging method and system |
JP2020103470A JP7080924B2 (ja) | 2019-06-17 | 2020-06-16 | 医用画像結像方法及びシステム |
US16/902,330 US11398012B2 (en) | 2019-06-17 | 2020-06-16 | Medical imaging method and system |
US17/872,901 US20220366540A1 (en) | 2019-06-17 | 2022-07-25 | Medical imaging method and system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910519964.XA CN112102423A (zh) | 2019-06-17 | 2019-06-17 | 医学成像方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112102423A true CN112102423A (zh) | 2020-12-18 |
Family
ID=71103226
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910519964.XA Pending CN112102423A (zh) | 2019-06-17 | 2019-06-17 | 医学成像方法及系统 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11398012B2 (zh) |
EP (1) | EP3753493A1 (zh) |
JP (1) | JP7080924B2 (zh) |
CN (1) | CN112102423A (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11790492B1 (en) * | 2019-12-18 | 2023-10-17 | Thales Sa | Method of and system for customized image denoising with model interpretations |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3642591B2 (ja) | 1994-11-29 | 2005-04-27 | 株式会社日立メディコ | 画像処理装置 |
US6819790B2 (en) * | 2002-04-12 | 2004-11-16 | The University Of Chicago | Massive training artificial neural network (MTANN) for detecting abnormalities in medical images |
US8923580B2 (en) | 2011-11-23 | 2014-12-30 | General Electric Company | Smart PACS workflow systems and methods driven by explicit learning from users |
US9412046B2 (en) * | 2014-10-10 | 2016-08-09 | Facebook, Inc. | Training image adjustment preferences |
US10460231B2 (en) * | 2015-12-29 | 2019-10-29 | Samsung Electronics Co., Ltd. | Method and apparatus of neural network based image signal processor |
JP6813178B2 (ja) | 2016-12-07 | 2021-01-13 | 学校法人常翔学園 | 生体画像処理装置、出力画像製造方法、学習結果製造方法、及びプログラム |
EP3404611A1 (en) * | 2017-05-19 | 2018-11-21 | RetinAI Medical GmbH | Reducing noise in an image |
JP7169094B2 (ja) * | 2017-06-01 | 2022-11-10 | 株式会社東芝 | 画像処理システム及び医用情報処理システム |
US11517197B2 (en) * | 2017-10-06 | 2022-12-06 | Canon Medical Systems Corporation | Apparatus and method for medical image reconstruction using deep learning for computed tomography (CT) image noise and artifacts reduction |
WO2019217437A2 (en) * | 2018-05-07 | 2019-11-14 | Eolianvr, Incorporated | Device and content agnostic, interactive, collaborative, synchronized mixed reality system and method |
US10635943B1 (en) * | 2018-08-07 | 2020-04-28 | General Electric Company | Systems and methods for noise reduction in medical images with deep neural networks |
US11526713B2 (en) * | 2018-09-28 | 2022-12-13 | Intel Corporation | Embedding human labeler influences in machine learning interfaces in computing environments |
US10290084B1 (en) * | 2018-11-14 | 2019-05-14 | Sonavista, Inc. | Correcting image blur in medical image |
US11354791B2 (en) * | 2018-12-19 | 2022-06-07 | General Electric Company | Methods and system for transforming medical images into different styled images with deep neural networks |
JP7302988B2 (ja) * | 2019-03-07 | 2023-07-04 | 富士フイルムヘルスケア株式会社 | 医用撮像装置、医用画像処理装置、及び、医用画像処理プログラム |
-
2019
- 2019-06-17 CN CN201910519964.XA patent/CN112102423A/zh active Pending
-
2020
- 2020-06-15 EP EP20180117.2A patent/EP3753493A1/en active Pending
- 2020-06-16 JP JP2020103470A patent/JP7080924B2/ja active Active
- 2020-06-16 US US16/902,330 patent/US11398012B2/en active Active
-
2022
- 2022-07-25 US US17/872,901 patent/US20220366540A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20200394758A1 (en) | 2020-12-17 |
US11398012B2 (en) | 2022-07-26 |
US20220366540A1 (en) | 2022-11-17 |
JP2021006247A (ja) | 2021-01-21 |
JP7080924B2 (ja) | 2022-06-06 |
EP3753493A1 (en) | 2020-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11288550B2 (en) | Data processing apparatus and method, recognition apparatus, learning data storage apparatus, machine learning apparatus, and program | |
US11501438B2 (en) | Cone-beam CT image enhancement using generative adversarial networks | |
US10417788B2 (en) | Anomaly detection in volumetric medical images using sequential convolutional and recurrent neural networks | |
US20190065897A1 (en) | Medical image analysis method, medical image analysis system and storage medium | |
CN107680657B (zh) | 医学扫描仪自学优化临床协议和图像采集 | |
US11507822B2 (en) | Scalable artificial intelligence model generation systems and methods for healthcare | |
US11941786B2 (en) | Image noise reduction method and device | |
WO2020127398A1 (en) | Automated semantic segmentation of non-euclidean 3d data sets using deep learning | |
WO2020246996A1 (en) | Sct image generation using cyclegan with deformable layers | |
US20200210767A1 (en) | Method and systems for analyzing medical image data using machine learning | |
KR102219890B1 (ko) | 딥러닝을 이용한 의료영상의 공간 정규화 장치 및 그 방법 | |
CN113689342A (zh) | 一种图像质量优化的方法及系统 | |
EP4018371A1 (en) | Systems and methods for accurate and rapid positron emission tomography using deep learning | |
CN107688815A (zh) | 医学图像的分析方法和分析系统以及存储介质 | |
WO2021041125A1 (en) | Systems and methods for accurate and rapid positron emission tomography using deep learning | |
US20210182674A1 (en) | Automatic training and deployment of deep learning technologies | |
US20220366540A1 (en) | Medical imaging method and system | |
Sheremet et al. | Diagnosis of lung disease based on medical images using artificial neural networks | |
Hellwig et al. | Artificial intelligence and deep learning for advancing PET image reconstruction: State-of-the-art and future directions | |
CN111915495A (zh) | 获取截断部分预测图像的方法及装置 | |
US20230154164A1 (en) | Self-supervised learning for artificial intelligence-based systems for medical imaging analysis | |
CN111915692A (zh) | 成像方法及装置 | |
US20240193761A1 (en) | Deep learning image processing | |
US20230060113A1 (en) | Editing presegmented images and volumes using deep learning | |
Baloch et al. | Deep Learning-Based Medical Image Reconstruction: Overview, Analysis, and Challenges. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |