CN116912305A - 基于深度学习的脑部ct图像三维重建方法及装置 - Google Patents
基于深度学习的脑部ct图像三维重建方法及装置 Download PDFInfo
- Publication number
- CN116912305A CN116912305A CN202311176561.2A CN202311176561A CN116912305A CN 116912305 A CN116912305 A CN 116912305A CN 202311176561 A CN202311176561 A CN 202311176561A CN 116912305 A CN116912305 A CN 116912305A
- Authority
- CN
- China
- Prior art keywords
- image
- brain
- information
- region
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 210000004556 brain Anatomy 0.000 title claims abstract description 188
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000013135 deep learning Methods 0.000 title claims abstract description 32
- 238000012545 processing Methods 0.000 claims abstract description 103
- 238000009877 rendering Methods 0.000 claims abstract description 38
- 230000009467 reduction Effects 0.000 claims abstract description 24
- 238000013178 mathematical model Methods 0.000 claims abstract description 17
- 238000012549 training Methods 0.000 claims abstract description 15
- 238000009826 distribution Methods 0.000 claims description 35
- 210000004885 white matter Anatomy 0.000 claims description 26
- 210000004884 grey matter Anatomy 0.000 claims description 24
- 230000008569 process Effects 0.000 claims description 21
- 210000005013 brain tissue Anatomy 0.000 claims description 20
- 230000000007 visual effect Effects 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 11
- 210000002569 neuron Anatomy 0.000 claims description 11
- 210000001519 tissue Anatomy 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 10
- 238000013527 convolutional neural network Methods 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 10
- 238000013461 design Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000010276 construction Methods 0.000 claims description 7
- 210000003625 skull Anatomy 0.000 claims description 7
- 230000015572 biosynthetic process Effects 0.000 claims description 6
- 239000003086 colorant Substances 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 6
- 230000002452 interceptive effect Effects 0.000 claims description 6
- 238000003786 synthesis reaction Methods 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 5
- 230000000750 progressive effect Effects 0.000 claims description 5
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000007499 fusion processing Methods 0.000 claims description 4
- 230000007246 mechanism Effects 0.000 claims description 4
- 238000004040 coloring Methods 0.000 claims description 2
- 239000013598 vector Substances 0.000 description 21
- 239000011159 matrix material Substances 0.000 description 10
- 210000003484 anatomy Anatomy 0.000 description 8
- 238000001914 filtration Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000009792 diffusion process Methods 0.000 description 4
- 239000000835 fiber Substances 0.000 description 4
- 238000000638 solvent extraction Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000002059 diagnostic imaging Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000000877 morphologic effect Effects 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 230000001054 cortical effect Effects 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000004126 nerve fiber Anatomy 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000002861 ventricular Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003925 brain function Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 231100000915 pathological change Toxicity 0.000 description 1
- 230000036285 pathological change Effects 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 238000007794 visualization technique Methods 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30016—Brain
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种基于深度学习的脑部CT图像三维重建方法及装置,涉及医疗影像技术领域,包括获取第一信息和第二信息;根据第一信息和预设的脑部图像降噪数学模型进行区域划分处理得到第三信息,第三信息为降噪后的脑部CT图像;根据第三信息和预设的深度学习数学模型进行无监督训练处理,构建得到三维重建模型;基于三维重建模型,将第二信息作为模型的输入值进行实时构建处理得到脑部三维图像;根据脑部三维图像进行渲染处理,并将渲染后的三维图像进行可视化呈现得到输出图像。本发明通过采用基于深度学习的降噪和重建方法,能够恢复低剂量脑部CT图像中可能丢失的微观细节和结构信息,从而提高了图像的清晰度和对比度。
Description
技术领域
本发明涉及医疗影像技术领域,具体而言,涉及一种基于深度学习的脑部CT图像三维重建方法及装置。
背景技术
随着医学影像技术的不断发展,脑部CT图像在脑部研究中扮演着日益重要的角色。这种非侵入性的成像方法能够提供关于脑部解剖结构的关键信息。为了最大限度地减少被检查者的辐射暴露,近年来越来越多的注意力被集中在低剂量脑部CT图像的获取上,这旨在保持图像质量的前提下降低辐射剂量。然而,低剂量脑部CT图像在保持辐射剂量低的同时,往往会面临图像清晰度不足的问题。现有方法通过使用滤波技术和图像增强算法来改善低剂量图像的清晰度,但这些方法往往会在提高清晰度的同时引入噪声或造成细节模糊,无法有效地区分脑部不同区域的细微结构,导致图像质量和解剖细节的损失。
针对现有技术的不足,现亟需一种基于深度学习的脑部CT图像三维重建方法及装置,旨在从低剂量图像中恢复丢失的细节和结构信息,实现高质量的三维图像重建。
发明内容
本发明的目的在于提供一种基于深度学习的脑部CT图像三维重建方法及装置,以改善上述问题。为了实现上述目的,本发明采取的技术方案如下:
第一方面,本申请提供了一种基于深度学习的脑部CT图像三维重建方法,包括:获取第一信息和第二信息,所述第一信息为历史脑部CT数据,所述第二信息为待重建脑部CT数据;
根据所述第一信息和预设的脑部图像降噪数学模型进行区域划分处理,并对每个区域的切片图像进行通道划分处理和通道差异性比较得到第三信息,所述第三信息为降噪后的脑部CT图像;
根据所述第三信息和预设的深度学习数学模型进行无监督训练处理,构建得到三维重建模型;
基于所述三维重建模型,将所述第二信息作为模型的输入值进行实时构建处理得到脑部三维图像;
根据所述脑部三维图像进行渲染处理,并将渲染后的三维图像进行可视化呈现得到输出图像。
第二方面,本申请还提供了一种基于深度学习的脑部CT图像三维重建装置,包括:第一获取单元,用于获取第一信息和第二信息,所述第一信息为历史脑部CT数据,所述第二信息为待重建脑部CT数据;
第一处理单元,用于根据所述第一信息和预设的脑部图像降噪数学模型进行区域划分处理,并对每个区域的切片图像进行通道划分处理和通道差异性比较得到第三信息,所述第三信息为降噪后的脑部CT图像;
第二处理单元,用于根据所述第三信息和预设的深度学习数学模型进行无监督训练处理,构建得到三维重建模型;
第三处理单元,用于基于所述三维重建模型,将所述第二信息作为模型的输入值进行实时构建处理得到脑部三维图像;
第四处理单元,用于根据所述脑部三维图像进行渲染处理,并将渲染后的三维图像进行可视化呈现得到输出图像。
本发明的有益效果为:
本发明通过采用基于深度学习的降噪和重建方法,能够恢复低剂量脑部CT图像中可能丢失的微观细节和结构信息,从而提高了图像的清晰度和对比度。此外,通过采用自适应加权融合技术,根据脑部组织的特点,对图像进行细致的通道划分和重建处理,进一步增强了图像质量。
本发明的其他特征和优点将在随后的说明书阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明实施例了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例中所述的基于深度学习的脑部CT图像三维重建方法流程示意图;
图2为本发明实施例中所述的基于深度学习的脑部CT图像三维重建装置结构示意图。
图中标记:701、第一获取单元;702、第一处理单元;703、第二处理单元;704、第三处理单元;705、第四处理单元;7021、第一划分子单元;7022、第一计算子单元;7023、第一融合子单元;7024、第一重建子单元;7031、第一编码子单元;7032、第一建模子单元;7033、第一解码子单元;7034、第一构建子单元;7041、第二编码子单元;7042、第一转换子单元;7043、第一调整子单元;7051、第一渲染子单元;7052、第二渲染子单元;7053、第三渲染子单元;7054、第一处理子单元。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种每个的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
实施例1
如图1所示,本实施例提供了一种基于深度学习的脑部CT图像三维重建方法,其方法包括步骤S1、步骤S2、步骤S3、步骤S4和步骤S5。
步骤S1、获取第一信息和第二信息,第一信息为历史脑部CT数据,第二信息为待重建脑部CT数据。
可以理解的是,历史脑部CT数据是过去患者的医学影像,记录了脑部内部结构的密度分布、形态特征以及组织纹理等。这些数据反映了脑部在不同情况下的变化和特征。待重建脑部CT数据则是需要进行三维重建的新数据,来自于不同时间点或个体,代表了特定脑部状态的信息。在医学影像学中,历史数据的积累对于研究脑部结构和特征变化具有重要意义。通过对历史数据的分析,我们可以了解脑部正常和异常情况下的差异,揭示出一些与疾病或变化有关的特征。同时,待重建脑部CT数据则使我们能够将所研究的方法应用于实际情境。历史脑部CT数据提供了丰富的背景知识,让我们可以了解不同情况下脑部的变化趋势。待重建脑部CT数据则使我们能够将模型应用于实际情境,验证其可行性和效果。
步骤S2、根据第一信息和预设的脑部图像降噪数学模型进行区域划分处理,并对每个区域的切片图像进行通道划分处理和通道差异性比较得到第三信息,第三信息为降噪后的脑部CT图像。
可以理解的是,本步骤首先通过脑部图像降噪数学模型,将历史脑部CT数据进行降噪处理,以减少噪声干扰,提高图像质量。接着,针对降噪后的图像,进行区域划分处理,将图像划分为不同的脑部区域。随后,对每个划分出的区域,进行通道划分处理。每个通道捕捉了不同类型的图像信息,例如密度通道反映了物质的密度分布,对比度通道强调了边缘特征,纹理通道则捕捉了微观结构信息。最后,通过通道差异性比较,对不同区域的相同通道进行比较,以得到第三信息,即降噪后的脑部CT图像。通过降噪处理,减少了噪声对图像的影响,使得后续分析更加准确。区域划分和通道划分则使我们能够对脑部图像的不同特征进行针对性的处理,从而更好地捕捉其复杂性。通道差异性比较进一步增强了不同区域之间的差异性,为后续步骤提供了更具信息量的数据。
步骤S3、根据第三信息和预设的深度学习数学模型进行无监督训练处理,构建得到三维重建模型。
可以理解的是,本步骤通过无监督训练构建一个深度学习模型,该模型具备了从降噪后的脑部CT图像到三维重建图像的转换能力。模型能够自动地学习脑部图像的内在结构和特征,避免了手动设计复杂的图像处理流程。
步骤S4、基于三维重建模型,将第二信息作为模型的输入值进行实时构建处理得到脑部三维图像。
可以理解的是,本步骤通过将第二信息输入到经过训练的三维重建模型中,模型将运用之前学习到的知识,将输入图像转换为高维特征表示,这些表示可以包含有关脑部结构和特征的信息。然后,模型将通过一系列逆向操作,将这些特征映射回三维图像空间,从而构建出初始的三维图像表示。
步骤S5、根据脑部三维图像进行渲染处理,并将渲染后的三维图像进行可视化呈现得到输出图像。
可以理解的是,在脑部三维图像的渲染处理中,根据脑部组织的特点使得图像中的不同脑部区域更加清晰可辨,有助于研究人员更好地分析和理解脑部结构。之后,渲染后的图像会被转化为可视化的形式,通过交互式虚拟现实算法进行处理,使得研究人员能够自由地浏览脑部结构从而获得更详细和全面的图像信息。
在本公开的一种具体实施方式中,步骤S2包括步骤S21、S22、S23和步骤S24。
步骤S21、根据第一信息,利用稀疏编码算法进行脑部区域识别和划分处理,将图像划分为颅骨区域、灰质区域、白质脑组织区域和脑室区域得到区域划分结果。
可以理解的是,稀疏编码算法是一种机器学习方法,旨在通过线性组合一组基向量,以最小的基向量数量来表示输入数据。通过使用稀疏编码算法,我们可以针对不同脑部区域构建专用字典,使得每个字典的基向量能够更准确地代表该区域的特征。例如,颅骨区域、灰质区域、白质脑组织区域和脑室区域具有不同的纹理和密度分布,我们可以利用稀疏编码算法捕获这些区域特定的特征,从而实现精准的区域划分。具体过程如下:
步骤S211、对于每个脑部区域,从历史脑部CT数据中选取代表性图像块,并对这些图像块应用字典学习算法,构建专用的字典,包含能够最佳地反映每个区域特征的基向量。
可以理解的是,字典学习是稀疏编码算法的核心步骤,它的目标是从数据中学习一组基向量,使得这些基向量能够有效地表示数据的局部特征。在当前应用中,字典学习过程的关键在于如何选取历史脑部CT数据中的代表性图像块,并根据每个区域的特征构建专用字典。具体过程如下:
步骤S2111、从历史脑部CT数据中,选择涵盖不同脑部区域的图像块作为训练样本。这些图像块应该能够代表各个区域的解剖结构和特征。例如,对于灰质区域,选择包含大脑皮层的图像块;对于白质脑组织区域,选择包含神经纤维束的图像块。
步骤S2112、对于每个特定的脑部区域,从历史脑部CT数据中选取具有代表性的图像块,并应用字典学习算法。这一算法的核心目标是找到一组针对特定脑部结构和组织特征进行优化的基向量,从而能够高效地捕捉到图像块的局部特征。对于脑部灰质区域,关注与灰质皮质的形态学特征,如脑回的形状、厚度以及皮层纹理。通过优化基向量,能够捕捉这些灰质区域的形态和纹理变化,从而实现更准确的区域划分和特征表示。此外,对于白质脑组织区域关注与纤维束结构相关的参数,如纤维束的走向、连接性以及纤维束的密度分布。通过优化基向量,以最佳地表示这些白质区域的结构特点,从而实现更精准的区域划分和特征提取。
步骤S2113、针对每个脑部区域,经过字典学习得到一组专用的基向量,构建专用字典。这些基向量能够更准确地描述每个区域的特征,从而为后续的区域划分提供更可靠的基础。
可以理解的是,由于每个脑部区域具有不同的解剖结构和组织特点。例如,灰质区域在形状和纹理方面具有显著变化,而白质区域在纤维束的方向和密度上存在差异。因此,为了更准确地描述这些不同区域,我们需要构建针对性的基向量。具体地,首先从历史脑部CT数据中选取代表性的图像块,这些图像块代表了不同的脑部区域。然后应用字典学习算法,通过迭代优化过程逐步调整基向量,使其能够更佳地反映每个区域的特征。通过这个过程,我们可以获得一组针对性的基向量,它们能够更精确地捕捉每个脑部区域的独特特点。
步骤S212、对待重建的脑部CT图像,将其切分成小的图像块(patch)。针对每个图像块,利用所构建的专用字典,将其分解成少数基向量的线性组合,得到稀疏表示。
可以理解的是,图像块的切分有助于局部特征的捕捉,并且每个区域的局部特征可能呈现出较大的变化。不同脑部区域可能具有不同的纹理、密度和形状等特点。通过将图像切分成小块,能够更精细地捕捉这些局部特征,从而在后续的稀疏表示中更准确地表达图像的特征。具体地,对待重建的脑部CT图像进行切分,将其分成多个小的图像块。然后对每个图像块利用构建的专用字典,将其表示成少数基向量的线性组合,得到稀疏表示。这些基向量是通过之前的字典学习过程得到的,它们能够更准确地描述每个区域的特征。
步骤S213、基于稀疏表示的结果,对每个图像块进行聚类,将具有相似稀疏表示的块聚合在一起,形成不同的区域。这些区域反映了脑部不同解剖结构的特征。
可以理解的是,脑部的解剖结构具有丰富的多样性,不同的脑部区域可能呈现出不同的密度、形状和纹理等特点。通过对稀疏表示结果进行聚类,可以将具有相似特征的图像块聚合在一起,从而形成具有解剖学意义的区域。具体地,首先根据每个图像块的稀疏表示结果,计算它们之间的相似性或距离。然后,采用聚类算法将相似的图像块聚合在一起,形成不同的区域。这些区域反映了脑部不同解剖结构的特征,比如灰质、白质、脑室等。这种区域划分方法能够更准确地捕捉不同脑部解剖结构的特征,为后续的图像重建和渲染提供更精细的区域信息。这种基于聚类的区域划分方法,有助于提升脑部CT图像处理的准确性和解剖学意义。
步骤S22、根据区域划分结果中每个区域的图像进行局部对比度计算,并根据局部对比度计算结果将每个区域的图像划分为密度通道、对比度通道和纹理通道得到通道划分结果。
可以理解的是,本步骤中首先针对每个区域内的图像,计算局部对比度。局部对比度是指图像中每个像素点周围邻域的灰度值差异,反映了图像的纹理变化和细节信息。然后,根据局部对比度计算结果,将每个区域的图像划分为密度通道、对比度通道和纹理通道。这种划分能够将不同特征尺度的信息分离开来,使得后续处理能够更加针对性地进行。通过这一步骤能够在区域划分的基础上进一步提取出密度、对比度和纹理等不同特征通道,从而更充分地表达图像的多样性特征。局部对比度计算公式如下:;
其中,C表示局部对比度值;N表示图像块中像素的数量;i表示像素的序号;表示图像块中的第i个像素值;/>表示图像块中像素的平均值;/>表示图像块中像素的标准差;V表示脑室体积;G表示灰质的密度梯度;W表示白质的纹理信息;/>表示脑室体积的最大值;表示灰质的最大密度梯度值;/>表示白质的最大纹理值;/>为密度通道的权重;/>为对比度通道的权重;/>为纹理通道的权重。
步骤S23、根据区域划分结果和通道划分结果进行自适应加权融合处理,通过对每个区域和通道进行权重函数构建得到权重集合。
可以理解的是,脑部CT图像中的不同区域和通道可能具有不同的结构特征和像素分布,不同的脑部组织区域(如灰质、白质)以及不同通道(密度、对比度、纹理)在图像中可能具有不同的重要性。因此,通过自适应加权融合我们能够更好地利用各个区域和通道的信息,以获得更准确的图像表示。具体地,根据区域划分和通道划分的结果,为每个区域和通道分别构建权重函数。这些权重函数会考虑到区域和通道内部的特征,以及它们在图像中的分布情况。通过将不同区域和通道的权重结合,可以得到一个权重集合,用于后续的图像重建步骤。这样的自适应加权融合策略有助于更好地保留图像中不同区域和通道的特征,从而提高重建图像的质量和准确性。
步骤S24、基于权重集合对区域划分结果和通道划分结果进行多通道重建处理,通过对不同区域和通道的图像进行权重调整及合成得到降噪后的脑部CT图像。
可以理解的是,脑部CT图像可能受到各种噪声的影响,包括随机噪声、伪影等。这些噪声会降低图像的质量和清晰度,影响医学影像的分析和研究。通过多通道重建的方式,结合权重集合,对不同区域和通道的图像进行重建处理,以减少噪声,提高图像的可靠性和可用性。优选地,本实施例中采用非负矩阵分解算法处理脑部CT图像,这种算法在处理脑部CT图像时,能够有效地保留图像中的非负性、结构特征和组织分布,从而实现更准确的图像合成。具体地,将区域划分结果作为一个输入矩阵,这个矩阵包含了不同脑部结构的分布信息,例如颅骨、灰质、白质和脑室等。同时,我们还将通道划分结果作为另一个输入矩阵,这个矩阵涵盖了不同的图像特征通道,包括密度、对比度和纹理等。非负矩阵分解算法的核心思想是通过分解输入矩阵,将其表示为两个非负矩阵的乘积。在这个过程中,我们得到了区域特征向量的矩阵和通道权重向量的矩阵。区域特征向量矩阵包含了每个区域的特征,如颅骨、灰质、白质等,而通道权重向量矩阵则决定了不同图像特征通道的重要性,如密度、对比度和纹理。通过这种分解,我们能够将图像的结构信息和特征信息分开表示,并在后续的图像合成过程中,将它们精确地融合起来。
在本公开的一种具体实施方式中,步骤S3包括步骤S31、步骤S32、步骤S33和步骤S34。
步骤S31、根据第三信息,使用卷积神经网络进行特征提取和编码设计得到编码信息,编码信息为编码后的局部特征和纹理信息。
可以理解的是,卷积神经网络是一种专门用于图像处理的深度学习模型,它能够自动学习图像中的层次化特征表示,从而更好地捕捉脑部CT图像中的结构和特征。脑部CT图像具有丰富的解剖结构和组织特征,例如灰质、白质等区域,以及神经元排列的微结构。而纹理信息则涵盖了图像中各种细微的纹理变化,如褶皱、纹理、皮质厚度等。这些特征对于脑部图像的分析和研究具有重要意义。使用卷积神经网络针对第三信息进行特征提取,通过多层卷积和池化操作,逐步将原始图像转换为具有更高级别特征的表示。然后,这些特征被编码为局部特征和纹理信息,这些信息能够更准确地描述图像中不同区域的特征和结构。
步骤S32、根据编码信息进行隐变量分布建模处理得到隐变量表示,并基于脑部常见形状和结构特征计算得到隐变量分布参数,隐变量分布参数包括均值和方差。
可以理解的是,脑部CT图像中存在着许多常见的形状和结构特征,这些特征在解剖结构和组织特点上具有统计分布规律,通过隐变量分布建模,我们可以更好地捕捉这些特征的分布情况。同时,还考虑了隐变量的均值和方差,这些数据反映了不同区域或结构在编码信息中的变异程度,有助于更精细地描述脑部图像中的多样性。
步骤S33、根据隐变量表示和隐变量参数,经过反卷积神经网络的解码和重建设计,得到重建的三维图像表示。
可以理解的是,反卷积操作能够将编码信息逐步映射回原始图像空间,并恢复图像的细节和结构。隐变量参数的引入进一步提高了重建的质量,因为它们充分考虑了脑部CT图像的特征分布和变异情况。通过这一步骤,能够得到一种更接近原始脑部CT图像的三维图像表示,为后续的渲染和可视化处理提供了更有价值的数据基础。
步骤S34、根据三维图像表示和预训练的变分自编码器,通过使用渐进式训练策略和三维卷积神经网络进行构建处理,得到三维重建模型。
可以理解的是,利用预训练的变分自编码器,将已得到的三维图像表示与变分自编码器结合,然后通过渐进式训练策略,逐步引入更多的模型层次和参数,从而逐步提升模型的性能。在构建过程中,充分考虑了脑部CT图像的特点,包括不同区域的解剖结构和纹理特征。通过这种方式得到了一个能够更好地捕捉脑部CT图像特征的三维重建模型。
在本公开的一种具体实施方式中,步骤S4包括步骤S41、步骤S42和步骤S43。
步骤S41、根据三维重建模型的前向传播过程,将第二信息通过编码转换处理得到编码表示。
可以理解的是,本步骤将第二信息作为输入,经过三维重建模型的编码部分,得到一个编码表示,该编码表示在编码空间中代表了脑部CT图像的重要信息。这个编码过程能够将原始图像信息转换为更紧凑的表示形式,捕捉图像的高层次特征。
步骤S42、根据编码表示进行空间转换处理,将编码表示映射至三维图像空间得到实时构建的初步图像表示。
可以理解的是,脑部组织的不同区域在CT图像上表现出密度、纹理和形态上的差异,这些差异需要在重建过程中得以体现。通过将编码表示重新映射到三维图像空间,能够将这些区域特征转化为可视化的图像,使得重建后的图像更加贴近原始脑部CT图像的生物学特征。
步骤S43、根据初步图像表示和预设的调整规则进行灰度值校正和亮度调整得到脑部三维图像。
可以理解的是,脑部CT图像中的不同区域具有不同的密度和灰度值,这些值在图像中的表现可能因为拍摄条件等因素产生偏差。为了纠正这些偏差,需要进行灰度值校正。通过预设的调整规则,可以对图像中的灰度值进行校准,使得不同区域的密度得以准确体现,从而增强图像的生物学可解释性。此外,为了确保脑部图像的视觉效果,还进行了亮度调整。这是因为不同扫描条件和设备可能会导致图像的亮度有所不同。通过预设的调整规则,可以对图像的亮度进行调整,使得图像在可视化呈现时更加清晰明亮,同时确保脑部结构的细节依然可见。
在本公开的一种具体实施方式中,步骤S5包括步骤S51、步骤S52、步骤S53和步骤S54。
步骤S51、根据脑部三维图像的机构和组织特点,使用体绘制算法进行基础渲染处理得到第一渲染图像。
可以理解的是,体绘制算法是一种能够将三维数据集转化为可视化图像的技术,通过考虑脑部不同区域的密度、形态和解剖结构,体绘制算法可以将这些特征映射到图像中,形成有层次感和深度感的渲染图像。将脑部三维图像的数据导入体绘制算法,考虑到脑部的密度分布、解剖结构等特点,生成基础渲染图像。这一图像将呈现出脑部不同区域的特征,如灰质、白质、脑室等,以及它们之间的相对位置和分布。这种渲染方法能够突出脑部不同结构之间的区别,使得脑部的解剖信息更加清晰可见。
步骤S52、根据第一渲染图像进行对比度增强处理,通过强调脑部图像中的灰质与白质边缘和神经元排列微结构,得到第二渲染图像。
可以理解的是,在脑部CT图像处理中,灰质与白质边缘以及神经元排列微结构是非常关键的解剖特征。脑部CT图像中的灰质和白质是脑部组织的主要组成部分,它们在功能和解剖上具有显著的差异。灰质主要包含神经元细胞体,而白质则是神经元的纤维传导路径。在医学图像中,灰质与白质的边缘和分界线能够提供关于脑部结构的重要信息,包括不同脑区域的定位和形态。脑部神经元的排列和分布是脑功能和连接的基础。神经元的微结构包括神经元的排列方式、突触连接等。通过强调神经元排列微结构,可以更好地观察到神经纤维的走向、连接方式以及神经元集群的分布情况。这些信息对于了解脑部功能网络和病理变化具有重要意义。优选地,本步骤中使用非线性扩散滤波作为强调方法,以突出灰质与白质边缘和神经元排列微结构。非线性扩散滤波是一种基于图像梯度的局部增强技术,适用于捕获图像中的微小细节并提升图像的对比度。在应用于脑部CT图像时,这种方法能够有效地增强脑组织的边缘和微结构,凸显不同区域之间的解剖学特征。具体地,首先计算脑部CT图像的梯度,以获得每个像素点的局部边缘信息。然后,通过非线性扩散滤波器对图像进行处理,其中滤波参数根据图像的局部梯度强度进行自适应调整。这种方法能够针对不同区域的边缘和微结构特点进行个性化增强,而不会对整体图像造成过度处理。非线性扩散滤波更加灵活,能够更好地保留图像细节,并且适用于脑部CT图像中特有的低对比度特点。
步骤S53、根据第二渲染图像中的灰度范围和密度分布,使用色彩映射算法,将不同密度的脑部组织以不同颜色进行编码和上色处理得到第三渲染图像。
可以理解的是,将第二渲染图像中的灰度值映射到一种色彩映射方案中,其中不同的灰度范围对应不同的颜色,以便将脑部组织的密度分布在图像中以色彩的方式进行编码。这种映射过程能够突出不同密度区域之间的对比度,使图像更加鲜明,同时也能够在一幅图像中展示出脑部组织的分布情况。色彩映射算法的应用充分利用了脑部CT图像特有的密度信息和组织结构,将这些信息以视觉化的方式表现出来。通过将不同密度的脑部组织编码成不同颜色,医生和研究人员可以更直观地观察脑部结构和分布,进而做出更准确的分析和研究。这种可视化方法能够在医学图像领域中发挥重要作用,帮助专业人士更好地理解图像中的信息,为研究和临床实践提供有力支持。
步骤S54、将第三渲染图像进行可视化呈现,采用交互式的虚拟现实算法处理,通过增加自由浏览脑部结构、实时调整视角和放大比例的功能,得到最终的输出图像。
可以理解的是,本步骤中运用虚拟现实技术,将第三渲染图像转化为一个交互式的三维虚拟环境。在这个虚拟环境中,用户可以通过头部追踪、手势控制等方式自由浏览脑部结构,实时调整视角和放大比例,从而获得全方位、立体感的图像呈现体验。这种虚拟现实算法的应用为医学图像分析提供了更加身临其境的观察方式,使医生能够更加深入地了解脑部结构,发现隐藏在图像中的细节和特征。
实施例2
如图2所示,本实施例提供了一种基于深度学习的脑部CT图像三维重建装置,装置包括第一获取单元701、第一处理单元702、第二处理单元703、第三处理单元704和第四处理单元705。
第一获取单元701,用于获取第一信息和第二信息,第一信息为历史脑部CT数据,第二信息为待重建脑部CT数据。
第一处理单元702,用于根据第一信息和预设的脑部图像降噪数学模型进行区域划分处理,并对每个区域的切片图像进行通道划分处理和通道差异性比较得到第三信息,第三信息为降噪后的脑部CT图像。
第二处理单元703,用于根据第三信息和预设的深度学习数学模型进行无监督训练处理,构建得到三维重建模型。
第三处理单元704,用于基于三维重建模型,将第二信息作为模型的输入值进行实时构建处理得到脑部三维图像。
第四处理单元705,用于根据脑部三维图像进行渲染处理,并将渲染后的三维图像进行可视化呈现得到输出图像。
在本公开的一种具体实施方式中,第一处理单元702包括:
第一划分子单元7021,利用稀疏编码算法进行脑部区域识别和划分处理,将图像划分为颅骨区域、灰质区域、白质脑组织区域和脑室区域得到区域划分结果。
第一计算子单元7022,用于根据区域划分结果中每个区域的图像进行局部对比度计算,并根据局部对比度计算结果将每个区域的图像划分为密度通道、对比度通道和纹理通道得到通道划分结果。
第一融合子单元7023,用于根据根据区域划分结果和通道划分结果进行自适应加权融合处理,通过对每个区域和通道进行权重函数构建得到权重集合。
第一重建子单元7024,用于基于权重集合对区域划分结果和通道划分结果进行多通道重建处理,通过对不同区域和通道的图像进行权重调整及合成得到降噪后的脑部CT图像。
在本公开的一种具体实施方式中,第二处理单元703包括:
第一编码子单元7031,用于根据第三信息,使用卷积神经网络进行特征提取和编码设计得到编码信息,编码信息为编码后的局部特征和纹理信息。
第一建模子单元7032,用于根据编码信息进行隐变量分布建模处理得到隐变量表示,并基于脑部常见形状和结构特征计算得到隐变量分布参数,隐变量分布参数包括均值和方差。
第一解码子单元7033,用于根据隐变量表示和隐变量参数,经过反卷积神经网络的解码和重建设计,得到重建的三维图像表示。
第一构建子单元7034,用于根据三维图像表示和预训练的变分自编码器,通过使用渐进式训练策略和三维卷积神经网络进行构建处理,得到三维重建模型。
在本公开的一种具体实施方式中,第三处理单元704包括:
第二编码子单元7041,用于根据三维重建模型的前向传播过程,将第二信息通过编码转换处理得到编码表示。
第一转换子单元7042,用于根据编码表示进行空间转换处理,将编码表示映射至三维图像空间得到实时构建的初步图像表示。
第一调整子单元7043,用于根据初步图像表示和预设的调整规则进行灰度值校正和亮度调整得到脑部三维图像。
在本公开的一种具体实施方式中,第四处理单元705包括:
第一渲染子单元7051,用于根据脑部三维图像的机构和组织特点,使用体绘制算法进行基础渲染处理得到第一渲染图像。
第二渲染子单元7052,用于根据第一渲染图像进行对比度增强处理,通过强调脑部图像中的灰质与白质边缘和神经元排列微结构,得到第二渲染图像。
第三渲染子单元7053,用于根据第二渲染图像中的灰度范围和密度分布,使用色彩映射算法,将不同密度的脑部组织以不同颜色进行编码和上色处理得到第三渲染图像。
第一处理子单元7054,用于将第三渲染图像进行可视化呈现,采用交互式的虚拟现实算法处理,通过增加自由浏览脑部结构、实时调整视角和放大比例的功能,得到最终的输出图像。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
以上,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种基于深度学习的脑部CT图像三维重建方法,其特征在于,包括:
获取第一信息和第二信息,所述第一信息为历史脑部CT数据,所述第二信息为待重建脑部CT数据;
根据所述第一信息和预设的脑部图像降噪数学模型进行区域划分处理,并对每个区域的切片图像进行通道划分处理和通道差异性比较得到第三信息,所述第三信息为降噪后的脑部CT图像;
根据所述第三信息和预设的深度学习数学模型进行无监督训练处理,构建得到三维重建模型;
基于所述三维重建模型,将所述第二信息作为模型的输入值进行实时构建处理得到脑部三维图像;
根据所述脑部三维图像进行渲染处理,并将渲染后的三维图像进行可视化呈现得到输出图像。
2.根据权利要求1所述的基于深度学习的脑部CT图像三维重建方法,其特征在于,根据所述第一信息和预设的脑部图像降噪数学模型进行区域划分处理,并对每个区域的切片图像进行通道划分处理和通道差异性比较得到第三信息,包括:
根据所述第一信息,利用稀疏编码算法进行脑部区域识别和划分处理,将图像划分为颅骨区域、灰质区域、白质脑组织区域和脑室区域得到区域划分结果;
根据所述区域划分结果中每个区域的图像进行局部对比度计算,并根据局部对比度计算结果将每个区域的图像划分为密度通道、对比度通道和纹理通道得到通道划分结果;
根据所述区域划分结果和所述通道划分结果进行自适应加权融合处理,通过对每个区域和通道进行权重函数构建得到权重集合;
基于所述权重集合对所述区域划分结果和所述通道划分结果进行多通道重建处理,通过对不同区域和通道的图像进行权重调整及合成得到降噪后的脑部CT图像。
3.根据权利要求1所述的基于深度学习的脑部CT图像三维重建方法,其特征在于,根据所述第三信息和预设的深度学习数学模型进行无监督训练处理,构建得到三维重建模型,包括:
根据所述第三信息,使用卷积神经网络进行特征提取和编码设计得到编码信息,所述编码信息为编码后的局部特征和纹理信息;
根据所述编码信息进行隐变量分布建模处理得到隐变量表示,并基于脑部常见形状和结构特征计算得到隐变量分布参数,所述隐变量分布参数包括均值和方差;
根据所述隐变量表示和所述隐变量参数,经过反卷积神经网络的解码和重建设计,得到重建的三维图像表示;
根据所述三维图像表示和预训练的变分自编码器,通过使用渐进式训练策略和三维卷积神经网络进行构建处理,得到三维重建模型。
4.根据权利要求1所述的基于深度学习的脑部CT图像三维重建方法,其特征在于,基于所述三维重建模型,将所述第二信息作为模型的输入值进行实时构建处理得到脑部三维图像,包括:
根据所述三维重建模型的前向传播过程,将所述第二信息通过编码转换处理得到编码表示;
根据所述编码表示进行空间转换处理,将所述编码表示映射至三维图像空间得到实时构建的初步图像表示;
根据所述初步图像表示和预设的调整规则进行灰度值校正和亮度调整得到脑部三维图像。
5.根据权利要求1所述的基于深度学习的脑部CT图像三维重建方法,其特征在于,根据所述脑部三维图像进行渲染处理,并将渲染后的三维图像进行可视化呈现得到输出图像,包括:
根据所述脑部三维图像的机构和组织特点,使用体绘制算法进行基础渲染处理得到第一渲染图像;
根据所述第一渲染图像进行对比度增强处理,通过强调脑部图像中的灰质与白质边缘和神经元排列微结构,得到第二渲染图像;
根据所述第二渲染图像中的灰度范围和密度分布,使用色彩映射算法,将不同密度的脑部组织以不同颜色进行编码和上色处理得到第三渲染图像;
将所述第三渲染图像进行可视化呈现,采用交互式的虚拟现实算法处理,通过增加自由浏览脑部结构、实时调整视角和放大比例的功能,得到最终的输出图像。
6.一种基于深度学习的脑部CT图像三维重建装置,其特征在于,包括:
第一获取单元,用于获取第一信息和第二信息,所述第一信息为历史脑部CT数据,所述第二信息为待重建脑部CT数据;
第一处理单元,用于根据所述第一信息和预设的脑部图像降噪数学模型进行区域划分处理,并对每个区域的切片图像进行通道划分处理和通道差异性比较得到第三信息,所述第三信息为降噪后的脑部CT图像;
第二处理单元,用于根据所述第三信息和预设的深度学习数学模型进行无监督训练处理,构建得到三维重建模型;
第三处理单元,用于基于所述三维重建模型,将所述第二信息作为模型的输入值进行实时构建处理得到脑部三维图像;
第四处理单元,用于根据所述脑部三维图像进行渲染处理,并将渲染后的三维图像进行可视化呈现得到输出图像。
7.根据权利要求6所述的基于深度学习的脑部CT图像三维重建装置,其特征在于,所述第一处理单元包括:
第一划分子单元,利用稀疏编码算法进行脑部区域识别和划分处理,将图像划分为颅骨区域、灰质区域、白质脑组织区域和脑室区域得到区域划分结果;
第一计算子单元,用于根据所述区域划分结果中每个区域的图像进行局部对比度计算,并根据局部对比度计算结果将每个区域的图像划分为密度通道、对比度通道和纹理通道得到通道划分结果;
第一融合子单元,用于根据根据所述区域划分结果和所述通道划分结果进行自适应加权融合处理,通过对每个区域和通道进行权重函数构建得到权重集合;
第一重建子单元,用于基于所述权重集合对所述区域划分结果和所述通道划分结果进行多通道重建处理,通过对不同区域和通道的图像进行权重调整及合成得到降噪后的脑部CT图像。
8.根据权利要求6所述的基于深度学习的脑部CT图像三维重建装置,其特征在于,所述第二处理单元包括:
第一编码子单元,用于根据所述第三信息,使用卷积神经网络进行特征提取和编码设计得到编码信息,所述编码信息为编码后的局部特征和纹理信息;
第一建模子单元,用于根据所述编码信息进行隐变量分布建模处理得到隐变量表示,并基于脑部常见形状和结构特征计算得到隐变量分布参数,所述隐变量分布参数包括均值和方差;
第一解码子单元,用于根据所述隐变量表示和所述隐变量参数,经过反卷积神经网络的解码和重建设计,得到重建的三维图像表示;
第一构建子单元,用于根据所述三维图像表示和预训练的变分自编码器,通过使用渐进式训练策略和三维卷积神经网络进行构建处理,得到三维重建模型。
9.根据权利要求6所述的基于深度学习的脑部CT图像三维重建装置,其特征在于,所述第三处理单元包括:
第二编码子单元,用于根据所述三维重建模型的前向传播过程,将所述第二信息通过编码转换处理得到编码表示;
第一转换子单元,用于根据所述编码表示进行空间转换处理,将所述编码表示映射至三维图像空间得到实时构建的初步图像表示;
第一调整子单元,用于根据所述初步图像表示和预设的调整规则进行灰度值校正和亮度调整得到脑部三维图像。
10.根据权利要求6所述的基于深度学习的脑部CT图像三维重建装置,其特征在于,所述第四处理单元包括:
第一渲染子单元,用于根据所述脑部三维图像的机构和组织特点,使用体绘制算法进行基础渲染处理得到第一渲染图像;
第二渲染子单元,用于根据所述第一渲染图像进行对比度增强处理,通过强调脑部图像中的灰质与白质边缘和神经元排列微结构,得到第二渲染图像;
第三渲染子单元,用于根据所述第二渲染图像中的灰度范围和密度分布,使用色彩映射算法,将不同密度的脑部组织以不同颜色进行编码和上色处理得到第三渲染图像;
第一处理子单元,用于将所述第三渲染图像进行可视化呈现,采用交互式的虚拟现实算法处理,通过增加自由浏览脑部结构、实时调整视角和放大比例的功能,得到最终的输出图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311176561.2A CN116912305B (zh) | 2023-09-13 | 2023-09-13 | 基于深度学习的脑部ct图像三维重建方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311176561.2A CN116912305B (zh) | 2023-09-13 | 2023-09-13 | 基于深度学习的脑部ct图像三维重建方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116912305A true CN116912305A (zh) | 2023-10-20 |
CN116912305B CN116912305B (zh) | 2023-11-24 |
Family
ID=88356884
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311176561.2A Active CN116912305B (zh) | 2023-09-13 | 2023-09-13 | 基于深度学习的脑部ct图像三维重建方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116912305B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150110381A1 (en) * | 2013-09-22 | 2015-04-23 | The Regents Of The University Of California | Methods for delineating cellular regions and classifying regions of histopathology and microanatomy |
CN110472616A (zh) * | 2019-08-22 | 2019-11-19 | 腾讯科技(深圳)有限公司 | 图像识别方法、装置、计算机设备及存储介质 |
WO2020172359A1 (en) * | 2019-02-21 | 2020-08-27 | Case Western Reserve University | Processing three-dimensional (3d) ultrasound images |
CN112734646A (zh) * | 2021-01-19 | 2021-04-30 | 青岛大学 | 一种基于特征通道划分的图像超分辨率重建方法 |
US20220407988A1 (en) * | 2017-02-08 | 2022-12-22 | Essenlix Corporation | Image-Based Assay Using Mark-Assisted Machine Learning |
CN115953494A (zh) * | 2023-03-09 | 2023-04-11 | 南京航空航天大学 | 基于低剂量和超分辨率的多任务高质量ct图像重建方法 |
CN115953487A (zh) * | 2022-09-23 | 2023-04-11 | 深圳扬奇医芯智能科技有限公司 | 一种低剂量ct图像重建方法 |
CN116188325A (zh) * | 2023-03-31 | 2023-05-30 | 东北大学 | 一种基于深度学习和图像颜色空间特性的图像去噪方法 |
CN116258653A (zh) * | 2023-05-16 | 2023-06-13 | 深圳市夜行人科技有限公司 | 一种基于深度学习的微光图像增强方法和系统 |
CN116402954A (zh) * | 2023-05-06 | 2023-07-07 | 云南大学 | 一种基于深度学习的脊柱三维结构的重建方法 |
CN116416375A (zh) * | 2023-02-17 | 2023-07-11 | 贵州大学 | 一种基于深度学习的三维重建方法和系统 |
CN116612263A (zh) * | 2023-07-20 | 2023-08-18 | 北京天图万境科技有限公司 | 一种感知潜视觉合成一致性动态拟合的方法及装置 |
-
2023
- 2023-09-13 CN CN202311176561.2A patent/CN116912305B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150110381A1 (en) * | 2013-09-22 | 2015-04-23 | The Regents Of The University Of California | Methods for delineating cellular regions and classifying regions of histopathology and microanatomy |
US20220407988A1 (en) * | 2017-02-08 | 2022-12-22 | Essenlix Corporation | Image-Based Assay Using Mark-Assisted Machine Learning |
WO2020172359A1 (en) * | 2019-02-21 | 2020-08-27 | Case Western Reserve University | Processing three-dimensional (3d) ultrasound images |
CN110472616A (zh) * | 2019-08-22 | 2019-11-19 | 腾讯科技(深圳)有限公司 | 图像识别方法、装置、计算机设备及存储介质 |
CN112734646A (zh) * | 2021-01-19 | 2021-04-30 | 青岛大学 | 一种基于特征通道划分的图像超分辨率重建方法 |
CN115953487A (zh) * | 2022-09-23 | 2023-04-11 | 深圳扬奇医芯智能科技有限公司 | 一种低剂量ct图像重建方法 |
CN116416375A (zh) * | 2023-02-17 | 2023-07-11 | 贵州大学 | 一种基于深度学习的三维重建方法和系统 |
CN115953494A (zh) * | 2023-03-09 | 2023-04-11 | 南京航空航天大学 | 基于低剂量和超分辨率的多任务高质量ct图像重建方法 |
CN116188325A (zh) * | 2023-03-31 | 2023-05-30 | 东北大学 | 一种基于深度学习和图像颜色空间特性的图像去噪方法 |
CN116402954A (zh) * | 2023-05-06 | 2023-07-07 | 云南大学 | 一种基于深度学习的脊柱三维结构的重建方法 |
CN116258653A (zh) * | 2023-05-16 | 2023-06-13 | 深圳市夜行人科技有限公司 | 一种基于深度学习的微光图像增强方法和系统 |
CN116612263A (zh) * | 2023-07-20 | 2023-08-18 | 北京天图万境科技有限公司 | 一种感知潜视觉合成一致性动态拟合的方法及装置 |
Non-Patent Citations (4)
Title |
---|
ADEMOLA E. ILESANMI 等: "Methods for image denoising using convolutional neural network: a review", 《COMPLEX & INTELLIGENT SYSTEMS (2021)》, pages 2179 * |
ZAIXING MAO 等: "Deep learning based noise reduction method for automatic 3D segmentation of the anterior of lamina cribrosa in optical coherence tomography volumetric scans", 《BIOMEDICAL OPTICS EXPRESS》, pages 1 - 20 * |
王书玲: "基于模糊理论的低剂量锥束CT统计迭代降噪算法的研究", 《中国优秀硕士学位论文全文数据库 (基础科学辑)》, pages 060 - 165 * |
赵冬冬 等: "基于残差和注意力网络的声呐图像去噪方法", 《光电工程》, vol. 50, no. 6, pages 230017 - 1 * |
Also Published As
Publication number | Publication date |
---|---|
CN116912305B (zh) | 2023-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110084318B (zh) | 一种结合卷积神经网络和梯度提升树的图像识别方法 | |
Tiddeman et al. | Towards realism in facial image transformation: Results of a wavelet MRF method | |
CN110827216A (zh) | 图像去噪的多生成器生成对抗网络学习方法 | |
CN112949838B (zh) | 基于四分支注意力机制的卷积神经网络及图像分割方法 | |
Deligiannidis et al. | Emerging trends in image processing, computer vision and pattern recognition | |
CN112288645B (zh) | 一种颅骨面貌复原模型构建方法及复原方法与系统 | |
CN112837274A (zh) | 一种基于多模态多站点数据融合的分类识别方法 | |
Beghdadi et al. | A critical analysis on perceptual contrast and its use in visual information analysis and processing | |
Yao et al. | A weighted feature transfer gan for medical image synthesis | |
CN112488971A (zh) | 基于空间注意力机制和深度卷积生成对抗网络的医学图像融合方法 | |
CN112541566B (zh) | 一种基于重构损失的图像翻译方法 | |
CN116912305B (zh) | 基于深度学习的脑部ct图像三维重建方法及装置 | |
Iddrisu et al. | 3D reconstructions of brain from MRI scans using neural radiance fields | |
CN111814891A (zh) | 医学图像合成方法、装置及存储介质 | |
CN116645283A (zh) | 基于自监督感知损失多尺度卷积神经网络的低剂量ct图像去噪方法 | |
Zhao et al. | Automatic windowing for mri with convolutional neural network | |
CN116091412A (zh) | 一种从pet/ct图像中分割肿瘤的方法 | |
Yang et al. | X‐Ray Breast Images Denoising Method Based on the Convolutional Autoencoder | |
Wan et al. | Multi-focus color image fusion based on quaternion multi-scale singular value decomposition | |
Wang et al. | Multi-modality anatomical and functional medical image fusion based on simplified-spatial frequency-pulse coupled neural networks and region energy-weighted average strategy in non-sub sampled contourlet transform domain | |
CN116664462B (zh) | 一种基于ms-dsc和i_cbam的红外和可见光图像融合方法 | |
Pengyue et al. | CFR-GAN: A Generative Model for Craniofacial Reconstruction | |
Sengupta et al. | Contrast enhancement for color dermascopy images using equalization based on luminosity | |
Intriago-Pazmiño et al. | Quantitative Measures for Medical Fundus and Mammography Images Enhancement | |
Sulaiman et al. | A Convolutional Neural Network Model for Image Enhancement of Extremely Dense Breast Tissue in Digital Breast Tomosynthesis Images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |