CN110675335B - 基于多分辨率残差融合网络的浅表静脉增强方法 - Google Patents
基于多分辨率残差融合网络的浅表静脉增强方法 Download PDFInfo
- Publication number
- CN110675335B CN110675335B CN201910819308.1A CN201910819308A CN110675335B CN 110675335 B CN110675335 B CN 110675335B CN 201910819308 A CN201910819308 A CN 201910819308A CN 110675335 B CN110675335 B CN 110675335B
- Authority
- CN
- China
- Prior art keywords
- vein
- image
- simulated
- different
- fusion network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 210000003462 vein Anatomy 0.000 title claims abstract description 124
- 238000000034 method Methods 0.000 title claims abstract description 33
- 230000004927 fusion Effects 0.000 title claims abstract description 31
- 238000012549 training Methods 0.000 claims abstract description 26
- NIXOWILDQLNWCW-UHFFFAOYSA-N acrylic acid group Chemical group C(C=C)(=O)O NIXOWILDQLNWCW-UHFFFAOYSA-N 0.000 claims abstract description 21
- 238000003384 imaging method Methods 0.000 claims abstract description 21
- 210000004204 blood vessel Anatomy 0.000 claims abstract description 17
- 238000005286 illumination Methods 0.000 claims abstract description 15
- 238000013508 migration Methods 0.000 claims abstract description 13
- 230000005012 migration Effects 0.000 claims abstract description 13
- 230000002708 enhancing effect Effects 0.000 claims abstract description 6
- 230000006870 function Effects 0.000 claims description 24
- 230000008447 perception Effects 0.000 claims description 6
- 238000006073 displacement reaction Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 238000005070 sampling Methods 0.000 abstract description 9
- 230000000694 effects Effects 0.000 abstract description 8
- 230000008569 process Effects 0.000 abstract description 5
- 238000011176 pooling Methods 0.000 description 13
- 238000004088 simulation Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000001427 coherent effect Effects 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 102000001554 Hemoglobins Human genes 0.000 description 1
- 108010054147 Hemoglobins Proteins 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Instructional Devices (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于多分辨率残差融合网络的浅表静脉增强方法,采用随机排布的粗细不一的黑色导线模拟静脉;通过磨砂亚克力板模拟不同程度的皮肤散射,采集不同曝光时间下的图像作为模拟静脉数据集;通过风格迁移,将模拟静脉数据集转换为类活体血管成像数据集;随机从类活体血管成像数据集中抽取部分作为训练集,采用多分辨率残差融合网络进行训练,获得增强模型;用增强模型对真实静脉数据进行增强,获得静脉增强图像。本发明通过训练不同光照条件,不同散射程度的模拟静脉数据集,获得鲁棒性好的增强模型;通过融合网络中不同层次的特征,弥补下采样过程中损失的信息,实现了与其他网络相比更好的细节增强效果。
Description
技术领域
本发明属于生物医学成像技术领域,特别是一种基于多分辨率残差融合网络的浅表静脉增强方法。
背景技术
浅表静脉分布图像的获取与处理是生物医学成像领域的重要研究课题之一,在医学诊疗以及生物特征识别等领域具有重要的应用价值。例如,在临床医学领域中,浅表静脉的特征提取有助于提高静脉穿刺的成功率;浅表静脉作为活体特征,具有普遍性和唯一性,难以伪造或改变,用于生物识别更加用户友好且安全。
采集浅表静脉图像时,近红外光在照射静脉时发生散射,光照不均、设备缺陷,皮肤组织纹理、脂肪厚度、低温等不利因素会导致采集到的图像对比度低、灰度分布不均匀、噪声干扰大,静脉纹理不够清晰连贯,达不到血管显像的要求。而由于肤色、血管粗细、深度、脂肪厚度等因素的不同,一些特殊人群如婴儿、老人、肥胖患者等的静脉检测效果差异大。因此,有效增强浅表静脉图像不论对辅助穿刺还是静脉识别都具有重要意义。传统的非监督方法采用滤波和直方图均衡化等,如《An Effective Quality Improvement Approachfor Low Quality Finger Vein Image》所采用的方法,检测出的静脉不够清晰,背景杂乱,受成像条件影响较大;监督学习方法需要和数据一一对应的label,而浅表静脉数据缺乏数据库,其label需要专业人士进行标注,耗费大量人力财力,成本较高,很难推广应用。
发明内容
发明的目的在于提供一种基于多分辨率残差融合网络的浅表静脉增强方法。
实现本发明目的的技术解决方案为:一种基于多分辨率残差融合网络的浅表静脉增强方法,包括:
用随机排布的粗细不一的黑色导线模拟静脉,采集图像作为label;
在模拟静脉前不同位置放置不同厚度的磨砂亚克力板,模拟不同程度的皮肤散射,采集不同曝光时间下的图像作为模拟静脉数据集;
通过风格迁移,将模拟静脉数据集转换为类活体血管成像数据集;
随机从类活体血管成像数据集中抽取部分作为训练集,采用多分辨率残差融合网络进行训练,获得增强模型;
用增强模型对真实静脉数据进行增强,获得静脉增强图像。
与现有技术相比,本发明的显著优点为:本发明通过训练不同光照条件,不同散射程度的模拟静脉数据集,获得鲁棒性好的增强模型;本发明在轻量化分割网络基础上,采用残差多尺度学习策略,设计链式残差池化、多尺度融合等模块,通过融合网络中不同层次的特征,弥补下采样过程中损失的信息,实现了与其他网络相比更好的细节增强效果。
附图说明
图1为多分辨率残差融合网络结构图。
图2为不同光照不同模糊程度模拟静脉增强结果图。
图3为风格迁移结果图。
图4为真实静脉增强结果图。
图5为不同光照下不同个体真实静脉增强结果图。
具体实施方式
本发明提出一种多分辨率残差融合网络(MRFnet,Multi-resolution residualfusion network),通过有效利用网络不同层的特征弥补下采样过程中损失的信息,在类活体血管成像数据集上训练得到一个增强模型,并应用在真实浅表静脉图像上,实现不同光照下不同个体的浅表静脉增强。
一种基于多分辨率残差融合网络的浅表静脉增强方法,包括:
用随机排布的粗细不一的黑色导线模拟静脉,此时采集图像作为label;
在模拟静脉前不同位置放置不同厚度的磨砂亚克力板,模拟不同程度的皮肤散射,采集不同曝光时间下的图像作为模拟静脉数据集;
通过风格迁移,将模拟静脉数据集转换为类活体血管成像数据集;
随机从类活体血管成像数据集中抽取部分作为训练集,采用多分辨率残差融合网络进行训练,获得增强模型;
用增强模型对真实静脉数据进行增强,获得静脉增强图像。
进一步的,通过更换不同厚度的亚克力板以及使用位移台来控制亚克力板与模拟静脉之间的距离,同时改变相机曝光时间,模拟出不同光照下不同散射程度的静脉图像。
进一步的,风格迁移前,采用带940nm窄带滤光片的相机采集真实静脉数据。
进一步的,对采集的模拟静脉数据集进行风格迁移的具体方法为:将模拟静脉数据作为内容图像,真实静脉图像作为目标图像风格,在保留模拟静脉数据结构的同时,进行风格转换,结合模拟静脉数据内容和真实静脉图像风格,得到类活体血管成像数据集。
进一步的,随机从类活体血管成像数据集中抽取80%作为训练集,采用多分辨率残差融合网络进行训练,获得增强模型;
多分辨率残差融合网络,在轻量化分割网络ERFNet基础上,采用残差多尺度学习策略,设计链式残差池化、多尺度融合模块,通过融合网络中不同层次的特征,弥补下采样过程中损失的信息,用于实现端到端的浅表静脉图像增强。网络训练中采用混合的损失函数,包括L1损失、MS-SSIM和感知损失函数;其中L1可以较好的保持颜色亮度特征,MS-SSIM虽然对亮度和色彩变化可能会比较迟钝,但是可以较好的保持高频信息,而感知损失函数通过计算高层次图像特征,能更好地体现图像中感知信息的差异。
下面结合实施例对本发明进行详细说明。
实施例
一种基于多分辨率残差融合网络的浅表静脉增强方法,实现不同光照下不同个体的浅表静脉的有效增强,步骤如下:
步骤1,采集了一个模拟静脉数据集,数据采集时,将粗细不同的黑色导线作为静脉,在白色背景上进行随机排布,使之形态、层次各异,以模拟静脉分布,在模拟静脉前放置磨砂亚克力板以模拟皮肤散射,同时采集相应的未加亚克力板的清晰的模拟静脉图像作为参考图像。通过更换不同厚度的亚克力板以及使用位移台来精确控制亚克力板与模拟静脉之间的距离,同时改变相机曝光时间,模拟出不同光照下不同散射程度的静脉图像。
步骤2、用带940nm窄带滤光片的相机采集真实静脉数据。
步骤3、对步骤1采集的模拟静脉数据集进行风格迁移,得到与真实浅层静脉数据类似的表面纹理更复杂,边缘更模糊的类活体血管成像数据集。
步骤4、随机从步骤2中获得的类活体血管成像数据集中抽取80%作为训练集,采用本发明提出的多分辨率残差融合网络进行训练,获得增强模型。
步骤5、用步骤4中获得的增强模型对真实静脉数据进行增强,获得对比度高,轮廓清晰的静脉增强图像。
下面分别从多分辨率残差融合网络和浅表静脉增强两个方面进行说明。
一、多分辨率残差融合网络
1)网络结构
本发明提出一个encoder-decoder结构的网络模型MRFnet,输入原始图像,输出增强后的图像,实现端到端的图像增强功能。该结构类似于U-Net,如图1所示,包括下采样和上采样部分,先逐步降采样提取特征,然后逐步上采样特征并结合下采样各层信息来恢复细节信息。
本发明提出的网络架构,如表1所示,其中1到17层为基于ERFNet的编码器,由残差模块和下采样模块组成。18到25层为解码器,主要分成两个部分,多分辨率融合和链式残差池化。
表1基于ERFNet编码器的MRFnet骨干网络
多分辨率融合部分是对两路输入数据分别先进行1×1的卷积操作,生成相同特征维度的特征图,再各自上采样后求和融合。链式残差池化由一系列池化层与卷积层构成,以残差的形式排列,能够从大图像区域捕获背景上下文,融合丰富的上下文信息。该模块为两个池化块组成的链,每个池化块包括一个最大池化层和和一个卷积层,第一个池化块的输出作为第二个池化块的输入。两个池化块的输出特征通过残差连接与输入特征融合。
本发明提出在解码器部分采取多分辨率增强策略。根据特征图分辨率的大小,可以将下采样阶段分成四个部分,这四部分的输出的分辨率分别为原始图像的1/2,1/4,1/8和1/16,其中第二、三部分加上shortcut connection。这四个部分的输出分别作为4个级联的模块的输入,但第四部分对应的模块只包含一个上采样和链式残差池化。其他三个模块则包含多分辨率融合和链式残差池化,需要两个输入,另一个输入即为底层模块的输出结果。这种结构有效利用下采样过程中所有可用信息,将粗糙的高层特征和精细的底层特征结合起来,能够生成更高分辨率的图像。
最后,输出通过亚像素卷积,得到增强后的图像。
2)损失函数
损失函数被用来反映当前网络输出的预测值与真实值之间的不一致程度,函数值越小,模型预测的结构越准确。本发明采用的损失函数包含L1、MS-SSIM和感知损失函数三部分。
L1损失函数可以简单表示为:
其中,P表示图像,N表示图像像素数,p是图像像素,x(p)和y(p)分别表示图像中像素的值和ground truth的值。
MS-SSIM为多尺度的结构相似性,分别从亮度、对比度、结构三方面度量两幅图像的相似性。MS-SSIM的值在0到1之间,越大则表示图像的质量越好,输出图像与无失真图像之间的差距越小。当MS-SSIM=1时,表示两幅图像一模一样。因此,将MS-SSIM用作损失函数时,定义为:
其中,p是图像像素,lM(p)代表亮度对比因子,csj(p)代表结构对比因子乘对比度因子,M表示层级。
感知损失函数是通过从预训练好的CNN网络中提取高层次的图像特征来计算得到的。它是将参考图像卷积得到的特征图与生成图像卷积得到的特征图进行比较,使得二者高层信息接近。本发明中采用的是预训练好的VGG-16模型,计算参考图像和生成图像的高层特征的L1 loss作为感知损失,定义为:
其中,X,Y分别表示参考图像和生成图像,fvgg表示VGG16网络的高层特征。
L1 loss可以较好的保持颜色亮度特征,MS-SSIM虽然对亮度和色彩变化可能会比较迟钝,但是可以较好的保持高频信息,而感知损失函数与逐像素计算的损失函数相比能更好地体现图像中感知信息的差异。因此,本发明结合L1,MS-SSIM和感知损失函数作为最终的损失函数,将其定义为:
其中,α=0.5,β=0.3。
二、基于多分辨率残差融合网络的浅表静脉增强方法
本发明针对静脉图像缺少label,难以进行监督学习,提出在模拟静脉上训练得到增强模型,再对真实静脉进行增强的方法。设计模拟血管图像采集,通过一种数据迁移方法,将模拟血管数据转换为类活体血管成像数据。通过训练模拟类活体血管成像数据得到增强模型,并应用于真实静脉图像,能够有效实现不同光照下不同个体的浅表静脉图像增强。
1)模拟静脉数据采集
本发明采集了一个新的模拟静脉数据集。数据采集时,将粗细不同的黑色导线作为静脉,在白色背景上进行随机排布,使之形态、层次各异,以模拟静脉分布,在模拟静脉前垂直放置磨砂亚克力板以模拟皮肤散射,同时采集相应的未加亚克力板的清晰的模拟静脉图像作为参考图像。通过更换不同厚度的亚克力板以及使用位移台来精确控制亚克力板与模拟静脉之间的距离,能够模拟出不同散射程度的静脉图像。
整个数据集包括18个模拟静脉分布场景,每个场景都在不同曝光时间(30000~70000μs,以10000μs进行递增)下进行了采集,同时采集raw格式和tiff格式,共3780张图像。其中,3600张为加亚克力板采集的模拟静脉图像,包括了2种亚克力板厚度(0.3mm,0.5mm),11种板到模拟静脉的距离(0.5~5cm,每隔0.5cm采集一组)。其余180张为每个场景相应的不同曝光下未加亚克力板采集的参考图像。
2)真实静脉数据采集
红外光线透射人体皮肤组织的能力较强,照射到皮肤时,会被静脉血管中的血红蛋白强烈吸收,导致图像传感器接收到的反射光弱于其他部位。因此,获取的浅表静脉图像上,较暗部分即为静脉。本发明采集真实静脉图像时采用6个中心波长为940nm的LED作为光源,采集时相机前加940nm的滤光片,采集了不同个体,不同光照下的真实静脉图像。
3)预训练模型
本发明提出的网络输入的是Bayer阵列格式的照相机传感信号,而非RGB图像。将RAW阵列转换为4个通道,每个通道的大小为1/2H×1/2W,即长宽为原来的一半,空间分辨率下降四倍,然后输入到网络中,输出为16个通道的特征图,其空间分辨率与输入相同。最后通过子像素卷积得到大小为H×W的图像。
随机抽取模拟数据集中80%的数据作为训练集,剩余20%为测试集。训练时,将加亚克力板时采集的模糊的模拟静脉图作为网络输入,相应的未加亚克力板时采集的清晰图像作为参考图像。原始RAW阵列大小为1920×1200,转换成960×600大小的4通道图像,并从中随机裁剪一个512×512的patch用于训练,并通过翻转、旋转等随机操作进行数据增广。初始学习率设为5×10-4,迭代2000次后学习率降为5×10-5,再迭代2000次,完成训练,得到增强模型。在测试集上测试,该模型已能实现不同光照下不同模拟程度模拟静脉的有效增强。增强效果如图2所示,从左到右依次为原图、U-Net、DenseNet、ERFNet、MRFnet、GT,与U-Net,DenseNet,ERFnet相比,本发明提出的网络增强效果更接近ground truth,线条更平滑连贯,断线情况更少。
4)类静脉数据集实验
尽管模拟数据集在一定程度上模拟了静脉,但仍存在差异,比如缺乏皮肤表面纹理影响等。但是模拟数据集的优势则在于有对应的ground truth可以参与训练。因此为增强模拟数据集的可靠性,本发明采取风格迁移的方法,将模拟静脉图像转换为类似静脉图像风格的类静脉图像,风格迁移结果如图3所示,比模拟静脉图像增加了更多类似真实静脉的纹理。将在模拟数据集上训练好的模型作为预训练模型,继续训练类静脉数据集,得到最终的增强模型。图3中,(a)-(c)为风格迁移结果对比,第一行为原图,第二行为迁移后类静脉图,(d)为2个不同真实静脉图像。
5)真实静脉实验结果
将本发明提出的网络结构在以上过程中训练得到的增强模型,在真实静脉数据集上进行测试,能实现不同光照下不同个体浅表静脉的有效增强,对边缘部位、深层、细小静脉都有很好的增强效果。如图4所示,从左到右依次为原图、U-Net、DenseNet、ERFNet、MRFnet,本发明提出的网络比其他网络在静脉上增强效果更好更完整,能够增强出更多细节。图5表示了本发明增强方法对不同光照下不同个体真实静脉图像都能实现有效增强。
比较本发明提出的算法与U-Net,DenseNet,ERFnet在1070平台上的速度,如表2所示。
表2不同方法在1070平台上对不同输入尺寸的速度比较
在中大尺寸图像处理上,本发明方法能与U-Net速度相近,在小尺寸图像上和ERFnet速度相近。与DenseNet相比,本发明方法有更明显的速度优势,尤其在512×512尺寸上速度是DenseNet的3.2倍。
Claims (4)
1.一种基于多分辨率残差融合网络的浅表静脉增强方法,其特征在于,包括:
用随机排布的粗细不一的黑色导线模拟静脉,采集图像作为label;
在模拟静脉前不同位置放置不同厚度的磨砂亚克力板,模拟不同程度的皮肤散射,采集不同曝光时间下的图像作为模拟静脉数据集;
通过风格迁移,将模拟静脉数据集转换为类活体血管成像数据集;
随机从类活体血管成像数据集中抽取部分作为训练集,采用多分辨率残差融合网络进行训练,获得增强模型,其中,随机从类活体血管成像数据集中抽取80%作为训练集,多分辨率残差融合网络采用混合的损失函数,包括L1损失、MS-SSIM和感知损失函数;所述L1损失函数为:
其中,P表示图像,N表示图像像素数,p是图像像素,x(p)和y(p)分别表示图像中像素的值和ground truth的值;
所述MS-SSIM为多尺度的结构相似性,分别从亮度、对比度、结构三方面度量两幅图像的相似性,将MS-SSIM用作损失函数,定义为:
其中,p是图像像素,lM(p)代表亮度对比因子,csj(p)代表结构对比因子乘对比度因子,M表示层级;
所述感知损失函数采用预训练好的VGG-16模型,计算参考图像和生成图像的高层特征的L1 loss作为感知损失,定义为:
其中,X,Y分别表示参考图像和生成图像,fvgg表示VGG16网络的高层特征;结合L1、MS-SSIM和感知损失函数作为最终的损失函数,定义为:
其中α、β为权重系数,具体为α=0.5,β=0.3;
用增强模型对真实静脉数据进行增强,获得静脉增强图像。
2.根据权利要求1所述的基于多分辨率残差融合网络的浅表静脉增强方法,其特征在于,通过更换不同厚度的亚克力板以及使用位移台来控制亚克力板与模拟静脉之间的距离,同时改变相机曝光时间,模拟出不同光照下不同散射程度的静脉图像。
3.根据权利要求1所述的基于多分辨率残差融合网络的浅表静脉增强方法,其特征在于,风格迁移前,采用带940nm窄带滤光片的相机采集真实静脉数据。
4.根据权利要求1所述的基于多分辨率残差融合网络的浅表静脉增强方法,其特征在于,对采集的模拟静脉数据集进行风格迁移的具体方法为:将模拟静脉数据作为内容图像,真实静脉图像作为目标图像风格,在保留模拟静脉数据结构的同时,进行风格转换,结合模拟静脉数据内容和真实静脉图像风格,得到类活体血管成像数据集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910819308.1A CN110675335B (zh) | 2019-08-31 | 2019-08-31 | 基于多分辨率残差融合网络的浅表静脉增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910819308.1A CN110675335B (zh) | 2019-08-31 | 2019-08-31 | 基于多分辨率残差融合网络的浅表静脉增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110675335A CN110675335A (zh) | 2020-01-10 |
CN110675335B true CN110675335B (zh) | 2022-09-06 |
Family
ID=69075857
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910819308.1A Active CN110675335B (zh) | 2019-08-31 | 2019-08-31 | 基于多分辨率残差融合网络的浅表静脉增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110675335B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111415311B (zh) * | 2020-03-27 | 2023-03-14 | 北京航空航天大学杭州创新研究院 | 资源节约型图像质量增强模型 |
CN112116537B (zh) * | 2020-08-31 | 2023-02-10 | 中国科学院长春光学精密机械与物理研究所 | 图像反射光消除方法及图像反射光消除网络构建方法 |
CN113221643B (zh) * | 2021-04-06 | 2023-04-11 | 中国科学院合肥物质科学研究院 | 一种采用级联网络的车道线分类方法及系统 |
CN113269702A (zh) * | 2021-05-21 | 2021-08-17 | 中国矿业大学 | 基于跨尺度特征融合的低曝光静脉图像增强方法 |
CN113689344B (zh) * | 2021-06-30 | 2022-05-27 | 中国矿业大学 | 基于特征解耦学习的低曝光图像增强方法 |
CN114385883B (zh) * | 2021-12-07 | 2024-03-15 | 西北大学 | 一种在风格转换中近似模拟皴法的轮廓增强方法 |
CN114581356B (zh) * | 2022-05-09 | 2022-10-11 | 南京理工大学 | 基于风格迁移数据增广的图像增强模型泛化方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108492271A (zh) * | 2018-03-26 | 2018-09-04 | 中国电子科技集团公司第三十八研究所 | 一种融合多尺度信息的自动图像增强系统及方法 |
CN110008842A (zh) * | 2019-03-09 | 2019-07-12 | 同济大学 | 一种基于深度多损失融合模型的行人重识别方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11024009B2 (en) * | 2016-09-15 | 2021-06-01 | Twitter, Inc. | Super resolution using a generative adversarial network |
-
2019
- 2019-08-31 CN CN201910819308.1A patent/CN110675335B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108492271A (zh) * | 2018-03-26 | 2018-09-04 | 中国电子科技集团公司第三十八研究所 | 一种融合多尺度信息的自动图像增强系统及方法 |
CN110008842A (zh) * | 2019-03-09 | 2019-07-12 | 同济大学 | 一种基于深度多损失融合模型的行人重识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110675335A (zh) | 2020-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110675335B (zh) | 基于多分辨率残差融合网络的浅表静脉增强方法 | |
CN108510502B (zh) | 基于深度神经网络的黑色素瘤图片组织分割方法和系统 | |
CN108830155B (zh) | 一种基于深度学习的心脏冠状动脉分割及识别的方法 | |
CN106339998B (zh) | 基于对比度金字塔变换的多聚焦图像融合方法 | |
US20140016832A1 (en) | Method and an apparatus for determining vein patterns from a colour image | |
CN114820494B (zh) | 用于可视化流动的使用机器学习的散斑对比度分析 | |
CN107909566A (zh) | 一种基于深度学习的皮肤癌黑色素瘤的图像识别方法 | |
CN112733950A (zh) | 一种基于图像融合与目标检测结合的电力设备故障诊断方法 | |
CN109087302A (zh) | 一种眼底图像血管分割方法及设备 | |
CN113256641B (zh) | 一种基于深度学习的皮肤病灶图像分割方法 | |
CN110458060A (zh) | 一种基于对抗学习的车辆图像优化方法及系统 | |
CN114283158A (zh) | 一种视网膜血管图像分割方法、装置及计算机设备 | |
CN112884788B (zh) | 基于丰富上下文网络的视杯视盘分割方法及成像方法 | |
CN112541923B (zh) | 一种基于眼底图数据集迁移学习的视杯视盘分割方法 | |
CN112330613B (zh) | 一种细胞病理数字图像质量的评价方法及系统 | |
CN110738660A (zh) | 基于改进U-net的脊椎CT图像分割方法及装置 | |
CN111754485A (zh) | 一种用于肝脏的人工智能超声辅助系统 | |
CN113160151B (zh) | 基于深度学习及注意力机制的全景片龋齿深度识别方法 | |
CN111986216B (zh) | 一种基于神经网络改进的rsg肝脏ct图像交互式分割算法 | |
CN112700409A (zh) | 视网膜微动脉瘤自动检测方法及成像方法 | |
CN116758090A (zh) | 一种基于多尺度减法的医学图像分割方法 | |
CN114693622B (zh) | 一种基于人工智能的斑块侵蚀自动检测系统 | |
CN116092667A (zh) | 基于多模态影像的疾病检测方法、系统、装置及存储介质 | |
CN114677713A (zh) | 一种基于近红外光的手臂静脉采血点的识别方法及系统 | |
Jayabharathy et al. | Detection and classification of malignant melanoma and benign skin lesion using CNN |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |