CN109584210B - 多光谱三维静脉显像系统 - Google Patents
多光谱三维静脉显像系统 Download PDFInfo
- Publication number
- CN109584210B CN109584210B CN201811281026.2A CN201811281026A CN109584210B CN 109584210 B CN109584210 B CN 109584210B CN 201811281026 A CN201811281026 A CN 201811281026A CN 109584210 B CN109584210 B CN 109584210B
- Authority
- CN
- China
- Prior art keywords
- image
- vein
- window
- matching
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 52
- 210000003462 vein Anatomy 0.000 claims abstract description 163
- 230000004927 fusion Effects 0.000 claims abstract description 90
- 230000009466 transformation Effects 0.000 claims abstract description 27
- 238000004040 coloring Methods 0.000 claims abstract description 12
- 238000003709 image segmentation Methods 0.000 claims abstract description 10
- 238000012545 processing Methods 0.000 claims abstract description 8
- 230000011218 segmentation Effects 0.000 claims abstract description 5
- 239000011159 matrix material Substances 0.000 claims description 59
- 239000013598 vector Substances 0.000 claims description 43
- 238000000034 method Methods 0.000 claims description 32
- 230000002776 aggregation Effects 0.000 claims description 29
- 238000004220 aggregation Methods 0.000 claims description 29
- 238000004364 calculation method Methods 0.000 claims description 25
- 238000000354 decomposition reaction Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 12
- 238000004458 analytical method Methods 0.000 claims description 11
- 238000012937 correction Methods 0.000 claims description 11
- 238000012546 transfer Methods 0.000 claims description 10
- 230000003287 optical effect Effects 0.000 claims description 9
- 230000003313 weakening effect Effects 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 8
- 230000002093 peripheral effect Effects 0.000 claims description 8
- 238000012935 Averaging Methods 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 7
- 230000000717 retained effect Effects 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 5
- 230000004931 aggregating effect Effects 0.000 claims description 3
- 230000001960 triggered effect Effects 0.000 claims 2
- 230000005540 biological transmission Effects 0.000 claims 1
- 230000008859 change Effects 0.000 description 7
- 230000003044 adaptive effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000000875 corresponding effect Effects 0.000 description 4
- 238000011160 research Methods 0.000 description 3
- 210000004204 blood vessel Anatomy 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000036548 skin texture Effects 0.000 description 2
- 206010047571 Visual impairment Diseases 0.000 description 1
- 238000000701 chemical imaging Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000013399 early diagnosis Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000007920 subcutaneous administration Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种多光谱三维静脉显像系统,显像系统包括:两路CCD相机,用于在两个不同的波段上通过软件触发同时采集静脉图像;图像增强和分割模块,用于将两幅图像进行图像增强和图像分割处理之后,得到分割后图像;静脉图像立体匹配模块,用于将分割后图像进行图像立体匹配,得到静脉的着色深度图;多光谱静脉影像融合模块,基于局部特征残差与统计匹配,对采集到的双波段静脉图像经小波变换分解得到的低频系数和高频系数运用不同准则进行处理来确定高频融合系数,再通过小波逆变换得到融合的静脉影像。本发明可以快速、准确地找到静脉,方便医用定位静脉,进行有效地扎针。
Description
技术领域
本发明属于生物医学成像与辅助诊疗领域,具体涉及一种多光谱三维静脉显像系统。
背景技术
在生物医学成像与辅助诊疗领域,通过对多光谱医学图像信息的获取与分析对于可疑病灶部位的定位与定性具有重要意义,将有助于实现相关疾病的早期诊疗,降低误诊率。静脉显像技术可以快速、准确地找到静脉,再将静脉图像投影回手背的对应的静脉处,可方便医用定位静脉,进行有效地扎针。
传统的多光谱显像系统存在着集成度不高的缺点,少有小型化和微型化的成功范例;静脉显像系统也存在近红外图像中静脉分布不明显问题;传统的系统通过单相机单波段成像直接获取静脉图像,存在静脉图像轮廓不明显,信息不丰富,无法从中获取深度信息的问题。
发明内容
本发明的目的在于提供一种多光谱三维静脉显像系统。
实现本发明目的的技术解决方案为:一种多光谱三维静脉显像系统,包括:
两路CCD相机,用于在两个不同的波段上通过软件触发同时采集静脉图像;
图像增强和分割模块,用于对两幅静脉图像进行图像增强和图像分割处理,得到分割后图像;
静脉图像立体匹配模块,用于将分割后图像进行图像立体匹配,得到静脉的着色深度图;
多光谱静脉影像融合模块,对采集到的双波段静脉图像经小波变换分解得到低频系数和高频系数,基于局部特征残差与统计匹配确定高频融合系数,再通过小波逆变换得到融合的静脉影像。
一种多光谱三维静脉显像方法,包括以下步骤:
在两个不同的波段上通过软件触发同时采集静脉图像;
对两幅静脉图像进行图像增强和图像分割处理,得到分割后图像;
采用基于低纹理区域的静脉图像立体匹配算法,将分割后图像进行图像立体匹配,得到静脉的着色深度图;
对采集到的双波段静脉图像经小波变换分解得到低频系数和高频系数,基于局部特征残差与统计匹配确定高频融合系数,再通过小波逆变换得到融合的静脉影像。
与现有技术相比,本发明的显著优点为:(1)本发明采用基于低纹理区域的静脉图像立体匹配算法,得到静脉的着色深度图,可以快速、准确地找到静脉,方便医用定位静脉,进行有效地扎针;采用基于局部特征残差与统计匹配的多光谱静脉影像融合算法,得到融合的静脉影像,静脉图像轮廓明显,信息更加丰富;(2)本发明搭建了多光谱三维静脉显像系统,将传统的单相机显像替换成了双相机显像,并对获取的多波段的高质量的手背静脉图像进行后端计算;与传统的单相机显像相比,双相机显像得到着色深度图像拥有单相机显像没有的多光谱信息和三维信息,轮廓明显,信息丰富,并实现了成像视场和投影视场的重叠;在此基础上,针对不同成像区域,本发明中的快速切换滤光片装置可以更换不同波段的滤光片,选取最优波段的成像效果图作为后续嵌入式计算模块的输入。
附图说明
图1为多光谱三维静脉显像系统匹配算法流程图。
图2为双波段静脉融合结果图。
图3为投影的深度图。
图4为立体匹配算法流程图。
图5为基于像素位置的代价聚合窗口图。
图6为代价聚合示意图。
图7为融合流程图。
具体实施方式
本发明提出一种多光谱三维静脉显像系统,包括:
两路CCD相机,用于在两个不同的波段上通过软件触发同时采集静脉图像;
图像增强和分割模块,用于对两幅静脉图像进行图像增强和图像分割处理,得到分割后图像;
静脉图像立体匹配模块,用于将分割后图像进行图像立体匹配,得到静脉的着色深度图;
多光谱静脉影像融合模块,对采集到的双波段静脉图像经小波变换分解得到低频系数和高频系数,基于局部特征残差与统计匹配确定高频融合系数,再通过小波逆变换得到融合的静脉影像。
进一步的,静脉成像过程中,被照物反射LED光源的两束光,分别通过808nm窄带滤光片和940nm窄带滤光片的滤光进入两路CCD相机,在第一帧图像的获取时刻采用软件触发,同时控制两个相机进行图像采集,获得两个波段的静脉图像;808nm窄带滤光片中心波长为808nm,半带宽为30nm,940nm窄带滤光片中心波长为940nm,半带宽为30nm;
进一步的,两个相机通过连接杆固定在光学平板上,两个CCD相机等高,极线距离为20~40cm。
进一步的,图像增强采用OTSU算法设定阈值后,扩大静脉图像中静脉和皮肤的差别,抑制不感兴趣的特征;图像分割将静脉图像转换为灰度图,其中静脉为白色,其他为黑色。
进一步的,静脉图像立体匹配模块采用基于低纹理区域的静脉图像立体匹配算法,具体为:
通过对图像进行归一化和梯度计算,检测图像中的低纹理区域,所述低纹理区域的分辨率为256*256;利用本发明提出的基于像素颜色空间的匹配代价函数,比较像素间的差异;根据像素在聚合窗口中的位置来分配不同的权值并对匹配代价值进行聚合。
所述基于低纹理区域的静脉图像立体匹配算法,具体为:
1)基于图像梯度的低纹理区域检测
采用gamma校正法对采集的静脉图像进行颜色空间的归一化,归一化公式为:
I(x,y)=I(x,y)gamma (1)
式中I(x,y)为输入的图像,gamma为校正参数;
对归一化后的图像进行梯度计算,分别计算出水平方向的梯度Ig,x和垂直方向的梯度Ig,y;然后建立一个尺寸为5×5的窗口,若窗口内的所有像素都满足以下条件:
{Ig,x(p)≤0.1,Ig,y(p)≤0.1|p∈W} (2)
则该窗口内的像素都标记为低纹理区域,式中W为像素p所在的窗口;
2)基于像素颜色空间的匹配代价计算
匹配代价函数为:
式中p为参考图像中的像素,q为目标图像中的待匹配像素,f(p,q)表示像素p和像素q的匹配代价值,gp=[gp r,gp g,gp b]为像素p的RGB三个通道的值,gq=[gq r,gq g,gq b]为像素q的RGB三个通道的值;
对颜色内相关进行相应的变化:t1为R分量到G分量的传递函数,t2为G分量到B分量的传递函数,t3为B分量到R分量的传递函数,具体定义如下:
将像素的颜色内相关用一个三维向量t=[t1,t2,t3]来表示,因为颜色内相关可以进一步反应像素之间的相似性,将匹配代价计算函数修正为:
f(p,q)=1-cos(gp,gq)+α0(1-cos(tp,tq)) (5)
式中α0=0.1,使得1-cos(tp,tq)在匹配代价计算函数f(p,q)中所占的权重很小,削弱了1-cos(tp,tq)对1-cos(gp,gq)的影响。当两个像素点利用颜色空间RGB向量计算的结果1-cos(gp,gq)相差较大时,利用颜色内相关向量1-cos(tp,tq)计算出来的微小差异不足以影响最终的视差选择;若两个像素点利用颜色空间RGB向量计算的结果1-cos(gp,gq)相差很小或者相等时,利用颜色内相关向量可以进一步将两个像素区别开来;即使利用颜色空间RGB向量计算的匹配代价值出现误差,利用颜色内相关向量计算的结果也可以进行纠正,从而选择最佳的视差值。两个像素颜色越接近,cos(gp,gq)和cos(tp,tq)越大,1-cos(gp,gq)和1-cos(tp,tq)就越小,从而匹配代价值f(p,q)也越小;其中tp和tq分别为参考图像、目标图像的颜色内相关。
3)基于像素窗口位置的代价聚合
利用聚合窗口中像素位置的不同来进行代价聚合,窗口尺寸为7×7,窗口中间三列像素组成了中间部分,其余的区域为边缘部分,在聚合过程中对这两个部分分配不同的权值;每行的代价聚合由三部分组成:
(1)中间部分:位置与中心像素点连贯且值一样的像素点,对这部分进行取平均处理;
(2)边缘部分:位于窗口边缘,与上述中间部分不连贯,但与中心像素点值相同,对这部分进行折中处理,取平均后乘以加权系数α(0<α<1);
(3)边缘部分中,与中心像素点值不同的像素点,对这一部分进行弱化处理,取平均后乘以弱化系数β(0<β<α<1)。
所以该行的代价聚合值为:
式中,valmiddle为上述分析中中间部分各像素的代价值之和,valedge为边缘部分各像素的代价值之和,valelse为边缘部分中与中心像素点值不同的像素点的代价值之和,三者之和构成了窗口内总的代价值valwindow,如公式(7)。Nmiddle为中间部分像素的个数,Nedge为边缘部分像素的个数,Nelse为其他部分像素的个数,三者之和构成了窗口内像素总数Nwindow,如式(8);
valwindow=valmiddle+valedge+valelse (7)
Nwindow=Nmiddle+Nedge+Nelse (8)
进一步的,多光谱静脉影像融合模块进行图像融合的方法为:
首先,对采集到的双波段静脉图像经小波变换分解为低频系数和高频系数;
然后,对高低频系数采取不同的融合准则:对于低频系数采取基于局部特征残差准则(LFRS),通过局部特征残差求取源图像的结构信息。对于高频系数采取基于局部统计匹配特征准则(LSMS),由局部自匹配和互匹配来确定高频融合系数。
最后,通过小波逆变换得到融合的静脉影像。
基于局部特征残差与统计匹配的多光谱静脉影像融合算法为:
1)基于局部特征残差准则的低频图像融合准则
手部静脉图像经过小波变换后得到低频信息,低频信息丰富,能量集中,反映了原图像近似信息,研究表明,人眼对图像中具有显著特征变化的区域感兴趣;局部特征可以描述图像局部信息,比如均值、熵、平均梯度、标准差等特征。局部特征值越大,表示图像局部信息越丰富。因此,局部特征可以很好地描述图像局部信息,可以通过局部特征差异来选取融合系数。
当图像局部灰度变化显著时,中心与周边区域的特征值存在差异。所以,利用中心-周边区域的对比差异进行低频融合,这样可以有效地减少亮度差异带来的影响。本节中的对比差异就是特征残差。
低频系数的对比差异的计算步骤如下:
(a)计算源图像的局部特征向量,其包含了均值l、标准差d、熵s、平均梯度g。局部特征向量表达式为:
Fin(x,y)=[l,d,g,s] (9)
Fout(x,y)=[l,d,g,s] (10)
其中,Fin表示3×3大小的中心区域;Fout表示7×7大小的周边区域;x与y表示空间位置。
(b)计算中心-周边区域特征残差和:
R(x,y)=∑|Fin(x,y)-Fout(x,y)| (11)
通过上述步骤计算出图像局部特征残差和,它描述了图像局部纹理特征。残差和越大,说明中心像素处于纹理区域,残差和越小说明中心像素处于平滑区域。
利用局部残差法可以有效地提取出源图纹理结构,手部静脉皮肤纹理。
低频系数包含大量的纹理信息。为了获取纹理清晰的融合图像,将图像局部纹理特征考虑到低频融合中。因此,将上述获取的局部纹理特征用于图像融合。
低频融合准则表达式如下:
式(13)中,t=RA/RB。RA为静脉影像A的特征残差和,RB为静脉影像B的特征残差和;当RA值小于RB时,则t值小于1,w小于0.5,低频融合系数主要来自静脉影像A的低频系数;当RA值与RB值近似时,则t值趋于1,w趋于0.5,低频融合系数为静脉影像A的低频系数与静脉影像B的系数加权平均;当RA值大于RB值时,则t值大于1,w大于0.5,低频融合系数主要来自静脉影像B的低频系数;当RA值远大于RB值时,则t值较大,w趋于1,低频融合系数来自静脉影像B的系数。
2)基于局部统计匹配特征准则(LSMS)的高频图像融合准则
手部静脉图像经过小波变换后得到高频系数,高频系数反映了手部及血管边缘、轮廓等细节信息。高频系数的大小表示灰度变化程度,高频系数的符号表示灰度变化的方向。
考虑源图像的高频系数包含共有的边缘信息和独有的边缘信息,提出了一种基于局部统计匹配的高频融合准则,通过互匹配来区分不同波段手部静脉共有的边缘信息与独有的边缘信息。双波段共有的边缘信息具有高匹配度,而某一波段独有的边缘信息匹配度较低。对于共同的边缘信息,采取加权平均准则;对于独有的边缘信息,利用它的物理意义尽可能地保留它。
2.1基于改进马氏距离的互匹配
利用改进的马氏距离来计算局部区域间的空间特性差异。马氏距离定义如下:
其中,Xi和Xj为行向量;S为两行向量的协方差矩阵;S-1为矩阵S的逆矩阵。由于矩阵S可能是奇异矩阵,不能直接计算矩阵S的逆矩阵。根据矩阵原理,可以利用奇异值分解(SVD)来计算协方差矩阵的广义逆矩阵。
协方差矩阵的奇异值分解定义为:
其中,Σ=diag(λ1,λ2...λr),λi是矩阵S的奇异值,它反映了数据能量;r是矩阵S的秩;H为共轭转置符号,U为均值矩阵,V为方差矩阵。
在实验中可发现,最大奇异值是远远大于其它的奇异值(λmax>>λi,max≠i),因此只保留最大奇异值,忽略其它奇异值,并将它们当作零。
因此,矩阵的广义逆矩阵定义如下:
根据以上分析,改进的马氏距离见式(18);如果马氏距离值越小,意味着空间特征差异较小,局部区域为共有信息;
2.2高频融合
高频融合步骤分为以下:
(a)选取3×3区域,将图像局部系数按列排成1×N2矩阵。
Gj,i=(Gj,i(1),Gj,i(2),…,Gj,i(N2)) (19)
其中,j表示分解层数;i表示方向。
(c)根据高频融合准则进行融合。
其中,H表示局部向量投影值。
本发明还提供一种基于上述多光谱三维静脉显像系统的显像方法,包括以下步骤:
在两个不同的波段上通过软件触发同时采集静脉图像;
对两幅静脉图像进行图像增强和图像分割处理,得到分割后图像;
采用基于低纹理区域的静脉图像立体匹配算法,将分割后图像进行图像立体匹配,得到静脉的着色深度图;
对采集到的双波段静脉图像经小波变换分解得到低频系数和高频系数,基于局部特征残差与统计匹配确定高频融合系数,再通过小波逆变换得到融合的静脉影像。
上述方法的四个过程与上述显像系统中相机、图像增强和分割模块、静脉图像立体匹配模块、多光谱静脉影像融合模块的具体方法相同。
本发明通过对生物医学成像研究,建立了一种多光谱三维静脉显像系统,采用两路CCD相机分别在808nm窄带和940nm窄带两个波段上通过软件触发同时采集静脉图像,获取了高质量的静脉图像;将两个波段的图像进行匹配之后,提出了一种基于低纹理区域的静脉图像立体匹配算法和一种基于局部特征残差与统计匹配的多光谱静脉影像融合算法,通过对采集到的双波段静脉图像经小波变换分解得到的低频系数和高频系数运用不同准则进行处理来确定高频融合系数,再通过小波逆变换得到融合的静脉影像。
下面结合实施例对本发明进行详细说明。
实施例
本发明提出一种多光谱三维静脉显像系统。基于低纹理区域的静脉图像立体匹配算法,获得静脉图像的三维信息;基于局部特征残差与统计匹配的多光谱静脉影像融合算法,获得静脉图像的多光谱信息。
一、多光谱三维静脉显像系统
本发明搭建的多光谱三维静脉显像系统,可以获取高质量的手背静脉深度图像,实现成像视场和投影视场的重叠;多光谱三维静脉显像系统设计流程如图1所示。
1)波段优化
本发明中的静脉图像采集装置为两台CCD相机,为了提高系统的稳定性,减少外界对相机和镜头的影响,同时简化处理过程,使用连接杆将两台相机固定在光学平板上。为了避免可见光等其他光源对成像效果的影响,本发明创新性地在相机的镜头前放置窄带滤光片,使得只能通过近红外光,经过对不同波段的成像效果分析可知940、980nm波段对皮下静脉的成像效果较好。
2)多光谱融合
针对不同成像区域,本发明中的快速切换滤光片装置可以更换不同波段的滤光片,为静脉提供了丰富的光谱维信息,选取最优波段的成像效果图作为后续融合计算模块的输入。多光谱融合得到的轮廓清晰,图像信息丰富的静脉图像如图2所示。
3)高精度静脉深度投影方法
本发明将嵌入式计算模块输出的着色深度图进行投影,可以获得明显的静脉信息,且信息量更大更加稳定。通过改变硬件布局,采用手动选取特征点的方法对成像原图和着色深度图进行了图像配准,再加上自动梯形矫正,实现了成像视场和投影视场的重叠。投影的深度图如图3所示。
二、基于低纹理区域的静脉图像立体匹配算法
针对手部静脉图像中的低纹理区域,本发明提出了一种基于像素颜色空间和窗口位置的适用于低纹理区域的立体匹配算法,算法包括四个过程:图像预处理、匹配代价计算、代价聚合、视差优化,如图4所示。
1)基于图像梯度的低纹理区域检测
通常情况下静脉的低纹理区域的像素特征不够明显,所以匹配代价计算无法准确地区分出像素之间的差异。为了改善匹配结果,检测出图像中的低纹理区域并充分利用这部分区域的纹理是很有必要的。低纹理区域检测的算法包括图像归一化、梯度计算和区域标记三个过程。
本发明采用gamma校正法对图像进行颜色空间的归一化,通过对gamma参数的调整,可以改变图像的对比度同时减少光照因素的影响,提高检测的精度。归一化公式为:
I(x,y)=I(x,y)gamma (1)
式中I(x,y)为输入的图像,gamma为校正参数。
对归一化后的图像进行梯度计算,分别计算出水平方向的梯度Ig,x和垂直方向的梯度Ig,y。然后建立一个尺寸为5×5的窗口,若窗口内的所有像素都满足以下条件:
{Ig,x(p)≤0.1,Ig,y(p)≤0.1|p∈W} (2)
则该窗口内的像素都标记为低纹理区域,式中W为像素p所在的窗口。
2)基于像素颜色空间的匹配代价计算
传统的基于窗口的匹配代价函数如SAD、SSD、ZSAD等算法简单高效,对噪声较为敏感;NCC中包含开平方运算,计算复杂度高。这些算法都建立在灰度的基础上,可以通过RGB三个通道扩展到彩色空间,但是会增加计算量。Le Thanh SACH中提出了一种新的匹配代价函数,采用了改进的余弦距离来衡量两个像素之间的差异性。
式中p为参考图像中的像素,q为目标图像中的待匹配像素,f(p,q)表示像素p和像素q的匹配代价值,gp=[gp r,gp g,gp b]为像素p的RGB三个通道的值,gq=[gq r,gq g,gq b]为像素q的RGB三个通道的值。
本发明对颜色内相关进行了相应的变化:t1为R分量到G分量的传递函数,t2为G分量到B分量的传递函数,t3为B分量到R分量的传递函数,具体的定义如下:
将像素的颜色内相关用一个三维向量t=[t1,t2,t3]来表示,因为颜色内相关可以进一步反应像素之间的相似性,因此本发明将匹配代价计算函数修正为:
f(p,q)=1-cos(gp,gq)+α0(1-cos(tp,tq)) (5)
式中α0=0.1,使得1-cos(tp,tq)在匹配代价计算函数f(p,q)中所占的权重很小,削弱了1-cos(tp,tq)对1-cos(gp,gq)的影响。当两个像素点利用颜色空间RGB向量计算的结果1-cos(gp,gq)相差较大时,利用颜色内相关向量1-cos(tp,tq)计算出来的微小差异不足以影响最终的视差选择;若两个像素点利用颜色空间RGB向量计算的结果1-cos(gp,gq)相差很小或者相等时,利用颜色内相关向量可以进一步将两个像素区别开来;即使利用颜色空间RGB向量计算的匹配代价值出现误差,利用颜色内相关向量计算的结果也可以进行纠正,从而选择最佳的视差值。两个像素颜色越接近,cos(gp,gq)和cos(tp,tq)越大,1-cos(gp,gq)和1-cos(tp,tq)就越小,从而匹配代价值f(p,q)也越小。
3)基于像素窗口位置的代价聚合
代价聚合的一个关键是聚合窗口的选择,目前已经提出了许多针对图像纹理特征进行自适应窗口选择的算法,保证不丢失图像细节同时可以改善匹配精度。Jean LucLotti提出了一种利用图像的边缘作为约束条件,以窗口中心像素的四个斜角作为窗口生长的方向,图像提取的边缘为结束条件,这四个方向所包围的区域就是中心像素的自适应窗口。如果对每个像素都进行这样的操作,那么会大大增加算法的计算量,且误匹配点主要分布在左右图像中不对称的区域,所以计算出来的自适应窗口误差较大。
本发明创新性地提出利用聚合窗口中像素位置的不同来进行代价聚合,窗口尺寸为7×7,窗口内的像素分配如图5所示。
图中(x,y)为窗口中心像素,窗口中间三列像素组成了中间部分,如图中红色区域,其余的蓝色区域为边缘部分,在聚合过程中对这两个部分分配不同的权值。取窗口中任意一行的7个像素为例,对本发明的代价聚合过程进行解释,如图6所示。
图6中(a)行表示经过低纹理区域检测的图像,以此凸显边界区域的纹理特性。(b)行表示当前像素的代价值。该行的代价聚合由三部分组成:
(1)中间部分:位置与中心像素点连贯且值一样的像素点,对这部分进行取平均处理;
(2)边缘部分:位于窗口边缘,与上述中间部分不连贯,但与中心像素点值相同,对这部分进行折中处理,取平均后乘以加权系数α(0<α<1);
(3)其他部分:与中心像素点值不同的像素点,对这一部分进行弱化处理,取平均后乘以弱化系数β(0<β<α<1)。
所以该行的代价聚合值为:
对于整个窗口下的一般情况,可以用如下公式来表示
式中,valmiddle为上述分析中中间部分各像素的代价值之和,valedge为边缘部分各像素的代价值之和,valelse为其他部分各像素的代价值之和,三者之和构成了窗口内总的代价值valwindow,如公式(8)。Nmiddle为中间部分像素的个数,Nedge为边缘部分像素的个数,Nelse为其他部分像素的个数,三者之和构成了窗口内像素总数Nwindow,如式(9)。需要注意的是,边缘部分和其他部分的像素个数可能为0,因此需要提前进行判断。
valwindow=valmiddle+valedge+valelse (8)
Nwindow=Nmiddle+Nedge+Nelse (9)
三、基于局部特征残差与统计匹配的多光谱静脉影像融合算法
传统静脉成像以单波段、多视角为主,故而缺少多波段、综合化的静脉影像融合提升算法。对获取到的多波段静脉影像经小波变换后得到低频信息和高频信息,传统的低频融合准则绝大部分采取简单的线性组合,未考虑纹理特征,使得融合后的静脉手部图像细节不丰富。而常用的系数绝对值选大融合准则,虽然该准则能够将边缘信息提取出来,但同时也会将干扰信息作为高频融合系数,为静脉融合结果引入了新的噪声。针对以上问题,提出一种基于局部特征残差与统计匹配的图像融合算法以获得轮廓清晰,图像信息丰富的手部静脉融合影像。融合流程如图7所示。
1)基于局部特征残差准则(LFRS)的低频图像融合准则
手部静脉图像经过小波变换后得到低频信息,低频信息丰富,能量集中,反映了原图像近似信息人,研究表明,人眼对图像中具有显著特征变化的区域感兴趣。局部特征可以描述图像局部信息,比如均值、熵、平均梯度、标准差等特征。局部特征值越大,表示图像局部信息越丰富。因此,局部特征可以很好地描述图像局部信息,可以通过局部特征差异来选取融合系数。
当图像局部灰度变化显著时,中心与周边区域的特征值存在差异。所以,利用中心-周边区域的对比差异进行低频融合,这样可以有效地减少亮度差异带来的影响。本节中的对比差异就是特征残差。
低频系数的对比差异的计算步骤如下:
(a)计算源图像的局部特征向量,其包含了均值(l)、标准差(d)、熵(s)、平均梯度(g)。局部特征向量表达式为:
Fin(x,y)=[l,d,g,s] (10)
Fout(x,y)=[l,d,g,s] (11)
其中,Fin表示3×3大小的中心区域;Fout表示7×7大小的周边区域;x与y表示空间位置。
(b)计算中心-周边区域特征残差和。
R(x,y)=∑|Fin(x,y)-Fout(x,y)| (12)
通过上述步骤计算出图像局部特征残差和,它描述了图像局部纹理特征。残差和越大,说明中心像素处于纹理区域,残差和越小说明中心像素处于平滑区域。
利用局部残差法可以有效地提取出源图纹理结构,手部静脉皮肤纹理。
低频系数包含大量的纹理信息。为了获取纹理清晰的融合图像,将图像局部纹理特征考虑到低频融合中。因此,将上述获取的局部纹理特征用于图像融合与。
低频融合准则表达式如下:
其中,LA为静脉影像A的低频系数;LB为静脉影像B的低频系数;w为加权系数;j为分解层数。采用一种简化的系数函数来确定加权系数,从而实现自适应融合。简化的系数函数定义如下:
式(14)中,t=RA/RB。当RA值小于RB时,则t值小于1,w小于0.5,低频融合系数主要来自静脉影像A的低频系数;当RA值与RB值近似时,则t值趋于1,w趋于0.5,低频融合系数为静脉影像A的低频系数与静脉影像B的系数加权平均;当RA值大于RB值时,则t值大于1,w大于0.5,低频融合系数主要来自静脉影像B的低频系数;当RA值远大于RB值时,则t值较大,w趋于1,低频融合系数来自静脉影像B的系数。
2)基于局部统计匹配特征准则(LSMS)的高频图像融合准则
手部静脉图像经过小波变换后得到高频系数,高频系数反映了手部及血管边缘、轮廓等细节信息。高频系数的大小表示灰度变化程度,高频系数的符号表示灰度变化的方向。
考虑源图像的高频系数包含共有的边缘信息和独有的边缘信息,提出了一种基于局部统计匹配的高频融合准则,通过互匹配来区分不同波段手部静脉共有的边缘信息与独有的边缘信息。双波段共有的边缘信息具有高匹配度,而某一波段独有的边缘信息匹配度较低。对于共同的边缘信息,采取加权平均准则;对于独有的边缘信息,利用它的物理意义尽可能地保留它。
2.1基于改进马氏距离的互匹配
利用改进的马氏距离来计算局部区域间的空间特性差异。马氏距离定义如下:
其中,Xi和Xj为行向量;S为两行向量的协方差矩阵;S-1为矩阵S的逆矩阵。由于矩阵S可能是奇异矩阵,不能直接计算矩阵S的逆矩阵。根据矩阵原理,可以利用奇异值分解(SVD)来计算协方差矩阵的广义逆矩阵。
协方差矩阵的奇异值分解定义为:
其中,Σ=diag(λ1,λ2...λr),λi是矩阵S的奇异值,它反映了数据能量;r是矩阵S的秩;H为共轭转置符号。在实验中可发现,最大奇异值是远远大于其它的奇异值(λmax>>λi,max≠i),因此只保留最大奇异值,忽略其它奇异值,并将它们当作零。
因此,矩阵的广义逆矩阵定义如下:
根据以上分析,改进的马氏距离见式(19)。如果马氏距离值越小,意味着空间特征差异较小,局部区域为共有信息。
2.2基于非负矩阵分解的自匹配
将具有低匹配度的手部静脉边缘信息作为独特的边缘信息。对于同一区域的独有的边缘信息,应选择显著的边缘信息作为高频融合系数。通过理论和实验分析发现,非负矩阵分解(NMF)的物理意义可以很好地描述图像边缘信息的显著性。非负矩阵分解的详细介绍见小节。从非负矩阵分解的物理意义角度出发,矩阵分解中的加权系数就是指原矩阵中列向量在基向量上的投影。投影值越大,意味着对应列向量包含更多信息。因此,采用基于非负矩阵分解的自匹配来判断边缘信息的显著性。
2.3高频融合
高频融合步骤分为以下:
(a)选取3×3区域,将图像局部系数按列排成1×N2矩阵。
Gj,i=(Gj,i(1),Gj,i(2),…,Gj,i(N2)) (20)
其中,j表示分解层数;i表示方向。
(c)根据高频融合准则进行融合。
其中,H表示局部向量投影值。
本发明的具体实现步骤如下:
步骤1,建立多光谱三维静脉显像系统,静脉成像过程中,被照物反射led光源的两束光,分别通过808nm窄带滤光片和940nm窄带滤光片的滤光进入相机1和相机2中,同时在第一帧图像的获取时刻采用软件触发,同时控制两个相机进行图像采集,获得了两个波段的高质量的清晰静脉图像。在满足左相机与右相机等高的条件下,将左相机与右相机的极线距离拉大至30cm,使显像分辨精度得到了显著提升。利用上述多光谱三维静脉显像系统采集到的静脉图像,经过旋转平移的极线校正操作之后,作为立体匹配的输入。把808nm窄带滤光后的图像作为基准图像对另外一路图像进行极线校正。
步骤2,将经过808nm窄带滤光后的图像进行图像增强和图像分割处理之后,得到808nm分割后图像。
步骤3,将经过940nm窄带滤光后的图像进行图像增强和图像分割处理之后,得到940nm分割后图像。
步骤4,将步骤2和步骤3分别得到的808nm分割后图像与940nm分割后图像进行图像立体匹配,采用基于像素颜色空间和窗口位置的适用于低纹理区域的立体匹配算法,首先通过对图像进行归一化和梯度计算,检测图像中的低纹理区域;其次利用本发明提出的基于像素颜色空间的匹配代价函数,可以比较出像素间的微小差异;最后根据像素在聚合窗口中的位置来分配不同的权值并对匹配代价值进行聚合,最终得到静脉的着色深度图。
步骤5,通过基于局部特征残差与统计匹配的多光谱静脉影像融合算法进行图像融合:首先对采集得到的808nm和990nm波段的静脉图像经小波变换分解为低频系数和高频系数;然后,对于低频系数采取基于局部特征残差准则(LFRS),通过局部特征残差求取源图像的结构信息;对于高频系数采取基于局部统计匹配特征准则(LSMS),由局部自匹配和互匹配来确定高频融合系数;最后,通过小波逆变换得到轮廓清晰,图像信息丰富的静脉融合图像。
Claims (8)
1.一种多光谱三维静脉显像系统,其特征在于,包括:
两路CCD相机,用于在两个不同的波段上通过软件触发同时采集静脉图像;
图像增强和分割模块,用于对两幅静脉图像进行图像增强和图像分割处理,得到分割后图像;
静脉图像立体匹配模块,用于将分割后图像进行图像立体匹配,得到静脉的着色深度图;采用基于低纹理区域的静脉图像立体匹配算法,通过对图像进行归一化和梯度计算,检测图像中的低纹理区域,利用基于像素颜色空间的匹配代价函数,比较像素间的差异;根据像素在聚合窗口中的位置来分配不同的权值并对匹配代价值进行聚合;具体为:
1)基于图像梯度的低纹理区域检测
采用gamma校正法对采集的静脉图像进行颜色空间的归一化,归一化公式为:
I(x,y)=I(x,y)gamma (1)
式中I(x,y)为输入的图像,gamma为校正参数;
对归一化后的图像进行梯度计算,分别计算出水平方向的梯度Ig,x和垂直方向的梯度Ig,y;然后建立一个尺寸为5×5的窗口,若窗口内的所有像素都满足以下条件:
{Ig,x(p)≤0.1,Ig,y(p)≤0.1|p∈W} (2)
则该窗口内的像素都标记为低纹理区域,式中W为像素p所在的窗口;
2)基于像素颜色空间的匹配代价计算
匹配代价函数为:
式中p为参考图像中的像素,q为目标图像中的待匹配像素,f(p,q)表示像素p和像素q的匹配代价值,gp=[gp r,gp g,gp b]为像素p的RGB三个通道的值,gq=[gq r,gq g,gq b]为像素q的RGB三个通道的值;
对颜色内相关进行相应的变化:t1为R分量到G分量的传递函数,t2为G分量到B分量的传递函数,t3为B分量到R分量的传递函数,具体定义如下:
将像素的颜色内相关用一个三维向量t=[t1,t2,t3]来表示,将匹配代价计算函数修正为:
f(p,q)=1-cos(gp,gq)+α0(1-cos(tp,tq)) (5)
3)基于像素窗口位置的代价聚合
利用聚合窗口中像素位置的不同来进行代价聚合,窗口尺寸为7×7,窗口中间三列像素组成了中间部分,其余的区域为边缘部分,在聚合过程中对这两个部分分配不同的权值;每行的代价聚合由三部分组成:
(1)中间部分:位置与中心像素点连贯且值一样的像素点,对这部分进行取平均处理;
(2)边缘部分中,位于窗口边缘,与上述中间部分不连贯,但与中心像素点值相同,对这部分进行折中处理,取平均后乘以加权系数α,0<α<1;
(3)边缘部分中,与中心像素点值不同的像素点,对这一部分进行弱化处理,取平均后乘以弱化系数β,0<β<α<1;
该行的代价聚合值为:
式中,valmiddle为上述分析中中间部分各像素的代价值之和,valedge为边缘部分各像素的代价值之和,valelse为边缘部分中与中心像素点值不同的像素点的代价值之和,三者之和构成了窗口内总的代价值valwindow,如公式(7);Nmiddle为中间部分像素的个数,Nedge为边缘部分像素的个数,Nelse为其他部分像素的个数,三者之和构成了窗口内像素总数Nwindow,如式(8);
valwindow=valmiddle+valedge+valelse (7)
Nwindow=Nmiddle+Nedge+Nelse (8)
多光谱静脉影像融合模块,对采集到的双波段静脉图像经小波变换分解得到低频系数和高频系数,基于局部特征残差与统计匹配确定高频融合系数,再通过小波逆变换得到融合的静脉影像。
2.根据权利要求1所述的多光谱三维静脉显像系统,其特征在于,静脉成像过程中,被照物反射LED光源的两束光,分别通过808nm窄带滤光片和940nm窄带滤光片的滤光进入两路CCD相机,在第一帧图像的获取时刻采用软件触发,同时控制两个相机进行图像采集,获得两个波段的静脉图像;808nm窄带滤光片中心波长为808nm,半带宽为30nm,940nm窄带滤光片中心波长为940nm,半带宽为30nm。
3.根据权利要求2所述的多光谱三维静脉显像系统,其特征在于,两个相机通过连接杆固定在光学平板上,两个CCD相机等高,极线距离为20~40cm。
4.根据权利要求1所述的多光谱三维静脉显像系统,其特征在于,多光谱静脉影像融合模块采用基于局部特征残差与统计匹配的多光谱静脉影像融合算法进行图像融合,首先,对采集到的双波段静脉图像经小波变换分解为低频系数和高频系数;然后,对高低频系数采取不同的融合准则:对于低频系数采取基于局部特征残差准则,通过局部特征残差求取源图像的结构信息;对于高频系数采取基于局部统计匹配特征准则,由局部自匹配和互匹配来确定高频融合系数;最后,通过小波逆变换得到融合的静脉影像;
所述基于局部特征残差与统计匹配的多光谱静脉影像融合算法具体为:
1)基于局部特征残差准则的低频图像融合准则
(a)计算源图像的局部特征向量,包含均值l、标准差d、熵s、平均梯度g,局部特征向量表达式为:
Fin(x,y)=[l,d,g,s] (9)
Fout(x,y)=[l,d,g,s] (10)
其中,Fin表示3×3大小的中心区域,Fout表示7×7大小的周边区域,x与y表示空间位置;
(b)计算中心-周边区域特征残差和:
R(x,y)=∑|Fin(x,y)-Fout(x,y)| (11)
低频融合准则表达式如下:
式(13)中,t=RA/RB,RA为静脉影像A的特征残差和,RB为静脉影像B的特征残差和;
2)基于局部统计匹配特征准则的高频图像融合准则
2.1基于改进马氏距离的互匹配
利用改进的马氏距离来计算局部区域间的空间特性差异,马氏距离定义如下:
其中,Xi和Xj为行向量,S为两行向量的协方差矩阵,S-1为矩阵S的逆矩阵;利用奇异值分解计算协方差矩阵的广义逆矩阵;
协方差矩阵的奇异值分解定义为:
其中,Σ=diag(λ1,λ2...λr),λi是矩阵S的奇异值,r是矩阵S的秩,H为共轭转置符号,U为均值矩阵,V为方差矩阵;
最大奇异值远远大于其它的奇异值,λmax>>λi,max≠i,因此只保留最大奇异值,忽略其它奇异值,并将它们当作零,有:
因此,矩阵的广义逆矩阵定义如下:
根据以上分析,改进的马氏距离为:
2.2高频融合
(a)选取3×3区域,将图像局部系数按列排成1×N2矩阵;
Gj,i=(Gj,i(1),Gj,i(2),…,Gj,i(N2)) (19)
其中,j表示分解层数,i表示方向;
(c)根据高频融合准则进行融合:
其中,K表示局部向量投影值。
5.一种基于权利要求1所述多光谱三维静脉显像系统的显像方法,其特征在于,包括以下步骤:
在两个不同的波段上通过软件触发同时采集静脉图像;
对两幅静脉图像进行图像增强和图像分割处理,得到分割后图像;
采用基于低纹理区域的静脉图像立体匹配算法,将分割后图像进行图像立体匹配,得到静脉的着色深度图,具体方法为:
1)基于图像梯度的低纹理区域检测
采用gamma校正法对采集的静脉图像进行颜色空间的归一化,归一化公式为:
I(x,y)=I(x,y)gamma (1)
式中I(x,y)为输入的图像,gamma为校正参数;
对归一化后的图像进行梯度计算,分别计算出水平方向的梯度Ig,x和垂直方向的梯度Ig,y;然后建立一个尺寸为5×5的窗口,若窗口内的所有像素都满足以下条件:
{Ig,x(p)≤0.1,Ig,y(p)≤0.1|p∈W} (2)
则该窗口内的像素都标记为低纹理区域,式中W为像素p所在的窗口;
2)基于像素颜色空间的匹配代价计算
匹配代价函数为:
式中p为参考图像中的像素,q为目标图像中的待匹配像素,f(p,q)表示像素p和像素q的匹配代价值,gp=[gp r,gp g,gp b]为像素p的RGB三个通道的值,gq=[gq r,gq g,gq b]为像素q的RGB三个通道的值;
对颜色内相关进行相应的变化:t1为R分量到G分量的传递函数,t2为G分量到B分量的传递函数,t3为B分量到R分量的传递函数,具体定义如下:
将像素的颜色内相关用一个三维向量t=[t1,t2,t3]来表示,将匹配代价计算函数修正为:
f(p,q)=1-cos(gp,gq)+α0(1-cos(tp,tq)) (5)
3)基于像素窗口位置的代价聚合
利用聚合窗口中像素位置的不同来进行代价聚合,窗口尺寸为7×7,窗口中间三列像素组成了中间部分,其余的区域为边缘部分,在聚合过程中对这两个部分分配不同的权值;每行的代价聚合由三部分组成:
(1)中间部分:位置与中心像素点连贯且值一样的像素点,对这部分进行取平均处理;
(2)边缘部分:位于窗口边缘,与上述中间部分不连贯,但与中心像素点值相同,对这部分进行折中处理,取平均后乘以加权系数α,0<α<1;
(3)边缘部分中,与中心像素点值不同的像素点,对这一部分进行弱化处理,取平均后乘以弱化系数β,0<β<α<1;
该行的代价聚合值为:
式中,valmiddle为上述分析中中间部分各像素的代价值之和,valedge为边缘部分各像素的代价值之和,valelse为边缘部分中与中心像素点值不同的像素点的代价值之和,三者之和构成了窗口内总的代价值valwindow,如公式(7);Nmiddle为中间部分像素的个数,Nedge为边缘部分像素的个数,Nelse为其他部分像素的个数,三者之和构成了窗口内像素总数Nwindow,如式(8);
valwindow=valmiddle+valedge+valelse (7)
Nwindow=Nmiddle+Nedge+Nelse (8)
对采集到的双波段静脉图像经小波变换分解得到低频系数和高频系数,基于局部特征残差与统计匹配确定高频融合系数,再通过小波逆变换得到融合的静脉影像。
6.根据权利要求5所述的方法,其特征在于,被照物反射LED光源的两束光,分别通过808nm窄带滤光片和940nm窄带滤光片的滤光进入两路CCD相机,在第一帧图像的获取时刻采用软件触发,同时控制两个相机进行图像采集,获得两个波段的静脉图像;808nm窄带滤光片中心波长为808nm,半带宽为30nm,940nm窄带滤光片中心波长为940nm,半带宽为30nm。
7.根据权利要求6所述的方法,其特征在于,两个相机通过连接杆固定在光学平板上,两个CCD相机等高,极线距离为20~40cm。
8.根据权利要求5所述的方法,其特征在于,采用基于局部特征残差与统计匹配的多光谱静脉影像融合算法进行图像融合,首先,对采集到的双波段静脉图像经小波变换分解为低频系数和高频系数;然后,对高低频系数采取不同的融合准则:对于低频系数采取基于局部特征残差准则,通过局部特征残差求取源图像的结构信息;对于高频系数采取基于局部统计匹配特征准则,由局部自匹配和互匹配来确定高频融合系数;最后,通过小波逆变换得到融合的静脉影像;
基于局部特征残差与统计匹配的多光谱静脉影像融合算法具体为:
1)基于局部特征残差准则的低频图像融合准则
(a)计算源图像的局部特征向量,包含均值l、标准差d、熵s、平均梯度g,局部特征向量表达式为:
Fin(x,y)=[l,d,g,s] (9)
Fout(x,y)=[l,d,g,s] (10)
其中,Fin表示3×3大小的中心区域,Fout表示7×7大小的周边区域,x与y表示空间位置;
(b)计算中心-周边区域特征残差和:
R(x,y)=∑|Fin(x,y)-Fout(x,y)| (11)
低频融合准则表达式如下:
式(13)中,t=RA/RB,RA为静脉影像A的特征残差和,RB为静脉影像B的特征残差和;
2)基于局部统计匹配特征准则的高频图像融合准则
2.1基于改进马氏距离的互匹配
利用改进的马氏距离来计算局部区域间的空间特性差异,马氏距离定义如下:
其中,Xi和Xj为行向量,S为两行向量的协方差矩阵,S-1为矩阵S的逆矩阵;利用奇异值分解计算协方差矩阵的广义逆矩阵;
协方差矩阵的奇异值分解定义为:
其中,Σ=diag(λ1,λ2...λr),λi是矩阵S的奇异值,r是矩阵S的秩,H为共轭转置符号,U为均值矩阵,V为方差矩阵;
最大奇异值远远大于其它的奇异值,λmax >>λi,max≠i,因此只保留最大奇异值,忽略其它奇异值,并将它们当作零,有:
因此,矩阵的广义逆矩阵定义如下:
根据以上分析,改进的马氏距离为:
2.2高频融合
(a)选取3×3区域,将图像局部系数按列排成1×N2矩阵;
Gj,i=(Gj,i(1),Gj,i(2),…,Gj,i(N2)) (19)
其中,j表示分解层数,i表示方向;
(c)根据高频融合准则进行融合:
其中,K表示局部向量投影值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811281026.2A CN109584210B (zh) | 2018-10-30 | 2018-10-30 | 多光谱三维静脉显像系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811281026.2A CN109584210B (zh) | 2018-10-30 | 2018-10-30 | 多光谱三维静脉显像系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109584210A CN109584210A (zh) | 2019-04-05 |
CN109584210B true CN109584210B (zh) | 2022-08-16 |
Family
ID=65920827
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811281026.2A Active CN109584210B (zh) | 2018-10-30 | 2018-10-30 | 多光谱三维静脉显像系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109584210B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110095189B (zh) * | 2019-04-24 | 2020-09-25 | 西安理工大学 | 一种双目的八谱段多光谱相机设计方法 |
CN111340717A (zh) * | 2020-01-22 | 2020-06-26 | 哈尔滨新光光电科技股份有限公司 | 一种用于非制冷红外热像仪的图像预处理装置 |
CN113627429B (zh) * | 2021-08-12 | 2024-09-27 | 深圳市爱培科技术股份有限公司 | 一种图像的低纹理区域识别方法、装置、存储介质及设备 |
CN115115689B (zh) * | 2022-06-08 | 2024-07-26 | 华侨大学 | 一种多波段光谱的深度估计方法 |
CN115731205B (zh) * | 2022-11-28 | 2024-04-26 | 北京大学 | 内窥镜的图像处理装置、方法、电子设备及存储介质 |
CN115861763B (zh) * | 2023-03-01 | 2023-04-25 | 电子科技大学 | 一种多光谱多视角环境感知方法 |
CN116091322B (zh) * | 2023-04-12 | 2023-06-16 | 山东科技大学 | 超分辨率图像重建方法和计算机设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1581230A (zh) * | 2004-05-20 | 2005-02-16 | 上海交通大学 | 基于影像局部光谱特性的遥感影像融合方法 |
CN102915523A (zh) * | 2012-09-13 | 2013-02-06 | 中国科学院东北地理与农业生态研究所 | 一种改进的小波变换遥感影像融合方法及其融合系统 |
-
2018
- 2018-10-30 CN CN201811281026.2A patent/CN109584210B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1581230A (zh) * | 2004-05-20 | 2005-02-16 | 上海交通大学 | 基于影像局部光谱特性的遥感影像融合方法 |
CN102915523A (zh) * | 2012-09-13 | 2013-02-06 | 中国科学院东北地理与农业生态研究所 | 一种改进的小波变换遥感影像融合方法及其融合系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109584210A (zh) | 2019-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109584210B (zh) | 多光谱三维静脉显像系统 | |
US8345936B2 (en) | Multispectral iris fusion for enhancement and interoperability | |
US9317761B2 (en) | Method and an apparatus for determining vein patterns from a colour image | |
WO2018000752A1 (zh) | 一种基于多尺度cnn和连续crf的单目图像深度估计方法 | |
CN107808137A (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
Crihalmeanu et al. | Enhancement and registration schemes for matching conjunctival vasculature | |
Ross et al. | Exploring multispectral iris recognition beyond 900nm | |
CN112884682B (zh) | 一种基于匹配与融合的立体图像颜色校正方法及系统 | |
CN106446872A (zh) | 一种低照度下的视频人脸检测识别方法 | |
Ramakanth et al. | Approximate nearest neighbour field based optic disk detection | |
Yang et al. | A uniform framework for estimating illumination chromaticity, correspondence, and specular reflection | |
CN102831400A (zh) | 一种多光谱人脸识别方法及其系统 | |
CN111462128A (zh) | 一种基于多模态光谱图像的像素级图像分割系统及方法 | |
CN105426843A (zh) | 一种单镜头下掌静脉和掌纹图像采集装置及图像增强和分割方法 | |
CN103295010A (zh) | 一种处理人脸图像的光照归一化方法 | |
CN107689038A (zh) | 一种基于稀疏表示和循环引导滤波的图像融合方法 | |
CN116681636A (zh) | 基于卷积神经网络的轻量化红外与可见光图像融合方法 | |
CN110766678A (zh) | 一种卵巢癌分子分型预测系统 | |
CN118229548A (zh) | 基于渐进多分支和改进UNet3+深监督的红外与可见光图像融合方法 | |
Polanía et al. | Skin chromophore estimation from mobile selfie images using constrained independent component analysis | |
Bogo et al. | Automated detection of new or evolving melanocytic lesions using a 3D body model | |
CN117315716A (zh) | 一种基于双相似度分割的遮挡行人重识别方法及装置 | |
CN109753912B (zh) | 一种基于张量的多光谱掌纹匹配方法 | |
CN116485736A (zh) | 基于深度学习的眼底视网膜图像异常区域检测方法及系统 | |
CN115909401A (zh) | 融合深度学习的牛脸识别方法、装置、电子设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |