CN111144331B - 手肘静脉图像肘正中静脉的识别方法及手肘图像采集装置 - Google Patents

手肘静脉图像肘正中静脉的识别方法及手肘图像采集装置 Download PDF

Info

Publication number
CN111144331B
CN111144331B CN201911387229.4A CN201911387229A CN111144331B CN 111144331 B CN111144331 B CN 111144331B CN 201911387229 A CN201911387229 A CN 201911387229A CN 111144331 B CN111144331 B CN 111144331B
Authority
CN
China
Prior art keywords
vein
elbow
image
median
rectangle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911387229.4A
Other languages
English (en)
Other versions
CN111144331A (zh
Inventor
王玉华
郭永洪
朱翔翔
李梅
何金龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Jiliang University
Original Assignee
China Jiliang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Jiliang University filed Critical China Jiliang University
Priority to CN201911387229.4A priority Critical patent/CN111144331B/zh
Publication of CN111144331A publication Critical patent/CN111144331A/zh
Application granted granted Critical
Publication of CN111144331B publication Critical patent/CN111144331B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了手肘静脉图像肘正中静脉的识别方法及手肘图像采集装置,涉及图像识别技术领域,能通过对手肘图像的处理来准确找出肘正中静脉,首先对采集到的手肘图像进行增强,获得高对比度的手肘静脉图像;然后对所述高对比度的手肘静脉图像,进行多尺度自适应滤波获得静脉结构图像;然后对所述静脉结构图像进行阈值分割,在其二值图像中提取静脉特征;最后将所述静脉特征输入到训练好的分类器中完成肘正中静脉的识别。

Description

手肘静脉图像肘正中静脉的识别方法及手肘图像采集装置
技术领域
本发明涉及图像识别技术领域,具体涉及手肘静脉图像肘正中静脉的识别方法及手肘图像采集装置。
背景技术
手肘位置的肘正中静脉,是日常生活中用于静脉采血和注射药物的常用静脉。由于不同的患者皮下脂肪厚度不同,静脉粗壮程度不一,不易找到用于注射的肘正中静脉,容易造成静脉穿刺失败。穿刺失败一方面会给患者带来不良的影响,多次穿刺增加患者的疼痛和焦虑,甚至产生恐惧心理,另一方面会使医护人员产生沮丧,担忧以及缺乏自信等负面情绪。同时,治疗环境拥挤嘈杂,治疗时间受到限制,亦会影响医护人员操作难度。
目前,现有的静脉显像设备和方法,仅仅使医护人员更加容易观察到静脉,没有准确的找到肘正中静脉,这对缺乏经验的医护人员,在吵闹复杂的环境下快速的进行静脉穿刺,依然是一项严峻的挑战。再者,此类设备的售价一般较高,难以普及。
发明内容
本发明是为了解决在手肘静脉穿刺时不易于找到肘正中静脉的问题,提供一种能通过对手肘图像的处理来准确找出肘正中静脉,可靠性高的肘静脉图像肘正中静脉的识别方法及手肘图像采集装置。
以上技术问题是通过下列技术方案解决的:
一种手肘静脉图像肘正中静脉的识别方法,识别方法如下:
对采集到的手肘图像进行增强,获得高对比度的手肘静脉图像;
对所述高对比度的手肘静脉图像,进行多尺度自适应滤波获得静脉结构图像;
对所述静脉结构图像进行阈值分割,在其二值图像中提取静脉特征;
将所述静脉特征输入到训练好的分类器中完成肘正中静脉的识别。
作为优先,所述对采集到的静脉图像进行增强的方法如下:
对采集到的静脉图像进行分块,对每个小块计算直方图,设置裁剪阈值;
对每一灰度级上超过裁剪阈值的直方图进行裁剪,然后均匀的分布到每一灰度级;
对裁剪完成的直方图做直方图均衡化;
将均衡化后的分块图像拼接成完整图像,对左上,左下,右下,右上四个1/4个小块采用直接赋值的方式,对上,左,下,右四条边采用线性插值,图像中剩余部分采用双线性插值方式;所述四条边不包括上述四个小块;
作为优先,所述进行多尺度自适应滤波获得静脉结构图像的方法如下:
根据图像二阶hessian矩阵特征值λ1,λ2,|λ1|≤|λ2|构建的多尺度自适应滤波函数,如公式(6)所示:
Figure BDA0002340499900000031
其中
Figure BDA0002340499900000032
β=0.5,ω=50,d由输入图像自适应确定,其形式为公式(7)所示,drank为输入图像中像素个数不为0的灰度级,σi为当前迭代的尺度因子,滤波器输出0≤v(x,y;σ)≤1;
Figure BDA0002340499900000033
作为优先,所述提取静脉特征的方法如下:
对所述二值图像中的所有轮廓进行查找,获得轮廓之后,通过求解每个轮廓的最小外包矩形;
然后通过所述最小外包矩形确定每段静脉包括手臂轮廓的宽高及面积,用于表征该段静脉的大小;
然后利用所述最小外包矩形的宽高比来表征这段静脉的弯曲程度;
接着求取每段静脉最小外包矩形的中心距离两侧手臂轮廓的距离;具体方式为通过最小外包矩形的中心向两侧轮廓的最小外包矩形的最外侧边做垂线,分别为左侧距离和右侧距离,用于表征该段静脉的相对位置;
然后将所述最小外包矩形映射回到还未进行阈值分割时的静脉结构图像,
并计算矩形包围的像素点灰度值之和,用于表征该段静脉易于被观察的程度;
至此每段静脉获得7维特征,将部分特征进行重组,再添加左侧距离与右侧距离之比、右侧距离与左侧距离之比和灰度强度与面积之比,这样使得每段静脉一共获得10维特征。
作为优先,所述分类器包括:随机森林分类器和支持向量机分类器;
对每段静脉添加相应的标签,标注其是否为用于注射的肘正中静脉,将10维特征和标签用于训练分类器;
把采集到的若干幅手肘静脉图像分别独立训练每个分类器后,使每个分类器输出相应类别的概率值,通过软投票的方式将其集成为最终的预测器,完成对肘正中静脉的识别。
一种手肘图像采集装置,包括镜头朝下布置的摄像头,在位于摄像头的正下方设有滤光片,在位于滤光片的正下方设有能放置手肘的肘托,在摄像头的左右两侧分别设有朝下照射的红外光源,在每个红外光源的正下方都分别设有散光片。
作为优先,两个散光片所处位置都高于镜头所处位置,并且两个散光片位于同一高度处。
作为优先,位于摄像头左右两侧方的红外光源位于同一高度处。
作为优先,在位于摄像头的镜头正下方的肘托上设有放肘槽。
本发明能够达到如下效果:
本发明能通过对手肘图像的处理来准确找出肘正中静脉,可靠性高。
附图说明
图1所示为本发明的总体流程图。
图2为手肘图像采集装置的原理示意图,
具体实施方式
下面结合附图与实施例对本发明作进一步的说明。
实施例1,肘静脉图像肘正中静脉的识别方法,参见图1-2所示,包括手肘图像采集模块、图像预处理模块、肘静脉特征提取模块、肘正中静脉预测模块。图像预处理模块包括手肘图像增强、静脉结果提取、阈值分割和静脉分段。
完成手肘图像采集之后,进行手肘图像处理和识别,其识别方法如下:
对采集到的手肘图像进行灰度化增强,获得单通道高对比度的手肘静脉图像;
再对所述高对比度的手肘静脉图像,进行多尺度自适应滤波获得静脉结构图像;
对所述静脉结构图像进行阈值分割,在其二值图像中提取静脉特征;
对静脉结构图像的阈值分割方式为:先选取固定尺寸的局部滑动窗口,通过求取窗口加权和的方式得到分割的阈值;对静脉结构图像分割完成后得到二值图像。
对获得的二值图像,做一次形态学开运算,使得每段静脉之间的连接点断开,并且保留手臂两侧轮廓。对二值图像中的所有轮廓进行查找,获得所有轮廓后,接着求解每个轮廓的最小外包矩形。
将所述静脉特征输入到训练好的分类器中完成肘正中静脉的识别。
所述对采集到的静脉图像进行增强的方法如下:
对采集到的静脉图像进行分块,对每个小块计算直方图,设置裁剪阈值;
对每一灰度级上超过裁剪阈值的直方图进行裁剪,然后均匀的分布到每一灰度级;
对裁剪完成的直方图做直方图均衡化;
对裁剪完成的直方图做限制对比度的自适应直方图的均衡化处理;增强静脉区域与图像背景之间的对比度,并采用直接赋值,线性插值,双线性插值结合的方式加快运行速度。在手肘静脉图像中,静脉直径存在变化,不适合采用在单一尺度下的增强方法。多尺度空间理论可用于表示同一空间不同尺度的信号特征。在该理论基础上,将Hessian矩阵的差分运算与高斯函数结合;求解Hessian矩阵的二阶微分运算转换为原始图像数据与高斯函数二阶导数的卷积。卷积完成后能得到原图像中每个像素点所对应的二阶Hessian矩阵,求解Hessian矩阵的特征值和特征向量,并将特征值按其绝对值大小进行排序,获得特征值与几何形状之间的一一对应关系,当该点所对应为原图像中的管状结构即静脉区域时,较小特征值的大小接近于0,较大特征值的绝对值远大于较小特征值的绝对值。
对应为块状区域时即阴影区域时,较小特征值与较大特征值的绝对值都为较大的值;对应为噪声区域时,较小特征值与较大特征值的绝对值都为较小值。
利用对应关系,构建多尺度自适应滤波器用于提取静脉结构,抑制非静脉区域,获得静脉结构图像。对获得的二值图像,做一次形态学开运算,使得每段静脉之间的连接点断开,并且保留手臂两侧轮廓。对二值图像中的所有轮廓进行查找,获得轮廓之后,通过求解每个轮廓的最小外包矩形。
将均衡化后的分块图像拼接成完整图像,对左上,左下,右下,右上四个1/4个小块采用直接赋值的方式,对上,左,下,右四条边采用线性插值,图像中剩余部分采用双线性插值方式;所述四条边不包括上述四个小块。
所述进行多尺度自适应滤波获得静脉结构图像的方法如下:
根据图像二阶hessian矩阵特征值λ1,λ2,|λ1|≤|λ2|构建的多尺度自适应滤波函数,如公式(6)所示:
Figure BDA0002340499900000071
其中
Figure BDA0002340499900000081
β=0.5,ω=50,d由输入图像自适应确定,其形式为公式(7)所示,drank为输入图像中像素个数不为0的灰度级,σi为当前迭代的尺度因子,滤波器输出0≤v(x,y;σ)≤1;
Figure BDA0002340499900000082
所述提取静脉特征的方法如下:
对所述二值图像中的所有轮廓进行查找,获得轮廓之后,通过求解每个轮廓的最小外包矩形;
然后通过所述最小外包矩形确定每段静脉包括手臂轮廓的宽高及面积,用于表征该段静脉的大小;
然后利用所述最小外包矩形的宽高比来表征这段静脉的弯曲程度;
接着求取每段静脉最小外包矩形的中心距离两侧手臂轮廓的距离;具体方式为通过最小外包矩形的中心向两侧轮廓的最小外包矩形的最外侧边做垂线,分别为左侧距离和右侧距离,用于表征该段静脉的相对位置;
然后将所述最小外包矩形映射回到还未进行阈值分割时的静脉结构图像,并计算矩形包围的像素点灰度值之和,用于表征该段静脉易于被观察的程度;
至此每段静脉获得7维特征,将部分特征进行重组,再添加左侧距离与右侧距离之比、右侧距离与左侧距离之比和灰度强度与面积之比,这样使得每段静脉一共获得10维特征。
所述分类器包括:随机森林分类器和支持向量机分类器;
对每段静脉添加相应的标签,标注其是否为用于注射的肘正中静脉,将10维特征和标签用于训练分类器;
把采集到的若干幅手肘静脉图像分别独立训练每个分类器后,使每个分类器输出相应类别的概率值,通过软投票的方式将其集成为最终的预测器,完成对肘正中静脉的识别。
一种手肘图像采集装置,包括镜头朝下布置的摄像头,在位于摄像头的正下方设有滤光片,在位于滤光片的正下方设有能放置手肘的肘托,在摄像头的左右两侧分别设有朝下照射的红外光源,在每个红外光源的正下方都分别设有散光片。两个散光片所处位置都高于镜头所处位置,并且两个散光片位于同一高度处。位于摄像头左右两侧方的红外光源位于同一高度处。在位于摄像头的镜头正下方的肘托上设有放肘槽。
采用200万像素的CCD摄像头;摄像头前装的滤光片其中心波长为850±10nm,峰值透射率>86%;摄像头两侧的红外光源为850nm的LED红外光源;在红外光源前装有散光片。摄像头正下方为肘托,采集图像时将手肘置于肘托的放肘槽内,采集到的图像大小为640*480。
本实施例1能通过对手肘图像的处理来准确找出肘正中静脉,可靠性高。
实施例2,本发明为一种肘静脉图像肘正中静脉的识别方法及手肘图像采集装置,目的是能够通过图像识别方法快速准确的找到用于手肘处静脉注射的肘正中静脉。附图1所示为本发明的总体流程图,其包括手肘静脉图像采集模块,图像预处理模块,肘静脉特征提取模块,肘正中静脉预测模块。
附图2为图像采集装置的原理图,包括肘托,200万像素CCD摄像头,850nm红外LED灯,中心波长为850±10hm,峰值透射率>86%的红外滤光片,散光片。采集图像时,将手肘置于摄像头正下方的肘托上,采集到的图像大小为640*480。
图像预处理模块包括静脉图像增强,静脉结果提取,阈值分割,静脉分段。
在具体实施时,将采集到的图像进行灰度化,使其成为单通道灰度图像。再对图像进行限制对比度自适应直方图均衡化,具体的方式为将图像分割为10*10的小块,对每个小块求解灰度直方图,并且设置裁剪值,当某一灰度级的像素个数超过裁剪值,将其均匀的分布到每一灰度级,将灰度直方图重构,接重构后的直方图对每一个小块做直方图均衡。上述过程可由公式(1),(2),(3)完成。
pr(rk)=nk,k=0,1,2,...,L-1 公式(1)
Figure BDA0002340499900000101
Figure BDA0002340499900000102
其中nk是灰度为rk的像素个数,L是灰度级的数量,在本实施例中为256。αclip为裁剪系数,M,N为每个小块的高和宽。T(rk)为直方图均衡化的转换函数。完成上述过程后,需要将10*10个小块图像重新合成。具体合成方式为,对左上,左下,右下,右上四个1/4个小块采用直接赋值的方式,对上,左,下,右四条边(不包括上述四个小块)采用线性插值,图像中剩余部分采用双线性插值方式。
完成对比度限制自适应直方图均衡后的图像,进行多尺度自适应滤波操作。首先求解图像的二阶hessian矩阵,求解方式可用公式(4)表示。
Figure BDA0002340499900000111
其中I为原图像,Ixy为原图像与二元高斯函数的二阶偏导数卷积后的结果即原图像的二阶偏导数,同理可求解Ixx,Iyy,则原图像上(x,y)点所对应的二阶hessian矩阵为公式(5)所示。
Figure BDA0002340499900000112
滤波器的局部特性分析窗口的半宽设置为3σ,通过对σ取不同的值,设置不同的窗口半宽和不同的二元高斯偏导数达到多尺度的目的,筛选宽度不一的静脉,在本实施例中σ=1,3,5,7,9,一共迭代计算五次。对得到的hessian矩阵求解特征值和特征向量,并将特征值按其绝对值大小进行排序|λ1|≤|λ2|。可以获得与之对应的几何形状之间的关系,当该点所对应为原图像中的管状结构即静脉区域时,|λ1|接近于0,|λ2|远大于|λ1|。对应为块状区域时即阴影区域,|λ1|与|λ2|均为较大的值。对应为噪声区域时,|λ1|与|λ2|都为较小值。应用此关系并根据近红外手肘静脉图像的特点可以构建多尺度自适应滤波器,其具体形式为公式(6)所示
Figure BDA0002340499900000121
其中
Figure BDA0002340499900000122
在本实施例中β=0.5,ω=50,d由输入图像自适应确定,其形式为公式(7)所示,drank为输入图像中像素个数不为0的灰度级,σi为当前迭代的尺度因子。滤波器输出0≤v(x,y;σ)≤1。
Figure BDA0002340499900000123
接着,经过5轮迭代之后,每个像素点对应最大的滤波器输出作为最终的输出如公式(8)所示:
V(x,y)=max(v(x,y;σi)),i=1,2,3,4,5 公式(8)
进一步地,对完成多尺度自适应滤波后的图像即静脉结构图像进行自适应阈值分割,在本实施例中自适应方法为领域加权和,领域大小为25*25,权重为一个高斯窗口,获得二值图像。
进一步地,对获得的静脉二值图像,做一次形态学开运算,使得每段静脉之间的连接点断开,并且保留手臂两侧轮廓,在本实施例中形态学运算所选取的结构元素为椭圆形,长短轴为5和3。
所述特征提取模块包括对各段静脉几何特征,位置特征及其组合特征的提取,具体实施方式为:
对所述二值图像中的所有轮廓进行查找,获得轮廓之后,通过求解每个轮廓的最小外包矩形。
进一步地,通过所述最小外包矩形确定每段静脉包括手臂轮廓的宽高及面积,用于表征该段静脉的大小。
进一步地,利用所述最小外包矩形的宽高比来表征这段静脉的弯曲程度。
进一步地,求取每段静脉最小外包矩形的中心距离两侧手臂轮廓的距离,具体方式为通过最小外包矩形的中心向两侧轮廓的最小外包矩形的最外侧边做垂线,分别为左侧距离和右侧距离,用于表征该段静脉的相对位置。
进一步地,将所述最小外包矩形映射回所述静脉结构图像即未进行阈值分割的图像,计算矩形包围的像素点灰度值之和,用于表征该段静脉易于被观察的程度。
至此每段静脉获得7维的特征,将部分特征进行重组,添加左侧距离与右侧距离之比,右侧距离与左侧距离之比,灰度强度与面积之比,一共10维的特征。
肘正中静脉识别模块包括模型的选择,训练,集成方式。其具体实施方式为:
分类器1为随机森林,在本实施列2中,随机森林分类器集成了500个决策树。
分类器2为支持向量机,在本实施例中,支持向量机的核函数为高斯RBF核函数。
对每段静脉添加相应的标签,标注其是否为用于注射的肘正中静脉。将特征和标签用于训练分类器。本实施例中一共选取150幅手肘静脉图像,其中包括75幅左手,75幅右手,分别独立训练每个分类器后,使每个分类器输出相应类别的概率值,通过软投票的方式将其集成为最终的预测器,完成对肘正中静脉的识别,其中随机森林的识别准确率为86.4%,支持向量机的准确率为85.2%,将其集成后的分类器准确率为95.1%,能够准确识别肘正中静脉。
本实施例2能通过对手肘图像的处理来准确找出肘正中静脉,可靠性高。

Claims (3)

1.一种手肘静脉图像肘正中静脉的识别方法,其特征在于,识别方法如下:
对采集到的手肘图像进行增强,获得高对比度的手肘静脉图像;
对所述高对比度的手肘静脉图像,进行多尺度自适应滤波获得静脉结构图像;
对所述静脉结构图像进行阈值分割,在其二值图像中提取静脉特征;
将所述静脉特征输入到训练好的分类器中完成肘正中静脉的识别;
所述对采集到的静脉图像进行增强的方法如下:
对采集到的静脉图像进行分块,对每个小块计算直方图,设置裁剪阈值;
对每一灰度级上超过裁剪阈值的直方图进行裁剪,然后均匀的分布到每一灰度级;
对裁剪完成的直方图做直方图均衡化;
将均衡化后的分块图像拼接成完整图像,对左上,左下,右下,右上四个1/4个小块采用直接赋值的方式,对上,左,下,右四条边采用线性插值,图像中剩余部分采用双线性插值方式;四条边不包括上述四个小块;
所述提取静脉特征的方法如下:
对所述二值图像中的所有轮廓进行查找,获得轮廓之后,通过求解每个轮廓的最小外包矩形;
然后通过所述最小外包矩形确定每段静脉包括手臂轮廓的宽高及面积,用于表征该段静脉的大小;
然后利用所述最小外包矩形的宽高比来表征这段静脉的弯曲程度;
接着求取每段静脉最小外包矩形的中心距离两侧手臂轮廓的距离;具体方式为通过最小外包矩形的中心向两侧轮廓的最小外包矩形的最外侧边做垂线,分别为左侧距离和右侧距离,用于表征该段静脉的相对位置;
然后将所述最小外包矩形映射回到还未进行阈值分割时的静脉结构图像,
并计算矩形包围的像素点灰度值之和,用于表征该段静脉易于被观察的程度;
至此每段静脉获得7维特征,将部分特征进行重组,再添加左侧距离与右侧距离之比、右侧距离与左侧距离之比和灰度强度与面积之比,这样使得每段静脉一共获得1Q维特征。
2.根据权利要求1所述的手肘静脉图像肘正中静脉的识别方法,其特征在于,
所述进行多尺度自适应滤波获得静脉结构图像的方法如下:
根据图像二阶hessian矩阵特征值λ1,λ2,|λ1|≤|λ2|构建的多尺度自适应滤波函数,如公式(6)所示:
Figure FDA0004104135670000031
其中
Figure FDA0004104135670000032
β=0.5,ω=50,d由输入图像自适应确定,其形式为公式(7)所示,drank为输入图像中像素个数不为0的灰度级,σi为当前迭代的尺度因子,滤波器输出0≤v(x,y;σ)≤1;
Figure FDA0004104135670000033
3.根据权利要求2所述的手肘静脉图像肘正中静脉的识别方法,其特征在于,所述分类器包括:随机森林分类器和支持向量机分类器;
对每段静脉添加相应的标签,标注其是否为用于注射的肘正中静脉,将10维特征和标签用于训练分类器;
把采集到的若干幅手肘静脉图像分别独立训练每个分类器后,使每个分类器输出相应类别的概率值,通过软投票的方式将其集成为最终的预测器,完成对肘正中静脉的识别。
CN201911387229.4A 2019-12-27 2019-12-27 手肘静脉图像肘正中静脉的识别方法及手肘图像采集装置 Active CN111144331B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911387229.4A CN111144331B (zh) 2019-12-27 2019-12-27 手肘静脉图像肘正中静脉的识别方法及手肘图像采集装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911387229.4A CN111144331B (zh) 2019-12-27 2019-12-27 手肘静脉图像肘正中静脉的识别方法及手肘图像采集装置

Publications (2)

Publication Number Publication Date
CN111144331A CN111144331A (zh) 2020-05-12
CN111144331B true CN111144331B (zh) 2023-06-13

Family

ID=70521440

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911387229.4A Active CN111144331B (zh) 2019-12-27 2019-12-27 手肘静脉图像肘正中静脉的识别方法及手肘图像采集装置

Country Status (1)

Country Link
CN (1) CN111144331B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112396565A (zh) * 2020-11-19 2021-02-23 同济大学 静脉穿刺机器人的图像及视频血管增强与分割方法和系统
CN113705619B (zh) * 2021-08-03 2023-09-12 广州大学 一种恶意流量检测方法、系统、计算机及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1992016910A1 (en) * 1991-03-20 1992-10-01 Prokoski Francine J Method for identifying individuals from analysis of elemental shapes derived from biosensor data
WO2011005353A1 (en) * 2009-07-06 2011-01-13 Exxonmobil Upstream Research Company Method for seismic interpretation using seismic texture attributes
CN102222220A (zh) * 2011-06-21 2011-10-19 哈尔滨工程大学 手背静脉模式纹理提取方法
WO2016125030A2 (en) * 2015-02-06 2016-08-11 Hoyos Labs Ip Ltd. Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2411338C (en) * 2002-11-07 2011-05-31 Mcmaster University Method for on-line machine vision measurement, monitoring and control of product features during on-line manufacturing processes

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1992016910A1 (en) * 1991-03-20 1992-10-01 Prokoski Francine J Method for identifying individuals from analysis of elemental shapes derived from biosensor data
US5163094A (en) * 1991-03-20 1992-11-10 Francine J. Prokoski Method for identifying individuals from analysis of elemental shapes derived from biosensor data
WO2011005353A1 (en) * 2009-07-06 2011-01-13 Exxonmobil Upstream Research Company Method for seismic interpretation using seismic texture attributes
CN102222220A (zh) * 2011-06-21 2011-10-19 哈尔滨工程大学 手背静脉模式纹理提取方法
WO2016125030A2 (en) * 2015-02-06 2016-08-11 Hoyos Labs Ip Ltd. Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
谢欢等.磁共振成像.二次灌注对全定量脑磁共振灌注成像 血流动力学影响的初步研究.2018,第9卷(第5期),全文. *

Also Published As

Publication number Publication date
CN111144331A (zh) 2020-05-12

Similar Documents

Publication Publication Date Title
CN106682616B (zh) 基于双通道特征深度学习的新生儿疼痛表情识别方法
CN112949565B (zh) 基于注意力机制的单样本部分遮挡人脸识别方法及系统
CN107610087B (zh) 一种基于深度学习的舌苔自动分割方法
CN105005765B (zh) 一种基于Gabor小波和灰度共生矩阵的人脸表情识别方法
CN109344693A (zh) 一种基于深度学习的人脸多区域融合表情识别方法
CN107729820B (zh) 一种基于多尺度hog的手指静脉识别方法
CN106156754A (zh) 一种基于最大外切矩阵感兴趣区域提取和双边滤波的手指多模态预处理方法
CN110110600B (zh) 眼部oct图像病灶识别方法、装置及存储介质
Sinha et al. Optic disk localization using L 1 minimization
CN109002763B (zh) 基于同源连续性的模拟人脸老化的方法及装置
CN104680508A (zh) 卷积神经网络和基于卷积神经网络的目标物体检测方法
CN111008974A (zh) 多模型融合的股骨颈骨折区域定位和分割方法及系统
CN106980852A (zh) 基于角点检测与匹配的药品识别系统及其识别方法
CN112150476A (zh) 基于时空判别性特征学习的冠状动脉序列血管分割方法
CN111144331B (zh) 手肘静脉图像肘正中静脉的识别方法及手肘图像采集装置
CN111080592B (zh) 一种基于深度学习的肋骨提取方法及装置
CN106845327A (zh) 人脸对齐模型的训练方法、人脸对齐方法和装置
CN110705468A (zh) 基于图像分析的眼动范围识别方法和系统
CN116645705A (zh) 基于轻量化网络的近红外掌静脉roi提取方法及系统
CN106980825A (zh) 一种基于归一化像素差特征的人脸姿势分类方法
CN113782184A (zh) 一种基于面部关键点与特征预学习的脑卒中辅助评估系统
CN117809122B (zh) 一种颅内大血管图像的处理方法、系统、电子设备及介质
CN115424093A (zh) 一种识别眼底图像中细胞的方法及装置
CN116758336A (zh) 一种基于人工智能的医学图像智能分析系统
CN114693622A (zh) 一种基于人工智能的斑块侵蚀自动检测系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Wang Yuhua

Inventor after: Guo Yonghong

Inventor after: Zhu Xiangxiang

Inventor after: Li Mei

Inventor after: He Jinlong

Inventor before: Guo Yonghong

Inventor before: Zhu Xiangxiang

Inventor before: Li Mei

Inventor before: He Jinlong

CB03 Change of inventor or designer information
GR01 Patent grant
GR01 Patent grant