CN117292136B - 一种静脉图像二值化方法 - Google Patents

一种静脉图像二值化方法 Download PDF

Info

Publication number
CN117292136B
CN117292136B CN202311558040.3A CN202311558040A CN117292136B CN 117292136 B CN117292136 B CN 117292136B CN 202311558040 A CN202311558040 A CN 202311558040A CN 117292136 B CN117292136 B CN 117292136B
Authority
CN
China
Prior art keywords
region
gray level
gray scale
palm
vein image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311558040.3A
Other languages
English (en)
Other versions
CN117292136A (zh
Inventor
李学双
林莉莉
赵国栋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Shengdian Century Technology Co ltd
Original Assignee
Jiangsu Shengdian Century Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Shengdian Century Technology Co ltd filed Critical Jiangsu Shengdian Century Technology Co ltd
Priority to CN202311558040.3A priority Critical patent/CN117292136B/zh
Publication of CN117292136A publication Critical patent/CN117292136A/zh
Application granted granted Critical
Publication of CN117292136B publication Critical patent/CN117292136B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明涉及一种静脉图像二值化方法,属于生物识别技术领域,包括以下骤:获取掌静脉图像的灰度范围,并根据所述灰度范围将掌静脉图像划分为第一灰度等级区域、第二灰度等级区域、第三灰度等级区域、第四灰度等级区域;依次获取每个灰度等级区域的连通域,计算每个连通域的重心点,并根据连通域的重心点判断所述连通域是否需要进行融合矫正;依次对每个灰度等级区域的连通域进行检测,确定包含手掌的连通域,并将包含手掌的连通域所在的灰度等级区域的最小灰度值作为掌静脉图像的二值化分割阈值。本发明的方法可以有效解决室外复杂环境下采集的掌静脉图像二值化分割效果不理想的问题。

Description

一种静脉图像二值化方法
技术领域
本发明涉及生物识别技术领域,特别是涉及一种静脉图像二值化方法。
背景技术
在通过静脉图像进行身份认证时,需要对静脉图像进行二值化分割,现有的静脉图像二值化方法如 OSTU,主要是根据直方图进行阈值分类。但在采集掌静脉图像时,因其为非接触采集方式,手掌放置具有任意性,采集的掌静脉图像中有可能包含复杂背景;且处于室外环境时,受到光照不均匀的影响,每个物体对光线的反射程度不同,反映到采集的静脉图像上就会呈现出有多个不同的灰度等级且呈现类似同心圆的分布,中间亮四周暗,最终导致室外复杂环境下采集的掌静脉图像二值化分割效果不理想。
发明内容
本发明的主要目的是提供一种静脉图像二值化方法,以解决室外复杂环境下采集的掌静脉图像二值化分割效果不理想的问题。
为实现上述目的,本发明提供了如下方案:
本发明涉及一种静脉图像二值化方法,其包括以下步骤:
步骤1.获取掌静脉图像的灰度范围,并根据所述灰度范围将掌静脉图像划分为第一灰度等级区域、第二灰度等级区域、第三灰度等级区域、第四灰度等级区域;
步骤2.依次获取每个灰度等级区域的连通域,计算每个连通域的重心点,并根据连通域的重心点判断所述连通域是否需要进行融合矫正;
步骤3.依次对每个灰度等级区域的连通域进行检测,确定包含手掌的连通域,并将包含手掌的连通域所在的灰度等级区域的最小灰度值作为掌静脉图像的二值化分割阈值;
优选地,所述步骤1具体包括:
步骤1.1.获取掌静脉图像的灰度范围,即获取掌静脉图像的最大灰度值maxV和最小灰度值minV;
步骤1.2.计算灰度等级的宽度range,计算公式为:
range=int((maxV-minV)/4);
步骤1.3.根据灰度等级的宽度range将掌静脉图像划分为第一灰度等级区域、第二灰度等级区域、第三灰度等级区域和第四灰度等级区域。
优选地,所述第一灰度等级区域的灰度区间为[minV,minV+range),第二灰度等级区域的灰度区间为[minV+range,minV+range*2),第三灰度等级区域的灰度区间为[minV+range*2,minV+range*3),第四灰度等级区域的灰度区间为[minV+range*3,maxV]。
优选地,在进行步骤2之前,剔除第一灰度等级区域。
优选地,所述步骤2具体包括:
步骤2.1.获取第四灰度等级区域的所有连通域,并依次计算每个连通域的重心点;
步骤2.2.获取第三灰度等级区域的所有连通域,并依次计算每个连通域的重心点,根据第三灰度等级区域连通域的重心点与第四灰度等级区域连通域的重心点判断所述连通域是否满足融合条件,若满足,则将所述连通域融合,并将连通域所在的灰度等级区域进行融合;
步骤2.3.获取第二灰度等级区域的所有连通域,并依次计算每个连通域的重心点,根据第二灰度等级区域连通域的重心点与第三灰度等级区域连通域的重心点判断所述连通域是否满足融合条件,若满足,则将所述连通域融合,并将连通域所在的灰度等级区域进行融合。
优选地,所述融合条件为:若两个连通域的重心点的距离在10个像素以内,则该两个连通域符合融合条件。
优选地,所述步骤3包括:
步骤3.1.依次求取灰度等级区域内每个连通域的重心点;
步骤3.2.以重心点为基准逐行向上遍历所在连通域,判断是否存在4个手指的连通域,若存在,则该连通域为包含手掌的连通域。
优选地,所述步骤3.1中求取灰度等级区域内连通域的重心点,若存在由多个连通域融合成的连通域,则取多个连通域的重心点的平均值做为融合成的连通域的重心点。
优选地,所述方法还包括对二值化分割阈值进行矫正,具体步骤为:
步骤4.通过二值化分割阈值分割掌静脉图像得到初始掌静脉二值图,计算掌静脉二值图中手掌的初始面积S1;
步骤5.降低二值化分割阈值,通过降低后的二值化分割阈值重新分割掌静脉图像得到矫正掌静脉二值图,计算矫正掌静脉二值图中手掌的面积S2和矫正重心点的位置,并根据S2和矫正重心点的位置判断是否需要进一步降低二值化分割阈值。
优选地,所述步骤5中根据S2和矫正重心点的位置判断是否需要进一步降低二值化分割阈值为:若S2<1.5S1且矫正重心点在初始掌静脉二值图中对应的像素点在初始掌静脉二值图中的手掌区域,则需要进一步降低初始二值化分割阈值。
与现有技术相比,本发明首先将采集到的掌静脉图像划分灰度等级区域,然后确定手掌所在的灰度等级区域,并以该灰度等级区域的最小灰度值作为分割阈值,而不是直接根据整张静脉图像直接确定二值化分割阈值,可以有效解决室外复杂环境下采集的掌静脉图像二值化分割效果不理想的问题。
附图说明
图1为本发明涉及的一种静脉图像二值化方法的流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,以下结合实施例和附图对本发明进行具体阐述,但本发明的保护范围并不限于此。
参照附图1所示,本发明涉及一种静脉图像二值化方法包括以下步骤:
一种静脉图像二值化方法,包括以下步骤:
步骤1.获取掌静脉图像的灰度范围,并根据灰度范围将掌静脉图像划分为第一灰度等级区域、第二灰度等级区域、第三灰度等级区域、第四灰度等级区域,具体步骤为:
步骤1.1.获取掌静脉图像的灰度范围,即获取掌静脉图像的最大灰度值maxV和最小灰度值minV;
步骤1.2.计算灰度等级的宽度range,计算公式为:
range=int((maxV-minV)/4);
步骤1.3.根据灰度等级的宽度range将掌静脉图像划分为第一灰度等级区域、第二灰度等级区域、第三灰度等级区域和第四灰度等级区域,其中,第一灰度等级区域的灰度区间为[minV,minV+range),第二灰度等级区域的灰度区间为[minV+range,minV+range*2),第三灰度等级区域的灰度区间为[minV+range*2,minV+range*3),第四灰度等级区域的灰度区间为[minV+range*3,maxV]。
步骤2.剔除第一灰度等级区域,依次获取每个灰度等级区域的连通域,计算每个连通域的重心点,并根据连通域的重心点判断所述连通域是否需要进行融合矫正;因第一灰度等级区域灰度较低,即图像较暗,经过大量实验表明,该灰度等级区域的灰度值不可能为分割阈值,因此在本方案中做剔除处理。
步骤2.1.获取第四灰度等级区域的所有连通域,并依次计算每个连通域的重心点;
步骤2.2.获取第三灰度等级区域的所有连通域,并依次计算每个连通域的重心点,根据第三灰度等级区域连通域的重心点与第四灰度等级区域连通域的重心点判断连通域是否满足融合条件,若满足,则将连通域融合,并将连通域所在的灰度等级区域进行融合;
步骤2.3.获取第二灰度等级区域的所有连通域,并依次计算每个连通域的重心点,根据第二灰度等级区域连通域的重心点与第三灰度等级区域连通域的重心点判断连通域是否满足融合条件,若满足,则将连通域融合,并将连通域所在的灰度等级区域进行融合,其中若两个连通域的重心点的距离在10个像素以内,则该两个连通域符合融合条件。因若两个两个连通域的重心点的距离在10个像素以内,则表明两个连通域距离较近或者重叠等,因此将其进行融合处理,便于后续分割出完整的手掌区域。
步骤3.依次对每个灰度等级区域的连通域进行检测,确定包含手掌的连通域,并将包含手掌的连通域所在的灰度等级区域的最小灰度值作为掌静脉图像的二值化分割阈值,具体步骤为:
步骤3.1.依次求取灰度等级区域内连通域的重心点,若存在由多个连通域融合成的连通域,则取多个连通域的重心点的平均值做为融合成的连通域的重心点;
步骤3.2.以重心点为基准逐行向上遍历所在连通域,判断是否存在4个手指的连通域,若存在,则该连通域为包含手掌的连通域。
步骤4.通过二值化分割阈值分割掌静脉图像得到初始掌静脉二值图,计算掌静脉二值图中手掌的初始面积S1;
步骤5.降低二值化分割阈值,通过降低后的二值化分割阈值重新分割掌静脉图像得到矫正掌静脉二值图,计算矫正掌静脉二值图中手掌的面积S2和矫正重心点的位置,并根据S2和矫正重心点的位置判断是否需要进一步降低二值化分割阈值,具体方法为:若S2<1.5S1且矫正重心点在初始掌静脉二值图中对应的像素点在初始掌静脉二值图中的手掌区域,则需要进一步降低初始二值化分割阈值。
以上所述的实施例仅是对本发明的优选方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案做出的各种变形和改进,均应落入本发明权利要求书确定的保护范围内。

Claims (8)

1.一种静脉图像二值化方法,其特征在于,包括以下步骤:
步骤1.获取掌静脉图像的灰度范围,并根据所述灰度范围将掌静脉图像划分为第一灰度等级区域、第二灰度等级区域、第三灰度等级区域、第四灰度等级区域;
步骤2.依次获取每个灰度等级区域的连通域,计算每个连通域的重心点,并根据连通域的重心点判断所述连通域是否需要进行融合矫正,具体步骤包括:
步骤2.1.获取第四灰度等级区域的所有连通域,并依次计算每个连通域的重心点;
步骤2.2.获取第三灰度等级区域的所有连通域,并依次计算每个连通域的重心点,根据第三灰度等级区域连通域的重心点与第四灰度等级区域连通域的重心点判断所述连通域是否满足融合条件,若满足,则将所述连通域融合,并将连通域所在的灰度等级区域进行融合;
步骤2.3.获取第二灰度等级区域的所有连通域,并依次计算每个连通域的重心点,根据第二灰度等级区域连通域的重心点与第三灰度等级区域连通域的重心点判断所述连通域是否满足融合条件,若满足,则将所述连通域融合,并将连通域所在的灰度等级区域进行融合;
步骤3.依次对每个灰度等级区域的连通域进行检测,确定包含手掌的连通域,并将包含手掌的连通域所在的灰度等级区域的最小灰度值作为掌静脉图像的二值化分割阈值,其中依次对每个灰度等级区域的连通域进行检测,确定包含手掌的连通域的具体步骤包括:
步骤3.1.依次求取灰度等级区域内每个连通域的重心点;
步骤3.2.以重心点为基准逐行向上遍历所在连通域,判断是否存在4个手指的连通域,若存在,则该连通域为包含手掌的连通域。
2.根据权利要求1所述的静脉图像二值化方法,其特征在于,所述步骤1具体包括:
步骤1.1.获取掌静脉图像的灰度范围,即获取掌静脉图像的最大灰度值maxV和最小灰度值minV;
步骤1.2.计算灰度等级的宽度range,计算公式为:
range=int((maxV-minV)/4);
步骤1.3.根据灰度等级的宽度range将掌静脉图像划分为第一灰度等级区域、第二灰度等级区域、第三灰度等级区域和第四灰度等级区域。
3.根据权利要求2所述的静脉图像二值化方法,其特征在于,所述第一灰度等级区域的灰度区间为[minV,minV+range),第二灰度等级区域的灰度区间为[minV+range,minV+range*2),第三灰度等级区域的灰度区间为[minV+range*2,minV+range*3),第四灰度等级区域的灰度区间为[minV+range*3,maxV]。
4.根据权利要求1所述的静脉图像二值化方法,其特征在于,在进行步骤2之前,剔除第一灰度等级区域。
5.根据权利要求1所述的静脉图像二值化方法,其特征在于,所述融合条件为:若两个连通域的重心点的距离在10个像素以内,则该两个连通域符合融合条件。
6.根据权利要求1所述的静脉图像二值化方法,其特征在于,所述步骤3.1中求取灰度等级区域内每个连通域的重心点,若存在由多个连通域融合成的连通域,则取多个连通域的重心点的平均值作为融合成的连通域的重心点。
7.根据权利要求1所述的静脉图像二值化方法,其特征在于,所述方法还包括对二值化分割阈值进行矫正,具体步骤为:
步骤4.通过二值化分割阈值分割掌静脉图像得到初始掌静脉二值图,计算掌静脉二值图中手掌的初始面积S1;
步骤5.降低二值化分割阈值,通过降低后的二值化分割阈值重新分割掌静脉图像得到矫正掌静脉二值图,计算矫正掌静脉二值图中手掌的面积S2和矫正重心点的位置,并根据S2和矫正重心点的位置判断是否需要进一步降低二值化分割阈值。
8.根据权利要求7所述的静脉图像二值化方法,其特征在于,所述步骤5中根据S2和矫正重心点的位置判断是否需要进一步降低二值化分割阈值为:若S2<1.5S1且矫正重心点在初始掌静脉二值图中对应的像素点在初始掌静脉二值图中的手掌区域,则需要进一步降低初始二值化分割阈值。
CN202311558040.3A 2023-11-22 2023-11-22 一种静脉图像二值化方法 Active CN117292136B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311558040.3A CN117292136B (zh) 2023-11-22 2023-11-22 一种静脉图像二值化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311558040.3A CN117292136B (zh) 2023-11-22 2023-11-22 一种静脉图像二值化方法

Publications (2)

Publication Number Publication Date
CN117292136A CN117292136A (zh) 2023-12-26
CN117292136B true CN117292136B (zh) 2024-04-12

Family

ID=89244636

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311558040.3A Active CN117292136B (zh) 2023-11-22 2023-11-22 一种静脉图像二值化方法

Country Status (1)

Country Link
CN (1) CN117292136B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112241720A (zh) * 2020-10-27 2021-01-19 上海掌腾信息科技有限公司 针对手掌倾斜情形实现掌静脉识别装置进行掌静脉图像自适应提取处理的方法
CN113221892A (zh) * 2021-05-12 2021-08-06 佛山育脉科技有限公司 手掌图像确定方法、装置及计算机可读存储介质
CN114612941A (zh) * 2022-05-11 2022-06-10 四川圣点世纪科技有限公司 一种基于掌静脉特征的多模式身份认证方法、装置及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6173542B1 (ja) * 2016-08-10 2017-08-02 株式会社Pfu 画像処理装置、画像処理方法、および、プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112241720A (zh) * 2020-10-27 2021-01-19 上海掌腾信息科技有限公司 针对手掌倾斜情形实现掌静脉识别装置进行掌静脉图像自适应提取处理的方法
CN113221892A (zh) * 2021-05-12 2021-08-06 佛山育脉科技有限公司 手掌图像确定方法、装置及计算机可读存储介质
CN114612941A (zh) * 2022-05-11 2022-06-10 四川圣点世纪科技有限公司 一种基于掌静脉特征的多模式身份认证方法、装置及系统

Also Published As

Publication number Publication date
CN117292136A (zh) 2023-12-26

Similar Documents

Publication Publication Date Title
Zhao et al. Preprocessing and postprocessing for skeleton-based fingerprint minutiae extraction
CN107180239B (zh) 文本行识别方法及系统
CN109377485A (zh) 一种方便面包装缺陷机器视觉检测方法
CN109101856A (zh) 一种二维码图像识别方法及装置
CN107066933A (zh) 一种道路标牌识别方法及系统
CN110569857B (zh) 一种基于质心距离计算的图像轮廓角点检测方法
CN108537099A (zh) 一种复杂背景的车牌识别方法
Alshdadi et al. Exploiting Level 1 and Level 3 features of fingerprints for liveness detection
He et al. A new segmentation approach for iris recognition based on hand-held capture device
CN110555380A (zh) 基于Center Loss损失函数的指静脉识别方法
WO2021135533A1 (zh) 一种指静脉超大用户量下的高速检索算法及识别设备
CN101114335A (zh) 全角度快速指纹识别方法
CN104036521A (zh) 一种新的视网膜眼底图像分割方法
CN110599512A (zh) 基于图像识别的药品名称识别方法及系统
CN103606220A (zh) 一种基于白光图像及红外图像的支票印刷体数字识别系统及其方法
CN114495098B (zh) 一种基于显微镜图像的盘星藻类细胞统计方法及系统
CN114511770A (zh) 道路标识标牌识别方法
CN114820625A (zh) 一种汽车顶块缺陷检测方法
CN110648330A (zh) 摄像头玻璃的缺陷检测方法
CN114783010A (zh) 一种掌纹图像感兴趣区域提取方法
CN117292136B (zh) 一种静脉图像二值化方法
Al-Mahadeen et al. Signature region of interest using auto cropping
Cheriet et al. A formal model for document processing of business forms
CN114067122B (zh) 一种两级式二值化图像处理方法
CN105354823A (zh) 树木年轮图像边缘提取与分割的系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant