CN101414349A - 一种基于bp神经网络的指纹图像纹路方向计算和图像分割方法 - Google Patents

一种基于bp神经网络的指纹图像纹路方向计算和图像分割方法 Download PDF

Info

Publication number
CN101414349A
CN101414349A CNA2007101645367A CN200710164536A CN101414349A CN 101414349 A CN101414349 A CN 101414349A CN A2007101645367 A CNA2007101645367 A CN A2007101645367A CN 200710164536 A CN200710164536 A CN 200710164536A CN 101414349 A CN101414349 A CN 101414349A
Authority
CN
China
Prior art keywords
image
sigma
centerdot
foreground blocks
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CNA2007101645367A
Other languages
English (en)
Inventor
朱信忠
赵建民
祝恩
殷建平
徐慧英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Normal University CJNU
Original Assignee
Zhejiang Normal University CJNU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Normal University CJNU filed Critical Zhejiang Normal University CJNU
Priority to CNA2007101645367A priority Critical patent/CN101414349A/zh
Publication of CN101414349A publication Critical patent/CN101414349A/zh
Pending legal-status Critical Current

Links

Images

Abstract

一种基于BP神经网络的指纹图像纹路方向计算和图像分割方法,包括以下步骤:(1)、将宽度为m,高为n的指纹图像I分割成大小为ω×ω(15×15)的互不重叠的块WI (i,j);(2)、采用基于梯度矢量的方法,计算WI (k,l)的纹路方向O(WI (k,l));(3)、用BP神经网络的方法来确定每个图像块的方向O(WI (k,l))结果的正确性,并进行图像的初次分割,若图像块WI (i,j)的方向正确,则设为前景,M(WI (i,j))=1;否则方向错误,设为背景,M(WI (i,j))=0。本发明能较好得对低质量指纹图像进行处理、提取特征结果正确率高、计算复杂度低、图像切割准确。

Description

一种基于BP神经网络的指纹图像纹路方向计算和图像分割方法
技术领域
本发明涉及一种基于BP神经网络计算指纹纹路方向和分割图像的方法,用于低质量图像,效果明显。
背景技术
指纹识别技术的应用领域非常广泛,日常生活中我们可以经常遇到需要身份认证的场合,如登录操作系统,使用某些软件,去银行取钱,鉴别嫌犯,进入军事要地等。指纹识别技术作为更便捷、更安全可靠的身份认证方式,能有效避免传统身份认证方法存在的缺陷。但是指纹的自动识别技术仍有待提高,国际指纹验证竞赛FVC(Finger-print Verification Competition)的测试结果表明,自动指纹识别技术仍有许多问题需要解决,其识别正确率还远远达不到指纹鉴别专家用肉眼识别的正确率,尤其对于低质量的指纹图像的准确切割和识别更是一个具有挑战性的难题。
指纹纹路方向的正确计算是自动指纹识别中要解决的首要难题,它直接关系到指纹特征的提取并进而影响指纹识别的正确性。纹路方向的计算方法可以分为两类:基于像素灰度关系的方法和基于方向场模型的方法。基于像素灰度关系的方法中最著名的是基于梯度矢量的方法梯度方法易受噪音干扰,对于低质量区域的纹路方向会进行错误计算。基于方向场模型的方法利用的是启发式知识,根据奇异点位置预测全局纹路的大致走势,这样预测出来的纹路并不能代表纹路的真实方向。而目前的指纹切割算法并非从纹路方向能否正确计算的角度进行分割,而是从视觉观察角度分离掉不含纹路的区域和不可恢复的纹路区域,这样的分割方法是不完全的,将会严重影响识别的准确性。
现有的指纹纹路方向计算和图像切割方法存在的不足有:(1)、现有算法对于低质量指纹图像效率低下;(2)、对于噪声较大的图像容易干扰出错;(3)、现有的图像切割方法不能准确地进行指纹切割。
发明内容
为了克服已有的指纹纹路方向计算和图像切割方法对低质量指纹处理中存在的低效率、切割的低准确率等不足,本发明提供了一种采用纹理滤波的方法增强和提取指纹图像的纹路的方法,通过计算纹路的方向及方向正确性,在通过两次划分将指纹图像区分为前景和背景,并对错误的切割提供纠正算法,本方法可行、准确、高效。
本发明解决其技术问题所采用的技术方案是:
一种基于BP神经网络的指纹图像纹路方向计算和图像分割方法,该方法包括以下步骤:
(1)、假设I是宽度为m,高为n的指纹图像,I(i,j)(0≤i≤m,0≤j<n)表示像素(i,j)的灰度值。以图像块为单位将图像分割成大小为ω×ω的互不重叠的块(不妨假设m和n都ω的倍数),每块用B(i,j)(0≤i<m/ω,0≤j<n/ω)表示,用O(B(i,j))表示B(i,j)的纹路方向,用O(i,j)表示以象素(i,j)为中心以ω为边长的方形区域的纹路方向;
(2)、对各个图像块进行纹路方向计算,采用基于梯度矢量的方法,计算B(i,j)的纹路方向O(B(i,j));
(3)、用BP神经网络的方法来确定步骤(2)中指纹图像中每个图像块的纹路方向的正确性,并根据正确性进行图像的第一次分割:方向正确的块设置为前景,方向错误的块设置为背景;对于每一块,计算一个特征向量<F1,F2,F3,F4,F5,F6,F7,F8,F9,F10,F11>,BP神经网络用该特征向量确定方向的正确性。BP神经网络分别对正样本和反样本进行学习,在判断方向正确性时,输出值在0和1之间,给定一个阈值tF,若输出大于tF,则图像块B(i,j)方向正确,设为前景区域,M(B(i,j))=1;否则方向错误,该图像块设为背景区域,M(B(i,j))=0。
作为优选的一种方案:所述的方法还包括:(4)、步骤(3)中区分了纹路方向计算正确与错误的纹路区域并设为前景区域和背景区域,但是部分残留纹路区域会因为方向计算正确而得以保留在前景区域。因此,需要对前景区域进行扫描,用BP神经网络区分残留纹路区域和真实纹路区域,从而进行第二次分割。
作为优选的另一种方案:所述的方法还包括:(5)、步骤(3)中应用BP神经网络判别纹路方向的正确性并进行第一次分割,有可能存在部分图像块出现误切割(即前景块被误分割为背景块,背景块被误分割为前景块)。对于此类图像块,根据周围图像块的特征,利用启发式规则进行切割修正,并对被修正为前景块的图像块进行方向纠正。
进一步,在所述的步骤(2)中,纹路方向O(B(i,j))的计算方法如下:
(2.1)、采用Sobel算子进行梯度计算,<Gx(u,v),Gy(u,v)>为像素的梯度,计算公式是:
G x ( u , v ) = &PartialD; I ( u , v ) &PartialD; u - - - ( 1 )
G y ( u , v ) = &PartialD; I ( u , v ) &PartialD; v - - - ( 2 )
(2.2)、计算梯度距离Vx,Vy,计算公式是:
V x = &Sigma; ( u , v ) &Element; B ( i , j ) [ G x 2 ( u , v ) - G y 2 ( u , v ) ] - - - ( 3 )
V y = &Sigma; ( u , v ) &Element; B ( i , j ) 2 &CenterDot; G x ( u , v ) - G y ( u , v ) - - - ( 4 )
θ=tan-1(Vx/Vy)/2           (5)
(2.3)、将纹路方向规约到[0,π),公式是:
O ( B ( i , j ) ) = &theta; + &pi; / 2 V x > 0 3 &pi; / 4 V x = 0 , V y &GreaterEqual; 0 &pi; / 4 V x = 0 , V y < 0 &theta; + &pi; V x < 0 , V y > 0 &theta; V x < 0 , V y &le; 0 - - - ( 6 )
进一步,对于步骤(3)中述及的用于判断O(B(i,j))正确性的特征<F1,F2,F3,F4,F5,F6,F7,F8,F9,F10,F11>,其中既含有判断B(i,j)是否含有纹路的特征,也包含判断纹路区域的计算方向是否正确的特征,特征描述如下:
(3.1)、将平方梯度矢量和的模记为F1,对于纹路较清晰的区域,F1值较大,而对于不含纹路或纹路结构模糊区域则F1值较小,F1值的计算公式如下:
F 1 = &Sigma; ( u , v ) &Element; B ( i , j ) | &lang; G x ( u , v ) , G y ( u , v ) &rang; 2 |
= | &lang; &Sigma; ( u , v ) &Element; B ( i , j ) [ G x 2 ( u , v ) - G y 2 ( u , v ) ] , &Sigma; ( u , v ) &Element; B ( i , j ) [ 2 &CenterDot; G x ( u , v ) G y ( u , v ) ] &rang; | - - - ( 7 )
= { &Sigma; ( u , v ) &Element; B ( i , j ) [ G x 2 ( u , v ) - G y 2 ( u , v ) ] } 2 + { &Sigma; ( u , v ) &Element; B ( i , j ) [ 2 &CenterDot; G x ( u , v ) G y ( u , v ) ] } 2
(3.2)、将平方梯度矢量模的和记为F2,通常不含纹路的区域F2值较小,含有纹路区域F2较大;F2指的计算公式如下:
F 2 = &Sigma; ( u , v ) &Element; B ( i , j ) | &lang; G x ( u , v ) , G y ( u , v ) &rang; 2 |
= &Sigma; ( u , v ) &Element; B ( i , j ) [ G x 2 ( u , v ) - G y 2 ( u , v ) ] 2 + [ 2 &CenterDot; G x ( u , v ) &CenterDot; G y ( u , v ) ] 2       (8)
(3.3)、将灰度均值记为F3,纹路区域的F3通常比非纹路区域要小;F3值的计算公式如下:
F 3 = &Sigma; ( u , v ) &Element; B ( i , j ) I ( u , v ) &omega; &CenterDot; &omega; - - - ( 9 )
(3.4)、将灰度方差记为F4,纹路区域的F4通常比非纹路区域要大;F4值的计算公式如下:
F 4 = &Sigma; ( u , v ) &Element; B ( i , j ) [ I ( u , v ) - F 3 ] 2 &omega; &CenterDot; &omega; - 1 - - - ( 10 )
(3.5)、将纹路垂直方向投影信号的方差记为F5;沿着与纹路垂直的方向在与纹路平行的直线上投影,取以B(i,j)的中心为中心的长L′(21)高H′(15)的矩形区域,L′平行于纹路方向,F5计算为矩形区域在L′上的投影信号的方差,F5值的计算公式如下:
F 5 = &Sigma; l = - L &prime; / 2 L &prime; / 2 ( p v [ l ] - &Sigma; k = - L &prime; / 2 L &prime; / 2 p v [ k ] / L &prime; ) 2 L &prime; - 1 - - - ( 11 )
其中:
p v [ k ] = &Sigma; h = - H &prime; / 2 H &prime; / 2 I { i - h &CenterDot; sin [ O ( B ( i , j ) ) ] + k &CenterDot; cos [ O ( B ( i , j ) ) ] , j + h &CenterDot; cos [ O ( B ( i , j ) ) ] + k &CenterDot; sin [ O ( B ( i , j ) ) ] } H &prime; - - - ( 3.6 ) ,
将纹路方向投影信号的方差记为F6;沿与纹路平行的方向在与纹路垂直的直线上投影,取以B(i,j)的中心为中心的长L(41),高H(15)的矩形区域,L平行于纹路方向,F6计算为矩形区域在L上的投影信号的方差。对于纹路区域,如果方向计算正确,则F6较大,而F5较小。F6计算公式如下:
F 6 = &Sigma; l = - L / 2 L / 2 ( p h [ l ] - &Sigma; k = - L / 2 L / 2 p h [ k ] / L ) 2 L - 1 - - - ( 12 )
其中:
p h [ k ] = &Sigma; h = - H &prime; / 2 H &prime; / 2 I { i + h &CenterDot; sin [ O ( B ( i , j ) ) ] + k &CenterDot; sin [ O ( B ( i , j ) ) ] , j + h &CenterDot; sin [ O ( B ( i , j ) ) ] - k &CenterDot; cos [ O ( B ( i , j ) ) ] } H &prime; 特征
(7)~(11)基于ph[k]的平滑信号进行计算,将 p h [ k ] ( - L 2 &le; k &le; L 2 ) 用Gauss滤波器按公式(13)进行平滑滤波得到 p [ k ] ( - L 2 &le; k &le; L 2 ) .
p [ k ] = &Sigma; i = - 3 3 Gauss ( i ) &CenterDot; p h [ k + i ] , ( - L 2 &le; k &le; L 2 ) - - - ( 13 )
(3.7)、纹路方向平滑投影信号的平均纹路间距,记为F7,方向计算正确的区域F7分布在一定范围内;
(3.8)、纹路方向平滑投影信号波峰高度的方差,记为F8,方向计算正确的区域F8的值较小;
(3.9)、纹路方向平滑投影信号波谷高度的方差,记为F9,方向计算正确的区域F9的值较小;
(3.10)、纹路方向平滑投影信号平均波峰高度与平均波谷高度的差,记为F10,较小的F10意味着该区域不含纹路或者方向计算错误;
(3.11)、纹路方向平滑投影信号波峰波谷间距方差,记为F11;方向计算错误的区域F11值较大。
更进一步,对于步骤(4)中述及的用BP神经网络进行第二次分割时,对前景块逐块扫描,需对每一图像块计算4个特征:
(4.1)、当前图像块的局部灰度均值,记为LG,LG=F3;
(4.2)、第一次分割结果中所有前景图像块的灰度均值,记为MG,计算公式为:
MG = &Sigma; M ( W I ( i , j ) ) = 1 LG ( B ( i , j ) ) &Sigma; W I ( i , j ) M ( B ( i , j ) ) - - - ( 14 )
(4.3)、当前图像块的纹路和纹谷的平均灰度差异,记为LA,LA计算为当前图像块的平滑投影信号 p [ k ] ( - L 2 &le; k &le; L 2 ) 的平均波峰高度和平均波谷高度的差;
(4.4)、第一次分割结果中所有前景图像块的纹路和纹谷的灰度平均差异,记为MA,计算公式如下:
MA = &Sigma; M ( W I ( i , j ) ) = 1 LA ( B ( i , j ) ) &Sigma; W I ( i , j ) M ( B ( i , j ) ) - - - ( 15 )
二次分割的基本思想如下:
(4.5)、同一图像内部,残留纹路区域和非残留纹路区域一般存在两种差异:(A)残留纹路区域纹路的灰度值一般大于非残留区域纹路的灰度值;(B)残留纹路区域中纹路和纹谷的灰度差异一般小于非残留纹路区域纹路和纹谷的灰度差;
(4.6)、差异A由特征LG和MG描述,对于两者的差LG-MG,残留纹路区域大于非残留纹路区域;差异B由特征LA和MA描述,对于两者的差LA-MA,残留纹路区域小于非残留纹路区域。部分纹路区域如果LG较小而LA较大,则将其归类为非残留纹路区域;同样,如果LG较大而LA较小,则将其归类为残留纹路区域;
(4.7)、第二次分割时,对于第一次分割结果的每个前景块B(i,j),通过<LG,MG,LA,MA>采用BP神经网络进行分类,神经网络以<LG,MG,LA,MA>为输入,输出值位于0到1之间,若小于阈值t。则将B(i,j)设置为背景,即将M(B(i,j))=0。
再进一步,对于步骤(5)所述及的分割修正中的启发式规则描述如下:
(5.1)、规则A:当前图像块B(i,j)为背景块,且八相邻图像块中存在两个前景块B1和B2,其位置关于当前块对称,若它们的方向差异小于阈值t1,则将当前图像块修改为前景块,其方向计算为B1和B2的平均方向;方向差异的计算公式如下:
Dis ( O ( B 1 ) , O ( B 2 ) ) = | O ( B 1 ) - O ( B 2 ) | | O ( B 1 ) - O ( B 2 ) | &le; &pi; / 2 &pi; - | O ( B 1 ) - O ( B 2 ) | | O ( B 1 ) - O ( B 2 ) | > &pi; / 2 - - - ( 16 )
(5.2)、规则B:当前图像块B(i,j)为背景块,且八相邻图像块中前景块数量大于4,则计算相邻前景块的平均方向,用神经网络计算该方向的正确性,如果正确性大于阈值tCN(实验中为0.1),则当前块修正为前景块,其方向为相邻前景块的平均方向;
(5.3)、规则C:B(i,j)和B(i,j+1)为背景块,B(i,j-1)和B(i,j+2)为前景块,且B(i,j-1)和B(i,j+2)的方向差异小于阈值t2,则B(i,j)和B(i,j+1)修正为前景块,方向为B(i,j-1)和B(i,j+2)的平均方向;或者B(i,j)和B(i+1,j)为背景块,B(i-1,j)和B(i+2,j)为前景块,且B(i-1,j)和B(i+2,j)的方向差异小于阈值t2,则B(i,j)和B(i+1,j)修正为前景块,方向为B(i-1,j)和B(i+2,j)的平均方向;
(5.4)、规则D:B(i,j)、B(i,j+1)和B(i,j+2)为背景块,B(i,j-1)和B(i,j+3)为前景块,且B(i,j-1)和B(i,j+3)的方向差异小于阈值t3,则B(i,j)、B(i,j+1)和B(i,j+2)修正为前景块,方向为B(i,j-1)和B(i,j+3)的平均方向;或者B(i,j)、B(i+1,j)和B(i+2,j)为背景块,B(i-1,j)和B(i+3,j)为前景块,且B(i-1,j)和B(i+3,j)的方向差异小于阈值t3,则B(i,j)、B(i+1,j)和B(i+2,j)修正为前景块,方向为B(i-1,j)和B(i+3,j)的平均方向;
(5.5)、规则E:当前块B(i,j)为前景块,八相邻块中前景块数目少于3,则将B(i,j)置为背景块。
(5.6)、规则F:当前块B(i,j)为前景块,八相邻块中有3块前景块B(i1,j1),B(i2,j2)和B(i3,j3),若i1,i2,i3<i或i1,i2,i3>i或j1,j2,j3<j或j1,j2,j3>j,则置B(i,j)为背景块;
(5.7)、每条规则对应一个程序过程Rev(r,B(i,j)),r∈{A,B,C,D,E,F}为规则名,程序过程如下:
BOOl Rev(r,W(i,j))
{
     if(W(i,j)满足规则r)
     {
             1.将规则r规定的图像块进行分割修正;
             2.如果r∈{A,B,C,D},计算分割修正块的方向;
             3.返回TRUE;
     }
     else返回FALSE;
}
分割修正算法有两种规则执行策略:宽度优先和深度优先法。采用不同策略以及不同顺序遍历各规则,会产生不同的修正结果。根据实验获得的经验,建议采用深度优先算法依次遍历A,E,F,C,D,B;
(5.8)、对于(5.7)述及的,当背景图像块满足规则A,B,C,D时,需将该图像块修正为前景块,并以相应前景块的平均方向为修正块的方向。用B[i]表示用来计算平均方向的前景块0≤i<N,N为块数,则平均方向Omean计算如下:
S x = &Sigma; 0 &le; i < F cos ( 2 &CenterDot; O ( B [ i ] ) ) - - - ( 17 )
S y = &Sigma; 0 &le; i < N sin ( 2 &CenterDot; O ( B [ i ] ) ) - - - ( 18 )
O′=tan-1(Sy/Sx)/2             (19)
O mean = &pi; / 4 S x = 0 , S y &GreaterEqual; 0 3 &pi; / 4 S x = 0 , S y < 0 O &prime; + &pi; / 2 S x < 0 O &prime; S x > 0 , S y &GreaterEqual; 0 O &prime; + &pi; S x > 0 , S y < 0 - - - ( 20 )
公式(20)将平均方向规约到[0,π)。
本发明的有益效果主要表现在:1、对低质量指纹图像的特征提取效果较好,实验中将本方法与Neurotechnologija Ltd.(FVC2002排名第6,FVC2004_open排名第7)的VeriFinger 4.2(2004)算法进行比较发现两者对高质量图像的特征提取能力相当,但本方法对低质量图像的特征提取能力优于对方。我们用错误指数EI(Error Index)来比较算法的好坏: EI = &Sigma; i q i &CenterDot; ( a i + b i ) &Sigma; i q i &CenterDot; t i , 其中qi为第i个图像块的质量,ti为第i个图像块的节点数,ai为第i个图像块丢失的正确节点数,bi为第i个图像块检测出来的错误干扰节点数;EI越小,算法正确率越高;实验表明,本方法的EI比同类算法小。2、复杂度较低;3、图像切割准确。
附图说明
图1是方向正确性计算和指纹初分割的实例,其中,(a)方向场;(b)方向正确性灰度表示,灰度值越大,方向正确性越高;(c)初分割结果。
图2是指纹图像二次分割的实例,其中,(a)方向计算结果;(b)初分割结果;(c)二次分割结果。
图3分割修正效果,其中,(a)修正后的方向场;(b)修正后的分割结果。
图4是对指纹图像进行方向计算和指纹分割的结果。其中,第一列为方向计算结果,第二列为方向正确性的灰度表示,第三列为指纹分割结果,第四列Neurotechnologija Ltd.的VeriFinger 4.2算法的指纹分割和特征提取结果。
具体实施方式
下面结合附图对本发明作进一步描述。
一种基于BP神经网络的指纹图像纹路方向计算和图像分割方法,该方法包括以下步骤:
(1)、假设I是宽度为m,高为n的指纹图像,I(x,y)(0≤x≤m,0≤y<n)表示像素(x,y)的灰度值。以图像块为单位将图像分割成大小为ω×ω的互不重叠的块(不妨假设m和n都ω的倍数),每块用B(i,j)(0≤i<m/ω,0≤j<n/ω)表示。
(2)、采用基于梯度矢量的方法,对各个图像块O(B(i,j))进行纹路方向计算。
(3)、用BP神经网络的方法来确定步骤(2)中指纹图像中每个图像块的纹路方向的正确性,并进行图像的初次分割。本发明中用BP神经网络用于区分准前景块和准背景块的特征,区分特征记为<F1,F2,F3,F4,F5,F6,F7,F8,F9,F10,F11>。BP神经网络分别对正样本和反样本进行学习,在判断方向正确性时,输出值在0和1之间,给定一个阈值tF,若输出大于tF,则图像块B(i,j)方向正确,设为前景区域,M(B(i,j))=1;否则方向错误,该图像块设为背景区域,M(B(i,j))=0。
作为优选的一种方案:所述的方法还包括:(4)、步骤(3)中区分了纹路方向计算正确与错误的纹路区域并设为前景区域和背景区域,但是部分残留纹路区域会因为方向计算正确而得以保留在前景区域。因此,需要对前景区域进行扫描,从而对其中的残余纹路区域采用BP神经网络进行第二次分离。
作为优选的另一种方案:所述的方法还包括:(5)、步骤(3)中应用BP神经网络判别纹路方向的正确性并进行第一次分割,有可能存在部分图像块出现误切割(即前景块被误分割为背景块,背景块被误切割为前景块)。对于此类图像块,根据周围图像块的特征,利用启发式规则进行切割修正,并对被修正为前景块的图像块进行方向纠正。
将指纹图像分割为相同尺寸的图像块,对各个图像块进行纹路方向计算,并设计BP神经网络对各图像块的方向计算结果的正确性进行判断。对于神经网络的输出值,设置一个合理的阈值来进行分类,实现了对指纹图像的第一次分割,将图像中方向计算错误的图像块设置为背景块(如图1所示)。对于部分非指纹图像但方向计算正确的图像块则被神经网络错误地识别为前景块,因此需要对第一次切割结果进行第二次分割,以剔除前景块中的非指纹图像。具体实现由算法1给出:
算法1.对基于方向正确性的粗切割结果进行第二次分割算法.
Step1.计算当前图像块的局部灰度均值LG,第一次分割结果中所有前景图像块的灰度均值MG,当前图像块的纹路和纹谷的平均灰度差异LA,第一次分割结果中所有前景图像块的纹路和纹谷的灰度平均差异MA;
Step2.部分纹路区域如果LG较小而LA较大,则将其归类为非残留纹路区域;同样,如果LG较大而LA较小,则将其归类为残留纹路区域;
Step3.第二次分割通过<LG,MG,LA,MA>进行分类,采用BP神经网络,将第一次分割结果的每个前景块B的分类特征<LG,MG,LA,MA>输入神经网络,若输出小于给定的阈值,则将该前景块设置为背景,即将M(B)=0。
利用算法1进行的第二次分割实例如图2所示,其中,图2(a)是纹路方向计算结果,图2(b)是基于方向正确性的第一次分割结果,图2(c)是第二次分割结果。
神经网络在进行方向正确性计算时,存在一些误差,会使得部分前景块误分割为背景块,部分背景块被误识别为前景块,因此需要对图像块进行分割修正和方向纠正。分割修正和方向纠正的具体算法由算法2给出:
算法2.图像块分割修正和方向纠正算法.
Step1.若背景图像块B(i,j)满足分割修正规则A,B,C,D中的某条规则时,则将其置为前景块;
Step2.若前景图像块B(i,j)满足分割修正规则E或F时,则将其置为背景块;
Step3.若背景图像块B(i,j)被修正为前景块,则对其方向进行纠正,方向被计算为其相邻前景块的平均方向Omean,并规约到[0,π)。
运用算法2进行分割修正和方向纠正的实例如图3所示,根据实验获得的经验,采用深度优先算法依次遍历A,E,F,C,D,B。
实验中,将本方法与Neurotechnologija Ltd.(FVC2002排名第6,FVC2004_open排名第7)的VeriFinger 4.2(2004)算法进行比较,发现两者对高质量图像的特征提取能力相当,但本方法对低质量图像的特征提取能力优于对方,结果如图4所示。其中第三列为本方法的结果,第四列为NeurotechnologijaLtd.的VeriFinger 4.2算法的结果,通过两者的比较,可以明显看到第三列显示的结果优于第四列的结果。
本发明能够在计算方向正确性和纠正方向的同时进行有效的指纹分割,并对残留纹路区域进行二次分割,经实验证明,有效提高了特征提取的正确率。

Claims (7)

1、一种基于BP神经网络的指纹图像纹路方向计算和图像分割方法,其特征在于:该方法包括以下步骤:
(1)、假设I是宽度为m,高为n的指纹图像,I(i,j)(0≤i≤m,0≤j<n)表示像素(i,j)的灰度值,以图像块为单位将图像分割成大小为ω×ω的互不重叠的块,每块用B(i,j)(0≤i<m/ω,0≤j<n/ω)表示,用O(B(i,j))表示B(i,j)的纹路方向,用O(i,j)表示以象素(i,j)为中心以ω为边长的方形区域的纹路方向;
(2)、对各个图像块进行纹路方向计算,采用基于梯度矢量的方法,计算B(i,j)的纹路方向O(B(i,j));
(3)、用BP神经网络的方法来确定步骤(2)中指纹图像中每个图像块的纹路方向的正确性,并根据正确性进行图像的第一次分割:方向正确的块设置为前景,方向错误的块设置为背景;对于每一块,计算一个特征向量<F1,F2,F3,F4,F5,F6,F7,F8,F9,F10,F11>,BP神经网络用该特征向量确定方向的正确性;BP神经网络分别对正样本和反样本进行学习,在判断方向正确性时,输出值在0和1之间,给定一个阈值tF,若输出大于tF,则图像块B(i,j)方向正确,设为前景区域,M(B(i,j))=1;否则方向错误,该图像块设为背景区域,M(B(i,j))=0。
2、如权利要求1所述的基于BP神经网络的指纹图像纹路方向计算和图像分割方法,其特征在于:所述方法还包括:
(4)、对前景区域进行扫描,用BP神经网络区分残留纹路区域和真实纹路区域,从而进行第二次分割。
3、如权利要求2所述的基于BP神经网络的指纹图像纹路方向计算和图像分割方法,其特征在于:所述方法还包括:
(5)、对于步骤(3)中应用BP神经网络判别纹路方向的正确性并进行第一次分割,有可能存在部分图像块出现误切割,即前景块被误分割为背景块,背景块被误分割为前景块;对于此类图像块,根据周围图像块的特征,利用启发式规则进行切割修正,并对被修正为前景块的图像块进行方向纠正。
4、如权利要求1-3之一所述的基于BP神经网络的指纹图像纹路方向计算和图像分割方法,其特征在于:在所述的步骤(2)中,纹路方向O(B(i,j))的计算方法如下:
(2.1)、采用Sobel算子进行梯度计算,<Gx(u,v),Gy(u,v)>为像素的梯度,计算公式是:
G x ( u , v ) = &PartialD; I ( u , v ) &PartialD; u - - - ( 1 )
G y ( u , v ) = &PartialD; I ( u , v ) &PartialD; v - - - ( 2 )
(2.2)、计算梯度距离Vx,Vy,计算公式是:
V x = &Sigma; ( u , v ) &Element; B ( i , j ) [ G x 2 ( u , v ) - G y 2 ( u , v ) ] - - - ( 3 )
V y = &Sigma; ( u , v ) &Element; B ( i , j ) 2 &CenterDot; G x ( u , v ) G y ( u , v ) - - - ( 4 )
θ=tan-1(Vx/Vy)/2    (5)
(2.3)、将纹路方向规约到[0,π),公式是:
O ( B ( i , j ) ) = &theta; + &pi; / 2 V x > 0 3 &pi; / 4 V x = 0 , V y &GreaterEqual; 0 &pi; / 4 V x = 0 , V y < 0 &theta; + &pi; V x < 0 , V y > 0 &theta; V x < 0 , V y &le; 0 - - - ( 6 ) .
5、如权利要求1-3之一所述的基于BP神经网络的指纹图像纹路方向计算和图像分割方法,其特征在于:在所述的步骤(3)中,用于判断O(B(i,j))正确性的特征<FI,F2,F3,F4,F5,F6,F7,F8,F9,F10,F11>,其中既含有判断B(i,j)是否含有纹路的特征,也包含判断纹路区域的计算方向是否正确的特征,特征描述如下:
(3.1)、将平方梯度矢量和的模记为F1,对于纹路较清晰的区域,F1值较大,而对于不含纹路或纹路结构模糊区域则F1值较小,F1值的计算公式如下:
F 1 = &Sigma; ( u , v ) &Element; B ( i , j ) | &lang; G x ( u , v ) , G y ( u , v ) &rang; 2 |
= | &lang; &Sigma; ( u , v ) &Element; B ( i , j ) [ G x 2 ( u , v ) - G y 2 ( u , v ) ] , &Sigma; ( u , v ) &Element; B ( i , j ) [ 2 &CenterDot; G x ( u , v ) G y ( u , v ) ] &rang; | - - - ( 7 )
= { &Sigma; ( u , v ) &Element; B ( i , j ) [ G x 2 ( u , v ) - G y 2 ( u , v ) ] } 2 + { &Sigma; ( u , v ) &Element; B ( i , j ) [ 2 &CenterDot; G x ( u , v ) &CenterDot; G y ( u , v ) ] } 2
(3.2)、将平方梯度矢量模的和记为F2,不含纹路的区域F2值较小,含有纹路区域F2较大;F2指的计算公式如下:
F 2 = &Sigma; ( u , v ) &Element; B ( i , j ) | &lang; G x ( u , v ) , G y ( u , v ) &rang; 2 |
= &Sigma; ( u , v ) &Element; B ( i , j ) [ G x 2 ( u , v ) - G y 2 ( u , v ) ] 2 + [ 2 &CenterDot; G x ( u , v ) &CenterDot; G y ( u , v ) ] } 2      (8)
(3.3)、将灰度均值记为F3,纹路区域的F3比非纹路区域要小;F3值的计算公式如下:
F 3 = &Sigma; ( u , v ) &Element; B ( i , j ) I ( u , v ) &omega; &CenterDot; &omega; - - - ( 9 )
(3.4)、将灰度方差记为F4,纹路区域的F4比非纹路区域要大;F4值的计算公式如下:
F 4 = &Sigma; ( u , v ) &Element; B ( i , j ) [ I ( u , v ) - F 3 ] 2 &omega; &CenterDot; &omega; - 1 ---( 10 )
(3.5)、将纹路垂直方向投影信号的方差记为F5,沿着与纹路垂直的方向在与纹路平行的直线上投影,取以B(i,j)的中心为中心的长L′(21)高H′(15)的矩形区域,L′平行于纹路方向,F5计算为矩形区域在L′上的投影信号的方差,F5值的计算公式如下:
F 5 = &Sigma; l = - L &prime; / 2 L &prime; / 2 ( p v [ l ] - &Sigma; k = - L &prime; / 2 L &prime; / 2 p v [ k ] / L &prime; ) 2 L &prime; - 1 - - - ( 11 )
其中:
p v [ k ] = &Sigma; h = - H &prime; / 2 H &prime; / 2 I { i - h &CenterDot; sin [ O ( B ( i , j ) ) ] + k &CenterDot; cos [ O ( B ( i , j ) ) ] , j + h &CenterDot; cos [ O ( B ( i , j ) ) ] + k &CenterDot; sin [ O ( B ( i , j ) ) ] } H &prime; - - - ( 3.6 ) ,
将纹路方向投影信号的方差记为F6,沿与纹路平行的方向在与纹路垂直的直线上投影,取以B(i,j)的中心为中心的长L(41),高H(15)的矩形区域,L平行于纹路方向,F6计算为矩形区域在L上的投影信号的方差,对于纹路区域,如果方向计算正确,则F6较大,而F5较小;F6计算公式如下:
F 6 = &Sigma; l = - L / 2 L / 2 ( p h [ l ] - &Sigma; k = - L / 2 L / 2 p h [ k ] / L ) 2 L - 1 - - - ( 12 )
其中:
p h [ k ] = &Sigma; h = - H / 2 H / 2 I { i + h &CenterDot; cos [ O ( B ( i , j ) ) ] + k &CenterDot; sin [ O ( B ( i , j ) ) ] , j + h &CenterDot; sin [ O ( B ( i , j ) ) ] - k &CenterDot; cos [ O ( B ( i , j ) ) ] } H
特征(7)~(11)基于ph[k]的平滑信号进行计算,将 p h [ k ] ( - L 2 &le; k &le; L 2 ) 用Gauss滤波器按公式(13)进行平滑滤波得到 p [ k ] ( - L 2 &le; k &le; L 2 ) .
p [ k ] = &Sigma; i = - 3 3 Gauss ( i ) &CenterDot; p h [ k + i ] , ( - L 2 &le; k &le; L 2 ) - - - ( 13 ) ;
(3.7)、纹路方向平滑投影信号的平均纹路间距,记为F7,方向计算正确的区域F7分布在一定范围内;
(3.8)、纹路方向平滑投影信号波峰高度的方差,记为F8,方向计算正确的区域F8的值较小。
(3.9)、纹路方向平滑投影信号波谷高度的方差,记为F9,方向计算正确的区域F9的值较小;
(3.10)、纹路方向平滑投影信号平均波峰高度与平均波谷高度的差,记为F10,较小的F10意味着该区域不含纹路或者方向计算错误;
(3.11)、纹路方向平滑投影信号波峰波谷间距方差,记为F11;方向计算错误的区域F11值较大。
6、如权利要求2所述的基于BP神经网络的指纹图像纹路方向计算和图像分割方法,其特征在于:在所述的步骤(4)中述及的用BP神经网络进行第二次分割时,对前景块逐块扫描,需对每一图像块计算4个特征:
(4.1)、当前图像块的局部灰度均值,记为LG,LG=F3;
(4.2)、第一次分割结果中所有前景图像块的灰度均值,记为MG,计算公式为:
MG = &Sigma; M ( W I ( i , j ) ) = 1 LG ( B ( i , j ) ) &Sigma; W I ( i , j ) M ( B ( i , j ) ) - - - ( 14 )
(4.3)、当前图像块的纹路和纹谷的平均灰度差异,记为LA,LA计算为当前图像块的平滑投影信号 p [ k ] ( - L 2 &le; k &le; L 2 ) 的平均波峰高度和平均波谷高度的差;
(4.4)、第一次分割结果中所有前景图像块的纹路和纹谷的灰度平均差异,记为MA,计算公式如下:
MA = &Sigma; M ( W I ( i , j ) ) = 1 LA ( B ( i , j ) ) &Sigma; W I ( i , j ) M ( B ( i , j ) ) - - - ( 15 )
(4.5)、同一图像内部,残留纹路区域和非残留纹路区域一般存在两种差异:(A)残留纹路区域纹路的灰度值一般大于非残留区域纹路的灰度值;(B)残留纹路区域中纹路和纹谷的灰度差异一般小于非残留纹路区域纹路和纹谷的灰度差;
(4.6)、差异A由特征LG和MG描述,对于两者的差LG-MG,残留纹路区域大于非残留纹路区域;差异B由特征LA和MA描述,对于两者的差LA-MA,残留纹路区域小于非残留纹路区域;部分纹路区域如果LG较小而LA较大,则将其归类为非残留纹路区域;同样,如果LG较大而LA较小,则将其归类为残留纹路区域;
(4.7)、第二次分割时,对于第一次分割结果的每个前景块B(i,j),通过<LG,MG,LA,MA>采用BP神经网络进行分类,神经网络以<LG,MG,LA,MA>为输入,输出值位于0到1之间,若小于阈值t;则将B(i,j)设置为背景,即将M(B(i,j))=0。
7、如权利要求3所述的基于BP神经网络的指纹图像纹路方向计算和图像分割方法,其特征在于:所述的步骤(5)中,分割修正中的启发式规则描述如下:
(5.1)、规则A:当前图像块B(i,j)为背景块,且八相邻图像块中存在两个前景块B1和B2,其位置关于当前块对称,若它们的方向差异小于阈值t1,则将当前图像块修改为前景块,其方向计算为B1和B2的平均方向。方向差异的计算公式如下:
Dis ( O ( B 1 ) , O ( B 2 ) ) = | O ( B 1 ) - O ( B 2 ) | | O ( B 1 ) - O ( B 2 ) | &le; &pi; / 2 &pi; - | O ( B 1 ) - O ( B 2 ) | | O ( B 1 ) - O ( B 2 ) | > &pi; / 2 - - - ( 16 ) ;
(5.2)、规则B:当前图像块B(i,j)为背景块,且八相邻图像块中前景块数量大于4,则计算相邻前景块的平均方向,用神经网络计算该方向的正确性,如果正确性大于阈值tCN,则当前块修正为前景块,其方向为相邻前景块的平均方向;
(5.3)、规则C:B(i,j)和B(i,j+1)为背景块,B(i,j-1)和B(i,j+2)为前景块,且B(i,j-1)和B(i,j+2)的方向差异小于阈值t2,则B(i,j)和B(i,j+1)修正为前景块,方向为B(i,j-1)和B(i,j+2)的平均方向;或者B(i,j)和B(i+1,j)为背景块,B(i-1,j)和B(i+2,j)为前景块,且B(i-1,j)和B(i+2,j)的方向差异小于阈值t2,则B(i,j)和B(i+1,j)修正为前景块,方向为B(i-1,j)和B(i+2,j)的平均方向;
(5.4)、规则D:B(i,j)、B(i,j+1)和B(i,j+2)为背景块,B(i,j-1)和B(i,j+3)为前景块,且B(i,j-1)和B(i,j+3)的方向差异小于阈值t3,则B(i,j)、B(i,j+1)和B(i,j+2)修正为前景块,方向为B(i,j-1)和B(i,j+3)的平均方向;或者B(i,j)、B(i+1,j)和B(i+2,j)为背景块,B(i-1,j)和B(i+3,j)为前景块,且B(i-1,j)和B(i+3,j)的方向差异小于阈值t3,则B(i,j)、B(i+1,j)和B(i+2,j)修正为前景块,方向为B(i-1,j)和B(i+3,j)的平均方向;
(5.5)、规则E:当前块B(i,j)为前景块,八相邻块中前景块数目少于3,则将B(i,j)置为背景块;
(5.6)、规则F:当前块B(i,j)为前景块,八相邻块中有3块前景块B(i1,j1),B(i2,j2)和B(i3,j3),若i1,i2,i3<i或i1,i2,i3>i或j1,j2,j3<j或j1,j2,j3>j,则置B(i,j)为背景块;
(5.7)、每条规则对应一个程序过程Rev(r,B(i,j)),r∈{A,B,C,D,E,F}为规则名,程序过程如下:
BOOl Rev(r,W(i,j))
{
    if(W(i,j)满足规则r)
    {
          1.将规则r规定的图像块进行分割修正;
          2.如果r∈{A,B,C,D},计算分割修正块的方向;
          3.返回TRUE;
    }
    else返回FALSE;
}
分割修正算法有两种规则执行策略:宽度优先和深度优先法;采用深度优先算法依次遍历A,E,F,C,D,B。
(5.8)、对于(5.7)述及的,当背景图像块满足规则A,B,C,D时,需将该图像块修正为前景块,并以相应前景块的平均方向为修正块的方向;用B[i]表示用来计算平均方向的前景块0≤i<N,N为块数,则平均方向Omean计算如下:
S x = &Sigma; 0 &le; i < F cos ( 2 &CenterDot; O ( B [ i ] ) ) - - - ( 17 )
S y = &Sigma; 0 &le; i < N sin ( 2 &CenterDot; O ( B [ i ] ) ) - - - ( 18 )
O′=tan-1(Sy/Sx)/2      (19)
O mean = &pi; / 4 S x = 0 , S y &GreaterEqual; 0 3 &pi; / 4 S x = 0 , S y < 0 O &prime; + &pi; / 2 S x < 0 O &prime; S x > 0 , S y &GreaterEqual; 0 O &prime; + &pi; S x > 0 , S y < 0 - - - ( 20 )
公式(20)将平均方向规约到[0,π)。
CNA2007101645367A 2007-12-04 2007-12-04 一种基于bp神经网络的指纹图像纹路方向计算和图像分割方法 Pending CN101414349A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CNA2007101645367A CN101414349A (zh) 2007-12-04 2007-12-04 一种基于bp神经网络的指纹图像纹路方向计算和图像分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CNA2007101645367A CN101414349A (zh) 2007-12-04 2007-12-04 一种基于bp神经网络的指纹图像纹路方向计算和图像分割方法

Publications (1)

Publication Number Publication Date
CN101414349A true CN101414349A (zh) 2009-04-22

Family

ID=40594880

Family Applications (1)

Application Number Title Priority Date Filing Date
CNA2007101645367A Pending CN101414349A (zh) 2007-12-04 2007-12-04 一种基于bp神经网络的指纹图像纹路方向计算和图像分割方法

Country Status (1)

Country Link
CN (1) CN101414349A (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101853383A (zh) * 2010-05-17 2010-10-06 清华大学 高分辨率掌纹方向场提取方法
CN102208021A (zh) * 2011-07-21 2011-10-05 中国人民解放军国防科学技术大学 一种指纹图像分割方法
CN102254172A (zh) * 2011-06-16 2011-11-23 电子科技大学 一种基于细胞神经网络和形态学的指纹图像分割方法
CN102609698A (zh) * 2012-02-09 2012-07-25 北京海和鑫生信息科学研究所有限公司 活体采集侧面掌纹质量评估方法
CN102708364A (zh) * 2012-05-31 2012-10-03 西安电子科技大学 基于分级分类器的指纹图像分类方法
CN101609411B (zh) * 2009-07-27 2013-01-09 四川大学 一种基于复杂度的嵌入式软件功耗bp神经网络建模方法
CN103679170B (zh) * 2012-09-17 2017-04-12 复旦大学 一种基于局部特征的显著区域检测方法
CN106709450A (zh) * 2016-12-23 2017-05-24 上海斐讯数据通信技术有限公司 一种指纹图像识别方法及系统
CN106845561A (zh) * 2017-03-13 2017-06-13 哈尔滨工业大学 一种基于点云vfh描述子和神经网络的复杂曲面物体分类方法
CN108960214A (zh) * 2018-08-17 2018-12-07 中控智慧科技股份有限公司 指纹图像增强二值化方法、装置、设备、系统及存储介质
CN110930394A (zh) * 2019-11-29 2020-03-27 深圳先进技术研究院 测量肌肉肌纤维束线斜率和羽状角的方法及终端设备
CN111126337A (zh) * 2019-12-31 2020-05-08 芜湖哈特机器人产业技术研究院有限公司 基于特征提取与匹配的指纹识别方法
CN113158837A (zh) * 2021-04-01 2021-07-23 深圳阜时科技有限公司 基于方向场的指纹图像边缘修补方法

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101609411B (zh) * 2009-07-27 2013-01-09 四川大学 一种基于复杂度的嵌入式软件功耗bp神经网络建模方法
CN101853383A (zh) * 2010-05-17 2010-10-06 清华大学 高分辨率掌纹方向场提取方法
CN101853383B (zh) * 2010-05-17 2012-09-05 清华大学 高分辨率掌纹方向场提取方法
CN102254172A (zh) * 2011-06-16 2011-11-23 电子科技大学 一种基于细胞神经网络和形态学的指纹图像分割方法
CN102254172B (zh) * 2011-06-16 2012-08-29 电子科技大学 一种基于细胞神经网络和形态学的指纹图像分割方法
CN102208021A (zh) * 2011-07-21 2011-10-05 中国人民解放军国防科学技术大学 一种指纹图像分割方法
CN102208021B (zh) * 2011-07-21 2012-12-19 中国人民解放军国防科学技术大学 一种指纹图像分割方法
CN102609698A (zh) * 2012-02-09 2012-07-25 北京海和鑫生信息科学研究所有限公司 活体采集侧面掌纹质量评估方法
CN102708364A (zh) * 2012-05-31 2012-10-03 西安电子科技大学 基于分级分类器的指纹图像分类方法
CN103679170B (zh) * 2012-09-17 2017-04-12 复旦大学 一种基于局部特征的显著区域检测方法
CN106709450A (zh) * 2016-12-23 2017-05-24 上海斐讯数据通信技术有限公司 一种指纹图像识别方法及系统
CN106845561A (zh) * 2017-03-13 2017-06-13 哈尔滨工业大学 一种基于点云vfh描述子和神经网络的复杂曲面物体分类方法
CN106845561B (zh) * 2017-03-13 2020-07-24 哈尔滨工业大学 一种基于点云vfh描述子和神经网络的复杂曲面物体分类方法
CN108960214A (zh) * 2018-08-17 2018-12-07 中控智慧科技股份有限公司 指纹图像增强二值化方法、装置、设备、系统及存储介质
CN110930394A (zh) * 2019-11-29 2020-03-27 深圳先进技术研究院 测量肌肉肌纤维束线斜率和羽状角的方法及终端设备
WO2021103048A1 (zh) * 2019-11-29 2021-06-03 深圳先进技术研究院 测量肌肉肌纤维束线斜率和羽状角的方法及终端设备
CN110930394B (zh) * 2019-11-29 2021-07-16 深圳先进技术研究院 测量肌肉肌纤维束线斜率和羽状角的方法及终端设备
CN111126337A (zh) * 2019-12-31 2020-05-08 芜湖哈特机器人产业技术研究院有限公司 基于特征提取与匹配的指纹识别方法
CN113158837A (zh) * 2021-04-01 2021-07-23 深圳阜时科技有限公司 基于方向场的指纹图像边缘修补方法
CN113158837B (zh) * 2021-04-01 2024-02-20 深圳阜时科技有限公司 基于方向场的指纹图像边缘修补方法

Similar Documents

Publication Publication Date Title
CN101414349A (zh) 一种基于bp神经网络的指纹图像纹路方向计算和图像分割方法
CN107617573B (zh) 一种基于多任务深度学习的物流编码识别和分拣方法
CN105894656B (zh) 一种纸币图像识别方法
CN106156780B (zh) 轨道上异物侵限识别中排除误报的方法
CN102147851B (zh) 多角度特定物体判断设备及多角度特定物体判断方法
CN105957238A (zh) 一种纸币管理方法及其系统
CN110246132A (zh) 轨道车辆螺栓松动检测方法及系统
CN108596030A (zh) 基于Faster R-CNN的声呐目标检测方法
CN101221623B (zh) 一种物体类型的在线训练和识别方法及其系统
CN105225523B (zh) 一种车位状态检测方法及装置
CN111797829A (zh) 一种车牌检测方法、装置、电子设备和存储介质
CN104464079A (zh) 基于模板特征点及其拓扑结构的多币种面值识别方法
CN103425984B (zh) 一种检测票据中正多边形印章的方法和装置
CN109977877A (zh) 一种安检智能辅助判图方法、系统以及系统控制方法
CN103413145A (zh) 基于深度图像的关节点定位方法
CN103824060A (zh) 指纹细节点的提取方法
CN109740609A (zh) 一种轨距检测方法及装置
CN105069451A (zh) 一种基于双目摄像头的车牌识别与定位方法
CN104134004A (zh) 一种基于d-s证据理论的海洋环境安全评估方法
CN101251896A (zh) 一种基于多分类器的物体检测系统及方法
CN107146233A (zh) 基于岩石薄片偏光序列图的颗粒分割方法
CN106599894A (zh) 一种基于图像识别的接触网杆号识别方法
CN104134150A (zh) 一种计算机辅助的宣纸中国画和书法真伪鉴别方法
CN101369312A (zh) 检测图像中交叉口的方法和设备
CN103473925B (zh) 一种道路车辆检测系统的验证方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Open date: 20090422