CN101206717A - 验证设备、验证方法和程序 - Google Patents

验证设备、验证方法和程序 Download PDF

Info

Publication number
CN101206717A
CN101206717A CNA2007103022055A CN200710302205A CN101206717A CN 101206717 A CN101206717 A CN 101206717A CN A2007103022055 A CNA2007103022055 A CN A2007103022055A CN 200710302205 A CN200710302205 A CN 200710302205A CN 101206717 A CN101206717 A CN 101206717A
Authority
CN
China
Prior art keywords
image
pattern
physical trait
point
central area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CNA2007103022055A
Other languages
English (en)
Inventor
阿部博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN101206717A publication Critical patent/CN101206717A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明提供了一种验证设备,包括:检测部分,所述检测部分检测输入图像上的身体部分的身体特征的接合点、终点和转折点的一部分或者全部,作为特征点,所述身体特征用于验证;以及搜索部分,所述搜索部分在所述身体特征的登记图像中搜索如下图案,所述图案与下述图像的中心区域中的所述特征点的图案相同或者相似:所述图像的垂直中心线与所述身体特征的运动方向垂直,其中所述身体特征在所述身体部分被放置于其上的表面上水平运动,所述登记图像沿所述身体部分的弯曲表面获取,并且所述中心区域处于两条直线之间,所述两条直线各自沿相反方向与所述中心线相距预定距离。

Description

验证设备、验证方法和程序
技术领域
本发明涉及登记设备、登记方法和程序,并且优选地应用于例如生物测量(biometric)验证。
背景技术
生物测量验证用于基于用户的身体特征来辨认用户。这样的特征之一是手指的血管图案。
如日本专利公开No.2003-331272所公开的,存在一种包括转台7的认证设备。图像获取摄像机2和光源1被布置在转台7的每侧。用户将其手指3放置在转台7的中心轴线上。认证设备以恒定速度旋转转台7,使得图像获取摄像机2和光源1围绕手指3旋转,并且获取移动图像。认证设备合成这些图像来掌握手指的所有侧边。认证设备因此可以通过检查合成图像,特别是手指的关节附近的合成图像,来确认用户。
发明内容
然而,因为上述认证设备拍摄手指内的血管(例如参见图5A),所以很难将关节与手指的其它部分进行区分。有时,关节可能不出现在图像上。
因此,当基于手指关节来进行验证时,可能不能精确地对用户进行认证。
本发明是考虑上述情况而作出的,并旨在提供可以精确地确认用户的验证设备、验证方法以及程序。
在本发明的一个方面,一种验证设备包括:检测部分,所述检测部分检测输入图像上的身体部分的身体特征的接合点、终点和转折点的一部分或者全部,作为特征点,所述身体特征用于验证;以及搜索部分,所述搜索部分在所述身体特征的登记图像中搜索如下图案,所述图案与下述图像的中心区域中的所述特征点的图案相同或者相似:所述图像的垂直中心线与所述身体特征的运动方向垂直,其中所述身体特征在所述身体部分被放置于其上的表面上水平运动,所述登记图像沿所述身体部分的弯曲表面获取,并且所述中心区域处于两条直线之间,所述两条直线各自沿相反方向与所述中心线相距预定距离。
以此方式,当该验证设备在身体特征的登记图像中搜索与输入图像的图案相同或者相似的图案时,其使用即使在模糊图像上也总是显现的特征点。验证设备因此可以较之检查手指的关节的情况更精确地对用户进行验证。
此外,此验证设备从不同的角度获取身体特征的图像,而一般的验证装置从一个角度拍摄身体特征。因此,用户放置其身体部分的方式更自由。
在本发明的另一个方面,一种验证方法包括:第一步骤,用于检测输入图像上的身体部分的身体特征的接合点、终点和转折点的一部分或者全部,作为特征点,所述身体特征用于验证;以及第二步骤,用于在所述身体特征的登记图像中搜索如下图案,所述图案与下列图像的中心区域中的所述特征点的图案相同或者相似:所述图像的垂直中心线与所述身体特征的运动方向垂直,其中所述身体特征在所述身体部分被放置于其上的表面上水平运动,所述登记图像沿所述身体部分的弯曲表面获取,并且所述中心区域处于两条直线之间,所述两条直线各自沿相反方向与所述中心线相距预定距离。
以此方式,当该验证方法在身体特征的登记图像中搜索与输入图像的图案相同或者相似的图案时,其使用即使在模糊的图像上也总是显现的特征点。验证方法因此可以较之检查手指的关节的情况更精确地对用户进行验证。
此外,此验证方法从不同的角度获取身体特征的图像,而一般的验证方法从一个角度拍摄身体特征。因此,用户放置其身体部分的方式更自由。
在本发明的另一个方面,一种程序使得计算机执行:第一步骤,用于检测输入图像上的身体部分的身体特征的接合点、终点和转折点的一部分或者全部,作为特征点,所述身体特征用于验证;以及第二步骤,用于在所述身体特征的登记图像中搜索如下图案,所述图案与下列图像的中心区域中的所述特征点的图案相同或者相似:所述图像的垂直中心线与所述身体特征的运动方向垂直,其中所述身体特征在所述身体部分被放置于其上的表面上水平运动,所述登记图像沿所述身体部分的弯曲表面获取,并且所述中心区域处于两条直线之间,所述两条直线各自沿相反方向与所述中心线相距预定距离。
以此方式,当该程序在身体特征的登记图像中搜索与输入图像的图案相同或者相似的图案时,其使用即使在模糊的图像上也总是显现的特征点。程序因此可以较之检查手指的关节的情况更精确地对用户进行验证。
此外,此程序从不同的角度获取身体特征的图像,而一般的程序从一个角度拍摄身体特征。因此,用户放置其身体部分的方式更自由。
如上所述,当上述验证设备、验证方法和其程序在身体特征的登记图像中搜索与输入图像的图案相同或者相似的图案时,使用即使在模糊的图像上也总是显现的特征点。验证设备、验证方法和其程序因此可以较之检查手指的关节的情况更精确地对用户进行验证。
当结合附图阅读时,根据下面的详细说明,本发明的特性、原理和实用性将变得更清楚,其中在附图中,相似的部件由相似的标号或者字符指示。
附图说明
在附图中:
图1是示出了根据本发明的实施例的认证设备的整体构造的框图;
图2A-2E是示出了在一个表面上滚动的手指的示意图;
图3是示出了图像获取表面和血管图案的示意图;
图4是示出了控制部分(血管登记模式)的功能性构造的框图;
图5A和5B是示出了在压印之前和之后图像的示意图;
图6是示出了所提取图案的示意图;
图7是示出了所检测的特征点的示意图;
图8A和8B是示出了位置差计算处理的示意图;
图9是示出了搜索区域的示意图;
图10是示出了位置差的示意图;
图11是示出了改变搜索区域的位置的过程的示意图;
图12是示出了在压印处理之后血管的亮度的示意图;
图13是示出了在图案提取处理过程中亮度变化的示意图;
图14A和14B是示出了如何对亮度进行平均的示意图;
图15是示出了如何从图像剪切一块的示意图;
图16是示出了在图像获取表面上,中心部分移动的距离与端点移动的距离之间的差的示意图;
图17A-17C是示出了失真校正的效果的示意图;
图18是示出了附加处理的示意图;
图19A和19B是示出了如何生成被登记的图像的示意图;
图20是示出了登记过程的流程图;
图21是示出了控制部分(认证模式)的功能性构造的框图;
图22是示出了如何找出并且剪切验证目标区域的示意图;
图23A-23C是示出了校正处理的示意图;
图24是示出了认证过程的流程图;和
图25是示出了如何改变搜索区域的形状的示意图。
具体实施方式
下面将参考附图对本发明的实施例进行详细描述。
(1)认证设备的整体构造
图1示出了根据本发明一种实施例的认证设备1的整体构造。认证设备1包括控制部分10,控制部分10经由总线16连接到操作部分11、图像获取部分12、存储器13、接口14和通知部分15。
控制部分10是包括中央处理单元(CPU)、只读存储器(ROM)和随机访问存储器(RAM)的微型计算机,其中,CPU负责设备1的整体控制,ROM存储各种程序和设置信息,RAM充当所述CPU的工作存储器。
当被用户操作时,操作部分11向控制部分10提供指令COM1、COM2等:指令COM1命令控制部分10以血管登记模式工作,其中血管登记模式用于登记用户的血管图案;而指令COM2命令控制部分10以认证模式工作,其中认证模式用于辨认用户。
当接收到指令COM1或COM2时,控制部分10以血管登记模式或认证模式工作。在此情况下,控制部分10执行相应的程序,以控制图像获取部分12、存储器13、接口14和通知部分15。
基于由控制部分10设置的曝光值(EV),图像获取部分12调节光学系统的光学镜头的位置、图像获取元件的光圈和快门速度(曝光时间)。
图像获取部分12控制图像获取元件,以获得图像。图像获取元件以预定间隔顺序地输出图像信号。图像获取部分12执行模数(A/D)转换处理,以将图像信号转换成数字图像数据,然后将该图像数据提供给控制部分10。
此外,在由控制部分10规定的时间段内,图像获取部分12对近红外线源进行驱动,以向拍摄对象所在的预定位置(也称为“拍摄位置”)发射近红外线。血管特别地吸收近红外线。
当身体部分被放置在拍摄位置处时,所发射的近红外线进入身体部分。在通过光学系统和镜头之后,近红外线被图像获取元件接收,表示出身体部分的血管图案。结果,血管图案的图像被形成在图像获取元件的图像获取表面上。以此方式,图像获取部分12获得代表血管图案的图像。
存储器13例如是快闪(flash)存储器。存储器13存储控制部分10指定的数据。控制部分10可以从存储器13读出数据。
接口14经由预定的传输线与外部设备交换数据。
通知部分15包括:显示部分15a,其基于由控制部分10提供的数据来显示字符、符号等;以及音频输出部分15b,其基于由控制部分10提供的数据从扩音器输出声音。
(2)血管登记模式
下面描述设备如何以血管登记模式工作。当接收到指令COM1时,控制部分10进入血管登记模式。通知部分15通知用户其应该将其手指放置在拍摄位置,使得指肚接触其表面,然后在该表面滚动其手指。此外,控制部分10开始操作图像获取部分12。
例如,当如图2A-2E所示,用户在拍摄位置在表面上滚动其手指时,图像获取部分12从不同角度拍摄手指内的血管,如图3所示。
在此实施例中,设备没有任何用于固定手指位置的装备。因此,当设备拍摄手指的血管时,用户放置和滚动其手指的位置可能每次都不同。此外,从所述表面到血管的距离可能随着用户将其手指压靠表面的力度、其旋转轴等而变化。
控制部分10从图像获取部分12(图像获取元件)接收不同角度的手指的图像数据或者照片。控制部分10将这些照片合成为一个图像。此外,控制部分10从该图像提取血管的特征点。控制部分10随后将图像和提取的特征点存储或者登记在存储器13中,作为登记数据。
以此方式,控制部分10以血管登记模式工作。
下面将描述控制部分10如何获得图像数据并且产生登记数据。设控制部分10具有如图4所示的功能部件,包括压印部分21、图案提取部分22、特征点检测部分23、位置差计算部分24以及图像合成处理部分25。
压印部分21从图像获取部分12接收不同角度的手指图像(即,图像数据)的流。在由压印部分21接收之前,图像流可以以一定间隔被删减(thin out)(此处理也被称为“删减处理”)。
(2-1)压印处理
压印部分21将血管图案压印在图像上。压印部分21接收图像数据D10,并处理图像数据D10(诸如称为高斯处理的差分滤波处理),以将血管图案压印在图像上。压印部分21随后将压印了血管图案图像的图像数据D11供应到图案提取部分22和位置差计算部分24。
图5A和5B示出了压印之前和压印之后的图像。如图5A所示,未压印图像的血管图案具有模糊的轮廓。另一方面,如图5B所示,压印图像具有血管图案的清晰轮廓。压印部分21的压印处理突出了血管的轮廓。因此,可以将血管图案与图像的其余部分区分开。
(2-2)图案提取处理
图案提取部分22以线图案的形式提取图像上的血管图案。在此实施例中,接收图像数据D11的图案提取部分22将图像数据D11二进制化,然后从二进制化的图像数据提取血管宽度的中点和宽度的亮度峰值,以获得线图案(也称作“血管线”)。图案提取部分22然后将血管线的图像数据D12供应到特征点检测部分23。
如图6所示,图案提取部分22的图案提取处理简化了血管图案,将其用线来表示。
(2-3)特征点检测处理
特征点检测部分23检测所述的线(或者线形图案)的某些接合点、终点和转折点,作为特征点。在此实施例中,如图7所示,接收图像数据D12的特征点检测部分23从图像数据D12检测出上述线的某些终点、接合点和转折点,作为特征点。实际上,特征点检测部分23首先用线连接这些点(终点、接合点和转折点),计算由线所包围的每一个单元的面积,仅仅选择大小小于预定阈值的单元,然后将这些选出的单元的点作为特征点。此方法例如公开于日本专利公开No.2006-207033中。
在检测特征点(终点、接合点和转折点)之后,特征点检测部分23生成位置数据D13,然后将位置数据D13供应到位置差计算部分24,位置数据D13表示被检测的特征点的位置。此外,特征点检测部分23将位置数据D13与相应的图像数据D12(位置数据D13由其产生)相关联,然后将它们供应到图像合成处理部分25。
(2-4)位置差计算处理
位置差计算部分24针对设备将处理的目标第一图像(即,图像数据D11)和在第一图像之前设备已经处理的在先目标第二图像(即,图像数据D11),计算位置差:位置差计算部分24计算第一图像的血管线和第二图像的相应血管线之间的位置差。第一图像也被称为“当前图像”,而已经在当前图像之前被处理的第二图像也被称为“在先图像”。
位置差计算部分24的计算方法例如是基于所谓的光学流(optical-flow)的。例如,如图8A所示,位置差计算部分24从当前图像IM1选择某个点作为引注点AP,并且围绕引注点AP设定m×n的像素方块(也称为“引注块”)ABL。位置差计算部分24计算引注块ABL的亮度。
如图8B所示,位置差计算部分24从在先图像IM2找出亮度值与引注块ABL的亮度值最接近的块RBL,然后将块RBL的中心作为针对引注点AP的相应点XP。位置差计算部分24计算从位置AP’(在先图像IM2的该位置AP’与当前图像IM1的引注点AP相同)指向相应点XP的位置矢量V(Vx,Vy)。
位置差计算部分24对于当前图像IM1的多个引注块的重复执行上述处理;每次当位置差计算部分24设定引注块ABL时,其找出在先图像IM2的相应块RBL,并且计算从点AP’(其位置与引注块的中心相同)指向块RBL的中心的位置矢量。位置差计算部分24随后计算位置矢量的平均值(即,水平矢量分量Vx和垂直矢量分量Vy的平均值)作为位置差,然后将其作为位置差数据D15供应到图像合成处理部分25。
在此实施例中,位置差计算部分24被设计成基于位置数据D13来从当前图像IM1检测血管线的特征点,并指定这些特征点作为引注点AP。就是说,引注点AP仅仅从血管线而不是从图像IM1的所有像素检测出。这减小了位置差计算部分24搜索块RBL的处理工作量。
在搜索亮度值与引注块ABL的亮度值最接近的块RBL之前,位置差计算部分24设定围绕位置AP’的搜索区域SAR,如图9所示。搜索区域SAR的大小是一定数量的引注块的组合。位置差计算部分24在搜索区域SAR中搜索相应点。这样,位置差计算部分24仅仅搜索在先图像IM2的一部分,而不是整个图像IM2。这减小了位置差计算部分24搜索块RBL的处理工作量。
图10示出了当前图像和在先图像之间的位置差:纵向线是由图案提取部分22从当前图像提取的血管线;血管线上的点是由特征点检测部分23检测的;虚线表示由图案提取部分22从在先图像提取的血管线。
在此情况下,位置差由纵向线和虚线之间的水平线表示。实际上,位置差通过对位置矢量或者水平线进行平均来计算。
从图10可清楚了解,计算出的位置差反映了手指的当前位置和在先位置之间的垂直差(其取决于用户手指压靠表面的力度等),也反映了当前位置和在先位置之间的水平差。
此外,根据计算出的位置差,位置差计算部分24在在先图像IM2上移动搜索区域SAR。
下面是移动搜索区域SAR的一个实例。当在在先图像IM2中搜索与存在于当前图像IM1的血管线上的特征点(即,引注点AP)相应的点时,位置差计算部分24使用位置差(Vx-AVE,Vy-AVE),所述位置差(Vx-AVE,Vy-AVE)已经在将在先图像IM2当作“当前”图像IM1时被计算出。当此位置差(Vx-AVE,Vy-AVE)为零时(这意味着不存在位置差),位置差计算部分24在在先图像IM2上设定围绕位置AP’的搜索区域SAR1,其中所述位置AP’是与引注点AP相同的位置(如图11所示)。
顺带地,如果当前图像IM1、在先图像IM2和更前的图像分别为第k个图像、第k-1个图像和第k-2个图像,则已经在将在先图像IM2当作“当前”图像IM1时计算出的位置差(Vx-AVE,Vy-AVE)等于第(k-1)个图像与第(k-2)个图像之间的位置差。
而当位置差(Vx-AVE,Vy-AVE)不为零时(这意味着存在一定的位置差),则位置差计算部分24将点AP’移动等于位置差的量,并且设定围绕其(即,图11中的点AP”)的搜索区域SAR2。
以此方式,位置差计算部分24被设计来根据在先计算出的位置差(Vx-AVE,Vy-AVE)移动搜索区域SAR的中心。因此,在先图像IM2上的搜索区域SAR的位置可以被改变。
这意味着位置差计算部分24移动搜索区域SAR,以补偿手指的当前位置和在先位置之间的垂直差(其取决于用户手指压靠表面的力度等),并补偿当前位置和在先位置之间的水平差。
顺带地,在此实施例中,位置差的计算基于图像数据D11,该数据是在图案提取部分22的处理之前产生的。
此图像数据D11清晰地指明了血管线和其它部分之间的边界,如图5A和5B所示。此外,在该图像上的血管线的亮度被当作表示血管的实际三维(横截面)形状的信息,如图12所示。然而,已经经过图案提取部分22的提取处理(二进制化和细化处理(图13))的图像数据D12或者D13表示血管的经圆滑的形状,如图14A和14B所示。
如果图像数据D12或者D13被用于在在先图像IM2中搜索亮度与当前图像IM1的引注块ABL的亮度最接近的块的处理(如图8B所示),则位置差计算部分24难以找出合适的一个块,因为可能存在多个与引注块ABL的亮度基本相同的块。在此情况下,位置差计算部分24可能不能精确地计算出位置差。
这就是为什么位置差计算部分24使用图像数据D11(其是在图案提取部分22的提取处理之前生成的数据)来计算位置差的原因。
另一方面,当前图像IM1的引注块ABL的引注点AP等于从已经经过图案提取部分22的提取处理的图像数据D13检测的特征点。
特征点代表血管线的图案。从还没有经过图案提取部分22的提取处理的图像所检测的特征点可能与从已经经过图案提取部分22的提取处理的图像数据所检测的特征点不一致。因此,这种方法(从还没有经过提取处理的图像检测特征点)是不可靠的。
因此,位置差计算部分24从已经经过图案提取部分22的提取处理的图像数据D13检测特征点,并且将其当作当前图像IM1的引注块ABL的引注点AP。
(2-5)图像剪切处理
如图15所示,图像合成处理部分25的图像剪切部分25A从输入图像(即,图像数据D12)切下从线LN1延伸到线LN2的有效区域AR,所述线LN1和线LN2中的每一者距中心线CLN一定距离,所述中心线CLN将图像在拍摄对象的运动方向上分成相等的两份。
中心线CLN与线LN1和LN2之一之间的距离(由像素数量表示)DS被确定成使得第一运动距离对第二运动距离的比(ratio)小于一个像素;第一运动距离表示拍摄对象在运动方向上相对于图像获取表面的中心所移动的距离,而第二运动距离是指拍摄对象在运动方向上相对于中心线之外的一条线移动的距离。
设想如图16所示,手指具有从手指的中心o延伸了距离r的血管,该手指围绕中心o在旋转方向d上旋转了角度Δθ。在此情况下,血管的下述点被称为P0:该点位于通过中心o并且与图像获取表面垂直相交的横截面上。当手指沿旋转方向d旋转了Δθ的角度时,点P0移动到位置P’0。同时,在旋转方向d上与点P0成θ角度的点P1移动到点P’1。
另一方面,如果拍摄对象(手指)具有平坦表面,则点P0和P’0之间在图像获取表面上的距离Δx0和点P1和P’1之间在图像获取表面上的距离Δx1基本相同。然而,因为拍摄对象的表面是弯曲的,所以距离Δx0和Δx1彼此不同。
如果旋转速度非常慢,则距离Δx0由如下表示:
Δx 0 = r sin ( Δθ )
≅ r · Δθ · · · · · · ( 1 )
类似地,距离Δx1由如下表示:
Δx 1 = r sin ( θ + Δθ ) - r sin ( θ )
= r { sin ( θ ) cos ( Δθ ) + cos ( θ ) sin ( Δθ ) - sin ( θ ) }
≅ r { sin ( θ ) · 1 + cos ( θ ) · Δθ - sin ( θ ) }
= r · Δθ · cos ( θ ) · · · · · · ( 2 )
基于上述的等式(1)和(2),Δx0和Δx1比值为:
Δ x 1 Δ x 0 = r · Δθ · cos ( θ ) r · Δθ = cos ( θ ) · · · · · · ( 3 )
另一方面,在图像获取表面上点P0和P1之间的角度θ由如下表示:
θ = arctan ( r sin ( θ ) r ) · · · · · · ( 4 )
因此,将等式(3)中的“θ”用等式(4)替换,将Δx0与Δx1的比值以如下方式表示:
Δ x 1 Δ x 0 = cos ( arctan ( r sin ( θ ) r ) ) · · · · · · ( 5 )
假定允许Δx0与Δx1之间的差,点P0和P1之间的在图像获取表面上的区域r(sin(θ)),至多为10个像素。在此情况下,如果在图像获取表面上对应于运动方向的方向的宽度是与手指的宽度相同的60个像素,则离中心o的距离r为约30个像素。
因此,基于等式(5),Δx0与Δx1的比值为0.9388...。就是说,点P0的运动距离Δx0与点P1的运动距离Δx1之间的差小于一个像素。因此,它们被认为与实际运动距离Δθ相同。在此情况下,根据等式(4),角度θ(角度P0-o-P1)为约20度。
因此,如果要剪切的图像的宽度就像素而言与手指的相同,则有效区域AR的最大尺寸将为将被剪切的图像的宽度的1/3。此外,有效区域AR的一端与另一端之间相对于手指中心的角度为最多40度。这防止了有效区域AR的投影失真,而当弯曲的物体投影到平面上时,可能常常发生这样的投影失真。
顺带地,如图10所示,由虚线指示的血管线和由实线表示的血管线在图像的中心区域附近大致相同。另一方面,其在图像的边缘附近彼此不同。因此,从图像切下有效区域AR(图15)防止了投影失真。
某些设备试图通过处理图像的边缘以校正投影失真,而不是从输入图像剪切有效区域AR。然而,如图17B所示,处理图像的边缘(图17A)来校正失真增大了混淆(aliasing)效果。这样,图像上血管的平滑线(图17A)被转变成如图17C所示的锯齿线。
因此,图像剪切部分25A通过剪切有效区域AR提供了更可靠的图像。
(2-6)图像附加处理
如图18所示,图像附加部分25B提供扩展图像EXM,多个图像被附加到扩展图像EXM上。图像附加部分25B将图像IM10到IM16布置在扩展图像EXM上:图像IM10到IM16中每一者的上左端的位置例如根据由位置数据D13表示的相应位置差来确定。
实际上,图像附加部分25B在扩展图像EXM的左侧区域上放置第一图像IM10。顺带地,在此实施例中,附加到扩展图像EXM的图像IM10包括有效区域AR(图15)和边缘区域两者,因为图像剪切部分25A没有进行切除。
此后,图像附加部分25B根据位置差(即,水平矢量分量Vx和垂直矢量分量Vy(图8B)的平均值)逐个地放置第二图像和后续的图像IM11到IM16,使得每一个图像的参考点位于在先附加的图像的参考点。结果,每一个图像的血管线的一部分与在先附加的图像的血管线的一部分搭接(overlap)。
顺带地,除了最后一个图像IM16,第二图像和后续的图像IM11到IM15仅仅包括由图像剪切部分25A的剪切处理得到的有效区域AR(图15)。与第一图像IM10相似,被附加到扩展图像EXM的最后一个图像IM16包括有效区域AR(图15)和边缘区域两者。
在将最后一个图像IM16附加到扩展图像EXM之后,图像附加部分25B切除扩展图像EXM的突出部分(即图像CIM1(图19A)),产生用于登记的矩形图像CIM2。
图像附加部分25B随后基于位置数据D13识别图像CIM2的血管线的特征点,然后通过将特征点数据、图像CIM2的数据以及将特征点和图像CIM2关联的数据进行合成,产生将被登记的数据(称为“登记数据”)。
以此方式,控制部分10产生登记数据:该登记数据包括下述图像和血管的特征点的数量:手指内的血管的投影在所述图像上。
(3)登记过程
图20是示出了血管登记模式的登记过程的流程图。为了易于解释,设备没有削减从图像获取部分12顺序地供应的图像的数量。
当接收到血管登记模式执行指令COM1时,控制部分10开始登记过程并且进行到步骤SP1。在步骤SP1,控制部分10控制通知部分15,以向用户发送其应将其手指放置在拍摄位置并在表面上滚动其手指的消息。同时,控制部分10控制图像获取部分12,以开始拍摄。
当接收到从图像获取部分12供应的图像数据之后,在步骤SP2,控制部分10在图像上压印血管图案。在随后的步骤SP3,控制部分10将经过压印的图像临时存储在内部缓存器中,作为当前图像。
在随后的步骤SP4,控制部分10将所压印的血管转变为细线。在随后的步骤SP5,控制部分10检测上述细线的终点、接合点和转折点,作为特征点。
如果当前图像是从图像获取部分12供应的第一个图像,则在步骤SP7,控制部分10将细线图像附加到扩展图像EXM的左侧区域上。在随后的步骤SP8,控制部分10开始将临时存储在内部缓存中的图像当作在先图像,然后返回到步骤SP2。
而如果当前图像不是从图像获取部分12供应的第一个图像,则在步骤SP9,控制部分10基于在步骤SP4和SP5检测的当前图像的特征点计算在先图像和当前图像之间的位置差:在先图像和当前图像都被临时存储在内部缓存器中。
在步骤SP10,控制部分10由在步骤SP9计算出的水平矢量分量Vx和垂直矢量分量Vy(图8B)的平均值,识别出与手指的运动方向一致的矢量分量(即,垂直矢量分量Vy(图8B)的平均值),然后检查其是否大于或等于预定阈值。
如果矢量分量小于该阈值,则控制部分10判定手指基本没有运动。在此情况下,在随后的步骤SP11,控制部分10从内部缓存删除当前和在先的经过压印的图像,然后返回到步骤SP2。
而如果矢量分量大于或等于阈值,则在步骤SP12控制部分10从内部缓存删除在先的压印图像,然后开始将存储在内部缓存中的当前压印图像当作在先压印图像。控制部分10随后进行到步骤SP13。
在步骤SP13,控制部分10检查剪切图像的数量是否达到预定数量。如果没有,则在步骤SP14,控制部分10从当前压印图像剪切有效区域AR(图15)。在随后的步骤S15,控制部分10根据在步骤SP9计算的位置差,将当前压印图像附加到扩展图像EXM(图18),使得当前图像的各个血管线的一部分与在先附加的图像的相应部分搭接。控制部分10随后返回到步骤SP2。
而如果剪切图像的数量达到了预定数量,则在步骤SP16,控制部分10以与步骤SP14相似的方式将当前压印图像附加到扩展图像EXM(图18),然后从扩展图像EXM剪切合成图像CIM1(图19A),获得用于登记的图像CIM2。控制部分10随后产生登记数据,登记数据包括图像CIM2和图像CIM2的血管线的特征点的数据。
在随后的步骤SP17,控制部分10在存储器13(图1)中登记登记数据,然后结束登记过程。
以此方式,控制部分10以血管登记模式工作。
(4)认证模式
下面描述认证模式。当接收到认证模式指令时,控制部分10(图1)进入认证模式。控制部分10控制通知部分15,以要求用户将其手指稳定地放置在拍摄位置。控制部分10还开始操作图像获取部分12。
当控制部分10从图像获取部分12的图像获取元件接收到作为拍摄结果的图像数据时,控制部分10执行压印处理、图案提取处理和特征点检测处理,这些处理与血管登记模式中的那些相同。以此方式,控制部分10获得合成图像数据和该图像的血管线的特征点数据。
控制部分10通过将所获得的特征点和图像(也分别被称为“参考点”和“参考图像”)与登记数据的特征点和图像(也分别被称为“登记点”和“登记图像”)进行比较,来检查用户是否是登记在设备中的合法的人。
如果控制部分10判定用户不是合法的,则控制部分10相应地通过显示部分15a和音频输出部分15b通知用户。而如果控制部分10判定用户是合法的,则控制部分10通过接口14向设备供应数据,表明用户是合法的人这一事实。当接收到该数据时,所述设备执行预定过程,诸如为该用户开门或者对于被禁止执行的操作模式解除限制。
以此方式,控制部分10以认证模式工作。
下面描述控制部分10如何获得参考点和参考图像以及如何判定用户是合法的。这些处理可以由如图21所示的功能块表示:图像剪切部分31、图像校正部分32以及验证部分33。
图像剪切部分31接收由压印处理、图案提取处理和特征点检测处理得到的参考图像数据和参考点数据,其中,压印处理、图案提取处理和特征点检测处理与血管登记模式的那些相同。
(4-1)图像剪切处理
图像剪切部分31在登记图像中搜索适于与参考图像进行比较的部分。具体地,如图22所示,图像剪切部分31识别出参考图像IMR的有效区域ARR中的参考点的图案,并且找出登记图像中的下述区域:该区域包括与被识别的图案基本相同或者相似的登记点的图案。此有效区域ARR的大小与血管登记模式的有效区域AR的相同。
这防止了当弯曲的物体被投影在平面上时常常发生的投影失真。因此,图像剪切部分31可以精确地找出登记图像的下述区域:该区域包括与被识别的图案(也称为“搜索目标图案”)基本相同或相似的登记点的图案。
如果没有检测到该登记点图案(其与搜索目标图案基本相同或相似),则意味着参考图像IMR的血管线不同于登记图像CIM2的血管线。在此情况下,设备通过显示部分15a和音频输出部分15b通知用户用户不是合法的这一事实。
如果检测到该图案,则图像剪切部分31基于通过左端和右端登记点之间的中点的垂直线CLNE从登记图像剪切验证目标图像IME,所述验证目标图像IME的大小与参考图像IMR的相同并用于进行验证。
(4-2)图像校正处理
图像校正部分32校正验证目标图像IME的侧边区域(端部区域)ARE-1和ARE-2(图22),使得侧边区域ARE-1和ARE-2的血管线变成弯曲的。顺带地,侧边区域ARE-1和ARE-2之间的是有效区域ARE
在此情况下,登记图像CIM2(图19B)是多个图像的集合,所述图像中的每一个是图像的中间部分(即,有效区域AR(图15)),该部分投影失真较小。因此,从登记图像CIM2剪切的验证目标图像IME的有效区域ARE和侧边区域ARE-1和ARE-2具有低的投影失真。
另一方面,参考图像IMR的侧边区域ARR-1和ARR-2具有较大的投影失真(在侧边区域ARR-1和ARR-2之间的是有效区域AR)。因此,将未调整的验证目标图像IME与参考图像IMR进行比较可能由于侧边区域ARE-1和ARR-1和侧边区域ARE-2和ARR-2之间在血管线形状上的显著差别而导致不正确的结果(诸如错误地验证用户)。
因此,图像校正部分32如图23A到23C所示校正验证目标图像IME:将倾斜的侧边区域ARE-1和ARE-2投影在平面FM上,使得它们处于与有效区域ARE相同的水平面上,如图23A和23B所示。在此情况下,经校正的侧边区域ARE-1和ARE-2在图23A通过用点填充的方式表示,并且在图23B和23C中由实线箭头表示。侧边区域ARE-1和ARE-2从有效区域ARE的终点P1和P1’向后倾斜,形成角度θE(图23B和23C)。
顺带地,在此情况下,图23A到23C的九棱柱代表手指。验证目标图像IME的宽度为60个像素,而有效区域AR的宽度为20个像素(这意味着从有效区域AR的一端到垂直线CLNE的距离是10个像素)。
在此情况下,根据等式(4),角度P0-o-P1,或者θ,为约20度。因此,角度P0-o-Px,或者θE,为约40度。此外,侧边区域ARE-1和ARE-2相对于有效区域ARE形成约40度的角度。
因此,侧边区域(在图23A中用点填充的方式表示,在图23B和23C中由实线箭头表示)的投影血管线的宽度按如下计算:cos(40°)×(倾斜的侧边区域ARE-1(或ARE-2)的宽度)。
顺带地,此设备不对参考图像IMR的侧边区域ARR-1和ARR-2进行校正的原因与图18所示的相同。
(4-3)验证过程
验证部分33被设计来根据互相关函数将验证目标图像IME与参考图像IMR进行比较。结果,验证部分33获得互相关值。如果该互相关值大于或等于预定的阈值,则验证部分33判定用户是被登记在设备中的合法的人。而如果互相关值小于阈值,则验证部分33判定用户不是合法的。
在此,控制部分10首先通过将手指中的血管图案投影在平坦表面上来获得登记图像CIM2。控制部分10然后基于登记图像CIM2和参考图像IMR的特征点来搜索验证目标图像IME,并通过将验证目标图像IME与参考图像IMR进行比较来检查用户是否是合法的。
(5)认证过程
图24是示出了认证模式的认证过程的流程图。
当接收到认证模式执行指令COM2之后,控制部分10开始认证过程,然后进行到步骤SP21。在步骤SP21,控制部分10控制通知部分15,以通知用户其应该将其手指放置在拍摄位置,使得手指肚接触其表面,然后在该表面上滚动其手指。此外,控制部分10控制图像获取部分12,以开始拍摄。
当从图像获取部分12接收到图像数据(参考图像的数据)时,在步骤SP22,控制部分10在执行验证过程之前以与血管登记模式相同的方式执行压印处理、图案提取处理和特征点检测处理。
在随后的步骤SP23,控制部分10识别出参考图像IMR的有效区域ARR中的参考点的图案,作为搜索目标图案。控制部分10随后在登记图像CIM2中搜索与搜索目标图案(图22)相同或相似的图案。
如果控制部分10成功地找到了与搜索目标图案相同或相似的登记点的图案,则在步骤SP24,控制部分10基于通过左端和右端登记点之间的中点的垂直线CLNE从登记图像剪切验证目标图像IME(图22),所述验证目标图像IME的大小与参考图像IMR的相同并用于进行验证。控制部分10随后进行到步骤SP25。
在步骤SP25,控制部分10如图23A到23C所示校正验证目标图像IME:倾斜的侧边区域ARE-1和ARE-2被投影到平面FM上,使得它们与有效区域ARE处于相同的水平面上。
随后,在步骤SP26,控制部分10根据互相关函数将验证目标图像IME(在步骤SP25经过校正)与参考图像IMR(在步骤SP22获得)进行比较。结果,控制部分10获得互相关值。在随后的步骤SP27,控制部分10检查用户是否是合法的。
如果互相关值小于阈值,则控制部分10判定用户不合法,然后返回到步骤SP23,以再次进行该过程。
而如果互相关值大于或等于阈值,则控制部分10判定用户是合法的,然后进行到步骤SP28。在步骤SP28,控制部分10执行针对合法用户的处理,然后结束认证过程。
另一方面,如果在步骤SP23,控制部分10没有找出与搜索目标图案相同或者相似的登记点的图案,则意味着登记图像CIM2(图19B)可能没有这样的部分:所述部分与参考图像IMR的互相关值大于或等于阈值。在此情况下,控制部分10判定用户不是合法的。随后,在步骤SP29,控制部分10执行针对未登记用户的处理,然后结束认证过程。
以此方式,控制部分10以认证模式工作。
(6)操作和效果
在认证模式中,认证设备1检测输入参考图像IMR上的身体特征(即,手指的血管图案)的接合点、终点和转折点中的一部分或者全部,作为特征点。认证设备1随后在登记图像CIM2中搜索与有效区域ARR内的所检测出的特征点的图案相同或相似的图案。
以此方式,认证设备1使用即使当图像IMR模糊时也总是显现在参考图像IMR上的特征点。因此,认证设备1可以精确地确认用户。
此外,认证设备1被设计为从不同的角度获取手指的图像,将它们合成,然后基于合成图像CIM2验证用户。因此,与设备仅仅从一个角度获取手指图像相比,用户放置其手指的方式更自由。因此,认证设备1易于使用。
此外,如果待剪切的图像的宽度等于手指的宽度,则有效区域ARR的宽度为图像宽度的1/3。
如图16所示,这是仍可以消除失真的有效区域ARR的最大尺寸。因此,认证设备1可以在减小失真的同时,在登记图像CIM2的较大区域中搜索与特征点的图案相同或相似的图案。认证设备1因此可以精确地确认用户。
根据上述构造,在认证模式中,认证设备1检测输入参考图像IMR上的身体特征(即,手指的血管图案)的接合点、终点和转折点中的一部分或者全部,作为特征点。认证设备1随后在登记图像CIM2中搜索与有效区域ARR内的所检测出的特征点的图案相同或相似的图案。以此方式,认证设备1使用即使当图像IMR模糊时也总是显现在参考图像IMR上的特征点。因此,认证设备1可以精确地确认用户。
(7)其它实施例
在上述实施例中,被验证的生物测量特征是身体部分内的血管。但是,本发明不限于此。例如,神经(nerve)、指纹或者面部可以被用于验证。在一些情况下,设备可以不执行压印处理。
而且,在上述实施例中,被验证的身体部分是手指。但是,本发明不限于此。例如,手掌、脚趾、手臂或者眼睛可以被用于验证。
此外,在上述实施例中,压印部分21使用称为高斯滤波器的差分滤波器。但是,本发明不限于此。压印部分21也可以使用其它差分滤波器,诸如对数滤波器或者反差滤波器。压印部分21在差分滤波器之前或者之后可以包括空间滤波器等,以减小噪声。
此外,在上述实施例中,特征点检测部分23检测接合点、终点和转折点中的一些作为特征点。但是,本发明不限于此。特征点检测部分23可以检测接合点、终点或者转折点作为特征点。或者,特征点检测部分23可以检测所有的接合点、终点和转折点作为特征点。
此外,在上述实施例中,在图案提取处理使得图像的血管成为线形图案之后,特征点检测部分23检测特征点。但是,本发明不限于此。特征点检测部分23可以在处理手指图像之前或者在压印处理之后检测特征点。关于检测特征点的详细描述例如公开在日本专利公开No.2006-207033中。然而,设备可以使用称为Harris Corner的另一种差分滤波方法。
此外,在上述实施例中,位置差计算部分24从在先图像IM2检测出与当前图像IM1的引注块ABL亮度最接近的块RBL,然后将块RBL的中心点当作相应点XP(图9)。但是,本发明不限于此。位置差计算部分24可以从在先图像IM2中找出这样的块RBL:所述块RBL的亮度是小于引注块ABL亮度的预定值;然后将所述块RBL的中心点当作相应点XP。这可以更精确地检测相应点XP。
此外,在上述实施例中,位置差计算部分24在在先图像IM2上移动搜索区域SAR(图11)。但是,本发明不限于此。相反,位置差计算部分24可以在在先图像IM2上改变搜索区域SAR的形状。
在此情况下,位置差计算部分24计算当在先图像IM2被当作“当前”图像时计算的位置差与在先位置差之间的变化:计算出的变化由x和y分量(Vx-AVE,Vy-AVE)表示。根据计算出的变化,位置差计算部分24调整搜索区域SAR的缺省位置。
如图25所示(图25的若干部分由与图11的相应部分相同的标号和符号表示),如果计算出的变化为零,则意味着手指没有移动。在此情况下,设备围绕与AP相同的位置AP’将搜索区域SAR1布置在在先图像IM2上。另一方面,如果y分量(Vy-AVE)存在变化,则意味着手指在滚动。在此情况下,设备将搜索区域SAR2布置在在先图像IM2上,使得其一侧(与手指没有运动的方向的一致)被最小化,而另一侧(与手指运动的方向一致)根据手指的运动快慢进行调节。这样,搜索区域SAR2可以有效地覆盖手指在其中运动的区域。
此外,在上述实施例中,位置差计算部分24以如下方式计算位置差:位置差计算部分24基于从当前图像IM1检测的每一个点AP’或者特征点,在在先图像IM2上检测出相应点XP,然后计算从点AP’指向相应点XP的位置矢量的平均值(即水平矢量分量Vx的平均值和垂直矢量分量Vy的平均值)(图8A和8B)作为位置差。但是,本发明不限于此。或者,位置差可以是根据统计方法从位置矢量计算出的值(代表值),诸如位置矢量的最大值、最小值或者标准差。
此外,在上述实施例中,位置差计算部分24基于从当前图像IM1检测的所有特征点的每个位置AP’确定相应点XP(图8A和8B)。但是,本发明不限于此。或者,位置差计算部分24可以基于当前图像IM1的有效区域AR(图15)内的特征点的每个位置来确定相应点XP。这减小了反映在计算出的位置差上的失真校正的影响。因此,这使得设备可以更精确地计算位置差。
此外,在上述实施例中,图像合成处理部分25在从第一和最后一个图像剪切有效区域AR(图15)之前将第一和最后一个图像附加到扩展图像EXM(图18)。但是,本发明不限于此。可以将从第一和最后一个图像剪切的有效区域AR(图15)附加到扩展图像EXM上。
此外,上述实施例的验证方式是将参考图像IMR的整个区域与相应区域进行比较。但是,本发明不限于此。相反,设备可以仅仅将参考图像IMR的有效区域ARR与相应区域进行比较。
此外,在上述实施例中,设备在从图像提取图案之后将图像附加到扩展图像EXM。但是,本发明不限于此。相反,设备可以在压印处理之后将图像附加到扩展图像EXM,然后从其提取图案。
此外,在上述实施例中,设备被设计成登记扩展图像(CIM2(图19B))以及与该图像上的血管线有关的特征点数据。但是,本发明不限于此。或者,设备可以仅仅登记扩展图像。在此情况下,设备在认证模式下可以检测登记的点以及参考点;因此,设备可以提供与上述实施例相同的效果。
此外,在上述实施例中,设备被设计成登记扩展图像(CIM2(图19B))以及与该图像上的血管线有关的特征点数据。但是,本发明不限于此。或者,设备可以仅仅登记与扩展图像(CIM2(图19B))上的血管线有关的特征点数据。这使得设备可以不执行对当用户被验证时输入的参考图像和从登记图像剪切的验证目标图像进行比较的比较过程,减小了设备的处理工作量。
此外,在上述实施例中,设备通过执行存储在ROM中的程序而以血管登记模式或者认证模式工作。但是,本发明不限于此。这些程序可以从诸如光盘(CD)、数字多功能盘(DVD)或者半导体存储器的程序存储介质安装到设备中,或者可以通过因特网从程序供应服务器获得。
此外,在上述实施例中,登记过程和认证过程由控制部分10执行。但是,本发明不限于此。这些过程的一部分可以由图形工作站执行。
此外,在上述实施例中,认证设备1配备有图像获取功能、验证功能和登记功能。但是,本发明不限于此。这些功能中的一个或者一些可以由另一个设备实现。
上述方法可以应用于生物测量验证。
本领域技术人员应该理解,根据设计要求和其它因素,在权利要求或其等同物的范围内,可能进行各种修改、组合、子组合和替换。
相关申请的交叉引用
本发明包含涉及2006年12月15日递交给日本专利局的日本专利申请JP 2006-339059的主题,其全文通过引用被包含在本文中。

Claims (9)

1.一种验证设备,包括:
检测部分,所述检测部分检测输入图像上的身体部分的身体特征的接合点、终点和转折点的一部分或者全部,作为特征点,所述身体特征用于验证;以及
搜索部分,所述搜索部分在所述身体特征的登记图像中搜索如下图案,所述图案与下述图像的中心区域中的所述特征点的图案相同或者相似:所述图像的垂直中心线与所述身体特征的运动方向垂直,其中所述身体特征在所述身体部分被放置于其上的表面上水平运动,所述登记图像沿所述身体部分的弯曲表面获取,并且所述中心区域处于两条直线之间,所述两条直线各自沿相反方向与所述中心线相距预定距离。
2.如权利要求1所述的验证设备,还包括:
压印部分,所述压印部分将所述身体特征压印在输入图像上,
其中,所述检测部分从所压印的身体特征检测所述特征点。
3.如权利要求1所述的验证设备,还包括:
压印部分,所述压印部分将所述身体特征压印在输入图像上;以及
图案提取部分,所述图案提取部分提取所压印的身体特征作为线形图案,
其中,所述检测部分从所述线形图案检测所述特征点。
4.如权利要求1所述的验证设备,其中,
所述距离被确定成:如果所述身体部分的身体特征沿所述表面水平运动,则所述身体特征从所述中心线移动的距离与所述身体特征从所述直线移动的距离的比小于一个像素。
5.如权利要求1所述的验证设备,其中,如果待剪切图像的宽度的像素数等于手指宽度的像素数,则所述中心区域的宽度等于所述图像宽度的像素数的1/3。
6.如权利要求1所述的验证设备,还包括:
剪切部分,如果所述搜索部分找到了与所述中心区域中的所述特征点的图案相同或相似的图案,则所述剪切部分利用所述图案从所述登记图像剪切验证目标图像,所述验证目标图像用于与所述输入图像进行比较;
校正部分,所述校正部分校正所述验证目标图像,使得所述验证目标图像的端部区域上的血管线成为弯曲的,所述端部区域围绕所述验证目标图像的中心区域;以及
计算部分,所述计算部分计算经校正的验证目标图像与所述输入图像之间的互相关值。
7.如权利要求6所述的验证设备,其中,所述校正部分校正所述验证目标图像,使得相对于所述验证目标图像的所述中心区域以预定角度向后倾斜的所述端部区域投影在与所述中心区域相同的平面上。
8.一种验证方法,包括:
第一步骤,用于检测输入图像上的身体部分的身体特征的接合点、终点和转折点的一部分或者全部,作为特征点,所述身体特征用于验证;以及
第二步骤,用于在所述身体特征的登记图像中搜索如下图案,所述图案与下述图像的中心区域中的所述特征点的图案相同或者相似:所述图像的垂直中心线与所述身体特征的运动方向垂直,其中所述身体特征在所述身体部分被放置于其上的表面上水平运动,所述登记图像沿所述身体部分的弯曲表面获取,并且所述中心区域处于两条直线之间,所述两条直线各自沿相反方向与所述中心线相距预定距离。
9.一种程序,用于使计算机执行:
第一步骤,用于检测输入图像上的身体部分的身体特征的接合点、终点和转折点的一部分或者全部,作为特征点,所述身体特征用于验证;以及
第二步骤,用于在所述身体特征的登记图像中搜索如下图案,所述图案与下述图像的中心区域中的所述特征点的图案相同或者相似:所述图像的垂直中心线与所述身体特征的运动方向垂直,其中所述身体特征在所述身体部分被放置于其上的表面上水平运动,所述登记图像沿所述身体部分的弯曲表面获取,并且所述中心区域处于两条直线之间,所述两条直线各自沿相反方向与所述中心线相距预定距离。
CNA2007103022055A 2006-12-15 2007-12-17 验证设备、验证方法和程序 Pending CN101206717A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006339059A JP5012000B2 (ja) 2006-12-15 2006-12-15 照合装置、照合方法及びプログラム
JP2006339059 2006-12-15

Publications (1)

Publication Number Publication Date
CN101206717A true CN101206717A (zh) 2008-06-25

Family

ID=39566901

Family Applications (1)

Application Number Title Priority Date Filing Date
CNA2007103022055A Pending CN101206717A (zh) 2006-12-15 2007-12-17 验证设备、验证方法和程序

Country Status (3)

Country Link
US (1) US7983453B2 (zh)
JP (1) JP5012000B2 (zh)
CN (1) CN101206717A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106462943A (zh) * 2014-11-18 2017-02-22 谷歌公司 将全景成像与航拍成像对齐
CN110622588A (zh) * 2017-05-15 2019-12-27 脸谱公司 新的接入点设立
CN114826751A (zh) * 2022-05-05 2022-07-29 深圳市永达电子信息股份有限公司 一种多目标信息融合的卡尔曼滤波网络防控方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9129417B2 (en) * 2012-02-21 2015-09-08 Siemens Aktiengesellschaft Method and system for coronary artery centerline extraction
US9412203B1 (en) * 2013-01-22 2016-08-09 Carvana, LLC Systems and methods for generating virtual item displays
CN105095344B (zh) * 2015-05-29 2018-08-17 南昌正业科技有限公司 一种时空环数据结构的建模方法及装置
IL282209B1 (en) * 2016-03-08 2024-09-01 Dust Identity Inc A method and system to generate a unique code from intentional science
WO2018106887A1 (en) 2016-12-07 2018-06-14 Scheich Davo Vehicle photographic chamber
US10515281B1 (en) 2016-12-29 2019-12-24 Wells Fargo Bank, N.A. Blood vessel image authentication
US11412135B2 (en) 2018-12-05 2022-08-09 Ovad Custom Stages, Llc Bowl-shaped photographic stage
US12061411B2 (en) 2019-06-06 2024-08-13 Carvana, LLC Vehicle photographic system for identification of surface imperfections

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09178426A (ja) * 1995-12-26 1997-07-11 Tokyo Electric Power Co Inc:The 認識対象物体の位置姿勢認識装置および位置姿勢認識方法
CN1668244A (zh) * 2002-09-17 2005-09-14 富士通株式会社 生物特征信息获取设备和使用生物特征信息的认证设备
JP2006309656A (ja) * 2005-05-02 2006-11-09 Sony Corp 認証装置、登録方法、照合方法及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3558025B2 (ja) * 2000-09-06 2004-08-25 株式会社日立製作所 個人認証装置及び方法
JP4344986B2 (ja) 2002-05-13 2009-10-14 ソニー株式会社 認証方法及び認証装置
JP3972779B2 (ja) * 2002-09-20 2007-09-05 株式会社日立製作所 個人認証装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09178426A (ja) * 1995-12-26 1997-07-11 Tokyo Electric Power Co Inc:The 認識対象物体の位置姿勢認識装置および位置姿勢認識方法
CN1668244A (zh) * 2002-09-17 2005-09-14 富士通株式会社 生物特征信息获取设备和使用生物特征信息的认证设备
JP2006309656A (ja) * 2005-05-02 2006-11-09 Sony Corp 認証装置、登録方法、照合方法及びプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106462943A (zh) * 2014-11-18 2017-02-22 谷歌公司 将全景成像与航拍成像对齐
CN110622588A (zh) * 2017-05-15 2019-12-27 脸谱公司 新的接入点设立
CN114826751A (zh) * 2022-05-05 2022-07-29 深圳市永达电子信息股份有限公司 一种多目标信息融合的卡尔曼滤波网络防控方法
CN114826751B (zh) * 2022-05-05 2022-10-28 深圳市永达电子信息股份有限公司 一种多目标信息融合的卡尔曼滤波网络防控方法

Also Published As

Publication number Publication date
JP5012000B2 (ja) 2012-08-29
US20080187182A1 (en) 2008-08-07
JP2008152481A (ja) 2008-07-03
US7983453B2 (en) 2011-07-19

Similar Documents

Publication Publication Date Title
CN101206717A (zh) 验证设备、验证方法和程序
CN106599772B (zh) 活体验证方法和装置及身份认证方法和装置
US20190295267A1 (en) Detecting specified image identifiers on objects
US8908934B2 (en) Fingerprint recognition for low computing power applications
US20110044513A1 (en) Method for n-wise registration and mosaicing of partial prints
WO2018176514A1 (zh) 指纹配准方法及装置
CN101206716B (zh) 登记设备和登记方法
WO2015146101A1 (ja) 顔照合装置、方法、及び、記録媒体
US20120057763A1 (en) method for recognizing the identity of user by biometrics of palm vein
CN110136069A (zh) 文本图像矫正方法、装置与电子设备
KR20090058460A (ko) 인증 장치 및 인증 방법
Prommegger et al. Rotation invariant finger vein recognition
CN113496183A (zh) 指纹匹配方法、装置、电子设备及可读存储介质
CN115937003A (zh) 图像处理方法、装置、终端设备和可读存储介质
JP2008287354A (ja) 登録装置、照合装置、プログラム及びデータ構造
CN110187806B (zh) 指纹模板录入方法及相关装置
KR101072352B1 (ko) 지문인증 장치 및 그 방법
WO2009008550A1 (ja) 登録装置、照合装置、データ構造及び記憶媒体
JP4589224B2 (ja) 3次元パターン照合装置
CN101657841A (zh) 信息提取方法、登记设备、验证设备和程序
CN101617338A (zh) 物体形状生成方法、物体形状生成设备及程序
CN113516096B (zh) 指静脉roi区域提取方法及装置
US20070071325A1 (en) Systems and methods for recognizing objects in an image
CN110276249B (zh) 立体手掌图像摆正方法及装置
JP2001076142A (ja) 指紋画像照合方法及び装置及びこの方法を記録した記録媒体

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20080625