CN101897590B - 生物认证装置和生物认证方法 - Google Patents

生物认证装置和生物认证方法 Download PDF

Info

Publication number
CN101897590B
CN101897590B CN200910224866XA CN200910224866A CN101897590B CN 101897590 B CN101897590 B CN 101897590B CN 200910224866X A CN200910224866X A CN 200910224866XA CN 200910224866 A CN200910224866 A CN 200910224866A CN 101897590 B CN101897590 B CN 101897590B
Authority
CN
China
Prior art keywords
image
palm
information
motion
forms
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN200910224866XA
Other languages
English (en)
Other versions
CN101897590A (zh
Inventor
渡边正规
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of CN101897590A publication Critical patent/CN101897590A/zh
Application granted granted Critical
Publication of CN101897590B publication Critical patent/CN101897590B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)
  • Image Input (AREA)

Abstract

本发明涉及生物认证装置和生物认证方法。所述生物认证装置和生物认证方法包括从获得的多个图像中提取代表图像形成对象的弯曲和伸展的运动信息,并且基于该运动信息确定该图像形成对象是否是生物对象。

Description

生物认证装置和生物认证方法
技术领域
此处描述的实施方式涉及使用从诸如手掌等的生物对象获取的图像的生物确定。
背景技术
例如,存在使用手掌的脉管图案的生物认证。该认证利用了血管中的还原血红蛋白吸收近红外光这一事实。在接近手掌表面的静脉中包括该还原血红蛋白。对照射到手掌上的近红外光的反射光进行图像形成。可以从通过这种手段而获得的图像中将手掌的静脉图案提取为黑线部分。通过使用该静脉图案,可以识别生物对象,并且可以检查作为生物对象的个体。
关于作为这种认证方法的预备工作而执行的生物确定,日本专利特开平2003-111749号公报讨论了一种这样的方法:测量身体的电输出特性,通过将它们与人体的电输出特性进行比较来确定该身体是否是人体。
而且,日本专利特开2007-524441号公报讨论了如下的生物确定方法:使用多光谱来分析照射到身体的光的散射光,并且确认散射光的频率结构是否与从人体发射的散射光的频率结构相同。
而且,日本专利特开2002-150296号公报讨论了如下的动态生物认证:对人的运动匹配和图像进行二维处理和匹配。
发明内容
技术问题
然而,日本专利特开2003-111749号公报中描述的这种电输出特性测量需要使生物对象的一部分与装置接触,所以不适用于非接触式手掌静脉识别。而且,该方法要求天线以及传感器的布置,必须安装不同于传感器的装置。而且,日本专利特开2007-524441号公报中描述的这种散射光多光谱分析需要用于检查光频率特性的装置。这种装置一般价格昂贵,传感器的成本增加。而且,日本专利特开2002-150296号公报中描述的对人的运动的核对和图像的二维处理和核对的这种核对可能会出错,因为人的运动是三维的。
日本专利特开平2003-111749号公报、日本专利特开2007-524441号公报以及日本专利特开平2002-150296号公报没有披露或揭示这些类型的要求和问题,也没有披露或揭示用于解决这些要求和问题的结构等。
这里,关于生物确定的本公开的生物认证装置、生物认证方法或其上记录有生物认证程序的记录介质的目的是使用被检查对象的运动来确定该对象是否是生物对象。
而且,关于生物确定的本公开的生物认证装置、生物认证方法或其上记录有生物认证程序的记录介质的另一目的是使用生物对象的运动来确定其是否是已登记的人。
技术方案
根据一个实施方式,一种生物认证装置包括图像形成部和确定部,所述确定部在从所述图像形成部获得的多个图像中提取代表图像形成对象的弯曲和伸展的运动信息,并且基于该运动信息来确定所述图像形成对象是否是生物对象。根据所述实施方式,并且提供了一种生物认证方法。
通过权利要求中特别指出的元件和组合而实现并获得本发明的目的和优点。应当理解,上文对本发明的概述与下文对本发明的详述都是示例性和解释性的,旨在提供对如权利要求所述发明的进一步解释。
附加的特征和/或优点部分地将在下面的描述中阐述,部分地将从描述中显现,或者可以通过本发明的实践来了解。
本发明的有利效果
根据本公开的生物认证装置或生物认证方法,获得如下这些方面的有利效果。
1.因为本公开的结构使得作为图像形成对象的生物对象发生弯曲和伸展,对其进行图像形成,并且使用来自通过图像形成而获得的多个图像中的生物对象运动信息进行确定,所以提高了对图像形成对象是否是生物对象的确定的准确度。
2.因为本公开的结构使得作为图像形成对象的生物对象发生弯曲和伸展,对其进行图像形成,并且使用来自通过图像形成而获得的多个图像中的生物对象运动信息来确定该图像形成对象是否是生物对象,所以提高了使用获得的生物对象运动信息和已登记运动信息的比较来确定被检查者是否是已登记人的准确度。
3.因为本公开的结构通过使用由于生物对象的弯曲和伸展而产生的运动公共模型来进行核对从而确定图像形成对象是否是生物对象,所以即使在登记时的生物对象运动和确定时的生物对象运动稍有不同的情况下,也可以确定图像形成对象是否是生物对象。
4.针对非接触式的血管图案识别等,本公开的结构可以使用低价格的传感器来实现使用生物对象的图像来确定对象是否是生物对象。
5.由于本公开的结构可以使用人类公共的运动进行核对,还可以从多个图像中提取并核对三维信息,所以提高了确定对象是否是生物对象的准确度。
附图说明
本发明的这些和/或其他方面和优点将在结合附图的对实施方式的以下描述中变得明显且更容易理解,附图中:
图1示出根据实施方式的生物认证装置;
图2示出手掌传感器的操作的一个示例;
图3是示出全面的生物确定处理的流程图;
图4是示出手掌运动公共特征产生处理过程的流程图;
图5是示出被检查者的确定用生物对象特征登记处理的流程图;
图6是示出确定处理过程的流程图;
图7A、7B和7C是用于说明手掌区域的提取的图;
图8是示出在存在照明的状态下的手掌的图像的照片;
图9是示出在没有照明的状态下的手掌的图像的照片;
图10是用于说明高度检测原理的图;
图11是说明高度计算的图;
图12是用于说明使用反射系数来执行距离转换的原理的图;
图13示出校准表面的图像;
图14示出距离图;
图15示出在距离图产生中使用的手掌传感器;
图16示出距离图产生功能部;
图17是示出用于距离图产生的预备处理的过程的流程图;
图18是示出用于距离图产生的执行处理的过程的流程图;
图19是示出手掌区域距离计算示例的照片;
图20是示出手掌运动提取处理过程的流程图;
图21是示出手掌运动信息表达归一化处理过程的流程图;
图22A和22B示出手掌张开的状态和手掌开始合拢的状态;
图23示出图像帧;
图24是示出手掌区域高度归一化的图;
图25A和25B是示出手掌区域尺寸归一化的图;
图26A和26B是示出手掌区域位置归一化的图;
图27A和27B是示出手掌区域朝向归一化的图;
图28是示出手掌运动帧时间归一化的图;
图29A和29B是示出手掌运动公共特征和被检查者的运动特征的图;
图30A和30B是图像帧比较图;
图31是示出根据实施方式的处理过程的流程图;
图32是示出拟合到归一化手掌图像的椭圆球的图;
图33A、33B、33C、33D和33E是示出手掌张开和合拢时椭圆球的拟合的图;
图34是示出根据实施方式的处理过程的流程图;
图35A、35B和35C是用于说明手掌表面的形状的计算的图;
图36是示出根据实施方式的处理过程的流程图;以及
图37示出根据实施方式的生物认证装置的硬件结构。
具体实施方式
下面将详细描述本发明的优选实施方式,在附图中例示出了其示例,在附图中通篇用相同的标号代表相同部件。参考附图,下面描述实施方式以解释本发明。
对于一个实施方式,参考图1和2。图1示出一种生物认证装置。图2示出手掌传感器的操作的一个示例。图1和2中示出的结构是示例,本发明不限于这种结构。
生物认证装置2是认证装置的一个示例。当诸如手的生物对象发生弯曲和伸展时,生物认证装置2基于手掌从张开状态转变到合拢状态的操作,即例如从张开状态通过抓握操作的转变操作,来对图像进行图像形成(捕捉),并且获取多个图像。然后,生物认证装置2从这些图像中获得手掌运动信息,并且确定图像形成对象是否是人手。在运动不是人手掌的运动的情况下,生物认证装置2确定图像形成对象不是手掌,即不是生物对象。生物认证装置2可以用在使用静脉识别等的生物认证中。使用有源照明基于亮度的三维测量技术用于生物认证装置2的认证对象的形状的测量。使用生物认证装置2确定对象是否是生物对象的操作利用所有人类公共的运动而不是被检查者的个体运动。然后,确定操作基于三维形状确认从运动信息提取的运动特征的相似性,而不是操作图像的相似性。
生物认证对象2例如以手掌4为确定对象,作为生物对象的确定区域,如图1所示。生物认证装置2包括手掌传感器6、手掌区域提取部8、手掌区域距离计算部10、手掌运动距离图存储部12、手掌运动特征提取部14、手掌运动公共特征提取部16、手掌运动公共特征存储部18、手掌运动特征匹配部20、生物对象特征数据产生部22、生物对象特征存储部24以及生物对象特征数据匹配部26。
作为从生物对象、生物对象的特定部位等获取图像的生物传感器的非限制性示例,手掌传感器6是从作为确定对象的手掌4获取用于确定其是否是人的图像的检测部的一个示例。手掌传感器6捕捉从被光照射的手掌4反射的光,对手掌4进行图像形成,并且获取其图像。手掌传感器6包括图像形成部28、照明部30、照明控制部32、图像形成控制部34以及图像获取部36。作为对手掌4进行图像形成的图像形成部的一个示例,图像形成部28是诸如数字照相机的图像形成仪器。图像形成部28获取用于读取手掌4的血管图案的图像。本实施方式获取捕捉从手掌4的张开状态到合拢状态的运动的图像、以及捕捉从手掌4的合拢状态到张开状态的运动的图像。图像形成控制部34根据图像形成的定时和手掌4的操作转变来控制图像形成的数量。
照明部30是用光来照射作为确定对象的手掌4的照明部的一个示例。照明部30包括两个功能。第一功能是用光均匀地照射手掌4以读取手掌4的血管图案的功能。第二功能是在不同于图像形成部28的光轴的已知方向中发射光束以测量从手掌传感器6(图像形成部28)到手掌4的距离的功能。只要图像形成中使用的光的波长在图像形成部28的检测范围内就足够了。如图2所示,接收来自照明部30的照明光的手掌4反射光。捕捉反射光的图像形成部28对手掌4进行图像形成。照明控制部32控制照明部30的光及其发射量。
图像获取部36获取由图像形成部28获得的图像。将从图像获取部36输出的图像信息添加到手掌区域提取部8。
手掌区域提取部8是提取生物对象的区域的提取部的一个示例。在实施方式中,手掌区域提取部8(其为提取作为确定信息对象的手掌区域的单元)例如使用图像处理来提取手掌区域。
手掌区域距离计算部10是计算生物区域的距离的计算部的一个示例。在实施方式中,手掌区域距离计算部10(其为计算位置已知的作为确定对象的手掌4的可选部分的距离的处理部)基于图像信息计算手掌区域的距离。可以基于如下的图像:所述图像是对位于已知距离并且具有均匀的同一反射系数的基准对象进行图像形成而得到的、并且基于手掌4所在的位置已知的可选距离,来计算手掌4相对于基准对象的相对反射系数。使用这种相对反射系数,手掌区域距离计算部10例如通过使用光强度与距离的平方成反比的原理,来计算手掌传感器6和手掌区域之间的距离。
手掌运动距离图存储部12是生物对象运动距离图存储部的示例。例如作为数据存储部的手掌运动距离图存储部12存储根据使用手掌区域距离计算部10计算出的距离而产生的距离图。
手掌运动特征提取部14是提取生物对象的运动特征的处理部的一个示例。在实施方式中,手掌运动特征提取部14提取手掌14的运动特征。手掌运动特征提取部14基于手掌区域距离计算部10计算出的手掌区域距离来提取手掌4的运动特征。
手掌运动公共特征提取部16是提取生物对象运动公共特征的处理部的一个示例。在实施方式中,手掌运动公共特征提取部16是提取手掌4的运动的公共特征的处理部。手掌运动公共特征提取部16基于存储在手掌运动距离图存储部12中的表示手掌4的运动的距离图来提取手掌4的运动的公共特征。
手掌运动公共特征存储部18是存储生物对象运动公共特征的存储部的一个示例。例如,作为数据存储部,手掌运动公共特征存储部18存储使用手掌运动公共特征提取部16提取的手掌4的运动的公共特征。
手掌运动特征匹配部20是对生物对象的运动特征进行匹配的匹配部的一个示例。在实施方式中,手掌运动特征匹配部20是对手掌4的运动特征进行匹配并确定其是否是生物对象的确定部的一个示例。手掌运动特征匹配部20将登记时或认证时的手掌4的运动特征进行匹配,并且输出匹配结果,作为其是否是生物对象的确定结果。
生物对象特征数据产生部22是产生生物对象特征数据的处理部的一个示例。生物对象特征数据产生部22使用来自手掌区域提取部8的手掌区域信息以及来自手掌运动特征匹配部20的手掌运动特征信息,产生生物对象特征数据。
生物对象特征存储部24是存储生物对象特征数据的存储部的一个示例。生物对象特征存储部24例如存储诸如静脉识别数据的个人认证数据。
生物对象特征数据匹配部26是对认证时的生物对象特征数据进行匹配的匹配部的一个示例。生物对象特征数据匹配部26将存储在生物对象特征存储部24中的登记数据和由生物对象特征数据产生部22获得的生物对象特征数据进行匹配。根据作为确定对象的生物对象特征数据是否与登记数据相匹配,生物对象特征数据匹配部26确定被检查者是否是已登记的人。即,在确定被检查者是生物对象之后,执行他或她是否是已登记人的认证。
接下来,参考图3至6描述对被检查者是否是生物对象的确定。图3是示出全面的生物确定处理的流程图。图4是示出手掌运动公共特征产生处理过程的流程图。图5是示出确定用生物对象特征登记处理过程的流程图。图6是示出确定处理的过程的流程图。图3至6中示出的处理是示例,本发明不限于这些处理。
在该生物确定中,使用如下的处理过程(图3):使用运动(例如作为生物对象的手掌4从张开状态到合拢状态的转变操作)的特征信息来执行确定。该处理过程是使用生物认证方法或生物认证程序来执行的处理的一个示例。如图3所示,处理过程产生手掌运动公共特征(操作S1)、登记被检查者的确定用生物对象特征(操作S2),并且使用登记的信息执行确定处理(操作S3)。作为主例程(即为该处理过程)的子例程,执行手掌运动公共特征产生处理过程(图4)、被检查者的确定用生物对象特征登记处理过程(图5)、以及确定处理过程(图6)。
如图4所示,手掌运动公共特征产生处理过程包括如下的阶段:对于所有多个人的处理(F0)、多人的手掌4的运动的图像形成(F1)、以及向通过图像形成获得的每个图像的距离图的转换(F2)。通过使用该处理过程,基于多人的距离图来提取手掌运动公共特征。
作为对于所有多个人的处理F0,处理过程开始图像形成(操作S11),并且提示被检查者张开手掌4(操作S12)。被检查者遵循提示张开手掌4,将其置于张开状态。此时,确认手掌4静止(操作S13)。接下来,处理过程提示被检查者从静止状态合拢手掌4(操作S14),在从张开状态到合拢状态的状态转变过程中对手掌4进行图像形成,并且获取多个图像。随后,处理过程完成图像形成(操作S15),作为对各个图像形成得到的帧的处理,执行到距离图的转换(操作S16),针对每个帧执行处理,并且在针对多人(用户)捕捉的数据的基础上产生运动特征(操作S17)。接着,处理过程从获取的多个图像中计算各人的运动特征的平均值(操作S18),将其存储在手掌运动公共特征存储部18中(操作S19),并且完成处理。
针对被检查者的确定用生物对象特征登记处理过程包括与登记之前执行的运动公共特征的匹配处理F3(图5)。如图5所示,处理过程对被检查者的手掌4的运动进行图像形成(操作S21),将图像形成得到的帧转换成距离图(操作S22),并且提取手掌4的运动特征(操作S23)。在完成此处理之后,执行前述匹配处理F3。
匹配处理F3将被检查者的手掌运动特征与手掌运动公共特征进行比较(操作S24),并且执行它们是否匹配的确定(操作S25)。如果在匹配处理F3中确定它们匹配(操作S25:是),则处理过程从图像形成获得的图像帧中提取生物对象特征(操作S26),将生物对象特征存储在生物对象特征存储部24中(操作S27),并且完成处理。
而且,如果在操作S25中不存在匹配(操作S25:否),则匹配处理F3确定不能登记(NG)(操作S28),并且完成处理。
包括对从图像提取的运动与公共特征的匹配(F4)以及对从图像帧提取的生物对象特征与登记的生物对象特征的匹配(F5)在内的确定处理过程基于这些匹配来执行手掌是否是生物对象的确定。这里,如图6所示,处理过程对被检查者的手掌4的运动进行图像形成(操作S31),并且将图像形成得到的帧转换成距离图(操作S32)。而且,处理过程从图像形成得到的帧提取手掌4的运动特征(操作S33),将被检查者的手掌运动特征与手掌运动公共特征进行比较(操作S34),并且执行它们是否匹配的确定(操作S35)。如果确定它们匹配(操作S35:是),则处理过程从图像形成得到的帧提取生物对象特征(操作S36),从生物对象特征存储部24检索被检查者的登记生物对象信息(操作S37),并且将从图像形成得到的帧提取的生物对象特征与从生物对象特征存储部24检索的生物对象特征进行比较(操作S38)。基于该比较,处理过程执行是否存在匹配的确定(操作S39),并且如果存在匹配(操作S39:是),则确定可以登记(操作S40),而如果不存在匹配(操作S39:否),则确定不能登记(NG)(操作S41),并且结束处理。
而且,如果在操作35中不存在匹配(操作S35:否),则处理过程确定不能登记(NG)(操作S41),并且结束处理。
接下来,参考图7A、7B、7C、8和9描述手掌区域的提取。图7A至7C是用于说明手掌区域的提取的图。图8是示出表示在存在照明的状态下的手掌的图像的照片。图9是示出表示在没有照明的状态下的手掌的图像的照片。图7A至7C、8和9是示例,本发明不限于这些结构。
与手掌区域的提取相关地调节或设置手掌4的照明强度。取与照明部30相距特定距离(例如约10cm)内的范围作为照明界限,将强度设置为使得光不超过该范围。在这种设置的情况下,被检查者将手掌4按照其与手掌传感器6相距约10cm之内的方式保持在手掌传感器6上。图像形成部28拍摄其中对接收光的手掌4进行图像形成而得到的图像(图7A和8)以及其中在光熄灭时对手掌4进行图像形成而得到的图像(图7B和9)。在通过对接收光的手掌4进行图像形成获得的图像38中,背景图像42与表示手掌4的图像40一起出现,如图7A所示。在通过在光熄灭时对手掌4进行图像形成而获得的图像44中,代表手掌4的图像40以及背景图像42都模糊地出现,如图7B所示。
这里,通过计算图像38和44之间的差异,从图像44去除与代表手掌4的图像40不同的部分(背景图像42),如图7C所示。因此,获得手掌4的清晰图像40。即,可以将手掌区域提取为差别图像中的其中亮度值不是零的区域,即,差别图像中的亮度值等于或大于特定阈值的区域。图8是对接收光的手掌4进行图像形成而得到的实际图像。图9是光熄灭时对手掌4进行图像形成而得到的实际图像。
为了更详细地进行描述,在手掌区域的提取中执行如下种类的处理。将通过用光照射手掌4并且进行图像形成而获得的图像取为Ion(x,y){0<x<w,0<y<h}。这是二位阵列,辉度值作为无符号8位整数存储在每个元素中。w表示图像的宽度,而h表示图像的高度。
将通过熄灭照射部30并且在不使用照明光的情况下对手掌4进行图像形成而获得的图像取为Ioff(x,y){0<x<w,0<y<h}。
针对这些阵列的每个元素,即,0<i<w,0<j<h的每个(i,j)对,取两个图像之间的差异。当差异的绝对值小于预定阈值t时,确定阵列的元素(图像中的像素)不是手掌区域。这由如下公式(1)表示:
|Ion(x,y)-Ioff(x,y)|≥t    …(1)
确定满足公式(1)的像素(i,j)是手掌区域,而不满足公式(1)的像素不是手掌区域。
接下来,参考图10至19描述手掌区域距离的计算和距离图。图10是用于说明高度检测原理的图。图11是用于计算高度的图。图12是用于说明使用反射系数执行距离转换的原理的图。图13示出校准表面的图像。图14示出距离图。图15示出用于距离图产生的手掌传感器。图16示出距离图产生功能部。图17是示出用于距离图产生的预备处理过程的流程图。图18是示出用于距离图产生的执行处理过程的流程图。图19是示出手掌区域距离计算示例的照片。图10至19是示例,本发明不限于此。在图12、15和16中,对与图1的部分相同的部分使用与图1相同的参考标号和字符。
在计算到手掌区域的距离时,如图10所示,计算从光源31照射的光束46入射在手掌4上的位置48的高度l。发射光束46的光源31布置在与图像形成部28相距d的位置,在包括透镜焦点的与图像形成部28的光轴50垂直相交的平面52内。在包括图像形成部28、其光轴50和光源31的平面内,相对于平行于光轴50的光源31的中心轴,在图10的情况中,光束46的方向相对于图像形成部28的光轴50具有角度θ的倾斜。
假定图像形成部28的场角的一半为α,从透镜焦点到手掌4的高度是l,包括图像形成部28和光源31的平面52与图像64的水平轴形成的角度为φ(图11)。然后,假定平面52和图像64的边缘相交,如图11所示。由于光束46的位置48与图像64的边缘在图像64中的相对关系和它们在真实世界的相对关系相等,下式(2)成立。
a W = d + l tan θ l tan α . . . ( 2 )
注意W=h/sinφ,并且a=d+x。通过基于手掌4的高度l来求解公式(2),获得下式(3)。
l = d a W tan α - tan θ . . . ( 3 )
根据公式(3),基于光束46入射到图像64中的位置48获得手掌4的高度l。通过获取在开启光束46时的图像和在熄灭光束46时的图像之间的差异、并且计算差异图像中的明亮区域的中心的坐标,来获得光束46入射到图像64中的位置48。
接下来,参考图12来描述利用测量结果作为基准、使用反射系数来执行距离转换的原理。如图12所示,假定均匀颜色的纸张布置在已知高度ZC,并且获取与图像形成校准表面66上的亮度相关的图像。实际上,获得图13中示出的图像68作为校准表面66。由于亮度与距离的平方成反比地减小,从下式(4)获得图12中的6个变量。
Z F = r F E C r C E F Z C . . . ( 4 )
这样,当使用光束46时,手掌4上的测量点的辉度EF和距离ZF是已知的,所以获得反射系数之比rF/rC。当知道反射系数之比rF/rC时,因为根据光束46而获知与测量点不同的点的辉度EF,所以可以计算每个点的距离ZF。EC是校准表面66的辉度,ZC是透镜焦点与校准表面66之间的距离,rC是校准表面66的漫反射系数,EF是作为测量对象的手掌4(对象)的辉度,ZF是透镜焦点和手掌4之间的距离,并且rF是手掌4的漫反射系数。
接下来,获得手掌4的距离图。在与手掌4的图像相同尺寸的二维阵列的每个元素中,定义了存储有前述距离ZF的二维阵列。该二维阵列是以距离作为元素的阵列,其被称为“距离图”。当使用CG技术来显现距离图而使得其轮廓线可见时,获得如图14所示的这种可视化距离图。
包括距离图产生功能的手掌传感器6包括位于遮光框70的中央的图像形成部28,并且包括作为多个照明部30的手掌照明装置302、304、306和308、以及位于图像形成部28外围的光束照明装置310(光源31),如图15所示。手掌照明装置302、304、306和308是照射整个手掌的光源。光束照明装置310是发射光束46的光源。
在使用这种手掌传感器6的情况下,如图16所示,设置有校准表面存储部72和光束位置检测部74,作为用于实现距离图产生功能的结构。作为预定存储介质,校准表面存储部72存储校准表面的高度、图像等作为与校准表面66相关的上述信息。光束位置检测部74检测光束46入射的位置。手掌区域距离计算部10基于与校准表面66相关的信息、手掌区域、以及光束位置,来计算手掌区域的距离且产生距离图。因此,手掌区域距离计算部10是距离图产生部的一个示例。
距离图的产生是这样的:在预备处理(图17)之后,进行执行处理(图18)。预备处理的过程是使用校准表面66的前述处理的过程。如图17所示,首先,该处理过程在已知高度布置均匀颜色的对象(校准表面66)(操作S51)。接着,处理过程执行对校准表面66的图像形成(操作S52),在校准表面存储部72中存储校准表面66的高度和图像(操作S53),并且完成预备处理。
而且,如图18所示,执行处理过程开启光束照明装置310(操作S61),并且使用光束46执行对手掌4的图像形成(操作S62)。处理过程将通过该图像形成而获得的图像存储在校准表面存储部72中,作为图像B(操作S63)。
接下来,处理过程熄灭光束照明装置310(操作S64),并且开启手掌照明装置302、304、306和308(图16)(操作S65),对手掌4进行照明(操作S65)。接着,处理过程在用光照射整个手掌的状态下执行对手掌4的图像形成(操作S66),并且将通过该图像形成而获得的图像存储在校准表面存储部72中,作为图像A(操作S67)。
接下来,处理过程熄灭手掌照明装置302、304、306和308(操作S68),在没有用光照射手掌4的情况下对手掌4进行图像形成(操作S69),并且存储通过该图像形成而获得的图像作为图像C(操作S70)。
处理过程获取以这种方式获得的图像B和图像C之间的差异,并且以该差异作为图像D(操作S71)。处理过程计算图像D中的明亮区域的中心坐标(操作S72),计算手掌4和校准表面66的反射系数之比rF/rC(操作S73),并且通过获取图像A和图像C之间的差异来计算手掌区域S(操作S74)。最后,处理过程计算手掌区域S的每个像素与手掌传感器6的距离(S75),并且获得距离图数据。由此,处理过程完成执行处理。
使用这种处理,在图像形成部28中获得图19中示出的手掌4的这种图像76。在这种图像的情况下,因为被边界78环绕的部分处于朝手掌传感器6垂下的状态,所以它看上去比图像76中的其他手指大。即,从这种图像可以知道手指处于下垂状态。
接下来,将参考图20和21描述手掌运动的提取。图20是示出手掌运动提取处理过程的流程图。图21是示出手掌运动信息表达归一化处理过程的流程图。图20和21中示出的处理是示例,本发明不限于这些处理。
手掌运动提取处理过程是获取表示手掌4从张开状态转变到合拢状态的操作的图像的处理。如图20所示的处理过程执行对象帧的提取(操作S81),并且对手掌4运动信息表达进行归一化(操作S82)。
对象帧提取处理(操作S81)提示被检查者张开手掌4,监视获得的图像,并且针对图像的每个帧计算手掌区域距离(图18)。然后,在手掌区域内的距离值的分散变得等于或小于预定阈值并且在相邻帧之间不再存在任何波动时,提取处理确定手掌4处于张开状态(张开状态)。即使在确定了手掌4张开之后,图像监视和手掌区域距离计算仍然继续。
在确定了手掌4处于张开状态之后,提取处理提示被检查者合拢手掌4。然后,提取处理以前述方式计算手掌区域内的距离值的分散,并且在相邻帧之间不再存在任何波动时,确定手掌4的运动处于停止状态(合拢状态)。提取处理将当手掌处于该状态时获得的距离图像作为手掌合拢时的距离图像。
可以将从确定了手掌4张开时到确定了手掌4合拢时的图像帧作为从手掌4张开时到手掌4合拢时的手掌4的运动,记录为距离值。如图21所示,在处理过程中,对距离值进行归一化(操作S91)。为了归一化,针对所有图像帧计算手掌区域内的距离的最小和最大值。然后,处理过程寻找最小值和最大值之间的差异最大的帧,并且对所有的帧进行归一化,使得差异变为预定的K。
接下来,处理过程对手掌区域的高度的信息进行归一化(操作S92)。为了执行该归一化处理,计算手掌区域中的距离的最大值。为了使手掌看上去放置在预定高度H,处理过程按照使得距离的最大值等于高度H的方式来转换手掌4的距离图像。即,在距离的最大值是高度h的情况下,将手掌区域放大或减小H/h的比例。然后,处理过程将H-h加到像素值。
接下来,处理过程对手掌区域的尺寸的信息进行归一化,使得每个帧中的手掌区域的面积达到预定像素数量S(操作S93),对手掌区域的位置进行归一化(操作S94),并且对手掌区域的朝向进行归一化(操作S95)。在手掌区域朝向归一化处理中,处理过程计算手掌4的二维运动,基于计算的结果将图像二维旋转,使得手掌区域的长轴沿着图像的垂直方向。
然后,处理过程对手掌4运动帧进行时间归一化(操作S96)。即,处理过程假定当手掌4张开时的帧的时间t为t=0,并且当手掌4合拢时的帧的时间t为t=1,并且对手掌4处于张开状态和其处于合拢状态之间的帧(时间t介于0与1之间的图像帧)进行时间归一化。时间归一化处理例如从t=0到t=1按时间t的0.1的增量而记录11个帧。在从时间t=0.1到时间t=0.9中存在没有帧的时间的情况下,归一化处理为该时间的帧插入最接近该时间的时间的帧的图像。
距离值归一化(操作S91)
将参考图22A、22B和23描述距离值归一化。图22A示出手掌张开的状态,图22B示出手掌开始合拢的状态。图23示出图像帧。图22A、22B和23中示出的结构是示例,本发明不限于这种示例。
距离值归一化使用从手掌4张开的状态(图22A)到其合拢的状态的手掌4的图像帧(图23)。归一化处理针对所有帧计算每个帧中手掌区域内的最小值dmin和最大值dmax。如图22B所示,在手掌4开始合拢的状态下,拇指下垂,手掌与手掌传感器6最接近。此时,手掌区域和手掌传感器6之间的距离是最小值dmin。归一化处理寻找最小值dmin和最大值dmax之间的差异(dmax-dmin)最大的帧,并且对所有的帧进行归一化,使得差异变为预定的K(图22B)。如图23所示,当假定手掌4合拢时的图像帧是图像帧80n时,从手掌4张开时的图像帧801开始的对象图像帧由n个图像帧构成。如图23所示,将时间t放置在水平轴上,图像帧通过801、802等而转变为80n。
归一化处理针对这种图像帧801至80n中的每一个计算最大值dmax和最小值dmin,并且对每个图像帧进行转换,使得其中最大值和最小值之间的差异(dmax-dmin)最大的图像帧80k中的差异为K。
假定其中差异(dmax-dmin)最大的帧的编号为Kmax,使用下式(5)获得在对第k帧的距离图dk(i,j)进行归一化之后的距离图d′k(i,j)。
d ′ k ( i , j ) = K d max ( k max ) - d min ( k min ) { d k ( i , j ) - d max ( k ) - d min ( k ) 2 } + d max ( k ) - d min ( k ) 2 . . . ( 5 )
注意第k帧的dmax和dmin分别是dmax(k)和dmin(k)。
手掌区域高度归一化(操作S92)
该归一化处理计算手掌区域和手掌传感器6之间的距离最大值,并且,为了使得手掌4看上去放置在预定高度H,按照使得距离最大值等于高度H的方式转换手掌4的距离图像。即,在距离的最大值是h的情况下,按H/h的比例将手掌区域放大或缩小。然后,归一化处理将H-h加到像素值。当手掌4处于张开状态时的示意图如图24所示。
使用下式(6)获得在对每个帧的距离图d′(i,j)进行归一化之后的距离图d″(i,j)。
d ′ ′ ( i , j ) = d ′ ( h H i , h H j ) + ( H - h ) . . . ( 6 )
手掌区域尺寸归一化(操作S93)
接下来,对手掌区域的尺寸的信息进行归一化,使得每个帧中的手掌区域的面积达到预定的像素数量S。图25A示出归一化之前面积为s的帧81。图25B示出归一化之后面积为S的帧82。通过该处理,将面积为s的帧81(图25A)归一化为面积为S的帧82(图25B)。
假定每个帧的手掌区域的面积为s,使用下式(7)获得每个帧的距离图d″(i,j)归一化之后的距离图d′″(i,j)。
d ′ ′ ′ ( i , j ) = d ′ ′ ( s S i , s S j ) . . . ( 7 )
手掌区域位置归一化(操作S94)
该归一化处理在每个帧中将手掌区域的重心G偏移到图像的中心,使得手掌4的位置变为图像的中间。位置归一化处理假定每个帧中的手掌区域的重心坐标为(Cx,Cy),如图26A所示,并且将重心坐标(Cx,Cy)偏移到图像的中心,如图26B所示。假定图像的中心坐标是(0,0),使用下式(8)获得每个帧的距离图d′″(i,j)的归一化之后的距离图d″″(i,j)。将各帧83转换成归一化的帧84,如图26B所示。
d″″(i,j)=d′″(i+Cx,j+Cy)…(8)
手掌区域朝向归一化(操作S95)
该归一化处理计算手掌4的二维运动,并且基于计算结果将图像二维旋转,使得手掌区域的长轴沿着图像的垂直方向。在朝向归一化中使用惯量主轴。换句话说,手掌区域的长轴86(图27A)是惯量主轴。该归一化处理在图像88中设置坐标轴(x轴、y轴),并以图像88的中心O为原点,如图27A所示。在惯量主轴86相对于y轴具有角度θ的情况下,使用下式(9)和(10)获得各帧91的距离图d″″(i,j)的归一化之后的距离图d′″″(i,j)。图27B示出了归一化的帧92。
i ′ j ′ = cos θ - sin θ sin θ cos θ i j . . . ( 9 )
d′″″(i,j)=d″″(i,j)…(10)
计算这种惯量主轴86的方法例如在Masahiko Yachida的“RobotVision”的第91至94页中公开。
手掌运动帧时间归一化(操作S96)
如图28所示,假定手掌4张开时的图像帧811的时间为t=0,假定手掌合拢时的图像帧81n的时间为t=1,对手掌处于张开状态与手掌处于合拢状态之间的图像帧(时间t介于0和1之间的图像帧)进行时间归一化。该归一化处理例如从t=0到t=1按时间t的0.1增量而记录11个帧。在从时间t=0.1到时间t=0.9中存在没有帧的时间的情况下,归一化处理通过用最接近该时间的时间的帧的图像进行插入而获得该时间的帧。
然后,在使用下式进行归一化之前,从距离图d′″″k(i,j)获得归一化之后的第k′(0≤k′≤11,其中k′是整数)帧的距离图d″″″k′(i,j)。s和e表示图28中示出的帧,其中s≤k≤e,并且k是整数。
关于公式(11)中的k,在k是整数的情况下,式(12)成立。
k = ( 10 - k ′ ) s + k ′ e 10 . . . ( 11 )
d″″″k′(i,j)=d′″″k′(i,j)    …(12)
关于公式(11)中的k,在k不是整数的情况下,以[]为高斯符号,式(13)成立。
d″″″k′(i,j)={1-(k-[k])}d′″″[k](i,j)+(k-[k])d′″″[k]+(i,j)…(13)
手掌运动公共特征提取处理从多人收集前述手掌运动,并且以像素为单位对每个帧的距离图进行平均。因此,获得的前述11个帧(图28)形成手掌4运动公共特征。将获得的手掌4运动公共特征存储在手掌运动公共特征存储部18中。
手掌运动特征匹配处理登记例如用于手掌静脉识别的生物对象信息,并且检查手掌运动信息以确定手掌传感器上保持的用于匹配的手掌(对象)是否是生物对象。匹配处理通过前述处理获取被检查者的手掌运动特征,并且获取存储在手掌运动公共特征存储部18中的手掌4运动公共特征。因为针对距离值、面积、朝向和时间对特征进行了归一化,所以通过比较11个帧的相应图像(图29A和29B),匹配处理可以执行二者的匹配。图29A是示出表示手掌运动公共特征的11个帧的图。图29B是示出表示被检查者的手掌运动特征的11个帧的图。
图像比较处理计算并累计所有11个帧中的每个像素的距离值的差异。然后,在累计值等于或小于预定阈值情况下,该比较处理判定所述确定对象已经执行了与生物对象的运动相似的运动。
在对代表公共特征的第k帧84k(如图30A所示)与代表被检查者的特征的第k帧85k(如图30B所示)进行比较的情况下,作为帧84k的公共特征dmk(i,j)和帧85k的被检查者的特征dnk(i,j),计算帧84k和85k的相应坐标之间的差异的总和。
假定公共特征帧84k的手掌区域为Rk,使用下式(14)可以获得差异的累计值M。
M = Σ k = 0 11 Σ ( i , j ) ∈ R k | d mk ( i , j ) - d nk ( i , j ) | . . . ( 14 )
在累计值M等于或小于预定阈值Mth(M≤Mth)的情况下,匹配处理判定所述确定对象已经执行了与生物对象的运动相似的运动。而且,在使用登记信息进行匹配的情况下,匹配处理可以确认被检查者是已登记(授权)人。
包括前述实施方式的特征性细节在内的本公开的一些优点例如如下所述。不过,尽管此处列出了少数优点,本发明不只这些益处和优点。
1、使用来自例如通过对作为生物对象的手掌进行图像形成而获取的多个图像的手掌运动信息,可以检查手掌,并且经由该检查确定手掌是否是生物对象。而且,实施方式通过与已登记运动信息进行比较而确认被检查者是否是已登记人。
2、使用手掌作为生物对象的确定区域,使用手掌的张开和合拢作为生物对象的弯曲和伸展的一个示例来获取运动信息。根据实施方式,被检查者使用张开和合拢手掌的简单操作就可以被进行他或她是否是生物对象的确定,而不必被迫执行任何专门的操作。
3、本实施方式可以使用低成本传感器来实现用于非接触式手掌静脉图案识别的手掌生物确定方法。
4、因为本实施方式使用人类公共的生物对象运动进行匹配并且通过从多个图像提取三维信息来执行匹配,所以本实施方式可以增加确定准确度。
5、本实施方式基于在用光照射手掌时进行图像形成而得到(捕捉到)的图像来执行生物确定,并且基于该确定来检查个体。
6、实施方式中的生物认证装置具有照明部和图像形成部,当执行生物确定的登记、匹配或识别时,其发出张开和合拢手的指令。因为这基于其运动的存在与否来执行对生物对象的检查,所以可以容易地确认其是否是生物对象。
7、本实施方式通过将被检查者的手掌的运动与从多人收集的手掌运动信息进行核对来确定例如作为生物对象的手掌的运动,实现了1到N的认证。
8、因为实施方式在测量例如作为生物对象的手掌的运动时使用光束照明位置、和以根据反射光辉度计算出的到手掌上各点的距离为值的图像,所以其可以提供高度精确的确定。作为从手掌4进入图像形成部28的反射光的强度,反射光的辉度是图像的各个像素的辉度。
9、实施方式使用从指示张开手掌时到指示合拢手掌时的图像形成而获得的多个图像,作为以测量例如作为生物对象的手掌的运动的距离为值的图像,并且从这些图像获取运动信息。
10、实施方式使用以距离为值并且其中对手掌运动、手掌高度、手掌尺寸、手掌朝向和图像形成时间都进行了归一化的信息,作为例如作为生物对象的手掌的运动信息。
11、实施方式使用如下的信息作为例如作为生物对象的手掌的运动信息:所述信息以距离为值,并且其中,针对图像形成时间,对代表从多个图像相对于手掌运动归一化的图像的轮廓的数值进行了归一化。
12、当确定被检查者是否是生物对象时,实施方式给出握拳操作的指令,确认对象是否执行了与人类手掌相同类型的转变,在不发生手掌相同类型的转变的情况下,确定该对象不是手。因为将使用有源照明的基于亮度的三维测量技术用于测量对象的形状,所以提高了确定准确度。
13、实施方式可以确定由具有与例如作为生物对象的手掌的反射属性相同的反射属性的对象构成的假冒对象不是手。
接下来,将参考图31、32和33A至33E描述另一实施方式。图31是示出根据实施方式的处理过程的流程图。图32是示出拟合到归一化手掌图像的椭圆球的图。图33A至33E是示出手掌张开和合拢时的椭圆球拟合的图。图31、32和33A至33E所示的结构是示例,本发明不限于这些结构。
尽管手掌运动信息表达与生物认证装置、生物认证程序或生物认证方法的上述实施方式的手掌运动信息表达有所不同,本实施方式使用与上述实施方式相同类型的装置(图1)。
在处理过程中,因为距离值归一化(操作S101)、手掌区域高度归一化(操作S102)以及手掌区域尺寸归一化(操作S103)与上述实施方式(图21)相同,所以省略其描述。
在实施方式中,在手掌区域尺寸归一化之后,对作为几何模型的一个示例的椭圆球进行模拟,并且使得椭圆球拟合于手掌图像(操作S104)。即,将椭圆球92(图32和33A至33E)拟合于经操作S101至S103产生的其中距离值、手掌区域高度和手掌区域尺寸进行了归一化的图像。基于椭圆球92的拟合,实施方式对椭圆球92的系数的运动帧的时间进行归一化(操作S105)。
当将椭圆球92拟合于手掌区域时,坐标系在椭圆球92中设置中心坐标(X1,Y1,Z1),并且以手掌传感器26的图像形成部28的原点Q为基准。在这种情况下,a、b和c分别是在x轴方向、y轴方向和z轴方向到最远离椭圆球92的中心坐标(X1,Y1,Z1))的部分的距离。
在将图像的左上角设置为原点的该坐标系中,以下式(15)表达椭圆球92。获得系数X1、Y1、Z1、a、b和c就足够了。
( X - X 1 ) 2 a 2 + ( Y - Y 1 ) 2 b 2 + ( Z - Z 1 ) 2 c 2 = 1 . . . ( 15 )
以距离图中的手掌4的区域中的像素作为样本点,使用基于最小二乘方法、牛顿方法、Levenberg-Marquardt方法等的迭代近似方法来获得这些系数。作为将椭圆球92拟合于各帧中的手掌区域的结果,获得6个系数(X1、Y1、Z1、a、b和c)。
在将作为前述几何模型的一个示例的椭圆球92拟合于手掌区域的过程中,手掌张开的状态是手掌4的掌心放置在椭圆球92上的状态,如图33A所示。当手掌4从该状态转变为合拢状态时,首先,椭圆球92位于在手掌4内,并且手指呈现其包围椭圆球92的状态,如图33B所示。接下来,状态为使得手指从该状态沿合拢手掌4的方向运动,如图33C所示。在这种情况下,拟合到手掌4的椭圆球92变得细长。在手掌4即将合拢之前的状态是如下状态:其中处于弯曲状态的手掌4被包围在椭圆球92的内部,如图33D所示。而且,手掌4完全合拢且形成拳头的状态是椭圆球92的表面与手掌4的下表面侧吻合的状态,如图33E所示。这样,手掌的状态对应于椭圆球92的轮廓,并且从手掌4张开的状态到其合拢的状态的操作按图33A、经过图33B到33D而到图33E所示的方式转变。这种操作转变形成了用于确定手掌是否是生物对象的信息。
在操作转变中,实施方式假定手掌4张开时的帧的时间为t=0,手掌4合拢时的帧的时间为t=1,对手掌处于张开状态和手掌处于合拢状态之间的帧(时间t介于0至1之间的帧)进行时间归一化。实施方式与按0.1的增量在从t=0到t=1的时间t获得的11个帧中的每一个对应地记录6个系数。在从时间t=0.1到t=0.9存在没有帧的时间的情况下,实施方式用最接近该时间的时间的帧的椭圆球92的系数进行插入,并且针对每个系数获得该时间的系数值。然后,通过从多人收集前述手掌运动、并针对表示操作转变的每一帧计算相应帧中的椭圆球92的各个系数的平均值,获得手掌4的这种运动的公共特征。
当将确定对象的运动与运动公共特征进行核对时,实施方式首先针对每个帧,针对椭圆球的每个系数计算差异。然后,实施方式使用预定权重针对一帧计算差异的权重之和,并且,根据所有帧的和的累计值是否小于预定阈值,可以确定该确定对象的运动是否与生物对象的运动相同。
实施方式的非限制性特征细节例如如下所述。
1、实施方式中的手掌运动信息是这样的信息:其中当将几何模型拟合到以距离为值并且其中对手掌运动、手掌高度和手掌尺寸进行了归一化的图像时,针对形成转变手掌的图像的时间,对定义几何模型的系数进行时间归一化。
2、因为实施方式通过使用手掌运动公共模型的匹配来对确定对象是否是生物对象进行确定,所以即使在登记时的手掌运动和确定时的手掌运动稍有不同的情况下,也可以确定该确定对象是否是生物对象。而且,在确认了确定对象是生物对象之后,实施方式可以确认被检查者是否是特定个体。
接下来,将参考图34和35A至35C来描述另一实施方式。图34是示出根据该实施方式的处理过程的流程图。图35A至35C是用于说明手掌表面的形状的计算的图。手掌表面的形状由根据手掌表面的凸度和凹度的比例(此后称为“凸凹率”)来表示。图34和35A至35C中示出的结构是示例,本发明不限于这种类型的结构。
实施方式包括在手掌运动信息表达中计算手掌4的凸凹率的处理,在这一方面,该实施方式不同于所述第一实施方式。如图34所示,实施方式的处理过程首先以与上述实施方式(图21)中所述方式相同的方式执行距离值的归一化(操作S111)。在归一化之后,处理过程针对距离值图像计算凸凹率,该凸凹率表示手掌区域内的距离偏离基准的像素的比例(操作S112),并且对具有该凸凹率的运动帧进行时间归一化(操作S113)。凸凹率计算中的基准是手掌区域的中心的高度。
凸凹率计算(S112)是这样的:在手掌区域中模拟外接矩形94作为几何模型的示例,该外接矩形94(图35A)拟合于手掌区域,并且计算外接矩形92的中心P中的像素的高度值h。而且,该计算是这样的:根据预定的Δh来计算手掌区域内的h±Δh的像素数量s。即,像素数量s是手掌区域中的从外接矩形94的中心P偏离Δh的位置中的像素的数量。像素数量s作为面积,假定整个手掌区域的面积为S,面积s与面积S的比例是r,比例r由公式(16)表示。计算比例r作为凸凹率。
r = s S . . . ( 16 )
如图35A所示,假定当手掌4张开时的第0帧的距离图d0(i,j)中的手掌区域为R0,其外接矩形94是接触距离张开的手掌4的中心最远的手指的轮廓的边界。
当手掌4开始合拢时,外接矩形94根据手掌4的轮廓变化而收缩,如图35B所示。图中由阴影示出的部分96是手掌区域中的从外接矩阵94的中心P偏离Δh的位置中的像素部分。手掌4合拢,在手掌4处于合拢状态的最终位置,外接矩形94根据手掌4的轮廓变化而进一步收缩,如图35C所示。而且,手掌区域中的从外接矩阵94的中心P偏离Δh的位置中的像素部分扩展,并且偏离Δh的位置中的像素部分扩展到手腕附近的部分。当手掌4从张开状态转变到合拢状态时,手掌区域中的从外接矩阵94的中心的高度偏离Δh的位置中的像素如阴影所示地扩散,通过凸凹率的变化可以知道操作转变。
假定外接矩形94的中心P的坐标为(Cx,Cy),计算坐标的高度h为d0(Cx,Cy)。因此,当计算了距离图d0(i,j)上的手掌区域R0内的根据预定Δh具有h±Δh的值的像素数量s时,如上所述地计算像素数量s与整个手掌区域R0的面积S(在手掌区域R0中包括的像素的数量)的比例r。
然后,如上所述,对具有凸凹率的运动帧的时间归一化(操作S113)假定手掌4张开时的帧时间为t=0,手掌4合拢时的帧时间为t=1,并且对手掌处于张开状态和手掌处于合拢状态之间的帧(时间t介于0至1之间的帧)进行时间归一化。该归一化处理例如记录从t=0到t=1按时间t的0.1增量的11个帧的凸凹率。在从时间t=0.1到时间t=0.9存在没有帧的时间的情况下,归一化处理通过插入最接近该时间的时间的帧的图像而获得该时间的凸凹率。
通过针对每个帧对凸凹率进行平均来计算用于获得运动公共特征的多人的平均。而且,当将确定对象的运动和运动公共特征进行核对时,如下的处理就足够了:实施方式针对每个帧计算凸凹率的差异,并且根据所有帧的和的累计值是否小于预定阈值来确定该确定对象的运动是否与生物对象的运动相同。
根据实施方式,因为以距离为值的手掌运动信息使用了代表针对来自多个图像的手掌运动进行了归一化的图像中的凸凹的数值,所以可以获得高度准确的运动信息。而且,使用这种运动信息,实施方式可以增加生物确定的确定准确度。
接下来,参考图36描述另一实施方式。图36是示出根据该实施方式的处理过程的流程图。图36中示出的结构是示例,本发明不限于这种结构。
本实施方式是根据上述实施方式的处理过程(图34)的简化。
如图36所示,该处理过程对距离值进行归一化(操作S121),计算凸凹率(操作S122),并计算最大凸凹率(操作S123)。对距离值进行归一化的处理(操作S121)和计算凸凹率的处理(操作S121)与上述实施方式中的处理相同。
最大凸凹率的计算处理(操作S123)是这样的:在从手掌4张开时的帧到手掌4合拢时的帧的凸凹率中获得最大值。将最大凸凹率用作运动特征。为了获得运动公共特征,基于最大凸凹率的平均值来计算多人的信息平均。计算从第0帧到第10帧的每个帧的前述凸凹率r,最大凸凹率是其中的r的最大值。
当核对确定对象的运动和运动公共特征时,实施方式确定最大凸凹率之间的差异是否小于预定阈值。即,实施方式确认确定对象是否按与生物对象的运动相同的方式变化。
将参考图37描述另一实施方式。图37是示出根据该实施方式的生物认证装置的硬件结构的图。图37中示出的结构是示例,本发明不限于此。在图37中,与图1的部件相同的部件具有相同的参考标号。
如图37所示,生物认证装置2包括处理器100、程序存储部102、数据存储部104、随机存取存储器(RAM)106、显示部108以及手掌传感器6。这些功能部件通过总线110互连。
处理器100除了生物认证程序114之外还执行各种应用程序,并且执行程序存储部102中的操作系统(OS)112。
作为记录介质,除前述OS 112和生物认证程序114之外,程序处理部102还存储各种应用程序、子例程等。作为记录介质,数据存储部104包括前述手掌运动距离图存储部12、手掌运动公共特征存储部18、生物对象特征存储部24以及校准表面存储部72。RAM 106主要是形成工作区的记录介质。
作为信息表示部的一个示例,显示部108用液晶显示(LCD)指示器等来实现。显示部108显示确定等处理过程中的指令消息、确定结果等。处理过程中的指令消息是让被检查者张开或合拢手掌4的指令。通过语音输出指令消息是可以接受的,显示部108包括发出声音消息的声音发出部是可以接受的。
如前所述,手掌传感器6包括图像形成部28、照明部30、照明控制部32、图像形成控制部34和图像获取部36。这些功能部由处理器100控制。
根据这种结构,基于OS 112和生物认证程序114的执行,用处理器100和RAM 106实现手掌区域提取部8、手掌区域距离计算部10、手掌运动特征提取部14、手掌运动公共特征提取部16、手掌运动特征匹配部20、生物对象特征数据产生部22以及生物对象特征数据匹配部26。
至此所述的实施方式例示了手掌的张开和合拢作为生物对象的弯曲和伸展的一个示例,但是除了手掌之外,生物对象是诸如手、手臂、脚等的生物区域也是可以接受的。在这种情况下,手掌传感器6变成生物对象传感器,手掌区域提取部8变成生物对象区域提取部,手掌区域距离计算部10变成生物对象区域距离计算部,手掌运动距离图存储部12变成生物对象运动距离图存储部,手掌运动特征提取部14变成生物对象运动特征提取部,手掌运动公共特征提取部16变成生物对象运动公共特征提取部,手掌运动公共特征存储部18变成生物对象运动公共特征存储部,并且手掌运动特征匹配部20变成生物对象运动特征匹配部,另一实施方式由这些部件和生物对象特征数据产生部22、生物对象特征存储部24和生物对象特征数据匹配部26构成。
与至此所述的实施方式中的手掌的张开和合拢相反,可以接受以如下方式构成另一实施方式:对手的弯曲和伸展、手掌的弯曲和伸展、或手指的弯曲和伸展进行图像形成,并且,按与至此所述实施方式相同的方式使用表示手、手掌或手指的弯曲和伸展的多个图像,来对确定对象是否是生物对象进行确定。在以作为生物对象的手的运动作为确定对象的情况下,所述另一实施方式可以容易且高准确度地确定该确定对象是生物对象,因此,可以增加生物认证的准确度。
尽管至此所述的实施方式对从张开状态转变到合拢状态的手掌操作进行图像形成,但是可以接受以如下方式构成另一实施方式:以手掌4的合拢状态作为操作起始点,并且对从合拢状态转变到张开状态的操作进行图像形成。
对几何模型进行模拟以识别手掌运动的至此所述的实施方式指出了椭圆球92(图32)和外接矩形94(图35)作为模型的示例。可以接受的是,其他实施方式将不同的多面体或球体对象拟合到手掌运动,并且计算前述系数以识别凸凹、或与基准位置的距离。
至此所述的实施方式指出了手掌图像作为静脉识别的一个示例,但是本发明也可以应用于不同于静脉识别的使用手掌运动信息的生物确定。
至此所述的实施方式用手掌传感器6例示为获取手掌图像的处理部,但是可以接受的是,本发明使用获取确定信息的不同检测部作为获取与手掌图像不同的图像的传感器。
至此所述的实施方式针对多个图像从多个方面执行归一化处理,但是也可以接受从任意一个方面或者选择的多个方面而不是全部方面来执行归一化处理。
此处陈述的所有示例和条件性语言旨在用于教导目的,以帮助读者理解本发明和发明人贡献的概念,以促进技术的发展,并且旨在被理解为并不限于这些具体陈述的示例和状态,本说明书中的这些示例的组织也并不涉及示出本发明的优点和缺点。尽管详细描述了本发明的实施方式,但是应当理解,可以在不偏离本发明的精神和范围的情况下对其做出各种变化、替换和更改。
实施方式可以实现为计算硬件(计算装置)和/或软件,例如可以存储、检索、处理和/或输出数据和/或与其他计算机通信的任意计算机(非限制性示例)。产生的结果可以显示在计算硬件的显示器上。实现实施方式的程序/软件可以记录在包含计算机可读记录介质的计算机可读介质上。实现实施方式的程序/软件也可以经由传输通信介质传输。计算机可读记录介质的示例包括磁记录装置、光盘、磁光盘和/或半导体存储器(例如,RAM、ROM等)。磁记录装置的示例包括硬盘装置(HDD)、软盘(FD)和磁带(MT)。光盘的示例包括DVD(数字通用盘)、DVD-RAM、CD-ROM(光盘-只读存储器)以及CD-R(可记录)/RW。通信介质的示例包括载波信号。
而且,根据实施方式的一个方面,可以提供所述特征、功能和/或操作的任意组合。
尽管已经示出和描述了一些实施方式,但是本领域技术人员应当意识到,在不偏离本发明的原理和精神的情况下,可以在这些实施方式中做出变化,本发明的范围在权利要求及其等同物中限定。

Claims (12)

1.一种生物认证装置,该生物认证装置包括:
图像形成部;
确定部,所述确定部在从所述图像形成部获得的多个图像中提取代表图像形成对象的弯曲和伸展的运动信息,并且基于该运动信息来确定所述图像形成对象是否是手、手掌或手指,
照明部,其用光来照射所述图像形成对象;以及
测量部,其使用具有距离信息的图像来测量所述图像形成对象的运动,所述距离信息代表根据所述图像形成对象的反射光的位置和强度而计算出的从所述图像形成部到所述图像形成对象的表面的距离,
其中,所述确定部将代表所述图像形成对象的弯曲和伸展的所述运动信息与从多个人收集的运动信息进行匹配,并且确定所述图像形成对象是否是手、手掌或手指。
2.根据权利要求1所述的生物认证装置,其中,
具有所述距离信息的所述图像是多个图像,所述多个图像具有从张开状态到合拢状态或者从合拢状态到张开状态进行图像形成的所述图像形成对象的距离信息。
3.根据权利要求1所述的生物认证装置,其中,
所述确定部进行的确定中使用的所述运动信息包括所述距离信息,所述运动信息针对所述图像形成对象的运动、高度、尺寸、朝向信息、以及对所述图像形成对象进行图像形成的时间中的一个或全体而被进行了归一化。
4.根据权利要求2所述的生物认证装置,其中,
所述确定部进行的确定中使用的所述运动信息是其中几何模型拟合于图像的信息,所述距离信息和多个图像针对所述图像形成对象的运动、所述图像形成对象的高度信息、或所述图像形成对象的尺寸信息而被进行了归一化,并且,定义所述几何模型的系数针对对所述图像形成对象进行图像形成的时间而被进行了归一化。
5.根据权利要求2所述的生物认证装置,其中,
所述确定部进行的确定中使用的所述运动信息是具有如下数值的信息:所述数值代表所述图像形成对象的表面的形状,其中,所述距离信息和多个图像针对所述图像形成对象的运动而被进行了归一化,所述图像形成对象的运动针对对所述图像形成对象进行图像形成的时间而被进行了归一化。
6.根据权利要求2所述的生物认证装置,其中,
所述确定部进行的确定中使用的所述运动信息是代表所述图像形成对象的表面形状的数值在多个图像中在所述距离信息中的最大值,所述数值针对所述图像形成对象的运动而被进行了归一化。
7.一种生物认证方法,该生物认证方法包括以下步骤:
图像形成步骤,对图像形成对象进行图像形成;
确定步骤,在从所述图像形成步骤获得的多个图像中提取代表所述图像形成对象的弯曲和伸展的运动信息,并且基于该运动信息来确定所述图像形成对象是否是手、手掌或手指;以及
获取所述图像形成对象的运动信息的步骤包括使用具有距离信息的图像,所述距离信息代表根据照明部的位置和所述图像形成对象的反射光的强度而计算出的从执行所述图像形成步骤的装置到所述图像形成对象的表面的距离,
其中,所述确定步骤将代表所述图像形成对象的弯曲和伸展的所述运动信息与从多个人收集的运动信息进行匹配,并且确定所述图像形成对象是否是手、手掌或手指。
8.根据权利要求7所述的生物认证方法,其中,
具有所述距离信息的所述图像是多个图像,所述多个图像具有从张开状态到合拢状态或者从合拢状态到张开状态进行图像形成的所述图像形成对象的距离信息。
9.根据权利要求7所述的生物认证方法,其中,
所述确定步骤中使用的所述运动信息是具有所述距离信息的信息,所述运动信息针对所述图像形成对象的运动、高度、尺寸、朝向信息、以及对所述图像形成对象进行图像形成的时间中的一个或全体而被进行了归一化。
10.根据权利要求8所述的生物认证方法,其中
所述确定步骤中使用的所述运动信息是其中几何模型拟合于图像的信息,所述距离信息和多个图像针对所述图像形成对象的运动、所述图像形成对象的高度信息、或所述图像形成对象的尺寸信息而被进行了归一化,并且,定义所述几何模型的系数针对对所述图像形成对象进行图像形成的时间而被进行了归一化。
11.根据权利要求8所述的生物认证方法,其中,
所述确定步骤中使用的所述运动信息是如下的信息:其中,针对对所述图像形成对象进行图像形成的时间,对如下的数值进行了归一化,所述数值表示图像的所述图像形成对象的表面的形状,其中针对所述图像形成对象的运动对所述距离信息和多个图像进行了归一化。
12.根据权利要求8所述的生物认证方法,其中,
所述确定步骤中使用的所述运动信息是代表所述图像形成对象的表面形状的数值在所述多个图像中在所述距离信息中的最大值,所述数值针对所述图像形成对象的运动而被进行了归一化。
CN200910224866XA 2008-11-27 2009-11-27 生物认证装置和生物认证方法 Active CN101897590B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-303258 2008-11-27
JP2008303258A JP5098973B2 (ja) 2008-11-27 2008-11-27 生体認証装置、生体認証方法及び生体認証プログラム

Publications (2)

Publication Number Publication Date
CN101897590A CN101897590A (zh) 2010-12-01
CN101897590B true CN101897590B (zh) 2012-11-21

Family

ID=41796542

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200910224866XA Active CN101897590B (zh) 2008-11-27 2009-11-27 生物认证装置和生物认证方法

Country Status (5)

Country Link
US (1) US8787622B2 (zh)
EP (1) EP2192526A3 (zh)
JP (1) JP5098973B2 (zh)
KR (1) KR101122971B1 (zh)
CN (1) CN101897590B (zh)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2116950B1 (en) * 2006-12-25 2014-10-22 Fujitsu Limited Authentication device, authentication method, and authentication program
JP5293806B2 (ja) * 2009-03-18 2013-09-18 富士通株式会社 生体情報取得装置及び生体認証装置
US8509882B2 (en) 2010-06-08 2013-08-13 Alivecor, Inc. Heart monitoring system usable with a smartphone or computer
US9351654B2 (en) 2010-06-08 2016-05-31 Alivecor, Inc. Two electrode apparatus and methods for twelve lead ECG
JP5708662B2 (ja) * 2010-12-28 2015-04-30 富士通株式会社 生体認証装置、生体認証方法、および、生体認証プログラム
WO2012111664A1 (ja) 2011-02-15 2012-08-23 富士通フロンテック株式会社 認証装置、認証プログラム、および認証方法
CN102129552A (zh) * 2011-03-03 2011-07-20 哈尔滨工业大学 一体化非接触式手部特征图像采集系统
JP5456939B2 (ja) * 2011-04-15 2014-04-02 株式会社Nttドコモ 携帯端末及び把持特徴学習方法
JP5442909B2 (ja) * 2011-04-15 2014-03-19 株式会社Nttドコモ 携帯端末及び把持特徴学習方法
CN102885627A (zh) * 2011-07-22 2013-01-23 青岛文达通科技股份有限公司 一种静脉采集器
JP5846291B2 (ja) * 2012-03-28 2016-01-20 富士通株式会社 生体認証装置、生体認証方法、および生体認証プログラム
KR101603469B1 (ko) * 2012-03-30 2016-03-14 후지쯔 가부시끼가이샤 생체 인증 장치, 생체 인증 방법 및 생체 인증용 컴퓨터 프로그램
WO2014031983A2 (en) * 2012-08-24 2014-02-27 Nova Southeastern University Biometric authentication
BR112015004867B1 (pt) * 2012-09-05 2022-07-12 Element, Inc. Sistema de prevenção de mistificação de identidade
JP6160148B2 (ja) * 2013-03-19 2017-07-12 富士通株式会社 生体情報入力装置、生体情報入力プログラム、生体情報入力方法
US9213817B2 (en) * 2013-08-28 2015-12-15 Paypal, Inc. Motion-based credentials using magnified motion
US9420956B2 (en) 2013-12-12 2016-08-23 Alivecor, Inc. Methods and systems for arrhythmia tracking and scoring
JP6379646B2 (ja) * 2014-05-09 2018-08-29 株式会社リコー 情報処理装置、測定方法及びプログラム
WO2015175670A1 (en) 2014-05-13 2015-11-19 Element, Inc. System and method for electronic key provisioning and access management in connection with mobile devices
FR3021783B1 (fr) * 2014-06-02 2016-05-13 Morpho Procede de validation de l'authenticite d'un element du corps humain
WO2015187882A1 (en) 2014-06-03 2015-12-10 Element, Inc. Attendance authentication and management in connection with mobile devices
WO2015194879A1 (ko) * 2014-06-18 2015-12-23 (주)직토 웨어러블 디바이스의 바디 밸런스 측정 방법 및 장치
KR101461464B1 (ko) * 2014-06-18 2014-11-18 김경태 스마트밴드 및 이의 생체 인증 방법
US9288556B2 (en) 2014-06-18 2016-03-15 Zikto Method and apparatus for measuring body balance of wearable device
JP6482816B2 (ja) * 2014-10-21 2019-03-13 Kddi株式会社 生体検知装置、システム、方法及びプログラム
JP6498325B2 (ja) 2015-05-13 2019-04-10 アライヴコア・インコーポレーテッド 不一致モニタリング
KR102429865B1 (ko) * 2015-06-17 2022-08-05 한국전자통신연구원 사용자 인증 장치
JP6743429B2 (ja) * 2016-03-11 2020-08-19 富士通株式会社 生体撮影装置、生体撮影方法および生体撮影プログラム
JP6798285B2 (ja) * 2016-11-30 2020-12-09 富士通株式会社 生体認証装置、生体認証方法及びプログラム
CN108205641B (zh) * 2016-12-16 2020-08-07 比亚迪股份有限公司 手势图像处理方法及装置
CN106650703A (zh) * 2017-01-06 2017-05-10 厦门中控生物识别信息技术有限公司 手掌防伪方法和装置
JP6862899B2 (ja) * 2017-02-21 2021-04-21 富士通株式会社 情報処理装置、生体認証方法、生体認証プログラム
JP7011152B2 (ja) * 2017-08-30 2022-01-26 富士通株式会社 生体画像処理装置、生体画像処理方法、及び生体画像処理プログラム
AU2018334318B2 (en) 2017-09-18 2021-05-13 Element, Inc. Methods, systems, and media for detecting spoofing in mobile authentication
JP6975666B2 (ja) * 2018-03-20 2021-12-01 株式会社日立ソリューションズ・クリエイト 人物特定システム及び人物特定方法
JP7256512B2 (ja) * 2018-05-15 2023-04-12 国立大学法人 鹿児島大学 個人識別システム、個人識別方法及びプログラム
JP2020089947A (ja) * 2018-12-06 2020-06-11 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN109618100B (zh) * 2019-01-15 2020-11-27 北京旷视科技有限公司 现场拍摄图像的判断方法、装置及系统
AU2020237108B2 (en) 2019-03-12 2022-12-15 Element Inc. Detecting spoofing of facial recognition with mobile devices
US11941629B2 (en) * 2019-09-27 2024-03-26 Amazon Technologies, Inc. Electronic device for automated user identification
EP3836015A1 (de) * 2019-12-09 2021-06-16 Iris-Gmbh Infrared & Intelligent Sensors Sensorsystem zur prüfung von handvenenmustern
US11507248B2 (en) 2019-12-16 2022-11-22 Element Inc. Methods, systems, and media for anti-spoofing using eye-tracking
JP7519871B2 (ja) * 2020-10-21 2024-07-22 株式会社日立製作所 生体認証装置および生体認証方法
US11941911B2 (en) 2022-01-28 2024-03-26 Armatura Llc System and method for detecting liveness of biometric information
US11688204B1 (en) 2022-01-28 2023-06-27 Armatura Llc System and method for robust palm liveness detection using variations of images
US11721132B1 (en) * 2022-01-28 2023-08-08 Armatura Llc System and method for generating region of interests for palm liveness detection

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1612716A2 (en) * 2004-06-28 2006-01-04 Fujitsu Limited User interface for image input in a biometric authentication device; corresponding biometric authentication device, method and program
CN101145199A (zh) * 2006-09-14 2008-03-19 富士通株式会社 用于生物认证装置的活体引导控制方法和生物认证装置
CN101226597A (zh) * 2007-01-18 2008-07-23 中国科学院自动化研究所 一种基于热红外步态的夜间行人识别方法及系统

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3689135A (en) * 1971-01-26 1972-09-05 Laurence R Young Method for monitoring movement of a subject{40 s eyes
JP3550038B2 (ja) * 1999-02-04 2004-08-04 株式会社東芝 モーションを利用した認証方法及び装置
JP2002150296A (ja) 2000-11-10 2002-05-24 Hitachi Zosen Corp 認証方法および認証装置
JP2003111749A (ja) 2001-10-09 2003-04-15 Bmf:Kk ヒューマン判定装置
JP2003178306A (ja) * 2001-12-12 2003-06-27 Toshiba Corp 個人認証装置および個人認証方法
JP2004086614A (ja) * 2002-08-27 2004-03-18 Matsushita Electric Ind Co Ltd 目画像撮像装置及び目画像認証装置
CA2521304A1 (en) 2003-04-04 2004-10-21 Lumidigm, Inc. Multispectral biometric sensor
US7668350B2 (en) * 2003-04-04 2010-02-23 Lumidigm, Inc. Comparative texture analysis of tissue for biometric spoof detection
JP4317465B2 (ja) 2004-02-13 2009-08-19 本田技研工業株式会社 顔識別装置、顔識別方法及び顔識別プログラム
KR100647088B1 (ko) * 2004-07-20 2006-11-23 최진관 생체측정 정보 확인장치 및 그 방법
JP4734980B2 (ja) 2005-03-15 2011-07-27 オムロン株式会社 顔認証装置およびその制御方法、顔認証装置を備えた電子機器、顔認証装置制御プログラム、ならびに該プログラムを記録した記録媒体
KR100706871B1 (ko) * 2005-08-22 2007-04-12 주식회사 아이디테크 감시영상에서 얼굴의 진위 여부를 구별하는 방법
US7983451B2 (en) * 2006-06-30 2011-07-19 Motorola Mobility, Inc. Recognition method using hand biometrics with anti-counterfeiting
JP5061563B2 (ja) * 2006-09-29 2012-10-31 オムロン株式会社 検出装置、生体判定方法、およびプログラム
JP4671049B2 (ja) * 2006-11-20 2011-04-13 ソニー株式会社 認証装置、登録装置、登録方法、登録プログラム、認証方法及び認証プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1612716A2 (en) * 2004-06-28 2006-01-04 Fujitsu Limited User interface for image input in a biometric authentication device; corresponding biometric authentication device, method and program
CN101145199A (zh) * 2006-09-14 2008-03-19 富士通株式会社 用于生物认证装置的活体引导控制方法和生物认证装置
CN101226597A (zh) * 2007-01-18 2008-07-23 中国科学院自动化研究所 一种基于热红外步态的夜间行人识别方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JP特开2007-11769A 2007.01.18
苏菡.一种基于步态分析的身份识别方法.《系统仿真学报》.2006,第18卷(第5期),1292-1296. *

Also Published As

Publication number Publication date
JP2010128822A (ja) 2010-06-10
US8787622B2 (en) 2014-07-22
KR20100061353A (ko) 2010-06-07
KR101122971B1 (ko) 2012-03-16
US20100127827A1 (en) 2010-05-27
EP2192526A2 (en) 2010-06-02
CN101897590A (zh) 2010-12-01
JP5098973B2 (ja) 2012-12-12
EP2192526A3 (en) 2016-09-07

Similar Documents

Publication Publication Date Title
CN101897590B (zh) 生物认证装置和生物认证方法
US11782285B2 (en) Material identification method and device based on laser speckle and modal fusion
Dobeš et al. Human eye localization using the modified Hough transform
CN100403981C (zh) 肯定性患者识别方法和装置
Oszust et al. Polish sign language words recognition with Kinect
CN106796449A (zh) 视线追踪方法及装置
Ferraris et al. A self-managed system for automated assessment of UPDRS upper limb tasks in Parkinson’s disease
US20080091121A1 (en) System, method and apparatus for detecting a force applied to a finger
CN109101873A (zh) 用于提供针对兴趣对象的外部光源的特性信息的电子设备
CN106255944A (zh) 移动平台中的空中和表面多点触摸检测
Lahamy Real-Time Hand Posture Recognition Using a Range Camera.
US9355297B2 (en) Biometric information input apparatus and biometric information input method
Zennaro Evaluation of Microsoft Kinect 360 and Microsoft Kinect One for robotics and computer vision applications
Wang et al. Dynamic human body reconstruction and motion tracking with low-cost depth cameras
Haker et al. Geometric invariants for facial feature tracking with 3D TOF cameras
Fuhl et al. Pistol: Pupil invisible supportive tool in the wild
Nguyen et al. Vision-based global localization of points of gaze in sport climbing
Labati et al. Virtual environment for 3-D synthetic fingerprints
CN115252365A (zh) 上肢镜像康复训练机器人系统、控制方法和计算机介质
He et al. Human behavior feature representation and recognition based on depth video
Li et al. Tactile Sensing, Skill Learning, and Robotic Dexterous Manipulation
Alobaidi et al. New In-Air Signature Datasets
Chan et al. Feasibility of video-based skills assessment: a study on ultrasound-guided needle insertions using simulated projections
Rao et al. Vision based pointing error estimation for mobile eye-tracking system
Chen et al. Image automatic-recognition scheme for dice game using structure features technique

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant