CN117256007A - 信息处理系统、信息处理方法及记录介质 - Google Patents

信息处理系统、信息处理方法及记录介质 Download PDF

Info

Publication number
CN117256007A
CN117256007A CN202180097472.1A CN202180097472A CN117256007A CN 117256007 A CN117256007 A CN 117256007A CN 202180097472 A CN202180097472 A CN 202180097472A CN 117256007 A CN117256007 A CN 117256007A
Authority
CN
China
Prior art keywords
user
unit
information processing
face direction
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180097472.1A
Other languages
English (en)
Inventor
今井阳稀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of CN117256007A publication Critical patent/CN117256007A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

一种信息处理系统(100),其包括:脸部方向获取装置,其获取用户的脸部方向;视线方向获取装置(120),其获取用户的视线方向;确定装置(130),当脸部方向大于或等于规定阈值时,其基于脸部方向与视线方向之间的差异来确定用户是否为生物体;以及输出装置(140),其输出确定的结果。根据此信息处理系统,可以准确地确定用户是否为生物体。

Description

信息处理系统、信息处理方法及记录介质
技术领域
本公开涉及关于用户做出确定的信息处理系统、信息处理方法和记录介质的技术领域。
背景技术
这种类型的已知系统在生物认证中执行欺骗检测。例如,专利文献1公开了当检测的脸部方向的角度大于或等于预定角度时,认证失败。专利文献2公开了分析估计的视线与显示器之间的位置关系以确定图像是否为欺骗图像。专利文献3公开了当检测的注视方向为认证允许注视方向时,确定认证被正确地执行。专利文献4公开了基于视线中有关时间变化的信息来确定脸部图像列所指示的欺骗脸部的可能性。
引用列表
专利文献
专利文献1:JP2007-148968A
专利文献2:JP2008-015800A
专利文献3:JP2017-142859A
专利文献4:JP2020-194608A
发明内容
技术问题
本公开意图改进在引用列表中公开的工艺/技术。
问题的解决方案
根据本公开示例性方面的信息处理系统包括:脸部方向获取单元,其获得用户的脸部方向;注视方向获取单元,其获得用户的注视方向;确定单元,当脸部方向的角度大于或等于预定阈值时,其基于脸部方向与注视方向之间的差异来确定用户是否为生物体;以及输出单元,其输出确定的结果。
根据本公开另一个示例性方面的信息处理系统包括:脸部方向获取单元,其获得用户的脸部方向;注视方向获取单元,其获得用户的注视方向;计算单元,其根据脸部方向与注视方向之间的差异来计算指示用户为生物体的可能性的分数;校正单元,其根据脸部方向的角度来校正分数;确定处理单元,其基于校正分数来确定用户是否为生物体;以及输出单元,其输出确定的结果。
根据本公开示例性方面的信息处理方法包括:获得用户的脸部方向;获得用户的注视方向;当脸部方向的角度大于或等于预定阈值时,基于脸部方向与注视方向之间的差异来确定用户是否为生物体;以及输出确定的结果。
根据本公开示例性方面的记录介质是其上记录允许计算机执行信息处理方法的计算机程序的记录介质,信息处理方法包括:获取用户的脸部方向;获取用户的注视方向;当脸部方向的角度大于或等于预定阈值时,基于脸部方向与注视方向之间的差异来确定用户是否为生物体;然后输出确定的结果。
附图说明
图1是示出根据第一示例性实施例的信息处理系统的硬件配置的方框图。
图2是示出根据第一示例性实施例的信息处理系统的功能配置的方框图。
图3是示出根据第一示例性实施例的信息处理系统的操作流程的流程图。
图4是示出根据第二示例性实施例的信息处理系统的功能配置的方框图。
图5是示出根据第二示例性实施例的信息处理系统的操作流程的流程图。
图6是示出根据第三示例性实施例的通过信息处理系统计算的分数的分布示例的曲线图。
图7是示出根据第三示例性实施例的在信息处理系统中校正分数的校正方法的示例的曲线图。
图8是示出根据第四示例性实施例的信息处理系统的功能配置的方框图。
图9是示出根据第四示例性实施例的信息处理系统的操作流程的流程图。
图10是示出根据第五示例性实施例的信息处理系统的功能配置的方框图。
图11是示出根据第五示例性实施例的信息处理系统的操作流程的流程图。
图12是示出根据第五示例性实施例的信息处理系统的显示示例的示意图。
图13是示出根据第六示例性实施例的通过信息处理系统获取脸部方向和注视方向的时刻的曲线图。
图14是示出根据第六示例性实施例的通过信息处理系统计算分数的方法的概念图。
图15是示出根据第七示例性实施例的信息处理系统的功能配置的方框图。
图16是示出根据第七示例性实施例的信息处理系统的操作流程的流程图。
图17是示出根据第七示例性实施例的信息处理系统的显示示例的示意图的版本1。
图18是示出根据第七示例性实施例的信息处理系统的显示示例的示意图的版本2。
图19是示出根据第八示例性实施例的信息处理系统的功能配置的方框图。
图20是示出根据第八示例性实施例的信息处理系统的操作流程的流程图。
具体实施方式
下面参考附图描述根据示例性实施例的信息处理系统、信息处理方法和记录介质。
<第一示例性实施例>
下面参考图1至图3描述根据第一示例性实施例的信息处理系统。
(硬件配置)
首先参考图1描述根据第一示例性实施例的信息处理系统10的硬件配置。图1是示出根据第一示例性实施例的信息处理系统的硬件配置的方框图。
如图1所示,根据第一示例性实施例的信息处理系统10包括处理器11、RAM(随机存取存储器)12、ROM(只读存储器)13和存储设备14。信息处理系统10可以进一步包括输入设备15、输出设备16和相机20。处理器11、RAM 12、ROM 13、存储设备14、输入设备15、输出设备16和相机20通过数据总线17连接。
处理器11读取计算机程序。例如,处理器11被配置为读取由RAM 12、ROM 13和存储设备14中的至少一个存储的计算机程序。或者,处理器11可以通过使用未示出的记录介质读取设备来读取存储在计算机可读记录介质中的计算机程序。处理器11可以通过网络接口从设置在信息处理系统10外部的未示出设备获得(即,读取)计算机程序。处理器11通过执行所读取的计算机程序来控制RAM 12、存储设备14、输入设备15和输出设备16。尤其是在本示例性实施例中,当处理器11执行所读取的计算机程序时,在处理器11中实现或实施用于确定用户是否为生物体的功能块。
处理器11例如可以被配置为CPU(中央处理单元)、GPU(图形处理单元)、FPGA(现场可编程门阵列)、DSP(需求侧平台)或ASIC(专用集成电路)。处理器11可以使用它们中的一个,或者可以并行地使用它们中的多个。
RAM 12临时存储要通过处理器11执行的计算机程序。RAM 12临时在存储处理器11执行计算机程序时存储处理器11临时使用的数据。例如,RAM 12可以是D-RAM(动态RAM)。
ROM 13存储要通过处理器11执行的计算机程序。ROM 13还可以存储固定数据。例如,ROM 13可以是P-ROM(可编程ROM)。
存储设备14存储由信息处理系统10长期存储的数据。存储设备14可以作为处理器11的临时存储设备操作。存储设备14例如可以包括硬盘设备、磁光盘设备、SSD(固态驱动器)和磁盘阵列设备中的至少一个。
输入设备15是接收来自信息处理系统10的用户的输入指令的设备。输入设备15例如可以包括键盘、鼠标和触摸板中的至少一个。
输出设备16是向外部输出有关信息处理系统10的信息的设备。例如,输出设备16可以是被配置为显示有关信息处理系统10的信息的显示设备(例如显示器)。
相机20是安装在可以拍摄用户的图像(例如包括用户脸部的图像)的位置的相机。相机20可以是用于拍摄静止图像的相机或用于拍摄视频的相机。相机20可以被配置为可见光相机或近红外相机。
(功能配置)
下面参考图2描述根据第一示例性实施例的信息处理系统10的功能配置。图2是示出根据第一示例性实施例的信息处理系统的功能配置的方框图。
如图2所示,作为实现其功能的处理块,根据第一示例性实施例的信息处理系统10包括脸部方向获取单元110、注视方向获取单元120、确定单元130和输出单元140。脸部方向获取单元110、注视方向获取单元120、确定单元130和输出单元140中的每一个例如可以通过处理器11来实现或实施(参见图1)。输出单元140可以被配置为通过输出设备16来执行其输出(参见图1)。
脸部方向获取单元110被配置为获得用户的脸部方向(即,指向用户脸部的方向)。例如,可以获得用户的脸部方向作为指示脸部方向偏离参考方向多少度的信息。具体而言,例如,如果前方是用户面对相机的方向,则可以获得用户的脸部方向作为指示脸部方向偏离前方多少度的信息。脸部方向获取单元110例如可以被配置为根据用户的脸部图像来获得(估计)用户的脸部方向。在此省略根据图像来获得脸部方向的具体方法的详细描述,因为可以视情况将现有工艺/技术应用于方法。
注视方向获取单元120被配置为获得用户的注视方向(即,指向用户视线的方向)。与脸部方向类似,例如,可以获得用户的注视方向作为指示注视方向偏离参考方向多少度的信息。具体而言,例如,如果前方是用户面对相机的方向,则可以获得用户的注视方向作为指示注视方向偏离前方多少度的信息。注视方向获取单元120例如可以被配置为根据用户的脸部图像(更具体而言,包括眼睛周围的图像)来获得(估计)用户的注视方向。在此省略根据图像来获得注视方向的具体方法的详细描述,因为可以视情况将现有工艺/技术应用于方法。
确定单元130被配置为基于通过脸部方向获取单元110获得的用户的脸部方向以及通过注视方向获取单元120获得的用户的注视方向来确定用户是否为生物体(换言之,用户是否执行欺骗)。确定单元130包括阈值确定单元131和差异计算单元132。
阈值确定单元131被配置为确定脸部方向获取单元110所获得的用户的脸部方向的角度是否大于或等于预定阈值。这里的“预定阈值”是用于确定脸部方向的角度大到足以(即,用户将头部转向侧面)确定用户是否为生物体的阈值,并且可以通过预实验、模拟等来获得最佳值。此外,可以将预定阈值设置为不仅允许确定用户的脸部方向的范围,而且允许确定脸部方向是否为预定方向的阈值。例如,当指令用户向右看时,可以将预定阈值设置为允许确定用户向右看而不是向另一个方向看的阈值。确定单元130被配置为当在阈值确定单元131中确定用户的脸部方向的角度大于或等于预定阈值时,确定用户是否为生物体。换言之,确定单元130被配置为当确定用户的脸部方向的角度小于预定阈值时不确定用户是否为生物体。
差异计算单元132被配置为计算脸部方向获取单元110所获得的用户的脸部方向与注视方向获取单元120所获得的用户的注视方向之间的差异。确定单元130被配置为基于脸部方向与注视方向之间的差异来确定用户是否为生物体。在以下所述的另一个示例性实施例中将详细描述使用脸部方向与注视方向之间的差异的具体信息处理方法。
输出单元140被配置为输出确定单元130的确定结果(即,用户是否为生物体的确定结果)。输出单元140的输出方面没有特别限制,但是输出单元140例如可以通过使用显示器来输出图像。或者,输出单元140可以通过使用扬声器来输出音频。
(操作流程)
下面参考图3描述根据第一示例性实施例的信息处理系统10的操作流程。图3是示出根据第一示例性实施例的信息处理系统的操作流程的流程图。
如图3所示,在根据第一示例性实施例的信息处理系统10的操作中,首先,脸部方向获取单元110获得用户的脸部方向(步骤S101)。此外,注视方向获取单元120获得用户的注视方向(步骤S102)。步骤S101和S102可以互相先后执行,也可以并行同时执行。
随后,阈值确定单元131确定脸部方向获取单元110所获得的用户的脸部方向的角度是否大于或等于预定阈值(步骤S103)。当确定用户的脸部方向的角度不大于或等于预定阈值时(步骤S103:否),省略后续处理并结束一系列处理步骤。另一方面,当确定用户的脸部方向的角度大于或等于预定阈值时(步骤S103:是),差异计算单元132计算用户的脸部方向与注视方向之间的差异(步骤S104)。
随后,确定单元130基于用户的脸部方向与注视方向之间的差异来确定用户是否为生物体(步骤S105)。然后,输出单元140输出确定单元130的确定结果(步骤S106)。
(技术效果)
下面描述根据第一示例性实施例的信息处理系统10所获得的技术效果。
如图1至图3所示,在根据第一示例性实施例的信息处理系统10中,当脸部方向的角度大于或等于预定阈值时,确定用户是否为生物体。通过这种方式,可以防止因为用户的脸部方向的角度小而输出错误的确定结果。因此,可以以更高的准确性确定用户是否为生物体。
根据本申请发明人的研究发现,当用户的脸部方向的角度小时,即使用户是生物体,也可能被确定为不是生物体。因此,如果当用户的脸部方向的角度小时不执行确定,则可以防止用户被错误地确定为不是生物体。
<第二示例性实施例>
下面参考图4和图5描述根据第二示例性实施例的信息处理系统10。第二示例性实施例仅在配置和操作中与第一示例性实施例部分地不同,在其他部分中可以与第一示例性实施例相同。因此,下面将详细描述与以上所述第一示例性实施例不同的部分,并视情况省略其他重复部分的描述。
(功能配置)
首先参考图4描述根据第二示例性实施例的信息处理系统10的功能配置。图4是示出根据第二示例性实施例的信息处理系统的功能配置的方框图。在图4中,与图2所示的那些相同的组件具有相同的附图标记。
如图4所示,作为实现其功能的处理块,根据第二示例性实施例的信息处理系统10包括脸部方向获取单元110、注视方向获取单元120、确定单元130和输出单元140。尤其,根据第二示例性实施例的确定单元130包括阈值确定单元131、差异计算单元132、分数计算单元133、分数校正单元134和确定处理单元135。也就是说,除了第一示例性实施例中的配置之外(参见图2),根据第二示例性实施例的确定单元130还包括分数计算单元133、分数校正单元134和确定处理单元135。
分数计算单元133被配置为根据用户的脸部方向与注视方向之间的差异来计算指示用户是生物体的可能性的分数。例如,更高的分数指示用户是生物体的可能性更高。在以下所述的另一个示例性实施例中将详细描述计算分数的具体计算方法。
分数校正单元134被配置为根据用户的脸部方向的角度来校正分数计算单元133所计算的分数。分数被校正为使得确定单元130几乎不取得错误的确定结果。在以下所述的另一个示例性实施例中将详细描述校正分数的具体校正方法。
确定处理单元135被配置为基于分数校正单元134所校正的分数来确定用户是否为生物体。确定处理单元135例如可以存储确定阈值(即,用于确定用户是否为生物体的阈值),并且可以将经过校正的分数与确定阈值进行比较,以确定用户是否为生物体。
(操作流程)
下面参考图5描述根据第二示例性实施例的信息处理系统10的操作流程。图5是示出根据第二示例性实施例的信息处理系统的操作流程的流程图。在图5中,与图3所示的那些相同的步骤具有相同的附图标记。
如图5所示,在根据第二示例性实施例的信息处理系统10的操作中,首先,脸部方向获取单元110获得用户的脸部方向(步骤S101)。此外,注视方向获取单元120获得用户的注视方向(步骤S102)。
随后,阈值确定单元131确定脸部方向获取单元110所获得的用户的脸部方向的角度是否大于或等于预定阈值(步骤S103)。当确定用户的脸部方向的角度不大于或等于预定阈值时(步骤S103:否),省略后续处理并结束一系列处理步骤。另一方面,当确定用户的脸部方向的角度大于或等于预定阈值时(步骤S103:是),差异计算单元132计算用户的脸部方向与注视方向之间的差异(步骤S104)。
随后,分数计算单元133根据用户的脸部方向与注视方向之间的差异来计算分数(步骤S201)。然后,分数校正单元134根据用户的脸部方向的角度来校正分数(步骤S202)。然后,确定处理单元135基于经过校正的分数来确定用户是否为生物体(步骤S203)。然后,输出单元140输出确定单元130的确定结果(步骤S106)。
(技术效果)
下面描述根据第二示例性实施例的信息处理系统10所获得的技术效果。
如图4所示,在根据第二示例性实施例的信息处理系统10中,根据脸部方向的角度来校正根据脸部方向与注视方向之间的差异所计算的分数,并基于经过校正的分数来确定用户是否为生物体。通过这种方式,与不校正分数时相比,可以以更高的准确性确定用户是否为生物体。
<第三示例性实施例>
下面参考图6和图7描述根据第三示例性实施例的信息处理系统10。第三示例性实施例描述第二示例性实施例的具体校正示例,并且在其他配置和操作中可以与第一、第二示例性实施例相同。因此,下面将详细描述与以上所述的示例性实施例中的每个不同的部分,并视情况省略其他重复部分的描述。
(校正前的分数)
首先参考图6具体描述根据第三示例性实施例通过信息处理系统10计算的分数。图6是示出根据第三示例性实施例的通过信息处理系统计算的分数的分布示例的曲线图。
如图6所示,在根据第三示例性实施例的信息处理系统10中,执行计算使得生物体的分数为正值,三维遮掩(即,欺骗)的分数为负值。当用户的脸部方向的角度更大时,分数趋向于具有更高的值。因此,根据附图可见,当脸部方向的角度相对较小时,即使用户为生物体,分数也可能为负值。此外,由于脸部方向和注视方向的估计误差,即使用户不是生物体,分数也可能为正值。如果照原样将分数用于确定(例如,当通过使用确定阈值“0”来执行确定时),则可能出现错误的确定结果。为了防止这种错误的确定,在根据第三示例性实施例的信息处理系统10中,根据脸部方向的角度来校正分数。
(校正后的分数)
下面参考图7具体描述根据第三实施例在信息处理系统10中校正分数。图7是示出根据第三示例性实施例的在信息处理系统中校正分数的校正方法的示例的曲线图。
如图7所示,在根据第三示例性实施例的信息处理系统10中,执行校正使得脸部方向的角度越大,从分数中减去的校正量越大。因此,当脸部方向的角度小时的分数被校正为稍微更小,当脸部方向的角度大时的分数被校正为显著更小。例如可以通过使用以下校正方程(1)来执行这样的校正。
校正后分数=-A×脸部方向角度+B×校正前分数+C…(1),
其中,上式中的A、B、C为预定系数,并假设为事先获得。
观察校正后分数,当用户不是生物体时,所有分数为负值。因此,可以防止不是生物体的用户被错误地确定为生物体。另一方面,当用户为生物体时的分数在脸部方向的角度小的部分中为负值,但是在脸部方向的角度大于或等于预定阈值的确定目标区域(通过阈值确定单元131来执行确定的区域)中为正值。因此,可以防止是生物体的用户被错误地确定为不是生物体。
(技术效果)
下面描述根据第三示例性实施例的信息处理系统10所获得的技术效果。
如图6和图7所示,在根据第三示例性实施例的信息处理系统10中,执行校正使得脸部方向的角度越大,从分数中减去的校正量越大(即,使得分数更小)。通过这种方式,将计算的分数校正为适当的值。因此,可以以更高的准确性确定用户是否为生物体。
<第四示例性实施例>
下面参考图8和图9描述根据第四示例性实施例的信息处理系统10。第四示例性实施例仅在配置和操作中与第一至第三示例性实施例部分地不同,在其他部分中可以与第一至第三示例性实施例相同。因此,下面将视情况省略与以上所述每个示例性实施例重复部分的描述。
(功能配置)
首先参考图8描述根据第四示例性实施例的信息处理系统10的功能配置。图8是示出根据第四示例性实施例的信息处理系统的功能配置的方框图。在图8中,与图2和图4所示相同的组件具有相同的附图标记。
如图8所示,作为实现其功能的处理块,根据第四示例性实施例的信息处理系统10包括脸部方向获取单元110、注视方向获取单元120、确定单元130和输出单元140。尤其,在根据第二示例性实施例的确定单元130中,分数校正单元134包括校正方程存储单元1341和校正方程选择单元1342。
校正方程存储单元1341存储用于校正分数的多个校正方程。校正方程存储单元1341可以存储多个校正方程,例如具有不同系数的方程(1)。
校正方程选择单元1342被配置为从校正方程存储单元1341中存储的多个校正方程中选择要用于校正分数的一个校正方程。校正方程选择单元1342根据有关用户的信息来选择校正方程。“有关用户的信息”是与用户相关联的信息,例如指示用户的特征、属性和条件的信息。有关用户的信息例如可以是包括数值的信息,例如眼睛的位置(例如眼睛有多远),也可以是指示脸部特征的趋势的信息(例如有关种族的信息)。有关用户的信息可以是包括用户性别、脸部大小等的信息。可以根据用户的图像或根据其他手段(例如用户的输入、预注册信息等)来获得有关用户的信息。
(操作流程)
下面参考图9描述根据第四示例性实施例的信息处理系统10的操作流程。图9是示出根据第四示例性实施例的信息处理系统的操作流程的流程图。在图9中,与图3和图5中所示相同的步骤具有相同的附图标记。
如图9所示,在根据第四示例性实施例的信息处理系统10的操作中,首先,脸部方向获取单元110获得用户的脸部方向(步骤S101)。此外,注视方向获取单元120获得用户的注视方向(步骤S102)。
随后,阈值确定单元131确定脸部方向获取单元110所获得的用户的脸部方向的角度是否大于或等于预定阈值(步骤S103)。当确定用户的脸部方向的角度不大于或等于预定阈值时(步骤S103:否),省略后续处理并结束一系列处理步骤。另一方面,当确定用户的脸部方向的角度大于或等于预定阈值时(步骤S103:是),差异计算单元132计算用户的脸部方向与注视方向之间的差异(步骤S104)。
随后,分数计算单元133根据用户的脸部方向与注视方向之间的差异来计算分数(步骤S201)。尤其,在第四示例性实施例中,校正方程选择单元1342从存储在校正方程存储单元1341中的多个校正方程中选择一个要用于校正分数的校正方程(步骤S401)。然后,分数校正单元134通过使用校正方程选择单元1342所选择的校正方程来校正分数(步骤S402)。
随后,确定处理单元135基于经过校正的分数来确定用户是否为生物体(步骤S203)。然后,输出单元140输出确定单元130的确定结果(步骤S106)。
(技术效果)
下面描述根据第四示例性实施例的信息处理系统10所获得的技术效果。
如图8所示,在根据第四示例性实施例的信息处理系统10中,分数校正单元存储多个校正方程,并根据用户来选择校正方程(即,适当地使用校正方程),从而校正分数。通过这种方式,与总是按照相同的方式执行校正时的值相比,可以将分数校正为更适当的值。因此,可以以更高的准确性确定用户是否为生物体。
<第五示例性实施例>
下面参考图10至图12描述根据第五示例性实施例的信息处理系统10。第五示例性实施例仅在配置和操作中与第一至第四示例性实施例部分地不同,在其他部分中可以与第一至第四示例性实施例相同。因此,下面将详细描述与以上所述每个示例性实施例不同的部分,并视情况省略其他重复部分的描述。
(功能配置)
首先参考图10描述根据第五示例性实施例的信息处理系统10的功能配置。图10是示出根据第五示例性实施例的信息处理系统的功能配置的方框图。在图10中,与图4所示相同的组件具有相同的附图标记。
如图10所示,作为实现其功能的处理块,根据第五示例性实施例的信息处理系统10包括脸部方向获取单元110、注视方向获取单元120、确定单元130、输出单元140和通知单元150。也就是说,除了第二示例性实施例中的配置之外(参见图4),根据第五示例性实施例的信息处理系统10还包括通知单元150。
通知单元150被配置为根据确定处理单元135的确定结果来提供通知。更具体而言,通知单元150被配置为当确定处理单元135的确定结果在校正分数前后发生变化时提供确定结果中的变化的通知。根据第五示例性实施例的确定处理单元135被配置为不仅执行基于经过校正的分数的确定,而且执行基于校正前的分数的确定(以下视情况称为“暂定确定”)。
(操作流程)
下面参考图11描述根据第五示例性实施例的信息处理系统10的操作流程。图11是示出根据第五示例性实施例的信息处理系统的操作流程的流程图。在图11中,与图5中所示相同的步骤具有相同的附图标记。
如图11所示,在根据第五示例性实施例的信息处理系统10的操作中,首先,脸部方向获取单元110获得用户的脸部方向(步骤S101)。此外,注视方向获取单元120获得用户的注视方向(步骤S102)。
随后,阈值确定单元131确定脸部方向获取单元110所获得的用户的脸部方向的角度是否大于或等于预定阈值(步骤S103)。当确定用户的脸部方向的角度不大于或等于预定阈值时(步骤S103:否),省略后续处理并结束一系列处理步骤。另一方面,当确定用户的脸部方向的角度大于或等于预定阈值时(步骤S103:是),差异计算单元132计算用户的脸部方向与注视方向之间的差异(步骤S104)。
随后,分数计算单元133根据用户的脸部方向与注视方向之间的差异来计算分数(步骤S201)。尤其,在第五示例性实施例中,确定处理单元135基于校正前的分数执行用户是否为生物体的暂定确定(步骤S501)。然后,分数校正单元134根据用户的脸部方向的角度来校正分数(步骤S202)。然后,确定处理单元135基于经过校正的分数来确定用户是否为生物体(步骤S203)。
随后,通知单元150确定该确定处理单元135的确定结果在校正分数前后是否发生变化(步骤S502)。当确定该确定结果在校正分数前后发生变化时(步骤S502:是),通知单元150通过校正来通知确定结果中的变化(步骤S503)。然后,输出单元140输出确定单元130的确定结果(步骤S106)。
可以连同输出单元140的输出一起提供通知单元150的通知。例如,可以通过使用公共显示器来执行通知单元150的通知和输出单元140的输出。此外,可以将通知单元150的通知提供给用户,或者提供给系统管理员或管理者等。
(显示示例)
下面参考图12描述根据第五示例性实施例的信息处理系统10中的显示示例(具体而言,反映通知单元150的通知的显示示例)。图12是示出根据第五示例性实施例的信息处理系统的显示示例的示意图。
如图12所示,在根据第五示例性实施例的信息处理系统10中,可以连同用户的脸部图像一起显示确定单元130的确定结果(即,输出单元140的输出)。在这种情况下,将用户的确定结果输出为“OK”(即,为生物体)。尤其,在第五实施例中,除了确定结果之外,还可以显示通知单元150的通知。在此,在确定结果下方显示消息“通过分数校正改变结果”。作为这种消息的替代,例如可以显示指示低可靠性的消息或提示重试确定的消息。
(技术效果)
下面描述根据第五示例性实施例的信息处理系统10所获得的技术效果。
如图10至图12所述,在根据第五示例性实施例的信息处理系统10中,当用户是否为生物体的确定结果在分数被校正前后发生改变时,执行通知其的处理。通过这种方式,因为是在原始分数接近确定阈值的情况下提供通知,所以例如可以知道这一次的确定不容易(换言之,确定的可靠性可能低)。
<第六示例性实施例>
下面参考图13和图14描述根据第六示例性实施例的信息处理系统10。第六示例性实施例仅在配置和操作中与第一至第五示例性实施例部分地不同,在其他部分中可以与第一至第五示例性实施例相同。因此,下面将详细描述与以上所述每个示例性实施例不同的部分,并视情况省略其他重复部分的描述。
(获取脸部方向和注视方向)
首先参考图13具体描述根据第六示例性实施例的在信息处理系统10中获得脸部方向和前方方向的方法。图13是示出根据第六示例性实施例的通过信息处理系统获取脸部方向和注视方向的时刻的曲线图。
如图13所示,在根据第六示例性实施例的信息处理系统10中,在用户来回摇动头部的操作期间(即,在重复将头部向右转动的操作以及将头部向左转动的操作时)获得用户的脸部方向和注视方向。更具体而言,在用户摇动头部的操作期间拍摄多个图像,并根据图像来获得(估计)用户的脸部方向和注视方向。
当用户的脸部方向的角度处于峰值时,在时刻(附图中的P1、P2、P3、P4)获得用户的脸部方向和注视方向。在这种情况下,总共获得4次用户的脸部方向和注视方向,其中在向右方向上处于峰值2次,在向左方向上处于峰值2次。这里的获取次数是示例,例如可以获得4次以上用户的脸部方向和注视方向。
(分数计算示例)
下面参考图14具体描述根据第六示例性实施例的在信息处理系统10中计算分数的方法。图14是示出根据第六示例性实施例的通过信息处理系统计算分数的方法的概念图。
如图14所示,在根据第六示例性实施例的信息处理系统10中,根据在多个时刻获得的脸部方向和注视方向来计算多个差异。因此,如图13所示,当在P1、P2、P3、P4获得4次用户的脸部方向和注视方向时,将差异计算为包括与P1、P2、P3和P4相对应的4个值的差异(即,四维向量)。将通过这种方式计算的差异被输入到分数计算单元133中,并计算分数作为其输出。例如,这种情况下的分数计算单元133可以被配置为学习SVM(支持向量机)。
(技术效果)
下面描述根据第六示例性实施例的信息处理系统10所获得的技术效果。
如图13和图14所示,在根据第六示例性实施例的信息处理系统10中,根据在用户摇动头部的操作期间拍摄的多个图像在多个时刻获得脸部方向和注视方向。通过这种方式,与仅一次获得脸部方向和注视方向时相比,可以以更高的准确性确定用户是否为生物体。
<第七示例性实施例>
下面参考图15至图18描述根据第七示例性实施例的信息处理系统10。第七示例性实施例仅在操作中与第六示例性实施例部分地不同,在其他部分中可以与第一至第六示例性实施例相同。因此,下面将详细描述与以上所述每个示例性实施例不同的部分,并视情况省略其他重复部分的描述。
(功能配置)
首先参考图15描述根据第七示例性实施例的信息处理系统10的功能配置。图15是示出根据第七示例性实施例的信息处理系统的功能配置的方框图。在图15中,与图2所示相同的组件具有相同的附图标记。
如图15所示,作为实现其功能的处理块,根据第七示例性实施例的信息处理系统10包括脸部方向获取单元110、注视方向获取单元120、确定单元130、输出单元140和摇动指令单元160。也就是说,除了第一示例性实施例中的配置之外(参见图2),根据第七示例性实施例的信息处理系统10还包括摇动指令单元160。除了阈值确定单元131和差异计算单元132之外,根据第七示例性实施例的确定单元130还包括摇动确定单元136。
摇动确定单元136被配置为确定是否适当地执行获得用户的脸部方向和注视方向(第六示例性实施例:参见图13)时的摇动。摇动确定单元136可以确定摇动是否适当,例如,根据用户是否足够大地摇动头部(例如,脸部方向的角度的峰值是否超过预定角度),或者根据用户是否在适当的方向上转动头部(例如,在用户应当向右转动头部的时刻,用户是否在另一个方向上(例如向下)转动头部)。
摇动指令单元160被配置为当摇动确定单元136确定用户没有适当摇动头部时向用户输出适当摇动头部的指令。可以连同输出单元140的输出一起提供摇动指令单元160的指令。例如,可以通过使用公共显示器来提供摇动指令单元160的指令和输出单元140的输出。当用户多次摇动头部时,可以仅针对一部分动作输出指令。例如,当图14所示P1、P2、P3、P4中仅在P3处获得的脸部方向不适当时(例如,当在P1、P2、P4处角度足够,仅在P3处角度小的时候),摇动指令单元160可以仅针对与P3相对应的摇动操作输出指令。具体而言,可以输出指令,在与P3的动作相对应的方向上更大地摇动头部。
(操作流程)
下面参考图16描述根据第七示例性实施例的信息处理系统10的操作流程。图16是示出根据第七示例性实施例的信息处理系统的操作流程的流程图。在图16中,与图3中所示的那些相同的步骤具有相同的附图标记。
如图16所示,在根据第七示例性实施例的信息处理系统10的操作中,首先,脸部方向获取单元110获得用户的脸部方向(步骤S101)。此外,注视方向获取单元120获得用户的注视方向(步骤S102)。
随后,摇动确定单元136确定用户是否适当地摇动头部(步骤S701)。当确定用户没有适当地摇动头部时(步骤S701:否),摇动指令单元160向用户输出适当地摇动头部的指令。然后,重新执行步骤S101和S102(即,获取脸部方向和注视方向)。
另一方面,当确定用户适当地摇动头部时(步骤S701:是),阈值确定单元131确定脸部方向获取单元110所获得的用户的脸部方向的角度是否大于或等于预定阈值(步骤S103)。当确定用户的脸部方向的角度不大于或等于预定阈值时(步骤S103:否),省略后续处理并结束一系列处理步骤。另一方面,当确定用户的脸部方向的角度大于或等于预定阈值时(步骤S103:是),差异计算单元132计算用户的脸部方向与注视方向之间的差异(步骤S104)。
随后,确定单元130基于用户的脸部方向与注视方向之间的差异来确定用户是否为生物体(步骤S105)。然后,输出单元140输出确定单元130的确定结果(步骤S106)。
(显示示例)
下面参考图17和图18描述根据第七示例性实施例的信息处理系统10中的显示示例(具体而言,反映摇动指令单元160的指令的显示示例)。图17是示出根据第七示例性实施例的信息处理系统的显示示例的示意图的版本1。图18是示出根据第七示例性实施例的信息处理系统的显示示例的示意图的版本2。
如图17所示,在根据第七示例性实施例的信息处理系统10中,可以与用户的图像一起显示提示用户更大地转动头部的消息。例如,如同在图17的示例中,可以显示消息“请再转动头部一点”。通过这种方式,可以预期用户更大地转动头部,并且因此,在脸部方向的角度足够大的条件下,可以获得用户的脸部方向和注视方向。
如图18所示,在根据第七示例性实施例的信息处理系统10中,可以与用户的图像一起显示指示用户应当大幅转动头部的方向的消息。例如,如同在图18的示例中,可以显示消息“请向左再转动头部一点”。通过这种方式,例如,当向右摇动足够大,但是向左摇动不够时,可以向用户提供准确的指令。
(技术效果)
下面描述根据第七示例性实施例的信息处理系统10所获得的技术效果。
如图15至图18所示,在根据第七示例性实施例的信息处理系统10中,当用户摇动头部不适当时,向用户输出适当地摇动头部的指令。通过这种方式,可以使得用户适当地摇动头部,并且可以适当地获得用户的脸部方向和注视方向,并且因此,可以以更高的准确性确定用户是否为生物体。
<第八示例性实施例>
下面参考图19和图20描述根据第八示例性实施例的信息处理系统10。根据第八示例性实施例的信息处理系统10仅在操作中与第一至第七示例性实施例部分地不同,在其他部分中可以与第一至第七示例性实施例相同。因此,下面将详细描述与以上所述每个示例性实施例不同的部分,并视情况省略其他重复部分的描述。
(功能配置)
首先参考图19描述根据第八示例性实施例的信息处理系统10的功能配置。图19是示出根据第八示例性实施例的信息处理系统的功能配置的方框图。在图19中,与图2和图4所示相同的组件具有相同的附图标记。
如图19所示,作为实现其功能的处理块,根据第八示例性实施例的信息处理系统10包括脸部方向获取单元110、注视方向获取单元120、确定单元130和输出单元140。具体而言,根据第八示例性实施例的确定单元130包括差异计算单元132、分数计算单元133、分数校正单元134和确定处理单元135。
与以上所述的第一至第七示例性实施例不同,根据第八示例性实施例的信息处理系统10不包括阈值确定单元131。因此,无论用户的脸部方向的角度是否大于或等于预定阈值,都通过确定单元130来执行确定。下面详细描述确定单元130的具体操作。
(操作流程)
下面参考图20描述根据第八示例性实施例的信息处理系统10的操作流程。图20是示出根据第八示例性实施例的信息处理系统的操作流程的流程图。在图20中,与图3和图5所示的那些相同的步骤具有相同的附图标记。
如图20所示,在根据第八示例性实施例的信息处理系统10的操作中,首先,脸部方向获取单元110获得用户的脸部方向(步骤S801)。此外,注视方向获取单元120获得用户的注视方向(步骤S802)。
随后,差异计算单元132计算用户的脸部方向与注视方向之间的差异(步骤S803)。然后,分数计算单元133根据用户的脸部方向与注视方向之间的差异来计算分数(步骤S804)。然后,分数校正单元134根据用户的脸部方向的角度来校正分数(步骤S805)。
随后,确定处理单元135基于经过校正的分数来确定用户是否为生物体(步骤S806)。然后,输出单元140输出确定单元130的确定结果(步骤S807)。
(技术效果)
下面描述根据第八示例性实施例的信息处理系统10所获得的技术效果。
如图19和图20所示,在根据第八示例性实施例的信息处理系统10中,根据脸部方向的角度来校正根据脸部方向与注视方向之间的差异所计算的分数,并基于经过校正的分数来确定用户是否为生物体。通过这种方式,可以以更高的准确性确定用户是否是生物体,因为分数被校正为适当的值。
将允许每个示例性实施例中的配置操作以实现每个示例性实施例的功能的程序记录在记录介质上以及将记录在记录介质上的程序作为代码读取并在计算机上执行的处理方法也包括在每个示例性实施例的范围内。也就是说,计算机可读记录介质也包括在每个示例性实施例的范围内。在每个示例性实施例中不仅包括记录上述程序的记录介质,而且包括程序本身。
要使用的记录介质例如可以是软盘(注册商标)、硬盘、光盘、磁光盘、CD-ROM、磁带、非易失性存储卡或ROM。此外,在每个示例性实施例的范围内不仅包括记录在记录介质上并单独执行进程的程序,而且包括在操作系统上运行并与扩展板和其他软件的功能合作执行进程的程序。
本公开不限于以上所述示例,并且如果需要,允许在不脱离可以从权利要求书和整个说明书中读取的本公开的本质或精神的情况下进行改变。具有这些改变的信息处理系统、信息处理方法和记录介质也意图落入本公开的技术范围内。
<补充说明>
以上所述的示例性实施例可以被进一步描述为以下的补充说明,但是不限于此。
(补充说明1)
根据补充说明1所述的信息处理系统是一种信息处理系统,包括:脸部方向获取单元,其获得用户的脸部方向;注视方向获取单元,其获得用户的注视方向;确定单元,当脸部方向的角度大于或等于预定阈值时,其基于脸部方向与注视方向之间的差异来确定用户是否为生物体;以及输出单元,其输出确定的结果。
(补充说明2)
根据补充说明2所述的信息处理系统是根据补充说明1所述的信息处理系统,其中,确定单元包括:计算单元,其根据脸部方向与注视方向之间的差异来计算指示用户为生物体的可能性的分数;校正单元,其根据脸部方向的角度来校正分数;以及确定处理单元,其基于经过校正的分数来确定用户是否为生物体。
(补充说明3)
根据补充说明3所述的信息处理系统是根据补充说明2所述的信息处理系统,其中,校正单元校正分数,使得脸部方向的角度越大,从分数中减去的校正量越大。
(补充说明4)
根据补充说明4所述的信息处理系统是根据补充说明2或3所述的信息处理系统,其中,校正单元存储用于校正分数的多个校正方程,并根据有关用户的信息来选择校正方程,从而校正分数。
(补充说明5)
根据补充说明5所述的信息处理系统是根据补充说明2至4中的任一项所述的信息处理系统,其中,确定处理单元基于经过校正的分数来确定用户是否为生物体,以及基于校正前的分数来确定用户是否为生物体,并且信息处理系统进一步包括通知单元,当确定处理单元的确定结果在校正前后发生变化时,通知单元在确定结果中通知变化。
(补充说明6)
根据补充说明6所述的信息处理系统是根据补充说明1至5中的任一项所述的信息处理系统,其中,脸部方向获取单元和注视方向获取单元分别从用户向侧面摇动头部的动作期间拍摄的多个图像中获得多个时刻的脸部方向和注视方向,并且确定单元基于多个时刻的脸部方向与注视方向之间的差异来确定用户是否为生物体。
(补充说明7)
根据补充说明7所述的信息处理系统是根据补充说明6所述的信息处理系统,其进一步包括指令单元,当检测到用户不适当地摇动头部时,指令单元指令用户如何适当地摇动头部。
(补充说明8)
根据补充说明8所述的信息处理系统是一种信息处理系统,包括:脸部方向获取单元,其获得用户的脸部方向;注视方向获取单元,其获得用户的注视方向;计算单元,其根据脸部方向与注视方向之间的差异来计算指示用户为生物体的可能性的分数;校正单元,其根据脸部方向的角度来校正分数;确定处理单元,其基于经过校正的分数来确定用户是否为生物体;以及输出单元,其输出确定的结果。
(补充说明9)
根据补充说明9所述的信息处理方法是一种信息处理方法,包括:获得用户的脸部方向;获得用户的注视方向;当脸部方向的角度大于或等于预定阈值时,基于脸部方向与注视方向之间的差异来确定用户是否为生物体;以及输出确定的结果。
(补充说明10)
根据补充说明10所述的记录介质是其上记录允许计算机执行信息处理方法的计算机程序的记录介质,信息处理方法包括:获得用户的脸部方向;获得用户的注视方向;当脸部方向的角度大于或等于预定阈值时,基于脸部方向与注视方向之间的差异来确定用户是否为生物体;以及输出确定的结果。
(补充说明11)
根据补充说明11所述的计算机程序是允许计算机执行信息处理方法的计算机程序,信息处理方法包括:获得用户的脸部方向;获得用户的注视方向;当脸部方向的角度大于或等于预定阈值时,基于脸部方向与注视方向之间的差异来确定用户是否为生物体;以及输出确定的结果。
附图文字的描述
10 信息处理系统
11 处理器
16 输出设备
20 相机
110 脸部方向获取单元
120 注视方向获取单元
130 确定单元
131 阈值确定单元
132 差异计算单元
133 分数计算单元
134 分数校正单元
1341 校正方程存储单元
1342 校正方程选择单元
135 确定处理单元
136 摇动确定单元
140 输出单元
150 通知单元
160 摇动指令单元

Claims (10)

1.一种信息处理系统,包括:
脸部方向获取单元,所述脸部方向获取单元获得用户的脸部方向;
注视方向获取单元,所述注视方向获取单元获得所述用户的注视方向;
确定单元,当所述脸部方向的角度大于或等于预定阈值时,所述确定单元基于所述脸部方向与所述注视方向之间的差异来确定所述用户是否为生物体;以及
输出单元,所述输出单元输出所述确定的结果。
2.根据权利要求1所述的信息处理系统,其中,
所述确定单元包括:
计算单元,所述计算单元从所述脸部方向与所述注视方向之间的所述差异来计算指示所述用户为生物体的可能性的分数;
校正单元,所述校正单元根据所述脸部方向的所述角度来校正所述分数;以及
确定处理单元,所述确定处理单元基于所校正的分数来确定所述用户是否为生物体。
3.根据权利要求2所述的信息处理系统,其中,所述校正单元校正所述分数,使得随着所述脸部方向的所述角度越大,从所述分数中减去的校正量越大。
4.根据权利要求2或3所述的信息处理系统,其中,所述校正单元存储用于校正所述分数的多个校正方程,并且根据有关所述用户的信息来选择所述校正方程,从而校正所述分数。
5.根据权利要求2至4中的任一项所述的信息处理系统,其中,
所述确定处理单元基于所校正的分数来确定所述用户是否为生物体,以及基于校正前的分数来确定所述用户是否为生物体,以及
所述信息处理系统进一步包括通知单元,当所述确定处理单元的确定结果在校正前后发生变化时,所述通知单元在确定结果中通知变化。
6.根据权利要求1至5中的任一项所述的信息处理系统,其中,
所述脸部方向获取单元和所述注视方向获取单元分别从所述用户向侧面摇动头部的动作期间拍摄的多个图像中获得多个时刻的所述脸部方向和所述注视方向,以及
所述确定单元基于所述多个时刻的所述脸部方向与所述注视方向之间的差异来确定所述用户是否为生物体。
7.根据权利要求6所述的信息处理系统,进一步包括指令单元,当检测到所述用户不适当地摇动头部时,所述指令单元指令所述用户如何适当地摇动头部。
8.一种信息处理系统,包括:
脸部方向获取单元,所述脸部方向获取单元获得用户的脸部方向;
注视方向获取单元,所述注视方向获取单元获得所述用户的注视方向;
计算单元,所述计算单元从所述脸部方向与所述注视方向之间的差异来计算指示所述用户为生物体的可能性的分数;
校正单元,所述校正单元根据所述脸部方向的角度来校正所述分数;
确定处理单元,所述确定处理单元基于所校正的分数来确定所述用户是否为生物体;以及
输出单元,所述输出单元输出所述确定的结果。
9.一种信息处理方法,包括:
获得用户的脸部方向;
获得所述用户的注视方向;
当所述脸部方向的角度大于或等于预定阈值时,基于所述脸部方向与所述注视方向之间的差异来确定所述用户是否为生物体;以及
输出所述确定的结果。
10.一种记录介质,其上记录有允许计算机执行信息处理方法的计算机程序,所述信息处理方法包括:
获得用户的脸部方向;
获得所述用户的注视方向;
当所述脸部方向的角度大于或等于预定阈值时,基于所述脸部方向与所述注视方向之间的差异来确定所述用户是否为生物体;以及
输出所述确定的结果。
CN202180097472.1A 2021-04-28 2021-04-28 信息处理系统、信息处理方法及记录介质 Pending CN117256007A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/017010 WO2022230117A1 (ja) 2021-04-28 2021-04-28 情報処理システム、情報処理方法、及び記録媒体

Publications (1)

Publication Number Publication Date
CN117256007A true CN117256007A (zh) 2023-12-19

Family

ID=83847902

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180097472.1A Pending CN117256007A (zh) 2021-04-28 2021-04-28 信息处理系统、信息处理方法及记录介质

Country Status (4)

Country Link
US (1) US20240078704A1 (zh)
EP (1) EP4332880A4 (zh)
CN (1) CN117256007A (zh)
WO (1) WO2022230117A1 (zh)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4826234B2 (ja) 2005-11-30 2011-11-30 オムロン株式会社 顔認証装置、セキュリティ強度変更方法およびプログラム
JP4807167B2 (ja) 2006-07-06 2011-11-02 オムロン株式会社 なりすまし検知装置
ES2495425T3 (es) * 2011-07-11 2014-09-17 Accenture Global Services Limited Detección de vida
JP2014206932A (ja) * 2013-04-15 2014-10-30 オムロン株式会社 認証装置、認証方法、制御プログラムおよび記録媒体
EP4047551A1 (en) 2014-10-15 2022-08-24 NEC Corporation Impersonation detection device, impersonation detection method, and recording medium
JP6376246B2 (ja) 2017-05-11 2018-08-22 オムロン株式会社 認証装置、認証方法、制御プログラムおよび記録媒体
US10997396B2 (en) * 2019-04-05 2021-05-04 Realnetworks, Inc. Face liveness detection systems and methods

Also Published As

Publication number Publication date
EP4332880A4 (en) 2024-05-29
US20240078704A1 (en) 2024-03-07
JPWO2022230117A1 (zh) 2022-11-03
WO2022230117A1 (ja) 2022-11-03
EP4332880A1 (en) 2024-03-06

Similar Documents

Publication Publication Date Title
KR101365789B1 (ko) 얼굴 특징점 위치 보정 장치, 얼굴 특징점 위치 보정 방법, 및 얼굴 특징점 위치 보정 프로그램을 기록한 컴퓨터 판독가능 기록 매체
US9652861B2 (en) Estimating device and estimation method
EP2665017B1 (en) Video processing apparatus and method for managing tracking object
JP6575325B2 (ja) カメラ位置姿勢推定装置、カメラ位置姿勢推定方法およびカメラ位置姿勢推定プログラム
US20150077335A1 (en) Information processing apparatus and information processing method
US11216968B2 (en) Face direction estimation device and face direction estimation method
US20180365837A1 (en) Image processing apparatus, image processing method, and storage medium
US11740477B2 (en) Electronic device, method for controlling electronic device, and non-transitory computer readable storage medium
JP6065842B2 (ja) 辞書学習装置、パターン照合装置、辞書学習方法およびコンピュータプログラム
US12085726B2 (en) Information processing device and information processing method
CN117256007A (zh) 信息处理系统、信息处理方法及记录介质
US20140184548A1 (en) Computer-readable storage medium, coordinate processing apparatus, coordinate processing system, and coordinate processing method
US8483449B2 (en) Registration device, checking device, program, and data structure
JP7571870B2 (ja) 情報処理システム、情報処理方法、及び記録媒体
WO2022176323A1 (ja) 生体認証システム、生体認証方法、及び記録媒体
CN107767712B (zh) 调整匹配度的方法、装置、存储介质及电子设备
US20230351729A1 (en) Learning system, authentication system, learning method, computer program, learning model generation apparatus, and estimation apparatus
WO2019065784A1 (ja) 画像処理装置、画像処理方法、及びコンピュータ読み取り可能な記録媒体
JP2010134489A (ja) 視線検出装置および方法、並びに、プログラム
JP7279892B2 (ja) 顔向き検出装置、顔向き検出方法、及びプログラム
WO2021161380A1 (ja) 視線推定システム、視線推定方法、及びコンピュータプログラム
JP7568114B2 (ja) 情報処理システム、情報処理装置、情報処理方法、及び記録媒体
JP7279893B2 (ja) 顔検出装置、顔検出方法、及びプログラム
US20210368092A1 (en) Imaging control apparatus, imaging control method, and storage medium
CN111986230A (zh) 一种视频中目标物的姿态跟踪方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination