CN105739707A - 电子设备、脸部识别跟踪方法和三维显示方法 - Google Patents

电子设备、脸部识别跟踪方法和三维显示方法 Download PDF

Info

Publication number
CN105739707A
CN105739707A CN201610125440.9A CN201610125440A CN105739707A CN 105739707 A CN105739707 A CN 105739707A CN 201610125440 A CN201610125440 A CN 201610125440A CN 105739707 A CN105739707 A CN 105739707A
Authority
CN
China
Prior art keywords
face
dimensional display
electronic equipment
image
camera head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610125440.9A
Other languages
English (en)
Other versions
CN105739707B (zh
Inventor
王海生
董学
薛海林
陈小川
刘英明
丁小梁
杨盛际
赵卫杰
李昌峰
刘伟
王鹏鹏
赵文卿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Beijing BOE Optoelectronics Technology Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Beijing BOE Optoelectronics Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd, Beijing BOE Optoelectronics Technology Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN201610125440.9A priority Critical patent/CN105739707B/zh
Priority to PCT/CN2016/081633 priority patent/WO2017147999A1/zh
Priority to EP16892188.0A priority patent/EP3425906B1/en
Priority to US15/538,411 priority patent/US10282594B2/en
Publication of CN105739707A publication Critical patent/CN105739707A/zh
Application granted granted Critical
Publication of CN105739707B publication Critical patent/CN105739707B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Ophthalmology & Optometry (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种电子设备、脸部识别跟踪方法和三维显示方法。该电子设备包括:摄像装置,被配置为拍摄用户的脸部图像;正面脸部图像获取模块,通过所述摄像装置获取所述用户的正面脸部图像;脸部跟踪模块,将由所述摄像装置拍摄到的脸部图像与所述正面脸部图像进行比较操作,以确定所述用户的脸部在垂直于所述摄像装置的中心光轴的平面方向上移动的距离,其中所述比较操作包括比较由所述摄像装置拍摄到的脸部图像中特定部分的面积占整个脸部面积的比例与所述正面脸部图像中的该特定部分的面积占整个脸部面积的比例。本公开的实施例提供的电子设备可以对用户的脸部进行识别跟踪。

Description

电子设备、脸部识别跟踪方法和三维显示方法
技术领域
本公开的实施例涉及一种电子设备、脸部识别跟踪方法和三维显示方法。
背景技术
三维(3D)显示技术分为眼镜式三维显示技术和裸眼式三维显示技术。眼镜式三维显示技术需要用户佩戴眼镜或头盔,其舒适度较低,应用范围较窄。而裸眼式三维显示技术不需要任何辅助设备(如眼镜、头盔等),即可获得逼真的三维图像。目前,裸眼式三维显示技术已应用于3D游戏机、3D电视、3D灯箱等设备。
脸部识别技术目前主要应用在摄影器材和视频监控设备中,用于实现自动对焦、安防报警等功能。
发明内容
本公开的实施例提供一种电子设备,包括:摄像装置,被配置为拍摄用户的脸部图像;正面脸部图像获取模块,通过所述摄像装置获取所述用户的正面脸部图像;脸部跟踪模块,将由所述摄像装置拍摄到的脸部图像与所述正面脸部图像进行比较操作,以确定所述用户的脸部在垂直于所述摄像装置的中心光轴的平面方向上的移动距离,其中所述比较操作包括比较由所述摄像装置拍摄到的脸部图像中特定部分的面积占整个脸部面积的比例与所述正面脸部图像中的该特定部分的面积占整个脸部面积的比例。
在一些示例中,所述摄像装置包括间隔设置的多个摄像头。
在一些示例中,所述摄像装置为红外摄像装置。
在一些示例中,所述红外摄像装置的入光侧设置有遮挡层,所述遮挡层被配置为遮挡可见光而透过红外光。
在一些示例中,所述电子设备还包括功能控制模块,被配置为检测所述摄像装置中的多个摄像头被遮挡的摄像头的数量,所述功能控制模块根据所述数量触发特定命令。
在一些示例中,所述特定部分包括所述脸部图像中的额头部分、两眼中心与鼻尖连线及其延长线一侧的部分、或者两眼连线及其延长线一侧的部分。
在一些示例中,所述电子设备包括三维显示装置,所述摄像装置设置在所述三维显示装置的显示区域的周边。
在一些示例中,所述三维显示装置包括主动视差屏障层。
在一些示例中,所述三维显示装置包括控制显示的控制芯片,所述控制芯片被配置为根据所述脸部跟踪模块获取的所述脸部的移动距离调整三维显示的可视区。
在一些示例中,所述正面脸部图像获取模块和所述脸部跟踪模块位于所述控制芯片中。
在一些示例中,所述电子设备包括位于所述三维显示装置之外的中央处理器。
本公开至少一个实施例还提供一种脸部识别跟踪方法,包括:正面脸部图像获取步骤,获取用户的正面脸部图像;脸部移动判断步骤,通过摄像装置拍摄用户的脸部图像并进行识别,将由所述摄像装置拍摄到的脸部图像与所述正面脸部图像进行比较操作,以确定所述用户的脸部在垂直于所述摄像装置的中心光轴的平面方向上的移动距离,其中所述比较操作包括比较由所述摄像装置拍摄到的脸部图像中特定部分的面积占整个脸部面积的比例与所述正面脸部图像中的该特定部分的面积占整个脸部面积的比例。
在一些示例中,所述脸部移动判断步骤中使用多个摄像头拍摄所述用户的脸部图像。
在一些示例中,所述脸部移动判断步骤中使用的摄像装置为红外摄像装置。
在一些示例中,所述特定部分包括所述脸部图像中的额头部分、两眼中心与鼻尖连线及其延长线一侧的部分、或者两眼连线及其延长线一侧的部分。
本公开至少一个实施例还提供一种三维显示方法,包括:根据本公开至少一个实施例提供的脸部识别跟踪方法;以及三维显示调整步骤,根据所述脸部识别跟踪方法获取的所述脸部的移动距离调整三维显示的可视区。
在一些示例中,所述三维显示调整步骤包括根据所述移动距离判断所述脸部是否移出所述三维显示的可视区,当所述脸部移出所述三维显示的可视区时,调整所述三维显示的可视区,以使得所述脸部位于所述三维显示的可视区内。
在一些示例中,所述三维显示调整步骤包括根据所述移动距离调整所述三维显示的可视区,以使得所述脸部位于所述可视区的中央部分。
在一些示例中,所述三维显示使用主动视差屏障层,所述调整三维显示的可视区包括移动所述主动视差屏障层的挡光条或柱状透镜。
在一些示例中,所述正面脸部图像步骤和所述脸部移动判断步骤由所述三维显示装置的控制芯片进行控制并进行数据处理。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例的附图作简单地介绍,显而易见地,下面描述中的附图仅仅涉及本发明的一些实施例,而非对本发明的限制。
图1是本公开实施例提供的一种电子设备的组成示意图;
图2是本公开实施例提供的一种电子设备的结构示意图;
图3是本公开实施例提供的一种电子设备获取的脸部图像的示意图;
图4是本公开实施例提供的一种电子设备中三维显示装置的显示原理示意图;
图5是本公开实施例提供的一种电子设备中三维显示装置一个示例的示意图;
图6是本公开实施例提供的一种电子设备中三维显示装置另一个示例的示意图;
图7是本公开实施例提供的一种电子设备中三维显示装置又一个示例的示意图;
图8是本公开实施例提供的一种电子设备中主动视差屏障层的示意图;
图9是本公开实施例提供的一种电子设备工作过程的示意图;
图10是本公开实施例提供的一种电子设备的组成示意图;
图11是本公开实施例提供的一种脸部识别跟踪方法的流程图;
图12是本公开实施例提供的一种三维显示方法的流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例的附图,对本发明实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于所描述的本发明的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其它实施例,都属于本发明保护的范围。
除非另作定义,此处使用的技术术语或者科学术语应当为本发明所属领域内具有一般技能的人士所理解的通常意义。本发明专利申请说明书以及权利要求书中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。同样,“一个”或者“一”等类似词语也不表示数量限制,而是表示存在至少一个。
第一实施例
本公开的实施例提供一种电子设备100,如图1所示,包括摄像装置110,被配置为拍摄用户的脸部图像;正面脸部图像获取模块120,通过摄像装置110获取用户的正面脸部图像;脸部跟踪模块130,将由摄像装置110拍摄到的脸部图像与正面脸部图像进行比较操作,以确定用户的脸部在垂直于摄像装置110的中心光轴的平面方向上移动的距离。比较操作包括比较由摄像装置110拍摄到的脸部图像中特定部分的面积占整个脸部面积的比例与正面脸部图像中的该特定部分的面积占整个脸部面积的比例。
本公开的电子设备可以根据脸部相对于电子设备移动时所拍摄到的脸部图像特定部位的面积占整个脸部面积的比例变化来得到脸部相对于电子设备移动的距离。电子设备可以根据该距离进行特定的操作,例如,可以根据该距离调整电子设备中三维显示装置的可视区,但根据本公开的实施例不限于此。
例如,该电子设备可以具有操作面或者显示面,当人脸正对该电子设备的操作面或者显示面,并且处于最佳操作位置或者观看位置时,电子设备的上述摄像装置所拍摄到的人脸图像可以选作正面脸部图像。对于正面脸部图像的获得,可以通过摄像装置110一次拍摄得到。在进行拍摄时,可以根据用户操作设备时的主观感受判断是否正对于电子设备的操作面或者显示面,当处于最佳操作位置或观看位置时进行拍摄。然而,由于不同用户主观感受的差异,一次拍摄得到的图像可能并非理想的正面脸部图像。因此,在一些示例中,可以进行多次拍摄操作,随后,在对应于人脸图像的区域中提取例如人眼中心点或嘴唇的两个端点等特征点,基于这些特征点通过例如机器学习等方法使人脸图像归一化,最后存储归一化后的人脸图像作为正面脸部图像。
例如,脸部跟踪模块130也可以作为眼部跟踪模块,根据本公开的实施例的脸部识别跟踪功能也可以实现眼部跟踪的功能。在观察电子设备显示区域的时候,人眼总是聚焦在电子设备的显示屏上,当人脸或者电子设备有轻微移动时,人眼还是聚焦在手机上。眼部在人脸的相对位置并没有多大的变化,这样,可以通过判断人脸的轮廓来判断人眼的位置,从而实现眼部跟踪。
图2是本公开实施例提供的一种电子设备的平面结构示意图。例如,图2中的示意图显示了电子设备100的正面,该正面可以是该电子设备100的操作面或显示面。如图2所示,在电子设备100中,设置有摄像装置110。例如,摄像装置110设置在电子设备100的操作面或者显示面上,且摄像装置110的中心光轴可以垂直于电子设备100的显示面或操作面。根据本公开实施例的电子设备可以检测用户脸部沿平行于电子设备100的显示面或操作面的平面内移动的距离,也就是说,可以检测用户的脸部在垂直于所述摄像装置的中心光轴的平面方向上的移动距离。例如,这里所述的摄像装置的中心光轴是指其光学镜头的主光轴。在摄像装置包括多个摄像头的情况下,多个摄像头的光学镜头的主光轴可以彼此平行。
对于摄像装置100,根据本公开的实施例对此没有特别限制,只要其能够拍摄能够进行图像处理的图像即可。例如,在图2所示的实施例中,摄像装置110包括间隔设置的多个摄像头1111、1112、1113、1114。如图2所示,摄像头1111设置于电子设备100的左上角,摄像头1112设置于电子设备100的右上角,摄像头1113设置于电子设备100的右下角,摄像头1114设置于电子设备100的左下角。然而,多个摄像头110的数量和位置不局限于本公开实施例中的情形,可以为1个、2个、3个、4个或5个及以上,设置的位置可以根据电子设备的具体设计灵活布置。设置的多个摄像头可以从多个角度拍摄人脸,从而可采集到多个角度的图像数据,对多个图像数据进行例如图像融合等处理而得到最终的拍摄图像,对人脸位置的判断会较为精准。
除了摄像装置110外,电子设备还可以包括前置摄像头111,例如,前置摄像头可以是实现传统拍照功能的摄像头。对于根据本公开实施例的电子设备中,以摄像装置110用于脸部跟踪识别的拍摄。然而,根据本公开的实施例中,也可以利用前置摄像头111来用于脸部跟踪识别的拍摄。
在一些示例中,电子设备100中的摄像装置110为红外摄像装置。红外摄像装置相比于普通可见光摄像头更易于检测、识别和跟踪人脸,有利于提高人脸识别的效率。红外摄像装置的响应波段包括例如3至5微米或8至12微米。
在一些示例中,如图2所示,电子设备100中的红外摄像装置的入光侧设置有遮挡层113,入光侧是指红外摄像装置面对用户的一侧,也就是图像光进入摄像装置的一侧。遮挡层113被配置为遮挡可见光而透过红外光。因此,遮挡层113不会影响摄像装置110的拍摄。另外,从手机正面观察时,看不到红外摄像装置,使得电子设备更加美观。遮挡层113可由透过红外光并且不透可见光的材料制成,例如由锗(Ge)或硅(Si)等材料制成。
下面对根据本公开实施例的电子设备进行脸部跟踪识别的原理进行简单介绍。图3是本公开实施例提供的一种电子设备获取的脸部图像的示意图。图3中示出了正面脸部图像、俯视脸部图像、仰视脸部图像、左视脸部图像和右视脸部图像的一个示例,各图中的两条虚线分别表示两眼中心与鼻尖连线及其延长线和两眼连线及其延长线。在上述图3的各幅人脸图像中,俯视脸部图像为人脸在平行于电子设备的操作面或显示的平面上向下方偏移时拍摄的图像、仰视脸部图像为人脸在平行于电子设备的操作面或显示的平面上向上方偏移时拍摄的图像、左视脸部图像和右视脸部图像分别为人脸在平行于电子设备的操作面或显示的平面上横向偏移时拍摄的图像。例如,在各幅图中两眼中心连线及其延长线将整个人脸分为上部和下部。在人脸相对于电子设备沿上下方向移动时,上部(或下部)的面积占整个人脸的面积的比例会发生变化。同理,在各幅图中两眼中心与鼻尖连线及其延长线将整个人脸分为左部和右部。在人脸相对于电子设备沿左右方向(横向)移动时,左部(或右部)的面积占整个人脸的面积的比例会发生变化。也就是说,只要将所拍摄脸部图像与正面脸部图像进行比较,计算特定部分(例如上述的上部、下部、左部或右部)占整个脸部面积的比例,并将该比例与正面脸部图像的该比例比较,就能判断出人脸相对于电子设备偏移的方向及大小,进而实现脸部追踪。
需要说明的是,上述示例中用于计算比例的特定部分选取了两眼中心连线及其延长线一侧的部分、以及两眼中心与鼻尖连线及其延长线一侧的部分。然而,根据本公开的实施例并不限于此,可以根据需要判断的移动方向而选取任意合适的特定部分,例如,可以选取额头部分作为上述特定部分。对于特定部分的选取,可以提取脸部特征点(例如人眼、鼻子等),然而根据特征点对脸部图像进行划分。对于脸部图像的处理,例如特征点的提取、特定部分的划分、以及面积的计算等已经有成熟的算法,这里不再赘述。
对于根据特定部分比例变化得到移动距离的过程,脸部跟踪模块可以根据公式进行运算而得到相应的移动距离。另外,脸部跟踪模块得到移动距离的方式也可以基于学习模式得到的数据得出。例如,在学习阶段,可以获取大量关于特定部分比例变化与移动距离的数据。在判断脸部移动距离时,脸部跟踪模块可以根据这些数据找到对应的移动距离。
对于电子设备100得到的上述移动距离,可以被用于对电子设备的相关参数进行调整的依据。在一些示例中,如图2所示,电子设备100包括三维显示装置140。摄像装置110设置在三维显示装置140的显示区域144的周边。电子设备100得到的上述移动距离可以用于调整三维显示装置140的可视区,从而使得用于的脸部始终处于观看三维图像的最佳位置。
在一些示例中,电子设备100可以根据所述移动距离判断脸部是否移出三维显示的可视区,当脸部移出所述三维显示的可视区时,调整三维显示的可视区(例如移动主动屏障层的挡光条或柱状透镜),以使得所述脸部位于所述三维显示的可视区内,这样,可以使得用户在脸部移动后也能观看到三维图像。
在一些示例中,电子设备100可以根据所述移动距离调整三维显示的可视区(例如移动主动屏障层的挡光条或柱状透镜),以使得所述脸部位于所述可视区的中央部分,这样,可以使得脸部始终处于最佳的观看位置。
下面,结合一些示例对本公开的电子设备根据检测的移动距离调整三维显示进行说明。
例如,如图4、图5、图6、图7所示,在本公开实施例提供的电子设备100中,三维显示装置140包括有叠置的二维显示屏145和主动视差屏障层(activeparallaxbarrierlayer)142。主动视差屏障层142可以为主动狭缝光栅1421、主动柱透镜光栅1422或其他主动光栅。如图4所示,二维显示屏145具有对应于左眼位置147的第一显示区域L和对应于右眼位置148的第二显示区域R,第一显示区域L和第二显示区域R分别显示对应于左眼和右眼的图像。
如图5、图6所示,主动视差屏障层142可以为主动狭缝光栅1421或1421’。例如,如图5所示,狭缝光栅1421设置在二维显示屏145靠近人眼的一侧;如图6所示,狭缝光栅1421’设置在二维显示屏145远离人眼的一侧。即狭缝光栅可以为前置或后置的狭缝光栅。例如,这里的二维显示屏145为液晶显示面板。二维显示屏145显示的图像经狭缝光栅1421或1421’作用后,人的左眼和右眼分别在左眼位置147和右眼位置148可观察到分别对应于左眼和右眼的图像,形成三维显示效果。
例如,如图7所示,主动视差屏障层142也可以为主动柱透镜光栅1422。主动柱透镜光栅1422配合二维显示屏145形成三维显示效果的原理与主动狭缝光栅配合二维显示屏145形成三维显示效果的原理类似,在此不再赘述。
在裸眼三维显示中,用户不必佩戴特殊眼睛就可以看到三维显示图像。根据裸眼三维显示的原理可知,显示屏幕发出的图像光经过分光装置(例如为狭缝光栅或柱透镜光栅)分光后分别进入用于的左眼和右眼。这样,在三维显示装置的显示面侧形成三维显示的可视区。三维可视区可以为多个,然而处于中央位置的中央可视区范围更大且观看三维图像的效果更好。根据本公开的电子设备中的三维显示装置可以采用任意合适的三维显示装置,在此不再对其详细的结构进行赘述。图4中示意性地示出了一个三维显示的可视区146。在可视区146内,左眼看到第一显示区域L显示的图像,右眼看到第二显示区域R显示的图像,形成三维显示的效果。如图用户的人眼移出可视区146,则不能分别将左眼图像和右眼图像分别送入用户的左眼和右眼,从而不会看到三维显示效果。
结合本公开实施例的电子设备的脸部跟踪功能,可以实现对三维显示装置的可视区的实时调节。例如,三维显示装置可以使用主动视差屏障层,从而能够调节屏障层的挡光条或柱状透镜的位置,使用户始终处于三维显示的最佳观看位置。下面就一些三维显示的调节示例进行描述。
如图8所示,主动视差屏障层142包括彼此对置的第一电极层1423和第二电极层1424以及夹设在第一电极层1423和第二电极层1424之间的液晶层。第一电极层1423包括平行排列的多个条状子电极,第二电极层1424为板状电极。通过对部分条状子电极施加电压,形成间隔设置的多个挡光条。改变施加电压的条状电极,使得挡光条在显示平面内移动。例如,如图7所示,多个条状子电极分别与信号线L1、L2、L3、L4、L5、L6电连接,板状电极与公共线C电连接。改变信号线L1、L2、L3、L4、L5、L6上的被施加的电压即可改变条状电极被施加的电压。例如,初始状态信号线L1、L2、L3被施加高电压(高电压例如为+5V),信号线L4、L5、L6被施加低电压(低电压例如为0V),公共线被施加低电压(例如为0V)。此时,信号线L1、L2、L3连接的条状电极上的高电压与板状电极上的低电压形成电场,对应于信号线L1、L2、L3连接的条状电极区域的液晶受到电场的作用,处于不透光的状态。而对应于信号线L4、L5、L6连接的条状电极区域的液晶由于没有受到电场作用,处于透光状态,即形成了间隔设置的多个挡光条。当判断人脸有偏移时,例如,信号线L2、L3、L4被施加高电压,对应于信号线L2、L3、L4连接的条状电极区域的液晶受到电场的作用,处于不透光的状态;而信号线L5、L6、L1被施加低电压,对应于信号线L5、L6、L1连接的条状电极区域的液晶处于透光状态,即实现了挡光条在显示平面内移动。需要说明的是,电压施加方式不局限于本公开实施例中描述的情形,根据实际情况也可以为其他方式,例如,信号线L1、L3、L5被施加高电压,信号线L2、L4、L6被施加低电压,公共线为例如0V的低电压,当判断人脸有偏移时,信号线L1、L3、L5被施加低电压,信号线L2、L4、L6被施加高电压,公共线为例如0V的低电压。
对于本公开实施例的电子设备100中的正面脸部图像获取模块和脸部跟踪模块,其可以为能够执行所需操作指令的电路或芯片。正面脸部图像获取模块和脸部跟踪模块可以位于同一芯片或不同芯片中。
在一些示例中,电子设备100中的三维显示装置140包括控制显示的控制芯片。该控制芯片除了控制显示之外,还被配置为执行正面脸部图像获取模块和脸部跟踪模块的相应操作。也就是说,正面脸部图像获取模块120和脸部跟踪模块130可以位于所述控制芯片中。例如,该电子设备100还可以包括位于三维显示装置140之外的中央处理器。该中央处理器处理电子设备的操作指令、运算等,其与三维显示装置的控制芯片为不同的芯片。
图9是本公开实施例提供的一种电子设备工作过程以及部分部件的连接结构的示意图。如图9所示,摄像装置的图像传感器通过镜头采集人脸的图像光信号,并将收集到的光信号转换成相应的电信号,此电信号经过A/D模数转换后,再经过数字信号处理芯片(DSP)进行例如图像渲染和比较等处理,然后分为两路,一路通过例如USB接口传送给电子设备的中央处理器,中央处理器处理该信号后进行图像显示,另一路通过SPI接口传给显示装置的控制芯片,SPI(SerialPeripheralInterface,串行外设接口)是一种同步串行外设接口,它可以使控制芯片与数字信号处理芯片(DSP)以串行方式进行通信以交换信息。控制芯片根据SPI接口获取的信号进行数据处理,得到以上所述的脸部移动距离,并进行主动视差屏障层的调整,进而实现三维显示效果的优化。对于本公开实施例的电子设备,其进行脸部跟踪识别的运算在显示装置的控制芯片中运行。显示装置的控制芯片的处理能力就能够满足这些数据的运算,而不用将这些数据的运算传输到电子设备的中央处理器进行运算,避免耗费中央处理器的运算资源。这种设置方式充分利用了显示装置自身的控制芯片的信号处理资源,节省了电子设备中央处理器的资源和功耗,实现了三维显示效果的实时调整。
需要说明的是,上述具体的连接方式以及数据的传输流程仅仅为一个示例,根据本公开的实施例可以选取能够使得脸部识别跟踪的判断通过显示装置的控制芯片进行处理的其他任意合适的连接方式和数据传输流程。另外,在图9的示意图中,数字信号处理芯片(DSP)之后信号分为两路,其中一路传输到中央处理器用于显示,然而,根据本公开的实施例可以去除这路信号,在脸部识别跟踪时不必将拍摄到的图像进行显示。此外,虽然利用显示装置的控制芯片对脸部跟踪识别进行处理可以节省中央处理器的资源,但本公开的实施例也并不排除通过中央处理器进行这些运算的实施方式。
在一些示例中,电子设备100中的正面脸部图像获取模块和脸部跟踪模块可以通过处理器和存储器来实施。因此,根据本公开的实施例还提供一种电子设备,包括摄像装置,被配置为拍摄用户的脸部图像;处理器、存储器和存储在存储器中的计算机程序指令。此计算机程序指令被处理器运行时执行以下步骤:正面脸部图像获取步骤,获取用户的正面脸部图像;脸部移动判断步骤,通过摄像装置拍摄用户的脸部图像并进行识别,将由所述摄像装置拍摄到的脸部图像与所述正面脸部图像进行比较操作,以确定所述用户的脸部在垂直于所述摄像装置的中心光轴的平面方向上移动的距离。所述比较操作包括比较由所述摄像装置拍摄到的脸部图像中特定部分的面积占整个脸部面积的比例与所述正面脸部图像中的该特定部分的面积占整个脸部面积的比例。
此计算机程序指令被处理器运行时还可以执行以下步骤:三维显示调整步骤,根据所述脸部识别跟踪方法获取的所述脸部的移动距离调整三维显示的可视区。
本公开实施例提供的电子设备可以为例如手机、平板电脑、笔记本电脑或电子书等。
第二实施例
该实施例提供一种电子设备200,图10示出该电子设备的组成示意图。电子设备200与第一实施例提供的电子设备100的区别之处在于,电子设备200还包括功能控制模块260,功能控制模块260被配置为检测摄像装置210中的多个摄像头中被遮挡的摄像头的数量,功能控制模块260根据所述数量触发特定命令。这样可以实现差异化的功能,例如,当手指长按住多个摄像头中的某一个或某几个摄像头时,可以触发一种特定功能,例如手机会调出例如音乐播放器等特定程序。或者,多个摄像头中的所有摄像头同时被遮挡时电子设备进入待机状态,按住的摄像头与对应的特定功能可以经用户自定义设置,实现手机差异化设计。
第二实施例与第一实施例相同的部分使用了类似的附图标记,例如,第一实施例中的摄像装置110,在第二实施例中视为摄像装置210。相同的部分在此不再赘述。
第三实施例
本公开至少一个实施例还提供一种脸部识别跟踪方法,如图11所示,包括如下步骤S1、S2。
步骤S1,正面脸部图像获取,获取用户的正面脸部图像;
步骤S2,脸部移动判断,其中,脸部移动判断包括如下步骤S21、S22、S23。
步骤S21,通过摄像装置拍摄用户的脸部图像并进行识别;
步骤S22,将由摄像装置拍摄到的脸部图像与正面脸部图像进行比较操作,比较操作包括比较由摄像装置拍摄到的脸部图像中特定部分的面积占整个脸部面积的比例与正面脸部图像中的该特定部分的面积占整个脸部面积的比例;
步骤S23,确定用户的脸部在垂直于摄像装置的中心光轴的平面方向上移动的距离。
例如,在本公开一实施例提供的脸部识别跟踪方法中,脸部移动判断步骤S2中使用多个摄像头拍摄用户的脸部图像。设置的多个摄像头可以从多个角度拍摄人脸,从而可采集到多个角度的图像数据,对多个图像数据进行例如图像融合等处理而得到最终的拍摄图像,对人脸位置的判断会较为精准。
例如,在本公开一实施例提供的脸部识别跟踪方法中,脸部移动判断步骤中S2使用的摄像装置为红外摄像装置。红外摄像装置相比于普通可见光摄像头更易于检测、识别和跟踪人脸,有利于提高人脸识别的效率。红外摄像装置的响应波段包括例如3至5微米或8至12微米。
例如,在本公开一实施例提供的脸部识别跟踪方法中,特定部分包括脸部图像中的额头部分、两眼中心与鼻尖连线及其延长线一侧的部分、或者两眼连线及其延长线一侧的部分。
对于正面脸部图像获取,如前面第一实施例所述,可以通过摄像装置一次拍摄得到。在进行拍摄时,可以根据用户操作设备的主观感受判断是否正对于电子设备的操作面或者显示面,当处于最佳操作位置或观看位置时进行拍摄。然而,由于不同用户主观感受的差异,一次拍摄得到的图像可能并非理想的正面脸部图像。因此,在一些示例中,可以进行多次拍摄操作,随后,在对应于人脸图像的区域中提取例如人眼中心点或嘴唇的两个端点等特征点,基于这些特征点通过例如机器学习等方法使人脸图像归一化,最后存储归一化后的人脸图像作为正面脸部图像。
对于脸部移动判断,如前面第一实施例结合图3所描述的,在人脸相对于电子设备沿上下方向移动时,上部(或下部)的面积占整个人脸的面积的比例会发生变化。同理,在各幅图中两眼中心与鼻尖连线及其延长线将整个人脸分为左部和右部。在人脸相对于电子设备沿左右方向(横向)移动时,左部(或右部)的面积占整个人脸的面积的比例会发生变化。也就是说,只要将所拍摄脸部图像与正面脸部图像进行比较,计算特定部分(例如上述的上部、下部、左部或右部)占整个脸部面积的比例,并将该比例与正面脸部图像的该比例比较,就能判断出人脸相对于电子设备偏移的方向及大小,进而实现脸部追踪。对于根据特定部分比例变化得到移动距离的过程,脸部跟踪模块可以根据公式进行运算而得到相应的移动距离。另外,脸部跟踪模块得到移动距离的方式也可以基于学习模式得到的数据得出。例如,在学习阶段,可以获取大量关于特定部分比例变化与移动距离的数据。在判断脸部移动距离时,脸部跟踪模块可以根据这些数据找到对应的移动距离。
此外,根据本实施例的脸部识别跟踪方法的其他操作步骤,可以参考第一实施例中所描述的相关部分,这里不再赘述。
第四实施例
本公开至少一个实施例还提供一种三维显示方法,如图12所示,包括:根据本公开至少一个实施例提供的脸部识别跟踪方法的步骤S1和S2;以及三维显示调整步骤S3,三维显示调整步骤S3根据脸部识别跟踪方法获取的脸部的移动距离调整三维显示的可视区。
对于步骤S1和S2,可以参照第三实施例的脸部识别跟踪方法中的相关步骤,这里不再赘述。
例如,在本公开一实施例提供的三维显示方法中,三维显示调整步骤S3包括根据移动距离判断脸部是否移出三维显示的可视区,当脸部移出三维显示的可视区时,调整三维显示的可视区,以使得脸部位于三维显示的可视区内。
例如,在本公开一实施例提供的三维显示方法中,三维显示调整步骤S3包括根据移动距离调整三维显示的可视区,以使得脸部位于可视区的中央部分。可视区的中央部分是指能获得最佳三维显示效果的观察位置。
例如,在本公开一实施例提供的三维显示方法中,三维显示使用主动视差屏障层,调整三维显示的可视区包括移动主动视差屏障层的挡光条或柱状透镜。
例如,在本公开一实施例提供的三维显示方法中,主动视差屏障层包括第一电极层和第二电极层以及夹设在第一电极层和第二电极层之间的液晶层。第一电极层包括平行排列的多个条状子电极,第二电极层为板状电极。通过对部分条状子电极施加电压,形成间隔设置的多个挡光条。另外,可以改变施加电压的条状电极而使得挡光条在显示平面内移动。
例如,在本公开一实施例提供的三维显示方法中,正面脸部图像获取步骤和脸部移动判断步骤由三维显示装置的控制芯片进行控制并进行数据处理。显示装置的控制芯片的处理能力就能够满足这些数据的运算,而不用将这些数据的运算传输到电子设备的中央处理器进行运算,避免耗费中央处理器的运算资源。这种设置方式充分利用了显示装置自身的控制芯片的信号处理资源,节省了电子设备中央处理器的资源和功耗,实现了三维显示效果的实时调整。
此外,对于本实施中进行三维调节的步骤和方法,也可以参照第一实施例中描述的相关内容,这里不再赘述。
本公开的实施例提供的一种电子设备、脸部识别跟踪方法和三维显示方法可以保证用户在各角度上都能观察到良好的3D显示效果。
以上所述仅是本发明的示范性实施方式,而非用于限制本发明的保护范围,本发明的保护范围由所附的权利要求确定。

Claims (18)

1.一种电子设备,包括:
摄像装置,被配置为拍摄用户的脸部图像;
正面脸部图像获取模块,通过所述摄像装置获取所述用户的正面脸部图像;
脸部跟踪模块,将由所述摄像装置拍摄到的脸部图像与所述正面脸部图像进行比较操作,以确定所述用户的脸部在垂直于所述摄像装置的中心光轴的平面方向上的移动距离,
其中所述比较操作包括比较由所述摄像装置拍摄到的脸部图像中特定部分的面积占整个脸部面积的比例与所述正面脸部图像中的该特定部分的面积占整个脸部面积的比例。
2.根据权利要求1所述的电子设备,其中所述摄像装置包括间隔设置的多个摄像头。
3.根据权利要求1所述的电子设备,其中所述摄像装置为红外摄像装置,所述红外摄像装置的入光侧设置有遮挡层,所述遮挡层被配置为遮挡可见光而透过红外光。
4.根据权利要求2所述的电子设备,还包括功能控制模块,被配置为检测所述摄像装置中的多个摄像头被遮挡的摄像头的数量,所述功能控制模块根据所述数量触发特定命令。
5.根据权利要求1-4中任一项所述的电子设备,其中所述特定部分包括所述脸部图像中的额头部分、两眼中心与鼻尖连线及其延长线一侧的部分、或者两眼连线及其延长线一侧的部分。
6.根据权利要求1-4中任一项所述的电子设备,其中所述电子设备包括三维显示装置,所述摄像装置设置在所述三维显示装置的显示区域的周边。
7.根据权利要求6所述的电子设备,其中所述三维显示装置包括主动视差屏障层。
8.根据权利要求7所述的电子设备,其中所述三维显示装置包括控制显示的控制芯片,所述控制芯片被配置为根据所述脸部跟踪模块获取的所述脸部的所述移动距离调整三维显示的可视区。
9.根据权利要求8所述的电子设备,其中所述正面脸部图像获取模块和所述脸部跟踪模块位于所述控制芯片中。
10.根据权利要求8所述的电子设备,其中所述电子设备包括位于所述三维显示装置之外的中央处理器。
11.一种脸部识别跟踪方法,包括:
正面脸部图像获取步骤,获取用户的正面脸部图像;
脸部移动判断步骤,通过摄像装置拍摄用户的脸部图像并进行识别,将由所述摄像装置拍摄到的脸部图像与所述正面脸部图像进行比较操作,以确定所述用户的脸部在垂直于所述摄像装置的中心光轴的平面方向上的移动距离,
其中所述比较操作包括比较由所述摄像装置拍摄到的脸部图像中特定部分的面积占整个脸部面积的比例与所述正面脸部图像中的该特定部分的面积占整个脸部面积的比例。
12.根据权利要求11所述的脸部识别跟踪方法,其中所述脸部移动判断步骤中使用多个摄像头拍摄所述用户的脸部图像。
13.根据权利要求11或12所述的脸部识别跟踪方法,其中所述特定部分包括所述脸部图像中的额头部分、两眼中心与鼻尖连线及其延长线一侧的部分、或者两眼连线及其延长线一侧的部分。
14.一种三维显示方法,包括:
根据权利要求11-13中任一项所述的脸部识别跟踪方法;以及
三维显示调整步骤,根据所述脸部识别跟踪方法获取的所述脸部的所述移动距离调整三维显示的可视区。
15.根据权利要求14所述的三维显示方法,其中所述三维显示调整步骤包括根据所述移动距离判断所述脸部是否移出所述三维显示的可视区,当所述脸部移出所述三维显示的可视区时,调整所述三维显示的可视区,以使得所述脸部位于所述三维显示的可视区内。
16.根据权利要求14所述的三维显示方法,其中所述三维显示调整步骤包括根据所述移动距离调整所述三维显示的可视区,以使得所述脸部位于所述可视区的中央部分。
17.根据权利要求14所述的三维显示方法,其中所述三维显示使用主动视差屏障层,所述调整三维显示的可视区包括移动所述主动视差屏障层的挡光条或柱状透镜。
18.根据权利要求14-17中任一项所述的三维显示方法,其中所述正面脸部图像获取步骤和所述脸部移动判断步骤由所述三维显示装置的控制芯片进行控制并进行数据处理。
CN201610125440.9A 2016-03-04 2016-03-04 电子设备、脸部识别跟踪方法和三维显示方法 Active CN105739707B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201610125440.9A CN105739707B (zh) 2016-03-04 2016-03-04 电子设备、脸部识别跟踪方法和三维显示方法
PCT/CN2016/081633 WO2017147999A1 (zh) 2016-03-04 2016-05-11 电子设备、脸部识别跟踪方法和三维显示方法
EP16892188.0A EP3425906B1 (en) 2016-03-04 2016-05-11 Electronic device, face recognition and tracking method and three-dimensional display method
US15/538,411 US10282594B2 (en) 2016-03-04 2016-05-11 Electronic device, face recognition and tracking method and three-dimensional display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610125440.9A CN105739707B (zh) 2016-03-04 2016-03-04 电子设备、脸部识别跟踪方法和三维显示方法

Publications (2)

Publication Number Publication Date
CN105739707A true CN105739707A (zh) 2016-07-06
CN105739707B CN105739707B (zh) 2018-10-02

Family

ID=56249154

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610125440.9A Active CN105739707B (zh) 2016-03-04 2016-03-04 电子设备、脸部识别跟踪方法和三维显示方法

Country Status (4)

Country Link
US (1) US10282594B2 (zh)
EP (1) EP3425906B1 (zh)
CN (1) CN105739707B (zh)
WO (1) WO2017147999A1 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105954878A (zh) * 2016-07-19 2016-09-21 苏州市景荣科技有限公司 一种多功能智能眼镜
CN106227334A (zh) * 2016-07-14 2016-12-14 广东小天才科技有限公司 一种基于红外的移动设备控制方法及装置、移动设备
CN106782524A (zh) * 2016-11-30 2017-05-31 深圳讯飞互动电子有限公司 一种混合唤醒方法及系统
CN107358155A (zh) * 2017-06-02 2017-11-17 广州视源电子科技股份有限公司 一种鬼脸动作检测方法和装置及活体识别方法和系统
CN108920404A (zh) * 2018-05-10 2018-11-30 江苏食品药品职业技术学院 具有人脸识别功能的全触屏电子书
CN111374489A (zh) * 2020-04-22 2020-07-07 深圳市锐吉电子科技有限公司 一种智能镜子测肤的方法及装置
CN114724229A (zh) * 2022-05-23 2022-07-08 北京英华在线科技有限公司 在线教育平台用的学习状态检测系统及方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106488168B (zh) * 2015-08-27 2020-04-28 腾讯科技(深圳)有限公司 电子终端中采集的画面的角度切换方法及装置
US11029741B2 (en) * 2018-12-28 2021-06-08 Baidu Usa Llc Deactivating a display of a smart display device based on a vision-based mechanism
CN109977770B (zh) * 2019-02-21 2023-06-27 安克创新科技股份有限公司 一种自动跟踪拍摄方法、装置、系统及存储介质
US11228737B2 (en) * 2019-07-31 2022-01-18 Ricoh Company, Ltd. Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium
CN113095116B (zh) * 2019-12-23 2024-03-22 深圳云天励飞技术有限公司 身份识别方法及相关产品
CN111918034A (zh) * 2020-07-28 2020-11-10 上海电机学院 一种基于嵌入式的无人值守基站智能监控系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101197945A (zh) * 2007-12-26 2008-06-11 北京中星微电子有限公司 一种生成视频特效的方法及装置
CN101458531A (zh) * 2007-12-12 2009-06-17 深圳富泰宏精密工业有限公司 显示屏自动调整系统及方法
US20100128112A1 (en) * 2008-11-26 2010-05-27 Samsung Electronics Co., Ltd Immersive display system for interacting with three-dimensional content
CN102710956A (zh) * 2012-06-04 2012-10-03 天马微电子股份有限公司 一种裸眼立体追踪显示方法及装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4305996B2 (ja) * 1999-03-15 2009-07-29 ソニー株式会社 画像処理装置および方法、並びに記録媒体
JP4526639B2 (ja) * 2000-03-02 2010-08-18 本田技研工業株式会社 顔認識装置およびその方法
US8331023B2 (en) * 2008-09-07 2012-12-11 Mediatek Inc. Adjustable parallax barrier 3D display
CN102098524B (zh) * 2010-12-17 2011-11-16 深圳超多维光电子有限公司 跟踪式立体显示设备及跟踪式立体显示方法
KR101216123B1 (ko) * 2011-07-08 2012-12-27 김호 시청자 얼굴 추적정보 생성방법 및 생성장치, 그 기록매체 및 3차원 디스플레이 장치
WO2013091201A1 (zh) * 2011-12-21 2013-06-27 青岛海信信芯科技有限公司 视区调整的方法和装置、能实现立体显示视频信号的设备
GB2499426A (en) * 2012-02-16 2013-08-21 Dimenco B V Autostereoscopic display device with viewer tracking system
TWI458362B (zh) * 2012-06-22 2014-10-21 Wistron Corp 自動調整音量的聲音播放方法及電子設備
CN103019507B (zh) 2012-11-16 2015-03-25 福州瑞芯微电子有限公司 一种基于人脸跟踪改变视点角度显示三维图形的方法
LU92138B1 (en) * 2013-01-18 2014-07-21 Neo Medical Systems S A Head tracking method and device
CN104661012B (zh) * 2014-11-28 2017-12-01 深圳市魔眼科技有限公司 个人全息三维显示方法及设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101458531A (zh) * 2007-12-12 2009-06-17 深圳富泰宏精密工业有限公司 显示屏自动调整系统及方法
CN101197945A (zh) * 2007-12-26 2008-06-11 北京中星微电子有限公司 一种生成视频特效的方法及装置
US20100128112A1 (en) * 2008-11-26 2010-05-27 Samsung Electronics Co., Ltd Immersive display system for interacting with three-dimensional content
CN102710956A (zh) * 2012-06-04 2012-10-03 天马微电子股份有限公司 一种裸眼立体追踪显示方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
胡元奎等: "《快速的人脸轮廓检测及姿态估计算法》", 《模式识别与人工智能》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106227334A (zh) * 2016-07-14 2016-12-14 广东小天才科技有限公司 一种基于红外的移动设备控制方法及装置、移动设备
CN105954878A (zh) * 2016-07-19 2016-09-21 苏州市景荣科技有限公司 一种多功能智能眼镜
CN106782524A (zh) * 2016-11-30 2017-05-31 深圳讯飞互动电子有限公司 一种混合唤醒方法及系统
CN107358155A (zh) * 2017-06-02 2017-11-17 广州视源电子科技股份有限公司 一种鬼脸动作检测方法和装置及活体识别方法和系统
CN108920404A (zh) * 2018-05-10 2018-11-30 江苏食品药品职业技术学院 具有人脸识别功能的全触屏电子书
CN111374489A (zh) * 2020-04-22 2020-07-07 深圳市锐吉电子科技有限公司 一种智能镜子测肤的方法及装置
CN114724229A (zh) * 2022-05-23 2022-07-08 北京英华在线科技有限公司 在线教育平台用的学习状态检测系统及方法
CN114724229B (zh) * 2022-05-23 2022-09-02 北京英华在线科技有限公司 在线教育平台用的学习状态检测系统及方法

Also Published As

Publication number Publication date
EP3425906A4 (en) 2019-08-28
WO2017147999A1 (zh) 2017-09-08
US20180107863A1 (en) 2018-04-19
US10282594B2 (en) 2019-05-07
EP3425906B1 (en) 2021-03-03
CN105739707B (zh) 2018-10-02
EP3425906A1 (en) 2019-01-09

Similar Documents

Publication Publication Date Title
CN105739707A (zh) 电子设备、脸部识别跟踪方法和三维显示方法
CN102045577B (zh) 用于三维立体显示的观察者跟踪系统及三维立体显示系统
US9554126B2 (en) Non-linear navigation of a three dimensional stereoscopic display
CN103595988B (zh) 立体图像显示装置、图像处理装置及图像处理方法
CN101909219B (zh) 一种立体显示方法及跟踪式立体显示器
CN204595327U (zh) 头戴式显示装置
CN106444042A (zh) 一种增强现实与虚拟现实两用显示设备和可穿戴设备
CN102681183B (zh) 基于透镜阵列的双向三维成像和裸眼三维显示系统
CN106598252A (zh) 一种图像显示调节方法、装置、存储介质及电子设备
CN107396087A (zh) 裸眼三维显示装置及其控制方法
WO2013091201A1 (zh) 视区调整的方法和装置、能实现立体显示视频信号的设备
CN104661012A (zh) 个人全息三维显示方法及设备
CN105376484A (zh) 一种图像处理方法及终端
CN108153502B (zh) 基于透明屏幕的手持式增强现实显示方法及装置
CN112655202B (zh) 用于头戴式显示器的鱼眼镜头的减小带宽立体失真校正
US9727144B2 (en) 3D interaction apparatus, display device including the same, and method of driving the same
CN108985291A (zh) 一种基于单摄像头的双眼追踪系统
CN115735150A (zh) 增强现实眼戴器与3d服装
WO2021252242A2 (en) Augmented reality environment enhancement
CN107817614B (zh) 一种用于躲避水面与障碍物的盲人辅助眼镜
WO2016101861A1 (zh) 头戴式显示装置
CN104052981A (zh) 一种信息处理方法及电子设备
WO2023231674A1 (zh) 液晶光栅的驱动方法及显示装置、其显示方法
CN107111143A (zh) 视觉系统及观片器
CN206331183U (zh) 一种增强现实与虚拟现实两用显示设备和可穿戴设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant