CN108345848A - 用户注视方向识别方法及相关产品 - Google Patents

用户注视方向识别方法及相关产品 Download PDF

Info

Publication number
CN108345848A
CN108345848A CN201810094065.5A CN201810094065A CN108345848A CN 108345848 A CN108345848 A CN 108345848A CN 201810094065 A CN201810094065 A CN 201810094065A CN 108345848 A CN108345848 A CN 108345848A
Authority
CN
China
Prior art keywords
eyeballs
user
convex surface
electronic equipment
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810094065.5A
Other languages
English (en)
Inventor
王健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN201810094065.5A priority Critical patent/CN108345848A/zh
Publication of CN108345848A publication Critical patent/CN108345848A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/18Packaging or power distribution
    • G06F1/183Internal mounting support structures, e.g. for printed circuit boards, internal connecting means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Abstract

本申请实施例公开了一种用户注视方向识别方法及相关产品,应用于电子设备,所述电子设备包括处理器,以及与所述处理器连接的人脸识别装置,所述方法包括:获取3D人脸图像;从所述3D人脸图像中提取出3D眼球图像;根据所述3D眼球的凸面特性图像确定人眼注视方向。本申请实施例由于3D眼球图像的表面为一凸面,具备凸面特性,可以根据这一特性得到人眼注视方向。

Description

用户注视方向识别方法及相关产品
技术领域
本申请涉及电子设备技术领域,具体涉及一种用户注视方向识别方法及相关产品。
背景技术
随着电子设备(如:手机、平板电脑等)的大量普及应用,电子设备能够支持的应用越来越多,功能越来越强大,电子设备向着多样化、个性化的方向发展,成为用户生活中不可缺少的电子用品。
目前来看,人脸识别作为电子设备的标配技术,已经在电子设备领域得到了广泛应用,例如,人脸识别解锁,实现了比指纹解锁更快的解锁速度,但是,在人脸识别领域,尚未不能识别用户的人眼注视方向。
发明内容
本申请实施例提供了一种用户注视方向识别方法及相关产品,可以识别出用户的人眼注视方向。
第一方面,本申请实施例提供一种电子设备,所述电子设备包括处理器,以及与所述处理器连接的人脸识别装置,其中,
所述人脸识别装置,用于获取3D人脸图像;
所述处理器,用于从所述3D人脸图像中提取出3D眼球图像;以及根据所述3D眼球的凸面特性图像确定人眼注视方向。
第二方面,本申请实施例提供了一种用户注视方向识别方法,应用于电子设备,所述电子设备包括处理器,以及与所述处理器连接的人脸识别装置,其中,所述方法包括:
所述人脸识别装置获取3D人脸图像;
所述处理器从所述3D人脸图像中提取出3D眼球图像;以及根据所述3D眼球的凸面特性图像确定人眼注视方向。
第三方面,本申请实施例提供了一种用户注视方向识别方法,所述方法包括:
获取3D人脸图像;
从所述3D人脸图像中提取出3D眼球图像;
根据所述3D眼球的凸面特性图像确定人眼注视方向。
第四方面,本申请实施例提供了一种用户注视方向识别装置,包括:
获取单元,用于获取3D人脸图像;
提取单元,用于从所述3D人脸图像中提取出3D眼球图像;
确定单元,用于根据所述3D眼球的凸面特性图像确定人眼注视方向。
第五方面,本申请实施例提供了一种电子设备,包括:处理器和存储器;以及一个或多个程序,所述一个或多个程序被存储在所述存储器中,并且被配置成由所述处理器执行,所述程序包括用于如第三方面中所描述的部分或全部步骤的指令。
第六方面,本申请实施例提供了一种计算机可读存储介质,其中,所述计算机可读存储介质用于存储计算机程序,其中,所述计算机程序使得计算机执行如本申请实施例第三方面中所描述的部分或全部步骤的指令。
第七方面,本申请实施例提供了一种计算机程序产品,其中,所述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,所述计算机程序可操作来使计算机执行如本申请实施例第三方面中所描述的部分或全部步骤。该计算机程序产品可以为一个软件安装包。
实施本申请实施例,具有如下有益效果:
可以看出,本申请实施例中所描述的用户注视方向识别方法及相关产品,其中的电子设备包括处理器,以及与处理器连接的人脸识别装置,该电子设备获取3D人脸图像,从3D人脸图像中提取出3D眼球图像,根据3D眼球的凸面特性图像确定人眼注视方向,由于3D眼球图像的表面为一凸面,具备凸面特性,可以根据这一特性得到人眼注视方向。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1A是本申请实施例提供的一种示例电子设备的结构示意图;
图1B是本申请实施例公开的一种用户注视方向识别方法的流程示意图;
图2是本申请实施例公开的另一种用户注视方向识别方法的流程示意图;
图3是本申请实施例提供的一种电子设备的另一结构示意图;
图4A是本申请实施例提供的一种用户注视方向识别装置的结构示意图;
图4B是本申请实施例提供的图4A所描述的用户注视方向识别装置的获取单元的结构示意图;
图4C是本申请实施例提供的图4A所描述的用户注视方向识别装置的又一结构示意图;
图5是本申请实施例公开的另一种电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
本申请实施例所涉及到的电子设备可以包括各种具有无线通信功能的手持设备、车载设备、可穿戴设备、计算设备或连接到无线调制解调器的其他处理设备,以及各种形式的用户设备(user equipment,UE),移动台(mobile station,MS),终端设备(terminaldevice)等等。为方便描述,上面提到的设备统称为电子设备。本申请实施例中的电子设备至少可以包括处理器,以及与处理器连接的人脸识别装置、环境传感器,人脸识别装置可以包括以下至少一种:可见光摄像头、红外摄像头或者双摄像头等等,依据摄像头设置的位置还可以为:前置摄像头,后置摄像头,侧置摄像头等。环境传感器可以为以下至少一个:环境光传感器、电磁检测传感器、环境色温检测传感器、定位传感器、温度传感器、湿度传感器等等,环境参数可以为以下至少一种:环境亮度、环境色温、环境磁场干扰系数、天气情况、环境光源数目、地理位置等等。
下面对本申请实施例进行详细介绍。
请参阅图1A,图1A是本发明实施例提供了一种电子设备100的结构示意图,上述电子设备100包括:处理器110、人脸识别装置120、环境传感器130和显示屏140,人脸识别装置120、环境传感器130和显示屏140均电连接于处理器110。
所述人脸识别装置120,用于获取3D人脸图像;
所述处理器110,用于从所述3D人脸图像中提取出3D眼球图像;以及根据所述3D眼球的凸面特性图像确定人眼注视方向。
可以看出,本申请实施例中所描述电子设备,包括处理器,以及与处理器连接的人脸识别装置,该电子设备获取3D人脸图像,从3D人脸图像中提取出3D眼球图像,根据3D眼球的凸面特性图像确定人眼注视方向,由于3D眼球图像的表面为一凸面,具备凸面特性,可以根据这一特性得到人眼注视方向。
在一个可能的示例中,在所述根据所述3D眼球的凸面特性图像确定人眼注视方向方面,所述处理器110具体用于:
在所述3D眼球图像包括第一3D眼球时,所述第一3D眼球包括第一瞳孔区域,所述第一瞳孔区域包括第一凸面;
确定所述第一凸面的第一中心点以及第一球心,连接所述第一球心和所述第一中心点,得到第一引线,将所述第一引线中所述第一球心指向所述第一中心点的方向作为所述人眼注视方向;
或者,
在所述3D眼球图像还包括第二3D眼球时,所述第二3D眼球包括第二瞳孔区域,所述第二瞳孔区域包括第二凸面;
确定所述第二凸面的第二中心点以及第二球心,连接所述第二球心和所述第二中心点,得到第二引线;
确定所述第一引线与所述第二引线之间的交汇点;
确定所述第一中心点与所述第二中心点的中点位置;
基于所述中心位置与所述交汇点作连线,得到交汇线,将所述交汇线中所述中心位置指向所述交汇点的方向作为所述人眼注视方向。
在一个可能的示例中,所述环境传感器130具体用于:获取目标环境参数;
在所述获取3D人脸图像方面,所述人脸识别装置120具体用于:
确定与所述目标环境参数对应的目标拍摄参数;
根据所述目标拍摄参数对人脸进行拍摄,得到所述3D人脸图像。
在一个可能的示例中,在用户在注视电子设备的显示屏140时,在所述根据所述3D眼球的凸面特性图像确定人眼注视方向之后,所述处理器110还具体用于:
确定所述用户与所述电子设备之间的目标距离;
按照预设的距离与区域半径之间的对应关系,确定所述目标距离对应的目标区域半径;
根据所述人眼注视方向确定所述用户注视所述显示屏140的聚焦点;
将以所述聚焦点为圆心,以所述目标区域半径为半径作圆,将所述圆所在区域作为所述用户的关注区域。
在一个可能的示例中,在所述将所述圆所在区域作为所述用户的关注区域之后,所述显示屏140具体用于:
获取所述用户的目标视力参数;
确定与所述目标视力参数对应的目标显示参数;
根据所述目标显示参数显示所述关注区域对应的内容。
其中,上述电子设备还可以包括存储器,处理器是电子设备的控制中心,利用各种接口和线路连接整个电子设备的各个部分,通过运行或执行存储在存储器内的软件程序和/或模块,以及调用存储在存储器内的数据,执行电子设备的各种功能和处理数据,从而对电子设备进行整体监控。可选的,处理器可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器中。
基于上述图1A所描述的电子设备,可用于执行如下所描述的一种用户注视方向识别方法,具体如下:
所述人脸识别装置120获取3D人脸图像;
所述处理器110从所述3D人脸图像中提取出3D眼球图像;以及根据所述3D眼球的凸面特性图像确定人眼注视方向。
基于图1A所描述的电子设备,请参阅图1B,为本申请实施例提供的一种用户注视方向识别方法的实施例流程示意图。该用户注视方向识别方法应用于电子设备,所述电子设备包括处理器,以及与所述处理器连接的人脸识别装置,其可包括以下步骤:
101、获取3D人脸图像。
其中,可以通过对人脸进行对焦,得到3D人脸图像,3D人脸图像可以为包含人脸的图像,或者,仅仅只有人脸的抠图图像。
其中,上述步骤101,获取3D人脸图像,可以包括如下步骤:
11、获取目标环境参数;
12、确定与所述目标环境参数对应的目标拍摄参数;
13、根据所述目标拍摄参数对人脸进行拍摄,得到所述3D人脸图像。
其中,上述目标环境参数可以由环境传感器检测得到,上述环境传感器可以用于检测环境参数,环境传感器可以为以下至少一个:呼吸检测传感器、环境光传感器、电磁检测传感器、环境色温检测传感器、定位传感器、温度传感器、湿度传感器等等,环境参数可以为以下至少一种:呼吸参数、环境亮度、环境色温、环境磁场干扰系数、天气情况、环境光源数目、地理位置等等,呼吸参数可以为以下至少一种:呼吸次数、呼吸频率、呼吸声音、呼吸曲线等等。
进一步地,电子设备中可以预先存储拍摄参数与环境参数之间的对应关系,进而,根据该对应关系确定与目标环境参数对应的目标拍摄参数,上述拍摄参数可以包括但不仅限于:焦距、曝光时长、光圈大小、拍照模式、感光度ISO、白平衡参数等等。如此,可以得到在该环境下最佳的图像。
可选地,在执行上述步骤101之前,还可以包括如下步骤:
获取当前环境亮度,在所述当前环境亮度低于预设亮度阈值时,确认当前环境为暗视觉环境,并在所述暗视觉环境下,执行上述步骤11。
其中,上述预设亮度阈值可以由用户自行设置或者系统默认。在当前环境亮度低于预设亮度阈值时,则可以认为当前是处于暗视觉环境。
102、从所述3D人脸图像中提取出3D眼球图像。
其中,3D人脸图像中可以包括3D眼球图像,当然,3D人脸图像中可以包括一个3D眼球图像,例如,用户在闭了一只眼的情况下,或者,3D人脸图像中可以包括两个3D眼球图像,例如,用户两只眼睛都睁开的情况下。具体地,可以对3D人脸图像进行图像分割,得到3D眼球图像,进而,可以依据人眼几何结构进行分割,得到3D眼球图像。
103、根据所述3D眼球的凸面特性图像确定人眼注视方向。
其中,3D眼球的表面为一凸面,该凸面会有一个中心点(几何中心点,例如,中心,重心、质心,可以通过几何方式计算得到),由于3D眼球为一立体球体,则其对应一个球心,依据球心、中心点可以得到用户的视线。
其中,上述步骤103,根据所述3D眼球的凸面特性图像确定人眼注视方向,可以包括如下两种情形,A、用户睁一只眼的情况,B、用户睁两只眼的情况,具体如下:
针对A情况,在所述3D眼球图像包括第一3D眼球时,所述第一3D眼球包括第一瞳孔区域,所述第一瞳孔区域包括第一凸面,包括如下步骤31:
31、确定所述第一凸面的第一中心点以及第一球心,连接所述第一球心和所述第一中心点,得到第一引线,将所述第一引线中所述第一球心指向所述第一中心点的方向作为所述人眼注视方向;
其中,上述第一3D眼球可以为用户的左眼或者右眼,第一3D眼球可以包括第一瞳孔区域,该第一瞳孔区域可以包括第一凸面,可以依据人眼的几何特性,根据该第一凸面确定该第一凸面的第一中心点,以及该第一凸面的第一球心,连接第一球心和第一中心点,得到第一引线,可以视为用户的视线,将该第一引线中由第一球心指向第一中心点的方向作为人眼注视方向。
针对B情况,在所述3D眼球图像还包括第二3D眼球时,所述第二3D眼球包括第二瞳孔区域,所述第二瞳孔区域包括第二凸面,不仅包括上述步骤31,还包括如下步骤32-35,具体如下:
32、确定所述第二凸面的第二中心点以及第二球心,连接所述第二球心和所述第二中心点,得到第二引线;
33、确定所述第一引线与所述第二引线之间的交汇点;
34、确定所述第一中心点与所述第二中心点的中点位置;
35、基于所述中点位置与所述交汇点作连线,得到交汇线,将所述交汇线中所述中心位置指向所述交汇点的方向作为所述人眼注视方向。
其中,上述3D眼球图像还可以包括第二3D眼球,即用户睁开两只眼睛的情况,第二凸面存在一个中心点,可以通过几何运算得到,确定第二凸面的第二中心点和第二球心,连接第二球心和第二中心点,可以得到第二引线,实际情况下,用户的两只眼睛会关注同一地方,因此,上述第一引线与第二引线之间会进行交汇,两者之间会存在一个交汇点,另外,可以确定第一中心点与第二中心点之间的中点位置,连线中点位置和交汇点,可以得到交汇线,将该交汇线中中点位置指向交汇点的方向作为人眼注视方向。
可以看出,本申请实施例中所描述的用户注视方向识别方法,应用于电子设备,该电子设备包括处理器,以及与处理器连接的人脸识别装置,该电子设备获取3D人脸图像,从3D人脸图像中提取出3D眼球图像,根据3D眼球的凸面特性图像确定人眼注视方向,由于3D眼球图像的表面为一凸面,具备凸面特性,可以根据这一特性得到人眼注视方向。
与上述一致地,请参阅图2,为本申请实施例提供的一种用户注视方向识别方法的实施例流程示意图。本实施例中所描述的用户注视方向识别方法,其可包括以下步骤:
201、获取3D人脸图像。
202、从所述3D人脸图像中提取出3D眼球图像。
203、根据所述3D眼球的凸面特性图像确定人眼注视方向。
其中,上述步骤201-203的具体描述可参照图1B所描述的用户注视方向识别方法的对应步骤,在此不再赘述。
204、在用户在注视电子设备的显示屏时,确定所述用户与所述电子设备之间的目标距离。
其中,电子设备的环境传感器可以包括测距传感器,该测距传感器可以用户获取电子设备与用户之间的目标距离。或者,可以采用双摄像头进行测距。
205、按照预设的距离与区域半径之间的对应关系,确定所述目标距离对应的目标区域半径。
其中,电子设备的存储器中可以预先存储距离与区域半径之间的对应关系,由于用户与电子设备之间的距离不一,不同的距离,用户关注的区域半径不一样,即关注的区域面积不一样。
206、根据所述人眼注视方向确定所述用户注视所述显示屏的聚焦点。
其中,电子设备的摄像头位置一定,电子设备与摄像头之间的位置关系一定,用户与电子设备之间的位置关系一定,进而,可以得到人眼注视方向对应于电子设备的聚焦点,步骤206可以通过几何方式实现,在此不再赘述。
207、将以所述聚焦点为圆心,以所述目标区域半径为半径作圆,将所述圆所在区域作为所述用户的关注区域。
其中,用户的眼睛关注的区域有限,因此,可以将以聚焦点为圆心,且以目标区域半径作圆,将该圆内的区域作为用户关注区域。
可选地,上述步骤207之后,还可以包括如下步骤:
A1、获取所述用户的目标视力参数;
A2、确定与所述目标视力参数对应的目标显示参数;
A3、根据所述目标显示参数显示所述关注区域对应的内容。
其中,上述视力参数可以包括以下至少一种:散光程度、偏光、是否色盲、视力值等等,显示参数可以包括以下至少一种:显示亮度、显示色温、缩放倍数、字体类型,等等。电子设备的存储器中可以预先存储视力参数与显示参数之间的映射关系,进而,根据该映射关系可以确定目标视力参数对应的目标显示参数,进而,根据目标显示参数显示关注区域对应的内容,如此,可以让用户更好地体验电子设备。
可以看出,本申请实施例中所描述的用户注视方向识别方法,应用于电子设备,该电子设备包括处理器,以及与处理器连接的人脸识别装置,该电子设备获取3D人脸图像,从3D人脸图像中提取出3D眼球图像,根据3D眼球的凸面特性图像确定人眼注视方向,在用户在注视电子设备的显示屏时,确定用户与电子设备之间的目标距离,按照预设的距离与区域半径之间的对应关系,确定目标距离对应的目标区域半径,根据人眼注视方向确定用户注视显示屏的聚焦点,将以所述聚焦点为圆心,以目标区域半径为半径作圆,将圆所在区域作为用户的关注区域,由于3D眼球图像的表面为一凸面,具备凸面特性,可以根据这一特性得到人眼注视方向。
与上述一致地,以下是实施上述用户注视方向识别方法的装置,具体如下:
与上述一致地,请参阅图3,图3是本申请实施例提供的一种电子设备,包括:处理器和存储器,还可以包括与所述处理器连接的人脸识别装置和环境传感器;以及一个或多个程序,所述一个或多个程序被存储在所述存储器中,并且被配置成由所述处理器执行,所述程序包括用于执行以下步骤的指令:
获取3D人脸图像;
从所述3D人脸图像中提取出3D眼球图像;
根据所述3D眼球的凸面特性图像确定人眼注视方向。
在一个可能的示例中,在所述根据所述3D眼球的凸面特性图像确定人眼注视方向方面,所述程序包括用于执行以下步骤的指令:
在所述3D眼球图像包括第一3D眼球时,所述第一3D眼球包括第一瞳孔区域,所述第一瞳孔区域包括第一凸面;
确定所述第一凸面的第一中心点以及第一球心,连接所述第一球心和所述第一中心点,得到第一引线,将所述第一引线中所述第一球心指向所述第一中心点的方向作为所述人眼注视方向;
或者,
在所述3D眼球图像还包括第二3D眼球时,所述第二3D眼球包括第二瞳孔区域,所述第二瞳孔区域包括第二凸面;
确定所述第二凸面的第二中心点以及第二球心,连接所述第二球心和所述第二中心点,得到第二引线;
确定所述第一引线与所述第二引线之间的交汇点;
确定所述第一中心点与所述第二中心点的中点位置;
基于所述中点位置与所述交汇点作连线,得到交汇线,将所述交汇线中所述中点位置指向所述交汇点的方向作为所述人眼注视方向。
在一个可能的示例中,在所述获取3D人脸图像方面,所述程序包括用于执行以下步骤的指令:
获取目标环境参数;
确定与所述目标环境参数对应的目标拍摄参数;
根据所述目标拍摄参数对人脸进行拍摄,得到所述3D人脸图像。
在一个可能的示例中,在用户在注视电子设备的显示屏时,在所述根据所述3D眼球的凸面特性图像确定人眼注视方向之后,所述程序还包括用于执行以下步骤的指令:
确定所述用户与所述电子设备之间的目标距离;
按照预设的距离与区域半径之间的对应关系,确定所述目标距离对应的目标区域半径;
根据所述人眼注视方向确定所述用户注视所述显示屏的聚焦点;
将以所述聚焦点为圆心,以所述目标区域半径为半径作圆,将所述圆所在区域作为所述用户的关注区域。
在一个可能的示例中,在所述将所述圆所在区域作为所述用户的关注区域之后,所述程序还包括用于执行以下步骤的指令:
获取所述用户的目标视力参数;
确定与所述目标视力参数对应的目标显示参数;
根据所述目标显示参数显示所述关注区域对应的内容。
请参阅图4A,图4A是本实施例提供的一种用户注视方向识别装置的结构示意图。该用户注视方向识别装置应用于电子设备,所述电子设备包括处理器,以及与所述处理器连接的人脸识别装置,该用户注视方向识别装置可包括:获取单元401、提取单元402和确定单元403,其中,
获取单元401,用于获取3D人脸图像;
提取单元402,用于从所述3D人脸图像中提取出3D眼球图像;
确定单元403,用于根据所述3D眼球的凸面特性图像确定人眼注视方向。
可选地,在所述根据所述3D眼球的凸面特性图像确定人眼注视方向方面,所述确定单元403具体用于:
在所述3D眼球图像包括第一3D眼球时,所述第一3D眼球包括第一瞳孔区域,所述第一瞳孔区域包括第一凸面;
确定所述第一凸面的第一中心点以及第一球心,连接所述第一球心和所述第一中心点,得到第一引线,将所述第一引线中所述第一球心指向所述第一中心点的方向作为所述人眼注视方向;
或者,
在所述3D眼球图像还包括第二3D眼球时,所述第二3D眼球包括第二瞳孔区域,所述第二瞳孔区域包括第二凸面;
确定所述第二凸面的第二中心点以及第二球心,连接所述第二球心和所述第二中心点,得到第二引线;
确定所述第一引线与所述第二引线之间的交汇点;
确定所述第一中心点与所述第二中心点的中点位置;
基于所述中点位置与所述交汇点作连线,得到交汇线,将所述交汇线中所述中点位置指向所述交汇点的方向作为所述人眼注视方向。
可选地,可选地,如图4B,图4B为本申请实施例图4A所描述的用户注视方向识别装置的获取单元401的具体细化结构,所述获取单元401可以包括:获取模块4011、确定模块4012和拍摄模块4013,具体如下:
获取模块4011,用于获取目标环境参数;
确定模块4012,用于确定与所述目标环境参数对应的目标拍摄参数;
拍摄模块4013,用于根据所述目标拍摄参数对人脸进行拍摄,得到所述3D人脸图像。
进一步地,在用户在注视电子设备的显示屏时,在所述根据所述3D眼球的凸面特性图像确定人眼注视方向之后,所述确定单元403还具体用于:
确定所述用户与所述电子设备之间的目标距离;
按照预设的距离与区域半径之间的对应关系,确定所述目标距离对应的目标区域半径;
根据所述人眼注视方向确定所述用户注视所述显示屏的聚焦点;
将以所述聚焦点为圆心,以所述目标区域半径为半径作圆,将所述圆所在区域作为所述用户的关注区域。
进一步可选地,如图4C,图4C为本申请实施例图4A所描述的用户注视方向识别装置的又一变型结构,其与图4A相比较还可以包括:显示单元404,具体如下:
所述获取单元401,还具体用于;
在所述将所述圆所在区域作为所述用户的关注区域之后,获取所述用户的目标视力参数;
所述确定单元403,还具体用于:
确定与所述目标视力参数对应的目标显示参数;
所述显示单元404,用于根据所述目标显示参数显示所述关注区域对应的内容。
可以看出,本申请实施例中所描述的用户注视方向识别装置,应用于电子设备,该电子设备包括处理器,以及与处理器连接的人脸识别装置,该电子设备获取3D人脸图像,从3D人脸图像中提取出3D眼球图像,根据3D眼球的凸面特性图像确定人眼注视方向,由于3D眼球图像的表面为一凸面,具备凸面特性,可以根据这一特性得到人眼注视方向。
可以理解的是,本实施例的用户注视方向识别装置的各程序模块的功能可根据上述方法实施例中的方法具体实现,其具体实现过程可以参照上述方法实施例的相关描述,此处不再赘述。
本申请实施例还提供了另一种电子设备,如图5所示,为了便于说明,仅示出了与本申请实施例相关的部分,具体技术细节未揭示的,请参照本申请实施例方法部分。该电子设备可以为包括手机、平板电脑、PDA(personal digital assistant,个人数字助理)、POS(point of sales,销售终端)、车载电脑等任意终端设备,以电子设备为手机为例:
图5示出的是与本申请实施例提供的电子设备相关的手机的部分结构的框图。参考图5,手机包括:射频(radio frequency,RF)电路910、存储器920、输入单元930、传感器950、音频电路960、无线保真(wireless fidelity,Wi-Fi)模块970、处理器980、电源990等部件。本领域技术人员可以理解,图5中示出的手机结构并不构成对手机的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图5对手机的各个构成部件进行具体的介绍:
输入单元930可用于接收输入的数字或字符信息,以及产生与手机的用户设置以及功能控制有关的键信号输入。具体地,输入单元930可包括显示屏933以及人脸识别装置931以及其他输入设备932。人脸识别装置931可以为双摄像头或者3D摄影设备。输入单元930还可以包括其他输入设备932。具体地,其他输入设备932可以包括但不限于物理按键、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
其中,所述处理器980,用于执行如下步骤:
获取3D人脸图像;
从所述3D人脸图像中提取出3D眼球图像;
根据所述3D眼球的凸面特性图像确定人眼注视方向。
处理器980是手机的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器920内的软件程序和/模或块,以及调用存储在存储器920内的数据,执行手机的各种功能和处理数据,从而对手机进行整体监控。可选的,处理器980可包括一个或多个处理单元,该处理单元可为人工智能芯片、量子芯片;优选的,处理器980可集成应用处理器(例如,CPU,或者,GPU)和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器980中。
此外,存储器920可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
RF电路910可用于信息的接收和发送。通常,RF电路910包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器(low noise amplifier,LNA)、双工器等。此外,RF电路910还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(global system of mobilecommunication,GSM)、通用分组无线服务(general packet radio service,GPRS)、码分多址(code division multiple access,CDMA)、宽带码分多址(wideband code divisionmultiple access,WCDMA)、长期演进(long term evolution,LTE)、电子邮件、短消息服务(short messaging service,SMS)等。
手机还可包括至少一种传感器950,传感器950可以为环境传感器,该环境传感器比如:光传感器、接近传感器、运动传感器以及其他传感器等。具体地,光传感器可根据环境光线的明暗来调节触控显示屏的亮度,接近传感器可在手机移动到耳边时,关闭触控显示屏和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于手机还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路960、扬声器961,传声器962可提供用户与手机之间的音频接口。音频电路960可将接收到的音频数据转换后的电信号,传输到扬声器961,由扬声器961转换为声音信号播放;另一方面,传声器962将收集的声音信号转换为电信号,由音频电路960接收后转换为音频数据,再将音频数据播放处理器980处理后,经RF电路910以发送给比如另一手机,或者将音频数据播放至存储器920以便进一步处理。
Wi-Fi属于短距离无线传输技术,手机通过Wi-Fi模块970可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图5示出了Wi-Fi模块970,但是可以理解的是,其并不属于手机的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
手机还包括给各个部件供电的电源990(比如电池),优选的,电源可以通过电源管理系统与处理器980逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管未示出,手机还可以包括摄像头、蓝牙模块等,在此不再赘述。
前述图1B或图2所示的实施例中,各步骤方法流程可以基于该手机的结构实现。
前述图3、图4A~图4C所示的实施例中,各单元功能可以基于该手机的结构实现。
本申请实施例还提供一种计算机存储介质,其中,该计算机存储介质存储用于电子数据交换的计算机程序,该计算机程序使得计算机执行如上述方法实施例中记载的任何一种用户注视方向识别方法的部分或全部步骤。
本申请实施例还提供一种计算机程序产品,所述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,所述计算机程序可操作来使计算机执行如上述方法实施例中记载的任何一种用户注视方向识别方法的部分或全部步骤。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,可通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件程序模块的形式实现。
所述集成的单元如果以软件程序模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储器包括:U盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储器中,存储器可以包括:闪存盘、ROM、RAM、磁盘或光盘等。
以上对本申请实施例进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (14)

1.一种电子设备,其特征在于,所述电子设备包括处理器,以及与所述处理器连接的人脸识别装置,其中,
所述人脸识别装置,用于获取3D人脸图像;
所述处理器,用于从所述3D人脸图像中提取出3D眼球图像;以及根据所述3D眼球的凸面特性图像确定人眼注视方向。
2.根据权利要求1所述的电子设备,其特征在于,在所述根据所述3D眼球的凸面特性图像确定人眼注视方向方面,所述处理器具体用于:
在所述3D眼球图像包括第一3D眼球时,所述第一3D眼球包括第一瞳孔区域,所述第一瞳孔区域包括第一凸面;
确定所述第一凸面的第一中心点以及第一球心,连接所述第一球心和所述第一中心点,得到第一引线,将所述第一引线中所述第一球心指向所述第一中心点的方向作为所述人眼注视方向;
或者,
在所述3D眼球图像还包括第二3D眼球时,所述第二3D眼球包括第二瞳孔区域,所述第二瞳孔区域包括第二凸面;
确定所述第二凸面的第二中心点以及第二球心,连接所述第二球心和所述第二中心点,得到第二引线;
确定所述第一引线与所述第二引线之间的交汇点;
确定所述第一中心点与所述第二中心点的中点位置;
基于所述中点位置与所述交汇点作连线,得到交汇线,将所述交汇线中所述中点位置指向所述交汇点的方向作为所述人眼注视方向。
3.根据权利要求1或2所述的电子设备,其特征在于,所述电子设备还包括:环境传感器;
所述环境传感器具体用于:获取目标环境参数;
在所述获取3D人脸图像方面,所述人脸识别装置具体用于:
确定与所述目标环境参数对应的目标拍摄参数;
根据所述目标拍摄参数对人脸进行拍摄,得到所述3D人脸图像。
4.根据权利要求1至3任一项所述的电子设备,其特征在于,所述电子设备还包括显示屏,在用户在注视所述显示屏时,在所述根据所述3D眼球的凸面特性图像确定人眼注视方向之后,所述处理器还具体用于:
确定所述用户与所述电子设备之间的目标距离;
按照预设的距离与区域半径之间的对应关系,确定所述目标距离对应的目标区域半径;
根据所述人眼注视方向确定所述用户注视所述显示屏的聚焦点;
将以所述聚焦点为圆心,以所述目标区域半径为半径作圆,将所述圆所在区域作为所述用户的关注区域。
5.根据权利要求4所述的电子设备,其特征在于,所述显示屏具体用于:
获取所述用户的目标视力参数;
确定与所述目标视力参数对应的目标显示参数;
根据所述目标显示参数显示所述关注区域对应的内容。
6.一种用户注视方向识别方法,其特征在于,应用于电子设备,所述电子设备包括处理器,以及与所述处理器连接的人脸识别装置,其中,所述方法包括:
所述人脸识别装置获取3D人脸图像;
所述处理器从所述3D人脸图像中提取出3D眼球图像;以及根据所述3D眼球的凸面特性图像确定人眼注视方向。
7.一种用户注视方向识别方法,其特征在于,所述方法包括:
获取3D人脸图像;
从所述3D人脸图像中提取出3D眼球图像;
根据所述3D眼球的凸面特性图像确定人眼注视方向。
8.根据权利要求7所述的方法,其特征在于,所述根据所述3D眼球的凸面特性图像确定人眼注视方向,包括:
在所述3D眼球图像包括第一3D眼球时,所述第一3D眼球包括第一瞳孔区域,所述第一瞳孔区域包括第一凸面;
确定所述第一凸面的第一中心点以及第一球心,连接所述第一球心和所述第一中心点,得到第一引线,将所述第一引线中所述第一球心指向所述第一中心点的方向作为所述人眼注视方向;
或者,
在所述3D眼球图像还包括第二3D眼球时,所述第二3D眼球包括第二瞳孔区域,所述第二瞳孔区域包括第二凸面;
确定所述第二凸面的第二中心点以及第二球心,连接所述第二球心和所述第二中心点,得到第二引线;
确定所述第一引线与所述第二引线之间的交汇点;
确定所述第一中心点与所述第二中心点的中点位置;
基于所述中点位置与所述交汇点作连线,得到交汇线,将所述交汇线中所述中点位置指向所述交汇点的方向作为所述人眼注视方向。
9.根据权利要求7或8所述的方法,其特征在于,所述获取3D人脸图像,包括:
获取目标环境参数;
确定与所述目标环境参数对应的目标拍摄参数;
根据所述目标拍摄参数对人脸进行拍摄,得到所述3D人脸图像。
10.根据权利要求7至9任一项所述的方法,其特征在于,在用户在注视电子设备的显示屏时,在所述根据所述3D眼球的凸面特性图像确定人眼注视方向之后,所述方法还包括:
确定所述用户与所述电子设备之间的目标距离;
按照预设的距离与区域半径之间的对应关系,确定所述目标距离对应的目标区域半径;
根据所述人眼注视方向确定所述用户注视所述显示屏的聚焦点;
将以所述聚焦点为圆心,以所述目标区域半径为半径作圆,将所述圆所在区域作为所述用户的关注区域。
11.根据权利要求10所述的方法,其特征在于,在所述将所述圆所在区域作为所述用户的关注区域之后,所述方法还包括:
获取所述用户的目标视力参数;
确定与所述目标视力参数对应的目标显示参数;
根据所述目标显示参数显示所述关注区域对应的内容。
12.一种用户注视方向识别装置,其特征在于,包括:
获取单元,用于获取3D人脸图像;
提取单元,用于从所述3D人脸图像中提取出3D眼球图像;
确定单元,用于根据所述3D眼球的凸面特性图像确定人眼注视方向。
13.一种电子设备,其特征在于,包括:处理器和存储器;以及一个或多个程序,所述一个或多个程序被存储在所述存储器中,并且被配置成由所述处理器执行,所述程序包括用于如权利要求7-11任一项方法的指令。
14.一种计算机可读存储介质,其特征在于,其用于存储计算机程序,其中,所述计算机程序使得计算机执行如权利要求7-11任一项所述的方法。
CN201810094065.5A 2018-01-31 2018-01-31 用户注视方向识别方法及相关产品 Pending CN108345848A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810094065.5A CN108345848A (zh) 2018-01-31 2018-01-31 用户注视方向识别方法及相关产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810094065.5A CN108345848A (zh) 2018-01-31 2018-01-31 用户注视方向识别方法及相关产品

Publications (1)

Publication Number Publication Date
CN108345848A true CN108345848A (zh) 2018-07-31

Family

ID=62960983

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810094065.5A Pending CN108345848A (zh) 2018-01-31 2018-01-31 用户注视方向识别方法及相关产品

Country Status (1)

Country Link
CN (1) CN108345848A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109587344A (zh) * 2018-12-28 2019-04-05 北京七鑫易维信息技术有限公司 基于移动终端的通话控制方法、装置、移动终端及介质
CN110826374A (zh) * 2018-08-10 2020-02-21 Oppo广东移动通信有限公司 监测人眼注视时间的方法和装置、存储介质、电子设备
CN111178307A (zh) * 2019-12-31 2020-05-19 联想(北京)有限公司 注视方向识别方法、装置及电子设备和存储介质
CN111596760A (zh) * 2020-04-30 2020-08-28 维沃移动通信有限公司 操作控制方法、装置、电子设备及可读存储介质
CN111695516A (zh) * 2020-06-12 2020-09-22 百度在线网络技术(北京)有限公司 热力图的生成方法、装置及设备
CN112419399A (zh) * 2019-08-23 2021-02-26 北京七鑫易维信息技术有限公司 一种图像测距方法、装置、设备和存储介质
CN112489578A (zh) * 2020-11-19 2021-03-12 北京沃东天骏信息技术有限公司 商品呈现方法和装置
WO2021098454A1 (zh) * 2019-11-21 2021-05-27 深圳云天励飞技术股份有限公司 一种关注区域检测方法、装置、可读存储介质及终端设备
CN113824832A (zh) * 2021-09-22 2021-12-21 维沃移动通信有限公司 提示方法、装置、电子设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080192990A1 (en) * 2007-02-09 2008-08-14 Kabushiki Kaisha Toshiba Gaze detection apparatus and the method of the same
CN101924825A (zh) * 2010-07-14 2010-12-22 康佳集团股份有限公司 自动调节文字的显示大小的移动终端及其方法
CN102830793A (zh) * 2011-06-16 2012-12-19 北京三星通信技术研究有限公司 视线跟踪方法和设备
CN103248822A (zh) * 2013-03-29 2013-08-14 东莞宇龙通信科技有限公司 摄像终端的对焦方法及摄像终端
CN107436681A (zh) * 2016-05-27 2017-12-05 爱唯秀股份有限公司 自动调节文字的显示大小的移动终端及其方法
CN107577959A (zh) * 2017-10-11 2018-01-12 厦门美图移动科技有限公司 一种隐私保护方法及移动终端

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080192990A1 (en) * 2007-02-09 2008-08-14 Kabushiki Kaisha Toshiba Gaze detection apparatus and the method of the same
CN101924825A (zh) * 2010-07-14 2010-12-22 康佳集团股份有限公司 自动调节文字的显示大小的移动终端及其方法
CN102830793A (zh) * 2011-06-16 2012-12-19 北京三星通信技术研究有限公司 视线跟踪方法和设备
CN103248822A (zh) * 2013-03-29 2013-08-14 东莞宇龙通信科技有限公司 摄像终端的对焦方法及摄像终端
CN107436681A (zh) * 2016-05-27 2017-12-05 爱唯秀股份有限公司 自动调节文字的显示大小的移动终端及其方法
CN107577959A (zh) * 2017-10-11 2018-01-12 厦门美图移动科技有限公司 一种隐私保护方法及移动终端

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KENNETH ALBERTO FUNES MORA ET.AL: "Gaze Estimation from Multimodal Kinect Data", 《PROCEEDINGS OF THE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110826374A (zh) * 2018-08-10 2020-02-21 Oppo广东移动通信有限公司 监测人眼注视时间的方法和装置、存储介质、电子设备
CN110826374B (zh) * 2018-08-10 2023-07-14 Oppo广东移动通信有限公司 监测人眼注视时间的方法和装置、存储介质、电子设备
CN109587344A (zh) * 2018-12-28 2019-04-05 北京七鑫易维信息技术有限公司 基于移动终端的通话控制方法、装置、移动终端及介质
CN112419399A (zh) * 2019-08-23 2021-02-26 北京七鑫易维信息技术有限公司 一种图像测距方法、装置、设备和存储介质
WO2021098454A1 (zh) * 2019-11-21 2021-05-27 深圳云天励飞技术股份有限公司 一种关注区域检测方法、装置、可读存储介质及终端设备
CN111178307A (zh) * 2019-12-31 2020-05-19 联想(北京)有限公司 注视方向识别方法、装置及电子设备和存储介质
CN111596760A (zh) * 2020-04-30 2020-08-28 维沃移动通信有限公司 操作控制方法、装置、电子设备及可读存储介质
CN111695516A (zh) * 2020-06-12 2020-09-22 百度在线网络技术(北京)有限公司 热力图的生成方法、装置及设备
CN111695516B (zh) * 2020-06-12 2023-11-07 百度在线网络技术(北京)有限公司 热力图的生成方法、装置及设备
CN112489578A (zh) * 2020-11-19 2021-03-12 北京沃东天骏信息技术有限公司 商品呈现方法和装置
CN113824832A (zh) * 2021-09-22 2021-12-21 维沃移动通信有限公司 提示方法、装置、电子设备及存储介质
CN113824832B (zh) * 2021-09-22 2023-05-26 维沃移动通信有限公司 提示方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN108345848A (zh) 用户注视方向识别方法及相关产品
US11074466B2 (en) Anti-counterfeiting processing method and related products
CN107590461B (zh) 人脸识别方法及相关产品
CN109918975A (zh) 一种增强现实的处理方法、对象识别的方法及终端
CN107657218B (zh) 人脸识别方法及相关产品
CN110248254A (zh) 显示控制方法及相关产品
CN106558025A (zh) 一种图片的处理方法和装置
CN108712603B (zh) 一种图像处理方法及移动终端
CN107463818B (zh) 解锁控制方法及相关产品
CN108646907A (zh) 背光亮度调节方法以及相关产品
CN107590463A (zh) 人脸识别方法及相关产品
CN107580114A (zh) 生物识别方法、移动终端以及计算机可读存储介质
CN107766824A (zh) 人脸识别方法、移动终端以及计算机可读存储介质
CN107864336B (zh) 一种图像处理方法、移动终端
CN108076290A (zh) 一种图像处理方法及移动终端
CN108462826A (zh) 一种辅助拍照的方法及移动终端
US20200125874A1 (en) Anti-Counterfeiting Processing Method, Electronic Device, and Non-Transitory Computer-Readable Storage Medium
CN109190509A (zh) 一种身份识别方法、装置和计算机可读存储介质
CN108307110A (zh) 一种图像虚化方法及移动终端
CN108108137A (zh) 显示控制方法及相关产品
CN109669611A (zh) 试衣方法及终端
CN110162954A (zh) 权限管理方法及相关产品
CN109525837A (zh) 图像的生成方法和移动终端
CN108664288A (zh) 一种图像截取方法及移动终端
CN108388842B (zh) 智能提醒方法及相关产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Changan town in Guangdong province Dongguan 523860 usha Beach Road No. 18

Applicant after: OPPO Guangdong Mobile Communications Co., Ltd.

Address before: Changan town in Guangdong province Dongguan 523860 usha Beach Road No. 18

Applicant before: Guangdong Opel Mobile Communications Co., Ltd.

CB02 Change of applicant information
RJ01 Rejection of invention patent application after publication

Application publication date: 20180731

RJ01 Rejection of invention patent application after publication