CN109462694A - 一种语音助手的控制方法及移动终端 - Google Patents

一种语音助手的控制方法及移动终端 Download PDF

Info

Publication number
CN109462694A
CN109462694A CN201811379256.2A CN201811379256A CN109462694A CN 109462694 A CN109462694 A CN 109462694A CN 201811379256 A CN201811379256 A CN 201811379256A CN 109462694 A CN109462694 A CN 109462694A
Authority
CN
China
Prior art keywords
camera
mobile terminal
voice assistant
portrait picture
pupil feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811379256.2A
Other languages
English (en)
Inventor
陈彬彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vivo Mobile Communication Co Ltd
Original Assignee
Vivo Mobile Communication Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vivo Mobile Communication Co Ltd filed Critical Vivo Mobile Communication Co Ltd
Priority to CN201811379256.2A priority Critical patent/CN109462694A/zh
Publication of CN109462694A publication Critical patent/CN109462694A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72463User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions to restrict the functionality of the device

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Environmental & Geological Engineering (AREA)
  • Telephone Function (AREA)

Abstract

本发明提供了一种语音助手的控制方法及移动终端,包括:获取由所述移动终端的摄像头拍摄的人像画面;确定人像画面中的眼睛的瞳孔特征,当瞳孔特征朝向摄像头的时间大于或等于预设时间值时,启动或关闭语音助手,本发明根据采集的人像画面中瞳孔特征朝向摄像头并保持一定的时间,来实现对语音助手的开启或关闭,使得语音助手的开启或关闭不受周围环境中噪音的干扰,提升了语音助手的启动和关闭操作的成功率,增加了语音助手的适用范围。

Description

一种语音助手的控制方法及移动终端
技术领域
本发明实施例涉及通信技术领域,尤其涉及一种语音助手的控制方法及移动终端。
背景技术
语音助手是一款智能型的应用,通过智能对话与即时问答,实现人机的智能交互,帮助用户解决日常问题,在手机息屏或亮屏工作时,用户可以通过相应的指令唤醒语音助手应用。
现有技术中,语音助手的唤醒或关闭主要是利用用户的语音实现的,具体为,在初次使用语音助手时,将机主用户的声纹信息录入移动终端,之后,在需要唤醒语音助手时,用户可以通过移动终端的麦克风输入唤醒语音,当唤醒语音与预置的声纹信息匹配时,移动终端可以自动启动语音助手,同理,在需要将唤醒后的语音助手关闭时,也可以通过相同的方法实现。
但是,目前方案中,语音助手的唤醒和关闭操作仅适用于移动终端处于安静环境的场景中,当移动终端处于嘈杂环境时,由于噪声的干扰,会使得唤醒和关闭操作的成功率大大降低。
发明内容
本发明实施例提供一种语音助手的控制方法及移动终端,以解决现有技术中当移动终端处于嘈杂环境时,由于噪声的干扰,会使得唤醒和关闭操作的成功率大大降低的问题。
第一方面,本发明实施例提供了一种语音助手的控制方法,应用于移动终端,该方法包括:
获取由所述移动终端的摄像头拍摄的人像画面;
确定所述人像画面中的眼睛的瞳孔特征;
当所述瞳孔特征朝向所述摄像头的时间大于或等于预设时间值时,启动或关闭语音助手。
第二方面,本发明实施例提供了一种移动终端,该移动终端包括:
第一获取模块,用于获取由所述移动终端的摄像头拍摄的人像画面;
第一确定模块,用于确定所述人像画面中的眼睛的瞳孔特征;
处理模块,用于当所述瞳孔特征朝向所述摄像头的时间大于或等于预设时间值时,启动或关闭语音助手。
第三方面,本发明实施例还提供了一种移动终端,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如本发明提供的语音助手的控制方法的步骤。
第四方面,本发明实施例还提供了一种可读存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如本发明提供的语音助手的控制方法的步骤。
在本发明实施例中,移动终端可以获取由所述移动终端的摄像头拍摄的人像画面;确定人像画面中的眼睛的瞳孔特征,当瞳孔特征朝向摄像头的时间大于或等于预设时间值时,启动或关闭语音助手,本发明根据采集的人像画面中瞳孔特征朝向摄像头并保持一定的时间,来实现对语音助手的开启或关闭,使得语音助手的开启或关闭不受周围环境中噪音的干扰,提升了语音助手的启动和关闭操作的成功率,增加了语音助手的适用范围。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
图1是本发明实施例提供的一种语音助手的控制方法的步骤流程图;
图2是本发明实施例提供的另一种语音助手的控制方法的步骤流程图;
图3是本发明实施例提供的一种移动终端的框图;
图4是本发明实施例提供的另一种移动终端的框图;
图5是本发明另一个实施例的移动终端的框图;
图6是本发明另一个实施例的移动终端的结构示意图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
图1是本发明实施例提供的一种语音助手的控制方法的步骤流程图,如图1所示,该方法可以包括:
步骤101、获取由所述移动终端的摄像头拍摄的人像画面。
在本发明实施例中,移动终端可以为包括摄像头的智能手机、电脑、多媒体播放器、电子阅读器、可穿戴式设备等。移动终端可以利用摄像头进行画面采集,具体的,当需要进行语音助手的唤醒时,移动终端的摄像头可以采集当前环境中包括用户人像的画面,此时,摄像头采集到的一帧画面可以作为人像画面帧,当摄像头持续采集的多帧人像画面帧结合起来时,可以得到人像画面的帧序列集合。
需要说明的是,语音助手可以为移动终端的应用软件,为了保证用户使用移动终端的隐私需求,避免移动终端的摄像头在用户不知情的情况下开启,本发明实施例可以首先由机主用户决定是否授权语音助手调用和控制摄像头的权限,当确认授权后,还可以在移动终端的息屏或亮屏界面中显示语音助手的触发控件,在由用户通过触控操作触发该控件后,摄像头才可以在被授权的情况下进行获取人像画面的操作,并且,整个语音助手的控制过程大概持续数秒钟,因此,当移动终端在预设的时间内未能实现语音助手的控制时,可自动将摄像头进行关闭,保证了用户隐私安全。
例如,用户在授权摄像头进行语音控制的权限,且触发语音助手的控制操作之后,移动终端的相机应用可以自动调用摄像头进行人像画面帧的采集,且在整个语音助手的控制过程中,摄像头在不断的人像画面帧,相机应用可以在屏幕中展示类似于动态摄影的人像画面,用户可以在该动态的人像画面中看到自己姿态或拍摄角度,以方便用户做出唤醒或关闭操作对应的动作。
步骤102、确定所述人像画面中的眼睛的瞳孔特征。
在本发明实施例中,可以通过目前成熟的人脸识别技术,识别并定位出人像画面中的人脸区域,进而可以对人脸区域进行人脸识别操作,人脸识别是基于人的脸部特征信息进行身份识别的一种生物识别技术,利用摄像头采集含有人脸的图像或视频流,并自动在图像中检测和跟踪人脸,进而对检测到的人脸进行脸部识别的一系列相关技术,具体的,人脸识别主要包括:对人脸图像的采集和人脸区域的定位,之后进行人脸图像预处理和人脸图像特征的提取,最后基于提取的特征,与预置的特征模板进行特征匹配,从而确定人脸的身份信息。
在该步骤中,通过对人脸区域中的各个特征进行提取,并将提取的各个特征与预置的特征模板进行特征匹配,从而确定每个特征的身份信息,例如,从人脸区域中提取出了眼睛特征、鼻子特征、嘴唇特征,将这些特征与预置的特征模板进行特征匹配,从而可以对应定位到眼睛特征对应的区域、鼻子特征对应的区域、嘴唇特征对应的区域,在本发明实施例中,根据定位到的眼睛特征对应的区域,可以进一步进行特征的提取和匹配,从而确定和定位到瞳孔特征。
步骤103,当所述瞳孔特征朝向所述摄像头的时间大于或等于预设时间值时,启动或关闭语音助手。
在该步骤中,当确定和定位了人像画面中的眼睛的瞳孔特征之后,移动终端实时监控该瞳孔特征相对于摄像头镜头之间的方位关系,判断瞳孔特征是否朝向摄像头。
具体判断瞳孔特征是否朝向摄像头的过程可以包括:首先引入眼睛的视线,视线是指眼睛看东西时,瞳孔和物体之间的假想直线,判断瞳孔特征是否朝向摄像头可以为判断瞳孔发出的视线与摄像头的镜头表面是否垂直或接近垂直。
进一步的,本发明实施例可以通过瞳孔特征朝向摄像头的预设时间值, (比如预设时间值为2秒,3秒等),来实现语音助手的唤醒或关闭,正如人与人相视时候的眼睛交流一般,这样可以更为自然地进行用户和移动终端的交互。
需要说明的是,预设时间值的设定值不易太大或太小,太小会导致对语音助手的误启动和误关闭几率增大,如用户只是扫了一眼摄像头,就使得语音助手启动或关闭。而预设时间值若太大,则会导致用户需长时间保持瞳孔特征朝向摄像头,导致语音助手的启动或关闭时间过长,影响用户体验。因此,优选的,预设时间值保持在1秒至3秒之间即可。
综上,本发明实施例提供的一种语音助手的控制方法,包括:获取由所述移动终端的摄像头拍摄的人像画面;确定人像画面中的眼睛的瞳孔特征,当瞳孔特征朝向摄像头的时间大于或等于预设时间值时,启动或关闭语音助手,本发明根据采集的人像画面中瞳孔特征朝向摄像头并保持一定的时间,来实现对语音助手的开启或关闭,使得语音助手的开启或关闭不受周围环境中噪音的干扰,提升了语音助手的启动和关闭操作的成功率,增加了语音助手的适用范围。
图2是本发明实施例提供的另一种语音助手的控制方法的步骤流程图,如图2所示,该方法可以包括:
步骤201、获取由所述移动终端的麦克风采集的环境音频。
在本发明实施例中,移动终端可以通过判断当前所处环境是否为安静环境,若为安静环境,则可以进一步执行步骤202,实现常规的通过语音启动或关闭语音助手的方案,若移动终端处于非安静环境,则可以进一步执行步骤203,进行通过对摄像头拍摄的人像画面中瞳孔特征的识别,来启动或关闭语音助手的方案。
通过提供多种方案并行解决语音助手的启动和关闭问题,本发明实施例可以使得语音助手的应用场景增加,降低了嘈杂环境中无法成功启动或关闭语音助手的几率。
步骤202、当确定所述环境音频中的噪音的分贝小于所述预设分贝值时,根据所述麦克风获取由用户发出的解锁语音,启动或关闭所述语音助手。
在该步骤中,移动终端可以对麦克风采集的环境音频进行分析,通过噪音的发音频率与常规语言发音的不同,确定环境音频中的噪音,从而解析得到环境音频中的噪音分贝值,当噪音的分贝值小于预设分贝值时,则可以确定当前环境为安静环境,其中,预设分贝值可以为界定噪音干扰语音唤醒操作时最小分贝值,若噪音的分贝小于该预设分贝值,则可以认为环境中的噪音不会对语音唤醒操作造成干扰。
可选的,在本发明实施例的一种实现方式中,步骤202还可以包括:
子步骤2021,当确定所述环境音频中的噪音的分贝小于所述预设分贝值时,通过所述麦克风获取由用户发出的解锁语音。
在该步骤中,当环境音频中的噪音的分贝小于预设分贝值时,可以确定用户和移动终端处于安静环境中,此时用户可以通过麦克风向移动终端录入由用户发出的解锁语音,解锁语音可以为预先设定好的一段话或一个词语,例如,“阿里巴巴”,“芝麻开门”等。
子步骤2022,当所述解锁语音的声纹特征与预设声纹特征匹配时,启动或关闭所述语音助手。
在该步骤中,为了保证用户使用移动终端的隐私性需求,可以对解锁语音的发出者是否为机主用户进行验证,具体为,可以在移动终端中预置该机主用户的声纹信息,在接收到解锁语音后,提取该解锁语音中的声纹信息,并与预置的声纹信息进行匹配,若一致,则可以进行启动或关闭所述语音助手的操作,若不一致,则提醒由机主用户在安静环境中重新录入语音信息。
步骤203、当确定所述环境音频中的噪音的分贝大于或等于预设分贝值时,进行所述获取由所述移动终端的摄像头拍摄的人像画面的步骤。
在该步骤中,当噪音的分贝值大于或等于预设分贝值时,则可以确定当前环境为嘈杂环境,此时若通过常规的解锁语音触发启动或关闭语音助手的操作,会因为环境中的噪音的干扰,导致操作成功的几率大大降低,因此,为了保证语音触发启动或关闭操作的成功进行,可以通过对摄像头拍摄的人像画面中瞳孔特征的识别,来启动或关闭语音助手。
步骤204,获取由所述移动终端的摄像头拍摄的人像画面。
本步骤的实现方式与上述步骤101的实现过程类似,本发明实施例在此不再详述。
步骤205,确定所述人像画面中人脸区域的图像特征。
在本发明实施例中,特征是某一类对象区别于其他类对象的相应特点或特性,或是这些特点和特性的集合,特征是通过测量或处理能够抽取的数据,特征提取的主要目的是降维,且其主要思想是将原始图像样本投影到一个低维特征空间,得到最能反应图像样本本质或进行图像样本区分的低维图像样本特征。
对于图像信息而言,每一幅图像都具有能够区别于其他类图像的自身特征,有些是可以直观地感受到的自然特征,如亮度、边缘、纹理和色彩等;有些则是需要通过变换或处理才能得到的,如矩、直方图以及主成份等,在本申请实施例中,图像特征可以通过特征向量表达式进行表达,如,f={x1, x2…xn},常见的图像特征提取方法包括:(1)几何法特征提取,几何法是建立在图像纹理基元理论基础上的一种纹理特征分析方法。(2)模型法特征提取,模型法以图像的构造模型为基础,采用模型的参数作为纹理特征,例如卷积神经网络模型。(3)信号处理法特征提取,纹理特征的提取与匹配主要有:灰度共生矩阵、自回归纹理模型、小波变换等。
在该步骤中,通过人脸识别即可确定和定位到人像画面中的人脸区域,在一种实现方式中,可以将该人脸区域进行截图并导入卷积神经网络模型进行对应的图像特征的提取。
具体的,在本申请实施例中,卷积神经网络(Convolutional Neural Network,CNN)是一种深度前馈人工神经网络,卷积神经网络包括卷积层和池化层,一般地,卷积神经网络的基本结构包括两层,其一为特征提取层,每个神经元的输入与前一层的局部接受域相连,并提取该局部的特征。一旦该局部特征被提取后,它与其它特征间的位置关系也随之确定下来;其二是特征映射层,网络的每个计算层由多个特征映射组成,每个特征映射是一个平面,平面上所有神经元的权值相等。特征映射结构采用影响函数核小的 sigmoid函数作为卷积网络的激活函数,使得特征映射具有位移不变性。此外,由于一个映射面上的神经元共享权值,因而减少了网络自由参数的个数,卷积神经网络中的每一个卷积层都紧跟着一个用来求局部平均与二次提取的计算层,这种特有的两次特征提取结构减小了特征分辨率。
因此,对于一副人脸区域图像中的某个像素p来说,一般离像素p越近的像素对其影响也就越大;另外,根据自然图像的统计特性,某个区域的权值也可以用于另一个区域。这里的权值共享说白了就是卷积核共享,利用卷积神经网络模型,对于一个卷积核将其与给定的图像做卷积就可以提取一副图像信息的特征,不同的卷积核可以提取不同的图像特征,最终获取人脸区域对应的图像特征,其中,卷积核(也称作滤波器,英文:convolutionkernel) 是可以用来提取特征的,图像和卷积核卷积,就可以得到特征值。
步骤206、当所述人脸区域的图像特征与预设的用户图像特征匹配时,进行所述确定所述人像画面中的眼睛的瞳孔特征的步骤。
在该步骤中,为了保证隐私安全,在通过对摄像头拍摄的人像画面中瞳孔特征的识别,来启动或关闭语音助手的方案中,也需要验证操作者是否为机主用户,具体包括,在移动终端中预置该机主用户的用户图像特征,在得到了人脸区域的图像特征后,判断图像特征是否与用户图像特征匹配,若一致,则可以进行后续确定人像画面中的眼睛的瞳孔特征的操作,若不一致,则提醒由机主用户进行人像画面的录入操作。
需要说明的是,特征的形式一般可以为向量表达式,判断图像特征是否与用户图像特征匹配具体可以包括,计算图像特征与用户图像特征之间的余弦向量距离,若该向量距离越小,说明二者之间的相似度越高,若该向量距离越大,则说明二者之间的相似度约低,因此,当图像特征与用户图像特征之间的余弦向量距离小于一个预设阈值时,可以确定图像特征与用户图像特征匹配。
步骤207、确定所述人像画面中的眼睛的瞳孔特征。
本步骤的实现方式与上述步骤102的实现过程类似,本发明实施例在此不再详述。
步骤208、当确定所述环境音频中的噪音的分贝大于或等于预设分贝值时,获取由所述移动终端的摄像头拍摄的人像画面。
本步骤的实现方式与上述步骤103的实现过程类似,本发明实施例在此不再详述。
可选的,步骤208还可以包括:
子步骤2081,当所述瞳孔特征指示的视线焦点与所述摄像头重合,且所述视线焦点与所述摄像头的重合时间大于或等于所述预设时间值时,启动或关闭所述语音助手。
在该步骤中,瞳孔特征指示的视线焦点可以为:瞳孔发出的视线与物体的相交点,当用户看向摄像头时,该视线焦点会与摄像头的镜头区域所重合,当重合的时间大于或等于预设时间值时,则可以确定瞳孔特征朝向摄像头,进一步可以进行启动或关闭所述语音助手的操作。
可选的,步骤208还可以包括:
子步骤2082,当由瞳孔发出的视线与所述摄像头的基准线之间的夹角小于预设夹角,且所述夹角小于所述预设夹角的时间大于或等于所述预设时间值时,启动或关闭所述语音助手,其中,所述基准线垂直于所述摄像头的镜头表面,所述视线垂直于所述瞳孔的表面。
在该步骤中,瞳孔发出的视线可以为一条假想线,该视线可以为沿眼球的瞳孔表面的法线方向射出的一条线,会随着用户眼球的转动而改变方向,当用户看向摄像头时,该视线会与垂直于摄像头表面的基准线形成一定的夹角,该夹角越小,说明瞳孔特征朝向摄像头的程度越高,优选的,该预设夹角可以为0度至10度之间,当夹角小于预设夹角的时间大于或等于预设时间值时,则可以启动或关闭所述语音助手。
综上所述,本发明实施例提供的另一种语音助手的控制方法,包括:获取由所述移动终端的摄像头拍摄的人像画面;确定人像画面中的眼睛的瞳孔特征,当瞳孔特征朝向摄像头的时间大于或等于预设时间值时,启动或关闭语音助手,本发明根据采集的人像画面中瞳孔特征朝向摄像头并保持一定的时间,来实现对语音助手的开启或关闭,使得语音助手的开启或关闭不受周围环境中噪音的干扰,提升了语音助手的启动和关闭操作的成功率,增加了语音助手的适用范围,本发明还在确定移动终端当前所处环境为安静环境时,提供了并列的一种通过解锁语音启动或关闭所述语音助手的方案,提高了本发明的适用范围,并且,本发明还提供了验证操作者是否为机主用户的方案,提高了隐私安全的保护。
图3是本发明实施例提供的一种移动终端的框图,如图3所示,该移动终端30包括:
第一获取模块301,用于获取由所述移动终端的摄像头拍摄的人像画面;
第一确定模块302,用于确定所述人像画面中的眼睛的瞳孔特征;
处理模块303,用于当所述瞳孔特征朝向所述摄像头的时间大于或等于预设时间值时,启动或关闭语音助手。
综上所述,本发明实施例提供的一种移动终端,包括,获取由所述移动终端的摄像头拍摄的人像画面;确定人像画面中的眼睛的瞳孔特征,当瞳孔特征朝向摄像头的时间大于或等于预设时间值时,启动或关闭语音助手,本发明根据采集的人像画面中瞳孔特征朝向摄像头并保持一定的时间,来实现对语音助手的开启或关闭,使得语音助手的开启或关闭不受周围环境中噪音的干扰,提升了语音助手的启动和关闭操作的成功率,增加了语音助手的适用范围。
图4是本发明实施例提供的另一种移动终端的框图,如图4所示,该移动终端40包括:
第二获取模块401,用于获取由所述移动终端的麦克风采集的环境音频;
第一获取模块402,用于获取由所述移动终端的摄像头拍摄的人像画面;
可选的,所述第一获取模块402还包括:
确定子模块,用于当确定所述环境音频中的噪音的分贝大于或等于预设分贝值时,获取由所述移动终端的摄像头拍摄的人像画面。
第二确定模块403,用于确定所述人像画面中人脸区域的图像特征;
第一确定模块404,用于确定所述人像画面中的眼睛的瞳孔特征;
可选的,所述第一确定模块404,包括:
匹配子模块,当所述人脸区域的图像特征与预设的用户图像特征匹配时,确定所述人像画面中的眼睛的瞳孔特征。
处理模块405,用于当所述瞳孔特征朝向所述摄像头的时间大于或等于预设时间值时,启动或关闭语音助手。
可选的,处理模块405包括:
第一处理子模块,用于当所述瞳孔特征指示的视线焦点与所述摄像头重合,且所述视线焦点与所述摄像头的重合时间大于或等于所述预设时间值时,启动或关闭所述语音助手。
第二处理子模块,用于当所述瞳孔特征指示的视线与所述摄像头的基准线之间的夹角小于预设夹角,且所述夹角小于所述预设夹角的时间大于或等于所述预设时间值时,启动或关闭所述语音助手;其中,所述基准线垂直于所述摄像头的镜头表面,所述视线垂直于所述瞳孔特征的表面。
综上所述,本发明实施例提供的移动终端,包括,获取由所述移动终端的摄像头拍摄的人像画面;确定人像画面中的眼睛的瞳孔特征,当瞳孔特征朝向摄像头的时间大于或等于预设时间值时,启动或关闭语音助手,本发明根据采集的人像画面中瞳孔特征朝向摄像头并保持一定的时间,来实现对语音助手的开启或关闭,使得语音助手的开启或关闭不受周围环境中噪音的干扰,提升了语音助手的启动和关闭操作的成功率,增加了语音助手的适用范围,本发明还在确定移动终端当前所处环境为安静环境时,提供了并列的一种通过解锁语音启动或关闭所述语音助手的方案,提高了本发明的适用范围,并且,本发明还提供了验证操作者是否为机主用户的方案,提高了隐私安全的保护。
本发明实施例还提供一种移动终端,包括处理器,存储器,存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现上述语音助手的控制方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述语音助手的控制方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random AccessMemory,简称 RAM)、磁碟或者光盘等。
图5是本发明另一个实施例的移动终端的框图。图5所示的移动终端500 包括:至少一个处理器501、存储器502、至少一个网络接口504、用户接口 503和摄像头506。移动终端500中的各个组件通过总线系统505耦合在一起。可理解,总线系统505用于实现这些组件之间的连接通信。总线系统505 除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图5中将各种总线都标为总线系统505。
其中,用户接口503可以包括显示器、键盘或者点击设备(例如,鼠标,轨迹球(trackball)、触感板或者柔性屏等。
可以理解,本发明实施例中的存储器502可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(Read-OnlyMemory,ROM)、可编程只读存储器 (ProgrammableROM,PROM)、可擦除可编程只读存储器(ErasablePROM, EPROM)、电可擦除可编程只读存储器(ElectricallyEPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(RandomAccessMemory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(StaticRAM,SRAM)、动态随机存取存储器 (DynamicRAM,DRAM)、同步动态随机存取存储器(SynchronousDRAM, SDRAM)、双倍数据速率同步动态随机存取存储器(DoubleDataRateSDRAM, DDRSDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM, ESDRAM)、同步连接动态随机存取存储器(SynchlinkDRAM,SLDRAM)和直接内存总线随机存取存储器(DirectRambusRAM,DRRAM)。本发明实施例描述的系统和方法的存储器502旨在包括但不限于这些和任意其它适合类型的存储器。
在一些实施方式中,存储器502存储了如下的元素,可执行模块或者数据结构,或者他们的子集,或者他们的扩展集:操作系统5021和应用程序 5022。
其中,操作系统5021,包含各种系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务。应用程序5022,包含各种应用程序,例如媒体播放器(MediaPlayer)、浏览器(Browser)等,用于实现各种应用业务。实现本发明实施例方法的程序可以包含在应用程序 5022中。
在本发明实施例中,通过调用存储器502存储的程序或指令,具体的,可以是应用程序5022中存储的程序或指令,处理器501用于获取由所述移动终端的摄像头拍摄的人像画面;确定人像画面中的眼睛的瞳孔特征,当瞳孔特征朝向摄像头的时间大于或等于预设时间值时,启动或关闭语音助手。
上述本发明实施例揭示的方法可以应用于处理器501中,或者由处理器 501实现。处理器501可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器501中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器501可以是通用处理器、数字信号处理器(DigitalSignalProcessor,DSP)、专用集成电路(ApplicationSpecificIntegratedCircuit,ASIC)、现成可编程门阵列(FieldProgrammableGateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器502,处理器501读取存储器502中的信息,结合其硬件完成上述方法的步骤。
可以理解的是,本发明实施例描述的这些实施例可以用硬件、软件、固件、中间件、微码或其组合来实现。对于硬件实现,处理单元可以实现在一个或多个专用集成电路(ApplicationSpecificIntegratedCircuits,ASIC)、数字信号处理器(DigitalSignalProcessing,DSP)、数字信号处理设备(DSPDevice, DSPD)、可编程逻辑设备(ProgrammableLogicDevice,PLD)、现场可编程门阵列(Field-ProgrammableGateArray,FPGA)、通用处理器、控制器、微控制器、微处理器、用于执行本申请所述功能的其它电子单元或其组合中。
对于软件实现,可通过执行本发明实施例所述功能的模块(例如过程、函数等)来实现本发明实施例所述的技术。软件代码可存储在存储器中并通过处理器执行。存储器可以在处理器中或在处理器外部实现。
移动终端500能够实现前述实施例中移动终端实现的各个过程,为避免重复,这里不再赘述。
本发明实施例中,移动终端500可以获取由所述移动终端的摄像头拍摄的人像画面;确定人像画面中的眼睛的瞳孔特征,当瞳孔特征朝向摄像头的时间大于或等于预设时间值时,启动或关闭语音助手,本发明根据采集的人像画面中瞳孔特征朝向摄像头并保持一定的时间,来实现对语音助手的开启或关闭,使得语音助手的开启或关闭不受周围环境中噪音的干扰,提升了语音助手的启动和关闭操作的成功率,增加了语音助手的适用范围。
图6是本发明另一个实施例的移动终端的结构示意图。
所述移动终端包括:处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现上述的语音助手的控制方法的步骤。
本发明实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述内容显示方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,该计算机可读存储介质可以包括只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等。
具体地,图6中的移动终端600可以为手机、平板电脑、个人数字助理(PersonalDigital Assistant,PDA)、或车载电脑等。
图6中的移动终端600包括射频(RadioFrequency,RF)电路610、存储器620、输入单元630、显示单元640、处理器660、音频电路670、无线局域网(WirelessFidelity)模块680、电源690和摄像头6110。
其中,输入单元630可用于接收用户输入的数字或字符信息,以及产生与移动终端600的用户设置以及功能控制有关的信号输入。具体地,本发明实施例中,该输入单元630可以包括触控面板631。触控面板631,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板631上的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板631可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给该处理器660,并能接收处理器660发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板631。除了触控面板631,输入单元630还可以包括其他输入设备632,其他输入设备632可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
其中,显示单元640可用于显示由用户输入的信息或提供给用户的信息以及移动终端600的各种菜单界面。显示单元640可包括显示面板641,可选的,可以采用LCD或有机发光二极管(OrganicLight-EmittingDiode,OLED) 等形式来配置显示面板641。
应注意,触控面板631可以覆盖显示面板641,形成触摸显示屏,当该触摸显示屏检测到在其上或附近的触摸操作后,传送给处理器660以确定触摸事件的类型,随后处理器660根据触摸事件的类型在触摸显示屏上提供相应的视觉输出。
触摸显示屏包括应用程序界面显示区及常用控件显示区。该应用程序界面显示区及该常用控件显示区的排列方式并不限定,可以为上下排列、左右排列等可以区分两个显示区的排列方式。该应用程序界面显示区可以用于显示应用程序的界面。每一个界面可以包含至少一个应用程序的图标和/或widget桌面控件等界面元素。该应用程序界面显示区也可以为不包含任何内容的空界面。该常用控件显示区用于显示使用率较高的控件,例如,设置按钮、界面编号、滚动条、电话本图标等应用程序图标等。
其中处理器660是移动终端600的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在第一存储器621内的软件程序和/或模块,以及调用存储在第二存储器622内的数据,执行移动终端600 的各种功能和处理数据,从而对移动终端600进行整体监控。可选的,处理器660可包括一个或多个处理单元。
在本发明实施例中,通过调用存储该第一存储器621内的软件程序和/或模块和/或该第二存储器622内的数据,处理器660用于获取由所述移动终端的摄像头拍摄的人像画面;确定人像画面中的眼睛的瞳孔特征,当瞳孔特征朝向摄像头的时间大于或等于预设时间值时,启动或关闭语音助手。
可见,本发明实施例中,移动终端可以包括:获取由所述移动终端的摄像头拍摄的人像画面;确定人像画面中的眼睛的瞳孔特征,当瞳孔特征朝向摄像头的时间大于或等于预设时间值时,启动或关闭语音助手,本发明根据采集的人像画面中瞳孔特征朝向摄像头并保持一定的时间,来实现对语音助手的开启或关闭,使得语音助手的开启或关闭不受周围环境中噪音的干扰,提升了语音助手的启动和关闭操作的成功率,增加了语音助手的适用范围。
对于上述装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域技术人员易于想到的是:上述各个实施例的任意组合应用都是可行的,故上述各个实施例之间的任意组合都是本发明的实施方案,但是由于篇幅限制,本说明书在此就不一一详述了。
在此提供的语音助手的控制方法不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造具有本发明方案的系统所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的视频中背景音乐的识别方法中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。

Claims (11)

1.一种语音助手的控制方法,应用于移动终端,其特征在于,所述方法包括:
获取由所述移动终端的摄像头拍摄的人像画面;
确定所述人像画面中的眼睛的瞳孔特征;
当所述瞳孔特征朝向所述摄像头的时间大于或等于预设时间值时,启动或关闭语音助手。
2.根据权利要求1所述的方法,其特征在于,获取由所述移动终端的摄像头拍摄的人像画面之前,还包括:
获取由所述移动终端的麦克风采集的环境音频;
所述获取由所述移动终端的摄像头拍摄的人像画面,包括:
当确定所述环境音频中的噪音的分贝大于或等于预设分贝值时,获取由所述移动终端的摄像头拍摄的人像画面。
3.根据权利要求1所述的方法,其特征在于,在所述获取由所述移动终端的摄像头拍摄的人像画面之后,确定所述人像画面中的眼睛的瞳孔特征之前,还包括:
确定所述人像画面中人脸区域的图像特征;
所述确定所述人像画面中的眼睛的瞳孔特征,包括:
当所述人脸区域的图像特征与预设的用户图像特征匹配时,确定所述人像画面中的眼睛的瞳孔特征。
4.根据权利要求1所述的方法,其特征在于,所述当所述瞳孔特征朝向所述摄像头的时间大于或等于预设时间值时,启动或关闭语音助手,包括:
当所述瞳孔特征指示的视线焦点与所述摄像头重合,且所述视线焦点与所述摄像头的重合时间大于或等于所述预设时间值时,启动或关闭所述语音助手。
5.根据权利要求1所述的方法,其特征在于,所述当所述瞳孔特征朝向所述摄像头的时间大于或等于预设时间值时,启动或关闭语音助手,包括:
当所述瞳孔特征指示的视线与所述摄像头的基准线之间的夹角小于预设夹角,且所述夹角小于所述预设夹角的时间大于或等于所述预设时间值时,启动或关闭所述语音助手;
其中,所述基准线垂直于所述摄像头的镜头表面,所述视线垂直于所述瞳孔特征的表面。
6.一种移动终端,其特征在于,所述移动终端包括:
第一获取模块,用于获取由所述移动终端的摄像头拍摄的人像画面;
第一确定模块,用于确定所述人像画面中的眼睛的瞳孔特征;
处理模块,用于当所述瞳孔特征朝向所述摄像头的时间大于或等于预设时间值时,启动或关闭语音助手。
7.根据权利要求6所述的移动终端,其特征在于,所述移动终端还包括:
第二获取模块,用于获取由所述移动终端的麦克风采集的环境音频;
所述第一获取模块还包括:
确定子模块,用于当确定所述环境音频中的噪音的分贝大于或等于预设分贝值时,获取由所述移动终端的摄像头拍摄的人像画面。
8.根据权利要求6所述的移动终端,其特征在于,所述移动终端还包括:
第二确定模块,用于确定所述人像画面中人脸区域的图像特征;
所述第一确定模块,包括:
匹配子模块,当所述人脸区域的图像特征与预设的用户图像特征匹配时,确定所述人像画面中的眼睛的瞳孔特征。
9.根据权利要求6所述的移动终端,其特征在于,所述处理模块包括:
第一处理子模块,用于当所述瞳孔特征指示的视线焦点与所述摄像头重合,且所述视线焦点与所述摄像头的重合时间大于或等于所述预设时间值时,启动或关闭所述语音助手。
10.根据权利要求6所述的移动终端,其特征在于,所述处理模块,包括:
第二处理子模块,用于当所述瞳孔特征指示的视线与所述摄像头的基准线之间的夹角小于预设夹角,且所述夹角小于所述预设夹角的时间大于或等于所述预设时间值时,启动或关闭所述语音助手;其中,所述基准线垂直于所述摄像头的镜头表面,所述视线垂直于所述瞳孔特征的表面。
11.一种移动终端,其特征在于,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至5中任一项所述的语音助手的控制方法的步骤。
CN201811379256.2A 2018-11-19 2018-11-19 一种语音助手的控制方法及移动终端 Pending CN109462694A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811379256.2A CN109462694A (zh) 2018-11-19 2018-11-19 一种语音助手的控制方法及移动终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811379256.2A CN109462694A (zh) 2018-11-19 2018-11-19 一种语音助手的控制方法及移动终端

Publications (1)

Publication Number Publication Date
CN109462694A true CN109462694A (zh) 2019-03-12

Family

ID=65611002

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811379256.2A Pending CN109462694A (zh) 2018-11-19 2018-11-19 一种语音助手的控制方法及移动终端

Country Status (1)

Country Link
CN (1) CN109462694A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111694424A (zh) * 2020-04-20 2020-09-22 上汽大众汽车有限公司 一种唤醒车载智能语音功能的系统和方法
WO2023078223A1 (zh) * 2021-11-07 2023-05-11 华为技术有限公司 一种电子设备性能优化方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103873959A (zh) * 2012-12-13 2014-06-18 联想(北京)有限公司 一种控制方法和电子设备
US20140330560A1 (en) * 2013-05-06 2014-11-06 Honeywell International Inc. User authentication of voice controlled devices
CN104756185A (zh) * 2012-11-05 2015-07-01 三菱电机株式会社 语音识别装置
CN105183169A (zh) * 2015-09-22 2015-12-23 小米科技有限责任公司 视线方向识别方法及装置
CN105700363A (zh) * 2016-01-19 2016-06-22 深圳创维-Rgb电子有限公司 一种智能家居设备语音控制装置的唤醒方法及系统
CN105974808A (zh) * 2016-06-30 2016-09-28 宇龙计算机通信科技(深圳)有限公司 基于虚拟现实设备的控制方法、控制装置及虚拟现实设备
CN106157956A (zh) * 2015-03-24 2016-11-23 中兴通讯股份有限公司 语音识别的方法及装置
CN106502378A (zh) * 2016-09-08 2017-03-15 深圳市元征科技股份有限公司 一种电子设备界面的控制方法及电子设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104756185A (zh) * 2012-11-05 2015-07-01 三菱电机株式会社 语音识别装置
CN103873959A (zh) * 2012-12-13 2014-06-18 联想(北京)有限公司 一种控制方法和电子设备
US20140330560A1 (en) * 2013-05-06 2014-11-06 Honeywell International Inc. User authentication of voice controlled devices
CN106157956A (zh) * 2015-03-24 2016-11-23 中兴通讯股份有限公司 语音识别的方法及装置
CN105183169A (zh) * 2015-09-22 2015-12-23 小米科技有限责任公司 视线方向识别方法及装置
CN105700363A (zh) * 2016-01-19 2016-06-22 深圳创维-Rgb电子有限公司 一种智能家居设备语音控制装置的唤醒方法及系统
CN105974808A (zh) * 2016-06-30 2016-09-28 宇龙计算机通信科技(深圳)有限公司 基于虚拟现实设备的控制方法、控制装置及虚拟现实设备
CN106502378A (zh) * 2016-09-08 2017-03-15 深圳市元征科技股份有限公司 一种电子设备界面的控制方法及电子设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111694424A (zh) * 2020-04-20 2020-09-22 上汽大众汽车有限公司 一种唤醒车载智能语音功能的系统和方法
WO2023078223A1 (zh) * 2021-11-07 2023-05-11 华为技术有限公司 一种电子设备性能优化方法及装置

Similar Documents

Publication Publication Date Title
EP3523754B1 (en) Face liveness detection method and apparatus, and electronic device
CN112258193B (zh) 一种支付方法及装置
WO2018166399A1 (zh) 一种显示控制方法及移动终端
KR102350507B1 (ko) 출입 제어 방법, 출입 제어 장치, 시스템 및 저장매체
CN105975182B (zh) 一种终端操作方法及终端
KR101850035B1 (ko) 이동 단말기 및 그 제어방법
WO2016172872A1 (zh) 用于验证活体人脸的方法、设备和计算机程序产品
CN106937054B (zh) 一种移动终端的拍照虚化方法及移动终端
EP2336949B1 (en) Apparatus and method for registering plurality of facial images for face recognition
EP3647993B1 (en) Interactive user verification
CN104092932A (zh) 一种声控拍摄方法及装置
CN110032924A (zh) 人脸识别活体检测方法、终端设备、存储介质及电子设备
CN111539740A (zh) 一种支付方法、装置及设备
CN106650367A (zh) 一种隐私内容的展示方法及移动终端
US20230267756A1 (en) Handwriting recognition method and apparatus
CN109814964B (zh) 一种界面展示方法、终端设备及计算机可读存储介质
CN109462694A (zh) 一种语音助手的控制方法及移动终端
CN111881431B (zh) 人机验证方法、装置、设备及存储介质
CN109117704A (zh) 压力识别装置和包括压力识别装置的电子装置
CN101673329A (zh) 生物特征数据建立方法、电子装置及计算机程序产品
CN112908325A (zh) 语音交互方法、装置、电子设备及存储介质
CN110188523A (zh) 一种验证方法及移动终端
CN114299569A (zh) 一种基于眼球运动的安全人脸认证方法
CN109766776A (zh) 操作执行方法、装置、计算机设备和存储介质
CN103135745B (zh) 基于深度图像的非接触控制方法、信息设备和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190312