CN111367402B - 任务触发方法、交互设备及计算机设备 - Google Patents

任务触发方法、交互设备及计算机设备 Download PDF

Info

Publication number
CN111367402B
CN111367402B CN201811605239.6A CN201811605239A CN111367402B CN 111367402 B CN111367402 B CN 111367402B CN 201811605239 A CN201811605239 A CN 201811605239A CN 111367402 B CN111367402 B CN 111367402B
Authority
CN
China
Prior art keywords
target object
condition
behavior data
judgment result
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811605239.6A
Other languages
English (en)
Other versions
CN111367402A (zh
Inventor
侯飞跃
傅业焘
冒晶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Group Holding Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201811605239.6A priority Critical patent/CN111367402B/zh
Publication of CN111367402A publication Critical patent/CN111367402A/zh
Application granted granted Critical
Publication of CN111367402B publication Critical patent/CN111367402B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range

Abstract

本申请公开了一种任务触发方法、交互设备及计算机设备。其中,该方法包括:确定目标对象的面部图像在图像采集设备的成像界面中的位置信息;基于上述位置信息确定上述目标对象的行为数据;判断上述行为数据是否满足第一条件,得到第一判断结果,以及判断上述行为数据是否满足第二条件,得到第二判断结果;其中,上述第一条件包括上述目标对象正向面对上述图像采集设备,上述第二条件包括上述目标对象的视线方向与上述图像采集设备的拍摄方向一致;依据上述第一判断结果和第二判断结果确定是否执行目标操作。本申请解决了现有技术中在人机交互的应用场景中,任务触发的控制方式较为单一且无法有效实现任务触发的技术问题。

Description

任务触发方法、交互设备及计算机设备
技术领域
本申请涉及人工智能技术领域,具体而言,涉及一种任务触发方法、交互设备及计算机设备。
背景技术
人工智能AI机器人通过整合多领域的AI技术,可以从视觉和听觉上,带来宛如和真人对话般的交互体验;通过上述AI机器人可以为用户带来宛如和真实人物隔空对话的全新生动体验,将人机交互方式提升到一个新的高度。
但是,现有技术中在人机交互的应用场景中,触发交互仿真虚拟人执行操作的方式多为通过语音方式进行控制,任务触发的控制方式较为单一,且无法有效实现任务触发,造成用户的交互体验较差。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本申请实施例提供了一种任务触发方法、交互设备及计算机设备,以至少解决现有技术中在人机交互的应用场景中,任务触发的控制方式较为单一且无法有效实现任务触发的技术问题。
根据本申请实施例的一个方面,提供了一种任务触发方法,包括:确定目标对象的面部图像在图像采集设备的成像界面中的位置信息;基于上述位置信息确定上述目标对象的行为数据;判断上述行为数据是否满足第一条件,得到第一判断结果,以及判断上述行为数据是否满足第二条件,得到第二判断结果;其中,上述第一条件包括上述目标对象正向面对上述图像采集设备,上述第二条件包括上述目标对象的视线方向与上述图像采集设备的拍摄方向一致;依据上述第一判断结果和第二判断结果确定是否执行目标操作。
根据本申请实施例的另一方面,还提供了一种交互设备,包括:图像采集设备,用于采集目标对象的面部图像;处理器,用于确定上述面部图像在图像采集设备的成像界面中的位置信息;基于上述位置信息确定上述目标对象的行为数据;判断上述行为数据是否满足第一条件,得到第一判断结果,以及判断上述行为数据是否满足第二条件,得到第二判断结果;其中,上述第一条件包括上述目标对象正向面对上述图像采集设备,上述第二条件包括上述目标对象的视线方向与上述图像采集设备的拍摄方向一致;依据上述第一判断结果和第二判断结果确定是否触发执行目标操作。
根据本申请实施例的另一方面,还提供了一种计算机设备,包括:处理器;以及存储器,与上述处理器连接,用于为上述处理器提供处理以下处理步骤的指令:获取目标对象的面部图像;确定上述面部图像在图像采集设备的成像界面中的位置信息;判断上述目标对象的行为数据是否满足第一条件,得到第一判断结果,以及判断上述行为数据是否满足第二条件,得到第二判断结果;其中,在满足上述第一条件时确定上述目标对象的面部所在平面与上述图像采集设备所在平面平行,在满足上述第二条件时,确定上述目标对象的视线方向与上述图像采集设备的拍摄方向一致;依据上述第一判断结果和第二判断结果确定是否触发执行目标操作。
在本申请实施例中,通过确定目标对象的面部图像在图像采集设备的成像界面中的位置信息;基于上述位置信息确定上述目标对象的行为数据;判断上述行为数据是否满足第一条件,得到第一判断结果,以及判断上述行为数据是否满足第二条件,得到第二判断结果;其中,上述第一条件包括上述目标对象正向面对上述图像采集设备,上述第二条件包括上述目标对象的视线方向与上述图像采集设备的拍摄方向一致;依据上述第一判断结果和第二判断结果确定是否执行目标操作。
在本申请实施例中,通过检测目标对象的面部图像在图像采集设备的成像界面中的位置信息,确定目标对象的行为数据,并通过对上述行为数据进行分析,并在分析结果为行为数据满足上述第一条件且指示满足第二条件时,确定触发执行目标操作。达到了通过分析目标对象的面部图像和行为数据,确定是否触发目标操作的目的,从而实现了丰富任务触发的控制方式,提高任务触发的触发效率的技术效果,进而解决了现有技术中在人机交互的应用场景中,任务触发的控制方式较为单一且无法有效实现任务触发的技术问题。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例的一种用于实现任务触发方法的计算机终端(或移动设备)的硬件结构框图;
图2是根据本申请实施例的一种任务触发方法的流程图;
图3是根据本申请实施例的一种可选的任务触发方法的流程图;
图4是根据本申请实施例的一种交互设备的结构框图;
图5是根据本申请实施例的一种计算机终端的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
首先,在对本申请实施例进行描述的过程中出现的部分名词或术语适用于如下解释:
旋转角(roll,面内旋转角):是指以图形在作旋转运动时,一个点与中心的旋转连线,与这个点在旋转后的对应点与旋转中心的连线这两条线的夹角。
俯仰角(pitch):是指平行于坐标轴线并指向设备前方的向量与地面的夹角。
偏转角(yaw):又称为偏向角,指目标物体在运行过程中初末位置的速度矢量的夹角。
实施例1
根据本申请实施例,还提供了一种任务触发方法的实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本申请实施例1所提供的方法实施例可以在移动终端、计算机终端或者类似的运算装置中执行。图1示出了一种用于实现任务触发方法的计算机终端(或移动设备)的硬件结构框图。如图1所示,计算机终端10(或移动设备10)可以包括一个或多个(图中采用102a、102b,……,102n来示出)处理器102(处理器102可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)、用于存储数据的存储器104、以及用于通信功能的传输模块106。除此以外,还可以包括:显示器、输入/输出接口(I/O接口)、通用串行总线(USB)端口(可以作为I/O接口的端口中的一个端口被包括)、网络接口、电源和/或相机。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,计算机终端10还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
应当注意到的是上述一个或多个处理器102和/或其他数据处理电路在本文中通常可以被称为“数据处理电路”。该数据处理电路可以全部或部分的体现为软件、硬件、固件或其他任意组合。此外,数据处理电路可为单个独立的处理模块,或全部或部分的结合到计算机终端10(或移动设备)中的其他元件中的任意一个内。如本申请实施例中所涉及到的,该数据处理电路作为一种处理器控制(例如与接口连接的可变电阻终端路径的选择)。
存储器104可用于存储应用软件的软件程序以及模块,如本申请实施例中的任务触发方法对应的程序指令/数据存储装置,处理器102通过运行存储在存储器104内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的任务触发方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端10。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输装置106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算机终端10的通信供应商提供的无线网络。在一个实例中,传输装置106包括一个网络适配器(Network Interface Controller,NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置106可以为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
显示器可以例如触摸屏式的液晶显示器(LCD),该液晶显示器可使得用户能够与计算机终端10(或移动设备)的用户界面进行交互。
在上述运行环境下,本申请提供了如图2所示的任务触发方法,图2是根据本申请实施例的一种任务触发方法的流程图,如图2所示,上述任务触发方法包括以下方法步骤:
步骤S202,确定目标对象的面部图像在图像采集设备的成像界面中的位置信息;
步骤S204,基于上述位置信息确定上述目标对象的行为数据;
步骤S206,判断上述行为数据是否满足第一条件,得到第一判断结果,以及判断上述行为数据是否满足第二条件,得到第二判断结果;其中,上述第一条件包括上述目标对象正向面对上述图像采集设备,上述第二条件包括上述目标对象的视线方向与上述图像采集设备的拍摄方向一致;
步骤S208,依据上述第一判断结果和第二判断结果确定是否执行目标操作。
需要说明的是,本申请实施例所提供的任意一种可选的任务触发方法,均可以但不限于应用在AI机器人、AI设备上,例如,交互仿真虚拟人,交互卡通形象,语音点餐机,基于人脸的营销广告机等,上述方法的具体应用场景,则可以但不限于为智能客服、智能点餐、智能导览/指路、智能问答、智能陪伴、智能政务、智能导医台、智能汽车可视交互、智能新闻/电视播音员、广告/电视/电影短片制作、游戏行业、智能家居电视等其他可视交互场景。
本申请实施例还可以结合业界领先的面部重塑、机器阅读、远场语音识别技术,以及整合自然语言理解和图像渲染等多种技术,为用户带来宛如和真实人物隔空对话的全新生动体验,将人机交互方式提升到一个新的高度。
可选的,上述目标对象可以为用户,例如,访问AI机器人的用户;上述图像采集设备可以为安装在AI机器人(例如,交互仿真虚拟人)上的摄像头,其中,上述交互仿真虚拟人可以整合面部重塑、语音识别(ASR)、语音合成(TTS)、机器问答等多领域的AI技术,从视觉和听觉上,带来宛如和真人对话般的交互体验。
在本申请实施例中,基于获取到的面部图像在图像采集设备的成像界面中的位置信息,确定目标对象的行为数据,可选的,上述行为数据包括:上述面部图像在上述图像采集设备的成像界面中的旋转角和偏转角;上述面部图像的视线方向在上述图像采集设备的成像界面中的俯仰角。
在一种可选的实施例中,判断上述行为数据是否满足第一条件,即判断上述旋转角是否在第一取值范围内和上述偏转角是否在第二取值范围内;其中,在上述旋转角属于第一取值范围且上述偏转角属于第二取值范围时,确定上述行为数据满足上述第一条件,即确定上述目标对象正向面对上述图像采集设备,亦即目标对象的面部与上述图像采集设备在垂直方向上平行。
在一种可选的实施例中,判断上述行为数据是否满足第二条件,判断上述俯仰角是否在第三取值范围内;其中,在上述俯仰角属于第三取值范围时,确定上述行为数据满足上述第二条件,即确定上述目标对象的视线方向与上述图像采集设备的拍摄方向一致。
在上述可选的实施例中,在上述第一判断结果指示满足上述第一条件,且上述第二判断结果指示满足第二条件时,确定触发执行目标操作,并且,在上述第一判断结果指示不满足上述第一条件和/或上述第二判断结果指示不满足第二条件时,确定拒绝执行目标操作。
在本申请实施例中,由于上述行为数据包括:上述面部图像在上述图像采集设备的成像界面中的旋转角和偏转角;上述面部图像的视线方向在上述图像采集设备的成像界面中的俯仰角。进而可以通过设置摄像头检测目标对象的人脸正面以及目标对象是否正视前方,来综合判断目标对象是否将注意力集中在AI机器人(或AI设备)上,来决定AI机器人是否执行相应的目标操作(例如,任务或动作)。
在本申请实施例中,通过确定目标对象的面部图像在图像采集设备的成像界面中的位置信息;基于上述位置信息确定上述目标对象的行为数据;判断上述行为数据是否满足第一条件,得到第一判断结果,以及判断上述行为数据是否满足第二条件,得到第二判断结果;其中,上述第一条件包括上述目标对象正向面对上述图像采集设备,上述第二条件包括上述目标对象的视线方向与上述图像采集设备的拍摄方向一致;依据上述第一判断结果和第二判断结果确定是否执行目标操作。
在本申请实施例中,通过检测目标对象的面部图像在图像采集设备的成像界面中的位置信息,确定目标对象的行为数据,并通过对上述行为数据进行分析,并在分析结果为行为数据满足上述第一条件且指示满足第二条件时,确定触发执行目标操作。达到了通过分析目标对象的面部图像和行为数据,确定是否触发目标操作的目的,从而实现了丰富任务触发的控制方式,提高任务触发的触发效率的技术效果,进而解决了现有技术中在人机交互的应用场景中,任务触发的控制方式较为单一且无法有效实现任务触发的技术问题。
在一种可选的实施例中,上述行为数据包括:上述面部图像在上述图像采集设备的成像界面中的旋转角和偏转角;判断上述行为数据是否满足第一条件,包括:
步骤S302,判断上述旋转角是否在第一取值范围内和上述偏转角是否在第二取值范围内;其中,在上述旋转角属于第一取值范围且上述偏转角属于第二取值范围时,确定上述行为数据满足上述第一条件。
可选的,上述第一取值范围可以但不限于为面部图像在图像采集设备的成像界面中旋转角的+-90°;上述第二取值范围可以但不限于为面部图像在图像采集设备的成像界面中偏转角的+-90°;需要说明的是,本申请实施例,对于上述第一取值范围和第二取值范围并不具体限定,以可以实现本申请实施例为准。
在上述可选的实施例中,在上述旋转角属于第一取值范围且上述偏转角属于第二取值范围时,即在上述旋转角属于面部图像在图像采集设备的成像界面中旋转角的+-90°,且上述偏转角属于面部图像在图像采集设备的成像界面中偏转角的+-90°时,确定上述行为数据满足上述第一条件,即确定上述目标对象正向面对上述图像采集设备。
在一种可选的实施例中,上述行为数据包括:上述面部图像的视线方向在上述图像采集设备的成像界面中的俯仰角;判断上述行为数据是否满足第二条件,包括:
步骤S402,判断上述俯仰角是否在第三取值范围内;其中,在上述俯仰角属于第三取值范围时,确定上述行为数据满足上述第二条件。
可选的,上述第三取值范围可以但不限于为面部图像在图像采集设备的成像界面中俯仰角的+-90°;需要说明的是,本申请实施例,对于第三取值范围并不具体限定,以可以实现本申请实施例为准。
在上述可选的实施例中,在上述俯仰角属于第三取值范围时,即在上述俯仰角属于面部图像在图像采集设备的成像界面中俯仰角的+-90°时,确定上述行为数据满足上述第二条件,即确定上述目标对象的视线方向与上述图像采集设备的拍摄方向一致。
需要说明的是,依据上述旋转角和偏转角的检测可以确定目标对象的面部图像是否正面,依据上述俯仰角的检测可以确定目标对象的视线方向是否正视前方。
在一种可选的实施例中,上述行为数据包括:第一行为数据和第二行为数据;判断上述行为数据是否满足第一条件,得到第一判断结果,以及判断上述行为数据是否满足第二条件,得到第二判断结果,包括:
步骤S502,在上述第一行为数据满足上述第一条件时,触发判断上述第二行为数据是否满足上述第二条件。
在上述步骤502中,上述第一行为数据包括:上述面部图像在上述图像采集设备的成像界面中的旋转角和偏转角;上述第二行为数据包括:上述面部图像的视线方向在上述图像采集设备的成像界面中的俯仰角。
在一种可选的实施例中,依据上述第一判断结果和第二判断结果确定是否触发执行目标操作,包括:
步骤S602,在上述第一判断结果指示满足上述第一条件,且上述第二判断结果指示满足第二条件时,确定触发执行目标操作;
步骤S604,在上述第一判断结果指示不满足上述第一条件和/或上述第二判断结果指示不满足第二条件时,确定拒绝执行目标操作。
在本申请实施例中,通过在上述第一行为数据满足上述第一条件时,触发判断上述第二行为数据是否满足上述第二条件,即先判断目标对象的面部图像是否为正面,并在确定目标对象的面部图像为正面的情况下,再判断目标对象的视线方向是否正视前方,并且,如果目标对象的面部图像不是正面,则无需对目标对象的视线是否正视前方进行检测,可以有效简化检测步骤,提高任务触发的触发效率。
并且,为提高任务触发的触发效率和准确性,在上述可选的实施例中,需要在上述第一判断结果指示满足上述第一条件,且上述第二判断结果指示满足第二条件时,确定触发执行目标操作,在上述第一判断结果指示不满足上述第一条件和/或上述第二判断结果指示不满足第二条件时,确定拒绝执行目标操作。
在一种可选的实施例中,确定目标对象的面部图像在图像采集设备的成像界面中的位置信息之前,上述方法还包括:
步骤S702,检测上述图像采集设备前方是否存在上述目标对象;
步骤S704,在确定存在上述目标对象时,触发开启上述图像采集设备。
可选的,可以但不限于通过设置在AI机器人(或AI设备)上的红外检测设备或者重力感应唤醒设备,对图像采集设备前方是否存在上述目标对象进行检测,在确定存在上述目标对象时,触发开启上述图像采集设备;若确定不存在上述目标对象,则继续检测上述图像采集设备前方是否存在上述目标对象。
可选的,在检测上述图像采集设备前方存在上述目标对象的情况下,可以但不限于通过中断的方式通知AI机器人(或AI设备)。
在上述可选的实施例中,通过在确定目标对象的面部图像在图像采集设备的成像界面中的位置信息之前,先执行检测上述图像采集设备前方是否存在上述目标对象,可以避免图像采集设备一直处于开启状态造成资源浪费,可以有效提高任务触发的触发效率。
在一种可选的实施例中,在触发开启图像采集设备的同时,还可以触发开启定时器判断图像采集设备的开启时间是否超时,其中,可以预先确定一个时间范围值,例如10秒,20秒,1分钟等,若通过定时器定时判断得出图像采集设备的开启时间超时,则关闭图像采集设备和定时器。
在一种可选的实施例中,检测上述图像采集设备前方是否存在上述目标对象包括:
步骤S802,依据上述面部图像在上述成像界面中的坐标确定上述目标对象的面部与上述图像采集设备的相对距离以及上述目标对象的面部在上述成像界面的区域范围;
步骤S804,在上述目标对象的面部图像位于预设区域范围且上述相对距离属于预设取值范围时,确定开始采集上述目标对象的面部图像。
在本申请实施例中,可以预先设置检测范围,即上述预设区域范围以及预设取值范围,通过检测目标对象的面部图像在上述成像界面中的坐标,确定目标对象的面部与上述图像采集设备的相对距离,以及上述目标对象的面部在上述成像界面的区域范围;并且,在上述目标对象的面部图像位于预设区域范围且上述相对距离属于预设取值范围时,确定开始采集上述目标对象的面部图像。
需要说明的是,本申请实施例对上述预设区域范围以及预设取值范围并不具体限定,以可以实现本申请实施例为准。
图3是根据本申请实施例的一种可选的任务触发方法的流程图,如图3所示,以下通过结合一个可选的实施方式,对本申请所提供的任务触发方法进行举例说明:
步骤S902,检测图像采集设备前方是否存在目标对象;
步骤S904,在确定存在上述目标对象时,触发开启图像采集设备。
在一种可选的实施例中,在触发开启图像采集设备的同时,还可以触发开启定时器判断图像采集设备的开启时间是否超时,其中,可以预先确定一个时间范围值,例如10秒,20秒,1分钟等,若通过定时器定时判断得出图像采集设备的开启时间超时,则关闭图像采集设备和定时器。
步骤S906,确定目标对象的面部图像在图像采集设备的成像界面中的位置信息;
步骤S908,基于上述位置信息确定上述目标对象的行为数据;
步骤S910,判断上述行为数据是否满足第一条件,得到第一判断结果,以及判断上述行为数据是否满足第二条件,得到第二判断结果。
其中,上述第一条件包括上述目标对象正向面对上述图像采集设备,上述第二条件包括上述目标对象的视线方向与上述图像采集设备的拍摄方向一致。
步骤S912,在上述第一判断结果指示满足上述第一条件,且上述第二判断结果指示满足第二条件时,确定触发执行目标操作;
步骤S914,在上述第一判断结果指示不满足上述第一条件和/或上述第二判断结果指示不满足第二条件时,确定拒绝执行目标操作。
在上述可选的实施例中,可以通过红外检测设备检测图像采集设备前方是否存在目标对象,若存在目标对象,则打开图像采集设备,若不存在目标对象则继续执行上述检测,并且,在检测到存在目标对象时使用中断的方式通知AI机器人。
在上述可选的实施例中,可以预先设置检测范围,即上述预设区域范围以及预设取值范围,通过检测目标对象的面部图像在上述成像界面中的坐标,确定目标对象的面部与上述图像采集设备的相对距离,以及上述目标对象的面部在上述成像界面的区域范围;并且,在上述目标对象的面部图像位于预设区域范围且上述相对距离属于预设取值范围时,确定开始采集上述目标对象的面部图像。
在上述可选的实施例中,可以预先设定目标对象的面部图像是否正面,以及目标对象的视线方向是否正视前方的检测范围,即第一取值范围、第二取值范围和第三取值范围,通过判断上述旋转角是否在第一取值范围内和上述偏转角是否在第二取值范围内;并在上述旋转角属于第一取值范围且上述偏转角属于第二取值范围时,确定目标对象的面部图像为正面;通过判断上述俯仰角是否在第三取值范围内;并在上述俯仰角属于第三取值范围时,确定目标对象的视线方向是否正视前方。
在上述可选的实施例中,在确定目标对象的面部图像为正面,且目标对象的视线方向是否正视前方的情况下,确定执行相应的任务或动作。
在上述可选的实施例中,对于该实施例未详细解释的部分,具体执行步骤和可选的实施方式可以但不限于与本申请实施例中以上其他实施例所的例举内容一致,对此不再进行赘述。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本申请各个实施例的方法。
实施例2
根据本申请实施例,还提供了一种用于实施上述任务触发方法的交互设备的实施例,图4是根据本申请实施例的一种交互设备的结构框图,如图4所示,该交互设备包括:
图像采集设备40,用于采集目标对象的面部图像;处理器42,用于确定上述面部图像在图像采集设备的成像界面中的位置信息;基于上述位置信息确定上述目标对象的行为数据;判断上述行为数据是否满足第一条件,得到第一判断结果,以及判断上述行为数据是否满足第二条件,得到第二判断结果;其中,上述第一条件包括上述目标对象正向面对上述图像采集设备,上述第二条件包括上述目标对象的视线方向与上述图像采集设备的拍摄方向一致;依据上述第一判断结果和第二判断结果确定是否触发执行目标操作。
需要说明的是,本申请实施例所提供的任意一种可选的交互设备,均可以但不限于应用在AI机器人、AI设备上,例如,交互仿真虚拟人,交互卡通形象,语音点餐机,基于人脸的营销广告机等,具体应用场景可以但不限于为智能客服、智能点餐、智能导览/指路、智能问答、智能陪伴、智能政务、智能导医台、智能汽车可视交互、智能新闻/电视播音员、广告/电视/电影短片制作、游戏行业、智能家居电视等其他可视交互场景。
本申请实施例还可以结合业界领先的面部重塑、机器阅读、远场语音识别技术,以及整合自然语言理解和图像渲染等多种技术,为用户带来宛如和真实人物隔空对话的全新生动体验,将人机交互方式提升到一个新的高度。
在本申请实施例中,通过图像采集设备40,用于采集目标对象的面部图像;处理器42,用于确定上述面部图像在图像采集设备的成像界面中的位置信息;基于上述位置信息确定上述目标对象的行为数据;判断上述行为数据是否满足第一条件,得到第一判断结果,以及判断上述行为数据是否满足第二条件,得到第二判断结果;其中,上述第一条件包括上述目标对象正向面对上述图像采集设备,上述第二条件包括上述目标对象的视线方向与上述图像采集设备的拍摄方向一致;依据上述第一判断结果和第二判断结果确定是否触发执行目标操作。
在本申请实施例中,通过检测目标对象的面部图像在图像采集设备的成像界面中的位置信息,确定目标对象的行为数据,并通过对上述行为数据进行分析,并在分析结果为行为数据满足上述第一条件且指示满足第二条件时,确定触发执行目标操作。达到了通过分析目标对象的面部图像和行为数据,确定是否触发目标操作的目的,从而实现了丰富任务触发的控制方式,提高任务触发的触发效率的技术效果,进而解决了现有技术中在人机交互的应用场景中,任务触发的控制方式较为单一且无法有效实现任务触发的技术问题。
在一种可选的实施例中,上述交互设备还包括:显示设备,用于提供人机交互界面,并在上述人机交互界面中展示与上述目标操作对应的动作,其中,上述动作为上述人机交互界面中的虚拟对象基于上述目标操作执行的动作。
可选的,上述显示设备可以但不限于为交互设备上设置的显示屏,例如,触摸显示屏;上述虚拟对象可以但不限于为人机交互界面中显示的虚拟人物,上述交互设备还可以通过提供人机交互界面,使得目标对象与虚拟对象进行交互,为用户带来宛如和真实人物进行交互的全新生动体验,从视觉处理技术上将人机交互方式提升到一个新的高度。
在另一种可选的实施例中,上述交互设备还包括:语音采集设备,用于采集上述目标对象的语音信息;上述处理器,还用于基于上述语音信息确定与上述语音信息对应的上述目标操作。
通过在交互设备中设置语言采集设备,可以基于语音采集设备采集到的语音信息,确定对应的目标操作,也即,用户可以通过语音信息对交互设备进行控制,为用户带来宛如和真实人物隔空对话的全新生动体验,从听觉处理技术上将人机交互方式提升到一个新的高度。
需要说明的是,本实施例的可选或优选实施方式可以参见实施例1中的相关描述,此处不再赘述。
实施例3
根据本申请实施例,还提供了一种用于实施上述任务触发方法的计算机设备的实施例,该交互设备包括:处理器;以及存储器,与上述处理器连接,用于为上述处理器提供处理以下处理步骤的指令:获取目标对象的面部图像;确定上述面部图像在图像采集设备的成像界面中的位置信息;判断上述目标对象的行为数据是否满足第一条件,得到第一判断结果,以及判断上述行为数据是否满足第二条件,得到第二判断结果;其中,在满足上述第一条件时确定上述目标对象正向面对上述图像采集设备,在满足上述第二条件时,确定上述目标对象的视线方向与上述图像采集设备的拍摄方向一致;依据上述第一判断结果和第二判断结果确定是否触发执行目标操作。
在本申请实施例中,通过获取目标对象的面部图像;确定上述面部图像在图像采集设备的成像界面中的位置信息;判断上述目标对象的行为数据是否满足第一条件,得到第一判断结果,以及判断上述行为数据是否满足第二条件,得到第二判断结果;其中,在满足上述第一条件时确定上述目标对象正向面对上述图像采集设备,在满足上述第二条件时,确定上述目标对象的视线方向与上述图像采集设备的拍摄方向一致;依据上述第一判断结果和第二判断结果确定是否触发执行目标操作。
在本申请实施例中,通过检测目标对象的面部图像在图像采集设备的成像界面中的位置信息,确定目标对象的行为数据,并通过对上述行为数据进行分析,并在分析结果为行为数据满足上述第一条件且指示满足第二条件时,确定触发执行目标操作。达到了通过分析目标对象的面部图像和行为数据,确定是否触发目标操作的目的,从而实现了丰富任务触发的控制方式,提高任务触发的触发效率的技术效果,进而解决了现有技术中在人机交互的应用场景中,任务触发的控制方式较为单一且无法有效实现任务触发的技术问题。
需要说明的是,本实施例的可选或优选实施方式可以参见实施例1中的相关描述,此处不再赘述。
实施例4
本申请的实施例可以提供一种计算机终端的实施例,该计算机终端可以是计算机终端群中的任意一个计算机终端设备。可选地,在本实施例中,上述计算机终端也可以替换为移动终端等终端设备。
可选地,在本实施例中,上述计算机终端可以位于计算机网络的多个网络设备中的至少一个网络设备。
在本实施例中,上述计算机终端可以执行任务触发方法中以下步骤的程序代码:确定目标对象的面部图像在图像采集设备的成像界面中的位置信息;基于上述位置信息确定上述目标对象的行为数据;判断上述行为数据是否满足第一条件,得到第一判断结果,以及判断上述行为数据是否满足第二条件,得到第二判断结果;其中,上述第一条件包括上述目标对象正向面对上述图像采集设备,上述第二条件包括上述目标对象的视线方向与上述图像采集设备的拍摄方向一致;依据上述第一判断结果和第二判断结果确定是否执行目标操作。
可选地,图5是根据本申请实施例的一种计算机终端的结构框图,如图5所示,该计算机终端500可以包括:一个或多个(图中仅示出一个)处理器502、存储器504以及外设接口506。
其中,存储器可用于存储软件程序以及模块,如本申请实施例中的任务触发方法和装置对应的程序指令/模块,处理器通过运行存储在存储器内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的任务触发方法。存储器可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器可进一步包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端500。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
处理器可以通过传输装置调用存储器存储的信息及应用程序,以执行下述步骤:确定目标对象的面部图像在图像采集设备的成像界面中的位置信息;基于上述位置信息确定上述目标对象的行为数据;判断上述行为数据是否满足第一条件,得到第一判断结果,以及判断上述行为数据是否满足第二条件,得到第二判断结果;其中,上述第一条件包括上述目标对象正向面对上述图像采集设备,上述第二条件包括上述目标对象的视线方向与上述图像采集设备的拍摄方向一致;依据上述第一判断结果和第二判断结果确定是否执行目标操作。
可选的,上述处理器还可以执行如下步骤的程序代码:判断上述旋转角是否在第一取值范围内和上述偏转角是否在第二取值范围内;其中,在上述旋转角属于第一取值范围且上述偏转角属于第二取值范围时,确定上述行为数据满足上述第一条件。
可选的,上述处理器还可以执行如下步骤的程序代码:判断上述俯仰角是否在第三取值范围内;其中,在上述俯仰角属于第三取值范围时,确定上述行为数据满足上述第二条件。
可选的,上述处理器还可以执行如下步骤的程序代码:在上述第一行为数据满足上述第一条件时,触发判断上述第二行为数据是否满足上述第二条件,其中,上述第一行为数据包括:上述面部图像在上述图像采集设备的成像界面中的旋转角和偏转角;上述第二行为数据包括:上述面部图像的视线方向在上述图像采集设备的成像界面中的俯仰角。
可选的,上述处理器还可以执行如下步骤的程序代码:在上述第一判断结果指示满足上述第一条件,且上述第二判断结果指示满足第二条件时,确定触发执行目标操作;在上述第一判断结果指示不满足上述第一条件和/或上述第二判断结果指示不满足第二条件时,确定拒绝执行目标操作。
可选的,上述处理器还可以执行如下步骤的程序代码:检测上述图像采集设备前方是否存在上述目标对象;在确定存在上述目标对象时,触发开启上述图像采集设备。
可选的,上述处理器还可以执行如下步骤的程序代码:依据上述面部图像在上述成像界面中的坐标确定上述目标对象的面部与上述图像采集设备的相对距离以及上述目标对象的面部在上述成像界面的区域范围;在上述目标对象的面部图像位于预设区域范围且上述相对距离属于预设取值范围时,确定开始采集上述目标对象的面部图像。
采用本申请实施例,提供了一种任务触发方法的方案。通过确定目标对象的面部图像在图像采集设备的成像界面中的位置信息;基于上述位置信息确定上述目标对象的行为数据;判断上述行为数据是否满足第一条件,得到第一判断结果,以及判断上述行为数据是否满足第二条件,得到第二判断结果;其中,上述第一条件包括上述目标对象正向面对上述图像采集设备,上述第二条件包括上述目标对象的视线方向与上述图像采集设备的拍摄方向一致;依据上述第一判断结果和第二判断结果确定是否执行目标操作。
在本申请实施例中,通过检测目标对象的面部图像在图像采集设备的成像界面中的位置信息,确定目标对象的行为数据,并通过对上述行为数据进行分析,并在分析结果为行为数据满足上述第一条件且指示满足第二条件时,确定触发执行目标操作。达到了通过分析目标对象的面部图像和行为数据,确定是否触发目标操作的目的,从而实现了丰富任务触发的控制方式,提高任务触发的触发效率的技术效果,进而解决了现有技术中在人机交互的应用场景中,任务触发的控制方式较为单一且无法有效实现任务触发的技术问题。
本领域普通技术人员可以理解,图5所示的结构仅为示意,计算机终端也可以是智能手机(如Android手机、iOS手机等)、平板电脑、掌声电脑以及移动互联网设备(MobileInternet Devices,MID)、PAD等终端设备。图5其并不对上述电子装置的结构造成限定。例如,计算机终端500还可包括比图5中所示更多或者更少的组件(如网络接口、显示装置等),或者具有与图5所示不同的配置。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(RandomAccess Memory,RAM)、磁盘或光盘等。
实施例5
本申请的实施例还提供了一种存储介质的实施例。可选地,在本实施例中,上述存储介质可以用于保存上述实施例1所提供的任务触发方法所执行的程序代码。
可选地,在本实施例中,上述存储介质可以位于计算机网络中计算机终端群中的任意一个计算机终端中,或者位于移动终端群中的任意一个移动终端中。
可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:确定目标对象的面部图像在图像采集设备的成像界面中的位置信息;基于上述位置信息确定上述目标对象的行为数据;判断上述行为数据是否满足第一条件,得到第一判断结果,以及判断上述行为数据是否满足第二条件,得到第二判断结果;其中,上述第一条件包括上述目标对象正向面对上述图像采集设备,上述第二条件包括上述目标对象的视线方向与上述图像采集设备的拍摄方向一致;依据上述第一判断结果和第二判断结果确定是否执行目标操作。
可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:判断上述旋转角是否在第一取值范围内和上述偏转角是否在第二取值范围内;其中,在上述旋转角属于第一取值范围且上述偏转角属于第二取值范围时,确定上述行为数据满足上述第一条件。
可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:判断上述俯仰角是否在第三取值范围内;其中,在上述俯仰角属于第三取值范围时,确定上述行为数据满足上述第二条件。
可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:在上述第一行为数据满足上述第一条件时,触发判断上述第二行为数据是否满足上述第二条件,其中,上述第一行为数据包括:上述面部图像在上述图像采集设备的成像界面中的旋转角和偏转角;上述第二行为数据包括:上述面部图像的视线方向在上述图像采集设备的成像界面中的俯仰角。
可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:在上述第一判断结果指示满足上述第一条件,且上述第二判断结果指示满足第二条件时,确定触发执行目标操作;在上述第一判断结果指示不满足上述第一条件和/或上述第二判断结果指示不满足第二条件时,确定拒绝执行目标操作。
可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:检测上述图像采集设备前方是否存在上述目标对象;在确定存在上述目标对象时,触发开启上述图像采集设备。
可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:依据上述面部图像在上述成像界面中的坐标确定上述目标对象的面部与上述图像采集设备的相对距离以及上述目标对象的面部在上述成像界面的区域范围;在上述目标对象的面部图像位于预设区域范围且上述相对距离属于预设取值范围时,确定开始采集上述目标对象的面部图像。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。

Claims (12)

1.一种任务触发方法,其特征在于,包括:
确定目标对象的面部图像在图像采集设备的成像界面中的位置信息;
基于所述位置信息确定所述目标对象的行为数据;
判断所述行为数据是否满足第一条件,得到第一判断结果,以及判断所述行为数据是否满足第二条件,得到第二判断结果;其中,所述第一条件包括所述目标对象正向面对所述图像采集设备,所述第二条件包括所述目标对象的视线方向与所述图像采集设备的拍摄方向一致;
依据所述第一判断结果和第二判断结果确定是否执行目标操作。
2.根据权利要求1所述的方法,其特征在于,所述行为数据包括:所述面部图像在所述图像采集设备的成像界面中的旋转角和偏转角;判断所述行为数据是否满足第一条件,包括:
判断所述旋转角是否在第一取值范围内和所述偏转角是否在第二取值范围内;其中,在所述旋转角属于所述第一取值范围且所述偏转角属于所述第二取值范围时,确定所述行为数据满足所述第一条件。
3.根据权利要求1所述的方法,其特征在于,所述行为数据包括:所述面部图像的视线方向在所述图像采集设备的成像界面中的俯仰角;判断所述行为数据是否满足第二条件,包括:
判断所述俯仰角是否在第三取值范围内;其中,在所述俯仰角属于所述第三取值范围时,确定所述行为数据满足所述第二条件。
4.根据权利要求1所述的方法,其特征在于,所述行为数据包括:第一行为数据和第二行为数据;判断所述行为数据是否满足第一条件,得到第一判断结果,以及判断所述行为数据是否满足第二条件,得到第二判断结果,包括:
在所述第一行为数据满足所述第一条件时,触发判断所述第二行为数据是否满足所述第二条件,其中,所述第一行为数据包括:所述面部图像在所述图像采集设备的成像界面中的旋转角和偏转角;所述第二行为数据包括:所述面部图像的视线方向在所述图像采集设备的成像界面中的俯仰角。
5.根据权利要求1所述的方法,其特征在于,依据所述第一判断结果和第二判断结果确定是否触发执行目标操作,包括:
在所述第一判断结果指示满足所述第一条件,且所述第二判断结果指示满足第二条件时,确定触发执行所述目标操作;
在所述第一判断结果指示不满足所述第一条件和/或所述第二判断结果指示不满足第二条件时,确定拒绝执行所述目标操作。
6.根据权利要求1所述的方法,其特征在于,确定目标对象的面部图像在图像采集设备的成像界面中的位置信息之前,所述方法还包括:
检测所述图像采集设备前方是否存在所述目标对象;
在确定存在所述目标对象时,触发开启所述图像采集设备。
7.根据权利要求6所述的方法,其特征在于,检测所述图像采集设备前方是否存在所述目标对象包括:
依据所述面部图像在所述成像界面中的坐标,确定所述目标对象的面部与所述图像采集设备的相对距离以及所述目标对象的面部在所述成像界面的区域范围;在所述目标对象的面部图像位于预设区域范围且所述相对距离属于预设取值范围时,确定开始采集所述目标对象的面部图像。
8.根据权利要求1至7中任意一项所述的方法,其特征在于,在以下情况下确定所述目标对象正向面对所述图像采集设备:所述目标对象的面部与所述图像采集设备在垂直方向上平行。
9.一种交互设备,其特征在于,包括:
图像采集设备,用于采集目标对象的面部图像;
处理器,用于确定所述面部图像在图像采集设备的成像界面中的位置信息;基于所述位置信息确定所述目标对象的行为数据;判断所述行为数据是否满足第一条件,得到第一判断结果,以及判断所述行为数据是否满足第二条件,得到第二判断结果;其中,所述第一条件包括所述目标对象正向面对所述图像采集设备,所述第二条件包括所述目标对象的视线方向与所述图像采集设备的拍摄方向一致;依据所述第一判断结果和第二判断结果确定是否触发执行目标操作。
10.根据权利要求9所述的交互设备,其特征在于,所述交互设备还包括:
显示设备,用于提供人机交互界面,并在所述人机交互界面中展示与所述目标操作对应的动作,其中,所述动作为所述人机交互界面中的虚拟对象基于所述目标操作执行的动作。
11.根据权利要求9所述的交互设备,其特征在于,
所述交互设备还包括:语音采集设备,用于采集所述目标对象的语音信息;
所述处理器,还用于基于所述语音信息确定与所述语音信息对应的所述目标操作。
12.一种计算机设备,其特征在于,包括:
处理器;以及
存储器,与所述处理器连接,用于为所述处理器提供处理以下处理步骤的指令:
获取目标对象的面部图像;确定所述面部图像在图像采集设备的成像界面中的位置信息;判断所述目标对象的行为数据是否满足第一条件,得到第一判断结果,以及判断所述行为数据是否满足第二条件,得到第二判断结果;其中,在满足所述第一条件时确定所述目标对象正向面对所述图像采集设备,在满足所述第二条件时,确定所述目标对象的视线方向与所述图像采集设备的拍摄方向一致;依据所述第一判断结果和第二判断结果确定是否触发执行目标操作。
CN201811605239.6A 2018-12-26 2018-12-26 任务触发方法、交互设备及计算机设备 Active CN111367402B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811605239.6A CN111367402B (zh) 2018-12-26 2018-12-26 任务触发方法、交互设备及计算机设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811605239.6A CN111367402B (zh) 2018-12-26 2018-12-26 任务触发方法、交互设备及计算机设备

Publications (2)

Publication Number Publication Date
CN111367402A CN111367402A (zh) 2020-07-03
CN111367402B true CN111367402B (zh) 2023-04-18

Family

ID=71209683

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811605239.6A Active CN111367402B (zh) 2018-12-26 2018-12-26 任务触发方法、交互设备及计算机设备

Country Status (1)

Country Link
CN (1) CN111367402B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111880659A (zh) * 2020-07-31 2020-11-03 北京市商汤科技开发有限公司 虚拟人物控制方法及装置、设备、计算机可读存储介质
CN114697686B (zh) * 2020-12-25 2023-11-21 北京达佳互联信息技术有限公司 一种线上互动方法、装置、服务器及存储介质
CN114785838B (zh) * 2022-03-30 2024-01-26 青岛海尔科技有限公司 设备的控制方法和装置、存储介质及电子装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105915784A (zh) * 2016-04-01 2016-08-31 纳恩博(北京)科技有限公司 信息处理方法和装置
WO2018095439A1 (zh) * 2016-11-25 2018-05-31 腾讯科技(深圳)有限公司 信息交互方法、装置和存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105915784A (zh) * 2016-04-01 2016-08-31 纳恩博(北京)科技有限公司 信息处理方法和装置
WO2018095439A1 (zh) * 2016-11-25 2018-05-31 腾讯科技(深圳)有限公司 信息交互方法、装置和存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Li,YX.METHOD OF ENSURING EYE-TO EYE CONTACT IN MULTI-VIEW VIDEO CONFERENCE.2nd IEEE International Conference on Broadband Network and Multimedia Technology.2009,全文. *
刘佰鑫 ; 刘成良 ; 贡亮 ; .基于触屏设备的人机交互界面设计.机电一体化.2015,(第04期),全文. *
崔坚.基于眼部识别的驾驶员疲劳检测方法研究.信息科技.2013,(第undefined期),全文. *

Also Published As

Publication number Publication date
CN111367402A (zh) 2020-07-03

Similar Documents

Publication Publication Date Title
CN107886032B (zh) 终端设备、智能手机、基于脸部识别的认证方法和系统
CN111367402B (zh) 任务触发方法、交互设备及计算机设备
US20170163580A1 (en) Interactive method and device for playback of multimedia
CN109316747B (zh) 游戏辅助信息提示方法、装置及电子设备
US20170154205A1 (en) Method and apparatus for closing a terminal
EP3461136B1 (en) Video playing method and device
CN105380591A (zh) 视力检测装置、系统及方法
CN111367407B (zh) 智能眼镜交互方法、智能眼镜交互装置及智能眼镜
CN108694009B (zh) 终端控制方法及装置
EP4191513A1 (en) Image processing method and apparatus, device and storage medium
CN112532885B (zh) 防抖方法、装置及电子设备
CN112799622A (zh) 一种应用的控制方法、装置及电子设备
CN111859322A (zh) 身份验证方法、装置和电子设备
CN109034808B (zh) 一种支付类应用程序的运行方法、运行装置及终端设备
CN112203131B (zh) 一种基于显示设备的提示方法、装置及存储介质
CN111859356B (zh) 应用程序登录方法及装置
CN109509162B (zh) 图像采集方法、终端、存储介质及处理器
CN110602701A (zh) 数据处理方法及终端
CN111813741A (zh) 文件的共享方法及电子设备
CN109547415B (zh) 一种数据传输的方法、装置、终端设备及存储介质
CN113190743B (zh) 信息投放方法、装置、电子设备及存储介质
CN114842520A (zh) 人脸识别的处理方法、装置、存储介质及处理器
CN116954420A (zh) 产品信息的获取方法及装置、终端
CN116033282A (zh) 拍摄处理方法和电子设备
CN114302050A (zh) 图像处理方法及设备、非易失性存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant