CN106547339A - 计算机设备的控制方法和装置 - Google Patents

计算机设备的控制方法和装置 Download PDF

Info

Publication number
CN106547339A
CN106547339A CN201510609829.6A CN201510609829A CN106547339A CN 106547339 A CN106547339 A CN 106547339A CN 201510609829 A CN201510609829 A CN 201510609829A CN 106547339 A CN106547339 A CN 106547339A
Authority
CN
China
Prior art keywords
user
computer equipment
face
image
cursor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510609829.6A
Other languages
English (en)
Other versions
CN106547339B (zh
Inventor
李维之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201510609829.6A priority Critical patent/CN106547339B/zh
Publication of CN106547339A publication Critical patent/CN106547339A/zh
Application granted granted Critical
Publication of CN106547339B publication Critical patent/CN106547339B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明提供了计算机设备的控制方法和装置,其中的方法包括:根据摄像头摄取的图像获取用户面部特征点在图像中的位置信息;根据位置信息计算用户面部与计算机设备屏幕之间的距离及用户面部坐标系的Z轴方向,其中Z轴为用户面部坐标系中垂直于用户面部所在平面的法向坐标轴;根据距离及Z轴方向计算Z轴与计算机设备屏幕的交点;根据交点计算计算机设备光标的目标位置;将计算机设备的光标移动到目标位置。本发明提供的技术方案可以实现对计算机设备光标的位置进行非接触方式的控制,使用户在不通过鼠标等实体设备而对计算机设备进行进一步的控制如单击或双击鼠标左键等成为可能,进而本发明丰富了计算机设备的控制方式,并提高了计算机设备的使用便捷性。

Description

计算机设备的控制方法和装置
技术领域
本发明涉及计算机技术,尤其是涉及一种计算机设备的控制方法以及计算机设备的控制装置。
背景技术
随着图形操作系统的问世以及互联网技术的快速发展,计算机设备已经成为很多人日常工作生活中不可或缺的工具。
用户在使用计算机设备时,通常需要依靠手执行相应的操作来对计算机设备进行相应的控制,如对计算机设备的光标位置(也可以称为游标位置或指针位置等)进行控制,再如对当前显示页面的滚动控制以及是否点击当前页面中的某个按钮等。
目前,用户通常是通过操作相应的实体设备来对计算机设备进行相应的控制,如用户通过对鼠标、键盘、触摸板、触摸屏、TrackPoint(小红点)或者摇杆等实体设备的操作实现对计算机设备的光标位置、页面滚动以及按钮点击等内容的控制。
然而,发明人在实现本发明过程中发现,在一些应用场景中,用户通过操作相应的实体设备来对计算机设备进行相应的控制存在不便之处,如在用户利用键盘进行打字的应用场景中,在用户希望计算机设备执行将光标移动到下一个输入框中或者点击保存按钮或者滚动页面等操作时,用户往往会将手从键盘移动到鼠标处,以通过操作鼠标来使计算机设备执行相应的操作。
发明内容
本发明的目的是提供一种计算机设备的控制方法和装置。
根据本发明其中一个方面,提供一种计算机设备的控制方法,且所述方法主要包括以下步骤:根据摄像头摄取的图像获取用户面部特征点在所述图像中的位置信息;根据所述位置信息计算用户面部与计算机设备屏幕之间的距离以及用户面部坐标系的Z轴方向,其中,所述Z轴为用户面部坐标系中垂直于用户面部所在平面的法向坐标轴;根据所述距离以及Z轴方向计算所述Z轴与计算机设备屏幕的交点;根据所述交点计算所述计算机设备光标的目标位置;将计算机设备的光标移动到所述目标位置。
根据本发明的其中另一个方面,还提供一种计算机设备的控制装置,且所述装置主要包括:位置信息获取装置,用于根据摄像头摄取的图像获取用户面部特征点在所述图像中的位置信息的装置;距离和方向计算装置,用于根据所述位置信息计算用户面部与计算机设备屏幕之间的距离以及用户面部坐标系的Z轴方向的装置,其中所述Z轴为用户面部坐标系中垂直于用户面部所在平面的法向坐标轴;交点计算装置,用于根据所述距离以及Z轴方向计算所述Z轴与计算机设备屏幕的交点的装置;目标位置计算装置,用于根据所述交点计算所述计算机设备光标的目标位置的装置;光标移动装置,用于将计算机设备的光标移动到所述目标位置的装置。
与现有技术相比,本发明具有以下优点:本发明通过利用用户面部特征点在摄像头摄取的图像中的位置信息计算用户面部与计算机设备屏幕之间的距离以及用户面部坐标系的Z轴方向,由于用户面部坐标系的Z轴指向计算机设备屏幕,因此,本发明可以计算出Z轴与计算机屏幕的交点,并利用该交点可以确定出用户双眼望向计算机设备屏幕的焦点位置,即用户期望的光标的目标位置,从而本发明可以在不需要用户通过手对鼠标等实体设备进行操作的情况下,将计算机设备光标移动到用户期望的目标位置;由上述描述可知,本发明提供的技术方案可以实现对计算机设备光标的位置进行非接触方式的控制,从而使用户在不通过鼠标等实体设备而对计算机设备进行进一步的控制(如单击或者双击鼠标左键等)成为可能,进而本发明丰富了计算机设备的控制方式,并提高了计算机设备的使用便捷性。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明实施例一的计算机设备的控制方法流程图;
图2为本发明实施例二的计算机设备的控制装置示意图。
附图中相同或相似的附图标记代表相同或相似的部件。
具体实施方式
在更加详细地讨论示例性实施例之前,应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各项操作描述成顺序的处理,但是,其中的许多操作可以被并行地、并发地或者同时实施。此外,各项操作的执行顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
在上下文中所称“计算机设备”,也称为“电脑”,是指可以通过运行预定程序或指令来执行数值计算和/或逻辑计算等预定处理过程的智能电子设备,其可以包括处理器与存储器,由处理器执行在存储器中预存的存续指令来执行预定处理过程,或者是由ASIC、FPGA、DSP等硬件执行预定处理过程,或者是由上述二者组合来实现。计算机设备包括但不限于服务器、个人电脑、笔记本电脑、平板电脑、智能手机等。
所述计算机设备包括用户设备与网络设备。其中,所述用户设备包括但不限于电脑、智能手机、PDA等;所述网络设备包括但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算(Cloud Comput ing)的由大量计算机或网络服务器构成的云,其中,云计算是分布式计算的一种,由一群松散耦合的计算机集组成的一个超级虚拟计算机。其中,所述计算机设备可单独运行来实现本发明,也可接入网络并通过与网络中的其他计算机设备的交互操作来实现本发明。其中,所述计算机设备所处的网络包括但不限于互联网、广域网、城域网、局域网、VPN网络等。
需要说明的是,所述用户设备、网络设备和网络等仅为举例,其他现有的或今后可能出现的计算机设备或网络如可适用于本发明,也应包含在本发明保护范围以内,并以引用方式包含于此。
后面所讨论的方法(其中一些通过流程图示出)可通过硬件、软件、固件、中间件、微代码、硬件描述语言或者其任意组合来实施。当用软件、固件、中间件或微代码来实施时,用以实施必要任务的程序代码或代码段可以被存储在机器或计算机可读介质(比如存储介质)中。(一个或多个)处理器可以实施必要的任务。
这里所公开的具体结构和功能细节仅仅是代表性的,并且是用于描述本发明的示例性实施例的目的。但是,本发明可以通过许多替换形式来具体实现,并且不应当被解释成仅仅受限于这里所阐述的实施例。
应当理解的是,虽然在这里可能使用了术语“第一”、“第二”等等来描述各个单元,但是这些单元不应当受这些术语限制。使用这些术语仅仅是为了将一个单元与另一个单元进行区分。举例来说,在不背离示例性实施例的范围的情况下,第一单元可以被称为第二单元,并且类似地第二单元可以被称为第一单元。这里所使用的术语“和/或”包括其中一个或更多所列出的相关联项目的任意和所有组合。
应当理解的是,当一个单元被称为“连接”或者“耦合”到另一个单元时,其可以直接连接或耦合到所述另一单元,或者可以存在中间单元。与此相对,当一个单元被称为“直接连接”或“直接耦合”到另一单元时,则不存在中间单元。应当按照类似的方式来解释被用于描述单元之间的关系的其他词语(例如“处于...之间”相比于“直接处于...之间”,“与...邻近”相比于“与...直接邻近”等等)。
这里所使用的术语仅仅是为了描述具体实施例而不意图限制示例性实施例。除非上下文明确地另有所指,否则这里所使用的单数形式“一个”、“一项”还意图包括复数。还应当理解的是,这里所使用的术语“包括”和/或“包含”规定所陈述的特征、整数、步骤、操作、单元和/或组件的存在,而不排除存在或添加一个或更多其他特征、整数、步骤、操作、单元、组件和/或其组合。
还应当提到的是,在一些替换实现方式中,所提到的功能/动作可以按照不同于附图中标示的顺序发生。举例来说,取决于所涉及的功能/动作,相继示出的两幅图实际上可以基本上同时执行或者有时可以按照相反的顺序来执行。
下面结合附图对本发明作进一步详细描述。
实施例一、计算机设备的控制方法。
图1为本实施例的计算机设备的控制方法的流程图,且图1所示的方法主要包括步骤S100、步骤S110、步骤S120、步骤S130以及步骤S140。本实施例所记载的方法通常是在计算机设备中被执行的,优选的,本实施例所记载的方法可以在台式计算机、笔记型计算机以及服务器中执行。下面对图1中的各步骤分别进行说明。
S100、根据摄像头摄取的图像获取用户面部特征点在图像中的位置信息。
具体的,在计算机设备配置双摄像头的情况下,两个摄像头通常设置于计算机屏幕的上侧,且两个摄像头分列在屏幕中间点的两侧并间隔一定的距离。在计算机设备配置单摄像头的情况下,该摄像头通常设置于计算机屏幕的上侧的中间点位置。
本实施例需要对摄像头摄取的图像进行识别,以确定图像中是否包含有用户面部特征点,在根据图像识别结果获知图像中包含有用户面部特征点的情况下,可以获得用户面部特征点在图像中的位置信息。
作为示例,本实施例可以利用双摄像头来摄取图像,并对两个摄像头在同一时刻摄取到的图像分别进行图像识别,从而在根据图像识别结果获知两张图像中分别包含有用户面部特征点的情况下,可以获得用户面部特征点分别在两张图像中的位置信息。另外,本实施例可以利用双摄像头来摄取图像(即计算机设备配置有两个摄像头),并仅对其中一个摄像头摄取到的图像进行图像识别,从而在根据图像识别结果获知该图像中包含有用户面部特征点的情况下,可以获得用户面部特征点在该图像中的位置信息。当然,本实施例利用单摄像头来摄取图像(即计算机设备配置有一个摄像头),并对单摄像头摄取到的图像进行图像识别以获取用户面部特征点在图像中的位置信息也是完全可行的。
作为示例,本实施例所识别的面部特征点可以包括:左眼、右眼以及嘴部。本实施例并不排除将用户面部的其他部位作为面部特征点的情况,例如面部特征点仅包括:左眼和右眼,再例如面部特征点包括:左眼、右眼和鼻子,还有,面部特征点包括:左耳、右耳以及嘴部等。本实施例不限制面部特征点所包含的面部的具体部位。
作为示例,为了避免用户在使用计算机设备过程中,光标位置随用户头部的动作而发生改变等现象,本实施例可以在接收到基于非接触方式控制光标位置的命令时,才开始执行步骤S100的获取用户面部特征点在图像中的位置信息的操作;而在接收到停止基于非接触方式控制光标位置的命令时,不再执行步骤S100的获取用户面部特征点在图像中的位置信息的操作。
作为示例,上述基于非接触方式控制光标位置的命令可以为基于快捷键而产生的命令,如将ctrl+b等快捷键作为基于非接触方式控制光标位置的命令,从而在检测到用户输入了ctrl+b等快捷键时,开始对摄像头摄取的图像进行用户面部特征点的识别操作,以获取用户面部特征点在图像中的位置信息。上述基于非接触方式控制光标位置的命令也可以为基于语音而产生的命令,如将“开启虚拟鼠标”等音频信号作为基于非接触方式控制光标位置的命令,从而在采集到“开启虚拟鼠标”等音频信号时,开始对摄像头摄取的图像进行用户面部特征点的识别操作,以获取用户面部特征点在图像中的位置信息。上述基于非接触方式控制光标位置的命令还可以为基于用户头部的特定动作而产生的命令,如将用户快速向左甩头等动作作为基于非接触方式控制光标位置的命令,从而在检测到快速向左甩头等动作时,开始对摄像头摄取的图像进行用户面部特征点的识别操作,以获取用户面部特征点在图像中的位置信息。
作为示例,上述停止基于非接触方式控制光标位置的命令可以为基于快捷键而产生的命令,如将ctrl+n等快捷键作为停止基于非接触方式控制光标位置的命令,从而在检测到用户输入了ctrl+n等快捷键时,不再对摄像头摄取的图像进行用户面部特征点的识别操作。上述停止基于非接触方式控制光标位置的命令也可以为基于语音而产生的命令,如将“关闭虚拟鼠标”等音频信号作为停止基于非接触方式控制光标位置的命令,从而在采集到“关闭虚拟鼠标”等音频信号时,不再对摄像头摄取的图像进行用户面部特征点的识别操作。上述停止基于非接触方式控制光标位置的命令还可以为基于用户头部的特定动作而产生的命令,如将用户快速向右甩头等动作作为停止基于非接触方式控制光标位置的命令,从而在检测到快速向右甩头等动作时,不再对摄像头摄取的图像进行用户面部特征点的识别操作。
S110、根据上述位置信息计算用户面部与计算机设备屏幕之间的距离以及用户面部坐标系的Z轴方向。
具体的,本实施例中的用户面部与计算机设备屏幕之间的距离可以优选的采用用户面部坐标系的原点与计算机设备屏幕坐标系的原点之间的距离,当然,本实施例中的用户面部与计算机设备屏幕之间的距离也可以采用用户面部坐标系的原点与计算机设备屏幕之间的最短距离等。本实施例中的计算机设备屏幕坐标系,该屏幕坐标系的X轴和Y轴所在平面通常为屏幕所在平面,屏幕坐标系的Z轴通常为垂直于屏幕并指向屏幕外部,且屏幕坐标系的原点通常可以为屏幕的中心点。当然,屏幕坐标系的原点还可以位于屏幕上的其他位置,如原点位于屏幕的左下角或者右下角或者左上角或者右上角等。本实施例不限制屏幕坐标系的具体设置方式。
作为示例,本实施例中的用户面部坐标系是指,以用户的多个面部特征点所形成的平面为X轴和Y轴所在的平面,如将用户的三个面部特征点所形成的平面作为X轴和Y轴所在的平面,而Z轴垂直于用户的多个面部特征点所形成的平面(即,用户面部所在平面)并在用户面向计算机设备屏幕的情况下指向计算机设备屏幕。
作为示例,在本实施例中的用户的面部特征点包括用户的双眼以及嘴部的情况下,本实施例的用户面部坐标系的设置方式可以为:利用用户的双眼和嘴部(如左眼部中心、右眼部中心以及嘴部中心)形成一个倒置的等腰三角形,将该等腰三角形的重心作为用户面部坐标系的原点,并将该等腰三角形所在平面上的过原点的法向量为Z轴,用户面部坐标系的X轴可以为过原点且平行于等腰三角形的底边的直线,而用户面部坐标系的Y轴可以为过原点且垂直于等腰三角形的底边的直线。在实际应用中,本实施例也可以采用其他方式来界定用户面部坐标系,如将倒置的等腰三角形的底边的中点作为用户面部坐标系的原点,将倒置的等腰三角形的底边作为X轴,将过底边的中点且垂直于底边的直线作为Y轴,将该等腰三角形所在平面上的过原点的法向量为Z轴。本实施例不限制用户面部坐标系的具体设置方式。
作为示例,本实施例可以利用预先为用户设置的光标定位模型来计算用户面部与计算机设备屏幕之间的距离以及用户面部坐标系的Z轴方向。该光标定位模型是利用用户的样本数据进行训练而获得的,即该光标定位模型是通过对用户的样本数据进行学习而获得的。
本实施例中的光标定位模型不仅可以在接收到用户面部特征点在图像中的位置信息时,计算出用户面部与计算机设备屏幕之间的距离以及用户面部坐标系的Z轴方向,还能够依据其计算出的距离和Z轴方向计算Z轴与计算机设备屏幕的交点,并依据该交点确定出计算机设备光标的目标位置,即该光标定位模型可以根据其接收到的用户面部特征点在图像中的位置信息输出计算机设备光标的目标位置。
在多用户共用同一台计算机设备的情况下,本实施例通常需要针对每一个用户分别训练获得一个光标定位模型,从而针对不同的用户,应利用用户各自对应的光标定位模型来执行相应的计算操作。
作为示例,在多用户共用同一台计算机设备的情况下,确定当前使用计算机设备的用户所对应的光标定位模型的一个具体例子为:预先获取共用同一台计算机设备的每一个用户的面部图像,并将获取到的各用户的面部图像与各用户的光标定位模型关联起来,从而在用户使用计算机设备时,可以通过摄像头获取当前使用计算机设备的用户的面部图像,然后,根据当前获取的用户的面部图像以及之前预先获取到的各个用户的面部图像进行用户识别操作,从而根据用户识别的结果以及关联信息即可确定出当前使用计算机设备的用户所对应的光标定位模型。
上述将获取到的各用户的面部图像与各用户的光标定位模型关联起来的一个具体的例子为:针对一个用户而言,在为该用户设置光标定位模型的过程中,可以获取该用户的面部图像,如获取该用户的面部正面图像以及面部侧面图像等;在成功为该用户训练了光标定位模型时,建立该用户的面部图像和光标定位模型之间的对应关系信息,并存储该对应关系信息;在针对共用同一台计算机设备的每一个用户均重复上述过程后,即可成功的将各用户的面部图像与各用户的光标定位模型关联起来。
作为示例,本实施例在训练光标定位模型过程中最好采用有监督的训练方式,也就是说,光标定位模型最好进行有监督的学习。
本实施例预先为用户设置光标定位模型的一个具体例子为:获取摄像头的设置参数例,并根据获取到的设置参数建立光标定位模型,如根据获取到的摄像头的数量、摄像头位置信息、摄像头的像素以及摄像头的驱动信息等设置参数中的一个或者多个建立光标定位模型;然后,利用用户的样本数据对该建立的光标定位模型进行训练,使该光标定位模型对用户的个人习惯进行学习;成功训练获得的光标定位模型即为与该用户对应的光标定位模型。
需要说明的是,摄像头的设置参数可以根据用户输入的信息获得;由于用户输入的摄像头位置信息可能并不准确,且用户可能并不能够提供摄像头的像素以及驱动信息等设置参数,从而使本实施例最初建立的光标定位模型在对摄像头的设置参数的认知方面存在问题,然而,本实施例可以通过对初始建立的光标定位模型进行有监督的训练,使光标定位模型可以充分考虑摄像头的实际情况以及用户的个人习惯等因素。
在计算机设备设置有双摄像头的情况下,训练光标定位模型的一个具体的例子为:使用户的头部转动能够控制计算机设备屏幕上显示的一个圆(如类似于箭靶的圆,当然,也可以为其他形状)在屏幕上移动,然后,引导用户通过头部转动将圆心移动到指定位置(如移动到屏幕的左上角或者左下角或者右上角或者右下角等),记录此时用户当前的面部图像,并获取用户面部特征点在图像中的位置信息,并将用户面部特征点在图像中的位置信息以及上述指定位置的信息作为用户的样本数据提供给光标定位模型,以对光标定位模型进行训练;缩小圆的大小,并重复上述过程,直到由于不能排除噪声干扰等现象而使圆的大小不能够被继续缩小为止。需要说明的是,在重复操作的过程中,部分圆的圆心可以不在屏幕上显示,如在圆的形状比较大时可以显示圆心,而在圆的形状比较小时可以不显示圆心。
在计算机设备设置单摄像头的情况下,训练光标定位模型的一个具体的例子为:用户面部佩戴一个特定的定位装置,如倒三角形边框的眼镜等,该特定的定位装置的尺寸大小对于计算机设备而言是已知的;使用户的头部转动能够控制计算机设备屏幕上显示的一个圆(如类似于箭靶的圆,当然,也可以为其他形状)在屏幕上移动,然后,引导用户通过头部转动将圆心移动到指定位置(如移动到屏幕的左上角或者左下角或者右上角或者右下角等),记录此时用户当前的面部图像,并获取用户面部特征点在图像中的位置信息以及定位装置在图像中的位置信息,并将用户面部特征点在图像中的位置信息、定位装置在图像中的位置信息以及上述指定位置的信息作为用户的样本数据提供给光标定位模型,以对光标定位模型进行训练;上述定位装置在图像中的位置信息主要用于光标定位模型对用户面部与计算机设备屏幕之间的距离以及用户面部坐标系的Z轴方向进行计算;缩小圆的大小,并重复上述过程,直到由于不能排除噪声干扰等现象而使圆的大小不能够被继续缩小为止。需要说明的是,在重复操作的过程中,部分圆的圆心可以不在屏幕上显示,如在圆的形状比较大时可以显示圆心,而在圆的形状比较小时可以不显示圆心。另外,在计算机设备采用单摄像头的情况下,通常只有在进行光标定位模型训练的过程中,用户才需要佩戴上述特定的定位装置,而在用户正常使用计算机设备并进行光标定位过程中,用户通常不再需要佩戴该特定的定位装置。
本实施例对光标定位模型进行训练的过程在使光标定位模型适应用户个人习惯的同时,也会使用户逐渐适应光标定位控制方式,从而通过训练会使用户对光标定位模型的感知与光标定位模型对用户的解读相一致。
S120、根据上述距离以及Z轴方向计算Z轴与计算机设备屏幕的交点。
具体的,本实施例中的Z轴与计算机设备屏幕的交点是指用户面部坐标系的Z轴与屏幕坐标系中的X轴和Y轴所形成的平面的交点,即用户面部坐标系的Z轴射入屏幕坐标系中的X轴和Y轴所形成的平面的位置。
作为示例,本实施例可以利用预先针对该用户训练获得的光标定位模型计算Z轴与计算机设备屏幕的交点;也就是说,光标定位模型在计算出用户面部与计算机设备屏幕之间的距离以及用户面部坐标系的Z轴方向之后,继续进行计算,以获得Z轴与计算机设备屏幕的交点。
由于有监督的训练方式使最终获得的光标定位模型已经充分考虑了摄像头的实际情况以及用户的面部特征点(如眼睛以及嘴部的具体位置等),因此,本实施例在利用训练获得的光标定位模型计算Z轴与计算机设备屏幕的交点时,可以使当前计算出的交点非常接近Z轴与计算机设备屏幕的实际交点。
S130、根据上述交点确定计算机设备光标的目标位置。
具体的,本实施例在利用交点来确定计算机设备光标的目标位置的过程中,可以参考用户的个人习惯以及用户眼睛的转动情况;也就是说,本实施例可以根据交点、用户的个人习惯参数以及用户眼睛的转动情况来确定计算机设备光标的目标位置;其中的用户的个人习惯参数是预先针对该用户设置的,其中的用户眼睛的转动情况可以根据摄像头摄取的图像获得。
作为示例,本实施例可以利用预先训练获得的光标定位模型来确定上述计算出的交点所对应的计算机设备光标的目标位置;也就是说,用户对应的光标定位模型在计算出用户面部与计算机设备屏幕之间的距离以及用户面部坐标系的Z轴方向,并利用该距离以及Z轴方向计算出计算机设备屏幕的交点之后,继续根据预先通过训练而设置的用户的个人习惯参数以及用户眼睛的转动情况进行计算,以获得用户的双眼所望向的计算机设备屏幕上的具体位置。
由于有监督的训练方式使最终获得的光标定位模型已经充分考虑了用户的个人习惯(如用户在望向某个目标位置时头部的偏转情况等),因此,本实施例在利用训练获得的光标定位模型来计算交点所对应的计算机设备光标的目标位置时,可以使当前计算出的目标位置尽可能的是用户所期望的实际位置。
作为示例,本实施例可以允许用户自行设置偏移量。在用户自行设置了偏移量的情况下,本实施例在根据交点来确定计算机设备光标的目标位置的过程中,应考虑该偏移量;如光标定位模型将其根据交点确定出的目标位置与偏移量相结合,并将结合的结果作为最终的目标位置输出;再如光标定位模型输出其根据交点确定出的目标位置,然后,本实施例将光标定位模型输出的目标位置与偏移量相结合,并将结合的结果作为最终确定出的目标位置。
S140、将计算机设备的光标移动到上述目标位置。
具体的,本实施例可以利用现有的方法将计算机设备的光标移动到上述目标位置,如将目标位置作为相应的接口的参数,并通过调用相应的接口将计算机设备的光标移动到上述目标位置。本实施例不限制将计算机设备的光标移动到上述目标位置的具体实现方式。
作为示例,用户可以在本实施例将计算机设备的光标移动到目标位置之后,继续通过键盘等设备进行打字或者其他操作,从而避免了用户需要通过操作鼠标等实体设备将光标移动到目标位置的操作。
作为示例,本实施例还可以在将计算机设备的光标移动到目标位置的基础上,触发计算机设备执行相应的操作,从而对计算机设备进行进一步的控制;例如触发计算机设备执行单击鼠标左键所引发的操作,再例如触发计算机设备执行双击鼠标左键所引发的操作,再例如触发计算机设备执行鼠标滚轮的滚动操作所引发的操作等。
一个具体的例子,本实施例可以预先设置用户面部特征点的特定动作与鼠标键值的对应关系,在用户使用计算机设备且光标定位模型确定出计算机设备光标的目标位置时,本实施例可以根据摄像头摄取的图像确定用户面部特征点的当前动作,并根据预先设置的对应关系判断用户面部特征点的当前动作是否为特定动作,在判断出用户面部特征点的当前动作为特定动作的情况下,本实施例可以根据该特定动作对应的鼠标键值以及上述确定出的光标的目标位置触发计算机设备执行相应的操作。上述用户面部特征点的特定动作与鼠标键值的对应关系可以为左眼快速单次眨动对应鼠标左键单击的键值以及左眼慢速单次眨动对应鼠标左键双击的键值等。上述计算机设备执行的操作可以为点击相应的按钮或者屏幕当前显示页面滚动等等。本实施例不限制用户面部特征点的特定动作的具体表现形式、用户面部特征点的特定动作所对应的鼠标键值以及计算机设备所执行的具体操作等等。
另一个具体的例子,本实施例可以预先设置预定文字与鼠标键值的对应关系,在用户使用计算机设备且光标定位模型确定出计算机设备光标的目标位置时,本实施例可以采集用户的声音信号,并对采集的声音信号进行语音识别处理,进而可以根据语音识别处理结果进行关键字提取处理,本实施例可以根据预先设置的对应关系判断提取出的关键字是否属于预定文字,在判断出提取出的关键字属于预定文字的情况下,本实施例可以根据该预定文字对应的鼠标键值以及光标的目标位置触发计算机设备执行相应的操作。上述预定文字可以为“鼠标左键单击”、“鼠标左键双击”或者“鼠标滚轮滚动”等,即上述对应关系可以为“鼠标左键单击”对应鼠标左键单击的键值以及“鼠标左键双击”对应鼠标左键双击的键值等。上述计算机设备执行的操作可以为点击相应的按钮或者屏幕当前显示页面滚动等等。本实施例不限制预定文字的具体内容、预定文字对应的鼠标键值以及计算机设备所执行的具体操作等等。
实施例二、计算机设备的控制装置。
本实施例中的计算机设备的控制装置通常被设置于计算机设备中,优选的,本实施例所记载的计算机设备的控制装置可以设置在台式计算机、笔记型计算机以及服务器中。
本实施例的计算机设备的控制装置的主要结构如图2所示。
图2中,本实施例的计算机设备的控制装置主要包括:用于根据摄像头摄取的图像获取用户面部特征点在所述图像中的位置信息的装置(下述简称为“位置信息获取装置200”)、用于根据上述位置信息计算用户面部与计算机设备屏幕之间的距离以及用户面部坐标系的Z轴方向的装置(下述简称为“距离和方向计算装置210”)、用于根据上述距离以及用户面部坐标系的Z轴方向计算用户面部坐标系的Z轴与计算机设备屏幕的交点的装置(下述简称为“交点计算装置220”)、用于根据上述交点计算计算机设备光标的目标位置的装置(下述简称为“目标位置计算装置230”)以及用于将计算机设备的光标移动到上述目标位置的装置(下述简称为“光标移动装置240”)。
下面参照具体实施例对计算机设备的控制装置进行说明。
位置信息获取装置200主要用于根据摄像头摄取的图像获取用户面部特征点在所述图像中的位置信息。
具体的,位置信息获取装置200需要对摄像头摄取的图像进行识别,以确定图像中是否包含有用户面部特征点,在根据图像识别结果获知图像中包含有用户面部特征点的情况下,位置信息获取装置200可以获得用户面部特征点在图像中的位置信息。
作为示例,本实施例可以利用双摄像头来摄取图像(即计算机设备配置有两个摄像头),位置信息获取装置200对两个摄像头在同一时刻摄取到的图像分别进行图像识别,从而在根据图像识别结果获知两张图像中分别包含有用户面部特征点的情况下,位置信息获取装置200可以获得用户面部特征点分别在两张图像中的位置信息。
作为示例,本实施例可以利用双摄像头来摄取图像(即计算机设备配置有两个摄像头),位置信息获取装置200仅对其中一个摄像头摄取到的图像进行图像识别,从而在根据图像识别结果获知该图像中包含有用户面部特征点的情况下,位置信息获取装置200可以获得用户面部特征点在该图像中的位置信息。
作为示例,本实施例可以利用单摄像头来摄取图像(即计算机设备配置有一个摄像头),位置信息获取装置200对单摄像头摄取到的图像进行图像识别,以获取用户面部特征点在图像中的位置信息。
作为示例,位置信息获取装置200所识别出的面部特征点可以包括:左眼、右眼以及嘴部。本实施例并不排除位置信息获取装置200将用户面部的其他部位作为面部特征点的情况;例如位置信息获取装置200仅将左眼和右眼作为面部特征点;再例如位置信息获取装置200将左眼、右眼和鼻子作为面部特征点;还有,位置信息获取装置200将左耳、右耳以及嘴部等作为面部特征点。本实施例不限制位置信息获取装置200识别出的面部特征点所包含的面部的具体部位。
作为示例,为了避免用户在使用计算机设备过程中,光标位置随用户头部的动作而发生改变等现象,本实施例可以可选的包括:用于在接收到基于非接触方式控制光标位置的命令时,控制位置信息获取装置执行位置信息的获取操作的装置(下述简称“第一触发装置”,图中未示出)以及用于在接收到停止基于非接触方式控制光标位置的命令时,控制位置信息获取装置停止执行位置信息的获取操作的装置(下述简称“第二触发装置”,图中未示出)。
第一触发装置在接收到基于非接触方式控制光标位置的命令时,开始控制位置信息获取装置200执行获取用户面部特征点在图像中的位置信息的操作。第二触发装置在接收到停止基于非接触方式控制光标位置的命令时,第二触发装置控制位置信息获取装置200不再执行获取用户面部特征点在图像中的位置信息的操作。
作为示例,第一触发装置接收到的基于非接触方式控制光标位置的命令可以为基于快捷键而产生的命令,如本实施例预先将ctrl+b等快捷键设置为基于非接触方式控制光标位置的命令,从而在第一触发装置检测到用户输入了ctrl+b等快捷键时,第一触发装置开始控制位置信息获取装置200对摄像头摄取的图像进行用户面部特征点的识别操作,以获取用户面部特征点在图像中的位置信息。第一触发装置接收到的基于非接触方式控制光标位置的命令也可以为基于语音而产生的命令,如本实施例预先将“开启虚拟鼠标”等音频信号设置为基于非接触方式控制光标位置的命令,从而第一触发装置在采集到音频信号为“开启虚拟鼠标”时,第一触发装置开始控制位置信息获取装置200对摄像头摄取的图像进行用户面部特征点的识别操作,以获取用户面部特征点在图像中的位置信息。上述基于非接触方式控制光标位置的命令还可以为基于用户头部的特定动作而产生的命令,如本实施例预先将用户快速向左甩头等动作设置为基于非接触方式控制光标位置的命令,从而第一触发装置在确定用户的当前动作为快速向左甩头等动作时,第一触发装置开始控制位置信息获取装置200对摄像头摄取的图像进行用户面部特征点的识别操作,以获取用户面部特征点在图像中的位置信息。
作为示例,第二触发装置接收到的停止基于非接触方式控制光标位置的命令可以为基于快捷键而产生的命令,如本实施例预先将ctrl+n等快捷键设置为停止基于非接触方式控制光标位置的命令,从而在第二触发装置检测到用户输入了ctrl+n等快捷键时,第二触发装置控制位置信息获取装置200不再对摄像头摄取的图像进行用户面部特征点的识别操作。第二触发装置接收到的停止基于非接触方式控制光标位置的命令也可以为基于语音而产生的命令,如本实施例预先将“关闭虚拟鼠标”等音频信号设置为停止基于非接触方式控制光标位置的命令,从而第二触发装置在采集到音频信号为“停止虚拟鼠标”时,第二触发装置控制位置信息获取装置200不再对摄像头摄取的图像进行用户面部特征点的识别操作。上述停止基于非接触方式控制光标位置的命令还可以为基于用户头部的特定动作而产生的命令,如本实施例预先将用户快速向右甩头等动作设置为基于非接触方式控制光标位置的命令,从而第二触发装置在确定用户的当前动作为快速向右甩头等动作时,第二触发装置控制位置信息获取装置200不再对摄像头摄取的图像进行用户面部特征点的识别操作。
距离和方向计算装置210主要用于根据上述位置信息计算用户面部与计算机设备屏幕之间的距离以及用户面部坐标系的Z轴方向。
具体的,本实施例中的用户面部与计算机设备屏幕之间的距离可以优选的采用用户面部坐标系的原点与计算机设备屏幕坐标系的原点之间的距离,当然,本实施例中的用户面部与计算机设备屏幕之间的距离也可以采用用户面部坐标系的原点与计算机设备屏幕之间的最短距离等。本实施例中的计算机设备屏幕坐标系,该屏幕坐标系的X轴和Y轴所在平面通常为屏幕所在平面,屏幕坐标系的Z轴通常为垂直于屏幕并指向屏幕外部,且屏幕坐标系的原点通常可以为屏幕的中心点。当然,屏幕坐标系的原点还可以位于屏幕上的其他位置,如原点位于屏幕的左下角或者右下角或者左上角或者右上角等。本实施例不限制屏幕坐标系的具体设置方式。
作为示例,本实施例中的用户面部坐标系是指,以用户的多个面部特征点所形成的平面为X轴和Y轴所在的平面,如将用户的三个面部特征点所形成的平面作为X轴和Y轴所在的平面,而Z轴垂直于用户的多个面部特征点所形成的平面并在用户面向计算机设备屏幕的情况下指向计算机设备屏幕。
作为示例,在本实施例中的用户的面部特征点包括用户的双眼以及嘴部的情况下,本实施例的用户面部坐标系的设置方式可以为:利用用户的双眼和嘴部(如左眼部中心、右眼部中心以及嘴部中心)形成一个倒置的等腰三角形,将该等腰三角形的重心作为用户面部坐标系的原点,并将该等腰三角形所在平面上的过原点的法向量为Z轴,用户面部坐标系的X轴可以为过原点且平行于等腰三角形的底边的直线,而用户面部坐标系的Y轴可以为过原点且垂直于等腰三角形的底边的直线。在实际应用中,本实施例也可以采用其他方式来界定用户面部坐标系,如将倒置的等腰三角形的底边的中点作为用户面部坐标系的原点,将倒置的等腰三角形的底边作为X轴,将过底边的中点且垂直于底边的直线作为Y轴,将该等腰三角形所在平面上的过原点的法向量为Z轴。本实施例不限制用户面部坐标系的具体设置方式。
作为示例,本实施例可以利用预先为用户设置的包含有距离和方向计算装置210的光标定位模型来计算用户面部与计算机设备屏幕之间的距离以及用户面部坐标系的Z轴方向。该光标定位模型是利用用户的样本数据进行训练而获得的,即包含有距离和方向计算装置210的光标定位模型是通过对用户的样本数据进行学习而获得的。
本实施例的光标定位模型不仅包含有距离和方向计算装置210,还可以包含有交点计算装置220以及目标位置计算装置230。
在多用户共用同一台计算机设备的情况下,本实施例的计算机设备的控制装置通常针对每一个用户分别训练获得一个光标定位模型,从而针对不同的用户,应利用用户各自对应的光标定位模型来执行相应的计算操作。
可选的,本实施例的计算机设备的控制装置还可以进一步包括:用于对摄像头摄取的图像进行面部识别的装置(下述简称“面部识别装置”,图中未示出)以及用于根据面部识别结果确定当前使用计算机设备的用户所对应的光标定位模型的装置(下述简称“模型确定装置”,图中未示出)。
作为示例,在多用户共用同一台计算机设备的情况下,本实施例的计算机设备的控制装置确定当前使用计算机设备的用户所对应的光标定位模型的一个具体例子为:面部识别装置或者模型确定装置预先获取共用同一台计算机设备的每一个用户的面部图像,并将获取到的各用户的面部图像与各用户的光标定位模型关联起来,从而在用户使用计算机设备时,面部识别装置可以通过摄像头获取当前使用计算机设备的用户的面部图像,然后,面部识别装置根据当前获取的用户的面部图像以及之前预先获取到的各个用户的面部图像进行用户识别操作,从而模型确定装置根据面部识别装置的用户识别结果以及上述预先建立的关联信息即可确定出当前使用计算机设备的用户所对应的光标定位模型。
上述将获取到的各用户的面部图像与各用户的光标定位模型关联起来的一个具体的例子为:针对一个用户而言,在为该用户设置光标定位模型的过程中,面部识别装置或者模型确定装置可以获取该用户的面部图像,如获取该用户的面部正面图像以及面部侧面图像等;在成功为该用户训练了光标定位模型时,面部识别装置或者模型确定装置建立该用户的面部图像和光标定位模型之间的对应关系信息,并存储该对应关系信息;在面部识别装置或模型确定装置针对共用同一台计算机设备的每一个用户均重复上述过程后,即可成功的将各用户的面部图像与各用户的光标定位模型关联起来。
作为示例,本实施例在训练光标定位模型过程中最好采用有监督的训练方式,也就是说,光标定位模型最好进行有监督的学习。
作为示例,本实施例的计算机设备的控制装置还可以包括:用于根据摄像头的设置参数建立光标定位模型的装置(下述简称“模型建立装置”,图中未示出)、用于获取用户的样本数据的装置(下述简称“样本数据获取装置”,图中未示出)以及用于利用样本数据对光标定位模型进行训练的装置(下述简称“模型训练装置”,图中未示出)。
本实施例预先为用户设置光标定位模型的一个具体例子为:模型建立装置获取摄像头的设置参数例,模型建立装置根据获取到的设置参数建立光标定位模型,如模型建立装置根据获取的摄像头的数量、摄像头位置信息、摄像头的像素以及摄像头的驱动信息等设置参数中的一个或者多个建立光标定位模型;然后,模型训练装置利用样本数据获取装置提供的用户的样本数据对模型建立装置建立的光标定位模型进行训练,使该光标定位模型对用户的个人习惯进行学习;模型训练装置成功训练获得的光标定位模型即为与该用户对应的光标定位模型。
需要说明的是,模型建立装置可以根据用户输入的信息获得摄像头的设置参数;由于用户输入的摄像头位置信息可能并不准确,且用户可能并不能够提供摄像头的像素以及驱动信息等设置参数,从而使模型建立装置最初建立的光标定位模型在对摄像头的设置参数的认知方面存在问题,然而,本实施例通过模型训练装置对初始建立的光标定位模型进行有监督的训练,可以使最终获得的光标定位模型充分考虑摄像头的实际情况以及用户的个人习惯等因素。
在计算机设备设置有双摄像头的情况下,模型训练装置训练光标定位模型的一个具体的例子为:样本数据获取装置使用户的头部转动能够控制计算机设备屏幕上显示的一个圆(如类似于箭靶的圆,当然,也可以为其他形状)在屏幕上移动,然后,样本数据获取装置引导用户通过头部转动将圆心移动到指定位置(如移动到屏幕的左上角或左下角或右上角或右下角等),样本数据获取装置记录此时用户当前的面部图像,并获取用户面部特征点在图像中的位置信息,样本数据获取装置将用户面部特征点在图像中的位置信息以及上述指定位置的信息作为用户的样本数据提供给模型训练装置,模型训练装置利用用户的样本数据对光标定位模型进行训练;缩小圆的大小,样本数据获取装置和模型训练装置重复上述过程,直到由于不能排除噪声干扰等现象而使圆的大小不能够被继续缩小为止。需要说明的是,在样本数据获取装置以及模型训练装置重复操作的过程中,部分圆的圆心可以不在屏幕上显示,如在圆的形状比较大时可以显示圆心,而在圆的形状比较小时可以不显示圆心。
在计算机设备设置单摄像头的情况下,模型训练装置训练光标定位模型的一个具体的例子为:用户面部佩戴一个特定的定位装置,如倒三角形边框的眼镜等,该特定的定位装置的尺寸大小对于模型训练装置是已知的;样本数据获取装置使用户的头部转动能够控制计算机设备屏幕上显示的一个圆(如类似于箭靶的圆,当然,也可以为其他形状)在屏幕上移动,然后,样本数据获取装置引导用户通过头部转动将圆心移动到指定位置(如移动到屏幕的左上角或者左下角或者右上角或者右下角等),记录此时用户当前的面部图像,样本数据获取装置获取用户面部特征点在图像中的位置信息以及定位装置在图像中的位置信息,样本数据获取装置将用户面部特征点在图像中的位置信息、定位装置在图像中的位置信息以及上述指定位置的信息作为用户的样本数据提供给模型训练装置,模型训练装置利用用户的样本数据对光标定位模型进行训练;上述定位装置在图像中的位置信息主要用于光标定位模型对用户面部与计算机设备屏幕之间的距离以及用户面部坐标系的Z轴方向进行计算;样本数据获取装置和模型训练装置缩小圆的大小,并重复上述过程,直到由于不能排除噪声干扰等现象而使圆的大小不能够被继续缩小为止。需要说明的是,在样本数据获取装置以及模型训练装置重复操作的过程中,部分圆的圆心可以不在屏幕上显示,如在圆的形状比较大时可以显示圆心,而在圆的形状比较小时可以不显示圆心。另外,在计算机设备采用单摄像头的情况下,通常只有在进行光标定位模型训练的过程中,用户才需要佩戴上述特定的定位装置,而在用户正常使用计算机设备并进行光标定位过程中,用户通常不再需要佩戴该特定的定位装置。
本实施例对光标定位模型进行训练的过程在使光标定位模型适应用户个人习惯的同时,也会使用户逐渐适应光标定位控制方式,从而通过训练会使用户对光标定位模型的感知与光标定位模型对用户的解读相一致。
交点计算装置220主要用于根据上述计算出的距离以及用户面部坐标系的Z轴方向计算用户面部坐标系的Z轴与计算机设备屏幕的交点的装置。
具体的,本实施例中的Z轴与计算机设备屏幕的交点是指用户面部坐标系的Z轴与屏幕坐标系中的X轴和Y轴所形成的平面的交点,即用户面部坐标系的Z轴射入屏幕坐标系中的X轴和Y轴所形成的平面的位置。
作为示例,本实施例可以利用预先针对该用户训练获得的包含有交点计算装置220的光标定位模型计算Z轴与计算机设备屏幕的交点;即在光标定位模型中的距离和方向计算装置210计算出用户面部与计算机设备屏幕之间的距离以及用户面部坐标系的Z轴方向之后,光标定位模型中的交点计算装置220继续进行计算,以获得Z轴与计算机设备屏幕的交点。
由于有监督的训练方式使最终获得的光标定位模型已经充分考虑了摄像头的实际情况以及用户的面部特征点(如眼睛以及嘴部的具体位置等),因此,本实施例在利用训练获得的包含有交点计算装置220的光标定位模型计算Z轴与计算机设备屏幕的交点时,可以使当前计算出的交点非常接近Z轴与计算机设备屏幕的实际交点。
目标位置计算装置230主要用于根据上述获得的交点计算计算机设备光标的目标位置。
具体的,目标位置计算装置230在利用交点来确定计算机设备光标的目标位置的过程中,可以参考用户的个人习惯以及用户眼睛的转动情况;也就是说,目标位置计算装置230可以根据交点、用户的个人习惯参数以及用户眼睛的转动情况来确定计算机设备光标的目标位置;其中的用户的个人习惯参数是预先针对该用户设置的,其中的用户眼睛的转动情况可以根据摄像头摄取的图像获得。
作为示例,本实施例可以利用预先训练获得的包含有目标位置计算装置230的光标定位模型来确定上述计算出的交点所对应的计算机设备光标的目标位置;也就是说,用户对应的光标定位模型中的距离和方向计算装置210在计算出用户面部与计算机设备屏幕之间的距离以及用户面部坐标系的Z轴方向,且光标定位模型中的交点计算装置220利用该距离以及Z轴方向计算出计算机设备屏幕的交点之后,光标定位模型中的目标位置计算装置230根据预先通过训练而设置的用户的个人习惯参数以及用户眼睛的转动情况进行计算,以获得用户的双眼所望向的计算机设备屏幕上的具体位置。
由于有监督的训练方式使最终获得的光标定位模型已经充分考虑了用户的个人习惯(如用户在望向某个目标位置时头部的偏转情况等),因此,本实施例在利用训练获得的包含有目标位置计算装置230的光标定位模型来计算交点所对应的计算机设备光标的目标位置时,可以使当前计算出的目标位置尽可能的是用户所期望的实际位置。
作为示例,本实施例可以允许用户自行设置偏移量。在用户自行设置了偏移量的情况下,目标位置计算装置230在根据交点来确定计算机设备光标的目标位置的过程中,应考虑该偏移量;如目标位置计算装置230将其根据交点确定出的目标位置与偏移量相结合,并将结合的结果作为最终的目标位置输出。
光标移动装置240主要用于将计算机设备的光标移动到上述目标位置计算装置230确定出的目标位置。
具体的,光标移动装置240可以利用现有的方法将计算机设备的光标移动到上述目标位置,如光标移动装置240将目标位置作为相应的接口的接口参数,并通过调用相应的接口将计算机设备的光标移动到上述目标位置。本实施例不限制光标移动装置240将计算机设备的光标移动到上述目标位置的具体实现方式。
作为示例,用户可以在本实施例的光标移动装置240将计算机设备的光标移动到目标位置之后,继续通过键盘等设备进行打字或者其他操作,从而避免了用户需要通过操作鼠标等实体设备将光标移动到目标位置的操作。
作为示例,本实施例的计算机设备的控制装置还可以在将计算机设备的光标移动到目标位置的基础上,触发计算机设备执行相应的操作,从而对计算机设备进行进一步的控制;例如触发计算机设备执行单击鼠标左键所引发的操作,再例如触发计算机设备执行双击鼠标左键所引发的操作,再例如触发计算机设备执行鼠标滚轮的滚动操作所引发的操作等。
可选的,本实施例的计算机设备的控制装置还可以包括:用于根据摄像头摄取的图像确定用户面部特征点的动作的装置(下述简称为“动作识别装置”,图中未示出)以及用于若上述动作对应有相应的鼠标键值,则根据目标位置以及标键值触发计算机设备执行相应的操作的装置(下述简称为“第三触发装置”,图中未示出)。
一个具体的例子第三触发装置可以预先设置用户面部特征点的特定动作与鼠标键值的对应关系,在用户使用计算机设备且光标定位模型确定出计算机设备光标的目标位置时,动作识别装置可以根据摄像头摄取的图像确定用户面部特征点的当前动作,第三触发装置根据预先设置的对应关系判断用户面部特征点的当前动作是否为特定动作,在判断出用户面部特征点的当前动作为特定动作的情况下,第三触发装置可以根据该特定动作对应的鼠标键值以及上述确定出的光标的目标位置触发计算机设备执行相应的操作。
上述用户面部特征点的特定动作与鼠标键值的对应关系可以为左眼快速单次眨动对应鼠标左键单击的键值以及左眼慢速单次眨动对应鼠标左键双击的键值等。上述第三触发装置触发计算机设备执行的操作可以为点击相应的按钮或者屏幕当前显示页面滚动等等。本实施例不限制用户面部特征点的特定动作的具体表现形式、用户面部特征点的特定动作所对应的鼠标键值以及计算机设备所执行的具体操作等等。
可选的,本实施例的计算机设备的控制装置还可以包括:用于采集声音信号的装置(下述简称为“声音信号采集装置”,图中未示出)以及用于若该声音信号对应有相应的鼠标键值,则根据所述目标位置以及该鼠标键值触发计算机设备执行相应的操作的装置(下述简称为“第四触发装置”,图中未示出)。
一个具体的例子,第四触发装置可以预先设置预定文字与鼠标键值的对应关系,在用户使用计算机设备且光标定位模型确定出计算机设备光标的目标位置时,声音信号采集装置可以采集用户的声音信号,并对采集的声音信号进行语音识别处理,进而声音信号采集装置可以根据语音识别处理结果进行关键字提取处理,第四触发装置可以根据预先设置的对应关系判断提取出的关键字是否属于预定文字,在第四触发装置判断出提取出的关键字属于预定文字的情况下,第四触发装置可以根据该预定文字对应的鼠标键值以及光标的目标位置触发计算机设备执行相应的操作。上述预定文字可以为“鼠标左键单击”、“鼠标左键双击”或者“鼠标滚轮滚动”等,即上述对应关系可以为“鼠标左键单击”对应鼠标左键单击的键值及“鼠标左键双击”对应鼠标左键双击的键值等。上述计算机设备执行的操作可以为点击相应的按钮或者屏幕当前显示页面滚动等等。本实施例不限制预定文字的具体内容、预定文字对应的鼠标键值以及计算机设备所执行的具体操作等等。
需要注意的是,本发明可以在软件和/或者软件与硬件的组合体中被实施,例如,本发明的各个装置可采用专用集成电路(ASIC)或者任何其他类似硬件设备来实现。在一个实施例中,本发明的软件程序可以通过处理器执行以实现上文所述步骤或功能。同样地,本发明的软件程序(包括相关的数据结构)可以被存储到计算机可读记录介质中,例如,RAM存储器、磁或者光驱动器或软磁盘及类似设备。另外,本发明的一些步骤或功能可采用硬件来实现,例如,作为与处理器配合从而执行各个步骤或功能的电路。
对于本领域技术人员而言,显然,本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一方面来看,均应该将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明来限定,因此,旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应该将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一以及第二等词语用来表示名称,而并不表示任何特定顺序。
虽然前面特别示出并且描述了示例性实施例,但是本领域技术人员将会理解的是,在不背离权利要求书的精神和范围的情况下,在其形式和细节方面可以有所变化。这里所寻求的保护在所附权利要求书中做了阐述。

Claims (20)

1.一种计算机设备的控制方法,其中,该方法包括以下步骤:
根据摄像头摄取的图像获取用户面部特征点在所述图像中的位置信息;
根据所述位置信息计算用户面部与计算机设备屏幕之间的距离以及用户面部坐标系的Z轴方向,其中,所述Z轴为用户面部坐标系中垂直于用户面部所在平面的法向坐标轴;
根据所述距离以及Z轴方向计算所述Z轴与计算机设备屏幕的交点;
根据所述交点计算所述计算机设备光标的目标位置;
将计算机设备的光标移动到所述目标位置。
2.根据权利要求1所述的方法,其中,所述面部特征点包括:双眼以及嘴部。
3.根据权利要求1所述的方法,其中,所述根据摄像头摄取的图像获取用户面部特征点在所述图像中的位置信息的步骤包括:
根据第一摄像头和第二摄像头分别摄取的第一图像和第二图像获取用户面部特征点在所述第一图像中的位置信息以及用户面部特征点在所述第二图像中的位置信息。
4.根据权利要求1所述的方法,其中,所述方法还包括:
在接收到基于非接触方式控制光标位置的命令时,控制执行所述位置信息的获取操作;
在接收到停止基于非接触方式控制光标位置的命令时,控制停止执行所述位置信息的获取操作。
5.根据权利要求4所述的方法,其中:
所述基于非接触方式控制光标位置的命令包括:基于快捷键产生的命令、基于语音产生的命令以及基于用户头部的特定动作产生的命令中的至少一个;
所述停止基于非接触方式控制光标位置的命令包括:基于快捷键产生的命令、基于语音产生的命令以及基于用户头部的特定动作产生的命令中的至少一个。
6.根据权利要求1所述的方法,其中,所述用户面部坐标系包括:以用户的双眼和嘴部所形成的等腰三角形的中心为原点,以所述等腰三角形所在平面上的过原点的法向量为Z轴的坐标系。
7.根据权利要求1所述的方法,其中,所述方法还包括:
根据摄像头的设置参数建立光标定位模型;
获取所述用户的样本数据;
利用所述样本数据对所述光标定位模型进行训练;
且所述训练获得的光标定位模型用于执行所述计算距离以及Z轴方向的步骤、所述计算交点的步骤以及所述确定目标位置的步骤。
8.根据权利要求7所述的方法,其中,所述方法还包括:
对摄像头摄取的图像进行面部识别;
根据面部识别结果确定当前使用计算机设备的用户;
确定所述当前使用计算机设备的用户对应的光标定位模型。
9.根据权利要求1至8中任一权利要求所述的方法,其中,所述方法还包括:
根据摄像头摄取的图像确定用户面部特征点的动作;
若所述动作对应有相应的鼠标键值,则根据所述目标位置以及所述鼠标键值触发计算机设备执行相应的操作。
10.根据权利要求1至8中任一权利要求所述的方法,其中,所述方法还包括:
采集声音信号;
若所述声音信号对应有相应的鼠标键值,则根据所述目标位置以及所述鼠标键值触发计算机设备执行相应的操作。
11.一种计算机设备的控制装置,其中,包括:
位置信息获取装置,用于根据摄像头摄取的图像获取用户面部特征点在所述图像中的位置信息的装置;
距离和方向计算装置,用于根据所述位置信息计算用户面部与计算机设备屏幕之间的距离以及用户面部坐标系的Z轴方向的装置,其中所述Z轴为用户面部坐标系中垂直于用户面部所在平面的法向坐标轴;
交点计算装置,用于根据所述距离以及Z轴方向计算所述Z轴与计算机设备屏幕的交点的装置;
目标位置计算装置,用于根据所述交点计算所述计算机设备光标的目标位置的装置;
光标移动装置,用于将计算机设备的光标移动到所述目标位置的装置。
12.根据权利要求11所述的计算机设备的控制装置,其中,所述面部特征点包括:双眼以及嘴部。
13.根据权利要求11所述的计算机设备的控制装置,其中,所述位置信息获取装置具体用于根据第一摄像头和第二摄像头分别摄取的第一图像和第二图像获取用户面部特征点在所述第一图像中的位置信息以及用户面部特征点在所述第二图像中的位置信息。
14.根据权利要求11所述的计算机设备的控制装置,其中,所述计算机设备的控制装置还包括:
第一触发装置,用于在接收到基于非接触方式控制光标位置的命令时,控制位置信息获取装置执行所述位置信息的获取操作的装置;
第二触发装置,用于在接收到停止基于非接触方式控制光标位置的命令时,控制位置信息获取装置停止执行所述位置信息的获取操作的装置。
15.根据权利要求14所述的计算机设备的控制装置,其中:
所述基于非接触方式控制光标位置的命令包括:基于快捷键产生的命令、基于语音产生的命令以及基于用户头部的特定动作产生的命令中的至少一个;
所述停止基于非接触方式控制光标位置的命令包括:基于快捷键产生的命令、基于语音产生的命令以及基于用户头部的特定动作产生的命令中的至少一个。
16.根据权利要求11所述的计算机设备的控制装置,其中,所述用户面部坐标系包括:以用户的双眼和嘴部所形成的等腰三角形的中心为原点,以所述等腰三角形所在平面上的过原点的法向量为Z轴的坐标系。
17.根据权利要求11所述的计算机设备的控制装置,其中,所述计算机设备的控制装置还包括:
模型建立装置,用于根据摄像头的设置参数建立光标定位模型的装置;
样本数据获取装置,用于获取所述用户的样本数据的装置;
模型训练装置,用于利用所述样本数据对所述光标定位模型进行训练的装置;
且所述训练获得的光标定位模型包括:距离和方向计算装置、交点计算装置以及目标位置计算装置。
18.根据权利要求17所述的计算机设备的控制装置,其中,所述计算机设备的控制装置还包括:
面部识别装置,用于对摄像头摄取的图像进行面部识别的装置;
模型确定装置,用于根据面部识别结果确定当前使用计算机设备的用户所对应的光标定位模型的装置。
19.根据权利要求11至18中任一权利要求所述的计算机设备的控制装置,其中,所述计算机设备的控制装置还包括:
动作识别装置,用于根据摄像头摄取的图像确定用户面部特征点的动作的装置;
第三触发装置,用于若所述动作对应有相应的鼠标键值,则根据所述目标位置以及所述鼠标键值触发计算机设备执行相应的操作的装置。
20.根据权利要求11至18中任一权利要求所述的计算机设备的控制装置,其中,所述计算机设备的控制装置还包括:
声音信号采集装置,用于采集声音信号的装置;
第四触发装置,用于若所述声音信号对应有相应的鼠标键值,则根据所述目标位置以及所述鼠标键值触发计算机设备执行相应的操作的装置。
CN201510609829.6A 2015-09-22 2015-09-22 计算机设备的控制方法和装置 Active CN106547339B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510609829.6A CN106547339B (zh) 2015-09-22 2015-09-22 计算机设备的控制方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510609829.6A CN106547339B (zh) 2015-09-22 2015-09-22 计算机设备的控制方法和装置

Publications (2)

Publication Number Publication Date
CN106547339A true CN106547339A (zh) 2017-03-29
CN106547339B CN106547339B (zh) 2020-03-20

Family

ID=58364511

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510609829.6A Active CN106547339B (zh) 2015-09-22 2015-09-22 计算机设备的控制方法和装置

Country Status (1)

Country Link
CN (1) CN106547339B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109977727A (zh) * 2017-12-27 2019-07-05 广东欧珀移动通信有限公司 视力保护方法、装置、存储介质及移动终端
CN115291733A (zh) * 2022-09-28 2022-11-04 宁波均联智行科技股份有限公司 一种光标控制方法及装置
US11630639B2 (en) 2020-12-08 2023-04-18 Samsung Electronics Co., Ltd. Control method of electronic device using a plurality of sensors and electronic device thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101201695A (zh) * 2006-12-26 2008-06-18 谢振华 一种基于眼部区域运动特征提取与跟踪的鼠标系统
CN101697199A (zh) * 2009-08-11 2010-04-21 北京盈科成章科技有限公司 头面部动作检测方法及应用该方法操控计算机的助残系统
TW201237674A (en) * 2011-03-10 2012-09-16 Nat Univ Chung Hsing Device and method for controlling mouse cursor by head
US20130169530A1 (en) * 2011-12-29 2013-07-04 Khalifa University Of Science And Technology & Research (Kustar) Human eye controlled computer mouse interface
CN104731340A (zh) * 2015-03-31 2015-06-24 努比亚技术有限公司 光标位置确定方法及终端设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101201695A (zh) * 2006-12-26 2008-06-18 谢振华 一种基于眼部区域运动特征提取与跟踪的鼠标系统
CN101697199A (zh) * 2009-08-11 2010-04-21 北京盈科成章科技有限公司 头面部动作检测方法及应用该方法操控计算机的助残系统
TW201237674A (en) * 2011-03-10 2012-09-16 Nat Univ Chung Hsing Device and method for controlling mouse cursor by head
US20130169530A1 (en) * 2011-12-29 2013-07-04 Khalifa University Of Science And Technology & Research (Kustar) Human eye controlled computer mouse interface
CN104731340A (zh) * 2015-03-31 2015-06-24 努比亚技术有限公司 光标位置确定方法及终端设备

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109977727A (zh) * 2017-12-27 2019-07-05 广东欧珀移动通信有限公司 视力保护方法、装置、存储介质及移动终端
US11630639B2 (en) 2020-12-08 2023-04-18 Samsung Electronics Co., Ltd. Control method of electronic device using a plurality of sensors and electronic device thereof
CN115291733A (zh) * 2022-09-28 2022-11-04 宁波均联智行科技股份有限公司 一种光标控制方法及装置
CN115291733B (zh) * 2022-09-28 2022-12-27 宁波均联智行科技股份有限公司 一种光标控制方法及装置

Also Published As

Publication number Publication date
CN106547339B (zh) 2020-03-20

Similar Documents

Publication Publication Date Title
Lv et al. Touch-less interactive augmented reality game on vision-based wearable device
CN107491258A (zh) 用于在分屏模式下操纵窗口的设备、方法和图形用户界面
US20200357155A1 (en) Device, method, and graphical user interface for presenting cgr files
CN107861682A (zh) 虚拟对象的移动控制方法和装置
CN103440033B (zh) 一种基于徒手和单目摄像头实现人机交互的方法和装置
CN102939575A (zh) 墨水呈现
RU2667720C1 (ru) Способ имитационного моделирования и управления виртуальной сферой в мобильном устройстве
CN110166842A (zh) 一种视频文件操作方法、装置和存储介质
CN104516499A (zh) 利用用户接口的事件的设备和方法
CN109215037A (zh) 目标图像分割方法、装置及终端设备
CN107608551A (zh) 触摸操作响应方法及装置
CN106708255A (zh) 虚拟界面交互控制方法及系统
CN108776544A (zh) 增强现实中的交互方法及装置、存储介质、电子设备
US10846901B2 (en) Conversion of 2D diagrams to 3D rich immersive content
CN106547339A (zh) 计算机设备的控制方法和装置
CN111467803A (zh) 游戏中的显示控制方法及装置、存储介质、电子设备
CN106104692A (zh) 精彩部分视频分段的排序
Liu et al. Trampoline motion decomposition method based on deep learning image recognition
CN106984044A (zh) 用于启动预设流程的方法及设备
WO2023130808A1 (zh) 动画帧的显示方法、装置、设备及存储介质
Niccolò et al. Designing natural gesture interaction for archaeological data in immersive environments
WO2023011035A1 (zh) 虚拟道具的显示方法、装置、终端及存储介质
CN106855749A (zh) 一种输入法的实现方法、装置和设备
CN108829329A (zh) 一种操作对象展示方法、装置和可读介质
CN114327063A (zh) 目标虚拟对象的交互方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant