手持设备上用户操作模式的识别方法和手持设备
技术领域
本发明涉及人机交互技术领域,特别是涉及一种手持设备上用户操作模式的识别方法以及应用该方法的手持设备。
背景技术
随着科技的发展,大屏幕触摸屏的手持设备已成为主流,其在展现更多内容以及视觉体验方面表现了出色的优势。当然,对大屏幕手持设备的触控操作也面临着极大的挑战,当用户欲单手操作如此较大的持设备屏幕时,显示屏的很多区域单手难以触碰到,故用户单手操作当前大屏幕手机会有一些不便。在单手握手持设备时,有些用户喜欢用左手握手持设备,有些用户喜欢用右手握手持设备,即每一用户握手持设备的操作模式不同。因此,如果想提高用户操作大屏幕手持设备的便利性就需要先了解用户握手持设备的的操作模式。
对此,为了能够区分用户握手持设备的操作模式,目前的判断方案均是通过在手持设备的侧面或背面增加传感器用于检测用户握手持设备的操作模式。但是,该方案涉及到有硬件加装问题,这容易增加硬件成本,从而加大设计成本。
发明内容
本发明主要解决的技术问题是提供一种手持设备上用户操作模式的识别方法和手持设备,能够在不需要额外硬件的情况下快速且准确地识别用户的操作模式,有效降低成本。
为解决上述技术问题,本发明采用的一个技术方案是:提供一种手持设备上用户操作模式的识别方法,该方法包括:利用手持设备的前置摄像装置获取用户的面部图像,其中面部图像是包含用户的面部的图像;从用户的面部图像中获取用户的面部图像的第一特征;将用户的面部图像的第一特征与用户的面部图像的基准特征进行比较,其中用户的面部图像的基准特征是从用户的面部居中的面部图像中获取的;根据比较结果,识别用户的操作模式,操作模式包括:左手操作模式和右手操作模式。
其中,用户的面部图像的第一特征是用户的面部图像中两眼之间的连线与水平线的夹角,用户的面部图像的基准特征是用户的面部居中的面部图像中两眼之间的连线与水平线的夹角;将获取的用户的面部图像的第一特征与已保存的用户的面部图像的基准特征进行比较,包括:将用户的面部图像中两眼之间的连线与水平线的夹角与用户的面部居中的面部图像中两眼之间的连线与水平线的夹角进行比较;根据比较结果,识别用户的操作模式,包括:若用户的面部图像中两眼之间的连线与水平线的夹角小于用户的面部居中的面部图像中两眼之间的连线与水平线的夹角,则识别出用户的操作模式是左手操作模式,若用户的面部图像中两眼之间的连线与水平线的夹角大于用户的面部居中的面部图像中两眼之间的连线与水平线的夹角,则识别出用户的操作模式是右手操作模式。
其中,用户的面部图像的第一特征是用户的面部图像中面部的边距比例,用户的面部图像的基准特征是用户的面部居中的面部图像中面部的边距比例;将获取的用户的面部图像的第一特征与已保存的用户的面部图像的基准特征进行比较,包括:将获取的用户的面部图像中面部的边距比例与已保存的用户的面部居中的面部图像中面部的边距比例进行比较;根据比较结果,识别用户的操作模式,包括:若用户的面部图像中面部的边距比例与已保存的用户的面部居中的面部图像中面部的边距比例之间的差异大于预设的左手操作模式的阈值,则识别出用户的操作模式是左手操作模式,若用户的面部图像中面部的边距比例与已保存的用户的面部居中的面部图像中面部的边距比例之间的差异大于预设的右手操作模式的阈值,则识别出用户的操作模式是右手操作模式。
其中,用户的面部图像的第一特征包括用户的面部图像中面部的左边距比例、用
户的面部图像中面部的右边距比例以及用户的面部图像中两眼之间的连线与水平线的夹
角,用户的面部图像的基准特征包括用户的面部居中的面部图像中面部的左边距比例、用
户的面部居中的面部图像中面部的右边距比例以及用户的面部居中的面部图像中两眼之
间的连线与水平线的夹角;将获取的用户的面部图像的第一特征与已保存的用户的面部图
像的基准特征进行比较,包括:通过比较值公式计算比较值R,其中,比较值公式为a、b、c分别为用户的面部图像中面部的
左边距比例、用户的面部图像中面部的右边距比例、用户的面部图像中两眼之间的连线与
水平线的夹角,A、B、C分别为用户的面部居中的面部图像中面部的左边距比例、用户的面部
居中的面部图像中面部的右边距比例以及用户的面部居中的面部图像中两眼之间的连线
与水平线的夹角,TA1、TB1、TC1分别为左手操作模式下面部的左边距比例阈值、面部的右边距
比例阈值、两眼之间的连线与水平线的夹角阈值,TA2、TB2、TC2分别为右手操作模式下面部的
左边距比例阈值、面部的右边距比例阈值、两眼之间的连线与水平线的夹角阈值,WA、WB、WC
分别为面部的左边距比例的特征权重值、面部的右边距比例的特征权重值、两眼之间的连
线与水平线的夹角的特征权重值;根据比较结果,识别用户的操作模式,包括:若比较值R小
于0,则识别出用户的操作模式是左手操作模式,若比较值R大于0,则识别出用户的操作模
式是右手操作模式。
其中,根据比较结果,识别用户的操作模式之后,还包括:根据用户的操作模式,调整手持设备操作界面的显示模式。
为解决上述技术问题,本发明采用的另一个技术方案是:提供一种手持设备,其包括:面部图像获取模块,用于利用手持设备的前置摄像装置获取用户的面部图像,其中面部图像是包含用户的面部的图像;图像特征获取模块,用于从用户的面部图像中获取用户的面部图像的第一特征;图像特征比较模块,用于将用户的面部图像的第一特征与用户的面部图像的基准特征进行比较,其中用户的面部图像的基准特征是从用户的面部居中的面部图像中获取的;操作模式识别模块,用于根据比较结果,识别用户的操作模式,操作模式包括:左手操作模式和右手操作模式。
其中,用户的面部图像的第一特征是用户的面部图像中两眼之间的连线与水平线的夹角,用户的面部图像的基准特征是用户的面部居中的面部图像中两眼之间的连线与水平线的夹角;图像特征比较模块用于将用户的面部图像中两眼之间的连线与水平线的夹角与用户的面部居中的面部图像中两眼之间的连线与水平线的夹角进行比较;操作模式识别模块用于在用户的面部图像中两眼之间的连线与水平线的夹角小于用户的面部居中的面部图像中两眼之间的连线与水平线的夹角时识别出用户的操作模式是左手操作模式,操作模式识别模块用于在用户的面部图像中两眼之间的连线与水平线的夹角大于用户的面部居中的面部图像中两眼之间的连线与水平线的夹角时识别出用户的操作模式是右手操作模式。
其中,用户的面部图像的第一特征是用户的面部图像中面部的边距比例,用户的面部图像的基准特征是用户的面部居中的面部图像中面部的边距比例;图像特征比较模块用于将获取的用户的面部图像中面部的边距比例与已保存的用户的面部居中的面部图像中面部的边距比例进行比较;操作模式识别模块用于在用户的面部图像中面部的边距比例与已保存的用户的面部居中的面部图像中面部的边距比例之间的差异大于预设的左手操作模式的阈值时识别出用户的操作模式是左手操作模式,操作模式识别模块用于在用户的面部图像中面部的边距比例与已保存的用户的面部居中的面部图像中面部的边距比例之间的差异大于预设的右手操作模式的阈值时识别出用户的操作模式是右手操作模式。
其中,用户的面部图像的第一特征包括用户的面部图像中面部的左边距比例、用
户的面部图像中面部的右边距比例以及用户的面部图像中两眼之间的连线与水平线的夹
角,用户的面部图像的基准特征包括用户的面部居中的面部图像中面部的左边距比例、用
户的面部居中的面部图像中面部的右边距比例以及用户的面部居中的面部图像中两眼之
间的连线与水平线的夹角;图像特征比较模块用于通过比较值公式计算比较值R,其中,比
较值公式为a、b、c分别为用户的面部图
像中面部的左边距比例、用户的面部图像中面部的右边距比例、用户的面部图像中两眼之
间的连线与水平线的夹角,A、B、C分别为用户的面部居中的面部图像中面部的左边距比例、
用户的面部居中的面部图像中面部的右边距比例以及用户的面部居中的面部图像中两眼
之间的连线与水平线的夹角,TA1、TB1、TC1分别为左手操作模式下面部的左边距比例阈值、面
部的右边距比例阈值、两眼之间的连线与水平线的夹角阈值,TA2、TB2、TC2分别为右手操作模
式下面部的左边距比例阈值、面部的右边距比例阈值、两眼之间的连线与水平线的夹角阈
值,WA、WB、WC分别为面部的左边距比例的特征权重值、面部的右边距比例的特征权重值、两
眼之间的连线与水平线的夹角的特征权重值;操作模式识别模块用于在比较值R小于0时识
别出用户的操作模式是左手操作模式,操作模式识别模块用于在比较值R大于0时识别出用
户的操作模式是右手操作模式。
其中,手持设备还包括调整模块,用于根据用户的操作模式调整手持设备操作界面的显示模式。
本发明的有益效果是:区别于现有技术的情况,本发明利用手持设备的前置摄像装置获取用户的面部图像;从用户的面部图像中获取用户的面部图像的第一特征;将用户的面部图像的第一特征与用户的面部图像的基准特征进行比较;根据比较结果识别用户的操作模式是左手操作模式还是右手操作模式。本发明能够在不需要额外硬件的情况下快速且准确地识别用户的操作模式是左手操作模式还是右手操作模式,有效降低成本。
附图说明
图1是本发明手持设备上用户操作模式的识别方法的第一实施例的流程示意图;
图2是用户的面部居中的面部图像的示意图;
图3是前置摄像装置获取用户的面部图像的示意图;
图4是右手操作模式下的手持设备操作界面的显示模式示意图;
图5是左手操作模式下的手持设备操作界面的显示模式示意图;
图6是本发明手持设备上用户操作模式的识别方法的第二实施例的流程示意图;
图7是本发明手持设备上用户操作模式的识别方法的第三实施例的流程示意图;
图8是本发明手持设备上用户操作模式的识别方法的第四实施例的流程示意图;
图9是本发明手持设备上用户操作模式的识别方法的第五实施例的流程示意图;
图10是本发明手持设备的结构示意图。
具体实施方式
下面结合附图和实施方式对本发明进行详细说明。
如图1所示,图1是本发明手持设备上用户操作模式的识别方法的第一实施例的流程示意图。该方法包括以下步骤:
步骤S101:利用手持设备的前置摄像装置获取用户的面部图像。其中,面部图像是包含用户的面部的图像,即面部图像包含面部五官全部特征的图像,如两眼之间的连线与水平线的夹角、面部距离面部图像的左边距离、面部距离面部图像的右边距离、鼻子所处面部图像的位置,嘴巴所处面部图像的位置以及耳朵所处面部图像的位置等等。
在步骤S101之前,还包括以下步骤:
A:利用手持设备的前置摄像装置获取用户的面部居中的面部图像;
B:从用户的面部居中的面部图像中获取用户的面部图像的基准特征。
其中,通过对用户的面部居中的面部图像进行二值化、规一化、降噪、提取特征以及特征值标准化等步骤处理来获取用户的面部图像的基准特征。用户的面部图像的基准特征可以是用户的面部居中的面部图像中两眼之间的连线与水平线的夹角、面部的左边距比例、面部的右边距比例、鼻子所处面部图像的位置,嘴巴所处面部图像的位置以及耳朵所处面部图像的位置。当然,在其他实施例中,用户的面部图像的基准特征也可以是从大量样本图像中获取的。
步骤S102:从用户的面部图像中获取用户的面部图像的第一特征。其中,通过对用户的面部图像进行二值化、规一化、降噪、提取特征以及特征值标准化等步骤处理来获取用户的面部图像的第一特征。第一特征可以是面部图像中两眼之间的连线与水平线的夹角、面部的左边距比例、面部的右边距比例、鼻子所处面部图像的位置,嘴巴所处面部图像的位置以及耳朵所处面部图像的位置。
步骤S103:将用户的面部图像的第一特征与用户的面部图像的基准特征进行比较。
步骤S104:根据比较结果,识别用户的操作模式。其中,操作模式包括左手操作模式和右手操作模式。
本实施例利用手持设备本身所获取的面部图像的第一特征与用户的面部图像的基准特征进行比较,能够在不需要额外硬件的情况下快速且准备识别出用户的操作模式是左手操作模式还是右手操作模式,从而能够有效降低成本。
如图2-图6所示,图2是用户的面部居中的面部图像的示意图,图3是前置摄像装置获取用户的面部图像的示意图,图4是右手操作模式下的手持设备操作界面的显示模式示意图,图5是左手操作模式下的手持设备操作界面的显示模式示意图,图6是本发明手持设备上用户操作模式的识别方法的第二实施例的流程示意图。该方法包括以下步骤:
步骤S201:利用手持设备的前置摄像装置获取用户的面部图像。
步骤S202:从用户的面部图像中获取用户的面部图像的第一特征,其中第一特征是用户的面部图像中两眼之间的连线与水平线的夹角β。
步骤S203:将用户的面部图像中两眼之间的连线与水平线的夹角β与用户的面部居中的面部图像中两眼之间的连线与水平线的夹角α进行比较。其中,用户的面部居中的面部图像中两眼之间的连线优选与水平线平行,即用户的面部居中的面部图像中两眼之间的连线与水平线的夹角α为0度。
步骤S204:若用户的面部图像中两眼之间的连线与水平线的夹角β小于用户的面部居中的面部图像中两眼之间的连线与水平线的夹角α,则识别出用户的操作模式是左手操作模式,若用户的面部图像中两眼之间的连线与水平线的夹角β大于用户的面部居中的面部图像中两眼之间的连线与水平线的夹角α,则识别出用户的操作模式是右手操作模式。
步骤S205:根据用户的操作模式,调整手持设备操作界面的显示模式。
在步骤S205中,如识别出用户的操作模式是右手操作模式,则将手持设备的屏幕中的虚拟控制按键a设置在位置A上,将手持设备的屏幕中的虚拟控制按键b设置在位置B上,如图3所示。如识别出用户的操作模式是左手操作模式,则将手持设备的屏幕中的虚拟控制按键a设置在位置B上,将手持设备的屏幕中的虚拟控制按键b设置在位置A上,如图4所示。当然,本发明并不限制上述的虚拟控制按键,还可以是其他控制按键或者显示界面,如在右手操作模式下手持设备的屏幕显示第一界面,在左手操作模式下手持设备的屏幕显示第二界面。
如图2、图3、图4、图5、图7所示,图7是本发明手持设备上用户操作模式的识别方法的第三实施例的流程示意图。该方法包括以下步骤:
步骤S301:利用手持设备的前置摄像装置获取用户的面部图像。
步骤S302:从用户的面部图像中获取用户的面部图像的第一特征。其中第一特征是用户的面部图像中面部的边距比例。
在步骤S302中,用户的面部图像中面部的边距比例可以为用户的面部图像中面部的左边距比例L1/L3、用户的面部图像中面部的右边距比例L2/L3,或左边距比例与右边距比例的比例L1/L2。
步骤S303:将获取的用户的面部图像中面部的边距比例与已保存的用户的面部居中的面部图像中面部的边距比例进行比较。
在步骤S303中,用户的面部居中的面部图像中面部的边距比例可以为用户的面部居中的面部图像中面部的左边距比例L4/L6、用户的面部居中的面部图像中面部的右边距比例L5/L6,或用户的面部居中的面部图像中面部的左边距比例与用户的面部居中的面部图像中面部的右边距比例的比例L4/L5。
步骤S304:若用户的面部图像中面部的边距比例与已保存的用户的面部居中的面部图像中面部的边距比例之间的差异大于预设的左手操作模式的阈值,则识别出用户的操作模式是左手操作模式,若用户的面部图像中面部的边距比例与已保存的用户的面部居中的面部图像中面部的边距比例之间的差异大于预设的右手操作模式的阈值,则识别出用户的操作模式是右手操作模式。
其中,左手操作模式的阈值为(TA1-TA2),右手操作模式的阈值为(TB1-TB2),TA1为左手操作模式下面部的左边距比例阈值,TA2为右手操作模式下面部的左边距比例阈值,TB1为左手操作模式下面部的右边距比例阈值,TB2为右手操作模式下面部的右边距比例阈值。
在步骤S304中,如用户的面部图像中面部的边距比例为用户的面部图像中面部的左边距比例L1/L3,用户的面部居中的面部图像中面部的边距比例为用户的面部居中的面部图像中面部的左边距比例L4/L6,若用户的面部图像中面部的左边距比例L1/L3与已保存的用户的面部居中的面部图像中面部的左边距比例L4/L6之间的差异大于预设的左手操作模式的阈值(TA1-TA2),则识别出用户的操作模式是左手操作模式,若用户的面部图像中面部的左边距比例L1/L3与已保存的用户的面部居中的面部图像中面部的左边距比例L4/L6之间的差异大于预设的右手操作模式的阈值(TB1-TB2),则识别出用户的操作模式是右手操作模式。
在步骤S304中,如用户的面部图像中面部的边距比例为用户的面部图像中面部的右边距比例L2/L3,用户的面部居中的面部图像中面部的边距比例为用户的面部居中的面部图像中面部的右边距比例L5/L6,若用户的面部图像中面部的右边距比例L2/L3与已保存的用户的面部居中的面部图像中面部的右边距比例L5/L6之间的差异大于预设的左手操作模式的阈值(TA1-TA2),则识别出用户的操作模式是左手操作模式,若用户的面部图像中面部的右边距比例L2/L3与已保存的用户的面部居中的面部图像中面部的右边距比例L5/L6之间的差异大于预设的右手操作模式的阈值(TB1-TB2),则识别出用户的操作模式是右手操作模式。
在步骤S304中,如用户的面部图像中面部的边距比例为用户的面部图像中面部的左边距比例与右边距比例的比例L1/L2,用户的面部居中的面部图像中面部的边距比例为用户的面部居中的面部图像中面部的左边距比例与右边距比例的比例L4/L5,若用户的面部图像中面部的左边距比例与右边距比例的比例L1/L2与已保存的用户的面部居中的面部图像中面部的左边距比例与右边距比例的比例L4/L5之间的差异大于预设的左手操作模式的阈值(TA1-TA2),则识别出用户的操作模式是左手操作模式,若用户的面部图像中面部的左边距比例与右边距比例的比例L1/L2与已保存的用户的面部居中的面部图像中面部的左边距比例与右边距比例的比例L4/L5之间的差异大于预设的右手操作模式的阈值(TB1-TB2),则识别出用户的操作模式是右手操作模式。
当然,在其他实施例中,用户的面部图像中面部的边距比例以及用户的面部居中的面部图像中面部的边距比例还可以是其他五官位置的比例,如嘴巴或鼻子等。
步骤S305:根据用户的操作模式,调整手持设备操作界面的显示模式。其中,步骤S305与上述步骤S205的内容相同,在此就不一一赘述。
如图2、图3、图4、图5、图8所示,图8是本发明手持设备上用户操作模式的识别方法的第四实施例的流程示意图。该方法包括以下步骤:
步骤S401:利用手持设备的前置摄像装置获取用户的面部图像。
步骤S402:从用户的面部图像中获取用户的面部图像的第一特征。其中第一特征包括用户的面部图像中面部的左边距比例L1/L3、用户的面部图像中面部的右边距比例L2/L3以及用户的面部图像中两眼之间的连线与水平线的夹角β。
步骤S403:通过比较值公式计算比较值R。
在本实施例中,比较值公式为
a、b、c分别为用户的面部图像中面部的左边距比例L1/L3、用户的面部图像中面部的右边距
比例L2/L3、用户的面部图像中两眼之间的连线与水平线的夹角β,A、B、C分别为用户的面部
居中的面部图像中面部的左边距比例L4/L6、用户的面部居中的面部图像中面部的右边距
比例L5/L6以及用户的面部居中的面部图像中两眼之间的连线与水平线的夹角α,TA1、TB1、
TC1分别为左手操作模式下面部的左边距比例阈值、面部的右边距比例阈值、两眼之间的连
线与水平线的夹角阈值,TA2、TB2、TC2分别为右手操作模式下面部的左边距比例阈值、面部的
右边距比例阈值、两眼之间的连线与水平线的夹角阈值,WA、WB、WC分别为面部的左边距比例
的特征权重值、面部的右边距比例的特征权重值、两眼之间的连线与水平线的夹角的特征
权重值。其中,TA1、TB1、TC1、TA2、TB2、TC2、WA、WB、WC分别从大量数据实验中获得的。
当然,在其他实施例中,比较值公式还可以为其中a为用户的面部图像中面部的左边距比例L1/L3、用户的面部图像中面部的右边距比例L2/L3或用户的面部图像中两眼之间的连线与水平线的夹角β中任两种,A为用户的面部居中的面部图像中面部的左边距比例L4/L6、用户的面部居中的面部图像中面部的右边距比例L5/L6以及用户的面部居中的面部图像中两眼之间的连线与水平线的夹角α中任两种,TA1为左手操作模式下面部的左边距比例阈值、面部的右边距比例阈值、两眼之间的连线与水平线的夹角阈值中任两种,TA2为右手操作模式下面部的左边距比例阈值、面部的右边距比例阈值、两眼之间的连线与水平线的夹角阈值中任两种,WA为面部的左边距比例的特征权重值、面部的右边距比例的特征权重值、两眼之间的连线与水平线的夹角的特征权重值中任两种。即应用两个五官特征计算比较值R。如使用五官特征中的左边距和右边距,则a为用户的面部图像中面部的左边距比例L1/L3,b为用户的面部图像中面部的右边距比例L2/L3,A也为用户的面部居中的面部图像中面部的左边距比例L4/L6,B也为用户的面部居中的面部图像中面部的右边距比例L5/L6,其他依次与上述相同。
当然,在其他实施例中,比较值公式还可以为即应用一个五官特征计算比较值R。或者更多,如应用四个五官特征计算比较值R或应用五个五官特征计算比较值R等。
步骤S404:若比较值R小于0,则识别出用户的操作模式是左手操作模式,若比较值R大于0,则识别出用户的操作模式是右手操作模式。其中,当比较值R为0时,则无法识别用户的操作模式。
步骤S405:根据用户的操作模式,调整手持设备操作界面的显示模式。其中,步骤S405与上述步骤S205的内容相同,在此就不一一赘述。
进一步地参考图9,图9是本发明手持设备上用户操作模式的识别方法的第五实施例的流程示意图。该方法包括以下步骤:
步骤S501:利用手持设备的前置摄像装置获取用户的面部图像。
步骤S502:从用户的面部图像中获取用户的面部图像的第一特征。
步骤S503:将用户的面部图像的第一特征与用户的面部图像的基准特征进行比较。
步骤S504:根据比较结果是否识别出用户的操作模式。
如果根据比较结果可以识别出用户的操作模式,则执行步骤S506:得出用户的操作模式是左手操作模式或右手操作模式。同时执行步骤S507:根据用户的操作模式,调整手持设备操作界面的显示模式。
如果根据比较结果不能识别出用户的操作模式,即无法识别用户的操作模式是左手操作模式或右手操作模式,则执行步骤S505:利用用户触摸手持设备的屏幕时获取的倾斜角度是否识别出用户的操作模式。即在步骤S505中,在用户点击屏幕的瞬时间,通过陀螺仪或者重力仪获取倾斜角度,并通过此倾斜角度来判断是否能够识别出用户的操作模式。如果可以通过此倾斜角度识别出用户的操作模式,则执行步骤S506;如果无法通过倾斜角度识别出用户的操作模式,则执行步骤S501。
如图10所示,图10是本发明手持设备的结构示意图,该手持设备与上述手持设备上用户操作模式的识别方法对应。手持设备包括面部图像获取模块11、图像特征获取模块12、基准特征获取模块13、图像特征比较模块14、角度获取模块15、操作模式识别模块16和调整模块17。
面部图像获取模块11用于利用手持设备的前置摄像装置(未图示)获取用户的面部图像。其中,面部图像获取模块11还用于利用手持设备的前置摄像装置获取用户的面部居中的面部图像。面部图像是包含用户的面部的图像,即面部图像包含面部全部特征的图像,如两眼之间的连线与水平线的夹角、面部距离面部图像的左边距离、面部距离面部图像的右边距离、鼻子所处面部图像的位置,嘴巴所处面部图像的位置以及耳朵所处面部图像的位置等等。
图像特征获取模块12与面部图像获取模块11连接,用于从用户的面部图像中获取用户的面部图像的第一特征。其中第一特征可以是面部图像中两眼之间的连线与水平线的夹角、面部的左边距比例、面部的右边距比例、鼻子所处面部图像的位置,嘴巴所处面部图像的位置以及耳朵所处面部图像的位置。
基准特征获取模块13与面部图像获取模块11连接,用于从用户的面部居中的面部图像中获取用户的面部图像的基准特征。其中用户的面部图像的基准特征可以是用户的面部居中的面部图像中两眼之间的连线与水平线的夹角、面部的左边距比例、面部的右边距比例、鼻子所处面部图像的位置,嘴巴所处面部图像的位置以及耳朵所处面部图像的位置。
图像特征比较模块14与图像特征获取模块12和基准特征获取模块13连接,用于将用户的面部图像的第一特征与用户的面部图像的基准特征进行比较。其中用户的面部图像的基准特征是从用户的面部居中的面部图像中获取的。
角度获取模块15用于在检测到用户触摸手持设备的屏幕时获取手持设备的倾斜角度。
操作模式识别模块16与图像特征比较模块14和角度获取模块15连接,用于根据比较结果,识别用户的操作模式,操作模式包括:左手操作模式和右手操作模式。操作模式识别模块16根据图像特征比较模块14所得出的比较结果无法识别用户的操作模式时,操作模式识别模块16还用于通过角度获取模块15获取的倾斜角度识别用户的操作模式。
调整模块17与操作模式识别模块16连接,用于根据用户的操作模式调整手持设备操作界面的显示模式。如识别出用户的操作模式是右手操作模式,则调整模块17将手持设备的屏幕中的虚拟控制按键a设置在位置A上,调整模块17将手持设备的屏幕中的虚拟控制按键b设置在位置B上,如图3所示。如识别出用户的操作模式是左手操作模式,则调整模块17将手持设备的屏幕中的虚拟控制按键a设置在位置B上,调整模块17将手持设备的屏幕中的虚拟控制按键b设置在位置A上,如图4所示。当然,本发明并不限制上述的虚拟控制按键,还可以是其他控制按键或者显示界面,如在右手操作模式下手持设备的屏幕显示第一界面,在左手操作模式下手持设备的屏幕显示第二界面。
在本实施例中,当用户的面部图像的第一特征为用户的面部图像中两眼之间的连线与水平线的夹角β,用户的面部图像的基准特征为用户的面部居中的面部图像中两眼之间的连线与水平线的夹角α。图像特征比较模块14用于将用户的面部图像中两眼之间的连线与水平线的夹角β与用户的面部居中的面部图像中两眼之间的连线与水平线的夹角α进行比较。操作模式识别模块16用于在用户的面部图像中两眼之间的连线与水平线的夹角β小于用户的面部居中的面部图像中两眼之间的连线与水平线的夹角α时识别出用户的操作模式是左手操作模式,操作模式识别模块16用于在用户的面部图像中两眼之间的连线与水平线的夹角β大于用户的面部居中的面部图像中两眼之间的连线与水平线的夹角α时识别出用户的操作模式是右手操作模式。
在本实施例中,当用户的面部图像的第一特征为用户的面部图像中面部的边距比例,用户的面部图像的基准特征为用户的面部居中的面部图像中面部的边距比例。其中用户的面部图像中面部的边距比例可以为用户的面部图像中面部的左边距比例L1/L3、用户的面部图像中面部的右边距比例L2/L3,或左边距比例与右边距比例的比例L1/L2;用户的面部居中的面部图像中面部的边距比例可以为用户的面部居中的面部图像中面部的左边距比例L4/L6、用户的面部居中的面部图像中面部的右边距比例L5/L6,或用户的面部居中的面部图像中面部的左边距比例与用户的面部居中的面部图像中面部的右边距比例的比例L4/L5。图像特征比较模块14用于将获取的用户的面部图像中面部的边距比例与已保存的用户的面部居中的面部图像中面部的边距比例进行比较。操作模式识别模块16用于在用户的面部图像中面部的边距比例与已保存的用户的面部居中的面部图像中面部的边距比例之间的差异大于预设的左手操作模式的阈值时识别出用户的操作模式是左手操作模式,操作模式识别模块16用于在用户的面部图像中面部的边距比例与已保存的用户的面部居中的面部图像中面部的边距比例之间的差异大于预设的右手操作模式的阈值时识别出用户的操作模式是右手操作模式。
在本实施例中,当用户的面部图像的第一特征包括用户的面部图像中面部的左边
距比例、用户的面部图像中面部的右边距比例以及用户的面部图像中两眼之间的连线与水
平线的夹角,用户的面部图像的基准特征包括用户的面部居中的面部图像中面部的左边距
比例、用户的面部居中的面部图像中面部的右边距比例以及用户的面部居中的面部图像中
两眼之间的连线与水平线的夹角。图像特征比较模块14用于通过比较值公式计算比较值R,
其中,比较值公式为a、b、c分别为用户
的面部图像中面部的左边距比例、用户的面部图像中面部的右边距比例、用户的面部图像
中两眼之间的连线与水平线的夹角,A、B、C分别为用户的面部居中的面部图像中面部的左
边距比例、用户的面部居中的面部图像中面部的右边距比例以及用户的面部居中的面部图
像中两眼之间的连线与水平线的夹角,TA1、TB1、TC1分别为左手操作模式下面部的左边距比
例阈值、面部的右边距比例阈值、两眼之间的连线与水平线的夹角阈值,TA2、TB2、TC2分别为
右手操作模式下面部的左边距比例阈值、面部的右边距比例阈值、两眼之间的连线与水平
线的夹角阈值,WA、WB、WC分别为面部的左边距比例的特征权重值、面部的右边距比例的特征
权重值、两眼之间的连线与水平线的夹角的特征权重值。操作模式识别模块16用于在比较
值R小于0时识别出用户的操作模式是左手操作模式,操作模式识别模块用于在比较值R大
于0时识别出用户的操作模式是右手操作模式。
当然,在其他实施例中,比较值公式还可以为其中a为用户的面部图像中面部的左边距比例L1/L3、用户的面部图像中面部的右边距比例L2/L3或用户的面部图像中两眼之间的连线与水平线的夹角β中任两种,A为用户的面部居中的面部图像中面部的左边距比例L4/L6、用户的面部居中的面部图像中面部的右边距比例L5/L6以及用户的面部居中的面部图像中两眼之间的连线与水平线的夹角α中任两种,TA1为左手操作模式下面部的左边距比例阈值、面部的右边距比例阈值、两眼之间的连线与水平线的夹角阈值中任两种,TA2为右手操作模式下面部的左边距比例阈值、面部的右边距比例阈值、两眼之间的连线与水平线的夹角阈值中任两种,WA为面部的左边距比例的特征权重值、面部的右边距比例的特征权重值、两眼之间的连线与水平线的夹角的特征权重值中任两种。即应用两个五官特征计算比较值R。如使用五官特征中的左边距和右边距,则a为用户的面部图像中面部的左边距比例L1/L3,b为用户的面部图像中面部的右边距比例L2/L3,A也为用户的面部居中的面部图像中面部的左边距比例L4/L6,B也为用户的面部居中的面部图像中面部的右边距比例L5/L6,其他依次与上述相同。另外,比较值公式还可以为即应用一个五官特征计算比较值R。或者更多,如应用四个五官特征计算比较值R或应用五个五官特征计算比较值R。
需要说明的是,本发明的手持设备可以为手机、平板电脑或其他电子产品。
综上所述,本发明利用手持设备的前置摄像装置获取用户的面部图像;从用户的面部图像中获取用户的面部图像的第一特征;将用户的面部图像的第一特征与用户的面部图像的基准特征进行比较;根据比较结果识别用户的操作模式是左手操作模式还是右手操作模式,最后根据用户的操作模式调整手持设备操作界面的显示模式。本发明能够快速且准确地识别用户的操作模式是左手操作模式还是右手操作模式,并根据操作模式进一步调整手持设备操作界面的显示模式,其方案简单易行,仅通过手持设备的软件实现,不需要加装硬件,便于推广,能够有效提升用户的体验同时也降低设计成本。
以上所述仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。