CN111368268A - 用户识别方法、用户识别装置、存储介质与头戴式设备 - Google Patents

用户识别方法、用户识别装置、存储介质与头戴式设备 Download PDF

Info

Publication number
CN111368268A
CN111368268A CN202010131467.5A CN202010131467A CN111368268A CN 111368268 A CN111368268 A CN 111368268A CN 202010131467 A CN202010131467 A CN 202010131467A CN 111368268 A CN111368268 A CN 111368268A
Authority
CN
China
Prior art keywords
user
head
user identification
instruction
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010131467.5A
Other languages
English (en)
Other versions
CN111368268B (zh
Inventor
占文喜
陈彪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN202010131467.5A priority Critical patent/CN111368268B/zh
Publication of CN111368268A publication Critical patent/CN111368268A/zh
Application granted granted Critical
Publication of CN111368268B publication Critical patent/CN111368268B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/316User authentication by observing the pattern of computer usage, e.g. typical user behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Abstract

本公开提供一种用户识别方法、用户识别装置、存储介质与头戴式设备,涉及虚拟现实与增强现实技术领域。其中,所述用户识别方法应用于头戴式设备,所述头戴式设备设置有触摸感应区域;所述方法包括:根据用户在所述触摸感应区域输入的用于用户识别的待识别指令,获取所述待识别指令的操作轨迹;通过将所述操作轨迹和预设轨迹进行对比,得到用户识别结果。本公开可以提高头戴式设备的信息安全性,方案实施过程简单,易于用户操作,且无需增加硬件成本,实用性较高。

Description

用户识别方法、用户识别装置、存储介质与头戴式设备
技术领域
本公开涉及虚拟现实与增强现实技术领域,尤其涉及一种用户识别方法、用户识别装置、计算机可读存储介质与头戴式设备。
背景技术
目前,在VR(Virtual Reality,虚拟现实)、AR(Augmented Reality,增强现实)等领域所使用的头戴式设备上,缺乏有效的信息安全保护机制,例如没有类似于智能手机的锁定与解锁机制,除了机主本人以外,其他人也可以同样使用设备、查看或修改设备中的信息,存在较大的安全隐患。
现有技术中,用户识别大多依赖于特定的硬件装置,例如智能手机在实现用户识别时,离不开内置的指纹识别器、人脸识别模组等,如果移植现有技术中的用户识别方案,则需要在头戴式设备中增加上述硬件装置,从而导致实现成本升高。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开提供了一种用户识别方法、用户识别装置、计算机可读存储介质与头戴式设备,进而至少在一定程度上克服现有技术中头戴式设备缺乏合适的用户识别方案的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的第一方面,提供一种用户识别方法,应用于头戴式设备,所述头戴式设备设置有触摸感应区域;所述方法包括:根据用户在所述触摸感应区域输入的用于用户识别的待识别指令,获取所述待识别指令的操作轨迹;通过将所述操作轨迹和预设轨迹进行对比,得到用户识别结果。
根据本公开的第二方面,提供一种用户识别装置,配置于头戴式设备,所述头戴式设备设置有触摸感应区域;所述装置包括:操作轨迹获取模块,用于根据用户在所述触摸感应区域输入的用于用户识别的待识别指令,获取所述待识别指令的操作轨迹;操作轨迹对比模块,用于通过将所述操作轨迹和预设轨迹进行对比,得到用户识别结果。
根据本公开的第三方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面的用户识别方法及其可能的实现方式。
根据本公开的第四方面,提供一种头戴式设备,包括:处理器;存储器,用于存储所述处理器的可执行指令;以及触摸感应区域;其中,所述处理器配置为经由执行所述可执行指令来执行上述第一方面的用户识别方法及其可能的实现方式。
本公开的技术方案具有以下有益效果:
根据上述用户识别方法、用户识别装置、计算机可读存储介质与头戴式设备,根据用户在触摸感应区域输入的用于用户识别的待识别指令,获取待识别指令的操作轨迹,将操作轨迹和预设轨迹进行对比,得到用户识别结果。一方面,提出了一种在头戴式设备上实现用户识别的方案,可以提高头戴式设备的信息安全性,且方案实施过程简单,易于用户操作。另一方面,通过在触摸传感区域输入待识别指令,利用了头戴式设备上现有的硬件装置,无需增加指纹识别器、人脸识别模组等硬件,因此实现成本较低,实用性较高。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施方式,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本示例性实施方式中增强现实眼镜的架构示意图;
图2示出本示例性实施方式中增强现实眼镜的结构示意图;
图3示出本示例性实施方式中一种用户识别方法的流程图;
图4示出本示例性实施方式中触摸传感器阵列的排布示意图;
图5示出本示例性实施方式中电容式触摸传感器的原理示意图;
图6示出本示例性实施方式中触摸传感器检测各时刻电容值的示意图;
图7示出本示例性实施方式中一种用户识别装置的结构框图;
图8示出本示例性实施方式中用于实现上述方法的计算机可读存储介质的示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
本公开的示例性实施方式提供一种头戴式设备。下面以图1与图2中的增强现实眼镜100为例,对头戴式设备内部的单元构造进行示例性说明。本领域技术人员应当理解,头戴式设备可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件、软件或软件和硬件的组合实现。各部件间的接口连接关系只是示意性示出,并不构成对增强现实眼镜100的结构限定。在另一些实施方式中,头戴式设备也可以采用与图1不同的接口连接方式,或多种接口连接方式的组合。
如图1所示,增强现实眼镜100具体可以包括存储单元110、处理单元120,以及由触摸传感器1701形成的触摸感应区域。
存储单元110用于存储可执行指令,例如可以包括操作系统代码、程序代码,还可以存储程序运行期间所产生的数据,例如程序内的用户数据等。参考图2所示,存储单元110可以设置于两镜片中间的镜体内,也可以设置于其他位置。存储单元110可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(Universal Flash Storage,UFS)等。
处理单元120可以包括中央处理器(Central Processing Unit,CPU)、图形处理器(Graphics Processing Unit,GPU)、应用处理器(Application Processor,AP)、调制解调处理器、图像信号处理器(Image Signal Processor,ISP)、控制器、视频编解码器、数字信号处理器(Digital Signal Processor,DSP)、基带处理器和/或神经网络处理器(Neural-Network Processing Unit,NPU)等。其中,不同的处理器可以作为独立的单元,也可以集成在一个处理单元中。参考图2所示,处理单元120可以设置于两镜片中间的镜体内,也可以设置于其他位置。处理单元120可以执行存储单元110上的可执行指令,以执行相应的程序命令。
一般的,增强现实眼镜100还可以包括显示单元130,用于显示图像,视频等。参考图2所示,显示单元130一般设置为镜片的形式,用户透过镜片看到真实场景,而处理单元120将虚拟影像传输到显示单元130上显示,使用户看到真实和虚拟叠加的影像效果。因此显示单元130可以具备“透视”(See-Through)的功能,既要看到真实的外部世界,也要看到虚拟信息,以实现现实和虚拟的融合与“增强”。在一种可选的实施方式中,如图1所示,显示单元130可以包括微型显示屏(Display)1301与透镜(Lens)1302。微型显示屏1301用于提供显示内容,可以是自发光的有源器件,如发光二极管面板、或具有外部光源照明的液晶显示屏等;透镜1302用于使人眼看到真实场景,从而对真实场景影像和虚拟影像进行叠加。
在一种可选的实施方式中,增强现实眼镜100还可以包括摄像单元140,由镜头、感光元件等部件组成。参考图2所示,其可以位于两镜片中间的位置,当用户佩戴增强现实眼镜100时,摄像单元140朝向用户的正前方,可以捕获前方的静态图像或视频,例如用户在正前方做出手势操作,摄像单元140可以拍摄用户的手势图像。进一步的,如图1所示,摄像单元140可以包括深度摄像头1401,例如可以是TOF(Time Of Flight,飞行时间)摄像头、双目摄像头等,可以检测场景图像中每个部分或每个物体的深度信息(即与增强现实眼镜100的轴向距离),从而得到更加丰富的图像信息,例如在拍摄手势图像后,可以根据手势的深度信息,实现准确的手势识别。
在一种可选的实施方式中,增强现实眼镜100还可以包括音频单元150,用于将数字音频信号转换成模拟音频信号输出,也可以将模拟音频输入转换为数字音频信号,还可以用于对音频信号编码和解码。在一些实施方式中,音频单元150可以设置于处理单元120中,或将音频单元150的部分功能模块设置于处理单元120中。如图1所示,音频单元150一般可以包括麦克风1501和耳机1502。参考图2所示,麦克风1501可以设置于增强现实眼镜100一侧或双侧镜腿的底部,靠近用户嘴部的位置,耳机1502可以设置于增强现实眼镜100一侧或双侧镜腿的中后端,靠近用户耳朵的位置。
在一种可选的实施方式中,增强现实眼镜100还可以包括通信单元160,其可以提供包括无线局域网(Wireless Local Area Networks,WLAN)(如无线保真(WirelessFidelity,Wi-Fi)网络)、蓝牙(Bluetooth,BT)、全球导航卫星系统(Global NavigationSatellite System,GNSS)、调频(Frequency Modulation,FM)、近距离无线通信技术(NearField Communication,NFC)、红外技术(Infrared,IR)等无线通信的解决方案,使增强现实眼镜100连接到互联网,或与其他设备形成连接。
增强现实眼镜100还可以包括传感器单元170,其由不同类型的传感器组成,用于实现不同的功能。本示例性实施方式中,传感器单元170包括至少一个触摸传感器1701,参考图2所示,其可以设置在一侧的镜腿外侧,便于用户触摸到的位置。触摸传感器1701可以形成一定的触摸感应区域,实现类似于手机触控屏的功能,使用户通过在触摸感应区域进行触摸操作而进行交互控制。
在一种可选的实施方式中,触摸传感器1701也可以设置于增强现实眼镜100的配套外接设备,例如外接触控板、触摸式遥控器等,使用户通过外接设备实现触控交互。
此外,传感器单元170还可以包括其他传感器,例如压力传感器1702,用于检测用户按压操作的力度,指纹传感器1703,用于检测用户的指纹数据,等等。
在一种可选的实施方式中,增强现实眼镜100还可以包括USB(Universal SerialBus,通用串行总线)接口180,其符合USB标准规范,具体可以是MiniUSB接口,MicroUSB接口,USBTypeC接口等。USB接口180可以用于连接充电器为增强现实眼镜100充电,也可以连接耳机,通过耳机播放音频,还可以用于连接其他电子设备,例如连接电脑、外围设备等。参考图2所示,USB接口180可以设置于增强现实眼镜100一侧或双侧镜腿的底部,或其他合适的位置。
在一种可选的实施方式中,增强现实眼镜100还可以包括充电管理单元190,用于从充电器接收充电输入,为电池1901充电。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施方式中,充电管理单元190可以通过USB接口180接收有线充电器的充电输入。在一些无线充电的实施方式中,充电管理单元190可以通过增强现实眼镜100的无线充电线圈接收无线充电输入。充电管理单元190为电池1901充电的同时,还可以为设备供电。
需要说明的是,本公开所提供的头戴式设备也可以包括虚拟现实眼镜,一般的,虚拟现实眼镜与增强现实眼镜的显示单元有所区别,虚拟现实眼镜的显示单元为微型显示器,不具有透过功能,而显示单元的透过功能对实现本公开的用户识别方案没有影响。因此,虚拟现实眼镜、增强现实眼镜以及其他头戴式设备,均属于本公开的保护范围。
基于上述头戴式设备,本公开示例性实施方式提供一种用户识别方法。图3示出了该方法的流程,可以包括以下步骤S310和S320:
步骤S310,根据用户在触摸感应区域输入的用于用户识别的待识别指令,获取待识别指令的操作轨迹。
本示例性实施方式中,可以在检测到用户输入预设操作或者头戴式设备满足预设状态时,显示用户识别界面,以引导用户在触摸感应区域输入待识别指令,启动用户识别流程。头戴式设备的显示单元(镜片)可以显示用户识别界面,其是对用户进行身份识别与认证的界面,例如具体可以是图形(手势)识别界面,或者在界面中显示“请进行用户识别操作”等内容。用户输入预设操作或者头戴式设备满足预设状态,作为触发开始用户识别的两种条件,下面分别说明。
第一种条件,用户输入预设操作。预设操作可以包括:解锁,查看或者更改头戴式设备上存储的预设信息。
对于头戴式设备,可以增加锁定与解锁的机制,例如一段时间不使用头戴式设备,其自动进入锁定状态,或者用户实施锁定的操作,头戴式设备进入锁定状态;在锁定状态下,若要使用头戴式设备,则需要解锁,当用户输入解锁操作时,例如唤起头戴式设备,进入用户识别界面(即解锁界面)。
在一种可选的实施方式中,头戴式设备可以根据使用状态自动锁定或触发解锁。例如:一段时间不进行任何操作时,自动进入锁定状态;或者通过特定的传感器检测到用户脱下头戴式设备时,自动进入锁定状态。
预设信息包括以下任意一种或多种:用户账号、密码、系统设置或者其他敏感信息,本公开对此不做限定。当用户查看或者更改(包括删除)这些信息时,为了安全起见,可以先对用户进行识别,因而可以显示用户识别界面。需要说明的是,即使在解锁状态下,用户想要查看或者更改预设信息,也可以触发用户识别,从而提高信息的安全性。
第二种条件,头戴式设备满足预设状态。和上述第一种条件类似的,预设状态可以包括:头戴式设备进入佩戴状态。例如:一段时间不进行任何操作后,又输入了新的操作;或者通过特定的传感器检测到用户穿戴上头戴式设备。在此情况下,可以触发开始用户识别。
下面对通过传感器检测佩戴状态进行举例说明:
(1)头戴式设备可以设置IMU(Inertial Measurement Unit,惯性测量单元),如陀螺仪、加速度计等,当用户佩戴头戴式设备时,无法保持完全静止,因而会产生角速度、加速度等数据,当用户未佩戴头戴式设备时,其保持完全静止,角速度、加速度等数据维持为0。根据该原理,可以判断头戴式设备是否处于佩戴状态。具体来说,当IMU检测头戴式设备的角速度、加速度等数据维持为0一段时间后,开始变化时,确定进入佩戴状态。
(2)头戴式设备可以设置红外传感器,例如可以在一侧镜腿设置红外发射器,在另一侧镜腿设置红外接收器;发射器发射红外信号时,接收器可以接收到红外信号;当两镜腿之间出现遮挡物,例如用户佩戴头戴式设备时,用户头部遮挡了红外信号的接收,则此时接收器无法接收到红外信号。根据该原理,可以判断头戴式设备是否处于佩戴状态。具体来说,当一段时间内接收器接收不到红外信号后,如果开始接收到红外信号,则确定进入佩戴状态。
(3)头戴式设备可以设置霍尔传感器,例如可以在一侧镜腿设置霍尔元件,在另一侧镜腿设置磁性元件,当磁性元件靠近霍尔元件时,驱动霍尔元件产生霍尔效应,即产生霍尔电压。一般的,当头戴式设备的两个镜腿折叠时,霍尔元件和磁性元件离得较近,发生霍尔效应;当头戴式设备的两个镜腿打开时,霍尔元件和磁性元件离得较远,不发生霍尔效应;而用户佩戴头戴式设备时,两个镜腿是打开的。根据该原理,可以判断头戴式设备是否处于佩戴状态。具体来说,当一段时间内检测到霍尔电压后,如果检测到霍尔电压消失(即变为0),则确定进入佩戴状态。
需要说明的是,实际应用中,可以根据需求,设置满足上述任一种条件时,进行用户识别,本公开不做限定。
当开始用户识别流程后,用户可以输入待识别指令,使系统根据待识别指令进行用户识别。本公开提供用户输入待识别指令的两种方式:
第一种方式,用户可以在触摸感应区域进行滑动,该滑动操作即待识别指令,滑动轨迹即待识别指令的操作轨迹。
在一种可选的实施方式中,触摸感应区域可以包括呈阵列排布的多个触摸传感器,每个触摸传感器在触摸感应区域中为一个感应点或者感应Pad(指一个片状小区域,例如可以是电极)。例如图4所示,触摸感应区域包括3*3的触摸传感器阵列。当用户输入待识别指令时,根据每个触摸传感器在各时刻所检测到的感应信号强度,生成待识别指令的操作轨迹。一般的,触摸传感器可以通过检测电容、电阻、电压等感应信号,确定用户是否进行了触摸,以及触摸的位置。以电容式触摸传感器为例,图5示出了电容式触摸传感器的原理,当触摸传感器510处于未接触状态时,电极对地(Ground)存在一定的静态电容Cp;当手指520接触触摸传感器510时,人体的寄生电容Cf将耦合到静态电容Cp上,使触摸传感器510检测到的电容值变大,根据电容值的变化就可以识别是否存在手指触摸的行为。当用户在图4所示的触摸感应区域进行滑动操作时,对触摸传感器分别编号1至9,各触摸传感器所检测到的电容值可以参考图6所示。图6示例性示出T0、T1、T2这三个时刻,每个触摸传感器上的电容值,图中横坐标为触摸传感器的编号,纵坐标为电容值。以T0时刻为例,根据电容值的分布,可以计算出手指的触摸位置,这样对每个时刻的触摸位置进行计算,可以得到滑动轨迹。需要说明的是,图6中仅示出了三个时刻的电容值分布,实际应用中,一般会以毫秒级时间为间隔,检测每个时刻的电容值分布,一次滑动操作可能需要对数十个甚至上百个时刻进行检测,这与传感器本身的性能相关,本公开不做特别限定。
进一步的,当用户在触摸感应区域滑动时,可以将触摸位置实时映射到用户识别界面中,在该界面中同步显示用户的滑动轨迹,以便于用户直观的看到,从而进行准确的滑动操作。
一般的,触摸感应区域为一个平面区域。在一种可选的实施方式中,上述多个触摸传感器中,可以将至少一个设置为相对于触摸感应区域凸起的结构,以便于用户在触摸到该凸起时,确定触摸传感器的位置。例如,参考图4所示,将3*3的触摸传感器阵列中,最中间的5号传感器设置为凸起的结构,当用户触摸触摸感应区域时,可以利用该凸起进行定位,进一步提高滑动操作的准确性。
第二种方式,考虑到头戴式设备本身比较小,可能无法设置足够大的触摸感应区域,使用户进行滑动操作,例如触摸感应区域仅有手指面积大小,仅能容纳手指触摸,而没有滑动的空间。在此情况下,用户可以在触摸触摸感应区域的同时,转动头部,使眼镜视野中心的光标发生移动,触摸+移动光标的操作即待识别指令,获取在触摸时光标在用户识别界面中的移动轨迹,即待识别指令的操作轨迹。简而言之,用户在按住触摸感应区域时,光标的移动计入操作轨迹,用户在未接触触摸感应区域时,光标的移动不计入操作轨迹。这样解决了以下几个问题:用户在输入待识别指令前,可能需要将光标移动到起始位置,用户可以在不接触触摸感应区域的情况下转动头部以移动光标,此时光标的移动不算做操作轨迹,不会对待识别指令造成干扰;用户可以输入多段不连续的操作轨迹,在相邻两段操作之间,可以不接触触摸感应区域而移动光标。
进一步的,在用户接触或不接触触摸感应区域时,可以将光标加以区别显示,例如不接触触摸感应区域时,光标呈现一般形态,接触触摸感应区域时,光标呈现加粗或另一种颜色,使用户能够直观的看到,以便于进行准确操作。
步骤S320,通过将操作轨迹和预设轨迹进行对比,得到用户识别结果。
其中,预设轨迹为用户预先设定的轨迹图形,用于实现类似于密码或验证码的功能。以图4中的阵列排布为例,若预设轨迹为8->5->2->6,将步骤S310中得到操作轨迹和预设轨迹进行对比,如果对比一致,则确定用户识别结果为通过,允许设备解锁或者更改密码等操作,否则为不通过。
综上所述,本示例性实施方式中,基于上述用户识别方法,根据用户在触摸感应区域输入的用于用户识别的待识别指令,获取待识别指令的操作轨迹,将操作轨迹和预设轨迹进行对比,得到用户识别结果。一方面,提出了一种在头戴式设备上实现用户识别的方案,可以提高头戴式设备的信息安全性,且方案实施过程简单,易于用户操作。另一方面,通过在触摸传感区域输入待识别指令,利用了头戴式设备上现有的硬件装置,无需增加指纹识别器、人脸识别模组等硬件,因此实现成本较低,实用性较高。
本公开示例性实施方式还提供一种用户识别装置,可以配置于上述头戴式设备。如图7所示,该用户识别装置700可以包括:
操作轨迹获取模块710,用于根据用户在触摸感应区域输入的用于用户识别的待识别指令,获取待识别指令的操作轨迹;
操作轨迹对比模块720,用于通过将操作轨迹和预设轨迹进行对比,得到用户识别结果。
在一种可选的实施方式中,上述触摸感应区域包括呈阵列排布的多个触摸传感器。操作轨迹获取模块710,用于当用户输入待识别指令时,根据每个触摸传感器在各时刻所检测到的感应信号强度,生成待识别指令的操作轨迹。
在一种可选的实施方式中,上述多个触摸传感器中的至少一个设置为相对于触摸感应区域凸起的结构,以便于用户确定触摸传感器的位置。
在一种可选的实施方式中,用户识别装置700还可以包括用户识别界面显示模块,用于当检测到用户输入预设操作或者头戴式设备满足预设状态时,显示用户识别界面,以引导用户在触摸感应区域输入待识别指令。
在一种可选的实施方式中,操作轨迹获取模块710,还用于当用户触摸触摸感应区域且转动头部时,获取光标在用户识别界面中的移动轨迹,以得到待识别指令的操作轨迹。
在一种可选的实施方式中,上述预设操作可以包括:解锁,查看或者更改头戴式设备上存储的预设信息。预设信息可以包括以下任意一种或多种:用户账号、密码、系统设置。
在一种可选的实施方式中,上述预设状态包括:头戴式设备进入佩戴状态。
此外,上述装置中各部分的具体细节在方法部分实施方式中已经详细说明,未披露的细节内容可以参见方法部分的实施方式内容,因而不再赘述。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
本公开的示例性实施方式还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
参考图8所示,描述了根据本公开的示例性实施方式的用于实现上述方法的程序产品800,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开示例性实施方式的方法。
此外,上述附图仅是根据本公开示例性实施方式的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的示例性实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施方式。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施方式仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。

Claims (10)

1.一种用户识别方法,应用于头戴式设备,其特征在于,所述头戴式设备设置有触摸感应区域;所述方法包括:
根据用户在所述触摸感应区域输入的用于用户识别的待识别指令,获取所述待识别指令的操作轨迹;
通过将所述操作轨迹和预设轨迹进行对比,得到用户识别结果。
2.根据权利要求1所述的方法,其特征在于,所述触摸感应区域包括呈阵列排布的多个触摸传感器;
所述根据用户在所述触摸感应区域输入的用于用户识别的待识别指令,获取所述待识别指令的操作轨迹,包括:
当用户输入所述待识别指令时,根据每个所述触摸传感器在各时刻所检测到的感应信号强度,生成所述待识别指令的操作轨迹。
3.根据权利要求2所述的方法,其特征在于,所述多个触摸传感器中的至少一个设置为相对于所述触摸感应区域凸起的结构,以便于用户确定所述触摸传感器的位置。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
当检测到用户输入预设操作或者所述头戴式设备满足预设状态时,显示用户识别界面,以引导用户在所述触摸感应区域输入所述待识别指令。
5.根据权利要求4所述的方法,其特征在于,所述根据用户在所述触摸感应区域输入的用于用户识别的待识别指令,获取所述待识别指令的操作轨迹,包括:
当用户触摸所述触摸感应区域且转动头部时,获取光标在所述用户识别界面中的移动轨迹,以得到所述待识别指令的操作轨迹。
6.根据权利要求4所述的方法,其特征在于,所述预设操作包括解锁,查看或者更改所述头戴式设备上存储的预设信息;
所述预设信息包括以下任意一种或多种:用户账号、密码、系统设置。
7.根据权利要求4所述的方法,其特征在于,所述预设状态包括:所述头戴式设备进入佩戴状态。
8.一种用户识别装置,配置于头戴式设备,其特征在于,所述头戴式设备设置有触摸感应区域;所述装置包括:
操作轨迹获取模块,用于根据用户在所述触摸感应区域输入的用于用户识别的待识别指令,获取所述待识别指令的操作轨迹;
操作轨迹对比模块,用于通过将所述操作轨迹和预设轨迹进行对比,得到用户识别结果。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7任一项所述的方法。
10.一种头戴式设备,其特征在于,包括:
处理器;
存储器,用于存储所述处理器的可执行指令;以及
触摸感应区域;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1至7任一项所述的方法。
CN202010131467.5A 2020-02-28 2020-02-28 用户识别方法、用户识别装置、存储介质与头戴式设备 Active CN111368268B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010131467.5A CN111368268B (zh) 2020-02-28 2020-02-28 用户识别方法、用户识别装置、存储介质与头戴式设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010131467.5A CN111368268B (zh) 2020-02-28 2020-02-28 用户识别方法、用户识别装置、存储介质与头戴式设备

Publications (2)

Publication Number Publication Date
CN111368268A true CN111368268A (zh) 2020-07-03
CN111368268B CN111368268B (zh) 2023-12-01

Family

ID=71208334

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010131467.5A Active CN111368268B (zh) 2020-02-28 2020-02-28 用户识别方法、用户识别装置、存储介质与头戴式设备

Country Status (1)

Country Link
CN (1) CN111368268B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014052942A (ja) * 2012-09-10 2014-03-20 Seiko Epson Corp 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、認証システム
US20140160424A1 (en) * 2012-12-06 2014-06-12 Microsoft Corporation Multi-touch interactions on eyewear
CN104765994A (zh) * 2015-04-17 2015-07-08 努比亚技术有限公司 用户身份识别方法及装置
CN104778003A (zh) * 2015-03-23 2015-07-15 惠州Tcl移动通信有限公司 一种输入轨迹识别方法及其可穿戴设备
US20150363631A1 (en) * 2014-06-12 2015-12-17 Yahoo! Inc. User identification on a per touch basis on touch sensitive devices
CN106650392A (zh) * 2016-11-11 2017-05-10 捷开通讯(深圳)有限公司 Vr头戴设备及其解锁方法
CN106934262A (zh) * 2015-12-30 2017-07-07 阿里巴巴集团控股有限公司 一种可穿戴设备及其用户认证方法
CN108304075A (zh) * 2018-02-11 2018-07-20 亮风台(上海)信息科技有限公司 一种在增强现实设备进行人机交互的方法与设备
CN108573139A (zh) * 2018-04-24 2018-09-25 亮风台(上海)信息科技有限公司 头戴式显示设备的身份认证方法、装置、设备和存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014052942A (ja) * 2012-09-10 2014-03-20 Seiko Epson Corp 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、認証システム
US20140160424A1 (en) * 2012-12-06 2014-06-12 Microsoft Corporation Multi-touch interactions on eyewear
US20150363631A1 (en) * 2014-06-12 2015-12-17 Yahoo! Inc. User identification on a per touch basis on touch sensitive devices
CN104778003A (zh) * 2015-03-23 2015-07-15 惠州Tcl移动通信有限公司 一种输入轨迹识别方法及其可穿戴设备
CN104765994A (zh) * 2015-04-17 2015-07-08 努比亚技术有限公司 用户身份识别方法及装置
CN106934262A (zh) * 2015-12-30 2017-07-07 阿里巴巴集团控股有限公司 一种可穿戴设备及其用户认证方法
CN106650392A (zh) * 2016-11-11 2017-05-10 捷开通讯(深圳)有限公司 Vr头戴设备及其解锁方法
CN108304075A (zh) * 2018-02-11 2018-07-20 亮风台(上海)信息科技有限公司 一种在增强现实设备进行人机交互的方法与设备
CN108573139A (zh) * 2018-04-24 2018-09-25 亮风台(上海)信息科技有限公司 头戴式显示设备的身份认证方法、装置、设备和存储介质

Also Published As

Publication number Publication date
CN111368268B (zh) 2023-12-01

Similar Documents

Publication Publication Date Title
US10962809B1 (en) Eyewear device with finger activated touch sensor
US10956734B2 (en) Electronic device providing iris recognition based on proximity and operating method thereof
KR20210058969A (ko) 웨어러블 또는 모바일 디바이스에서 제스처, 착용, 활동 또는 휴대 검출을 위한 신경 네트워크 시스템
US9921659B2 (en) Gesture recognition for device input
KR102559625B1 (ko) 증강 현실 출력 방법 및 이를 지원하는 전자 장치
KR102180226B1 (ko) 복합 생체 정보를 이용한 보안을 제공하는 전자 장치 및 방법
CN111291338B (zh) 用户识别方法、用户识别装置、存储介质与头戴式设备
KR20150091322A (ko) 아이웨어 상에서의 멀티 터치 상호작용 기법
KR102245267B1 (ko) 서명 등록 방법, 서명 인증 방법 및 그 장치
KR20140079012A (ko) 추가 구성 요소를 이용한 얼굴 인식 기능을 가지는 모바일 장치 및 그 제어 방법
KR20150050825A (ko) 보안 정보를 포함하는 컨텐츠의 표시 방법 및 시스템
CN110968190B (zh) 用于触摸检测的imu
KR102544320B1 (ko) 전자 장치 및 전자 장치의 제어 방법
WO2018105955A2 (ko) 객체를 디스플레이하기 위한 방법 및 그 전자 장치
CN107924432B (zh) 电子装置及其变换内容的方法
CN111310608A (zh) 用户识别方法、用户识别装置、存储介质与头戴式设备
GB2544875B (en) Gesture control using depth data
CN111368268B (zh) 用户识别方法、用户识别装置、存储介质与头戴式设备
US11429249B2 (en) Application program data processing method and device
CN111415421A (zh) 虚拟物体控制方法、装置、存储介质及增强现实设备
KR20160024208A (ko) 전자 장치의 근접 감지 방법 및 그 전자 장치
US10902153B2 (en) Operating a mobile device in a limited access mode
US10691250B2 (en) Information processing device, information processing method, and program for preventing reflection of an operation in an output
CN113127272B (zh) 屏幕检测方法和屏幕检测的电子设备
CN111310143A (zh) 用户识别方法、用户识别装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant