CN114967907A - 识别方法及电子设备 - Google Patents
识别方法及电子设备 Download PDFInfo
- Publication number
- CN114967907A CN114967907A CN202110222892.XA CN202110222892A CN114967907A CN 114967907 A CN114967907 A CN 114967907A CN 202110222892 A CN202110222892 A CN 202110222892A CN 114967907 A CN114967907 A CN 114967907A
- Authority
- CN
- China
- Prior art keywords
- image
- electronic device
- information
- parts
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请实施例提供一种识别方法,应用于电子设备,该方法包括:获取第一图像和第二图像,第一图像为通过光学相机拍摄的图像,第二图像为通过事件相机拍摄的图像,第二图像是根据运动的目标对象的像素的亮度变化确定的;根据第一图像获取目标对象的N个部位的关键点信息;根据关键点信息和第二图像的灰度值确定N个部位中运动的第一部位,运动频率越大的部位在所述第二图像中的像素的灰度值越大。采用本申请实施例能够提高运动部位的识别精度,同时用户可以在无需键盘、可穿戴设备等外部设备的情况下和电子设备交互,便捷性更高。
Description
技术领域
本申请涉及人机交互技术领域,尤其涉及一种识别方法及电子设备。
背景技术
目前,增强现实(augmented reality,AR)眼镜、虚拟现实(virtual reality,VR)眼镜等电子设备可以通过配置的光学相机拍摄用户的图像,并根据该图像识别用户运动的部位(例如执行敲击动作的手指),以此获取用户输入的信息(例如文本信息)。无需键盘、可穿戴设备、第三方视角的摄像头等外部设备,大大方便了用户的使用。但拍摄到的图像可能存在运动模糊的问题,导致识别结果也不准确。例如,用户佩戴VR眼镜时,可以在虚拟世界通过虚拟键盘进行文本输入。VR眼镜可以通过自带的光学相机拍摄用户手部的图像,并根据该图像得到用户手部关键点的坐标,然后再根据该坐标识别敲击的手指等运动信息,最后结合已输入的文本得到用户当前输入的文本。但是,在用户手部和背景颜色相似,手指敲击速度过快的情况下,拍摄到的图像存在运动模糊的问题,导致得到的手部关键点的精度较低,得到的文本也不准确。
发明内容
本申请实施例公开了一种识别方法及电子设备,可以在无需键盘、可穿戴设备等外部设备的情况下和电子设备交互,同时提高了运动部位的识别精度,获取到更为准确的输入信息。
第一方面,本申请实施例提供了一种识别方法,应用于电子设备,该方法包括:上述电子设备获取第一图像和第二图像,上述第一图像为通过光学相机拍摄的图像,上述第二图像为通过事件相机拍摄的图像,上述第二图像是根据运动的目标对象的像素的亮度变化确定的;上述电子设备根据上述第一图像获取上述目标对象的N个部位的关键点信息,N为正整数;上述电子设备根据上述关键点信息和上述第二图像的灰度值确定上述N个部位中运动的第一部位,运动频率越大的部位在上述第二图像中的像素的灰度值越大。
本申请实施例中,电子设备可以结合光学相机和事件相机来确定目标对象运动的部位,即使第一图像存在运动模糊、曝光过度、光线昏暗等问题,也可以结合第二图像获取到更为准确的运动信息。同时,用户可以在无需键盘、可穿戴设备、第三方视角的摄像头等外部设备的情况下和电子设备进行交互,增强了电子设备的交互能力,用户使用起来也更加方便。
在一种可能的实现方式中,上述电子设备根据上述第一图像获取上述目标对象的N个部位的关键点信息,包括:上述电子设备融合上述第一图像和上述第二图像以得到第三图像;上述电子设备根据上述第三图像获取上述N个部位的关键点信息。
本申请实施例中,电子设备可以结合光学相机和事件相机实现关键点识别,减少了运动模糊、物体和背景颜色纹理相近等情况下,第一图像的图像质量对关键点检测精度的影响,根据关键点得到的运动信息也更加准确和鲁棒。
在一种可能的实现方式中,上述电子设备融合上述第一图像和上述第二图像以得到第三图像之前,上述方法还包括:上述电子设备根据上述第一图像的参数确定上述第一图像的第一权重和上述第二图像的第二权重;上述第一图像的参数包括以下至少一项:灰度直方图的分布、均值、标准偏差;上述电子设备融合上述第一图像和上述第二图像以得到第三图像,包括:上述电子设备基于上述第一权重和上述第二权重,融合上述第一图像和上述第二图像以得到上述第三图像。
在一种可能的实现方式中,上述电子设备根据上述第一图像的参数确定上述第一图像的第一权重和上述第二图像的第二权重,包括:当满足预设条件时,上述电子设备设置上述第一权重和上述第二权重分别为第一预设值和第二预设值,其中,上述第一预设值小于上述第二预设值;上述预设条件包括以下至少一项:上述第一图像的灰度直方图的分布集中在固定区间内,上述第一图像的均值大于第一阈值,上述第一图像的均值小于第二阈值,上述第一图像的标准偏差小于第三阈值,其中,上述第一阈值大于上述第二阈值。
本申请实施例中,当第一图像的成像效果较差时(例如满足预设条件时),电子设备可以将获取第三图像时第一图像所占的权重调小,第二图像所占的权重调大。而第三图像用于获取关键点,因此可以减少图像曝光过度、光线昏暗等情况下,第一图像的质量对关键点的检测精度的影响,根据关键点得到的运动信息也更加准确。
在一种可能的实现方式中,上述电子设备根据上述第三图像获取上述N个部位的关键点信息,包括:上述电子设备在上述第三图像中识别出上述N个部位所在的目标区域;上述电子设备在上述目标区域中识别出上述N个部位的关键点信息。
本申请实施例中,电子设备可以先获取目标对象的N个部位所在的目标区域,再基于目标区域进行关键点检测,无需在目标区域外的区域进行关键点检测,避免了不必要的处理流程,减小处理压力,可用性更高。
在一种可能的实现方式中,上述电子设备根据上述关键点信息和上述第二图像的灰度值确定上述N个部位中运动的第一部位,包括:上述电子设备根据上述关键点信息从上述N个部位中确定出M个部位,M小于或等于N,M为正整数;上述关键点信息包括上述N个部位上的至少一个关键点的坐标;上述电子设备根据上述第二图像的灰度值从上述M个部位中确定出上述第一部位,上述第一部位在上述第二图像中的像素的灰度值大于预设灰度阈值,或者上述第一部位在上述第二图像中的像素的灰度值大于上述M个部位中其他部位在上述第二图像中的像素的灰度值。
本申请实施例中,电子设备可以先根据关键点信息得到运动信息(即上述运动的M个部位),然后再根据第二图像的灰度值对该运动信息进行筛选处理,从而得到更为准确的运动部位:第一部位,识别精度更高。
在一种可能的实现方式中,上述M个部位上的关键点在第一时刻的坐标和在第二时刻的坐标的差值大于第一预设差值,上述第一时刻和上述第二时刻不同;或者,上述M个部位上的关键点的坐标和预设坐标的差值大于第二预设差值。
示例性地,或者也可以是上述M个部位上的关键点在第一时刻的坐标和预设坐标的差值为第一差值,上述M个部位在关键点在第二时刻的坐标和预设坐标的差值为第二差值,第一差值和第二差值的差值大于第三预设差值。
例如,预设坐标为电子设备显示的虚拟键盘上和关键点对应的按键的坐标。
本申请实施例中,确定可能运动的M个部位的方式多种多样,即使仅获取了一帧第一图像,也可以通过关键点的坐标和虚拟键盘上按键的坐标的差值确定可能运动的M个部位,减小了处理时延,应用场景也更为广泛。
在一种可能的实现方式中,上述第一部位用于上述电子设备确定上述目标对象通过上述第一部位输入的第一信息。
本申请实施例中,电子设备可以结合光学相机和事件相机来提高运动部位的检测精度,而运动部位用于获取目标对象输入的信息,因此可以提高输入信息的识别精度。同时,用户可以在无需键盘、可穿戴设备、第三方视角的摄像头等外部设备的情况下向电子设备输入信息,即使用户处于移动场景下也可以正常使用电子设备,便捷性更高。
在一种可能的实现方式中,上述方法还包括:上述电子设备根据上述第一部位确定出Q个信息,Q为正整数,上述Q个信息包括上述第一信息;上述电子设备根据第二信息从上述Q个信息中确定出上述第一信息,上述第二信息为上述目标对象输入上述第一信息之前输入的信息。
本申请实施例中,电子设备可以结合目标对象已输入的第二信息、运动的第一部位来猜测用户通过第一部位输入的第一信息,提高输入信息的识别精度。
在一种可能的实现方式中,上述第一部位为多个部位。
在一种可能的实现方式中,上述目标对象为用户,上述第一部位为上述用户的手指。
本申请实施例中,电子设备可以结合光学相机和事件相机实现用户运动的手指的识别,并以此识别用户基于虚拟键盘通过手指输入的信息,得到的输入信息的精度更高,且无需实体键盘,大大方便了用户的使用。
第二方面,本申请实施例提供了一种电子设备,该电子设备包括一个或多个存储器、一个或多个处理器;上述一个或多个存储器用于存储计算机程序,上述一个或多个处理器用于调用上述计算机程序,上述计算机程序包括指令,当上述指令被上述一个或多个处理器执行时,使得上述电子设备执行第一方面、第一方面的任意一种实现方式提供的识别方法。
在一种可能的实现方式中,上述电子设备包括上述事件相机和上述光学相机。
在一种可能的实现方式中,上述电子设备为虚拟现实设备、增强现实设备或混合现实设备。
第三方面,本申请实施例提供了一种计算机存储介质,包括计算机程序,该计算机程序包括指令,当该指令在处理器上运行时实现第一方面、第一方面的任意一种实现方式提供的识别方法。
第四方面,本申请实施例提供了一种计算机程序产品,当该计算机程序产品在电子设备上运行时,使得该电子设备执行第一方面、第一方面的任意一种实现方式提供的识别方法。
第五方面,本申请实施例提供了一种芯片,该芯片包括至少一个处理器和接口电路,可选地,该芯片还包括存储器;上述存储器、上述接口电路和上述至少一个处理器通过线路互联,上述至少一个存储器中存储有计算机程序;上述计算机程序被上述至少一个处理器执行时实现第一方面、第一方面的任意一种实现方式提供的识别方法。
可以理解地,上述第二方面提供的电子设备、第三方面提供的计算机存储介质、第四方面提供的计算机程序产品以及第五方面提供的芯片均用于执行第一方面、第一方面的任意一种实现方式提供的识别方法。因此,其所能达到的有益效果可参考第一方面所提供的识别方法中的有益效果,此处不再赘述。
附图说明
以下对本申请实施例用到的附图进行介绍。
图1是本申请实施例提供的一种电子设备的结构示意图;
图2是本申请实施例提供的一种应用场景的示意图;
图3是本申请实施例提供的一种处理过程的示意图;
图4-图5是本申请实施例提供的一些关键点在虚拟键盘上的示意图;
图6是本申请实施例提供的一种识别方法的流程示意图。
具体实施方式
下面将结合附图对本申请实施例中的技术方案进行清楚、详尽地描述。本申请实施例的实施方式部分使用的术语仅用于对本申请的具体实施例进行解释,而非旨在限定本申请。
本申请实施例提供了一种识别方法,可以应用于电子设备。电子设备可以获取第一图像和第二图像,其中,第一图像是通过光学相机拍摄得到的,第二图像是通过事件相机拍摄得到的。然后,电子设备可以基于第一图像和第二图像识别目标对象的关键点信息(例如用户手部的关键点坐标),并结合关键点信息、第二图像,可选地以及用户已输入的第二信息得到用户当前输入的第一信息。
其中,事件相机的输出是像素级别的亮度变化。也就是说,在像素阵列中,当某一像素的亮度变化大于预设亮度阈值,该像素就会产生一个输出,该输出可以称为“事件”。因此,当事件相机拍摄的物体没有运动时,事件相机的输出为一张黑色的图像。当事件相机拍摄的物体运动,造成多个像素的亮度发生变化时,事件相机的输出可以为运动物体。事件相机具有对光照条件没有要求,低延时,对微小、快速的运动敏感的优点。因此第二图像是根据运动的目标对象的像素的亮度变化确定的,第二图像包括运动的目标对象的部位。
本申请结合光学相机和事件相机输出的图像来识别目标对象的运动部位,减少了运动模糊(motion blur)时图像质量对关键点信息的检测精度的影响,识别的结果(即目标对象运动的部位,和/或第一信息)也更准确。并且,用户无需键盘、可穿戴设备、第三方视角的摄像头等外部设备也可以向电子设备输入信息,进行人机交互,即使在移动场景下用户也可以正常使用电子设备,便捷性更高。
和事件相机的输出不同,光学相机输出的可以是一帧由多个像素组成的完整图像,例如RGB图像。光学相机输出的图像中的物体和背景颜色相似,或者运动速度过快时,该图像存在运动模糊的问题。并且光学相机的成像效果受光照影响较大,光照过亮或过暗时图像质量较差。示例性地,电子设备可以通过光学相机拍摄得到包括用户手部的多帧图像,并根据这多帧图像得到用户手部关键点的位置信息(例如包括手部关键点相对光学相机中心的坐标,以及手部关键点相对手部中心的坐标)。然后电子设备识别预设手势中是否存在和该位置信息匹配的手势,若存在则电子设备确定当前用户输入的手势即为和该位置信息匹配的手势,执行和该手势对应的操作,例如选择单词或删除已输入的单词。若不存在和该位置信息匹配的手势,电子设备可以根据该位置信息识别手指的运动信息(例如手指坐标、振幅等),并通过贝叶斯模型,结合手指的运动信息和单词使用频率的语言模型得到概率最高的候选单词,将该候选单词确认为当前用户输入的文本。或者,电子设备也可以根据单帧图像来识别手指的运动信息,从而得到当前用户输入的文本。但单帧图像仅能体现某一时刻的场景,而手指运动是具有时序性的,是属于一段时间内的场景,因此通过单帧图像来识别运动信息的准确率较低。同时,当光学相机拍摄得到的图像存在运动模糊,受光照影响较大的问题时,手部关键点的检测精度也较低,识别结果(即当前用户输入的文本)也不准确。并且,不同用户的手势动作差别可能很大,进行手势匹配时很可能出现匹配失败等误识别、无法识别的情况,依赖于预设手势的质量,可用性较低。
本申请实施例对用户输入的信息的形式不作限定,例如但不限于为文本信息、图片信息、音频信息、指令信息等等。
本申请实施例中涉及的电子设备可以是可穿戴电子设备,例如头戴电子设备、眼镜、护目镜等,用户可以佩戴可穿戴电子设备实现增强现实(augmented reality,AR)、虚拟现实(virtual reality,VR)、混合现实(mixed reality,MR)等不同效果。不限于此,电子设备也可以是其他包括光学相机和事件相机的电子设备,例如手机、平板电脑、笔记本电脑、智慧屏、智能电视、耳机等设备。
本申请实施例以电子设备为头戴电子设备为例进行介绍,但是本申请实施例不限于头戴电子设备,电子设备还可以是其他设备。
请参见图1,图1示例性示出了一种电子设备100的结构示意图。
如图1所示,电子设备100可以包括处理器110,存储器120,通信模块130,显示屏140,传感器模块150以及摄像头160等。其中,摄像头160可以包括光学相机161和事件相机162。
可以理解地,本申请实施例示意的结构并不构成对电子设备100的具体限定。在本申请另一些实施例中,电子设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,存储器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。其中,控制器可以是电子设备100的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。在一些实施例中,处理器110还可以连接其他处理单元,协同执行本申请提供的识别方法。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从上述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
存储器120可以用于存储计算机可执行程序代码,可执行程序代码包括指令。处理器110通过运行存储在存储器120的指令,从而执行电子设备100的各种功能应用以及数据处理。存储器120可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如图像拍摄功能,图像播放功能等)等。存储数据区可存储电子设备100使用过程中所创建的数据(比如图像数据,文本数据等)等。此外,存储器120可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。
电子设备100可以包含无线通信功能。在一些实施例中,通信模块130可以包含移动通信模块和无线通信模块。无线通信功能可以通过天线、移动通信模块、无线通信模块、调制解调处理器以及基带处理器等实现。
天线用于发射和接收电磁波信号。电子设备100中可以包含多个天线,每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
移动通信模块可以提供应用在电子设备100上的包括2G/3G/4G/5G等无线通信的解决方案。移动通信模块可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(lownoise amplifier,LNA)等。移动通信模块可以由天线接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块还可以对经调制解调处理器调制后的信号放大,经天线转为电磁波辐射出去。在一些实施例中,移动通信模块的至少部分功能模块可以被设置于处理器110中。在一些实施例中,移动通信模块的至少部分功能模块可以与处理器110的至少部分模块被设置在同一个器件中。
在一些实施例中,电子设备100的天线和移动通信模块耦合,使得电子设备100可以通过无线通信技术与网络以及其他设备通信。无线通信技术可以包括全球移动通讯系统(global system for mobile communications,GSM),通用分组无线服务(general packetradio service,GPRS),码分多址接入(code division multiple access,CDMA),宽带码分多址(wideband code division multiple access,WCDMA),时分码分多址(time-divisioncode division multiple access,TD-SCDMA),长期演进(long term evolution,LTE),BT,GNSS,WLAN,NFC,FM,和/或IR技术等。上述GNSS可以包括全球卫星定位系统(globalpositioning system,GPS),全球导航卫星系统(global navigation satellite system,GLONASS),北斗卫星导航系统(beidou navigation satellite system,BDS),准天顶卫星系统(quasi-zenith satellite system,QZSS)和/或星基增强系统(satellite basedaugmentation systems,SBAS)。
调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器等)输出语音信号,或通过显示屏1100显示图像或视频。在一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器110,与移动通信模块或其他功能模块设置在同一个器件中。
无线通信模块可以提供应用在电子设备100上的包括无线局域网(wirelesslocal area networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),全球导航卫星系统(global navigation satellite system,GNSS),调频(frequency modulation,FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。无线通信模块可以是集成至少一个通信处理模块的一个或多个器件。无线通信模块经由天线接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器110。无线通信模块还可以从处理器110接收待发送的信号,对其进行调频,放大,经天线转为电磁波辐射出去。
显示屏140用于显示图像,视频等。显示屏140包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。
当电子设备100安装在用户头上时,用户眼睛可以看到电子设备100的显示屏140呈现的图像。当显示屏140是透明的情况下,用户眼睛可以透过显示屏140看到实体对象,或者用户眼睛可以透过显示屏140看到另外的显示装置显示的图像。
电子设备100中显示屏140的数量可以是两个,分别对应用户的两个眼球。这两个显示屏上显示的内容可以独立显示。可以在这两个显示屏上显示不同的图像来提高图像的立体感。在一些实施例中,电子设备100中显示屏140的数量也可以是一个,来对应用户的两个眼球。
在一些实施例中,摄像头160可以包括光学相机161和事件相机162。
光学相机161用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。光学相机161例如但不限于包括单目相机、双目相机以及深度相机。其中,深度相机可以通过结构光或飞行时间(time of fly,TOF)等方法测量物体的深度信息。
事件相机162的输出是像素级别的亮度变化。也就是说,在像素阵列中,当某一像素的亮度变化大于预设亮度阈值,该像素就会产生一个输出,该输出可以称为“事件”。当拍摄场景中,物体运动或光照改变造成大量像素变化时,事件相机162可以输出一系列的事件,也可以称为事件流。事件流的数据量远小于光学相机161输出的数据。
在一些实施例中,电子设备100可以包括多个摄像头。具体地,电子设备100可以包括至少一个光学相机161和至少一个事件相机162。示例性地,如图1所示,电子设备100包括四个光学相机161,安装在电子设备100的侧面,两个在上部,两个在下部(未示出在下部的一个)。电子设备还包括两个事件相机162,安装在电子设备100上两个显示屏140之间的位置,一个在上部,一个在下部(未示出)。摄像头用于实时捕捉用户视角内的图像和视频。电子设备100可以根据捕获的实时的图像和视频生成虚拟图像,并将虚拟图像通过显示屏140进行显示。
可以理解的,图1中示出的光学相机161、事件相机162的在电子设备100上的位置和数量仅用于解释本申请实施例,不应构成限定。
本申请中,电子设备100可以通过光学相机161捕获第一图像,通过事件相机162捕获第二图像。处理器110可以通过第一算法融合第一图像和第二图像,以得到第三图像,并识别第三图像中的关键点信息(例如用户手部的21个或22个关键点的坐标)。然后处理器110可以结合关键点信息、第二图像,可选地以及用户已输入的第二信息,得到用户当前输入的第一信息。处理器110可以根据第一信息确定执行相应的操作。例如,第一信息为用户输入的文本信息,则处理器110可以通过显示屏140在第二信息后显示第一信息。或者,第一信息为指令信息,处理器110可以响应于该指令信息执行相应的操作(例如关机操作、暂停操作等)。
在一些实施例中,电子设备100还可以连接其他设备(例如手机、平板电脑、智慧屏等),电子设备100可以从其他设备处获取第一图像和第二图像,其中,第一图像为其他设备通过光学相机拍摄得到的,第二图像为其他设备通过事件相机拍摄得到的。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,串行外设接口(serial peripheral interface,SPI)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purpose input/output,GPIO)接口,和/或通用串行总线(universal serialbus,USB)接口等。
在一些实施例中,电子设备100可以通过GPU,显示屏140,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏140和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
在一些实施例中,电子设备100可以通过ISP,摄像头,视频编解码器,GPU,显示屏140以及应用处理器等实现拍摄功能。ISP可以用于处理光学相机反馈的数据。例如,通过光学相机拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将上述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头中。
传感器模块150可以包括多个传感器,例如:触摸传感器、压力传感器、环境光传感器、加速度传感器、陀螺仪传感器、红外传感器等等,不限于此,还可以包括麦克风、耳机等。
在一些实施例中,处理器110可以根据摄像头捕获的静态图像或视频图像,结合传感器模块150获取的数据(例如亮度、声音等数据),来确定显示屏140上显示的虚拟图像,从而实现在现实世界物体上叠加上虚拟图像。
请参见图2,图2示例性示出一种用户输入文本信息的场景示意图。
如图2所示,用户200佩戴电子设备100,电子设备100的结构可参见上图1所示的结构。用户200可以看到电子设备100的显示屏140呈现的虚拟界面300和虚拟键盘400,虚拟界面300可以显示电子设备100上的应用程序的用户界面,或连接电子设备100的其他设备(例如手机、平板电脑、智慧屏等)的应用程序的用户界面。虚拟键盘400可以和实体键盘的结构一致。用户200可以通过虚拟键盘400输入信息,该信息可以在虚拟界面300上呈现出来。
示例性地,假设虚拟界面300已显示有用户200通过虚拟键盘400已输入的第二信息。用户200可以继续通过虚拟键盘400输入信息,此时,电子设备100可以通过摄像头160拍摄用户200手部的图像,具体可以通过光学相机161拍摄第一图像,通过事件相机162拍摄第二图像。然后,电子设备100可以结合第一图像和第二图像识别用户200手部的关键点信息,并结合第二图像、关键点信息以及第二信息得到用户200当前输入的第二信息。电子设备100可以在虚拟界面300上显示第一信息。其中,关键点信息例如为21个或22个手部关键点的坐标信息,该坐标信息可以是基于以用户200头部中心为原点建立的右手坐标系的。
基于上图2所示的应用场景,接下来介绍电子设备100对用户进行手部动作识别,以此获取用户输入的文本信息的具体过程,具体可参见下图3。如图3所示,该过程可以包括但不限于如下步骤:
步骤1:电子设备使用第一算法对第一图像410和第二图像420进行处理,以得到第三图像430。
其中,第一图像410是通过光学相机拍摄得到的。可以看出,图3所示的第一图像410较为模糊,图像质量较差。第二图像420是通过事件相机拍摄得到的,图3所示的第二图像420包括运动部位(即用户手部)的轮廓。
光学相机输出第一图像410的时刻和事件相机输出第二图像420的时刻相同。在一些实施例中,在执行步骤1之前,电子设备可以先在光学相机输出的多张图像中筛选出和事件相机输出第二图像420的时刻相同的第二图像410。
具体地,电子设备可以先设置第一图像410和第二图像420的权重,然后进行加权求和得到第三图像430,即使用第一算法融合第一图像410和第二图像420以得到第三图像430,其中,第一图像410和第二图像420的权重之和为1。第三图像430用于进行后续的手部关键点检测,从而实现手部动作识别。若第一图像410的成像效果较差(例如清晰度较低、亮度较低、亮度较高等),电子设备可以减小第一图像410的权重,增大第二图像420的权重,从而减少图像曝光过度、光线昏暗、运动模糊等情况下,第一图像410的质量对检测算法(例如步骤2所述的第二算法、步骤3所述的第三算法)精度的影响,手部动作识别的结果也更加准确。
在一些实施例中,电子设备可以根据第一图像410的灰度直方图确定第一图像410和第二图像420的权重。例如,假设默认设置第一图像410和第二图像420的权重均为0.5。当第一图像410的灰度直方图的分布不均匀,例如灰度直方图的分布集中在某一固定区间内时,第一图像410在细节上的清晰程度较低,电子设备可以将第一图像410的权重设置为0.3,第二图像420的权重设置为0.7。
不限于此,在具体实现中,电子设备也可以根据第一图像410的平均值确定第一图像410和第二图像420的权重。例如,当第一图像410的均值大于第一阈值时第一图像410过亮,或者当第一图像410的均值小于第二阈值时第一图像410过暗,电子设备可以将第一图像410的权重设置为0.4,第二图像420的权重设置为0.6。电子设备还可以根据第一图像410的标准偏差确定第一图像410和第二图像420的权重。例如,当第一图像410的标准偏差小于第三阈值时第一图像420的对比程度较低,电子设备可以将第一图像410的权重设置为0.35,第二图像420的权重设置为0.65。本申请对确定第一图像410和第二图像420的权重的具体方式不作限定。
不限于上述列举的情况,在具体实现中,电子设备使用第一算法融合第一图像和第二图像以得到第三图像时,也可以不采用加权求和的方法,本申请对第一算法的具体实现方式不作限定。
步骤2:电子设备使用第二算法识别出第三图像430中的目标区域440。
具体地,目标区域440为第三图像430中用户手部所在的矩形区域。电子设备可以将第三图像430中用户手部的最宽线段作为目标区域440的一组对边,最高线段作为目标区域440的另一组对边。
步骤3:电子设备使用第三算法识别出目标区域440中的关键点,以得到包括关键点的目标区域450。
其中,关键点的数量和位置不作限定。示例性地,图3所示的包括关键点的目标区域450中,关键点的数量为21个,关键点大多位于用户手部的关节点处。
步骤4:电子设备使用第四算法对包括关键点的目标区域450、第二图像420以及用户已输入的第二信息进行处理,以得到用户当前输入的第一信息。
可以理解地,用户可以是基于电子设备呈现的虚拟键盘400输入信息的,用户手部关键点落在虚拟键盘400上的示例可参见图4。
具体地,电子设备可以先根据包括关键点的目标区域450中手部关键点的坐标信息得到手指的第一运动信息。示例性地,电子设备可以先将虚拟键盘400、用户手部关键点统一到一个坐标系下(例如以用户左眼中心为原点的右手坐标系下,具体示例可参见下图5)。然后,电子设备可以获取预设数量帧第三图像430对应的手部关键点和虚拟键盘400上按键的坐标差值(例如欧拉距离等),并根据坐标差值得到第一运动信息,例如用户可能执行敲击动作的手指、敲击动作的幅度、敲击动作的频率等。其中,用户可能执行敲击动作的手指一般是对应一个虚拟键盘400上的按键,即用户可能基于该按键执行敲击动作,因此电子设备通常得到用户可能敲击动作的手指时,就可以得到用户可能输入的单词信息。
其中,电子设备根据坐标差值得到第一运动信息例如为:预设数量个坐标差值均大于第一预设差值时确定对应的关键点所属手指为可能执行敲击动作的手指。或者,预设数量个坐标差值中,大于第一预设差值的坐标差值的数量大于第四阈值时确定对应的关键点所属手指为可能执行敲击动作的手指。或者,假设已确定了可能执行敲击动作的手指,当对应的坐标差值大于第二预设差值时确定该手指的敲击动作较为剧烈。其中,第二预设差值大于第一预设差值。不限于此,当坐标差值大于第三预设差值、第四预设差值、第五预设差值时,敲击动作的剧烈程度可以分别为不剧烈、较剧烈、很剧烈。本申请对根据坐标差值得到第一运动信息的具体方式不作限定。
电子设备获取手指的第一运动信息的示例可参见下图5。图5示例性示出一种三维坐标系的示意图。该坐标系可以是图2所示的场景下,以用户200的左眼中心为原点建立的右手坐标系。该坐标系示出了一个关键点A在相邻两帧第一图像410中的坐标,这两帧第一图像410的输出时刻可以分别为第一时刻和第二时刻,第一时刻早于第二时刻。
如图5所示,虚拟键盘上每个按键在z轴的坐标均为z0,在x轴和y轴上的坐标各不相同,其中,按键W(中心点)在x轴上的坐标为x0,在y轴上的坐标为y0。第一时刻和第二时刻的关键点A在x轴上的坐标均为x1。第一时刻的关键点A在y轴上的坐标为y1,在z轴上的坐标为z1。第二时刻的关键点A在y轴上的坐标为y2,在z轴上的坐标z2。假设y2-y1>yt,z2-z1>zt,其中,yt、zt为预设差值,电子设备可以确定关键点A所属手指为可能执行敲击动作的手指。
不限于上述列举的情况,在具体实现中,关键点的坐标也可以是二维坐标。
不限于上述列举的情况,在具体实现中,电子设备还可以将一帧第三图像430中,和虚拟键盘400上的按键的坐标差值最小的关键点所属手指为可能执行敲击动作的手指,即使拍摄的图像数量不足时(例如电子设备的存储容量较小)也可以实现手部动作识别,同时也减小了处理时延,用户体验感更好。或者,电子设备也可以根据多帧第三图像430中,同一关键点在不同时刻的坐标的差值得到可能执行敲击动作的手指,例如坐标差值大于预设差值时该关键点所属的手指为可能执行敲击动作的手指。本申请对确定运动信息的具体方式不作限定。
可以理解地,图3所示的用于获取用户当前输入的第一信息的图像可以是单帧图像,也可以是多帧图像。也就是说,步骤1中输入第一算法的第一图像410、第二图像420,步骤2中输入第二算法的第三图像420可以是某一时刻的单帧图像,也可以是某一时间段内的多帧图像。
然后,电子设备可以再根据第二图像420中每个手指所在位置的灰度值,对上述第一运动信息进行筛选,以得到手指的第二运动信息,其中,第二图像420中手指所在位置的灰度值越大表征该手指的运动越剧烈(运动幅度和/或运动频率越大)。例如,第一运动信息中用户可能执行敲击动作的手指为三个手指,电子设备可以将第二图像420中这三个手指的灰度值较高的两个手指作为第二运动信息中用户可能执行敲击动作的手指。电子设备可以根据第二运动信息得到用户可能输入的信息。
示例性地,假设电子设备得到用户的食指、中指和无名指和虚拟键盘上的按键D、按键W和按键A的欧拉距离最小,即确定的第一运动信息中,可能执行敲击动作的手指为食指、中指和无名指。而且,电子设备识别到图3所示的第二图像420中中指和无名指所在位置的灰度值较高,因此第二运动信息中,用户执行敲击动作的手指为中指和无名指。此时,电子设备可以根据第二运动信息得到用户可能输入的信息为“w”和“a”。
不限于上述列举的情况,在具体实现中,电子设备也可以先根据第二图像420中每根手指所在位置的灰度值确定手指的第二运动信息,例如灰度值大于第一灰度阈值的手指为可能执行敲击动作的手指。然后,电子设备再根据关键点信息对第二运动信息进行筛选以得到第一运动信息,例如电子设备可以计算第二运动信息中可能执行敲击动作的手指上的关键点和虚拟键盘400上的按键的坐标差值,当坐标差值大于第六预设差值时确定该手指为第一运动信息中可能执行敲击动作的手指。电子设备可以根据第一运动信息得到用户可能输入的信息。
最后,电子设备可以根据上述得到的用户可能输入的信息、用户已输入的第二信息得到用户当前输入的第一信息。例如,电子设备可以将上述得到的用户可能输入的信息、用户已输入的第二信息作为文本判断神经网络的输入,以得到输出的第一信息。其中,第一信息可以是用户可能输入的信息中输入概率更高的信息。
示例性地,假设用户可能输入的信息为“w”和“a”,用户已输入的第二信息为“abnorm”。文本判断神经网络可以得到用户当前输入“a”的概率为0.8,用户当前输入“w”的概率为0.2,因此,输出的第一信息为“a”。
不限于上述列举的情况,在具体实现中,用户在输入第一信息之前没有输入第二信息,即第二信息为空,则电子设备可以直接将用户可能输入的信息作为确定的第一信息,或者对用户可能输入的信息进行判断处理以得到第一信息,本申请对此不作限定。
示例性地,第一算法为占比调整算法和图像处理算法,第二算法为目标检测神经网络,第三算法为关键点检测神经网络,第四算法为文本判断神经网络。不限于此,也可以是深度学习算法等,本申请对第一算法、第二算法、第三算法和第四算法的具体形式不作限定。
以上实施例仅以用户一只手为例进行说明,在具体实现中,电子设备可以同时对用户两只手进行识别,以获取用户输入的信息。
不限于上述示例的情况,在具体实现中,电子设备获取的图像也可以不是用户手部的图像,而是用户腿部、腰部等其他部位的图像。电子设备可以按照上述过程,基于获取的图像进行人体姿态识别,提高关键点的检测精度,识别结果更加准确。
请参见图6,图6是本申请实施例提供的一种识别方法的流程示意图。图6可以应用于电子设备,该电子设备可以包含光学相机和事件相机,该电子设备可以是图1示出的电子设备。该方法包括但不限于如下步骤:
S101:电子设备获取第一图像和第二图像。
具体地,第一图像是通过光学相机拍摄的图像,第二图像是通过事件相机拍摄的图像。光学相机输出第一图像的时刻可以和事件相机输出第二图像的时刻相同,因此第一图像中的物体和第二图像可以均用于拍摄同一时刻下运动的目标对象的N个部位,例如用户的手部,N个部位为用户的多个手指。N为正整数。基于上述事件相机的说明可以知道,第二图像是根据运动的目标对象的像素的亮度变化确定的,第二图像可以包括N个部位中运动的部位。其中,目标对象可以为用户,N个部位可以是用户的身体部位,例如手部、腰部、腿部等。不限于此,目标对象也可以是其他生物或物体。
S102:电子设备根据第一图像获取目标对象的N个部位的关键点信息。
具体的,电子设备可以识别第一图像中目标对象的N个部位所在的目标区域,然后再从该目标区域中识别出关键点信息,其中,该目标区域的一组对边为N个部位的最宽线段,该目标区域的另一组对边为N个部位的最高线段。
不限于此,在具体实现中,电子设备也可以先识别出N个部位中P个部位所在的目标区域,然后再从这目标区域中识别出关键点信息,其中,该目标区域的一组对边为P个部位的最宽线段,该目标区域的另一组对边为P个部位的最高线段。P为正整数,P小于N。电子设备可以但不限于根据N个部位在图像中的所占面积、清晰度等确定P个部位,例如某个部位在图像中的所占面积大于预设面积、清晰度(相邻像素的灰度差或梯度)小于预设清晰值时,该部位确定属于P个部位。
具体地,电子设备可以根据目标区域中部位的形态确定关键点的位置和数量。例如,上图3所示的包括关键点的目标区域450中,手部(一只)上关键点的数量为21个,并且关键点大多位于手部的关节点处。或者,目标区域中的部位为腿部(一只)时,关键点的数量可以为10个,且大多可以位于腿部的关节点处。
在一些实施例中,S102具体为:电子设备根据第一图像和第二图像获取目标对象的N个部位的关键点信息。
具体地,电子设备可以先融合第一图像和第二图像以得到第三图像,然后再根据第三图像获取目标对象的N个部位的关键点信息。在一些实施例中,电子设备融合第一图像和第二图像以得到第三图像,可以具体为:电子设备对第一图像和第二图像进行加权求和以得到第三图像。其中,第一图像的权重可以为第一权重,第二图像的权重可以为第二权重。第一权重和第二权重之和为1。电子设备可以根据第一图像的参数确定第一权重,第一图像的参数例如但不限于包括第一图像的灰度直方图的分布、第一图像的均值、第一图像的标准偏差。
当第一图像的成像效果较差时,电子设备可以调低第一权重,调高第二权重,此时,第一权重可以小于第二权重。第一图像的成像效果较差可以但不限于满足以下至少一项:第一图像的灰度直方图的分布集中在固定区间内,第一图像的均值大于第一阈值,第一图像的均值小于第二阈值,第一图像的标准偏差小于第三阈值。其中,第一阈值大于第二阈值。
S103:电子设备根据关键点信息和第二图像的灰度值确定N个部位中运动的第一部位。
具体地,关键点信息可以用于获取N个部位在不同时刻的坐标差值等信息,从而得到N个部位的运动信息(例如可能执行动作的部位、执行动作的幅度、执行动作的频率等)。基于上述事件相机的说明可以知道,运动越剧烈(运动幅度和/或运动频率越大)的部位在第二图像中的像素的灰度值越大。电子设备可以根据第一部位得到目标对象通过所述第一部位输入的第一信息。第一部位可以是至少一个部位,例如至少一根手指。
在一些实施例中,电子设备可以先根据关键点信息得到目标对象的第一运动信息,假设为N个部位中运动的M个部位,M为正整数,N大于M。然后,电子设备可以根据第二图像的灰度值从第一运动信息表征的M个部位中确定出第一部位。其中,第一部位在第二图像中的像素的灰度值可以大于第一灰度阈值,或者第一部位在第二图像中的像素的灰度值大于M个部位中其他部位的像素的灰度值。
在一些实施例中,电子设备也可以先根据第二图像的灰度值得到目标对象的第二运动信息,假设为N个部位中运动的T个部位,T为正整数,N大于T。其中,T个部位在第二图像中的像素的灰度值可以大于第二灰度阈值,或者T个部位在第二图像中的像素的灰度值大于N个部位中其他部位的像素的灰度值。然后,电子设备可以根据关键点信息从第二运动信息表征的T个部位中确定出第一部位。可选地,第一部位上的关键点的坐标差值大于第一差值,或者第一部位上的关键点的坐标差值大于T个部位中其他部位上的关键点的坐标差值。
其中,关键点信息例如包括关键点相对用户或电子设备上固定点的坐标(可称为绝对坐标),关键点相对N个部位上固定点的坐标(可称为相对坐标)。
在一些实施例中,S103之前,该方法还可以包括:接收用户输入的第二信息。则电子设备可以根据第一部位和用户输入的第二信息一起确定第一信息。
图6所示流程的示例可参见上图3所示的过程,其中,图3以目标对象为用户,N个部为用户的左手(左手的5个手指)为例进行说明。
在图6所示的方法中,电子设备可以结合光学相机和事件相机实现关键点识别,并且引入事件相机进一步确定运动信息,以此根据运动信息获取用户输入的信息,减少了运动模糊、物体和背景颜色纹理相近等情况下,第一图像的图像质量对关键点检测精度的影响,运动识别的结果(即上述用户输入的第一信息)也更加准确和鲁棒。用户无需键盘、可穿戴设备、第三方视角的摄像头等外部设备也可以向电子设备输入信息,和电子设备进行交互,增强了电子设备的交互能力,用户使用起来也更加方便。
可以理解地,本申请实施例无需进行手势匹配等过程,可以直接根据关键点信息和事件相机输出的图像得到目标对象的运动信息,并根据运动信息以及用户已输入的信息获取用户当前输入的信息,避免了匹配失败等误识别、识别失败等情况,输入效率和可用性更高。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。上述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行上述计算机程序指令时,全部或部分地产生按照本申请上述的流程或功能。上述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。上述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,上述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。上述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。上述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,数字通用光盘(digital versatile disc,DVD))、或者半导体介质(例如,固态硬盘(solid state disk,SSD))等。
总之,以上上述仅为本发明技术方案的实施例而已,并非用于限定本发明的保护范围。凡根据本发明的揭露,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (14)
1.一种识别方法,其特征在于,应用于电子设备,所述方法包括:
所述电子设备获取第一图像和第二图像,所述第一图像为通过光学相机拍摄的图像,所述第二图像为通过事件相机拍摄的图像,所述第二图像是根据运动的目标对象的像素的亮度变化确定的;
所述电子设备根据所述第一图像获取所述目标对象的N个部位的关键点信息,N为正整数;
所述电子设备根据所述关键点信息和所述第二图像的灰度值确定所述N个部位中运动的第一部位,运动频率越大的部位在所述第二图像中的像素的灰度值越大。
2.如权利要求1所述的方法,其特征在于,所述电子设备根据所述第一图像获取所述目标对象的N个部位的关键点信息,包括:
所述电子设备融合所述第一图像和所述第二图像以得到第三图像;
所述电子设备根据所述第三图像获取所述N个部位的关键点信息。
3.如权利要求2所述的方法,其特征在于,所述电子设备融合所述第一图像和所述第二图像以得到第三图像之前,所述方法还包括:
所述电子设备根据所述第一图像的参数确定所述第一图像的第一权重和所述第二图像的第二权重;所述第一图像的参数包括以下至少一项:灰度直方图的分布、均值、标准偏差;
所述电子设备融合所述第一图像和所述第二图像以得到第三图像,包括:
所述电子设备基于所述第一权重和所述第二权重,融合所述第一图像和所述第二图像以得到所述第三图像。
4.如权利要求3所述的方法,其特征在于,所述电子设备根据所述第一图像的参数确定所述第一图像的第一权重和所述第二图像的第二权重,包括:
当满足预设条件时,所述电子设备设置所述第一权重和所述第二权重分别为第一预设值和第二预设值,其中,所述第一预设值小于所述第二预设值;所述预设条件包括以下至少一项:所述第一图像的灰度直方图的分布集中在固定区间内,所述第一图像的均值大于第一阈值,所述第一图像的均值小于第二阈值,所述第一图像的标准偏差小于第三阈值,其中,所述第一阈值大于所述第二阈值。
5.如权利要求2-4任一项所述的方法,其特征在于,所述电子设备根据所述第三图像获取所述N个部位的关键点信息,包括:
所述电子设备在所述第三图像中识别出所述N个部位所在的目标区域;
所述电子设备在所述目标区域中识别出所述N个部位的关键点信息。
6.如权利要求1-5任一项所述的方法,其特征在于,所述电子设备根据所述关键点信息和所述第二图像的灰度值确定所述N个部位中运动的第一部位,包括:
所述电子设备根据所述关键点信息从所述N个部位中确定出M个部位,M小于或等于N,M为正整数;所述关键点信息包括所述N个部位上的至少一个关键点的坐标;
所述电子设备根据所述第二图像的灰度值从所述M个部位中确定出所述第一部位,所述第一部位在所述第二图像中的像素的灰度值大于预设灰度阈值,或者所述第一部位在所述第二图像中的像素的灰度值大于所述M个部位中其他部位在所述第二图像中的像素的灰度值。
7.如权利要求6所述的方法,其特征在于,所述M个部位上的关键点在第一时刻的坐标和在第二时刻的坐标的差值大于第一预设差值,所述第一时刻和所述第二时刻不同;或者,所述M个部位上的关键点的坐标和预设坐标的差值小于第二预设差值。
8.如权利要求1-7任一项所述的方法,其特征在于,所述第一部位用于所述电子设备确定所述目标对象通过所述第一部位输入的第一信息。
9.如权利要求8所述的方法,其特征在于,所述方法还包括:
所述电子设备根据所述第一部位确定出Q个信息,Q为正整数,所述Q个信息包括所述第一信息;
所述电子设备根据第二信息从所述Q个信息中确定出所述第一信息,所述第二信息为所述目标对象输入所述第一信息之前输入的信息。
10.如权利要求1-9任一项所述的方法,其特征在于,所述第一部位为多个部位。
11.如权利要求1-10任一项所述的方法,其特征在于,所述目标对象为用户,所述N个部位为所述用户的手指。
12.一种电子设备,其特征在于,所述电子设备包括一个或多个存储器、一个或多个处理器;所述一个或多个存储器用于存储计算机程序,所述一个或多个处理器用于调用所述计算机程序,所述计算机程序包括指令,当所述指令被所述一个或多个处理器执行时,使得所述电子设备执行权利要求1至11任一项所述的方法。
13.如权利要求12所述的电子设备,其特征在于,所述电子设备包括所述事件相机和所述光学相机。
14.一种计算机存储介质,其特征在于,包括计算机程序,所述计算机程序包括指令,当所述指令在处理器上运行时,实现如权利要求1至11任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110222892.XA CN114967907A (zh) | 2021-02-26 | 2021-02-26 | 识别方法及电子设备 |
PCT/CN2022/076403 WO2022179412A1 (zh) | 2021-02-26 | 2022-02-16 | 识别方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110222892.XA CN114967907A (zh) | 2021-02-26 | 2021-02-26 | 识别方法及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114967907A true CN114967907A (zh) | 2022-08-30 |
Family
ID=82973247
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110222892.XA Pending CN114967907A (zh) | 2021-02-26 | 2021-02-26 | 识别方法及电子设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114967907A (zh) |
WO (1) | WO2022179412A1 (zh) |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6344530B2 (ja) * | 2015-09-28 | 2018-06-20 | 日本電気株式会社 | 入力装置、入力方法、及びプログラム |
US11138742B2 (en) * | 2017-02-14 | 2021-10-05 | The Trustees Of The University Of Pennsylvania | Event-based feature tracking |
CN109241835A (zh) * | 2018-07-27 | 2019-01-18 | 上海商汤智能科技有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN112514373B (zh) * | 2018-08-14 | 2023-09-15 | 华为技术有限公司 | 用于特征提取的图像处理装置和方法 |
CN111951313B (zh) * | 2020-08-06 | 2024-04-26 | 北京灵汐科技有限公司 | 图像配准方法、装置、设备及介质 |
CN112396562B (zh) * | 2020-11-17 | 2023-09-05 | 中山大学 | 一种高动态范围场景下基于rgb与dvs图像融合的视差图增强方法 |
CN112884805A (zh) * | 2021-01-07 | 2021-06-01 | 清华大学 | 一种跨尺度自适应映射的光场成像方法 |
CN113033526A (zh) * | 2021-05-27 | 2021-06-25 | 北京欧应信息技术有限公司 | 基于计算机实现的方法、电子设备和计算机程序产品 |
-
2021
- 2021-02-26 CN CN202110222892.XA patent/CN114967907A/zh active Pending
-
2022
- 2022-02-16 WO PCT/CN2022/076403 patent/WO2022179412A1/zh active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2022179412A1 (zh) | 2022-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108594997B (zh) | 手势骨架构建方法、装置、设备及存储介质 | |
CN107945163B (zh) | 图像增强方法及装置 | |
US20220197033A1 (en) | Image Processing Method and Head Mounted Display Device | |
CN113538273B (zh) | 图像处理方法及图像处理装置 | |
KR20210111833A (ko) | 타겟의 위치들을 취득하기 위한 방법 및 장치와, 컴퓨터 디바이스 및 저장 매체 | |
CN112614057A (zh) | 一种图像虚化处理方法及电子设备 | |
CN111145192B (zh) | 图像处理方法及电子设备 | |
US11977981B2 (en) | Device for automatically capturing photo or video about specific moment, and operation method thereof | |
CN109756763B (zh) | 用于基于优先级处理图像的电子装置及其操作方法 | |
US11563889B2 (en) | Electronic device and method for controlling camera using external electronic device | |
CN112947755A (zh) | 手势控制方法与装置、电子设备及存储介质 | |
CN113741681A (zh) | 一种图像校正方法与电子设备 | |
CN110807769B (zh) | 图像显示控制方法及装置 | |
CN111385514B (zh) | 人像处理方法和装置以及终端 | |
CN116048244A (zh) | 一种注视点估计方法及相关设备 | |
CN110956571A (zh) | 基于slam进行虚实融合的方法及电子设备 | |
CN115908120B (zh) | 图像处理方法和电子设备 | |
CN113727013A (zh) | 提供图像拍摄指南的方法或者装置 | |
CN115049819A (zh) | 注视区域识别方法及装置 | |
CN116703995B (zh) | 视频虚化处理方法和装置 | |
CN113850709A (zh) | 图像变换方法和装置 | |
CN111385481A (zh) | 图像处理方法及装置、电子设备及存储介质 | |
CN113711123A (zh) | 一种对焦方法、装置及电子设备 | |
CN115150542B (zh) | 一种视频防抖方法及相关设备 | |
CN117132515A (zh) | 一种图像处理方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |