CN109683710B - 一种手掌法向量确定方法、装置、设备及存储介质 - Google Patents
一种手掌法向量确定方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN109683710B CN109683710B CN201811565432.1A CN201811565432A CN109683710B CN 109683710 B CN109683710 B CN 109683710B CN 201811565432 A CN201811565432 A CN 201811565432A CN 109683710 B CN109683710 B CN 109683710B
- Authority
- CN
- China
- Prior art keywords
- palm
- image
- normal vector
- artis
- position coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
Abstract
本公开实施例公开了一种手掌法向量确定方法、装置、设备及存储介质,其中,该方法包括:确定用户的手掌图像;确定所述手掌图像到手掌矫正图像的矫正关系,并基于所述矫正关系对所述手掌图像进行矫正,得到所述手掌矫正图像;确定所述手掌矫正图像中手掌的法向量,并作为目标法向量;基于所述矫正关系和所述目标法向量,确定所述手掌图像中手掌的真实法向量。本公开实施例提供的技术方案,可以简化手掌法向量的确定任务,可以提高手掌法向量确定的精确度。
Description
技术领域
本公开实施例涉及图像处理技术领域,尤其涉及一种手掌法向量确定方法、装置、设备及存储介质。
背景技术
人机交互作为人与设备之间的主要交流通道,其技术也在不断的由操作可行到便利、舒适的方向发展,越来越多的研究放在基于手的交互技术方面,相比于其他人体部位,手部自由灵活,在用户的日常生活中担负着大量的交互工作,通过手部完成的操作数不胜数。
其中,在人机交互过程中,通过对人手姿态的检测,设备可以产生不同的响应。其中,手掌法向量的检测是人手姿态检测的一部分,通过检测手掌法向量,基于手掌法向量产生对应的交互响应。现有技术中,手掌法向量的确定是通过是对通过根据手掌图像数据进行平面拟合,通过拟合平面得到手掌的法向量。但是现有技术中确定手掌法向量的方法,当确定不同的手掌图像中手掌的法向量时,均需要基于每张手掌图像的数据进行平面拟合,数据处理方法比较复杂,从而手掌法向量确定比较复杂、并且精确度有待于提高。
发明内容
本公开实施例提供了一种手掌法向量确定方法、装置、设备及存储介质,可以简化手掌法向量的确定任务,可以提高手掌法向量确定的精确度。
第一方面,本公开实施例提供了一种手掌法向量确定方法,包括:
确定用户的手掌图像;
确定所述手掌图像到手掌矫正图像的矫正关系,并基于所述矫正关系对所述手掌图像进行矫正,得到所述手掌矫正图像;
确定所述手掌矫正图像中手掌的法向量,并作为目标法向量;
基于所述矫正关系和所述目标法向量,确定所述手掌图像中手掌的真实法向量。
第二方面,本公开实施例还提供了一种手掌的法向量确定装置,包括:
手掌图像确定模块,用于确定用户的手掌图像;
手掌矫正图像确定模块,用于确定所述手掌图像到手掌矫正图像的矫正关系,并基于所述矫正关系对所述手掌图像进行矫正,得到所述手掌矫正图像;
目标法向量确定模块,用于确定所述手掌矫正图像中手掌的法向量,并作为目标法向量;
真实法向量确定模块,用于基于所述矫正关系和所述目标法向量,确定所述手掌图像中手掌的真实法向量。
第三方面,本公开实施例还提供了一种设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本公开实施例提供的一种手掌法向量确定方法。
第四方面,本公开实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本公开实施例提供的手掌法向量确定方法。
本公开实施例提供的技术方案,通过对手掌图像进行矫正,并通过手掌矫正图像中手掌法向量确定手掌图像中手掌的真实法向量,可以简化手掌法向量的确定任务,可以提高手掌法向量确定的精确度。
附图说明
图1是本公开实施例提供的一种手掌法向量确定方法流程图;
图2是本公开实施例提供的一种手掌法向量确定方法流程图;
图3是本公开实施例提供的一种手掌法向量确定方法流程图;
图4是本公开实施例提供的一种手掌法向量确定装置结构框图;
图5是本公开实施例提供的一种设备结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本公开,而非对本公开的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本公开相关的部分而非全部结构。
图1是本公开实施例提供的一种手掌法向量确定方法流程图,所述方法可以由手掌法向量确定装置来执行,所述装置由软件和/硬件来执行,所述装置可以配置在终端中。所述方法可以应用在确定手掌法向量的场景中。可选的,所述方法可以应用到人机交互的场景中,具体的,所述方法也可以应用在用户与视频应用界面交互的场景中,具体的,所述方法可以应用在基于手掌法向量需要进行图像渲染的场景中。
如图1所示,本公开实施例提供的技术方案包括:
S110:确定用户的手掌图像。
在本公开实施例的一个实施方式中,可选的,所述获取用户的手掌图像,包括:获取用户图像,所述用户图像中包含用户的手掌和所述手掌之外的背景;将所述用户图像输入到第一深度学习模型中,得到手掌检测框的位置数据;基于所述手掌检测框的位置数据从所述用户图像中截取所述用户的手掌图像。
其中,用户图像可以是实时拍摄的用户的图像,其中,用户图像中包含用户的手掌和手掌之外的背景。将用户图像输入到第一深度学习模型中,得到手掌检测框的位置数据。其中,第一深度学习模型可以是已训练的神经网络模型,可以是已训练的其他模型等。第一深度学习模型可以预先进行训练,具体训练的过程可以是:可以选取用户图像训练样本,以用户图像训练样本为第一深度学习模型的输入,以用户图像训练样本中手掌检测框的位置数据为第一深度学习模型的输出,对第一深度学习模型进行训练,得到已训练的第一深度学习模型。第一深度学习模型训练后,当将实时拍摄的用户图像输入到第一深度学习模型,可以输出手掌检测框的位置数据。其中,手掌检测框,用于定位用户图像中的手掌。通过手掌检测框的位置数据从用户图像中截取用户的手掌图像。
需要说明的是,对于用户的手掌图像的确定方法并不局限于上述的方法,还可以采用其他方法确定用户的手掌图像。
S120:确定所述手掌图像到手掌矫正图像的矫正关系,并基于所述矫正关系对所述手掌图像进行矫正,得到所述手掌矫正图像。
在本公开实施例中,手掌图像到手掌矫正图像的矫正关系可以理解是手掌图像变换到手掌矫正图像的变换关系,可选的,矫正关系可以是矫正矩阵。
可选的,确定手掌图像到手掌矫正图像的矫正关系,可以具体是:确定手掌图像中的两个手掌关节点,将该两个手掌关节点的位置变换到手掌矫正图像中对应手掌关节点的位置,得到矫正关系;并将矫正关系作用到手掌图像中,得到手掌矫正图像,具体详细介绍可以参考下述实施例的介绍。
S130:确定所述手掌矫正图像中手掌的法向量,并作为目标法向量。
在本公开实施例中的一个实施方式中,所述确定所述矫正的手掌图像的法向量,包括:将所述手掌矫正图像输入到第三深度学习模型中,得到所述手掌矫正图像的手掌法向量。其中,第三深度学习模型可以是已训练的神经网络模型,或者也可以是已训练的其他模型。第三深度学习模型的训练过程可以具体是:选取手掌图像训练样本,以手掌图像训练样本为第三深度学习模型的输入,以手掌图像中手掌的法向量为第三深度学习模型的输出,对第三神经网络模型进行训练,得到已训练的第三深度学习模型。
其中,当将手掌矫正图像输入到第三深度学习模型中时,可以输出手掌矫正图像中手掌的法向量,并作为目标法向量。其中,手掌法向量可以理解是垂直于手掌所在平面的向量,可选的,可以理解是垂直于手掌所在平面的单位向量。
由此,通过第三深度学习模型可以确定手掌矫正图像中手掌的法向量,从而可以使基于手掌矫正图像中手掌的法向量确定手掌图像中手掌的真实法向量。其中,若第三深度学习模型是采用手掌标准图像进行训练的模型,其中手掌标准图像中手掌的角度是相同的,采用手掌角度相同的手掌标准图像对第三深度学习模型进行训练,可以得到效果较好的深度学习模型,以使深度学习模型的输出更加准确。若不对获取到的手掌图像进行矫正,直接根据手掌图像的数据确定手掌法向量,由于获取到的手掌图像中手掌的角度很大可能,与手掌标准图像中手掌的角度并不相同,因此,当获取到手掌图像输入到第三深度学习模型中时,第三深度学习模型输出的手掌的法向量并不准确。所以,可以将手掌图像进行矫正,将手掌矫正图像输入到第三深度学习模型中,可以准确得到手掌矫正图像中手掌的法向量,并采用手掌矫正图像中手掌的法向量可以准确得到手掌图像中手掌的法向量。其中,手掌矫正图像中的手掌符合手掌标准图像中对手掌规定的条件。
并且若不对手掌图像进行矫正,当将获取到的手掌图像输入到第三深度学习模型中时,获取到的每张手掌图像中手掌的角度并不相同,需要基于不同手掌角度的手掌图像确定手掌的法向量,每张手掌图像采用不同的算法,处理比较复杂。若将每一张手掌图像进行矫正,第三深度学习模型输入到每张手掌图像中手掌的角度相同,手掌法向量的计算会相对简单,从而简化了手掌法向量确定的任务,并且也可以提高精确度。
S140:基于所述矫正关系和所述目标法向量,确定所述手掌图像中手掌的真实法向量。
在本公开实施例中,基于手掌图像到手掌矫正图像的矫正关系、以及手掌矫正图像中手掌的法向量,可以确定手掌图像中手掌的真实法向量。具体的过程可以是:基于手掌图像到手掌矫正图像的矫正关系,可以确定手掌矫正图像到手掌图像的逆变换关系,基于手掌矫正图像到手掌图像的逆变换关系,以及手掌矫正图像中手掌的法向量,可以确定手掌图像中手掌的真实法向量。具体的介绍可以参考下述的实施例。
本公开实施例提供的一种手掌法向量的确定方法,通过对手掌图像进行矫正,并通过手掌矫正图像中手掌法向量确定手掌图像中手掌的真实法向量,可以简化手掌法向量的确定任务,可以提高手掌法向量确定的精确度。
图2是本公开实施例提供的一种手掌法向量确定方法流程图,在本实施例中,可选的,
所述确定所述手掌图像到手掌矫正图像的矫正关系,并基于所述矫正关系对所述手掌图像进行矫正,得到所述手掌矫正图像,包括:
确定所述手掌图像到所述手掌矫正图像的矫正矩阵,并基于所述矫正矩阵对所述手掌图像进行矫正,得到手掌矫正图像;
相应的,基于所述矫正关系和所述目标法向量,确定所述手掌图像中手掌的真实法向量,包括:
确定所述矫正矩阵的逆矩阵,并将所述逆矩阵与所述目标法向量相乘,得到所述手掌图像中手掌的真实法向量。
如图2所示,本公开实施例提供的技术方案包括:
S210:确定用户的手掌图像。
S220:确定所述手掌图像到所述手掌矫正图像的矫正矩阵,并基于所述矫正矩阵对所述手掌图像进行矫正,得到手掌矫正图像。
在本公开实施例的一个实施方式中,可选的,确定所述手掌图像到所述手掌矫正图像的矫正矩阵,并基于所述矫正矩阵对所述手掌图像进行矫正,得到手掌矫正图像,可以包括:将所述手掌图像输入到第二深度学习模型中,得到多个手掌关节点的位置坐标以及每个所述位置坐标单独对应的手掌关节点的标识;基于所述手掌关节点的标识从所述手掌关节点的位置坐标中选取第一目标关节点的位置坐标和第二目标关节点的位置坐标;将所述第一目标关节点的位置坐标和所述第二目标关节点的位置坐标变换到分别对应的第一预设关节点的位置坐标和第二预设关节点的位置坐标,得到矫正矩阵;基于所述矫正矩阵对所述手掌图像进行坐标变换,得到手掌矫正图像。
其中,第二深度学习模型可以是已训练的神经网络模型,或者也可以是已训练的其他模型。第二深度学习训练模型的训练过程可以具体是:选取手掌图像训练样本,以手掌图像训练样本为第二深度学习模型的输入,以手掌图像训练样本手掌关节点的位置坐标以及每个位置坐标对应的手掌关节点的标识为第二深度学习模型的输出,对第二神经网络模型进行训练,得到已训练的第二深度学习模型。
其中,当将手掌图像输入到第二深度学习模型中,可以输出手掌图像中多个手掌关节点的位置坐标以及每个位置坐标对应的手掌关节点的标识,其中,手掌关节点的标识可以是编号。从输出的手掌关节点的位置坐标可以选取两个关节点的位置坐标,并基于该两个位置坐标对应的手掌关节点的标识确定该两个位置坐标分别是第一目标关节点的位置坐标和第二目标关节点的位置坐标。其中,第一目标关节点和第二目标关节点可以是手掌关节点中的任意两个关节点,或者第一目标关节点可以是中指与手掌连接处的关节点,第二目标关节点可以是手掌与手腕连接处的关节点。其中,第一目标关节点和第二目标关节点的选取也可以随机选取。
其中,第一目标关节点和第一预设关节点的标识可以是相同的,即第一目标关节点和第一预设关节点可以是手掌的同一个位置。第二目标关节点和第二预设关节点的标识可以是相同的,即第二目标关节点和第二预设关节点可以是手掌的同一个位置。其中,第一预设关节点的位置坐标和第二预设关节点的位置坐标可以分别是:第一目标关节点的位置坐标和第二目标关节点的位置坐标变换到标准手掌图像中分别对应的位置坐标。例如,第一目标关节点和第二目标关节点分别是1号关节点和9号关节点,则第一预设关节点的位置坐标是1号关节点在标准手掌图像中的位置坐标,第二预设关节点是9号关节点在标准手掌图像中的位置坐标。
其中,将第一目标关节点的位置坐标和第二目标关节点的位置坐标变换到分别对应的第一预设关节点的位置坐标和第二预设关节点的位置坐标,得到矫正矩阵,并基于矫正矩阵对手掌图像进行坐标变换,得到手掌矫正图像。例如,第一目标关节点的位置坐标和第二目标关节点的位置坐标分别是(x1,y1)和(x2,y2)。第一预设关节点的位置坐标和第二预设关节点的位置坐标分别是(x1’,y1’)和(x2’,y2’),将(x1,y1)和(x2,y2)变换到分别对应的(x1’,y1’)和(x2’,y2’)。则[x1y1]R=[x1’y1’],[x2y2]R=[x2’y2’]。其中R为矫正矩阵,经过计算可以得到矫正矩阵,并将矫正矩阵对手掌图像中每个像素点的位置坐标进行坐标变换,得到手掌矫正图像。由此,通过选取两个手掌关节点的位置进行坐标变换得到矫正矩阵,基于矫正矩阵对手掌图像进行坐标变化,得到手掌矫正图像,可以减少数据处理量,提高处理速度。
S230:确定所述手掌矫正图像中手掌的法向量,并作为目标法向量。
S240:确定所述矫正矩阵的逆矩阵,并将所述逆矩阵与所述目标法向量相乘,得到所述手掌图像中手掌的真实法向量。
在本公开实施例中,手掌图像到手掌矫正图像基于矫正矩阵进行坐标变换,所以手掌图像中手掌的法向量到手掌矫正图像中的手掌法向量也是基于矫正矩阵进行坐标变换。故矫正矩阵的逆矩阵与手掌矫正图像中手掌法向量相乘,可以得到手掌图像中手掌的真实法向量。例如,a1R=a1’,其中,a1是手掌图像的真实法向量,a1’是手掌矫正图像中手掌的法向量,则a1=a1’R-1。
图3是本公开实施例提供的一种手掌法向量确定方法流程图,如图3所示,本公开实施例提供的技术方案包括:
S310:获取用户图像,所述用户图像中包含用户的手掌和所述手掌之外的背景。
S320:将所述用户图像输入到第一深度学习模型中,得到手掌检测框的位置数据。
S330:基于所述手掌检测框的位置数据从所述用户图像中截取所述用户的手掌图像。
由此,通过第一深度学习模型得到手掌检测框的位置数据,并基于该位置数据截取用户的手掌图像,可以快速得到手掌图像。
S340:将所述手掌图像输入到第二深度学习模型中,得到多个手掌关节点的位置坐标以及每个所示位置坐标单独对应的手掌关节点的标识。
S350:基于所示手掌关节点的标识从所述手掌关节点的位置坐标中选取第一目标关节点的位置坐标和第二目标关节点的位置坐标。
S360:将所述第一目标关节点的位置坐标和所述第二目标关节点的位置坐标变换到分别对应的第一预设关节点的位置坐标和第二预设关节点的位置坐标,得到矫正矩阵。
S370:基于所述矫正矩阵对所述手掌图像进行坐标变换,得到手掌矫正图像。
S380:确定所述矫正矩阵的逆矩阵,并将所述逆矩阵与所述目标法向量相乘,得到所述手掌图像中手掌的真实法向量。
由此,通过将手掌图像基于矫正矩阵进行矫正,通过第三深度学习模型确定手掌矫正图像中手掌的法向量,并基于手掌矫正图像中手掌的法向量确定手掌图像中手掌的真实法向量,由于输入到第三深度学习模型中每张手掌矫正图像中手掌的角度相同,手掌法向量计算相对简单,手掌图像到手掌矫正图像的矫正矩阵也很容易得到,因此,简化了手掌真实法向量的确定任务。同时可以采用手掌角度相同的手掌图像训练样本对第三深度学习模型进行训练,得到训练效果较好的模型,输出的手掌法向量精确度提高,从而将手掌矫正图像输入到第三深度模型中时,可以准确得到手掌矫正图像的手掌法向量,从而基于手掌矫正图像的手掌法向量可以准确得到手掌图像的真实法向量。
在上述实施例的基础上,本公开实施例提供的手掌法向量确定方法还可以包括:沿所述手掌图像中手掌的真实法向量所在的方向进行图像渲染。其中,可以沿手掌真实法向量所在的方向渲染多个动画对象。例如,当用户与视频应用界面进行交互时,用户可以采用手掌与视频应用界面进行交互,终端获取到用户图像,从用户图像中截取用户手掌图像,通过上述的方法确定手掌图像中手掌的真实法向量,终端可以沿手掌的真实法向量的方向渲染多个圆圈等,即多个圆圈沿手掌的真实法向量方向排列。用户可以观看到自己发射的圆圈阵,可以提高趣味性,可以提高用户体验。
图4是本公开实施例提供的一种手掌的法向量确定装置的结构框图,如图4所示,本公开实施例提供的技术方案包括:手掌图像确定模块410、手掌矫正图像确定模块420、目标法向量确定模块430和真实法向量确定模块440。
手掌图像确定模块410,用于确定用户的手掌图像;
手掌矫正图像确定模块420,用于确定所述手掌图像到手掌矫正图像的矫正关系,并基于所述矫正关系对所述手掌图像进行矫正,得到所述手掌矫正图像;
目标法向量确定模块430,用于确定所述手掌矫正图像中手掌的法向量,并作为目标法向量;
真实法向量确定模块440,用于基于所述矫正关系和所述目标法向量,确定所述手掌图像中手掌的真实法向量。
可选的,手掌矫正图像确定模块420,用于确定所述手掌图像到所述手掌矫正图像的矫正矩阵,并基于所述矫正矩阵对所述手掌图像进行矫正,得到手掌矫正图像;
真实法向量确定模块440,用于确定所述矫正矩阵的逆矩阵,并将所述逆矩阵与所述目标法向量相乘,得到所述手掌图像中手掌的真实法向量。
手掌矫正图像确定模块420,用于将所述手掌图像输入到第二深度学习模型中,得到多个手掌关节点的位置坐标以及每个所示位置坐标单独对应的手掌关节点的标识;
基于所示手掌关节点的标识从所述手掌关节点的位置坐标中选取第一目标关节点的位置坐标和第二目标关节点的位置坐标;
将所述第一目标关节点的位置坐标和所述第二目标关节点的位置坐标变换到分别对应的第一预设关节点的位置坐标和第二预设关节点的位置坐标,得到矫正矩阵;
基于所述矫正矩阵对所述手掌图像进行坐标变换,得到手掌矫正图像。
手掌图像确定模块410,用于获取用户图像,其中,所述用户图像中包含用户的手掌和所述手掌之外的背景;
将所述用户图像输入到第一深度学习模型中,得到手掌检测框的位置数据;
基于所述手掌检测框的位置数据从所述用户图像中截取所述用户的手掌图像。
可选的,所述确定所述矫正的手掌图像的法向量,包括:
将所述手掌矫正图像输入到第三深度学习模型中,得到所述手掌矫正图像的手掌法向量。
可选的,所述装置还包括:渲染模块,用于沿所述手掌图像中手掌的真实法向量所在的方向进行图像渲染。
上述装置可执行本公开任意实施例所提供的方法,具备执行方法相应的功能模块和有益效果。
下面参考图5,其示出了适于用来实现本公开实施例的电子设备(例如终端设备)500的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图5示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图5所示,电子设备500可以包括处理装置(例如中央处理器、图形处理器等)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储装置508加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有电子设备500操作所需的各种程序和数据。处理装置501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
通常,以下装置可以连接至I/O接口505:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置506;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置507;包括例如磁带、硬盘等的存储装置508;以及通信装置509。通信装置509可以允许电子设备500与其他设备进行无线或有线通信以交换数据。虽然图5示出了具有各种装置的电子设备500,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置509从网络上被下载和安装,或者从存储装置508被安装,或者从ROM 502被安装。在该计算机程序被处理装置501执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:
确定用户的手掌图像;
确定所述手掌图像到手掌矫正图像的矫正关系,并基于所述矫正关系对所述手掌图像进行矫正,得到所述手掌矫正图像;
确定所述手掌矫正图像中手掌的法向量,并作为目标法向量;
基于所述矫正关系和所述目标法向量,确定所述手掌图像中手掌的真实法向量。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的模块、单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块、单元的名称在某种情况下并不构成对该模块或单元本身的限定。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
注意,上述仅为本公开的较佳实施例及所运用技术原理。本领域技术人员会理解,本公开不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本公开的保护范围。因此,虽然通过以上实施例对本公开进行了较为详细的说明,但是本公开不仅仅限于以上实施例,在不脱离本公开构思的情况下,还可以包括更多其他等效实施例,而本公开的范围由所附的权利要求范围决定。
Claims (8)
1.一种手掌法向量确定方法,其特征在于,包括:
确定用户的手掌图像;
确定所述手掌图像到所述手掌矫正图像的矫正矩阵,并基于所述矫正矩阵对所述手掌图像进行矫正,得到手掌矫正图像;
确定所述手掌矫正图像中手掌的法向量,并作为目标法向量;
确定所述矫正矩阵的逆矩阵,并将所述逆矩阵与所述目标法向量相乘,得到所述手掌图像中手掌的真实法向量。
2.根据权利要求1所述的方法,其特征在于,所述确定所述手掌图像到所述手掌矫正图像的矫正矩阵,并基于所述矫正矩阵对所述手掌图像进行矫正,得到手掌矫正图像,包括:
将所述手掌图像输入到第二深度学习模型中,得到多个手掌关节点的位置坐标以及每个所示位置坐标单独对应的手掌关节点的标识;
基于所示手掌关节点的标识从所述手掌关节点的位置坐标中选取第一目标关节点的位置坐标和第二目标关节点的位置坐标;
将所述第一目标关节点的位置坐标和所述第二目标关节点的位置坐标变换到分别对应的第一预设关节点的位置坐标和第二预设关节点的位置坐标,得到矫正矩阵;
基于所述矫正矩阵对所述手掌图像进行坐标变换,得到手掌矫正图像。
3.根据权利要求1所述的方法,其特征在于,所述确定用户的手掌图像,包括:
获取用户图像,其中,所述用户图像中包含用户的手掌和所述手掌之外的背景;
将所述用户图像输入到第一深度学习模型中,得到手掌检测框的位置数据;
基于所述手掌检测框的位置数据从所述用户图像中截取所述用户的手掌图像。
4.根据权利要求1所述的方法,其特征在于,所述确定所述矫正的手掌图像的法向量,包括:
将所述手掌矫正图像输入到第三深度学习模型中,得到所述手掌矫正图像的手掌法向量。
5.根据权利要求1所述的方法,其特征在于,还包括:
沿所述手掌图像中手掌的真实法向量所在的方向进行图像渲染。
6.一种手掌的法向量确定装置,其特征在于,包括:
手掌图像确定模块,用于确定用户的手掌图像;
手掌矫正图像确定模块,用于确定所述手掌图像到所述手掌矫正图像的矫正矩阵,并基于所述矫正矩阵对所述手掌图像进行矫正,得到手掌矫正图像;
目标法向量确定模块,用于确定所述手掌矫正图像中手掌的法向量,并作为目标法向量;
真实法向量确定模块,用于确定所述矫正矩阵的逆矩阵,并将所述逆矩阵与所述目标法向量相乘,得到所述手掌图像中手掌的真实法向量。
7.一种设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5任一项所述的一种手掌法向量确定方法。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-5任一项所述的手掌法向量确定方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811565432.1A CN109683710B (zh) | 2018-12-20 | 2018-12-20 | 一种手掌法向量确定方法、装置、设备及存储介质 |
PCT/CN2019/095095 WO2020124995A1 (zh) | 2018-12-20 | 2019-07-08 | 手掌法向量确定方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811565432.1A CN109683710B (zh) | 2018-12-20 | 2018-12-20 | 一种手掌法向量确定方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109683710A CN109683710A (zh) | 2019-04-26 |
CN109683710B true CN109683710B (zh) | 2019-11-08 |
Family
ID=66188138
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811565432.1A Active CN109683710B (zh) | 2018-12-20 | 2018-12-20 | 一种手掌法向量确定方法、装置、设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN109683710B (zh) |
WO (1) | WO2020124995A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109683710B (zh) * | 2018-12-20 | 2019-11-08 | 北京字节跳动网络技术有限公司 | 一种手掌法向量确定方法、装置、设备及存储介质 |
CN110349096A (zh) * | 2019-06-14 | 2019-10-18 | 平安科技(深圳)有限公司 | 手掌图像的校正方法、装置、设备及存储介质 |
CN111414837A (zh) * | 2020-03-16 | 2020-07-14 | 苏州交驰人工智能研究院有限公司 | 手势识别方法、装置、计算机设备及存储介质 |
CN113420700B (zh) * | 2021-07-02 | 2022-10-25 | 支付宝(杭州)信息技术有限公司 | 手掌生物特征采集装置及方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103558850A (zh) * | 2013-07-26 | 2014-02-05 | 无锡信捷电气股份有限公司 | 一种激光视觉引导的焊接机器人全自动运动自标定方法 |
CN103745474A (zh) * | 2014-01-21 | 2014-04-23 | 南京理工大学 | 基于惯性传感器和摄像机的图像配准方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101866482B (zh) * | 2010-06-21 | 2012-02-15 | 清华大学 | 基于摄像设备自标定技术的全景图拼接方法和装置 |
CN103488972B (zh) * | 2013-09-09 | 2016-07-06 | 西安交通大学 | 基于深度信息的指尖检测方法 |
KR101593950B1 (ko) * | 2014-05-28 | 2016-02-15 | 숭실대학교산학협력단 | 손동작 기반의 인터페이스 장치 및 이를 이용한 포인팅 방법 |
CN106558067B (zh) * | 2015-09-25 | 2019-08-09 | 株式会社理光 | 对象跟踪方法、装置和系统 |
CN106383586A (zh) * | 2016-10-21 | 2017-02-08 | 东南大学 | 一种孤独症谱系障碍儿童训练系统 |
CN107341473B (zh) * | 2017-07-04 | 2018-07-06 | 深圳市利众信息科技有限公司 | 手掌特征识别方法、手掌特征识别设备、及存储介质 |
CN108282651A (zh) * | 2017-12-18 | 2018-07-13 | 北京小鸟看看科技有限公司 | 相机参数的矫正方法、装置及虚拟现实设备 |
CN109683710B (zh) * | 2018-12-20 | 2019-11-08 | 北京字节跳动网络技术有限公司 | 一种手掌法向量确定方法、装置、设备及存储介质 |
-
2018
- 2018-12-20 CN CN201811565432.1A patent/CN109683710B/zh active Active
-
2019
- 2019-07-08 WO PCT/CN2019/095095 patent/WO2020124995A1/zh active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103558850A (zh) * | 2013-07-26 | 2014-02-05 | 无锡信捷电气股份有限公司 | 一种激光视觉引导的焊接机器人全自动运动自标定方法 |
CN103745474A (zh) * | 2014-01-21 | 2014-04-23 | 南京理工大学 | 基于惯性传感器和摄像机的图像配准方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2020124995A1 (zh) | 2020-06-25 |
CN109683710A (zh) | 2019-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109683710B (zh) | 一种手掌法向量确定方法、装置、设备及存储介质 | |
CN109584276B (zh) | 关键点检测方法、装置、设备及可读介质 | |
CN109712234B (zh) | 三维人体模型的生成方法、装置、设备和存储介质 | |
CN109583391B (zh) | 关键点检测方法、装置、设备及可读介质 | |
CN110210501B (zh) | 虚拟对象生成方法、电子设备及计算机可读存储介质 | |
CN109754464B (zh) | 用于生成信息的方法和装置 | |
US20220358662A1 (en) | Image generation method and device | |
CN109889893A (zh) | 视频处理方法、装置及设备 | |
CN111260774A (zh) | 生成3d关节点回归模型的方法和装置 | |
CN110225400A (zh) | 一种动作捕捉方法、装置、移动终端及存储介质 | |
CN111589138B (zh) | 动作预测方法、装置、设备及存储介质 | |
CN110969159B (zh) | 图像识别方法、装置及电子设备 | |
CN114842120A (zh) | 一种图像渲染处理方法、装置、设备及介质 | |
CN112818898B (zh) | 模型训练方法、装置和电子设备 | |
CN109829431A (zh) | 用于生成信息的方法和装置 | |
CN111368668B (zh) | 三维手部识别方法、装置、电子设备及存储介质 | |
CN109635767B (zh) | 一种手掌法向模型的训练方法、装置、设备及存储介质 | |
CN110189364B (zh) | 用于生成信息的方法和装置,以及目标跟踪方法和装置 | |
CN110069195B (zh) | 图像拖拽变形方法和装置 | |
CN112270242A (zh) | 轨迹的显示方法、装置、可读介质和电子设备 | |
CN109242892B (zh) | 用于确定图像间的几何变换关系的方法和装置 | |
CN109816791A (zh) | 用于生成信息的方法和装置 | |
CN109840059A (zh) | 用于显示图像的方法和装置 | |
CN115661232A (zh) | 位姿估算方法、模型训练方法和装置 | |
CN110070479B (zh) | 图像变形拖拽点定位方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |