CN110443205B - 一种手部图像分割方法及装置 - Google Patents
一种手部图像分割方法及装置 Download PDFInfo
- Publication number
- CN110443205B CN110443205B CN201910725548.5A CN201910725548A CN110443205B CN 110443205 B CN110443205 B CN 110443205B CN 201910725548 A CN201910725548 A CN 201910725548A CN 110443205 B CN110443205 B CN 110443205B
- Authority
- CN
- China
- Prior art keywords
- hand
- pixel
- color image
- segmentation
- rgb color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
Abstract
本发明提供了一种手部图像分割方法及装置,在获取手部候选框RGB彩色图像之后,通过语义分割神经网络模型进行处理,得到手部候选框RGB彩色图像的像素分割标签,并利用得到的像素分割标签对手部候选框RGB彩色图像进行语义分割,得到前景手部深度值和彩色手部分割区域数据,避免了背景深度值对手部深度数据的干扰,再利用彩色手部分割区域数据对前景手部深度值进行修正,得到准确的手部深度数据,由于本发明采用语义分割神经网络模型对手部候选框RGB彩色图像进行语义分割,降低了基于单目深度相机的手部关键点估计技术深度图数据质量的依赖性。
Description
技术领域
本发明涉及图像处理技术领域,更具体的,涉及一种手部图像分割方法及装置。
背景技术
3D手势关键点估计为3D手势控制的关键技术,其中,基于双红外数据的手部关键点估计技术为一种准确度较高的3D手势关键点估计技术,利用外部参数标定好的双红外摄像头从不同角度拍摄手的姿态,从而在算法识别过程中可以有效利用不同角度的数据对算法结果进行修正,但是其算法和技术必须依赖于硬件设备(双红外摄像头),不具有普适性。
基于单目深度相机的手部关键点估计技术不依赖双红外摄像头,直接或间接利用一个深度摄像头通过获取其红外图和彩色图,采用RGB空间的彩色图像算法识别出图像中手部关键点的二维坐标,然后在配准后的深度图像中找对应位置的深度值,作为其深度方向的数值,或直接采用单目深度图像数据算法识别出深度图像中手部关键点的三维坐标。
但是,这种基于单目深度相机的手部关键点估计技术依赖深度图数据的质量,当深度图像存在较多噪声、深度图不够精准、边缘轮廓不够平滑或背景深度值存在很大干扰等情况,使得手部前景的深度数据不够准确,影响手部关键点坐标估计的准确度。
发明内容
有鉴于此,本发明公开了一种手部图像分割方法及装置,对手部检测后得到的手部候选框RGB彩色图像进行优化处理,得到准确的手部深度数据。
为了实现上述发明目的,本发明提供的具体技术方案如下:
一种手部图像分割方法,包括:
获取手部候选框RGB彩色图像,所述手部候选框RGB彩色图像为经过手部检测后得到的RGB彩色图像;
将所述手部候选框RGB彩色图像输入语义分割神经网络模型中进行处理,得到所述手部候选框RGB彩色图像的像素分割标签;
利用得到的像素分割标签对手部候选框RGB彩色图像进行语义分割,得到前景手部深度值和彩色手部分割区域数据;
利用所述彩色手部分割区域数据对所述前景手部深度值进行修正,得到准确的手部深度数据。
可选的,所述方法还包括:
获取所述语义分割神经网络模型的训练数据,所述训练数据包括多个包含CG手部模型的合成彩色图像及其像素分割标签;
利用所述训练数据对预设神经网络模型进行训练,当所述预设神经网络模型输出结果的准确率大于阈值时,得到所述语义分割神经网络模型。
可选的,所述获取所述语义分割神经网络模型的训练数据,包括:
通过设置每个手部关键点的自由度参数,生成不同手部姿势的CG手部模型;
分别将不同手部姿势的CG手部模型渲染到不同的彩色场景图像中,得到多个合成彩色图像;
分别对每个所述合成彩色图像中CG手部模型映射在彩色场景图像中的形状进行打码,得到每个所述合成彩色图像的像素分割标签;
对每个所述合成彩色图像及其像素分割标签进行归一化处理,得到具有预设分辨率的所述语义分割神经网络模型的训练数据。
可选的,所述获取手部候选框RGB彩色图像,包括:
利用手部识别算法对目标彩色图像进行手部检测,得到包含手部图像的RGB彩色图像;
对所述RGB彩色图像进行归一化处理,得到预设分辨率的所述手部候选框RGB彩色图像。
可选的,在所述得到准确的手部深度数据之后,所述方法还包括:
对准确的手部深度数据进行关键点估计,得到每个手部关键点的三维坐标。
一种手部图像分割装置,包括:
图像获取单元,用于获取手部候选框RGB彩色图像,所述手部候选框RGB彩色图像为经过手部检测后得到的RGB彩色图像;
模型处理单元,用于将所述手部候选框RGB彩色图像输入语义分割神经网络模型中进行处理,得到所述手部候选框RGB彩色图像的像素分割标签;
语义分割单元,用于利用得到的像素分割标签对手部候选框RGB彩色图像进行语义分割,得到前景手部深度值和彩色手部分割区域数据;
数据修正单元,用于利用所述彩色手部分割区域数据对所述前景手部深度值进行修正,得到准确的手部深度数据。
可选的,所述装置还包括:
训练数据获取单元,用于获取所述语义分割神经网络模型的训练数据,所述训练数据包括多个包含CG手部模型的合成彩色图像及其像素分割标签;
模型训练单元,用于利用所述训练数据对预设神经网络模型进行训练,当所述预设神经网络模型输出结果的准确率大于阈值时,得到所述语义分割神经网络模型。
可选的,所述训练数据获取单元,具体用于:
通过设置每个手部关键点的自由度参数,生成不同手部姿势的CG手部模型;
分别将不同手部姿势的CG手部模型渲染到不同的彩色场景图像中,得到多个合成彩色图像;
分别对每个所述合成彩色图像中CG手部模型映射在彩色场景图像中的形状进行打码,得到每个所述合成彩色图像的像素分割标签;
对每个所述合成彩色图像及其像素分割标签进行归一化处理,得到具有预设分辨率的所述语义分割神经网络模型的训练数据。
可选的,所述图像获取单元,具体用于利用手部识别算法对目标彩色图像进行手部检测,得到包含手部图像的RGB彩色图像;对所述RGB彩色图像进行归一化处理,得到预设分辨率的所述手部候选框RGB彩色图像。
可选的,所述装置还包括:
关键点估计单元,用于对准确的手部深度数据进行关键点估计,得到每个手部关键点的三维坐标。
相对于现有技术,本发明的有益效果如下:
本发明公开的一种手部图像分割方法,在获取手部候选框RGB彩色图像之后,通过语义分割神经网络模型进行处理,得到手部候选框RGB彩色图像的像素分割标签,并利用得到的像素分割标签对手部候选框RGB彩色图像进行语义分割,得到前景手部深度值,避免了背景深度值对手部深度数据的干扰,再利用彩色手部分割区域数据对前景手部深度值进行修正,得到准确的手部深度数据,由于本发明采用语义分割神经网络模型对手部候选框RGB彩色图像进行语义分割,降低了基于单目深度相机的手部关键点估计技术深度图数据质量的依赖性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例公开的一种手部图像分割方法的流程示意图;
图2为本发明实施例公开的获取语义分割神经网络模型的训练数据的方法的流程示意图;
图3为本发明实施例公开的手部关键点示意图;
图4为本发明实施例公开的合成彩色图像的合成示意图;
图5为本发明实施例公开的一种3D手势关键点估计方法的流程示意图;
图6为本发明实施例公开的一种手部图像分割装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本实施例公开了一种手部图像分割方法,应用于3D手势控制中的3D手势关键点估计,请参阅图1,该手部图像分割方法具体包括以下步骤:
S101:获取手部候选框RGB彩色图像,所述手部候选框RGB彩色图像为经过手部检测后得到的RGB彩色图像;
具体的,利用手部识别算法对目标彩色图像进行手部检测,得到包含手部图像的RGB彩色图像,并对得到的RGB彩色图像进行归一化处理,得到预设分辨率的手部候选框RGB彩色图像。
其中,手部候选框RGB彩色图像的分辨率与下述语义分割神经网络模型的输入数据的分辨率相同。
S102:将所述手部候选框RGB彩色图像输入语义分割神经网络模型中进行处理,得到所述手部候选框RGB彩色图像的像素分割标签;
语义分割神经网络模型是预先训练好的,输入数据为包含手部图像的RGB彩色图像,输出数据为像素分割标签。
像素分割标签中手部候选框RGB彩色图像中手部前景像素的像素值为255,其他部分的像素值为0。
S103:利用得到的像素分割标签对手部候选框RGB彩色图像进行语义分割,得到前景手部深度值和彩色手部分割区域数据;
其中,前景手部深度值为深度图和彩色图中手所在的完整区域的深度值。
彩色手部分割区域数据为深度图和彩色图中除了手所在区域之外的其他所有数据。
S104:利用所述彩色手部分割区域数据对所述前景手部深度值进行修正,得到准确的手部深度数据。
其中,利用彩色手部分割区域数据对前景手部深度值进行修正,具体为判断前景手部轮廓中每个像素的深度值是否存在,若存在则不做任何处理,若不存在,则不存在深度值的像素为待修正像素,依据彩色手部分割区域数据中待修正像素的近邻像素的深度值修正待修正像素的深度值。
具体的修正方法有多种,如将待修正像素的任一近邻像素的深度值作为待修正像素的深度值,或将待修正像素中所有近邻像素的平均深度值作为待修正像素的深度值,或将待修正像素中所有近邻像素的深度值的中位数作为待修正像素的深度值等,在此不做具体限定。
需要说明的是,本实施例公开的手部图像分割方法首先需要训练得到语义分割神经网络模型,具体的,获取语义分割神经网络模型的训练数据,所述训练数据包括多个包含CG手部模型的合成彩色图像及其像素分割标签,再利用训练数据对预设神经网络模型进行训练,当预设神经网络模型输出结果的准确率大于阈值时,得到所述语义分割神经网络模型。
其中,训练数据的选取对语义分割神经网络模型至关重要,请参阅图2,获取语义分割神经网络模型的训练数据的方法包括如下步骤:
S201:通过设置每个手部关键点的自由度参数,生成不同手部姿势的CG手部模型;
请参阅图3,人的手部具有21个手部活动关节,即21个手部关键点,手部关键点的自由度参数表示手部活动关节的活动方向和活动范围,通过设置每个手部关键点的自由度参数,生成不同手部姿势的CG手部模型。
比如调节静态手势“OK”,即将拇指和食指的一级二级和三级子关节相对弯曲或旋转一定角度,达到拇指和食指的指尖接触,而其余手指保持朝内相对弯曲较小角度即可。
S202:分别将不同手部姿势的CG手部模型渲染到不同的彩色场景图像中,得到多个合成彩色图像;
请参阅图4,彩色场景图像为彩色相机采集的真实生活中手经常出现的场景图像,将CG手部模型渲染到彩色场景图像中得到一张具有特定姿势的合成彩色图像。
S203:分别对每个所述合成彩色图像中CG手部模型映射在彩色场景图像中的形状进行打码,得到每个所述合成彩色图像的像素分割标签;
对合成彩色图像中CG手部模型映射在彩色场景图像中的形状进行打码,即为将合成彩色图像中手部前景像素的像素值设置为255,其他部分的像素值设置为0。
S204:对每个所述合成彩色图像及其像素分割标签进行归一化处理,得到具有预设分辨率的语义分割神经网络模型的训练数据。
上述S202处理后得到的合成彩色图像以及S203处理后得到的像素分割标签的分辨率可能不同,为了使训练样本一致,对合成彩色图像及其像素分割标签进行归一化处理,使其分辨率都为预设分辨率。
可见,本实施例公开的一种手部图像分割方法,在获取手部候选框RGB彩色图像之后,通过语义分割神经网络模型进行处理,得到手部候选框RGB彩色图像的像素分割标签,并利用得到的像素分割标签对手部候选框RGB彩色图像进行语义分割,得到前景手部深度值,避免了背景深度值对手部深度数据的干扰,再利用彩色手部分割区域数据对前景手部深度值进行修正,得到准确的手部深度数据。
请参阅图5,本实施例将手部图像分割后得到的去除背景深度的手部深度数据作为关键点估计的输入数据,3D手势关键点估计方法具体包括如下步骤:
S501:获取手部候选框RGB彩色图像,所述手部候选框RGB彩色图像为经过手部检测后得到的RGB彩色图像;
S502:将所述手部候选框RGB彩色图像输入语义分割神经网络模型中进行处理,得到所述手部候选框RGB彩色图像的像素分割标签;
S503:利用得到的像素分割标签对手部候选框RGB彩色图像进行语义分割,得到前景手部深度值和彩色手部分割区域数据;
S504:利用所述彩色手部分割区域数据对所述前景手部深度值进行修正,得到去除背景深度的手部深度数据;
S505:利用准确的手部深度数据进行关键点估计,得到每个手部关键点的三维坐标。
下面是利用手部深度数据进行关键点估计的一种实现方式:
1、依据手部深度数据求出质心坐标(图像坐标u,v)作为掌心坐标,并依据图像采集设备内参转为世界坐标;
2、将手部深度数据参考掌心世界坐标进行归一化,设置立方体包围盒的大小(比如L表示盒子的边长),相应的坐标标签也进行相应的位置移动和转换;
3、设计卷积神经回归网络,输入归一化后的手部区域深度数据,输出对应关键点坐标的标记数据,进行模型训练;
4、测试过程就是将归一化好的手部区域深度图数据输入3步骤训练好的网络模型中,前传计算得到其手部关键点坐标。
由于采用语义分割神经网络模型对手部候选框RGB彩色图像进行语义分割,降低了基于单目深度相机的手部关键点估计技术深度图数据质量的依赖性。
基于上述实施例公开的一种手部图像分割方法,本实施例对应公开了一种手部图像分割装置,请参阅图6,该装置包括:
图像获取单元601,用于获取手部候选框RGB彩色图像,所述手部候选框RGB彩色图像为经过手部检测后得到的RGB彩色图像;
模型处理单元602,用于将所述手部候选框RGB彩色图像输入语义分割神经网络模型中进行处理,得到所述手部候选框RGB彩色图像的像素分割标签;
语义分割单元603,用于利用得到的像素分割标签对手部候选框RGB彩色图像进行语义分割,得到前景手部深度值和彩色手部分割区域数据;
数据修正单元604,用于利用所述彩色手部分割区域数据对所述前景手部深度值进行修正,得到去除背景深度的手部深度数据。
可选的,所述装置还包括:
训练数据获取单元,用于获取所述语义分割神经网络模型的训练数据,所述训练数据包括多个包含CG手部模型的合成彩色图像及其像素分割标签;
模型训练单元,用于利用所述训练数据对预设神经网络模型进行训练,当所述预设神经网络模型输出结果的准确率大于阈值时,得到所述语义分割神经网络模型。
可选的,所述训练数据获取单元,具体用于:
通过设置每个手部关键点的自由度参数,生成不同手部姿势的CG手部模型;
分别将不同手部姿势的CG手部模型渲染到不同的彩色场景图像中,得到多个合成彩色图像;
分别对每个所述合成彩色图像中CG手部模型映射在彩色场景图像中的形状进行打码,得到每个所述合成彩色图像的像素分割标签;
对每个所述合成彩色图像及其像素分割标签进行归一化处理,得到具有预设分辨率的所述语义分割神经网络模型的训练数据。
可选的,所述图像获取单元601,具体用于利用手部识别算法对目标彩色图像进行手部检测,得到包含手部图像的RGB彩色图像;对所述RGB彩色图像进行归一化处理,得到预设分辨率的所述手部候选框RGB彩色图像。
可选的,所述装置还包括:
关键点估计单元,用于对准确的手部深度数据进行关键点估计,得到每个手部关键点的三维坐标。
本实施例公开的一种手部图像分割装置,在获取手部候选框RGB彩色图像之后,通过语义分割神经网络模型进行处理,得到手部候选框RGB彩色图像的像素分割标签,并利用得到的像素分割标签对手部候选框RGB彩色图像进行语义分割,得到前景手部深度值,避免了背景深度值对手部深度数据的干扰,再利用彩色手部分割区域数据对前景手部深度值进行修正,得到准确的手部深度数据,由于采用语义分割神经网络模型对手部候选框RGB彩色图像进行语义分割,降低了基于单目深度相机的手部关键点估计技术深度图数据质量的依赖性。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (6)
1.一种手部图像分割方法,其特征在于,包括:
获取手部候选框RGB彩色图像,所述手部候选框RGB彩色图像为经过手部检测后得到的RGB彩色图像;
将所述手部候选框RGB彩色图像输入语义分割神经网络模型中进行处理,得到所述手部候选框RGB彩色图像的像素分割标签;其中,所述像素分割标签中所述手部候选框RGB彩色图像的手部前景像素的像素值为255,其他部分的像素值为0;
利用得到的像素分割标签对手部候选框RGB彩色图像进行语义分割,得到前景手部深度值和彩色手部分割区域数据;所述彩色手部分割区域数据为深度图和彩色图中除了手所在区域之外的其他所有数据;
利用所述彩色手部分割区域数据对所述前景手部深度值进行修正,得到准确的手部深度数据,具体为:判断前景手部轮廓中每个像素的深度值是否存在,若存在则不做任何处理;若不存在,则不存在深度值的像素为待修正像素,依据彩色手部分割区域数据中待修正像素的近邻像素的深度值修正待修正像素的深度值;
获取所述语义分割神经网络模型的训练数据,包括:
通过设置每个手部关键点的自由度参数,生成不同手部姿势的CG手部模型;分别将不同手部姿势的CG手部模型渲染到不同的彩色场景图像中,得到多个合成彩色图像;分别对每个所述合成彩色图像中CG手部模型映射在彩色场景图像中的形状进行打码,得到每个所述合成彩色图像的像素分割标签;对每个所述合成彩色图像及其像素分割标签进行归一化处理,得到具有预设分辨率的所述语义分割神经网络模型的训练数据,所述训练数据包括多个包含CG手部模型的合成彩色图像及其像素分割标签;
利用所述训练数据对预设神经网络模型进行训练,当所述预设神经网络模型输出结果的准确率大于阈值时,得到所述语义分割神经网络模型。
2.根据权利要求1所述的方法,其特征在于,所述获取手部候选框RGB彩色图像,包括:
利用手部识别算法对目标彩色图像进行手部检测,得到包含手部图像的RGB彩色图像;
对所述RGB彩色图像进行归一化处理,得到预设分辨率的所述手部候选框RGB彩色图像。
3.根据权利要求1所述的方法,其特征在于,在所述得到准确的手部深度数据之后,所述方法还包括:
对准确的手部深度数据进行关键点估计,得到每个手部关键点的三维坐标。
4.一种手部图像分割装置,其特征在于,包括:
图像获取单元,用于获取手部候选框RGB彩色图像,所述手部候选框RGB彩色图像为经过手部检测后得到的RGB彩色图像;
模型处理单元,用于将所述手部候选框RGB彩色图像输入语义分割神经网络模型中进行处理,得到所述手部候选框RGB彩色图像的像素分割标签;其中,所述像素分割标签中所述手部候选框RGB彩色图像的手部前景像素的像素值为255,其他部分的像素值为0;
语义分割单元,用于利用得到的像素分割标签对手部候选框RGB彩色图像进行语义分割,得到前景手部深度值和彩色手部分割区域数据;所述彩色手部分割区域数据为深度图和彩色图中除了手所在区域之外的其他所有数据;
数据修正单元,用于利用所述彩色手部分割区域数据对所述前景手部深度值进行修正,得到准确的手部深度数据;
训练数据获取单元,用于获取所述语义分割神经网络模型的训练数据,所述训练数据包括多个包含CG手部模型的合成彩色图像及其像素分割标签;
模型训练单元,用于利用所述训练数据对预设神经网络模型进行训练,当所述预设神经网络模型输出结果的准确率大于阈值时,得到所述语义分割神经网络模型;
所述训练数据获取单元,具体用于:通过设置每个手部关键点的自由度参数,生成不同手部姿势的CG手部模型;分别将不同手部姿势的CG手部模型渲染到不同的彩色场景图像中,得到多个合成彩色图像;分别对每个所述合成彩色图像中CG手部模型映射在彩色场景图像中的形状进行打码,得到每个所述合成彩色图像的像素分割标签;对每个所述合成彩色图像及其像素分割标签进行归一化处理,得到具有预设分辨率的所述语义分割神经网络模型的训练数据;
所述数据修正单元,用于判断前景手部轮廓中每个像素的深度值是否存在,若存在则不做任何处理;若不存在,则不存在深度值的像素为待修正像素,依据彩色手部分割区域数据中待修正像素的近邻像素的深度值修正待修正像素的深度值。
5.根据权利要求4所述的装置,其特征在于,所述图像获取单元,具体用于利用手部识别算法对目标彩色图像进行手部检测,得到包含手部图像的RGB彩色图像;对所述RGB彩色图像进行归一化处理,得到预设分辨率的所述手部候选框RGB彩色图像。
6.根据权利要求4所述的装置,其特征在于,所述装置还包括:
关键点估计单元,用于对准确的手部深度数据进行关键点估计,得到每个手部关键点的三维坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910725548.5A CN110443205B (zh) | 2019-08-07 | 2019-08-07 | 一种手部图像分割方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910725548.5A CN110443205B (zh) | 2019-08-07 | 2019-08-07 | 一种手部图像分割方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110443205A CN110443205A (zh) | 2019-11-12 |
CN110443205B true CN110443205B (zh) | 2022-09-13 |
Family
ID=68433695
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910725548.5A Active CN110443205B (zh) | 2019-08-07 | 2019-08-07 | 一种手部图像分割方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110443205B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111222401B (zh) * | 2019-11-14 | 2023-08-22 | 北京华捷艾米科技有限公司 | 一种手部关键点三维坐标的识别方法及装置 |
CN111127535B (zh) * | 2019-11-22 | 2023-06-20 | 北京华捷艾米科技有限公司 | 一种手部深度图像的处理方法及装置 |
CN110897865A (zh) * | 2019-12-25 | 2020-03-24 | 中科彭州智慧产业创新中心有限公司 | 耳穴引导装置及方法 |
CN111709269B (zh) * | 2020-04-24 | 2022-11-15 | 中国科学院软件研究所 | 一种深度图像中基于二维关节信息的人手分割方法和装置 |
CN116324867A (zh) * | 2020-11-24 | 2023-06-23 | Oppo广东移动通信有限公司 | 图像处理方法、图像处理装置、摄像头组件及电子设备 |
CN112802081A (zh) * | 2021-01-26 | 2021-05-14 | 深圳市商汤科技有限公司 | 一种深度检测方法、装置、电子设备及存储介质 |
CN112861783A (zh) * | 2021-03-08 | 2021-05-28 | 北京华捷艾米科技有限公司 | 一种手部检测方法及系统 |
CN113312973B (zh) * | 2021-04-25 | 2023-06-02 | 北京信息科技大学 | 一种手势识别关键点特征提取方法及系统 |
CN113139983A (zh) * | 2021-05-17 | 2021-07-20 | 北京华捷艾米科技有限公司 | 一种基于rgbd的人像分割方法及装置 |
CN114140580A (zh) * | 2021-11-22 | 2022-03-04 | 聚好看科技股份有限公司 | 一种手部三维模型的纹理调节方法及设备 |
CN116543001B (zh) * | 2023-05-26 | 2024-01-12 | 广州工程技术职业学院 | 彩色图像边缘检测方法及装置、设备、存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105096311A (zh) * | 2014-07-01 | 2015-11-25 | 中国科学院科学传播研究中心 | 基于gpu的深度图修复和虚实场景结合技术 |
CN105718879A (zh) * | 2016-01-19 | 2016-06-29 | 华南理工大学 | 基于深度卷积神经网络的自由场景第一视角手指关键点检测方法 |
CN106846403A (zh) * | 2017-01-04 | 2017-06-13 | 北京未动科技有限公司 | 一种三维空间中手部定位的方法、装置及智能设备 |
CN107403430A (zh) * | 2017-06-15 | 2017-11-28 | 中山大学 | 一种rgbd图像语义分割方法 |
CN108932749A (zh) * | 2017-05-26 | 2018-12-04 | 上海为森车载传感技术有限公司 | 基于cg生成目标物样本的方法 |
CN109117746A (zh) * | 2018-07-23 | 2019-01-01 | 北京华捷艾米科技有限公司 | 手部检测方法及机器可读存储介质 |
-
2019
- 2019-08-07 CN CN201910725548.5A patent/CN110443205B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105096311A (zh) * | 2014-07-01 | 2015-11-25 | 中国科学院科学传播研究中心 | 基于gpu的深度图修复和虚实场景结合技术 |
CN105718879A (zh) * | 2016-01-19 | 2016-06-29 | 华南理工大学 | 基于深度卷积神经网络的自由场景第一视角手指关键点检测方法 |
CN106846403A (zh) * | 2017-01-04 | 2017-06-13 | 北京未动科技有限公司 | 一种三维空间中手部定位的方法、装置及智能设备 |
CN108932749A (zh) * | 2017-05-26 | 2018-12-04 | 上海为森车载传感技术有限公司 | 基于cg生成目标物样本的方法 |
CN107403430A (zh) * | 2017-06-15 | 2017-11-28 | 中山大学 | 一种rgbd图像语义分割方法 |
CN109117746A (zh) * | 2018-07-23 | 2019-01-01 | 北京华捷艾米科技有限公司 | 手部检测方法及机器可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110443205A (zh) | 2019-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110443205B (zh) | 一种手部图像分割方法及装置 | |
CN103927016B (zh) | 一种基于双目视觉的实时三维双手手势识别方法及其系统 | |
US20160154469A1 (en) | Mid-air gesture input method and apparatus | |
CN109903331B (zh) | 一种基于rgb-d相机的卷积神经网络目标检测方法 | |
US8994652B2 (en) | Model-based multi-hypothesis target tracker | |
JP6011102B2 (ja) | 物体姿勢推定方法 | |
US9436872B2 (en) | System and method for detecting and tracking multiple parts of an object | |
WO2021008019A1 (zh) | 姿态跟踪方法、装置及计算机可读存储介质 | |
CN108381549B (zh) | 一种双目视觉引导机器人快速抓取方法、装置及存储介质 | |
US20120068917A1 (en) | System and method for dynamic gesture recognition using geometric classification | |
CN110998659A (zh) | 图像处理系统、图像处理方法、及程序 | |
US20120170804A1 (en) | Method and apparatus for tracking target object | |
RU2014108870A (ru) | Процессор изображений, содержащий систему распознавания жестов с распознаванием неподвижной позы кисти на основе первого и второго наборов признаков | |
CN109919971B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN110688965A (zh) | 基于双目视觉的ipt模拟训练手势识别方法 | |
JP2013242757A (ja) | 画像処理装置及び画像処理方法、並びにコンピューター・プログラム | |
CN110147162B (zh) | 一种基于指尖特征的增强装配示教系统及其控制方法 | |
JP2005339288A (ja) | 画像処理装置及びその方法 | |
CN112200056B (zh) | 人脸活体检测方法、装置、电子设备及存储介质 | |
CN112949440A (zh) | 一种提取行人的步态特征的方法、步态识别方法及系统 | |
CN113312973A (zh) | 一种手势识别关键点特征提取方法及系统 | |
CN109919128B (zh) | 控制指令的获取方法、装置及电子设备 | |
CN115008454A (zh) | 一种基于多帧伪标签数据增强的机器人在线手眼标定方法 | |
CN109376618B (zh) | 图像处理方法、装置及电子设备 | |
KR101350387B1 (ko) | 깊이 정보를 이용한 손 검출 방법 및 그 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |