CN108256431A - 一种手部位置标识方法及装置 - Google Patents
一种手部位置标识方法及装置 Download PDFInfo
- Publication number
- CN108256431A CN108256431A CN201711385223.4A CN201711385223A CN108256431A CN 108256431 A CN108256431 A CN 108256431A CN 201711385223 A CN201711385223 A CN 201711385223A CN 108256431 A CN108256431 A CN 108256431A
- Authority
- CN
- China
- Prior art keywords
- hand
- image
- picture frame
- identified
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Evolutionary Biology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种手部位置标识方法及装置。所述方法包括:获取待识别的图像,其中,所述待识别的图像中至少包括手部形状;根据所述待识别的图像和预先建立的手部位置识别模型,确定所述待识别图像中的手部位置和手部骨骼关键点的位置。本发明提供的手部位置标识方法及装置能够提高手部位置的识别的精确度,识别过程不受环境因素的影响。
Description
技术领域
本发明涉及机器视觉物体检测技术领域,具体涉及一种手部位置标识方法及装置。
背景技术
随着城市轨道交通规模的拓展,保证司机的规范操作是维护运营安全的重要因素。但是,由于司机行为的复杂性和不确定性,能够实时监督司机操作并在违规时进行提醒的监测系统还不成熟。因此为了实现司机行为监测,其中一个核心技术是司机的手部位置标识算法。
现阶段在交通领域中,手部位置标识技术基本都用于汽车驾驶员,例如汽车驾驶员双手离开方向盘状态检测、驾驶过程接电话行为分析等。由于针对某种状态进行识别,因此汽车驾驶员的手部位置标识算法多以基于某类特征进行优化与实现。然而,地铁司机操作过程中会使用多种手势,不同线路的司机室内环境差距很多,因此针对汽车驾驶员的手部位置标识算法不适用于地铁司机。
在一般性的手部位置标识技术方面,大多数算法采用深度摄像头,通过图像分割将获取手部大致位置,随后再结合之前构建的手部骨骼模型与图像比对,从而获取定位手部。这类方法有局限性,通常需要先验知识、经验和手工调整,手势操作速度、方向、手形大小的差异会对识别率产生影响,容易受环境干扰,鲁棒性差。此外,深度摄像头相比于一般视觉传感器也更加复杂。因此,地铁司机的手部定位需要另行设计。
因此,如何提出一种方法,能够提高手部位置识别的准确性,成为亟待解决的问题。
发明内容
针对现有技术中的缺陷,本发明提供了一种手部位置标识方法及装置。
第一方面,本发明提供一种手部位置标识方法,包括:
获取待识别的图像,其中,所述待识别的图像中至少包括手部形状;
根据所述待识别的图像和预先建立的手部位置识别模型,确定所述待识别图像中的手部位置和手部骨骼关键点的位置。
第二方面,本发明提供一种手部位置标识装置,包括:
获取模块,用于获取待识别的图像,其中,所述待识别的图像中至少包括手部形状;
识别模块,用于根据所述待识别的图像和预先建立的手部位置识别模型,确定所述待识别图像中的手部位置和手部骨骼关键点的位置。
本发明提供的手部位置标识方法及装置,通过采用多阶段卷积神经网络对获取的图像中的手部位置及关键点位置进行识别,能够提高手部位置的识别的精确度,识别过程不受环境因素的影响。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中提供的手部位置标识方法的流程示意图;
图2为本发明又一实施例提供的手部位置标识流程示意图;
图3为本发明实施例提供的构建样本时的手部标注示意图;
图4为本发明实施例提供的神经网络模型的结构示意图;
图5为本发明实施例提供的训练过程与一般训练过程的区别示意图;
图6为本发明实施例中提供的手部位置标识装置的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明实施例中提供的手部位置标识方法的流程示意图,如图1所示,所述方法包括:
S101、获取待识别的图像,其中,所述待识别的图像中至少包括手部形状;
S102、根据所述待识别的图像和预先建立的手部位置识别模型,确定所述待识别图像中的手部位置和手部骨骼关键点的位置。
具体地,在地铁内安装红外视觉传感器,用来拍摄司机的工作视频,从拍摄好的视频中提取一帧图像,作为待识别的图像,且所述待识别的图像中至少包括手部形状;
将包含有手部形状的待识别图像输入到预先建立的手部位置识别模型中进行训练,确定出所述待识别图像中的手部位置和手部骨骼关键点的位置。
该识别模型是一个多阶段神经网络模型,前一阶段的结果参与后续阶段的计算。该模型的前两个阶段能够提供司机手部的整体位置,随后的阶段模型则会输出司机手部骨骼的具体位置,并且随着阶段数量的增加识别精度也越高。
本发明提供的手部位置标识方法,通过采用多阶段卷积神经网络对获取的图像中的手部位置及关键点位置进行识别,能够提高手部位置的识别的精确度,识别过程不受环境因素的影响。
可选地,所述手部位置识别模型采用如下步骤建立:
从原始的视频中每隔一定间隔提出图像帧,构建成数据集;
对所述数据集中每个图像帧中的手部的整体位置和手部骨骼关键点的位置进行标注,建立训练样本库;
根据所述训练样本库中的图像帧,对预先建立的神经网络模型进行训练,从而获得所述手部位置识别模型。
在上述实施例的基础上,图2为本发明又一实施例提供的手部位置标识流程示意图,在执行上述步骤之前,需要预先建立手部位置识别模型,具体的建立步骤如下:
从原始的视频中,也就是通过红外视觉传感器拍摄司机工作视频,每隔一定间隔提取出图像帧,构建成数据集;
对数据集中每个图像帧中的手部整体位置和手部骨骼关键点的位置进行标注,对每一帧图像都要进行标注,并将标注的图像作为神经网络的训练样本库。
根据所述训练样本库中的图像帧,对预先建立的神经网络模型进行训练,从而获得所述手部位置识别模型。
可选地,所述对所述数据集中每个图像帧中的手部的整体位置和手部骨骼关键点的位置进行标注,包括:
对所述数据集中每个图像帧中的每个手部标注一个整体位置和21个手部骨骼关键点的位置。
在上述实施例的基础上,图3为本发明实施例提供的构建样本时的手部标注示意图,如图3所示。对训练样本库中的每帧图像中的司机双手进行标注,即对双手整体位置,以及骨骼关键点所在位置进行标注,记为:
Handright={Rr1,Pro,Pr1,Pr2,…,Pr20};Handleft={Rl1,Plo,Pl1,Pl2,…,Pl20}
其中,Rr1表示右手的整体区域,Pro,Pr1,Pr2,…,Pr20为右手的21个关键点的位置坐标;
Rl1表示左手的整体区域,Plo,Pl1,Pl2,…,Pl20为左手的21个关键点的位置坐标;
其中,每只手包含1个整体区域与21个节点坐标,并作为该图片的标签与其一起送入网络进行训练。
其中,骨骼关键点的个数可以根据具体的需求进行自行设定,并不局限于上述的实施例中的具体数值。
本发明提供的手部位置标识方法,通过采用多阶段卷积神经网络对获取的图像中的手部位置及关键点位置进行识别,能够提高手部位置的识别的精确度,识别过程不受环境因素的影响。
可选地,所述神经网络模型为多阶段卷积神经网络模型,具体为至少三阶段卷积神经网络模型。
在上述实施例的基础上,图4为本发明实施例提供的神经网络模型的结构示意图;本发明实施例中提供的是基于多阶段卷积神经网络的手部位置标识模型,并使用由训练样本库中的图像帧进行训练,从而优化模型参数,最终获得一个可以用于手部定位标识的模型,如图4所示,本发明实施例提供的多阶段卷积神经网络的结构示意图,至少包括3阶段的卷积神经网络模型,本实施例中以6个阶段做具体介绍;
第1阶段接受大小为512*512*1的图像输入,其中,其中512*512是指输入图片的宽度和高度,1是指图片为单通道,该图像由原始视频图像经过调整得到。
例如:原始获取的图像的大小为640*480,经过调整后变成大小为512*512,在输入到卷积神经网络之前,需要将图像的大小都调整为512*512,方便后续的神经网络训练。
随后输入图像将通过一个卷积神经网络(CNN1),CNN1类似如下结构:
Conv1→Pool1→Conv2→Pool2→Conv3a→Conv3b→Pool3→Conv4a
→Conv4b→Pool4→Conv5a→Conv5b→Pool5
其中,每个卷积层的卷积核都采用不同大小,以实现多个尺度特征处理,从而能够考虑各部件之间的位置关系,确保精度。最后,第1阶段将会输出64*64*3的热图,代表着双手的位置响应,另外包含一个背景响应。该阶段能够大致输出双手部位的空间位置特征。
第2阶段所接受的输入与第1阶段一致,随后输入图像将通过另一个卷积神经网络(CNN2),CNN2结构类似CNN1,CNN2将会输出64*64*8的特征图,其中,8表示图片的数量,其为阶段性的卷积结果,能够反应一定的纹理特征。而后是一个串联层,将把以下数据合并:
①阶段性的卷积结果:64*64*8的特征图;
②前一阶段的卷积结果:64*64*3的热图;
③中心约束(64*64*1),即一个提前生成的高斯函数模板,用来把响应归拢到图像中心。其中,高斯模板的生成依赖于以下公式:
串联后得到64*64*12的特征图集合,并将其送入一个新的卷积神经网络(CNN3),CNN3结构类似CNN1,最后与第1阶段类似,CNN3将会输出64*64*3的热图。该热图将作为下一阶段手部骨骼各点位置评估的依据。
第3阶段不再使用原始图像为输入,其将从第2阶段中CNN2的中途取出一个深度为128的特征图集合作为输入。在该特征图集合经过卷积神经网络(CNN4)后,同样使用串联层合并三种数据:
①阶段性的卷积结果:64*64*128的特征图;
②前一阶段的卷积结果:64*64*(2*8+1*6)的热图;(为了使后续阶段的网络结构一致,此时将响应图的数量增加至22张)
③中心约束:64*64*1的高斯函数模板。
类似地,该64*64*132特征图集合将会被送入新的卷积神经网络(CNN5),最后被转化成64*64*22的热图。与前两个阶段不同,第3阶段是从特征图集合预测手部骨骼各节点的位置响应,因此包含21个节点与1个背景响应,共22个热图。该阶段已经能够初步反应手部骨骼各点的空间位置。
第4、5、6阶段的结构和第3阶段相同。最后一个阶段将输出64*64*22的热图,每个热图单独反应一个节点的空间位置以及背景响应,将其上采样恢复为原图大小,则可以获得手部的区域位置与节点的具体坐标。理论上随着阶段的增加,网络能计算更多的节点位置,因此本发明提供的网络可以应对更复杂的场景,只需要在设计网络时调整第3阶段重复次数即可。
需要说明的是,在第3个阶段,已经可以将司机手部位置和骨骼关键点的位置确定,后续的训练阶段是为了得到的结果更加的精确,具体的训练阶段的个数可以根据需求自己设定,在本发明中不做具体限定。
为了丰富训练样本,本发明实施例将对原始图片进行随机旋转与缩放操作。训练时,将80%的样本作为训练集,10%的样本作为验证集,10%的样本作为测试集。训练前,网络模型的权值采用均值为0、方差为1的正太分布初始化。训练时使用交叉熵损失函数,公式如下所示:
其中,y(i,j)为由标注转换得到的热图中的点(i,j)的真实值,为计算得到的热图中的点(i,j)的估计值。对于样本帧,如果经过计算得到节点的正确位置,这种情况下损失函数取值最小。但是,如果检测错误,此时损失函数的值增大。因此,训练过程将会优化权重趋向使得L的值趋近于1,从而减小损失函数。
训练过程中,如果直接对整个网络进行随机梯度下降,输出层的误差经过多层反向传播会大幅减小,发生梯度消失现象。为解决此问题,图5是本发明实施例提供的训练过程与一般训练过程的区别示意图,如图5所示,本发明实施例将计算每个阶段输出的损失,即中继监督优化,从而保证底层参数的正常更新。在对每个阶段进行权值更新时,使用随机梯度下降操作,取30个样本为一个批量,记为B,学习率开始设为0.003,然后每经过10w次迭代计算后减半,每次迭代都会反向更新网络的权重,当损失变化随训练过程趋于1之后,则停止训练,输出基于多阶段卷积神经网络的模型。根据损失函数得到的最终梯度方向为:
(1)本发明提供的位置标识算法基于卷积神经网络,善于处理视觉信息,能将图像浅层特征通过非线性变化转化为高级深层特征,在位置回归方面有极佳的表现。
(2)本发明提供的网络分为多个阶段,利用卷积神经网络在多个尺度处理输入特征,能够考虑各部件之间的位置关系,从而确保精度。同时,训练中各阶段都会计算损失,因此底层参数能够正常更新,从而避免网络过深参数难以优化问题。
(3)本发明提供的深度网络模型针对地铁司机室内采集的红外图像进行设计与优化,用于解决地铁司机的手部定位技术问题,能够推进地铁司机监测系统的开发,同时也能为新的人车交互方式提供参考。
图6为本发明实施例中提供的手部位置标识装置的结构示意图,如图6所示,所述装置包括:获取模块10和识别模块20,其中:
获取模块10用于获取待识别的图像,其中,所述待识别的图像中至少包括手部形状;
识别模块20用于根据所述待识别的图像和预先建立的手部位置识别模型,确定所述待识别图像中的手部位置和手部骨骼关键点的位置。
在上述实施例的基础上,本发明实施例中提供的手部位置标识装置包括获取模块10和识别模块20,其中,获取模块10获取待识别的图像,其中,所述待识别的图像中至少包括手部形状;识别模块20根据所述待识别的图像和预先建立的手部位置识别模型,确定所述待识别图像中的手部位置和手部骨骼关键点的位置。
本发明提供的手部位置标识装置,通过采用多阶段卷积神经网络对获取的图像中的手部位置及关键点位置进行识别,能够提高手部位置的识别的精确度,识别过程不受环境因素的影响。
可选地,所述手部位置识别模型采用如下步骤建立:
从原始的视频中每隔一定间隔提出图像帧,构建成数据集;
对所述数据集中每个图像帧中的手部的整体位置和手部骨骼关键点的位置进行标注,建立训练样本库;根据所述训练样本库中的图像帧,对预先建立的神经网络模型进行训练,从而获得所述手部位置识别模型。
在上述实施例的基础上,参见图2所示的手部位置识别的流程示意图,在对图像中手部进行识别的时候,需要预先建立手部位置识别模型,具体的建立步骤如下:
从原始的视频中,也就是通过红外视觉传感器拍摄司机工作视频,每隔一定间隔提取出图像帧,构建成数据集;
对数据集中每个图像帧中的手部整体位置和手部骨骼关键点的位置进行标注,对每一帧图像都要进行标注,并将标注的图像作为神经网络的训练样本库。
根据所述训练样本库中的图像帧,对预先建立的神经网络模型进行训练,从而获得所述手部位置识别模型。
可选地,所述对所述数据集中每个图像帧中的手部的整体位置和手部骨骼关键点的位置进行标注,包括:
对所述数据集中每个图像帧中的每个手部标注一个整体位置和21个手部骨骼关键点的位置。
在上述实施例的基础上,图3为本发明实施例提供的构建样本时的手部标注示意图,如图3所示。对训练样本库中的每帧图像中的司机双手进行标注,即对双手整体位置,以及骨骼关键点所在位置进行标注,记为:
Handright={Rr1,Pro,Pr1,Pr2,…,Pr20};Handleft={Rl1,Plo,Pl1,Pl2,…,Pl20}
其中,Rr1表示右手的整体区域,Pro,Pr1,Pr2,…,Pr20为右手的21个关键点的位置坐标;
Rl1表示左手的整体区域,Plo,Pl1,Pl2,…,Pl20为左手的21个关键点的位置坐标;
其中,每只手包含1个整体区域与21个节点坐标,并作为该图片的标签与其一起送入网络进行训练。
其中,骨骼关键点的个数可以根据具体的需求进行自行设定,并不局限于上述的实施例中的具体数值。
本发明提供的手部位置标识装置,通过采用多阶段卷积神经网络对获取的图像中的手部位置及关键点位置进行识别,能够提高手部位置的识别的精确度,识别过程不受环境因素的影响。
可选地,所述神经网络模型为多阶段卷积神经网络模型,具体为至少三阶段卷积神经网络模型。
多阶段神经网络模型的结构在前面方法实施例中做了具体的介绍,在此不再赘述。
本发明提供的手部位置标识装置,通过采用多阶段卷积神经网络对获取的图像中的手部位置及关键点位置进行识别,能够提高手部位置的识别的精确度,识别过程不受环境因素的影响。
(1)本发明提供的位置标识算法基于卷积神经网络,善于处理视觉信息,能将图像浅层特征通过非线性变化转化为高级深层特征,在位置回归方面有极佳的表现。
(2)本发明提供的网络分为多个阶段,利用卷积神经网络在多个尺度处理输入特征,能够考虑各部件之间的位置关系,从而确保精度。同时,训练中各阶段都会计算损失,因此底层参数能够正常更新,从而避免网络过深参数难以优化问题。
(3)本发明提供的深度网络模型针对地铁司机室内采集的红外图像进行设计与优化,用于解决地铁司机的手部定位技术问题,能够推进地铁司机监测系统的开发,同时也能为新的人车交互方式提供参考。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
以上所描述的装置以及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
Claims (8)
1.一种手部位置标识方法,其特征在于,包括:
获取待识别的图像,其中,所述待识别的图像中至少包括手部形状;
根据所述待识别的图像和预先建立的手部位置识别模型,确定所述待识别图像中的手部位置和手部骨骼关键点的位置。
2.根据权利要求1所述的方法,其特征在于,所述手部位置识别模型采用如下步骤建立:
从原始的视频中每隔一定间隔提出图像帧,构建成数据集;
对所述数据集中每个图像帧中的手部的整体位置和手部骨骼关键点的位置进行标注,建立训练样本库;
根据所述训练样本库中的图像帧,对预先建立的神经网络模型进行训练,获得所述手部位置识别模型。
3.根据权利要求2所述的方法,其特征在于,所述对所述数据集中每个图像帧中的手部的整体位置和手部骨骼关键点的位置进行标注,包括:
对所述数据集中每个图像帧中的每个手部标注一个整体位置和21个手部骨骼关键点的位置。
4.根据权利要求2所述的方法,其特征在于,所述神经网络模型为多阶段卷积神经网络模型,具体为至少三阶段卷积神经网络模型。
5.一种手部位置标识装置,其特征在于,包括:
获取模块,用于获取待识别的图像,其中,所述待识别的图像中至少包括手部形状;
识别模块,用于根据所述待识别的图像和预先建立的手部位置识别模型,确定所述待识别图像中的手部位置和手部骨骼关键点的位置。
6.根据权利要求5所述的装置,其特征在于,所述手部位置识别模型采用如下步骤建立:
从原始的视频中每隔一定间隔提出图像帧,构建成数据集;
对所述数据集中每个图像帧中的手部的整体位置和手部骨骼关键点的位置进行标注,建立训练样本库;
根据所述训练样本库中的图像帧,对预先建立的神经网络模型进行训练,获得所述手部位置识别模型。
7.根据权利要求6所述的装置,其特征在于,所述对所述数据集中每个图像帧中的手部的整体位置和手部骨骼关键点的位置进行标注,包括:
对所述数据集中每个图像帧中的每个手部标注一个整体位置和21个手部骨骼关键点的位置。
8.根据权利要求6所述的装置,其特征在于,所述神经网络模型为多阶段卷积神经网络模型,具体为至少三阶段卷积神经网络模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711385223.4A CN108256431B (zh) | 2017-12-20 | 2017-12-20 | 一种手部位置标识方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711385223.4A CN108256431B (zh) | 2017-12-20 | 2017-12-20 | 一种手部位置标识方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108256431A true CN108256431A (zh) | 2018-07-06 |
CN108256431B CN108256431B (zh) | 2020-09-25 |
Family
ID=62723430
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711385223.4A Active CN108256431B (zh) | 2017-12-20 | 2017-12-20 | 一种手部位置标识方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108256431B (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109086729A (zh) * | 2018-08-13 | 2018-12-25 | 成都盯盯科技有限公司 | 通信行为检测方法、装置、设备及存储介质 |
CN109389072A (zh) * | 2018-09-29 | 2019-02-26 | 北京字节跳动网络技术有限公司 | 数据处理方法和装置 |
CN109635630A (zh) * | 2018-10-23 | 2019-04-16 | 百度在线网络技术(北京)有限公司 | 手部关节点检测方法、装置及存储介质 |
CN109766822A (zh) * | 2019-01-07 | 2019-05-17 | 山东大学 | 基于神经网络的手势识别方法及系统 |
CN109902562A (zh) * | 2019-01-16 | 2019-06-18 | 重庆邮电大学 | 一种基于强化学习的驾驶员异常姿态监测方法 |
CN110084161A (zh) * | 2019-04-17 | 2019-08-02 | 中山大学 | 一种人体骨骼关键点的快速检测方法及系统 |
CN110119682A (zh) * | 2019-04-04 | 2019-08-13 | 北京理工雷科电子信息技术有限公司 | 一种红外遥感图像火点识别方法 |
CN110163048A (zh) * | 2018-07-10 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 手部关键点的识别模型训练方法、识别方法及设备 |
CN110175544A (zh) * | 2019-05-14 | 2019-08-27 | 广州虎牙信息科技有限公司 | 目标模型的构建方法、装置、电子设备及存储介质 |
CN110889858A (zh) * | 2019-12-03 | 2020-03-17 | 中国太平洋保险(集团)股份有限公司 | 一种基于点回归的汽车部件分割方法及装置 |
WO2020168814A1 (zh) * | 2019-02-18 | 2020-08-27 | 北京京东尚科信息技术有限公司 | 服饰识别、分类及检索的方法、装置、设备及存储介质 |
CN111914672A (zh) * | 2020-07-08 | 2020-11-10 | 浙江大华技术股份有限公司 | 图像标注方法和装置及存储介质 |
WO2021068589A1 (zh) * | 2019-10-09 | 2021-04-15 | 东软睿驰汽车技术(沈阳)有限公司 | 一种图像中物体及其关键点的确定方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105718878A (zh) * | 2016-01-19 | 2016-06-29 | 华南理工大学 | 基于级联卷积神经网络的第一视角空中手写和空中交互方法 |
CN105718879A (zh) * | 2016-01-19 | 2016-06-29 | 华南理工大学 | 基于深度卷积神经网络的自由场景第一视角手指关键点检测方法 |
CN106648103A (zh) * | 2016-12-28 | 2017-05-10 | 歌尔科技有限公司 | 一种vr头戴设备的手势跟踪方法和vr头戴设备 |
CN107168527A (zh) * | 2017-04-25 | 2017-09-15 | 华南理工大学 | 基于区域卷积神经网络的第一视角手势识别与交互方法 |
-
2017
- 2017-12-20 CN CN201711385223.4A patent/CN108256431B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105718878A (zh) * | 2016-01-19 | 2016-06-29 | 华南理工大学 | 基于级联卷积神经网络的第一视角空中手写和空中交互方法 |
CN105718879A (zh) * | 2016-01-19 | 2016-06-29 | 华南理工大学 | 基于深度卷积神经网络的自由场景第一视角手指关键点检测方法 |
CN106648103A (zh) * | 2016-12-28 | 2017-05-10 | 歌尔科技有限公司 | 一种vr头戴设备的手势跟踪方法和vr头戴设备 |
CN107168527A (zh) * | 2017-04-25 | 2017-09-15 | 华南理工大学 | 基于区域卷积神经网络的第一视角手势识别与交互方法 |
Non-Patent Citations (1)
Title |
---|
SHIH-EN WEI等: "Convolutional Pose Machines", 《2016 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110163048B (zh) * | 2018-07-10 | 2023-06-02 | 腾讯科技(深圳)有限公司 | 手部关键点的识别模型训练方法、识别方法及设备 |
CN110163048A (zh) * | 2018-07-10 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 手部关键点的识别模型训练方法、识别方法及设备 |
CN109086729A (zh) * | 2018-08-13 | 2018-12-25 | 成都盯盯科技有限公司 | 通信行为检测方法、装置、设备及存储介质 |
CN109389072A (zh) * | 2018-09-29 | 2019-02-26 | 北京字节跳动网络技术有限公司 | 数据处理方法和装置 |
CN109635630A (zh) * | 2018-10-23 | 2019-04-16 | 百度在线网络技术(北京)有限公司 | 手部关节点检测方法、装置及存储介质 |
CN109635630B (zh) * | 2018-10-23 | 2023-09-01 | 百度在线网络技术(北京)有限公司 | 手部关节点检测方法、装置及存储介质 |
CN109766822A (zh) * | 2019-01-07 | 2019-05-17 | 山东大学 | 基于神经网络的手势识别方法及系统 |
CN109902562B (zh) * | 2019-01-16 | 2022-07-01 | 重庆邮电大学 | 一种基于强化学习的驾驶员异常姿态监测方法 |
CN109902562A (zh) * | 2019-01-16 | 2019-06-18 | 重庆邮电大学 | 一种基于强化学习的驾驶员异常姿态监测方法 |
US11977604B2 (en) | 2019-02-18 | 2024-05-07 | Beijing Jingdong Shangke Information Tech Co., Ltd | Method, device and apparatus for recognizing, categorizing and searching for garment, and storage medium |
WO2020168814A1 (zh) * | 2019-02-18 | 2020-08-27 | 北京京东尚科信息技术有限公司 | 服饰识别、分类及检索的方法、装置、设备及存储介质 |
CN110119682A (zh) * | 2019-04-04 | 2019-08-13 | 北京理工雷科电子信息技术有限公司 | 一种红外遥感图像火点识别方法 |
CN110084161A (zh) * | 2019-04-17 | 2019-08-02 | 中山大学 | 一种人体骨骼关键点的快速检测方法及系统 |
CN110175544A (zh) * | 2019-05-14 | 2019-08-27 | 广州虎牙信息科技有限公司 | 目标模型的构建方法、装置、电子设备及存储介质 |
WO2021068589A1 (zh) * | 2019-10-09 | 2021-04-15 | 东软睿驰汽车技术(沈阳)有限公司 | 一种图像中物体及其关键点的确定方法和装置 |
CN110889858A (zh) * | 2019-12-03 | 2020-03-17 | 中国太平洋保险(集团)股份有限公司 | 一种基于点回归的汽车部件分割方法及装置 |
CN111914672A (zh) * | 2020-07-08 | 2020-11-10 | 浙江大华技术股份有限公司 | 图像标注方法和装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108256431B (zh) | 2020-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108256431A (zh) | 一种手部位置标识方法及装置 | |
CN110443969B (zh) | 一种火点检测方法、装置、电子设备及存储介质 | |
CN105760835B (zh) | 一种基于深度学习的步态分割与步态识别一体化方法 | |
CN108875603A (zh) | 基于车道线的智能驾驶控制方法和装置、电子设备 | |
Fard et al. | Application of visualization techniques for construction progress monitoring | |
CN106778705B (zh) | 一种行人个体分割方法及装置 | |
CN108038474A (zh) | 人脸检测方法、卷积神经网络参数的训练方法、装置及介质 | |
US10611086B2 (en) | System and method for evaluating additive manufacturing index | |
CN105956268A (zh) | 应用于无人驾驶汽车的测试场景构建方法和装置 | |
CN104884899A (zh) | 确定穿过交通运输网络的一或多个交叉口的轨迹的方法 | |
CN106803084B (zh) | 一种基于端到端循环网络的面部特征点定位方法 | |
CN111721306B (zh) | 道路匹配方法、装置、电子设备及可读存储介质 | |
CN108363953A (zh) | 一种行人检测的方法及双目监控设备 | |
CN103577875A (zh) | 一种基于fast的计算机辅助cad人数统计方法 | |
CN107622252A (zh) | 信息生成方法和装置 | |
CN111178170B (zh) | 一种手势识别方法和一种电子设备 | |
CN108229300A (zh) | 视频分类方法、装置、计算机可读存储介质和电子设备 | |
CN107527024A (zh) | 人脸颜值评估方法及装置 | |
CN109389016A (zh) | 一种人头计数的方法及系统 | |
CN110146035A (zh) | 构件生产线的预埋件检测方法、装置、设备及系统 | |
CN112580558A (zh) | 红外图像目标检测模型构建方法、检测方法、装置及系统 | |
CN110059646A (zh) | 训练动作规划模型的方法及目标搜索方法 | |
CN116188703B (zh) | 一种基于bim的建筑工程可视化管理系统 | |
CN115272572A (zh) | 输电线路重建方法、装置、电子设备及存储介质 | |
CN107808524A (zh) | 一种基于无人机的道路交叉口车辆检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20210107 Address after: Room 229, science and Technology Museum, EMU Town, Jihongtan street, Chengyang District, Qingdao City, Shandong Province, 266311 Patentee after: CRRC Industrial Research Institute (Qingdao) Co.,Ltd. Address before: 100070 6th floor, building 6, 11th district, 188 South 4th Ring Road West, Fengtai District, Beijing Patentee before: CRRC INDUSTRY RESEARCH INSTITUTE Co.,Ltd. |
|
TR01 | Transfer of patent right |