CN111274901A - 一种基于深度门控递归单元的手势深度图像连续检测方法 - Google Patents
一种基于深度门控递归单元的手势深度图像连续检测方法 Download PDFInfo
- Publication number
- CN111274901A CN111274901A CN202010043771.4A CN202010043771A CN111274901A CN 111274901 A CN111274901 A CN 111274901A CN 202010043771 A CN202010043771 A CN 202010043771A CN 111274901 A CN111274901 A CN 111274901A
- Authority
- CN
- China
- Prior art keywords
- frame
- depth
- convolution
- current frame
- gate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度门控递归单元的手势深度图像连续检测方法。通过深度相机捕捉人手动态变化的深度图像序列;将每一帧均向三维空间投影体素化获得该帧的输入网格,组成人手三维体素的网格序列;遍历网格序列的每一帧作为当前帧,输入三维卷积单帧检测模型中处理获得各帧的手部各关节空间概率分布;选取当前帧的输入和上一帧的隐藏状态变量输入深度门控递归单元处理获得当前帧的隐藏状态变量,再输入三维卷积多帧检测模型得到当前帧的手部关节空间概率分布;重复步骤,依据每一帧的手部各关节空间概率分布提取关节点的三维坐标。本发明方法通过引入时序约束极大提高了手势检测的连续性,降低检测误差。
Description
技术领域
本发明属于图像自动识别技术领域的一种手势深度图像识别检测方法,更具体地是涉及了一种基于深度门控递归单元的手势深度图像连续检测方法。
背景技术
动态手势因为其快速、便捷的表达能力和纷繁复杂的组合方式,是现有沉浸式体感人机交互的主要组成部分。此外,基于深度图像的手势检测方案可以很好地抵抗光照、颜色、纹理等噪声,其中检测手势各个关节点坐标的空间信息,可以实现对手势信息的高效描述。然而现有手势检测方法很大程度依赖于单帧检测方法,造成帧与帧之间的时序信息丢失,影响手势检测的时空的连续性,降低手势检测精度。在实际场景中,被观测的动态手势常常具有手势关节运动的平滑性和时间维度的持续性,因此在现有单帧检测方法的基础上引入时序信息,并研究手势的连续检测很有必要。
现有的时序递归单元包括长短时记忆单元(LSTM)和门控递归单元(GRU)及其变种被大量应用于自然语言处理领域,缺少针对图形、图像相关的融和改进。
发明内容
本发明的目的在于针对现有的单帧手势检测方法造成帧与帧之间的时序信息丢失,影响手势检测的连续性,降低手势检测精度,提供一种基于深度门控递归单元的手势深度图像连续检测方法,方法通过引入时序约束极大提高了手势检测的连续性,降低检测误差。
本发明所采用的技术方案如下:
S1、通过深度相机捕捉人手动态变化的深度图像序列;
S2、将深度图像序列的每一帧均向三维空间投影并体素化获得该帧的输入网格,由所有帧的输入网格组成人手三维体素的网格序列;
S3、选取网格序列的第一帧作为当前帧,也同时作为当前帧的隐藏状态变量,输入预训练的三维卷积单帧检测模型中处理获得第一帧的手部各关节空间概率分布;
S4、当前帧变为上一帧,下一帧变为当前帧;
S5、选取当前帧的输入和上一帧的隐藏状态变量输入深度门控递归单元(DGRU)处理获得当前帧的隐藏状态变量,然后将当前帧的隐藏状态变量输入预训练的三维卷积多帧检测模型得到当前帧的手部关节空间概率分布;
S6、重复步骤S4-S5,直到将整个深度图像序列检测结束;
S7、依据每一帧的手部各关节空间概率分布提取关节点的三维坐标。
本发明手势深度图像的检测方法针对第一帧不经过深度门控递归单元,即直接将其输入三维卷积单帧检测模型进行检测,这样可以有利于手势深度图像的快速识别检测,提高了连续性和稳定性以及检测精度。
所述三维卷积单帧检测模型和三维卷积多帧检测模型的网络结构相同但网络参数不同,均采用PoseNet网络结构,其中包括三维卷积层、三维反卷积层、三维最大池化层、三维批正则层和ReLu/Sigmoid激活函数。
所述的深度门控递归单元包括深度门模型和深度门的更新计算;深度门模型包括两个卷积池化模块、三个卷积层和五个上采样层;两个卷积池化模块结构相同均包括依次连接的一个卷积层和一个池化层,但两个卷积池化模块的卷积参数不同;两个卷积池化模块依次连接,第二卷积池化模块后面连接第一卷积层;第一卷积层的输出端经第二卷积层先后连接第二上采样层和第三上采样层形成第一条支路;第一卷积层的输出端同时经第一上采样层后与第二卷积池化模块的卷积输出、第二上采样层的输出连接组合成复维特征,然后将复维特征依次经过第三卷积层和第四上采样层形成第二条支路;复维特征同时经第五上采样层与第一卷积池化模块中卷积层的输出叠加得到单维特征,单维特征作为第三条支路的输出;将第一条支路、第二条支路和第三条支路的输出叠加再经批正则化处理层获得预激活值,预激活值经过Sigmoid激活函数和分割操作后获得更新门和重置门;将当前帧的输入和上一帧的隐藏状态变量作为输入,输入到深度门模型的第一个卷积池化模块中,由深度门模型输出获得更新门和重置门,更新门为当前帧的输入对应的输出结果,重置门为当前帧的隐藏状态变量对应的输出结果,然后根据更新门和重置门采用以下公式计算获得当前帧的隐藏变量:
Zt,rt=DG(Concatenate(Vt,ht-1)),
其中,下标t和t-1分别代表当前帧和上一帧;Zt和rt分别代表当前帧的更新门和重置门;Vt和ht分别代表当前帧的输入和隐藏状态变量;Wh、Uh、bh是第一、第二、第三模型参数;Concatenate(·)表示张量连接操作;DG(·)表示深度门模型;tanh(·)代表双曲正切激活函数;代表对应元素相乘操作。
深度门控递归单元把当前帧的输入和上一帧的隐藏变量进行张量连接,通过深度门控模型同时计算出当前帧的更新门和重置门。
所述的三维卷积单帧检测模型、三维卷积多帧检测模型以及多头掩模均衡融和单元构成了手势连续检测模型,预先采用以下过程进行网络参数学习和优化:收集已含有手势标注的手部深度图像的数据集作为训练集,建立以下手势连续检测模型的目标函数:
其中,N表示手部关节数量,i,j,k表示手部关节拟空间概率分布的每个位置的长、宽、高索引,和分别表示各个手部关节的手部关节空间概率分布和手部关节拟空间概率分布;σ 2表示高斯分布形态参数,in、jn、kn表示输入网格的长、宽、高索引,ηH,ρH分别代表手部关节拟空间概率分布的长、宽、高;
然后以从头训练方式采用基于时序的后向传播方法(Back Propagation ThroughTime)并通过随机梯度下降优化获得网络参数。
具体实施中,优化设计各个模型的网络容量及其参数空间,保持良好的泛化能力,防止过拟合和欠拟合。
第一帧的三维卷积单帧检测模型PoseNet1的网络参数不同于其他帧的三维卷积单帧检测模型的网络参数,除了第一帧以外的其他帧的三维卷积单帧检测模型的网络参数均相同。
各帧的深度门控递归单元结构相同,且参数均相同共享。
本发明方法不仅能将时序递归单元很好的融合到深度三维卷积神经网络模型,而且能在帧与帧之间方便的提供长时间的时序依赖,提高了手势检测的连续性和手势检测精度。
本发明的目的是通过以下步骤以及技术方案来实现的:
总体而言,通过本发明所构思的以上技术方案与现有技术相比,本发明的有益效果:
本发明是一种端到端的手势深度图像连续识别检测方法,采用了特殊设计的深度门控递归单元,能将深度三维卷积神经网络模型与时序递归单元很好的融合,并在帧与帧之间提供长时间的时序依赖,提高了手势深度图像检测的连续性和检测精度。
附图说明
下面结合附图和实例对本发明进一步说明;
图1是本发明方法的流程图;
图2是图1中深度门控递归单元的示意图;
图3是手势检测的实例示意图;
图4是网格序列中人手的示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图,对本发明进一步详细说明。
参照图1,按照本发明的发明内容完整方法实施的实施例及其实施过程如下:
S1、通过深度相机捕捉人手动态变化的深度图像序列其中Dt表示深度图像,T表示图像序列,imgH和imgW分别表示图像的长度和宽度,图像中每个像素单元存贮的深度信息记做{z=Dt(u,v)|u∈[0,imgH),v∈[0,imgW)};
z=Dt(u,v)
x=(v-imgW/2)*z/fx
y=(imgH/2-u)*z/fy
其中,(x,y,z)代表点的空间位置坐标,fx,fy分别表示深度相机水平和竖直方向的焦距。将得到每一帧空间点云体素化,由各帧的体素化结果组成网格序列其中Vt(i,j,k)作为该帧的输入网格,VoxL,VoxW,VoxH分别表示输入网格的长、宽、高,具体参考如下公式进行体素化:
其中,U(Vt(i,j,k))={(x,y,z)|(x-xmin)/sx∈[i,i+1],(y-ymin)/sy∈[j,j+1],(z-zmin)/sz∈[k,k+1]}代表体素单元Vt(i,j,k)的邻域,xmin,ymin,zmin分别表示点云在长、宽、高上的最小值,sx,sy,sz分别表示输入网格中每个网格单元的长、宽、高;
网格化结果实例见图4。
S3、选取网格序列的第一帧V1作为当前帧,也同时作为当前帧的隐藏状态变量,输入预训练的三维卷积单帧检测模型PoseNet1中处理获得第一帧的手部各关节空间概率分布;
S4、当前帧变为上一帧,下一帧变为当前帧;
S5、选取当前帧的输入Vt和上一帧的隐藏状态变量ht-1输入深度门控递归单元DGRU(Deep Gated Recurrent Uint)处理获得当前帧的隐藏状态变量ht,然后将当前帧的隐藏状态变量输入预训练的三维卷积多帧检测模型PoseNet2得到当前帧的手部关节空间概率分布;
如图2所示,深度门控递归单元包括深度门模型和深度门的更新计算;
深度门模型包括两个卷积池化模块、五个上采样层和三个卷积层;
两个卷积池化模块结构相同均包括依次连接的一个卷积层和一个池化层,但两个卷积池化模块的卷积参数不同;两个卷积池化模块依次连接,第二个卷积池化模块后面连接第一卷积层;第一卷积层的输出端经第二卷积层先后连接第二上采样层和第三上采样层形成第一条支路;第一卷积层的输出端经第一上采样层后,与第二卷积池化模块的卷积输出和第二上采样层的输出连接组合成复维特征,然后将复维特征依次经过第三卷积层和第四上采样层形成第二条支路;复维特征经第五上采样层与第一卷积池化模块的卷积输出叠加得到单维特征,单维特征作为第三条支路的输出;将第一条支路、第二条支路和第三条支路的输出叠加再经批正则化处理层获得预激活值,预激活值经过Sigmoid激活函数和分割操作后获得更新门和重置门;
将当前帧的输入和上一帧的隐藏状态变量作为输入,输入到深度门模型的第一个卷积池化模块中,由深度门模型输出获得更新门和重置门,更新门为当前帧的输入对应的输出结果,重置门为当前帧的隐藏状态变量对应的输出结果,然后根据更新门和重置门采用以下公式计算获得当前帧的隐藏变量:
Zt,rt=DG(Concatenate(Vt,ht-1)),
S6、重复步骤S4-S5,直到将整个深度图像序列检测结束;
相关的手势检测实例效果如图3所示。
上述三维卷积单帧检测模型和三维卷积多帧检测模型的网络结构相同但网络参数不同,均采用PoseNet网络结构,其中包括三维卷积层、三维反卷积层、三维最大池化层、三维批正则层和ReLu/Sigmoid激活函数。
上述三维卷积单帧检测模型、三维卷积多帧检测模型以及多头掩模均衡融和单元构成了手势连续检测模型,收集已含有手势标注的手部深度图像的数据集作为训练集,建立以下手势连续检测模型的目标函数:
然后以从头训练方式采用基于时序的后向传播方法(Back Propagation ThroughTime)并通过随机梯度下降优化获得网络参数。
由此实施可见,本发明设计的深度门控递归单元,将深度三维卷积神经网络模型和时序递归单元融合,能在帧与帧之间方便的提供长时间的时序依赖,提高了手势检测的连续性和手势检测精度。
Claims (6)
1.一种基于深度门控递归单元的手势深度图像连续检测方法,其特征在于,包括以下步骤:
S1、通过深度相机捕捉人手动态变化的深度图像序列;
S2、将深度图像序列的每一帧均向三维空间投影并体素化获得该帧的输入网格,由所有帧的输入网格组成人手三维体素的网格序列;
S3、选取网格序列的第一帧作为当前帧,也同时作为当前帧的隐藏状态变量,输入三维卷积单帧检测模型中处理获得第一帧的手部各关节空间概率分布;
S4、当前帧变为上一帧,下一帧变为当前帧;
S5、选取当前帧的输入和上一帧的隐藏状态变量输入深度门控递归单元(DGRU)处理获得当前帧的隐藏状态变量,然后将当前帧的隐藏状态变量输入三维卷积多帧检测模型得到当前帧的手部关节空间概率分布;
S6、重复步骤S4-S5,直到将整个深度图像序列检测结束;
S7、依据每一帧的手部各关节空间概率分布提取关节点的三维坐标。
2.根据权利要求1所述的一种基于深度门控递归单元的手势深度图像连续检测方法,其特征在于:所述三维卷积单帧检测模型和三维卷积多帧检测模型的网络结构相同但网络参数不同,均采用PoseNet网络结构。
3.根据权利要求1所述的一种基于深度门控递归单元的手势深度图像连续检测方法,其特征在于:所述的深度门控递归单元包括深度门模型和深度门的更新计算;深度门模型包括两个卷积池化模块、三个卷积层和五个上采样层;两个卷积池化模块结构相同均包括依次连接的一个卷积层和一个池化层,但两个卷积池化模块的卷积参数不同;两个卷积池化模块依次连接,第二卷积池化模块后面连接第一卷积层;第一卷积层的输出端经第二卷积层先后连接第二上采样层和第三上采样层形成第一条支路;第一卷积层的输出端同时经第一上采样层后与第二卷积池化模块的卷积输出、第二上采样层的输出连接组合成复维特征,然后将复维特征依次经过第三卷积层和第四上采样层形成第二条支路;复维特征同时经第五上采样层与第一卷积池化模块中卷积层的输出叠加得到单维特征,单维特征作为第三条支路的输出;将第一条支路、第二条支路和第三条支路的输出叠加再经批正则化处理层获得预激活值,预激活值经过Sigmoid激活函数和分割操作后获得更新门和重置门;
将当前帧的输入和上一帧的隐藏状态变量作为输入,输入到深度门模型的第一个卷积池化模块中,由深度门模型输出获得更新门和重置门,更新门为当前帧的输入对应的输出结果,重置门为当前帧的隐藏状态变量对应的输出结果,然后根据更新门和重置门采用以下公式计算获得当前帧的隐藏变量:
Zt,rt=DG(Concatenate(Vt,ht-1)),
其中,下标t和t-1分别代表当前帧和上一帧;Zt和rt分别代表当前帧的更新门和重置门;Vt和ht分别代表当前帧的输入和隐藏状态变量;Wh、Uh、bh是第一、第二、第三模型参数;Concatenate(·)表示张量连接操作;DG(·)表示深度门模型;tanh(·)代表双曲正切激活函数;⊙代表对应元素相乘操作。
4.根据权利要求1所述的一种基于深度门控递归单元的手势深度图像连续检测方法,其特征在于:所述的三维卷积单帧检测模型、三维卷积多帧检测模型以及多头掩模均衡融和单元构成了手势连续检测模型,预先采用以下过程进行网络参数学习和优化:收集已含有手势标注的手部深度图像的数据集作为训练集,建立以下手势连续检测模型的目标函数:
其中,N表示手部关节数量,i,j,k表示手部关节拟空间概率分布的每个位置的长、宽、高索引,和分别表示各个手部关节的手部关节空间概率分布和手部关节拟空间概率分布;σ2表示高斯分布形态参数,in、jn、kn表示输入网格的长、宽、高索引,ηH,ρH分别代表手部关节拟空间概率分布的长、宽、高;
然后以从头训练方式采用基于时序的后向传播方法并通过随机梯度下降优化获得网络参数。
5.根据权利要求1所述的一种基于深度门控递归单元的手势深度图像连续检测方法,其特征在于:第一帧的三维卷积单帧检测模型PoseNet1的网络参数不同于其他帧的三维卷积单帧检测模型的网络参数,除了第一帧以外的其他帧的三维卷积单帧检测模型的网络参数均相同。
6.根据权利要求3所述的一种基于深度门控递归单元的手势深度图像连续检测方法,其特征在于:各帧的深度门控递归单元结构相同,且参数均相同共享。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010043771.4A CN111274901B (zh) | 2020-01-15 | 2020-01-15 | 一种基于深度门控递归单元的手势深度图像连续检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010043771.4A CN111274901B (zh) | 2020-01-15 | 2020-01-15 | 一种基于深度门控递归单元的手势深度图像连续检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111274901A true CN111274901A (zh) | 2020-06-12 |
CN111274901B CN111274901B (zh) | 2023-09-01 |
Family
ID=71001630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010043771.4A Active CN111274901B (zh) | 2020-01-15 | 2020-01-15 | 一种基于深度门控递归单元的手势深度图像连续检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111274901B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111738186A (zh) * | 2020-06-28 | 2020-10-02 | 香港中文大学(深圳) | 目标定位方法、装置、电子设备及可读存储介质 |
CN113111581A (zh) * | 2021-04-09 | 2021-07-13 | 重庆邮电大学 | 结合时空因素和基于图神经网络的lstm轨迹预测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3315986A1 (de) * | 2016-10-28 | 2018-05-02 | Siemens Healthcare GmbH | Verfahren zum bereitstellen einer information zur vorbereitung einer mr-bildgebung |
CN108875007A (zh) * | 2018-06-15 | 2018-11-23 | 腾讯科技(深圳)有限公司 | 兴趣点的确定方法和装置、存储介质、电子装置 |
US20190114511A1 (en) * | 2017-10-16 | 2019-04-18 | Illumina, Inc. | Deep Learning-Based Techniques for Training Deep Convolutional Neural Networks |
US20190327124A1 (en) * | 2012-12-05 | 2019-10-24 | Origin Wireless, Inc. | Method, apparatus, and system for object tracking and sensing using broadcasting |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107392097B (zh) * | 2017-06-15 | 2020-07-07 | 中山大学 | 一种单目彩色视频的三维人体关节点定位方法 |
CN108734194B (zh) * | 2018-04-09 | 2021-08-03 | 浙江工业大学 | 一种面向虚拟现实的基于单深度图的人体关节点识别方法 |
CN108594997B (zh) * | 2018-04-16 | 2020-04-21 | 腾讯科技(深圳)有限公司 | 手势骨架构建方法、装置、设备及存储介质 |
-
2020
- 2020-01-15 CN CN202010043771.4A patent/CN111274901B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190327124A1 (en) * | 2012-12-05 | 2019-10-24 | Origin Wireless, Inc. | Method, apparatus, and system for object tracking and sensing using broadcasting |
EP3315986A1 (de) * | 2016-10-28 | 2018-05-02 | Siemens Healthcare GmbH | Verfahren zum bereitstellen einer information zur vorbereitung einer mr-bildgebung |
US20190114511A1 (en) * | 2017-10-16 | 2019-04-18 | Illumina, Inc. | Deep Learning-Based Techniques for Training Deep Convolutional Neural Networks |
CN108875007A (zh) * | 2018-06-15 | 2018-11-23 | 腾讯科技(深圳)有限公司 | 兴趣点的确定方法和装置、存储介质、电子装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111738186A (zh) * | 2020-06-28 | 2020-10-02 | 香港中文大学(深圳) | 目标定位方法、装置、电子设备及可读存储介质 |
CN111738186B (zh) * | 2020-06-28 | 2024-02-02 | 香港中文大学(深圳) | 目标定位方法、装置、电子设备及可读存储介质 |
CN113111581A (zh) * | 2021-04-09 | 2021-07-13 | 重庆邮电大学 | 结合时空因素和基于图神经网络的lstm轨迹预测方法 |
CN113111581B (zh) * | 2021-04-09 | 2022-03-11 | 重庆邮电大学 | 结合时空因素和基于图神经网络的lstm轨迹预测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111274901B (zh) | 2023-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tan et al. | YOLOv4_Drone: UAV image target detection based on an improved YOLOv4 algorithm | |
CN111339903B (zh) | 一种多人人体姿态估计方法 | |
CN107808131B (zh) | 基于双通路深度卷积神经网络的动态手势识别方法 | |
CN108241849B (zh) | 基于视频的人体交互动作识别方法 | |
Zhang et al. | Progressive hard-mining network for monocular depth estimation | |
CN114255238A (zh) | 一种融合图像特征的三维点云场景分割方法及系统 | |
WO2021218786A1 (zh) | 一种数据处理系统、物体检测方法及其装置 | |
WO2019136591A1 (zh) | 基于弱监督时空级联神经网络的显著目标检测方法及系统 | |
CN111126385A (zh) | 一种可变形活体小目标的深度学习智能识别方法 | |
CN114049381A (zh) | 一种融合多层语义信息的孪生交叉目标跟踪方法 | |
CN112101262B (zh) | 一种多特征融合手语识别方法及网络模型 | |
CN111274901B (zh) | 一种基于深度门控递归单元的手势深度图像连续检测方法 | |
CN116596966A (zh) | 一种基于注意力和特征融合的分割与跟踪方法 | |
CN104463962B (zh) | 基于gps信息视频的三维场景重建方法 | |
Xie et al. | An omni-scale global–local aware network for shadow extraction in remote sensing imagery | |
Wan et al. | Boosting image-based localization via randomly geometric data augmentation | |
CN114882493A (zh) | 一种基于图像序列的三维手部姿态估计与识别方法 | |
CN117011655A (zh) | 基于自适应区域选择特征融合方法、目标跟踪方法及系统 | |
CN116740419A (zh) | 一种基于图调控网络的目标检测方法 | |
CN113255514B (zh) | 基于局部场景感知图卷积网络的行为识别方法 | |
CN112967317B (zh) | 一种动态环境下基于卷积神经网络架构的视觉里程计方法 | |
CN111274902B (zh) | 用多头掩模均衡融和单元的手势深度图像连续检测方法 | |
CN115661451A (zh) | 一种深度学习单帧红外弱小目标高分辨率分割方法 | |
CN114898464A (zh) | 一种基于机器视觉的轻量化精准手指语智能算法识别方法 | |
Negi et al. | Best of Both Worlds: Hybrid SNN-ANN Architecture for Event-based Optical Flow Estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |