CN112733921B - 一种预测刚体6d姿态的神经网络损失函数计算方法及系统 - Google Patents

一种预测刚体6d姿态的神经网络损失函数计算方法及系统 Download PDF

Info

Publication number
CN112733921B
CN112733921B CN202011642269.1A CN202011642269A CN112733921B CN 112733921 B CN112733921 B CN 112733921B CN 202011642269 A CN202011642269 A CN 202011642269A CN 112733921 B CN112733921 B CN 112733921B
Authority
CN
China
Prior art keywords
loss function
neural network
sample
image
rigid body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011642269.1A
Other languages
English (en)
Other versions
CN112733921A (zh
Inventor
徐凯
冯良炳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Cosmosvision Intelligent Technology Co ltd
Original Assignee
Shenzhen Cosmosvision Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Cosmosvision Intelligent Technology Co ltd filed Critical Shenzhen Cosmosvision Intelligent Technology Co ltd
Priority to CN202011642269.1A priority Critical patent/CN112733921B/zh
Publication of CN112733921A publication Critical patent/CN112733921A/zh
Application granted granted Critical
Publication of CN112733921B publication Critical patent/CN112733921B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种预测刚体6D姿态的神经网络损失函数计算方法及系统,包括使用神经网络从6D姿态的刚体图像中获取图像特征;计算图像特征对应的6D姿态真实值与网络预测值的6D姿态之间的欧式距离;通过比较欧式距离与预设阈值的大小,判定图像中刚体样本类别,确定各类样本之间的样本损失函数;为样本添加权重相关因子,并采用神经网络反向传播算法,通过带权重的样本损失函数,更新神经网络参数。上述方案利用给不同难易预测的物体赋予不同的权重,达到提高网络收敛速度,提高准确率的效果。

Description

一种预测刚体6D姿态的神经网络损失函数计算方法及系统
技术领域
本发明涉及三维机器视觉识别中的姿态估计技术领域,具体涉及一种预测刚体6D姿态的神经网络损失函数计算方法及系统。
背景技术
目前,在工业机器人自动抓取方法中,通过计算被抓取物体的相对机器人的坐标,然后利用运动学反解确定机器人各个轴的角度,通过运动解算的方法求解物体相对于机械臂的姿态。这种做法在现实应用中往往需要使用多个不同角度相机进行视觉计算,效率较低,而且这种计算方法往往比较冗杂,精度上限当达到门槛值后难以继续提高。
为了减少工业机器人的抓取时间,增加效率,针对传统的姿态例如视觉识别引导做出对应的改进,使用神经网络对物体的姿态进行估计,其中损失函数是除网络结构的神经网络的另一个关键部分,已有关于刚体的损失函数分为两大类,对称物体与非对称物体各为一类。
对称物体:直接计算CAD模型上选取的点真实位姿与对应的预测位姿之间的欧式距离;
非对称物体:计算预测位姿与CAD模型真实位姿的最近点的欧式距离。
此两类损失函数没有考虑检测样本的难易程度,对简单样本与困难样本没有作区分,影响网络收敛速度,没有充分挖掘不同样本对网络训练的影响程度。
发明内容
为了解决上述问题,本发明公开一种预测刚体6D姿态的神经网络损失函数计算方法及系统,针对现有的刚体6D姿态估计所用的对称和非对称的两类物体损失函数而没有考虑检测样本的难易程度的缺陷,提出一种新的损失函数,能够自动区分难易样本,加快网络收敛,有助于避免震荡。
本发明通过以下技术手段解决上述技术问题:
一种预测刚体6D姿态的神经网络损失函数计算方法,所述方法包括如下步骤:
使用神经网络从6D姿态的刚体图像中获取图像特征;
计算所述图像特征对应的真实值与网络预测值之间的欧式距离;
通过比较所述欧式距离与预设阈值的大小,判定图像中刚体样本类别,确定各类样本之间的样本损失函数;
为所述样本添加权重相关因子,并采用神经网络反向传播算法,通过带权重的样本损失函数,更新神经网络参数。
优选的,所述使用神经网络从6D姿态的物体图像中获取图像特征包括:将图像样本集中的包含6D姿态的刚体图像输入神经网络进行特征提取,获得所述6D姿态的刚体图像在至少一个网络层级的图像特征。
优选的,根据下式计算图像特征对应的真实值与网络预测值之间欧式距离:
式中,x为3D点,R与t为真实值对应的旋转矩阵与平移向量,与/>为预测值得旋转矩阵与平移向量。
优选的,通过下式比较所述欧式距离与预设阈值的大小:
式中,f表示dis,α,β之间的函数映射关系,α,β为阈值参数。
优选的,所述各类样本之间的样本损失函数包括:非对称物体姿态的估计损失函数和对称物体姿态的估计损失函数;
其中,通过下式确定非对称物体姿态的估计损失函数:
通过下式确定对称物体姿态估计损失函数:
式中,为非对称物体姿态的估计损失函数,/>对称物体姿态估计损失函数;xj为模型点云中的序号为j的3D点,xk为评估模型上的序号为k的3D点,R与t为真实值对应的旋转矩阵与平移向量,/>与/>为预测值得旋转矩阵与平移向量,M为3D点个数。
优选的,通过下式为所述样本添加权重相关因子:
wnew=w*ef(dis,α,β)
式中样本w为原始权重,wnew为考虑样本难易性后的权重。
进一步地,通过下式确定带权重的样本损失函数:
式中,为带权重的非对称物体姿态的估计损失函数,/>为带权重的对称物体姿态估计损失函数。
一种预测刚体6D姿态的神经网络损失函数计算系统,所述系统包括:
获取模块,用于使用神经网络从6D姿态的刚体图像中获取图像特征;
计算模块,用于计算所述图像特征对应的真实值与网络预测值之间的欧式距离;
预测模块,用于通过比较所述欧式距离与预设阈值的大小,判定图像特征中刚体类别,确定各类样本之间的样本损失函数;
更新模块,用于为所述样本添加权重相关因子,并采用神经网络反向传播算法,通过带权重的样本损失函数,更新神经网络参数。
本发明的有益效果体现在:
本发明提出的一种预测刚体6D姿态的神经网络损失函数计算方法及系统,考虑了样本的差异性,将样本分为难样本和易样本;在反向传播中充分考虑了不同样本的差异性,提出一种新的损失函数,利用给不同难易预测的物体赋予不同的权重,并自适应的处理,能够自动区分难易样本,加快网络收敛,有助于提高网络收敛速度与准确率,避免震荡。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍。在所有附图中,类似的元件或部分一般由类似的附图标记标识。附图中,各元件或部分并不一定按照实际的比例绘制。
图1为本发明提供的方法总流程图;
图2为本发明实施例1提供的预测刚体6D姿态的神经网络损失函数计算流程图。
具体实施方式
下面将结合附图对本发明技术方案的实施例进行详细的描述。以下实施例仅用于更加清楚地说明本发明的技术方案,因此只作为示例,而不能以此来限制本发明的保护范围。
需要注意的是,除非另有说明,本申请使用的技术术语或者科学术语应当为本发明所属领域技术人员所理解的通常意义。
如图1所示,本发明具体实施方式中提供一种预测刚体6D姿态的神经网络损失函数计算方法,具体包括以下步骤:
S101使用神经网络从6D姿态的刚体图像中获取图像特征;
S102计算所述图像特征对应的真实值与网络预测值之间的欧式距离;
S103通过比较所述欧式距离与预设阈值的大小,判定图像中刚体样本类别,确定各类样本之间的样本损失函数;
S104为所述样本添加权重相关因子,并采用神经网络反向传播算法,通过带权重的样本损失函数,更新神经网络参数。
进一步地,已有的针对非对称物体姿态估计损失函数:
公式(1)中xj为模型点云中的序号为j的3D点,R与t为真实值对应的旋转矩阵与平移向量,与/>为预测值得旋转矩阵与平移向量,M为3D点个数。
已有的针对对称物体姿态估计损失函数:
公式(2)中xj为模型点云中的序号为j的3D点,xk为评估模型上的序号为k的3D点,R与t为真实值对应的旋转矩阵与平移向量,与/>为预测值得旋转矩阵与平移向量,M为3D点个数。
考虑检测样本的难易程度,设计分段损失函数,设置两个先验阈值α,β(α>β>0)作为分段函数的判断条件
公式(3)中x为3D点,R与t为真实值对应的旋转矩阵与平移向量,与/>为预测值得旋转矩阵与平移向量,公式(4)表现的为dis,α,β之间的函数映射关系。
wnew=w*ef(dis,α,β) (5)
公式(5)中样本w为原始权重,wnew为考虑样本难易性后的权重。则考虑样本难易性后公式(1)与(2)更新为公式(6)与(7)即为带权重的损失函数:
实施例1:
本发明实施例1提出的一种预测刚体6D姿态的神经网络损失函数计算方法,整个流程见图1,包括以下步骤:
神经网络特征提取
特征提取部分无网络模型的特需要求,通用提取特征网络即可;
1.计算真实值与网络预测值之间的欧式距离
根据公式(3)计算真实值与网络预测值之间欧式距离;
2.根据阈值判断样本类别
通过判断上一步计算出的结果dis与阈值参数α,β的大小,判定样本类别;
3.计算样本新的权重参数
判断应采用的函数映射,数学表达式如公式(4);
5计算带权重的损失函数
在通用的刚体姿态估计的损失函数的基础上添加权重相关因子,构成带权重的损失函
数,新的带权重损失函数如公式(6),(7);
6神经网络反向传播
通用的神经网络反向传播算法更新网络参数。
实施例2:
基于相同技术构思,本发明还提供一种预测刚体6D姿态的神经网络损失函数计算系统,所述系统包括:
获取模块,用于使用神经网络从6D姿态的刚体图像中获取图像特征;
计算模块,用于计算所述图像特征对应的真实值与网络预测值之间的欧式距离;
预测模块,用于通过比较所述欧式距离与预设阈值的大小,判定图像中刚体样本类别,确定各类样本之间的样本损失函数;
更新模块,用于为所述样本添加权重相关因子,并采用神经网络反向传播算法,通过带权重的样本损失函数,更新神经网络参数。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
最后应当说明的是:以上实施例仅用以说明本申请的技术方案而非对其保护范围的限制,尽管参照上述实施例对本申请进行了详细的说明,所属领域的普通技术人员应当理解:本领域技术人员阅读本申请后依然可对申请的具体实施方式进行种种变更、修改或者等同替换,这些变更、修改或者等同替换,其均在其申请待批的权利要求范围之内。

Claims (5)

1.一种预测刚体6D姿态的神经网络损失函数计算方法,其特征在于,所述方法包括如下步骤:
使用神经网络从6D姿态的刚体图像中获取图像特征;
计算所述图像特征对应的真实值与网络预测值之间的欧式距离;
通过比较所述欧式距离与预设阈值的大小,判定图像中刚体样本类别,确定各类样本之间的样本损失函数;
为所述样本添加权重相关因子,并采用神经网络反向传播算法,通过带权重的样本损失函数,更新神经网络参数;
根据下式计算图像特征对应的真实值与网络预测值之间欧式距离:
式中,x为3D点,R与t为真实值对应的旋转矩阵与平移向量,与/>为预测值的旋转矩阵与平移向量;
通过下式比较所述欧式距离与预设阈值的大小:
式中,f表示dis,α,β之间的函数映射关系,α,β为阈值参数;
通过下式确定带权重的样本损失函数:
式中,为带权重的非对称物体姿态的估计损失函数,/>为带权重的对称物体姿态估计损失函数;xj为模型点云中的序号为j的3D点,xk为评估模型上的序号为k的3D点,R与t为真实值对应的旋转矩阵与平移向量,/>与/>为预测值得旋转矩阵与平移向量,M为3D点个数。
2.如权利要求1所述的方法,其特征在于,所述使用神经网络从6D姿态的物体图像中获取图像特征包括:将图像样本集中的包含6D姿态的刚体图像输入神经网络进行特征提取,获得所述6D姿态的刚体图像在至少一个网络层级的图像特征。
3.如权利要求1所述的方法,其特征在于,所述各类样本之间的样本损失函数包括:非对称物体姿态的估计损失函数和对称物体姿态的估计损失函数;
其中,通过下式确定非对称物体姿态的估计损失函数:
通过下式确定对称物体姿态估计损失函数:
式中,为非对称物体姿态的估计损失函数,/>对称物体姿态估计损失函数。
4.如权利要求1所述的方法,其特征在于,通过下式为所述样本添加权重相关因子:
wnew=w*ef(dis,α,β)
式中,样本w为原始权重,wnew为考虑样本难易性后的权重。
5.一种预测刚体6D姿态的神经网络损失函数计算系统,其特征在于,所述系统包括:
获取模块,用于使用神经网络从6D姿态的刚体图像中获取图像特征;
计算模块,用于计算所述图像特征对应的真实值与网络预测值之间的欧式距离;
预测模块,用于通过比较所述欧式距离与预设阈值的大小,判定图像特征的样本类别,确定各类样本之间的样本损失函数;
更新模块,用于为所述样本添加权重相关因子,并采用神经网络反向传播算法,通过带权重的样本损失函数,更新神经网络参数;
根据下式计算图像特征对应的真实值与网络预测值之间欧式距离:
式中,x为3D点,R与t为真实值对应的旋转矩阵与平移向量,与/>为预测值的旋转矩阵与平移向量;
通过下式比较所述欧式距离与预设阈值的大小:
式中,f表示dis,α,β之间的函数映射关系,α,β为阈值参数;
通过下式确定带权重的样本损失函数:
式中,为带权重的非对称物体姿态的估计损失函数,/>为带权重的对称物体姿态估计损失函数;xj为模型点云中的序号为j的3D点,xk为评估模型上的序号为k的3D点,R与t为真实值对应的旋转矩阵与平移向量,/>与/>为预测值得旋转矩阵与平移向量,M为3D点个数。
CN202011642269.1A 2020-12-31 2020-12-31 一种预测刚体6d姿态的神经网络损失函数计算方法及系统 Active CN112733921B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011642269.1A CN112733921B (zh) 2020-12-31 2020-12-31 一种预测刚体6d姿态的神经网络损失函数计算方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011642269.1A CN112733921B (zh) 2020-12-31 2020-12-31 一种预测刚体6d姿态的神经网络损失函数计算方法及系统

Publications (2)

Publication Number Publication Date
CN112733921A CN112733921A (zh) 2021-04-30
CN112733921B true CN112733921B (zh) 2024-05-17

Family

ID=75609168

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011642269.1A Active CN112733921B (zh) 2020-12-31 2020-12-31 一种预测刚体6d姿态的神经网络损失函数计算方法及系统

Country Status (1)

Country Link
CN (1) CN112733921B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107832672A (zh) * 2017-10-12 2018-03-23 北京航空航天大学 一种利用姿态信息设计多损失函数的行人重识别方法
CN110068326A (zh) * 2019-04-29 2019-07-30 京东方科技集团股份有限公司 姿态计算方法、装置、电子设备以及存储介质
CN111127557A (zh) * 2019-12-13 2020-05-08 中国电子科技集团公司第二十研究所 一种基于深度学习的视觉slam前端位姿估计方法
CN111260649A (zh) * 2020-05-07 2020-06-09 常州唯实智能物联创新中心有限公司 一种近距离机械臂感知与校准方法
CN111899353A (zh) * 2020-08-11 2020-11-06 长春工业大学 一种基于生成对抗网络的三维扫描点云孔洞填补方法
DE102020111271A1 (de) * 2019-05-17 2020-11-19 Nvidia Corporation Schätzung von Objektposen
CN112037282A (zh) * 2020-09-04 2020-12-04 北京航空航天大学 一种基于关键点以及骨架的飞机姿态估计方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10235771B2 (en) * 2016-11-11 2019-03-19 Qualcomm Incorporated Methods and systems of performing object pose estimation

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107832672A (zh) * 2017-10-12 2018-03-23 北京航空航天大学 一种利用姿态信息设计多损失函数的行人重识别方法
CN110068326A (zh) * 2019-04-29 2019-07-30 京东方科技集团股份有限公司 姿态计算方法、装置、电子设备以及存储介质
DE102020111271A1 (de) * 2019-05-17 2020-11-19 Nvidia Corporation Schätzung von Objektposen
CN111127557A (zh) * 2019-12-13 2020-05-08 中国电子科技集团公司第二十研究所 一种基于深度学习的视觉slam前端位姿估计方法
CN111260649A (zh) * 2020-05-07 2020-06-09 常州唯实智能物联创新中心有限公司 一种近距离机械臂感知与校准方法
CN111899353A (zh) * 2020-08-11 2020-11-06 长春工业大学 一种基于生成对抗网络的三维扫描点云孔洞填补方法
CN112037282A (zh) * 2020-09-04 2020-12-04 北京航空航天大学 一种基于关键点以及骨架的飞机姿态估计方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A Novel Depth and Color Feature Fusion Framework for 6D Object Pose Estimation;Guangliang Zhou 等;《IEEE TRANSACTIONS ON MULTIMEDIA》;第23卷;1630-1639 *
多特征像素级融合的遮挡物体6DoF姿态估计研究;梁达勇 等;《计算机科学与探索》;第14卷(第12期);2072-2082 *

Also Published As

Publication number Publication date
CN112733921A (zh) 2021-04-30

Similar Documents

Publication Publication Date Title
CN109685152B (zh) 一种基于dc-spp-yolo的图像目标检测方法
CN110059672B (zh) 一种对显微镜细胞图像检测模型进行增类学习的方法
CN105913028B (zh) 一种基于face++平台的人脸跟踪方法及其装置
CN110111370B (zh) 一种基于tld和深度多尺度时空特征的视觉物体跟踪方法
EP4068160A1 (en) Neural network training and face detection method and apparatus, and device and storage medium
US9111172B2 (en) Information processing device, information processing method, and program
CN112785705B (zh) 一种位姿获取方法、装置及移动设备
JP2016173686A (ja) 情報処理装置
CN112258557B (zh) 一种基于空间注意力特征聚合的视觉跟踪方法
CN112989947A (zh) 一种人体关键点的三维坐标的估计方法及装置
CN111178261A (zh) 一种基于视频编码技术的人脸检测加速方法
CN113706579A (zh) 一种基于工厂化养殖的对虾多目标跟踪系统及方法
CN113657423A (zh) 适用于小体积零件与堆叠零件的目标检测方法及其应用
CN110702093B (zh) 基于粒子滤波的定位方法、装置、存储介质及机器人
CN112733921B (zh) 一种预测刚体6d姿态的神经网络损失函数计算方法及系统
CN112857379B (zh) 一种基于改进的Gmapping-SLAM地图更新方法及系统
CN113516713A (zh) 一种基于伪孪生网络的无人机自适应目标跟踪方法
CN117456236A (zh) 一种3d点云数据零样本分类方法、装置、设备及存储介质
CN114723809A (zh) 估计物体姿态的方法和装置、电子设备
CN112308917A (zh) 一种基于视觉的移动机器人定位方法
CN116758280A (zh) 目标检测方法、装置、设备以及存储介质
CN106470342A (zh) 全局运动估计方法及装置
CN114359300B (zh) 一种图像分割模型的优化方法、装置、系统及存储介质
CN113673313B (zh) 一种基于分层卷积神经网络的手势姿态识别方法
CN109903266A (zh) 一种基于样本窗的双核密度估计实时背景建模方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant