CN110097599A - 一种基于部件模型表达的工件位姿估计方法 - Google Patents
一种基于部件模型表达的工件位姿估计方法 Download PDFInfo
- Publication number
- CN110097599A CN110097599A CN201910320011.0A CN201910320011A CN110097599A CN 110097599 A CN110097599 A CN 110097599A CN 201910320011 A CN201910320011 A CN 201910320011A CN 110097599 A CN110097599 A CN 110097599A
- Authority
- CN
- China
- Prior art keywords
- workpiece
- component
- expression
- characteristic pattern
- partial model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于部件模型表达的工件位姿估计方法,包括以下步骤:对待检测数据进行数据增强,获取处理后的图像;通过卷积神经网络对图像进行特征提取,获得3种尺度的特征图;将每个特征图通过部件模型表达网络结构,获得整体和部件的相应得分与模型响应图;将所有模型响应图经过参数优化得到综合响应图以及关键点;通过EPnP算法计算空间中n个3D点与图像中2D点进行匹配,进而得到相机对应位姿。本发明只需对工件整体进行信息标注,将工件的部件信息作为隐性特征,通过神经网络自动发现有效部件来进行部件标注,具有快速而高效的性能,能实时、精确地计算工件等弱纹理物体的6D位姿的优点。
Description
技术领域
本发明涉及计算机视觉领域,具体涉及一种基于部件模型表达的工件位姿估计方法。
背景技术
在实际应用中,获取目标物体的三维信息是非常关键的。例如,在机械臂抓取操作任务中,识别物体6D位姿(三维定位和三维方向),为抓取和运动规划提供了有用的信息。对于工件进行位姿估计的难点在于工件属于弱纹理物体,易受到光照、反射情况的影响,使得从2D图像中反映出来的纹理不一定是3D物体表面真实的纹理。而且当图像的分辨率变化的时候,所计算出来的纹理可能会有较大偏差,特征提取算法不容易识别。在位姿估计实际过程中还存在遮挡,多目标等复杂场景的客观因素影响。
现有的6D位姿估计问题是通过将从图像中提取的局部特征与物体三维模型中的特征进行匹配来解决的。利用二维与三维对应关系,可以恢复物体的6D位姿。但是这些按方法不能很好的处理无纹理对象,因为只能提取很少的局部特征。为了处理无纹理物体,有两类方法,第一类方法是估计输入图像中物体像素或关键点的三维模型坐标。这样就建立了二维与三维的对应关系,从而可以进行6D位姿估计。第二类方法通过对位姿空间离散化,将6D位姿估计问题转化为位姿分类问题或位姿回归问题。这些方法能够处理无纹理的物体,但不能实现高精度的位姿估计,分类或回归阶段的小误差直接导致位姿不匹配。
此外,传统的可变形部件模型采用的是基于滑动窗口的检测方式,检测过程中利用一个较为粗糙的,覆盖整个目标的根模板遍历图像中所有位置进行模型匹配,然后通过几个高分辨率的部件模板计算对应空间位置得分的最大值,再根据部件模板相对于根模板的空间位置变形花费以确定检测目标。目前,可变形部件模型算法仅用来目标检测,没有充分利用部件表达的信息,并且没有将学习的特性运用在模板当中。在工件姿态估计中,存在部件信息所占整体比例较小,但对于位姿估计准确度有相当大的影响并可抑制整体位姿估计所导致的位姿不匹配问题。
发明内容
本发明所要解决的技术问题是提供一种基于部件模型表达的工件位姿估计方法,解决现有方法无法较好处理工件等弱纹理物体,无法精确对工件进行位姿估计,并且适应性不高的问题。
为解决上述技术问题,本发明采用的技术方案是:
一种基于部件模型表达的工件位姿估计方法,包括以下步骤:
步骤1:对待检测数据进行数据增强,将图像进行随机裁剪、缩放、旋转操作后重置图片尺寸,保持与原图大小分辨率相同;
步骤2:通过卷积神经网络对图像进行特征提取,获得13×13,26×26,52×52三种尺度的特征图;
步骤3:将每个特征图通过部件模型表达网络结构,获得整体和部件的相应得分与模型响应图;
步骤4:将所有模型响应图经过参数优化得到综合响应图以及关键点;
步骤5:通过EPnP算法计算空间中n个3D点与图像中2D点进行匹配,进而得到相机对应位姿。
进一步的,所述步骤2具体为:
卷积神经网络共包含三个混合空洞稠密块,每个稠密块里面的层数相同;在稠密块中,采用空洞卷积的方式,默认参数rate=1,2,5,当工件直径小于等于70mm时,选择rate=1,2,当工件直径大于70mm时,选择rate=1,2,5,保证各个层的特征图大小一致,在通道维度上直接连接;
稠密块中的非线性组合函数采用组合批归一化,Relu激活函数,3×3的卷积的结构;所有稠密块中各个层卷积之后均输出h个特征图,即得到的特征图的通道数为h,h在该网络结构为一个超参数;通过三个模块的特征图大小分别为32×32,16×16,8×8;在该卷积神经网络中,所有的3×3卷积均采用步长为1,填充为1的方式以保证特征图大小维持不变;该卷积神经网络使用如下网络配置:{Ls=190,h=12,rate=1,2,5},Ls为层数。
进一步的,所述步骤3具体为:
采用部件模型表达结构对每个类别c,视野v构建一个根模板卷积核对每个类别c,视野v,位置l构建一个部件模板卷积核在前向传播过程中,模板卷积核与特征图进行点积计算,获得对应得分;在反向传播过程中,模板卷积核更新参数;
其中,一个根模板卷积核对应O个部件模板卷积核;φA(xs)表示图片xs的特征图,所得表达得分为:
部件模型表达网络结构通过计算表达得分和根模板卷积核、部件模板卷积核在空间中关系的变形花费找到最优的部件位置;其中表达分数为形变参数为(pi+δi,pj+δj)是转移的空间偏置,是部件表达特征响应图;在满足形变权重时,部件表达响应为:
等式中的最大值对应每个独立的输出空间位置;对于每一个输出位置,均能够找到最大可能的形变(δi,δj);在训练过程,约束搜索窗口[-s,s]×[-s,s],其中s是在特征空间中部件的大小;通过训练,在每一次输出位置找到最优的保存。
进一步的,所述步骤4具体为:
设定变量代表工件整体的参数,其中定义工件整体的3D边界框的8个关键点,即8个(xi,yi);定义整体工件的视角;
工件物体的类别用定义,其中-1表示不属于任何类别;变量为工件部件的参数,其中i=1,2,…n;定义每个部件的3D边界框的8个关键点,定义了每个部件的视角,定义每个部件的权重,为权重约束;
通过部件模型表达网络,对目标工件的利用公式得到最终响应,并根据部件的所占权重,优化整体3D边界框即整体的8个关键点:
在训练过程中,部件表达模型的损失函数为:
上式中,λpt、λclass、λag分别表示关键点、分类、角度损失函数的系数;xi,yi,p(ci),vi分别为预测关键点在二维图像中的坐标、类别概率以及视角角度,分别为标注的关键点坐标、类别概率以及视角角度。
进一步的,所述步骤5具体为:
通过步骤4得到工件表面的n+8×part个关键点,考虑到效率与精度取优化后的整体的3D边界框组成的8个关键点;取{ui}i=1,…,n是参考点{pi}i=1,…,n的2D投影,控制点在世界坐标系中的坐标为在相机坐标系中的坐标为EPnP算法将参考点的坐标系表示为控制点坐标的加权和,即:
根据投影方程得到世界坐标系中参考点坐标和相机坐标系中参考点的约束关系,对于有将其改写为矩阵形式得:
得线性方程组Mx=0,其中M为2n×12的矩阵;x属于M的右零空间,vij为矩阵M的右奇异向量;其中K为相机内参,fu,fv为相机在u轴和v轴上的归一化焦距;通过牛顿-高斯优化算法求得误差最小维数的β,从而解得x,即得到控制点在相机坐标系下的坐标,再通过求解两个坐标系的位姿变换即得到目标工件的位姿信息。
进一步的,还包括步骤6:对位姿估计精度进行评价,设位姿标签为pose=[R|t],预测位姿为则其中角度误差为:平移误差为:当在测试集满足Rerror<5且Terror<5的样本数占总体测试样本数的85%,则网络训练完成,若不满足则通过降低网络学习率继续训练该网络。
与现有技术相比,本发明的有益效果是:采用部件模型表达的思想,将传统的可变形部件模型算法通过深度学习进行优化特征选取,将每个部件的信息都作为一定的权重来优化整体的3D边界框和关键点;同时,通过隐式获取工件的部件信息,只需工件整体的标签即可获取部件信息,将部件所占整体比例较小但对于位姿估计准确影响较大的部件进行有效的表达,从而使得工件姿态估计有着快速而高效的性能,能实时、精确地计算工件6D位姿。
附图说明
图1为本发明的流程示意图;
图2为网络结构特征提取的示意图;
图3为模板卷积核学习过程的示意图;
图4为部件模型卷积核形变示意图。
具体实施方式
下面结合附图和具体实施方式对本发明作进一步详细的说明。本发明可以在Windows和Linux平台上实现,编程语言也是可以选择的,可以采用Python实现。
如图1所示,本发明一种基于部件模型表达的工件位姿估计方法,包括以下步骤:
步骤1:对待检测数据进行数据增强,将图像进行随机裁剪、缩放、旋转操作后重置图像尺寸,保持与原图大小分辨率相同;
步骤2:通过卷积神经网络对图像进行特征提取,获得3个尺度的特征图;
步骤3:将每个特征图通过部件模型表达网络结构,获得整体和部件的相应得分与模型响应图;
步骤4:将所有模型响应图经过参数优化得到综合响应图以及关键点;
步骤5:通过EPnP算法计算空间中n个3D点与图像中2D点进行匹配,进而得到相机对应位姿。
所述步骤1可采用以下方式:
对工件CAD模型(或包含点云的模型)进行渲染,在方位角区间为[0,2π],高度角区间为[-0.5π,0.5π],半径以毫米为单位在[50,100,150,200]这4个范围内进行采样。将图片进行随机裁剪、缩放、旋转等操作后重置图片尺寸,保持与原图大小分辨率相同。
如图2所示,所述步骤2可采用以下方式:
采用卷积神经网络,将所有卷积层相互连接。每个层都会接受其前面所有层作为其额外的输入。即每个层都会与前面所有层在通道维度上连接在一起,并作为下一层的输入。对于一个LS层的网络,该网络共包含个连接,该网络共包含三个混合空洞稠密块,每个稠密块里面的层数相同。在稠密块中,采用空洞卷积的方式,参数rate=1,2,5分别时满足小物体大物体的要求(图3示出了本发明的空洞卷积在11×11特征图下的感受野),较小的参数获取近距离信息,较大的参数获取远距离信息,并保证各个层的特征图大小一致,可以在通道维度上连接。稠密块中的非线性组合函数采用组合批归一化,Relu激活函数,3×3的卷积的结构。所有稠密块中各个层卷积之后均输出h个特征图,即得到的特征图的通道数为h,h在该网络结构为一个超参数。通过三个模块的特征图大小分别为32×32,16×16,8×8。在该网络中,所有的3×3卷积均采用步长为1,填充为1的方式以保证特征图大小维持不变。该网络使用如下网络配置:{Ls=190,h=12,rate=1,2,5}。
如图4所示,所述步骤3可采用以下实现方式:
采用部件模型表达结构对每个类别c,视野v构建一个根滤波器对每个类别c,视野v,位置l构建一个部件卷积核其中φA(xs)表示图片xs的特征图,根滤波器和部件滤波器表达得分分别定义为:
部件模型表达网络结构通过计算表达得分和根模板卷积核、部件模板卷积核在空间中关系的变形花费找到最优的部件位置;其中表达分数为形变参数为(pi+δi,pj+δj)是转移的空间偏置,是部件表达特征响应图;在满足形变权重时,部件表达响应为:
等式中的最大值对应每个独立的输出空间位置。对于每一个输出位置,均可找到最大可能的形变(δi,δj)。在训练过程,约束搜索窗口[-s,s]×[-s,s],其中s是在特征空间中部件的大小。通过训练,在每一次输出位置找到最优的保存。
所述步骤4可采用以下实现方式:
设定用变量代表工件整体的参数,其中定义工件整体的3D边界框的8个关键点,即8个(xi,yi);定义整体工件的视角;工件物体的类别用定义,其中-1表示不属于任何类别。变量为工件部件的参数,其中i=1,2,…n。定义每个部件的3D边界框的8个关键点,定义了每个部件的视角,定义每个部件的权重,为权重约束。通过部件模型表达网络,对目标工件的利用公式得到最终响应,并根据部件的所占权重,优化整体3D边界框即整体的8个关键点:
在训练过程中,部件表达模型的损失函数为:
上式中,λpt、λclass、λag分别表示关键点、分类、角度损失函数的系数,在训练初期,分别设置为0.5,0.3,0.5,经过5个epoch后分别设置为0.8,0.7,0.9.以保证网络在初期主要学习对关键点和角度的学习。xi,yi,p(ci),vi分别为预测关键点在二维图像中的坐标,类别概率以及视角角度,分别为标注的关键点坐标,类别概率以及视角角度。初始学习率设置为0.001,每10个epoch将学习率乘以10。
所述步骤5可以采用以下实现方式:
通过步骤4可得工件表面的n+8×part个关键点,考虑到效率与精度取优化后的整体的3D边界框组成的8个关键点。取设{ui}i=1,…,n是参考点{pi}i=1,…,n的2D投影,控制点在世界坐标系中的坐标为在相机坐标系中的坐标为EPnP算法将参考点的坐标系表示为控制点坐标的加权和,即:
根据投影方程得到世界坐标系中参考点坐标和相机坐标系中参考点的约束关系,对于有将其改写为矩阵形式可得:
因此可得线性方程组Mx=0,其中M为2n×12的矩阵。x属于M的右零空间,vij为矩阵M的右奇异向量,;其中K为相机内参,fu,fv为相机在u轴和v轴上的归一化焦距。通过牛顿-高斯优化算法求得误差最小维数的β,从而解得x,即可得到控制点在相机坐标系下的坐标,再通过求解两个坐标系的位姿变换即可得到目标工件的位姿信息。对位姿估计精度进行评价,设位姿标签为pose=[R|t],预测位姿为则其中角度误差为:平移误差为:当在测试集满足Rerror<5且Terror<5的样本数占总体测试样本数的85%,则网络训练完成,若不满足则通过降低网络学习率继续训练该网络。
Claims (6)
1.一种基于部件模型表达的工件位姿估计方法,其特征在于,包括以下步骤:
步骤1:对待检测数据进行数据增强,将图像进行随机裁剪、缩放、旋转操作后重置图片尺寸,保持与原图大小分辨率相同;
步骤2:通过卷积神经网络对图像进行特征提取,获得13×13,26×26,52×52三种尺度的特征图;
步骤3:将每个特征图通过部件模型表达网络结构,获得整体和部件的相应得分与模型响应图;
步骤4:将所有模型响应图经过参数优化得到综合响应图以及关键点;
步骤5:通过EPnP算法计算空间中n个3D点与图像中2D点进行匹配,进而得到相机对应位姿。
2.如权利要求1所述的一种基于部件模型表达的工件位姿估计方法,其特征在于,所述步骤2具体为:
卷积神经网络共包含三个混合空洞稠密块,每个稠密块里面的层数相同;在稠密块中,采用空洞卷积的方式,默认参数rate=1,2,5,当工件直径小于等于70mm时,选择rate=1,2,当工件直径大于70mm时,选择rate=1,2,5,保证各个层的特征图大小一致,在通道维度上直接连接;
稠密块中的非线性组合函数采用组合批归一化,Relu激活函数,3×3的卷积的结构;所有稠密块中各个层卷积之后均输出h个特征图,即得到的特征图的通道数为h,h在该网络结构为一个超参数;通过三个模块的特征图大小分别为32×32,16×16,8×8;在该卷积神经网络中,所有的3×3卷积均采用步长为1,填充为1的方式以保证特征图大小维持不变;该卷积神经网络使用如下网络配置:{Ls=190,h=12,rate=1,2,5},Ls为层数。
3.如权利要求1所述的一种基于部件模型表达的工件位姿估计方法,其特征在于,所述步骤3具体为:
采用部件模型表达结构对每个类别c,视野v构建一个根模板卷积核对每个类别c,视野v,位置l构建一个部件模板卷积核在前向传播过程中,模板卷积核与特征图进行点积计算,获得对应得分;在反向传播过程中,模板卷积核更新参数;
其中,一个根模板卷积核对应O个部件模板卷积核;φA(xs)表示图片xs的特征图,所得表达得分为:
部件模型表达网络结构通过计算表达得分和根模板卷积核、部件模板卷积核在空间中关系的变形花费找到最优的部件位置;其中表达分数为形变参数为(pi+δi,pj+δj)是转移的空间偏置,是部件表达特征响应图;在满足形变权重时,部件表达响应为:
等式中的最大值对应每个独立的输出空间位置;对于每一个输出位置,均能够找到最大可能的形变(δi,δj);在训练过程,约束搜索窗口[-s,s]×[-s,s],其中s是在特征空间中部件的大小;通过训练,在每一次输出位置找到最优的保存。
4.如权利要求1所述的一种基于部件模型表达的工件位姿估计方法,其特征在于,所述步骤4具体为:
设定变量代表工件整体的参数,其中定义工件整体的3D边界框的8个关键点,即8个(xi,yi);定义整体工件的视角;
工件物体的类别用定义,其中-1表示不属于任何类别;变量为工件部件的参数,其中i=1,2,…n;定义每个部件的3D边界框的8个关键点,定义了每个部件的视角,定义每个部件的权重,为权重约束;
通过部件模型表达网络,对目标工件的利用公式得到最终响应,并根据部件的所占权重,优化整体3D边界框即整体的8个关键点:
在训练过程中,部件表达模型的损失函数为:
上式中,λpt、λclass、λag分别表示关键点、分类、角度损失函数的系数;xi,yi,p(ci),vi分别为预测关键点在二维图像中的坐标、类别概率以及视角角度,分别为标注的关键点坐标、类别概率以及视角角度。
5.如权利要求1所述的一种基于部件模型表达的工件位姿估计方法,其特征在于,所述步骤5具体为:
通过步骤4得到工件表面的n+8×part个关键点,考虑到效率与精度取优化后的整体的3D边界框组成的8个关键点;取{ui}i=1,…,n是参考点{pi}i=1,…,n的2D投影,控制点在世界坐标系中的坐标为在相机坐标系中的坐标为EPnP算法将参考点的坐标系表示为控制点坐标的加权和,即:
根据投影方程得到世界坐标系中参考点坐标和相机坐标系中参考点的约束关系,对于有将其改写为矩阵形式得:
得线性方程组Mx=0,其中M为2n×12的矩阵;x属于M的右零空间,vij为矩阵M的右奇异向量;其中K为相机内参,fu,fv为相机在u轴和v轴上的归一化焦距;通过牛顿-高斯优化算法求得误差最小维数的β,从而解得x,即得到控制点在相机坐标系下的坐标,再通过求解两个坐标系的位姿变换即得到目标工件的位姿信息。
6.如权利要求1所述的一种基于部件模型表达的工件位姿估计方法,其特征在于,还包括步骤6:对位姿估计精度进行评价,设位姿标签为pose=[R|t],预测位姿为则其中角度误差为:平移误差为:当在测试集满足Rerror<5且Terror<5的样本数占总体测试样本数的85%,则网络训练完成,若不满足则通过降低网络学习率继续训练该网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910320011.0A CN110097599B (zh) | 2019-04-19 | 2019-04-19 | 一种基于部件模型表达的工件位姿估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910320011.0A CN110097599B (zh) | 2019-04-19 | 2019-04-19 | 一种基于部件模型表达的工件位姿估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110097599A true CN110097599A (zh) | 2019-08-06 |
CN110097599B CN110097599B (zh) | 2021-08-13 |
Family
ID=67445376
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910320011.0A Active CN110097599B (zh) | 2019-04-19 | 2019-04-19 | 一种基于部件模型表达的工件位姿估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110097599B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110648361A (zh) * | 2019-09-06 | 2020-01-03 | 深圳市华汉伟业科技有限公司 | 一种三维目标物体的实时位姿估计方法及定位抓取系统 |
CN110889349A (zh) * | 2019-11-18 | 2020-03-17 | 哈尔滨工业大学 | 一种基于vslam的稀疏三维点云图的视觉定位方法 |
CN111583340A (zh) * | 2020-04-28 | 2020-08-25 | 西安交通大学 | 基于卷积神经网络降低单目相机位姿估计误差率的方法 |
CN111768435A (zh) * | 2020-06-03 | 2020-10-13 | 北京汉飞航空科技有限公司 | 一种应用于零件自动找正的自适应步长点云配正方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106251353A (zh) * | 2016-08-01 | 2016-12-21 | 上海交通大学 | 弱纹理工件及其三维位姿的识别检测方法及系统 |
CN107622226A (zh) * | 2017-08-27 | 2018-01-23 | 南京理工大学 | 基于改进的可变形部件模型算法的车辆检测方法及系统 |
CN108694716A (zh) * | 2018-05-15 | 2018-10-23 | 苏州大学 | 一种工件检测方法、模型训练方法及设备 |
CN109063301A (zh) * | 2018-07-24 | 2018-12-21 | 杭州师范大学 | 一种基于热力图的单幅图像室内物体姿态估计方法 |
-
2019
- 2019-04-19 CN CN201910320011.0A patent/CN110097599B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106251353A (zh) * | 2016-08-01 | 2016-12-21 | 上海交通大学 | 弱纹理工件及其三维位姿的识别检测方法及系统 |
CN107622226A (zh) * | 2017-08-27 | 2018-01-23 | 南京理工大学 | 基于改进的可变形部件模型算法的车辆检测方法及系统 |
CN108694716A (zh) * | 2018-05-15 | 2018-10-23 | 苏州大学 | 一种工件检测方法、模型训练方法及设备 |
CN109063301A (zh) * | 2018-07-24 | 2018-12-21 | 杭州师范大学 | 一种基于热力图的单幅图像室内物体姿态估计方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110648361A (zh) * | 2019-09-06 | 2020-01-03 | 深圳市华汉伟业科技有限公司 | 一种三维目标物体的实时位姿估计方法及定位抓取系统 |
CN110648361B (zh) * | 2019-09-06 | 2022-01-11 | 深圳市华汉伟业科技有限公司 | 一种三维目标物体的实时位姿估计方法及定位抓取系统 |
CN110889349A (zh) * | 2019-11-18 | 2020-03-17 | 哈尔滨工业大学 | 一种基于vslam的稀疏三维点云图的视觉定位方法 |
CN111583340A (zh) * | 2020-04-28 | 2020-08-25 | 西安交通大学 | 基于卷积神经网络降低单目相机位姿估计误差率的方法 |
CN111583340B (zh) * | 2020-04-28 | 2023-03-31 | 西安交通大学 | 基于卷积神经网络降低单目相机位姿估计误差率的方法 |
CN111768435A (zh) * | 2020-06-03 | 2020-10-13 | 北京汉飞航空科技有限公司 | 一种应用于零件自动找正的自适应步长点云配正方法 |
CN111768435B (zh) * | 2020-06-03 | 2022-06-17 | 北京汉飞航空科技有限公司 | 一种应用于零件自动找正的自适应步长点云配正方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110097599B (zh) | 2021-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110097599A (zh) | 一种基于部件模型表达的工件位姿估计方法 | |
CN110458939B (zh) | 基于视角生成的室内场景建模方法 | |
CN109816725B (zh) | 一种基于深度学习的单目相机物体位姿估计方法及装置 | |
CN108416840B (zh) | 一种基于单目相机的三维场景稠密重建方法 | |
CN108921926B (zh) | 一种基于单张图像的端到端三维人脸重建方法 | |
Rusu et al. | Close-range scene segmentation and reconstruction of 3D point cloud maps for mobile manipulation in domestic environments | |
CN105164726B (zh) | 用于3d重构的相机姿态估计 | |
CN110084304B (zh) | 一种基于合成数据集的目标检测方法 | |
CN106803267A (zh) | 基于Kinect的室内场景三维重建方法 | |
CN108052942B (zh) | 一种飞机飞行姿态的视觉图像识别方法 | |
CN109410321A (zh) | 基于卷积神经网络的三维重建方法 | |
CN107464244A (zh) | 一种基于神经网络的图像光照估计方法 | |
CN110286749B (zh) | 基于深度数据的手部姿势估计和追踪方法 | |
CN113409384A (zh) | 一种目标物体的位姿估计方法和系统、机器人 | |
CN110399809A (zh) | 多特征融合的人脸关键点检测方法及装置 | |
CN108010123A (zh) | 一种保留拓扑信息的三维点云获取方法 | |
CN113516693B (zh) | 一种快速通用的图像配准方法 | |
Hu et al. | Pipe pose estimation based on machine vision | |
Cai et al. | Physics‐based inverse rendering using combined implicit and explicit geometries | |
CN115205654A (zh) | 一种新型基于关键点约束的单目视觉3d目标检测方法 | |
Wang | Computing length-preserved free boundary for quasi-developable mesh segmentation | |
CN104834913A (zh) | 基于深度图像的旗语识别方法及装置 | |
CN115761143B (zh) | 一种基于2d图像的3d虚拟换装模型生成方法及装置 | |
Bhakar et al. | A review on classifications of tracking systems in augmented reality | |
CN112037282A (zh) | 一种基于关键点以及骨架的飞机姿态估计方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |