CN108257139A - 基于深度学习的rgb-d三维物体检测方法 - Google Patents
基于深度学习的rgb-d三维物体检测方法 Download PDFInfo
- Publication number
- CN108257139A CN108257139A CN201810163104.2A CN201810163104A CN108257139A CN 108257139 A CN108257139 A CN 108257139A CN 201810163104 A CN201810163104 A CN 201810163104A CN 108257139 A CN108257139 A CN 108257139A
- Authority
- CN
- China
- Prior art keywords
- rgb
- dimension object
- object detection
- neural networks
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20028—Bilateral filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于深度学习的RGB‑D三维物体检测方法,对RGB‑D图像进行标注,获取标注后的RGB‑D图像数据集,将数据集作为三维物体检测卷积神经网络模型的训练样本和测试样本;构建三维物体检测卷积神经网络模型,将训练样本和测试样本输入三维物体检测卷积神经网络模型中;设置卷积神经网络模型的超参数,通过Caffe训练三维物体检测卷积神经网络模型,当代价损失函数减少到理想程度且训练达到所要求的最大迭代次数时,生成训练模型;将RGB‑D图像数据集输入至训练完毕的模型中,输出三维物体检测结果。本发明比现有三维物体检测方法速度快、准确率高。
Description
技术领域
本发明涉及计算机视觉技术领域,具体涉及一种基于深度学习的RGB-D三维物体检测方法。
背景技术
物体检测是计算机视觉领域的一个基本但极具挑战的研究。在过去的几年里,由于可以轻易获取大量标注过的图像数据,加之深度卷积神经网络算法的不断进步,二维物体检测性能越来越好。二维物体检测通常是在图像中识别和定位到物体后,紧紧围绕物体圈出一个矩形框来表示物体在图像中所在位置。但是真实的世界是三维世界,传统的二维物体检测在三维世界里会产生很多问题,首先,二维物体检测仅仅得到物体所在图像中的平面位置信息,缺少物体在真实世界的三维信息;其次,在复杂场景下,如遮挡,则二维物体检测的效果则不是很好。随着科技的发展,深度相机的广泛应用,且由于传统二维物体检测的不足,三维物体检测应运而生。三维物体检测通过识别和定位三维物体,得到物体的三维信息,紧紧围绕物体圈出一个立方体框来表示物体在真实世界中的位置。三维物体检测在智能机器人、自动驾驶、增强现实等领域都有着重要的应用价值。然而,由于三维物体检测较二维物体检测更复杂、计算量更大,现有的三维物体检测方法的速度慢、准确率低。
发明内容
本发明的目的在于提供一种基于深度学习的RGB-D深度图像三维物体检测方法,该方法比现有三维物体检测方法速度快、准确率高。
为实现上述目的,本发明的技术方案为:基于深度学习的RGB-D三维物体检测方法,所述检测方法包括:
步骤一:对RGB-D图像进行标注,获取标注后的RGB-D图像数据集,将数据集作为三维物体检测卷积神经网络模型的训练样本和测试样本;
步骤二:构建三维物体检测卷积神经网络模型,将训练样本和测试样本输入三维物体检测卷积神经网络模型中;
步骤三:设置卷积神经网络模型的超参数,通过Caffe训练三维物体检测卷积神经网络模型,当代价损失函数减少到理想程度且训练达到所要求的最大迭代次数时,生成训练模型;
步骤四:将RGB-D图像数据集输入至训练完毕的模型中,输出三维物体检测结果。
如上所述的基于深度学习的RGB-D三维物体检测方法,所述步骤一中,RGB-D图像数据集为NYU Depth Dataset V2数据集,RGB-D图像数据集通过Microsoft Kinect深度相机采集的各种室内场景的RGB-D图像组成。
如上所述的基于深度学习的RGB-D三维物体检测方法,所述步骤一中还包括,对RGB-D图像数据集使用滤波器通过双边滤波算法进行滤波。
如上所述的基于深度学习的RGB-D三维物体检测方法,所述步骤二中,三维物体检测卷积神经网络模型构建方法为:
a)使用两个VGG-16卷积神经网络模型作为特征提取模型,RGB图和其对应的预处理过后的深度图为其输入,其中对第四个卷积层后的输出有两个不同分支操作:第一个分支是先进入池化层再进入第五个卷积层,第二个分支是直接进入第五个卷积层;
b)将第二个分支输出结果作为多模态混合区域建议网络的输入,所述多模态混合区域建议网络包括:二维区域检测建议网络和物体立体空间中心点计算,
二维区域检测建议网络输出为
其中,x、y、w、h代表二维边界框的中心点坐标、边界框的宽和高,xa、ya、wa、ha为对应的真值;
二维区域检测建议网络的损失函数为:
L(p,p*,t,t*)=Lcls(p,p*)+λp*Lreg(t,t*)
其中,p表示二维边界框中为物体的概率,p*表示其对应的真值,Lreg使用Smooth L1损失,t表示区域检测建议网络;
物体立体空间中心点计算通过由二维区域检测建议网络所输出二维物体区域建议映射到原始深度图像上,然后计算降采样后深度图像的中间值得出;
多模态混合区域建议网络的最后输出三维物体检测区域建议网络为t=(tx,ty,tz,tl,tw,th,tθ),
tθ=θgt×π/180
其中,x,y,z表示三维边界框的中心点坐标,l,w,h表示三维边界框的长、宽、高,θ表示物体的方向角;
三维物体检测区域建议网络损失函数为:
L(p,p*,t,t*)=Lcls(p,p*)+λ[p*>0]L3d_reg(t,t*)
其中L3d_reg使用Smooth L1损失;
c)将步骤a)第一分支的输出和步骤b)的输出分别输入到不同的感兴趣区域层,其中步骤b)首先输出到ROIS-Context层和ROIS层,再输入到感兴趣区域层,各感兴趣区域层之间分别提供不同尺度的特征,最后的输出进行融合输入到全连接层。
如上所述的基于深度学习的RGB-D三维物体检测方法,所述步骤三中通过Caffe训练三维物体检测卷积神经网络模型方法为:使用ImageNet的VGG-16的预训练卷积神经网络模型为三维物体检测卷积神经网络进行参数初始化。
本发明的RGB-D三维检测方法采用卷积神经网络模型,不仅三维物体检测的准确率比现有方法高,并且三维物体检测的速度也比现有方法快。
附图说明
图1为基于深度学习的RGB-D三维物体检测方法流程图;
图2为三维物体检测卷积神经网络模型结构图;
图3为三维物体检测边界框生成过程示意图;
图4为本发明实施例中部分测试样例三维物体检测结果;
图5为本发明实施例中测试样本三维物体检测类别和准确率。
具体实施方式
以下实施例用于说明本发明,但不用来限制本发明的范围。本发明中,RGB图指的是通过红(R)、绿(G)、蓝(B)参数值表示的图像,其通过对红(R)、绿(G)、蓝(B)三个颜色通道的变化以及它们相互之间的叠加得到各式各样的颜色;深度图是包含与视点的场景对象的表面的距离有关的信息的图像或图像通道,其类似于灰度图像,只是深度图的每个像素值是传感器距离物体的实际距离。通常RGB图像和Depth图像是配准的,因而像素点之间具有一对一的对应关系,RGB-D指的就是深度图像。
如图1所示,基于深度学习的RGB-D三维物体检测方法,所述检测方法包括:
S1:对RGB-D图像进行标注,获取标注后的RGB-D图像数据集,将数据集作为三维物体检测卷积神经网络模型的训练样本和测试样本;
S2:构建三维物体检测卷积神经网络模型,将训练样本和测试样本输入三维物体检测卷积神经网络模型中;
S3:设置卷积神经网络模型的超参数,通过Caffe训练三维物体检测卷积神经网络模型,当代价损失函数减少到理想程度且训练达到所要求的最大迭代次数时,生成训练模型;
S4:将RGB-D图像数据集输入至训练完毕的模型中,输出三维物体检测结果。
基于深度学习的RGB-D三维物体检测方法的一个实施例中,所述S1中,RGB-D图像数据集为NYU Depth Dataset V2数据集,RGB-D图像数据集通过Microsoft Kinect深度相机采集的各种室内场景的RGB-D图像组成。NYU Depth Dataset V2数据集是由MicrosoftKinect深度相机采集的各种室内场景的RGB-D图像组成,本实施例中包含1449张已标注的RGB-D图像,其中795张RGB-D图像作为训练样本,剩余654张RGB-D图像作为测试样本。在所有RGB-D图像中需检测共包含19大类室内常见物体:浴缸、床、书架、盒子、椅子、柜台、书桌、门、梳妆台、垃圾桶、台灯、显示器、床头柜、枕头、水槽、沙发、桌子、电视、马桶。
基于深度学习的RGB-D三维物体检测方法的一个实施例中,所述S1中还包括,对RGB-D图像数据集使用滤波器通过双边滤波算法进行滤波。双边滤波是一种非线性的滤波方法,是结合图像的空间邻近度和像素值相似度的一种折中处理,同时考虑空域信息和灰度相似性,达到保边去噪的目的,具有简单、非迭代、局部的特点。
基于深度学习的RGB-D三维物体检测方法的一个实施例中,所述S2中,三维物体检测卷积神经网络模型构建方法为:
a)使用两个VGG-16卷积神经网络模型作为特征提取模型,RGB图和其对应的预处理过后的深度图为其输入,其中对第四个卷积层后的输出有两个不同分支操作:第一个分支是先进入池化层再进入第五个卷积层,第二个分支是直接进入第五个卷积层;
b)将第二个分支输出结果作为多模态混合区域建议网络的输入,所述多模态混合区域建议网络包括:二维区域检测建议网络和物体立体空间中心点计算,
二维区域检测建议网络输出为
其中,x、y、w、h代表二维边界框的中心点坐标、边界框的宽和高,xa、ya、wa、ha为对应的真值;
二维区域检测建议网络的损失函数为:
L(p,p*,t,t*)=Lcls(p,p*)+λp*Lreg(t,t*)
其中,p表示二维边界框中为物体的概率,p*表示其对应的真值,Lreg使用Smooth L1损失,t表示区域检测建议网络;
物体立体空间中心点计算通过由二维区域检测建议网络所输出二维物体区域建议映射到原始深度图像上,然后计算降采样后深度图像的中间值得出;
多模态混合区域建议网络的最后输出三维物体检测区域建议网络为t=(tx,ty,tz,tl,tw,th,tθ),
tθ=θgt×π/180
其中,x,y,z表示三维边界框的中心点坐标,l,w,h表示三维边界框的长、宽、高,θ表示物体的方向角;
三维物体检测区域建议网络损失函数为:
L(p,p*,t,t*)=Lcls(p,p*)+λ[p*>0]L3d_reg(t,t*)
其中L3d_reg使用Smooth L1损失;
c)将步骤a)第一分支的输出和步骤b)的输出分别输入到不同的感兴趣区域层,其中步骤b)首先输出到ROIS-Context层和ROIS层,再输入到感兴趣区域层,ROIS-Context层下采样出来的特征图大小是ROIS层输出的特征图大小的1.5倍。各感兴趣区域层之间分别提供不同尺度的特征,最后的输出进行融合输入到全连接层。
基于深度学习的RGB-D三维物体检测方法的一个实施例中,所述S3中通过Caffe训练三维物体检测卷积神经网络模型方法为:使用ImageNet的VGG-16的预训练卷积神经网络模型为三维物体检测卷积神经网络进行参数初始化。使用ImageNet的VGG-16的预训练卷积神经网络模型为本发明的三维物体检测卷积神经网络进行参数初始化。在本实施例中使用四阶段交替训练方法,其中第一和第三阶段分别迭代80000次,第二和第四阶段分为别40000次。基础学习率为0.001,分别在第一和第三阶段、第二和第四阶段的60000次迭代和30000次迭代后降为0.0001。动量参数设置为0.9,权值衰减设置为0.0005。
虽然,上文中已经用一般性说明及具体实施例对本发明作了详尽的描述,但在本发明基础上,可以对之作一些修改或改进,这对本领域技术人员而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或改进,均属于本发明要求保护的范围。
Claims (8)
1.基于深度学习的RGB-D三维物体检测方法,其特征在于,所述检测方法包括:
步骤一:对RGB-D图像进行标注,获取标注后的RGB-D图像数据集,将数据集作为三维物体检测卷积神经网络模型的训练样本和测试样本;
步骤二:构建三维物体检测卷积神经网络模型,将训练样本和测试样本输入三维物体检测卷积神经网络模型中;
步骤三:设置卷积神经网络模型的超参数,通过Caffe训练三维物体检测卷积神经网络模型,当代价损失函数减少到理想程度且训练达到所要求的最大迭代次数时,生成训练模型;
步骤四:将RGB-D图像数据集输入至训练完毕的模型中,输出三维物体检测结果。
2.根据权利要求1所述的基于深度学习的RGB-D三维物体检测方法,其特征在于,所述步骤一中,RGB-D图像数据集为NYU Depth Dataset V2数据集,RGB-D图像数据集通过Microsoft Kinect深度相机采集的各种室内场景的RGB-D图像组成。
3.根据权利要求1所述的基于深度学习的RGB-D三维物体检测方法,其特征在于,所述步骤一中还包括,对RGB-D图像数据集使用滤波器通过双边滤波算法进行滤波。
4.根据权利要求1所述的基于深度学习的RGB-D三维物体检测方法,其特征在于,所述步骤二中,三维物体检测卷积神经网络模型构建方法为:
a)使用两个VGG-16卷积神经网络模型作为特征提取模型,RGB图和其对应的预处理过后的深度图为其输入,其中对第四个卷积层后的输出有两个不同分支操作:第一个分支是先进入池化层再进入第五个卷积层,第二个分支是直接进入第五个卷积层;
b)将第二个分支输出结果作为多模态混合区域建议网络的输入,进行二维区域检测建议网络和物体立体空间中心点计算;
c)将步骤a)第一分支的输出和步骤b)的输出分别输入到不同的感兴趣区域层,其中步骤b)首先输出到ROIS-Context层和ROIS层,再输入到感兴趣区域层,各感兴趣区域层之间分别提供不同尺度的特征,最后的输出进行融合输入到全连接层。
5.根据权利要求4所述的基于深度学习的RGB-D三维物体检测方法,其特征在于,所述步骤b)中,二维区域检测建议网络输出为
其中,x、y、w、h代表二维边界框的中心点坐标、边界框的宽和高,xa、ya、wa、ha为对应的真值;
二维区域检测建议网络的损失函数为:
L(p,p*,t,t*)=Lcls(p,p*)+λp*Lreg(t,t*)
其中,p表示二维边界框中为物体的概率,p*表示其对应的真值,Lreg使用Smooth L1损失,t表示区域检测建议网络。
6.根据权利要求4所述的基于深度学习的RGB-D三维物体检测方法,其特征在于,所述步骤b)中,物体立体空间中心点计算通过由二维区域检测建议网络所输出二维物体区域建议映射到原始深度图像上,然后计算降采样后深度图像的中间值得出;
多模态混合区域建议网络的最后输出三维物体检测区域建议网络为t=(tx,ty,tz,tl,tw,th,tθ),
tθ=θgt×π/180
其中,x,y,z表示三维边界框的中心点坐标,l,w,h表示三维边界框的长、宽、高,θ表示物体的方向角。
7.根据权利要求6所述的基于深度学习的RGB-D三维物体检测方法,其特征在于,所述步骤b)中,三维物体检测区域建议网络损失函数为:
L(p,p*,t,t*)=Lcls(p,p*)+λ[p*>0]L3d_reg(t,t*)
其中L3d_reg使用Smooth L1损失。
8.根据权利要求1所述的基于深度学习的RGB-D三维物体检测方法,其特征在于,所述步骤三中通过Caffe训练三维物体检测卷积神经网络模型方法为:使用ImageNet的VGG-16的预训练卷积神经网络模型为三维物体检测卷积神经网络进行参数初始化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810163104.2A CN108257139B (zh) | 2018-02-26 | 2018-02-26 | 基于深度学习的rgb-d三维物体检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810163104.2A CN108257139B (zh) | 2018-02-26 | 2018-02-26 | 基于深度学习的rgb-d三维物体检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108257139A true CN108257139A (zh) | 2018-07-06 |
CN108257139B CN108257139B (zh) | 2020-09-08 |
Family
ID=62745484
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810163104.2A Active CN108257139B (zh) | 2018-02-26 | 2018-02-26 | 基于深度学习的rgb-d三维物体检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108257139B (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109087317A (zh) * | 2018-11-13 | 2018-12-25 | 中国科学院大学 | 一种肺结节图像分割方法 |
CN109523552A (zh) * | 2018-10-24 | 2019-03-26 | 青岛智能产业技术研究院 | 基于视锥点云的三维物体检测方法 |
CN109655019A (zh) * | 2018-10-29 | 2019-04-19 | 北方工业大学 | 一种基于深度学习和三维重建的货物体积测量方法 |
CN109816725A (zh) * | 2019-01-17 | 2019-05-28 | 哈工大机器人(合肥)国际创新研究院 | 一种基于深度学习的单目相机物体位姿估计方法及装置 |
CN109829476A (zh) * | 2018-12-27 | 2019-05-31 | 青岛中科慧畅信息科技有限公司 | 基于yolo的端到端三维物体检测方法 |
CN109872366A (zh) * | 2019-02-25 | 2019-06-11 | 清华大学 | 基于深度拟合程度评估网络的物体三维位置检测方法和装置 |
CN110070025A (zh) * | 2019-04-17 | 2019-07-30 | 上海交通大学 | 基于单目图像的三维目标检测系统及方法 |
CN110080326A (zh) * | 2019-04-29 | 2019-08-02 | 北京拓疆者智能科技有限公司 | 一种卸料方法、控制器、挖掘机、电子设备及存储介质 |
CN110197464A (zh) * | 2019-05-24 | 2019-09-03 | 清华大学 | 深度相机深度图实时去噪方法和装置 |
CN110910450A (zh) * | 2019-09-26 | 2020-03-24 | 西安交通大学 | 一种基于混合特征感知神经网络进行3d目标检测的方法 |
CN110956656A (zh) * | 2019-12-17 | 2020-04-03 | 北京工业大学 | 一种基于深度目标检测的纺锤定位方法 |
CN111557022A (zh) * | 2018-12-10 | 2020-08-18 | 三星电子株式会社 | 二维图像处理方法及执行所述方法的设备 |
CN111895931A (zh) * | 2020-07-17 | 2020-11-06 | 嘉兴泊令科技有限公司 | 一种基于计算机视觉的煤矿作业区标定方法 |
CN113052110A (zh) * | 2021-04-02 | 2021-06-29 | 浙大宁波理工学院 | 一种基于多视图投影和深度学习的三维兴趣点提取方法 |
CN113554021A (zh) * | 2021-06-07 | 2021-10-26 | 傲雄在线(重庆)科技有限公司 | 一种智能化印章识别方法 |
US11893681B2 (en) | 2018-12-10 | 2024-02-06 | Samsung Electronics Co., Ltd. | Method for processing two-dimensional image and device for executing method |
Citations (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106157307A (zh) * | 2016-06-27 | 2016-11-23 | 浙江工商大学 | 一种基于多尺度cnn和连续crf的单目图像深度估计方法 |
CN106203503A (zh) * | 2016-07-08 | 2016-12-07 | 天津大学 | 一种基于骨骼序列的动作识别方法 |
CN106547356A (zh) * | 2016-11-17 | 2017-03-29 | 科大讯飞股份有限公司 | 智能交互方法和装置 |
US20170099112A1 (en) * | 2015-10-06 | 2017-04-06 | Mahdi Zamani | Apparatus and Method for Unified Mitigation of Correlative Additive and Multiplicative Noise |
CN106599939A (zh) * | 2016-12-30 | 2017-04-26 | 深圳市唯特视科技有限公司 | 一种基于区域卷积神经网络的实时目标检测方法 |
CN106683067A (zh) * | 2017-01-20 | 2017-05-17 | 福建帝视信息科技有限公司 | 一种基于残差子图像的深度学习超分辨率重建方法 |
CN106845430A (zh) * | 2017-02-06 | 2017-06-13 | 东华大学 | 基于加速区域卷积神经网络的行人检测与跟踪方法 |
CN106910186A (zh) * | 2017-01-13 | 2017-06-30 | 陕西师范大学 | 一种基于cnn深度学习的桥梁裂缝检测定位方法 |
CN106909924A (zh) * | 2017-02-18 | 2017-06-30 | 北京工业大学 | 一种基于深度显著性的遥感影像快速检索方法 |
CN106952303A (zh) * | 2017-03-09 | 2017-07-14 | 北京旷视科技有限公司 | 车距检测方法、装置和系统 |
CN106951911A (zh) * | 2017-02-13 | 2017-07-14 | 北京飞搜科技有限公司 | 一种快速的多标签图片检索系统及实现方法 |
CN107016665A (zh) * | 2017-02-16 | 2017-08-04 | 浙江大学 | 一种基于深度卷积神经网络的ct肺结节检测方法 |
CN107204010A (zh) * | 2017-04-28 | 2017-09-26 | 中国科学院计算技术研究所 | 一种单目图像深度估计方法与系统 |
CN107239731A (zh) * | 2017-04-17 | 2017-10-10 | 浙江工业大学 | 一种基于Faster R‑CNN的手势检测和识别方法 |
CN107292234A (zh) * | 2017-05-17 | 2017-10-24 | 南京邮电大学 | 一种基于信息边缘和多模态特征的室内场景布局估计方法 |
CN107341440A (zh) * | 2017-05-08 | 2017-11-10 | 西安电子科技大学昆山创新研究院 | 基于多任务度量多核学习的室内rgb‑d场景图像识别方法 |
CN107392131A (zh) * | 2017-07-14 | 2017-11-24 | 天津大学 | 一种基于人体骨骼节点距离的动作识别方法 |
CN107576960A (zh) * | 2017-09-04 | 2018-01-12 | 苏州驾驶宝智能科技有限公司 | 视觉雷达时空信息融合的目标检测方法及系统 |
CN107578436A (zh) * | 2017-08-02 | 2018-01-12 | 南京邮电大学 | 一种基于全卷积神经网络fcn的单目图像深度估计方法 |
CN107679503A (zh) * | 2017-10-12 | 2018-02-09 | 中科视拓(北京)科技有限公司 | 一种基于深度学习的人群计数算法 |
CN107729799A (zh) * | 2017-06-13 | 2018-02-23 | 银江股份有限公司 | 基于深度卷积神经网络的人群异常行为视觉检测及分析预警系统 |
CN107729838A (zh) * | 2017-10-12 | 2018-02-23 | 中科视拓(北京)科技有限公司 | 一种基于深度学习的头部姿态估算方法 |
-
2018
- 2018-02-26 CN CN201810163104.2A patent/CN108257139B/zh active Active
Patent Citations (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170099112A1 (en) * | 2015-10-06 | 2017-04-06 | Mahdi Zamani | Apparatus and Method for Unified Mitigation of Correlative Additive and Multiplicative Noise |
CN106157307A (zh) * | 2016-06-27 | 2016-11-23 | 浙江工商大学 | 一种基于多尺度cnn和连续crf的单目图像深度估计方法 |
CN106203503A (zh) * | 2016-07-08 | 2016-12-07 | 天津大学 | 一种基于骨骼序列的动作识别方法 |
CN106547356A (zh) * | 2016-11-17 | 2017-03-29 | 科大讯飞股份有限公司 | 智能交互方法和装置 |
CN106599939A (zh) * | 2016-12-30 | 2017-04-26 | 深圳市唯特视科技有限公司 | 一种基于区域卷积神经网络的实时目标检测方法 |
CN106910186A (zh) * | 2017-01-13 | 2017-06-30 | 陕西师范大学 | 一种基于cnn深度学习的桥梁裂缝检测定位方法 |
CN106683067A (zh) * | 2017-01-20 | 2017-05-17 | 福建帝视信息科技有限公司 | 一种基于残差子图像的深度学习超分辨率重建方法 |
CN106845430A (zh) * | 2017-02-06 | 2017-06-13 | 东华大学 | 基于加速区域卷积神经网络的行人检测与跟踪方法 |
CN106951911A (zh) * | 2017-02-13 | 2017-07-14 | 北京飞搜科技有限公司 | 一种快速的多标签图片检索系统及实现方法 |
CN107016665A (zh) * | 2017-02-16 | 2017-08-04 | 浙江大学 | 一种基于深度卷积神经网络的ct肺结节检测方法 |
CN106909924A (zh) * | 2017-02-18 | 2017-06-30 | 北京工业大学 | 一种基于深度显著性的遥感影像快速检索方法 |
CN106952303A (zh) * | 2017-03-09 | 2017-07-14 | 北京旷视科技有限公司 | 车距检测方法、装置和系统 |
CN107239731A (zh) * | 2017-04-17 | 2017-10-10 | 浙江工业大学 | 一种基于Faster R‑CNN的手势检测和识别方法 |
CN107204010A (zh) * | 2017-04-28 | 2017-09-26 | 中国科学院计算技术研究所 | 一种单目图像深度估计方法与系统 |
CN107341440A (zh) * | 2017-05-08 | 2017-11-10 | 西安电子科技大学昆山创新研究院 | 基于多任务度量多核学习的室内rgb‑d场景图像识别方法 |
CN107292234A (zh) * | 2017-05-17 | 2017-10-24 | 南京邮电大学 | 一种基于信息边缘和多模态特征的室内场景布局估计方法 |
CN107729799A (zh) * | 2017-06-13 | 2018-02-23 | 银江股份有限公司 | 基于深度卷积神经网络的人群异常行为视觉检测及分析预警系统 |
CN107392131A (zh) * | 2017-07-14 | 2017-11-24 | 天津大学 | 一种基于人体骨骼节点距离的动作识别方法 |
CN107578436A (zh) * | 2017-08-02 | 2018-01-12 | 南京邮电大学 | 一种基于全卷积神经网络fcn的单目图像深度估计方法 |
CN107576960A (zh) * | 2017-09-04 | 2018-01-12 | 苏州驾驶宝智能科技有限公司 | 视觉雷达时空信息融合的目标检测方法及系统 |
CN107679503A (zh) * | 2017-10-12 | 2018-02-09 | 中科视拓(北京)科技有限公司 | 一种基于深度学习的人群计数算法 |
CN107729838A (zh) * | 2017-10-12 | 2018-02-23 | 中科视拓(北京)科技有限公司 | 一种基于深度学习的头部姿态估算方法 |
Non-Patent Citations (2)
Title |
---|
WEN-LI SHI等: "Training Deep Residual Network with Funnel Online Hard Examples Mining Method on Object Detector", 《2017 3RD INTERNATIONAL CONFERENCE ON ARTIFICIAL INTELLIGENCE AND INDUSTRIAL ENGINEERING (AIIE 2017) 》 * |
ZHU DEZHAO等: "Measuring the Residual Phase Noise of Photodiodes Using Two-Tone Correlation Method", 《IEEE PHOTONICS TECHNOLOGY LETTERS》 * |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109523552A (zh) * | 2018-10-24 | 2019-03-26 | 青岛智能产业技术研究院 | 基于视锥点云的三维物体检测方法 |
CN109523552B (zh) * | 2018-10-24 | 2021-11-02 | 青岛智能产业技术研究院 | 基于视锥点云的三维物体检测方法 |
CN109655019A (zh) * | 2018-10-29 | 2019-04-19 | 北方工业大学 | 一种基于深度学习和三维重建的货物体积测量方法 |
CN109087317A (zh) * | 2018-11-13 | 2018-12-25 | 中国科学院大学 | 一种肺结节图像分割方法 |
CN111557022A (zh) * | 2018-12-10 | 2020-08-18 | 三星电子株式会社 | 二维图像处理方法及执行所述方法的设备 |
CN111557022B (zh) * | 2018-12-10 | 2024-05-14 | 三星电子株式会社 | 二维图像处理方法及执行所述方法的设备 |
US11893681B2 (en) | 2018-12-10 | 2024-02-06 | Samsung Electronics Co., Ltd. | Method for processing two-dimensional image and device for executing method |
CN109829476A (zh) * | 2018-12-27 | 2019-05-31 | 青岛中科慧畅信息科技有限公司 | 基于yolo的端到端三维物体检测方法 |
CN109816725A (zh) * | 2019-01-17 | 2019-05-28 | 哈工大机器人(合肥)国际创新研究院 | 一种基于深度学习的单目相机物体位姿估计方法及装置 |
CN109872366A (zh) * | 2019-02-25 | 2019-06-11 | 清华大学 | 基于深度拟合程度评估网络的物体三维位置检测方法和装置 |
CN110070025B (zh) * | 2019-04-17 | 2023-03-31 | 上海交通大学 | 基于单目图像的三维目标检测系统及方法 |
CN110070025A (zh) * | 2019-04-17 | 2019-07-30 | 上海交通大学 | 基于单目图像的三维目标检测系统及方法 |
CN110080326B (zh) * | 2019-04-29 | 2021-11-16 | 北京拓疆者智能科技有限公司 | 一种卸料方法、控制器、挖掘机、电子设备及存储介质 |
CN110080326A (zh) * | 2019-04-29 | 2019-08-02 | 北京拓疆者智能科技有限公司 | 一种卸料方法、控制器、挖掘机、电子设备及存储介质 |
CN110197464A (zh) * | 2019-05-24 | 2019-09-03 | 清华大学 | 深度相机深度图实时去噪方法和装置 |
CN110910450A (zh) * | 2019-09-26 | 2020-03-24 | 西安交通大学 | 一种基于混合特征感知神经网络进行3d目标检测的方法 |
CN110956656A (zh) * | 2019-12-17 | 2020-04-03 | 北京工业大学 | 一种基于深度目标检测的纺锤定位方法 |
CN111895931B (zh) * | 2020-07-17 | 2021-11-26 | 嘉兴泊令科技有限公司 | 一种基于计算机视觉的煤矿作业区标定方法 |
CN111895931A (zh) * | 2020-07-17 | 2020-11-06 | 嘉兴泊令科技有限公司 | 一种基于计算机视觉的煤矿作业区标定方法 |
CN113052110A (zh) * | 2021-04-02 | 2021-06-29 | 浙大宁波理工学院 | 一种基于多视图投影和深度学习的三维兴趣点提取方法 |
CN113052110B (zh) * | 2021-04-02 | 2022-07-29 | 浙大宁波理工学院 | 一种基于多视图投影和深度学习的三维兴趣点提取方法 |
CN113554021A (zh) * | 2021-06-07 | 2021-10-26 | 傲雄在线(重庆)科技有限公司 | 一种智能化印章识别方法 |
CN113554021B (zh) * | 2021-06-07 | 2023-12-15 | 重庆傲雄在线信息技术有限公司 | 一种智能化印章识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108257139B (zh) | 2020-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108257139A (zh) | 基于深度学习的rgb-d三维物体检测方法 | |
CN107169487B (zh) | 基于超像素分割及深度特征定位的显著性目标检测方法 | |
US11983805B1 (en) | Process for creating an augmented image | |
Ham et al. | Computer vision based 3D reconstruction: A review | |
Bostanci et al. | Augmented reality applications for cultural heritage using Kinect | |
CN110349247B (zh) | 一种基于语义理解的室内场景cad三维重建方法 | |
CN109360235A (zh) | 一种基于光场数据的混合深度估计方法 | |
CN101558427B (zh) | 图像处理装置以及方法 | |
CN106340036A (zh) | 一种基于双目立体视觉的立体匹配方法 | |
Nalpantidis et al. | Biologically and psychophysically inspired adaptive support weights algorithm for stereo correspondence | |
CN108389226A (zh) | 一种基于卷积神经网络和双目视差的无监督深度预测方法 | |
Pan et al. | Dense 3D reconstruction combining depth and RGB information | |
CN110633628B (zh) | 基于人工神经网络的rgb图像场景三维模型重建方法 | |
CN108596975A (zh) | 一种针对弱纹理区域的立体匹配算法 | |
CN106846461A (zh) | 一种人体三维扫描方法 | |
US11954773B1 (en) | Process for creating an augmented image | |
CN103903256B (zh) | 一种基于相对高度深度线索的深度估计方法 | |
CN108377374A (zh) | 用于产生与图像相关的深度信息的方法和系统 | |
CN109523622A (zh) | 一种非结构化的光场渲染方法 | |
CN113658316B (zh) | 三维模型的渲染方法和装置、存储介质及计算机设备 | |
Yan et al. | Depth map generation for 2d-to-3d conversion by limited user inputs and depth propagation | |
Hou et al. | A highly robust automatic 3D reconstruction system based on integrated optimization by point line features | |
CN109857895A (zh) | 基于多环路视图卷积神经网络的立体视觉检索方法与系统 | |
CN105528779A (zh) | 一种气囊柔性人台个性化腹部测量方法及系统 | |
CN109377524A (zh) | 一种单幅图像深度恢复方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |