CN110070025A - 基于单目图像的三维目标检测系统及方法 - Google Patents
基于单目图像的三维目标检测系统及方法 Download PDFInfo
- Publication number
- CN110070025A CN110070025A CN201910306845.6A CN201910306845A CN110070025A CN 110070025 A CN110070025 A CN 110070025A CN 201910306845 A CN201910306845 A CN 201910306845A CN 110070025 A CN110070025 A CN 110070025A
- Authority
- CN
- China
- Prior art keywords
- frame
- target
- objective
- dimensional
- under
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
一种基于单目图像的三维目标检测系统及方法,将三维目标检测转化到二维图像下的预测,然后应用摄像头标定参数将二维映射到摄像头三维坐标系下,重构出目标的三维目标框,通过对映射出的三维目标框进行进一步修正,得到精确的三维目标框,经两步法训练后进行精确三维目标检测,本发明低成本,高效,具有广泛的实际应用价值。
Description
技术领域
本发明涉及的是一种自动驾驶领域的技术,具体是一种基于单目图像的三维目标检测系 统及方法。
背景技术
目前用于自动驾驶的二维目标检测技术相对成熟,三维目标检测技术成为研究热点,其 难度更大,复杂度更高。当前,三维目标检测现有的方法绝大多数基于激光雷达扫描的点云数 据,但由于激光雷达的高成本,不能大规模实际落地。现有的一些单目图像的三维目标检测方 法,主要集中在车的三维检测,由于车是刚体,可以建立不同类别车的CAD模型,将二维映射 为三维,然而要为每一个类别设计对应CAD模型,过程复杂,不具有很好的泛化能力。
发明内容
本发明针对现有技术存在的上述不足,提出一种基于单目图像的三维目标检测系统及方 法,通过精确地检测目标的接地点,然后通过摄像头的投影矩阵映射出接地点的真实三维矩阵, 最终恢复出目标的真实三维目标框,该方法低成本,高效,具有广泛的实际应用价值。
本发明是通过以下技术方案实现的:
本发明涉及一种基于单目图像的三维目标检测系统,包括:二维框检测模块、二维修正 模块以及用于将二维映射三维的标定摄像头投影矩阵模块,三维目标框进一步修正模块,其中: 二维框检测模块与深度特征相连进行二维信息预测并传输二维目标框、接地点等信息,二次修 正模块与二维框检测模块相连进行进一步修正二维预测信息,投影矩阵映射模块与二次修正模 块相连进行将二维点映射到摄像头坐标系下的三维点处理并传输三维目标框信息,三维目标框 修正模块与投影矩阵映射模块相连进行三维目标框修正处理,最终系统输出精确的三维目标框。
附图说明
图1为本发明网络训练数据示意图;
图2为本发明网络结构图;
图3为三维目标框修正模块结构图;
图4为本发明实施例效果图;
图5为二维目标信息示意图;
图中:a、b、c分别表示本发明神经网络学习到的二维框信息在图片中的可视化;
图6为三维目标检测框点云示意图;
图中:a、b、c分别表示本发明神经网络学习到的三维目标框在不同时刻点云的可视化。
具体实施方式
如图1所示,为本实施例涉及一种基于单目图像的三维目标检测系统,包括:二维框检 测模块、二维修正模块以及用于将二维映射三维的标定摄像头投影矩阵模块,三维目标框进一 步修正模块,其中:二维框检测模块与深度特征相连进行二维信息预测并传输二维目标框、接 地点等信息,二次修正模块与二维框检测模块相连进行进一步修正二维预测信息,投影矩阵映 射模块与二次修正模块相连进行将二维点映射到摄像头坐标系下的三维点处理并传输三维目 标框信息,三维目标框修正模块与投影矩阵映射模块相连进行三维目标框修正处理,最终系统 输出精确的三维目标框。
本实施例中,所述的三维目标框修正模块首先对深度特征进行ROI匹配(Align)操作,得 到每个目标的深度特征,然后送入节点数为4096、1024的两层的全连接层的感知机中,最后 输出的节点数为类别数*7。
由于检测的接地点往往会偏离实际的“0”平面,需要回归目标的俯仰角进行补偿,为了 精确预测偏离距离,将偏离距离与其图像坐标系下的面积的比值进行编码回归。
本实施例基于上述系统的三维目标检测方法,通过将三维目标检测转化到二维图像下的 预测,然后应用摄像头标定参数将二维映射到摄像头三维坐标系下,重构出目标的三维目标框, 通过对映射出的三维目标框进行进一步修正,得到精确的三维目标框,经两步法训练后进行精 确三维目标检测;所述方法具体包括以下步骤:
第一步:对图1所示的三维目标检测系统,采用现有数据库进行训练,具体为:
本发明采用KITTI数据库进行训练,该数据库包括:汽车、行人、骑自行车的人等目标 的二维框和三维框,目标的二维框,即:(cx,cy,width,height),由图像坐标系下的中心点 坐标和宽高构成;目标的三维框,即:(x,y,z,l,w,h,yaw)单位为米,其中:x,y,z分 别为目标在摄像头坐标系下的其对应的底部中心点的坐标,l,w,h分别为目标的真实的长宽 高尺寸,yaw为目标的摄像头坐标系下的航向角。
为了获取目标的底部四个接地点的图像坐标系下的坐标,将三维目标框的底部四个点通 过标定摄像头投影矩阵映射到二维图像坐标系下,顺时针方向为当摄像头离地面的固定高度为h,即可得到目标接地点的真实偏移量单位为米。
所述的KITTI数据库,来自Geiger A,Lenz P,Stiller C,et al.Vision meetsrobotics:The KITTI dataset[J].The International Journal of Robotics Research,2013,32(11):1231-1237.
第二步:采用三维目标检测系统中的二维修正模块分别提取第一步训练后的三维目标检 测系统中的VGG16网络结构的Conv4层、Conv5层、fc7层、Conv6层的特征,分别用一系列 卷积操作直接进行回归图像坐标系下的四个接地点和摄像头坐标系下的离“0”平面的真实偏移 量预测。
为了让设计的网络更好地学习目标的(cx,cy,width,height), 信息,将其按照以下方式进行编码: 其中:pi表示对应目标信息设置的先验值,oi表示对应目标信息的真实值。
第三步:采用三维目标检测系统中的二维修正模块分别提取三维目标检测系统中的 RefineDet网络结构的P4层、P5层、P6层、P7层的特征,通过一系列卷积操作直接进行二维 框的预测值(cx,cy,width,height)、三维目标框的底部四个点的映射值以及目标接地点的真实偏移量的修正,使网络预 测的以上目标信息更加准确。
所述的RefineDet网络结构包括:用于滤除负的anchor以减少用于分类器的搜索空间, 以及粗调anchor的位置和大小的anchor细化模块和用于改进回归并预测多类标签的对象检测 模块(Zhang S,Wen L,Bian X,et al.Single-shot refinement neuralnetwork for object detection[C]//Proceedings of the IEEE Conference onComputer Vision and Pattern Recognition. 2018:4203-4212.)
第四步:图像坐标系下的接地点到摄像头坐标系下的映射,得到摄像头坐标系下的三维 目标框的信息,具体包括:
4.1)由于网络学习的是编码过后目标的信息,故首先解码目标的二维框的预测值(cx,cy,width,height)、三维目标框的底部四个点的映射值以及目标接地点的真实偏移量具体为:
cx=predictx*pw+pcx,cy=predicty*ph+pcy,
width=exp(predictw)*pw,height=exp(predicth)*ph,
m11wx+m13wz-uz=(-m12wy-m14),m21wx+m23wz-vz=(-m22wy-m24), m31wx+m33wz-z=(-m32wy-m34),
X=[wx,wy,z]T, B=[-m12wy-m14,-m22wy-m24,-m22wy-m24],
X=A-1B,其中:mij为世界坐标系到图像坐标系下的投影矩阵,有摄像 机标定得到,wi为世界坐标系下的坐标值,有上述公式可以得到每个接地点的在摄像机坐标系 三维坐标。
4.2)鉴于三维目标框的8个角点在图像坐标系下投影一定在二维检测框内的先验知识, 求出每个目标的真实高度,即当目标的真实高度范围为:[hmin,hmax],当(|hmax-hmin|> 0.01)时,设置ymin1=Reconstruction(hmid),ymin2=Reconstruction(hmid_mid);当(|ymin1-ysrc_min|<|ymin2-ysrc_min|)时,设置 hmax=hmid_mid,否则hmax=hmid;其中:Reconstruction函数输入一个 h值,重建出新的三维目标框,再将其映射到图像系坐标下,得到三维目标框的8个角点y方向 在二维图像坐标系的最小值ymin,初始的hmin,hmax为生活中实际目标的高度的最大和最小先 验值。最终重构出摄像头坐标系下的三维目标框的信息:(x,y,z,l,w,h,yaw)。
第五步:修正第四步得到摄像头坐标系下的三维目标框的信息 (x,y,z,l,w,h,yaw),具体包括:首先将三维目标框(x,y,z,l,w,h,yaw)按以下 方式编码: encodeyaw=sin(oyaw-pyaw), 其中:oi为目标的真实三维信息,pi为第四步预测出的目标三维信息。如图3所示,三维目标框修正模块首先对深度特征进行ROI降维(Align]操作,得到每个目标的 深度特征,然后送入节点数为4096、1024的2层的全连接层的感知机中,最后输出的节点数 为:类别数*7。
所述的ROIAlign操作是指:采用双线性插值的方式进行降维处理(He K,GkioxariG, Dollár P,et al.Mask r-cnn[C]//Proceedings of the IEEE internationalconference on computer vision.2017:2961-2969.)
第六步:修正后的三维目标检测系统采用两步方式进行训练,即先训练二维目标信息预 测部分,然后二维和三维目标信息整个网络一起训练,具体为:对于一个大小为c*h*w的特 征层,在其每个像素位置都设置了不同大小比例的先验框,先验框的中心点作为4个接地点的 先验点。使用3*3的卷积核进行回归预测对应维度的目标框的信息,同时预测每个先验框的类 别。
如图1所示,三维目标检测系统的损失函数包括定位损失和分类损失,具体为:其 中:N为与真实框相匹配的先验框的个数,x,c,l,g分别表示:网络的预测值、目标真实的类 别、网络设置的先验二维框,目标的真实位置包括: ( cx,cy,width,height,y,z,l,w,h,yaw )。Lloc(x,l,g)为快速区域卷积神经网络(Faster R-CNN〕中Smooth L1 Loss,回归目标的二维 框、接地点等信息,Lconf(x,c)为Soft max Loss,输入为每一类的置信度,权重项α,设置为 1;该网络的初始学习率设为0.01,训练集每迭代20epoch,学习率下降10倍,采用随机梯度 下降法优化。
第七步:由于三维目标检测系统学习的是编码过后目标的信息,故需要对编码过后的信 息进行解码,得到摄像头坐标系下的三维目标框的最终位置,具体为:x=predictx*pd+ px,y=predicty*pd+py,z=predictz*ph+pz,w=exp(predictw)*pw,l=exp(predictl)*pl,h=exp(predicth)*ph, yaw=sin-1predictyaw+pyaw,其中:x,y,z分别为目标在摄像头坐标系下的其对应的底部 中心点的坐标,l,w,h分别为目标的真实的长宽高尺寸,yaw为目标的摄像头坐标系下的航 向角。
第八步:针对两步训练后的三维目标检测系统输入任意一张图片,首先将其调整至 512×512尺寸,然后依次通过多尺度层二维预测、二维修正操作、非极大值抑制(NMS)得当最 终每个目标框左上角和右上角坐标、4个接地点坐标、“0”平面的偏移量及其置信度,接着通过 标定摄像头的投影矩阵映射到摄像头三维坐标系下,最后进行最后一步三维目标框修正,最终 得到如图6所示的精确的三维目标框。
上述具体实施可由本领域技术人员在不背离本发明原理和宗旨的前提下以不同的方式 对其进行局部调整,本发明的保护范围以权利要求书为准且不由上述具体实施所限,在其范围 内的各个实现方案均受本发明之约束。
Claims (10)
1.一种基于单目图像的三维目标检测系统,其特征在于,包括:二维框检测模块、二维修正模块以及用于将二维映射三维的标定摄像头投影矩阵模块,三维目标框进一步修正模块,其中:二维框检测模块与深度特征相连进行二维信息预测并传输二维目标框、接地点等信息,二次修正模块与二维框检测模块相连进行进一步修正二维预测信息,投影矩阵映射模块与二次修正模块相连进行将二维点映射到摄像头坐标系下的三维点处理并传输三维目标框信息,三维目标框修正模块与投影矩阵映射模块相连进行三维目标框修正处理,最终系统输出精确的三维目标框。
2.一种根据权利要求1所述系统的目标检测方法,其特征在于,将三维目标检测转化到二维图像下的预测,然后应用摄像头标定参数将二维映射到摄像头三维坐标系下,重构出目标的三维目标框,通过对映射出的三维目标框进行进一步修正,得到精确的三维目标框,经两步法训练后进行精确三维目标检测。
3.根据权利要求2所述的方法,其特征是,所述的将三维目标检测转化到二维图像下的预测是指:采用二维修正模块分别提取训练后的三维目标检测系统中的VGG16网络结构的Conv4层、Conv5层、fc7层、Conv6层的特征,分别用一系列卷积操作直接进行回归图像坐标系下的四个接地点和摄像头坐标系下的离“0”平面的真实偏移量预测。
4.根据权利要求3所述的方法,其特征是,为了让设计的网络更好地学习目标的(cx,cy,width,height),信息,将其按照以下方式进行编码: i=0,1,2,3,i=0,1,2,3,其中:pi表示对应目标信息设置的先验值,oi表示对应目标信息的真实值。
5.根据权利要求2所述的方法,其特征是,所述的重构出目标的三维目标框是指:采用三维目标检测系统中的二维修正模块分别提取三维目标检测系统中的RefineDet网络结构的P4层、P5层、P6层、P7层的特征,通过一系列卷积操作直接进行二维框的预测值(cx,cy,width,height)、三维目标框的底部四个点的映射值以及目标接地点的真实偏移量的修正,使网络预测的以上目标信息更加准确;然后将图像坐标系下的接地点到摄像头坐标系下的映射,得到摄像头坐标系下的三维目标框的信息。
6.根据权利要求5所述的方法,其特征是,所述的映射,具体包括:
4.1)由于网络学习的是编码过后目标的信息,故首先解码目标的二维框的预测值(cx,cy,width,height)、三维目标框的底部四个点的映射值以及目标接地点的真实偏移量具体为:
cx=predictx*pw+pcx,cy=predicty*ph+pcy,
width=exp(predictw)*pw,height=exp(predicth)*ph,
m11wx+m13wz-uz=(-m12wy-m14),m21wx+m23wz-vz=(-m22wy-m24),m31wx+m33wz-z=(-m32wy-m34),
X=[wx,wy,z]T,
B=[-m12wy-m14,-m22wy-m24,-m22wy-m24],
X=A-1B,其中:mij为世界坐标系到图像坐标系下的投影矩阵,有摄像机标定得到,wi为世界坐标系下的坐标值,有上述公式可以得到每个接地点的在摄像机坐标系三维坐标;
4.2)鉴于三维目标框的8个角点在图像坐标系下投影一定在二维检测框内的先验知识,求出每个目标的真实高度,即
当目标的真实高度范围为:[hmin,hmax],
当(|hmax-hmin|>0.01)时,设置
ymin1=Reconstruction(hmid),ymin2=Reconstruction(hmid_mid);
当(|ymin1-ysrc_min|<|ymin2-ysrc_min|)时,设置hmax=hmid_mid,否则hmax=hmict;其中:Reconstruction函数输入一个h值,重建出新的三维目标框,再将其映射到图像系坐标下,得到三维目标框的8个角点y方向在二维图像坐标系的最小值ymin,初始的hmin,hmax为生活中实际目标的高度的最大和最小先验值,最终重构出摄像头坐标系下的三维目标框的信息:(x,y,z,l,w,h,yaw)。
7.根据权利要求2所述的方法,其特征是,所述的精确的三维目标框,通过以下方式得到:修正第四步得到摄像头坐标系下的三维目标框的信息(x,y,z,l,w,h,yaw),具体包括:首先将三维目标框(x,y,z,l,w,h,yaw)按以下方式编码:
encodeyaw=sin(oyaw-pyaw),其中:oi为目标的真实三维信息,pi为第四步预测出的目标三维信息,如图3所示,三维目标框修正模块首先对深度特征进行ROI降维(Align)操作,得到每个目标的深度特征,然后送入节点数为4096、1024的2层的全连接层的感知机中,最后输出的节点数为:类别数*7。
8.根据权利要求2所述的方法,其特征是,所述的两步法训练是指:先训练二维目标信息预测部分,然后二维和三维目标信息整个网络一起训练,具体为:对于一个大小为c*h*w的特征层,在其每个像素位置都设置了不同大小比例的先验框,先验框的中心点作为4个接地点的先验点,使用3*3的卷积核进行回归预测对应维度的目标框的信息,同时预测每个先验框的类别。
9.根据权利要求8所述的方法,其特征是,所述的两步法训练的损失函数包括定位损失和分类损失,具体为: 其中:N为与真实框相匹配的先验框的个数,x,c,l,g分别表示:网络的预测值、目标真实的类别、网络设置的先验二维框,目标的真实位置包括:
Lloc(x,l,g)为快速区域卷积神经网络中Smooth L1 Loss,回归目标的二维框、接地点信息,Lconf(x,c)为Soft max Loss,输入为每一类的置信度,权重项α,设置为1;该网络的初始学习率设为0.01,训练集每迭代20epoch,学习率下降10倍,采用随机梯度下降法优化;
由于三维目标检测系统学习的是编码过后目标的信息,故需要对编码过后的信息进行解码,得到摄像头坐标系下的三维目标框的最终位置,具体为:x=predictx*pd+px,y=predicty*pd+py,z=predictz*ph+pz,w=exp(predictw)*pw,l=exp(predictl)*pl,h=exp(predicth)*ph,yaw=sin-1predictyaw+pyaw,其中:x,y,z分别为目标在摄像头坐标系下的其对应的底部中心点的坐标,l,w,h分别为目标的真实的长宽高尺寸,yaw为目标的摄像头坐标系下的航向角。
10.根据权利要求8所述的方法,其特征是,所述的精确三维目标检测是指:输入任意一张图片将其调整至512×512尺寸,然后依次通过多尺度层二维预测、二维修正操作、非极大值抑制得当最终每个目标框左上角和右上角坐标、4个接地点坐标、“0”平面的偏移量及其置信度,接着通过标定摄像头的投影矩阵映射到摄像头三维坐标系下,最后进行最后一步三维目标框修正,最终得到精确的三维目标框。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910306845.6A CN110070025B (zh) | 2019-04-17 | 2019-04-17 | 基于单目图像的三维目标检测系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910306845.6A CN110070025B (zh) | 2019-04-17 | 2019-04-17 | 基于单目图像的三维目标检测系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110070025A true CN110070025A (zh) | 2019-07-30 |
CN110070025B CN110070025B (zh) | 2023-03-31 |
Family
ID=67367872
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910306845.6A Active CN110070025B (zh) | 2019-04-17 | 2019-04-17 | 基于单目图像的三维目标检测系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110070025B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110879994A (zh) * | 2019-12-02 | 2020-03-13 | 中国科学院自动化研究所 | 基于形状注意力机制的三维目测检测方法、系统、装置 |
CN111563415A (zh) * | 2020-04-08 | 2020-08-21 | 华南理工大学 | 一种基于双目视觉的三维目标检测系统及方法 |
CN111695480A (zh) * | 2020-06-04 | 2020-09-22 | 重庆大学 | 基于单帧图像的实时目标检测与3d定位方法 |
CN112287859A (zh) * | 2020-11-03 | 2021-01-29 | 北京京东乾石科技有限公司 | 物体识别方法、装置和系统,计算机可读存储介质 |
WO2021128314A1 (zh) * | 2019-12-27 | 2021-07-01 | 深圳市大疆创新科技有限公司 | 一种图像处理方法、设备、图像处理系统及存储介质 |
CN113168708A (zh) * | 2020-04-28 | 2021-07-23 | 华为技术有限公司 | 车道线跟踪方法和装置 |
CN113822159A (zh) * | 2021-08-20 | 2021-12-21 | 杭州飞步科技有限公司 | 三维目标检测方法、装置和计算机 |
CN114842287A (zh) * | 2022-03-25 | 2022-08-02 | 中国科学院自动化研究所 | 深度引导变形器的单目三维目标检测模型训练方法及装置 |
US11721042B2 (en) | 2020-12-25 | 2023-08-08 | Apollo Intelligent Connectivity (Beijing) Technology Co., Ltd. | Target detection method, electronic device and medium |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103020590A (zh) * | 2012-11-20 | 2013-04-03 | 北京航空航天大学深圳研究院 | 一种基于三维模型与图像匹配的车辆识别系统及其方法 |
CN105136064A (zh) * | 2015-09-13 | 2015-12-09 | 维希艾信息科技(无锡)有限公司 | 一种运动目标三维尺寸检测系统及其方法 |
WO2016173073A1 (zh) * | 2015-04-28 | 2016-11-03 | 宇龙计算机通信科技(深圳)有限公司 | 一种基于双摄像头的三维建模方法及装置 |
CN106909875A (zh) * | 2016-09-12 | 2017-06-30 | 湖南拓视觉信息技术有限公司 | 人脸脸型分类方法和系统 |
CN108257139A (zh) * | 2018-02-26 | 2018-07-06 | 中国科学院大学 | 基于深度学习的rgb-d三维物体检测方法 |
CN108537824A (zh) * | 2018-03-15 | 2018-09-14 | 上海交通大学 | 基于交替反卷积与卷积的特征图增强的网络结构优化方法 |
CN108592797A (zh) * | 2018-03-28 | 2018-09-28 | 华南理工大学 | 一种车辆外廓尺寸与轴距的动态测量方法与系统 |
CN109002800A (zh) * | 2018-07-20 | 2018-12-14 | 苏州索亚机器人技术有限公司 | 基于多传感器融合的三维目标实时识别机构及识别方法 |
US20190012807A1 (en) * | 2017-07-04 | 2019-01-10 | Baidu Online Network Technology (Beijing) Co., Ltd.. | Three-dimensional posture estimating method and apparatus, device and computer storage medium |
CN109241856A (zh) * | 2018-08-13 | 2019-01-18 | 浙江零跑科技有限公司 | 一种单目车载视觉系统立体目标检测方法 |
-
2019
- 2019-04-17 CN CN201910306845.6A patent/CN110070025B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103020590A (zh) * | 2012-11-20 | 2013-04-03 | 北京航空航天大学深圳研究院 | 一种基于三维模型与图像匹配的车辆识别系统及其方法 |
WO2016173073A1 (zh) * | 2015-04-28 | 2016-11-03 | 宇龙计算机通信科技(深圳)有限公司 | 一种基于双摄像头的三维建模方法及装置 |
CN105136064A (zh) * | 2015-09-13 | 2015-12-09 | 维希艾信息科技(无锡)有限公司 | 一种运动目标三维尺寸检测系统及其方法 |
CN106909875A (zh) * | 2016-09-12 | 2017-06-30 | 湖南拓视觉信息技术有限公司 | 人脸脸型分类方法和系统 |
US20190012807A1 (en) * | 2017-07-04 | 2019-01-10 | Baidu Online Network Technology (Beijing) Co., Ltd.. | Three-dimensional posture estimating method and apparatus, device and computer storage medium |
CN108257139A (zh) * | 2018-02-26 | 2018-07-06 | 中国科学院大学 | 基于深度学习的rgb-d三维物体检测方法 |
CN108537824A (zh) * | 2018-03-15 | 2018-09-14 | 上海交通大学 | 基于交替反卷积与卷积的特征图增强的网络结构优化方法 |
CN108592797A (zh) * | 2018-03-28 | 2018-09-28 | 华南理工大学 | 一种车辆外廓尺寸与轴距的动态测量方法与系统 |
CN109002800A (zh) * | 2018-07-20 | 2018-12-14 | 苏州索亚机器人技术有限公司 | 基于多传感器融合的三维目标实时识别机构及识别方法 |
CN109241856A (zh) * | 2018-08-13 | 2019-01-18 | 浙江零跑科技有限公司 | 一种单目车载视觉系统立体目标检测方法 |
Non-Patent Citations (4)
Title |
---|
FLORIAN CHABOT等: "Deep MANTA: A Coarse-to-Fine Many-Task Network for Joint 2D and 3D Vehicle Analysis from Monocular Image", 《IEEE》 * |
吴炜: "基于深度学习和多相机融合的实时目标检测和定位", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
徐斌: "基于单目图像的三維物体检测研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
朱小平: "基于单目图像序列的车辆三维信息提取", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110879994A (zh) * | 2019-12-02 | 2020-03-13 | 中国科学院自动化研究所 | 基于形状注意力机制的三维目测检测方法、系统、装置 |
WO2021128314A1 (zh) * | 2019-12-27 | 2021-07-01 | 深圳市大疆创新科技有限公司 | 一种图像处理方法、设备、图像处理系统及存储介质 |
CN111563415A (zh) * | 2020-04-08 | 2020-08-21 | 华南理工大学 | 一种基于双目视觉的三维目标检测系统及方法 |
CN111563415B (zh) * | 2020-04-08 | 2023-05-26 | 华南理工大学 | 一种基于双目视觉的三维目标检测系统及方法 |
CN113168708A (zh) * | 2020-04-28 | 2021-07-23 | 华为技术有限公司 | 车道线跟踪方法和装置 |
CN111695480B (zh) * | 2020-06-04 | 2023-04-28 | 重庆大学 | 基于单帧图像的实时目标检测与3d定位方法 |
CN111695480A (zh) * | 2020-06-04 | 2020-09-22 | 重庆大学 | 基于单帧图像的实时目标检测与3d定位方法 |
CN112287859A (zh) * | 2020-11-03 | 2021-01-29 | 北京京东乾石科技有限公司 | 物体识别方法、装置和系统,计算机可读存储介质 |
US11721042B2 (en) | 2020-12-25 | 2023-08-08 | Apollo Intelligent Connectivity (Beijing) Technology Co., Ltd. | Target detection method, electronic device and medium |
CN113822159A (zh) * | 2021-08-20 | 2021-12-21 | 杭州飞步科技有限公司 | 三维目标检测方法、装置和计算机 |
CN113822159B (zh) * | 2021-08-20 | 2023-09-22 | 杭州飞步科技有限公司 | 三维目标检测方法、装置和计算机 |
CN114842287B (zh) * | 2022-03-25 | 2022-12-06 | 中国科学院自动化研究所 | 深度引导变形器的单目三维目标检测模型训练方法及装置 |
CN114842287A (zh) * | 2022-03-25 | 2022-08-02 | 中国科学院自动化研究所 | 深度引导变形器的单目三维目标检测模型训练方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110070025B (zh) | 2023-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110070025A (zh) | 基于单目图像的三维目标检测系统及方法 | |
CN109934153B (zh) | 基于门控深度残差优化网络的建筑物提取方法 | |
CN108596101B (zh) | 一种基于卷积神经网络的遥感图像多目标检测方法 | |
CN110188696A (zh) | 一种水面无人装备多源感知方法及系统 | |
CN113673425B (zh) | 一种基于Transformer的多视角目标检测方法及系统 | |
CN108665496A (zh) | 一种基于深度学习的端到端的语义即时定位与建图方法 | |
CN110827415A (zh) | 一种全天候未知环境无人自主工作平台 | |
CN113673444B (zh) | 一种基于角点池化的路口多视角目标检测方法及系统 | |
CN109919026B (zh) | 一种水面无人艇局部路径规划方法 | |
CN110232738B (zh) | 基于视差图和关键点的多视图遥感图像立体重构方法 | |
CN107527328A (zh) | 一种兼顾精度与速度的无人机影像几何处理方法 | |
CN111241970A (zh) | 基于yolov3算法与滑动窗口策略的SAR影像海面舰船检测方法 | |
CN113838064B (zh) | 一种基于分支gan使用多时相遥感数据的云去除方法 | |
CN115170810B (zh) | 一种可见光红外图像融合目标检测实例分割方法 | |
CN112288667A (zh) | 一种基于激光雷达与摄像头融合的三维目标检测方法 | |
CN113495575A (zh) | 一种基于注意力机制的无人机自主着陆视觉引导方法 | |
CN116612468A (zh) | 基于多模态融合与深度注意力机制的三维目标检测方法 | |
CN104463962B (zh) | 基于gps信息视频的三维场景重建方法 | |
CN114445615A (zh) | 基于尺度不变特征金字塔结构的旋转绝缘子目标检测方法 | |
CN113989296A (zh) | 基于改进U-net网络的无人机麦田遥感图像分割方法 | |
CN113129248A (zh) | 一种海岛遥感影像集获得方法、装置、设备及介质 | |
CN116152442A (zh) | 一种三维点云模型生成方法及装置 | |
CN116740514A (zh) | 时空误差容忍的多智能体协同感知方法、装置和电子设备 | |
CN114359660B (zh) | 一种适用于模态强弱变化的多模态目标检测方法及系统 | |
CN114862952B (zh) | 无人机检测与防御方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |