CN111126161A - 一种基于关键点回归的3d车辆检测方法 - Google Patents

一种基于关键点回归的3d车辆检测方法 Download PDF

Info

Publication number
CN111126161A
CN111126161A CN201911192400.6A CN201911192400A CN111126161A CN 111126161 A CN111126161 A CN 111126161A CN 201911192400 A CN201911192400 A CN 201911192400A CN 111126161 A CN111126161 A CN 111126161A
Authority
CN
China
Prior art keywords
point
vehicle
coordinate
coordinates
vertex
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911192400.6A
Other languages
English (en)
Inventor
刘宏哲
王永森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Union University
Original Assignee
Beijing Union University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Union University filed Critical Beijing Union University
Priority to CN201911192400.6A priority Critical patent/CN111126161A/zh
Publication of CN111126161A publication Critical patent/CN111126161A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Abstract

本发明公开了一种基于关键点回归的3D车辆检测方法,本方法可以对驾驶场景中的前方车辆目标进行3D检测,从而得到车辆目标的三维信息,该方法相对于2D车辆目标检测技术可以为自动驾驶汽车决策系统提供更加丰富的场景信息,以及精度更高的基础数据,帮助决策系统做出更准确的判断,提高自动驾驶汽车的安全性。因此本方法具有很广阔的应用前景。本方法与其他3D车辆检测方法相比,无需像素深度以及雷达等数据,只需要单目视觉相机获取的普通RGB图像信息即可,并且检测结果可靠。

Description

一种基于关键点回归的3D车辆检测方法
技术领域
本发明是一种用于对驾驶场景中车辆目标进行3D检测的方法,属于计算机视觉计算领域。
背景技术
如今无人驾驶汽车技术飞速发展,其中汽车驾驶所采用的环境感知手段方面,视觉传感器相对于超声、激光雷达等传感器,可获得更高、更精确、更丰富的道路场景环境信息,且价格更为低廉。而基于视觉的道路场景感知与目标行为意图分析技术中,前方车辆检测是一个非常重要的环节,它是决策系统所必需的基础数据,但是为了得到更加丰富的车辆目标信息,进而帮助决策系统做出更准确的判断,就需要对车辆进行3D检测,得到目标的三维信息。所以提出一种3D车辆检测方法尤为重要。
本发明提出的一种基于关键点回归的3D车辆检测方法主要用于自动驾驶汽车领域基于单目视觉的场景感知工作中,有着非常重要的应用价值。本方法可以对驾驶场景中的前方车辆目标进行3D检测,从而得到车辆目标的三维信息,该方法相对于2D车辆目标检测技术可以为自动驾驶汽车决策系统提供更加丰富的场景信息,以及精度更高的基础数据,帮助决策系统做出更准确的判断,提高自动驾驶汽车的安全性。因此本方法具有很广阔的应用前景。本方法与其他3D车辆检测方法相比,无需像素深度以及雷达等数据,只需要单目视觉相机获取的普通RGB图像信息即可,并且检测结果可靠。
发明内容
本发明的目的在于解决基于单目视觉进行3D车辆检测的问题,提出了一种基于关键点回归的3D车辆检测方法。
为了实现上述目的,本发明采取了如下的技术方案:一种基于关键点回归的3D车辆检测方法,该方法的实现过程如下,
步骤1:2D车辆检测;
步骤1-1:数据标注,训练数据标注采用Pascal_VOC格式,使用XML文件存储每张图片的标注结果,标注工具使用labelImg,下载安装labelImg软件,打开软件,点击“OpenDir”选择需要标注的图像所存放的文件夹,然后软件会将文件夹下所有图片加载进软件里面,此时会默认打开一张图片,然后按一下键盘字母“w”,进入标注状态,找到图片中的车辆,将鼠标箭头放在车辆左上角点击一下鼠标左键开始画矩形框,然后移动鼠标箭头到车辆右下角位置再次点击一次鼠标左键,出现提示输入标注的类别,这里输入“car”,然后点击“OK”,完成一个车辆目标的标注。标注要求是将图片中所有出现的车辆进行标注,标注数量10000张图片;
步骤1-2:模型训练,下载基于PyTorch的Faster R-CNN目标检测框架,将数据集的所有图片文件放在VOC2007数据集文件目录的JPEGImages文件夹中,将标注生成的XML文件放在VOC2007数据集文件目录的Annotations文件夹中,然后将所有图片的文件名(不包含文件后缀)放到一个名为“trainval.txt”的文件中,每行一个,然后将该文件放到放在VOC2007数据集文件目录的Main文件夹下面,完成数据的准备工作。然后下载ResNet101预训练网络模型,放到pretrained_model目录下,执行trainval_net.py文件,同时输入参--end_epoch=50,即训练50个epoch;
步骤1-3:模型检测,在步骤1-2训练完成之后,得到最终训练好的模型文件,放入models文件夹中,将待检测的图片放入images文件中,运行test_net.py文件,得到检测的结果,即图片中车辆的外接矩形框坐标;
步骤2:车辆目标提取及预处理;
步骤2-1:根据步骤1-3得到车辆目标在图像中的外接矩形框的坐标位置B(x1,y1,x2,y2),其中(x1,y1)表示矩形框左上角顶点的像素坐标,(x2,y2)表示矩形框右下角顶点的像素坐标,根据该两点坐标截取出此矩形框包围的像素图像,得到像素矩阵P0,尺寸为(W,H);W为像素图像的宽,H为像素图像的高度。
步骤2-2:对像素矩阵P0进行尺度缩放,缩放到固定的224x224像素尺寸,得到像素矩阵P1
步骤3:关键点回归;
步骤3-1:准备训练数据,数据获取方式是从步骤1-1中的图片中分割出其中的车辆目标,即根据步骤1-1的标注文件中车辆目标的矩形框坐标裁剪出车辆,保存成图片,要求车辆的像素宽度大于100,数量为3000张;
步骤3-2:对数据进行标注,使用labelImg软件,如步骤1-1中,首先加载步骤3-1中保存得到的图片的文件夹,然后使用相同方法进行标注矩形框,标注的目标为车辆侧面的两个车轮和车辆的头部或者车辆的尾部,图片中看不到车轮的不进行标注;
步骤3-3:模型训练,下载基于PyTorch的MobileNetV1网络模型框架,将步骤3-2中标注好的数据集按照步骤1-2的方法放入框架中对应的文件夹中,对于每张图片标注的数据,定义车轮的坐标分别用wb0(x1,y1,x2,y2),wb1(x1,y1,x2,y2)表示,车尾或者车头用tb表示,两个车轮的关键点坐标分别用w0,w1表示,车尾或者车头的关键点用t表示,然后根据公式
Figure BDA0002293896630000041
得到三个关键点(w0,w1,t)的坐标,其中关键点t只包含图像的横轴坐标。修改trainval_net.py中对应的代码,使训练数据进行loss计算时的真值为G(w0(x),w0(y),w1(x),w1(y),t(x)),即五个参数值,MobileNetV1网络采用随机初始化进行赋值,修改最后的全连接层为5个输出值,执行trainval_net.py文件,同时输入参数--end_epoch=30,即训练30个epoch;
步骤3-4:模型推理,将步骤2-2得到的像素矩阵P1送入训练好的回归网络MobileNetV1中,网络输出G1(x1,y1,x2,y2,x3),得到五个参数值,对应预测到的三个关键点坐标值;
步骤4:缺失点计算;
步骤4-1:定义车辆外接3D立体框用C={a,b,c,d,e,f,g,h}表示,其中,{a,b,c,d}表示目标车辆靠近相机侧垂直切面上从左上角按照顺时针方向的四个顶点在二维图像上的像素坐标,即a是靠近相机侧的垂直切面四边形的左上角顶点像素坐标,b是右上角顶点坐标,c是右下角顶点坐标,d是左下角顶点坐标;{e,f,g,h}是远离相机侧垂直切面上从左上角按照顺时针方向的四个顶点在二维图像上的像素坐标,即e是远离相机侧的垂直切面四边形的左上角顶点像素坐标,f是右上角顶点坐标,g是右下角顶点坐标,h是左下角顶点坐标。
步骤4-2:计算经过w0,w1两点的直线方程F(x),定义直线方程
Figure BDA0002293896630000051
计算出直线F(x)与直线L(x=G1(x3))相交的点,即为C中的点d;取c点坐标为(W,H),取e点坐标为(0,0);计算经过c,d两点的直线的斜率kcd,由公式
Figure BDA0002293896630000052
对kcd进行滤波处理,得到新的斜率kcd′,由
Figure BDA0002293896630000053
重新计算出d点坐标;由
Figure BDA0002293896630000054
计算直线方程F(x)与直线K(x=0)相交的点,即为C中的点h;依次平移线段eh,使h点分别和d点、c点重合,e点对应的两个点的坐标分别为a点和b点;平移线段dc,使d点和h点重合,此时c点对应的位置就是g点坐标;平移线段eh,使h点和g点重合,此时e点对应的位置就是f点坐标。至此,计算出构建3D立体框的顶点坐标C={a,b,c,d,e,f,g,h}。
步骤4-3:由公式
Figure BDA0002293896630000055
依次对C={a,b,c,d,e,f,g,h}中各个顶点的x,y坐标进行更新,得到D={a,b,c,d,e,f,g,h}。
步骤5:3D构建;
步骤5-1:根据步骤4-3得到顶点坐标D={a,b,c,d,e,f,g,h},依据公式
Figure BDA0002293896630000061
进行判断是否满足立体几何模型关系,满足则依次连接a-b,b-c,c-d,d-a,e-f,f-g,g-h,h-e,a-e,b-f,c-g,d-h,完成3D构建,如果不满足则构建失败。
上述方案需要特别说明的是:
1、步骤1中的2D车辆检测非常重要,是对车辆进行3D构建的基础。
2、步骤3中的关键点检测直接决定了3D构建的准确性。
本发明的有益效果是:
本发明通过可行的技术方案,具有以下几点有益效果:
1、解决了通过激光雷达进行3D车辆检测成本高的问题。
2、本发明中的3D车辆检测方法所需要的硬件环境简单,且安装容易、成本低廉、稳定性好、实用性强。
3、本发明中的3D车辆检测方法使用了现有成熟的2D车辆检测的结果,使得3D检测效率高、稳定性好。
附图说明
图1本发明的流程示意图。
图2数据标注软件界面图。
图3数据标注样例图。
图4回归网络训练数据标注样例图。
图5车辆3D检测结果样例图。
具体实施方式
采用本发明的方法,给出一个非限定性的实例,结合图1进一步对本发明的具体实施过程进行说明。
本发明的实施方式如下:
1、按照步骤1对模型进行训练,完成之后对测试图片进行检测,得到目标车辆的坐标(844,272,1073,430)。
2、按照步骤2中的说明截取车辆目标,得到像素矩阵P0
[[[68 55 69]
[53 40 54]
[48 33 47]
...,
[53 41 61]
[61 49 67]
[43 33 50]]
[[63 50 66]
[54 38 55]
[54 36 53]
...,
[51 40 60]
[54 45 65]
[43 33 50]]
...,
[[76 57 66]
[75 56 65]
[74 55 64]
...,
[63 48 52]
[64 49 53]
[68 52 59]]],
进行矩阵缩放,使矩阵尺寸固定为224x224,得到P1
[[[68 55 69]
[53 40 54]
[48 33 47]
...,
[52 40 60]
[61 49 67]
[43 33 50]]
...,
[[76 57 66]
[75 56 65]
[74 55 64]
...,
[63 48 52]
[64 49 53]
[68 52 59]]]。
3、根据步骤3进行回归模型训练,然后输入像素矩阵P1,得到关键点坐标(846,401,899,423,940)。
4、根据步骤4,通过得到的关键点(846,401,899,423,940)对缺失的顶点进行计算,得到顶点坐标((941273),(1075275),(1075432),(941436),(844272),(965271),(965400),(844402))。
5、根据步骤5对得到的8个顶点坐标进行校验,校验通过,然后进行连接坐标点,得到车辆的外接立体框,如图5所示。

Claims (3)

1.一种基于关键点回归的3D车辆检测方法,其特征在于:该方法的实现过程如下,
步骤1:2D车辆检测;
步骤2:车辆目标提取及预处理;
步骤3:关键点回归;
步骤4:缺失点计算;
步骤4-1:定义车辆外接3D立体框用C={a,b,c,d,e,f,g,h}表示,其中,{a,b,c,d}表示目标车辆靠近相机侧垂直切面上从左上角按照顺时针方向的四个顶点在二维图像上的像素坐标,即a是靠近相机侧的垂直切面四边形的左上角顶点像素坐标,b是右上角顶点坐标,c是右下角顶点坐标,d是左下角顶点坐标;{e,f,g,h}是远离相机侧垂直切面上从左上角按照顺时针方向的四个顶点在二维图像上的像素坐标,即e是远离相机侧的垂直切面四边形的左上角顶点像素坐标,f是右上角顶点坐标,g是右下角顶点坐标,h是左下角顶点坐标;
步骤4-2:计算经过w0,w1两点的直线方程F(x),定义直线方程L(x=G1(x3)),由
Figure FDA0002293896620000011
计算出直线F(x)与直线L(x=G1(x3))相交的点,即为C中的点d;取c点坐标为(W,H),取e点坐标为(0,0);计算经过c,d两点的直线的斜率kcd,由公式
Figure FDA0002293896620000012
对kcd进行滤波处理,得到新的斜率kcd′,由
Figure FDA0002293896620000021
重新计算出d点坐标;由
Figure FDA0002293896620000022
计算直线方程F(x)与直线K(x=0)相交的点,即为C中的点h;依次平移线段eh,使h点分别和d点、c点重合,e点对应的两个点的坐标分别为a点和b点;平移线段dc,使d点和h点重合,此时c点对应的位置就是g点坐标;平移线段eh,使h点和g点重合,此时e点对应的位置就是f点坐标;至此,计算出构建3D立体框的顶点坐标C={a,b,c,d,e,f,g,h};
步骤4-3:由公式
Figure FDA0002293896620000023
依次对C={a,b,c,d,e,f,g,h}中各个顶点的x,y坐标进行更新,得到D={a,b,c,d,e,f,g,h};
步骤5:3D构建;
根据步骤4-3得到顶点坐标D={a,b,c,d,e,f,g,h},依据公式
Figure FDA0002293896620000024
进行判断是否满足立体几何模型关系,满足则依次连接a-b,b-c,c-d,d-a,e-f,f-g,g-h,h-e,a-e,b-f,c-g,d-h,完成3D构建,如果不满足则构建失败。
2.根据权利要求1所述的一种基于关键点回归的3D车辆检测方法,其特征在于:
步骤1-1:数据标注,训练数据标注采用Pascal_VOC格式,使用XML文件存储每张图片的标注结果,标注工具使用labelImg,下载安装labelImg软件,打开软件,点击“Open Dir”选择需要标注的图像所存放的文件夹,然后软件会将文件夹下所有图片加载进软件里面,此时会默认打开一张图片,然后按一下键盘字母“w”,进入标注状态,找到图片中的车辆,将鼠标箭头放在车辆左上角点击一下鼠标左键开始画矩形框,然后移动鼠标箭头到车辆右下角位置再次点击一次鼠标左键,出现提示输入标注的类别,这里输入“car”,然后点击“OK”,完成一个车辆目标的标注;标注要求是将图片中所有出现的车辆进行标注,标注数量10000张图片;
步骤1-2:模型训练,下载基于PyTorch的Faster R-CNN目标检测框架,将数据集的所有图片文件放在VOC2007数据集文件目录的JPEGImages文件夹中,将标注生成的XML文件放在VOC2007数据集文件目录的Annotations文件夹中,然后将所有图片的文件名放到一个名为“trainval.txt”的文件中,每行一个,然后将该文件放到放在VOC2007数据集文件目录的Main文件夹下面,完成数据的准备工作;然后下载ResNet101预训练网络模型,放到pretrained_model目录下,执行trainval_net.py文件,同时输入参--end_epoch=50,即训练50个epoch;
步骤1-3:模型检测,在步骤1-2训练完成之后,得到最终训练好的模型文件,放入models文件夹中,将待检测的图片放入images文件中,运行test_net.py文件,得到检测的结果,即图片中车辆的外接矩形框坐标。
3.根据权利要求2所述的一种基于关键点回归的3D车辆检测方法,其特征在于:
步骤2-1:根据步骤1-3得到车辆目标在图像中的外接矩形框的坐标位置B(x1,y1,x2,y2),其中(x1,y1)表示矩形框左上角顶点的像素坐标,(x2,y2)表示矩形框右下角顶点的像素坐标,根据该两点坐标截取出此矩形框包围的像素图像,得到像素矩阵P0,尺寸为(W,H);W为像素图像的宽,H为像素图像的高度;
步骤2-2:对像素矩阵P0进行尺度缩放,缩放到固定的224x224像素尺寸,得到像素矩阵P1
步骤3-1:准备训练数据,数据获取方式是从步骤1-1中的图片中分割出其中的车辆目标,即根据步骤1-1的标注文件中车辆目标的矩形框坐标裁剪出车辆,保存成图片,要求车辆的像素宽度大于100,数量为3000张;
步骤3-2:对数据进行标注,使用labelImg软件,如步骤1-1中,首先加载步骤3-1中保存得到的图片的文件夹,然后使用相同方法进行标注矩形框,标注的目标为车辆侧面的两个车轮和车辆的头部或者车辆的尾部,图片中看不到车轮的不进行标注;
步骤3-3:模型训练,下载基于PyTorch的MobileNetV1网络模型框架,将步骤3-2中标注好的数据集按照步骤1-2的方法放入框架中对应的文件夹中,对于每张图片标注的数据,定义车轮的坐标分别用wb0(x1,y1,x2,y2),wb1(x1,y1,x2,y2)表示,车尾或者车头用tb表示,两个车轮的关键点坐标分别用w0,w1表示,车尾或者车头的关键点用t表示,然后根据公式
Figure FDA0002293896620000051
得到三个关键点(w0,w1,t)的坐标,其中关键点t只包含图像的横轴坐标;修改trainval_net.py中对应的代码,使训练数据进行loss计算时的真值为G(w0(x),w0(y),w1(x),w1(y),t(x)),即五个参数值,MobileNetV1网络采用随机初始化进行赋值,修改最后的全连接层为5个输出值,执行trainval_net.py文件,同时输入参数--end_epoch=30,即训练30个epoch;
步骤3-4:模型推理,将步骤2-2得到的像素矩阵P1送入训练好的回归网络MobileNet V1中,网络输出G1(x1,y1,x2,y2,x3),得到五个参数值,对应预测到的三个关键点坐标值。
CN201911192400.6A 2019-11-28 2019-11-28 一种基于关键点回归的3d车辆检测方法 Pending CN111126161A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911192400.6A CN111126161A (zh) 2019-11-28 2019-11-28 一种基于关键点回归的3d车辆检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911192400.6A CN111126161A (zh) 2019-11-28 2019-11-28 一种基于关键点回归的3d车辆检测方法

Publications (1)

Publication Number Publication Date
CN111126161A true CN111126161A (zh) 2020-05-08

Family

ID=70496931

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911192400.6A Pending CN111126161A (zh) 2019-11-28 2019-11-28 一种基于关键点回归的3d车辆检测方法

Country Status (1)

Country Link
CN (1) CN111126161A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111860509A (zh) * 2020-07-28 2020-10-30 湖北九感科技有限公司 一种由粗到精的两阶段非约束车牌区域精准提取方法
CN113327192A (zh) * 2021-05-11 2021-08-31 武汉唯理科技有限公司 一种通过三维测量技术测算汽车行驶速度的方法
US11165462B2 (en) * 2018-11-07 2021-11-02 Samsung Electronics Co., Ltd. Motion assisted leakage removal for radar applications
WO2022016368A1 (zh) * 2020-07-21 2022-01-27 深圳市大疆创新科技有限公司 3d框标注方法、设备及计算机可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020134151A1 (en) * 2001-02-05 2002-09-26 Matsushita Electric Industrial Co., Ltd. Apparatus and method for measuring distances
CN106611162A (zh) * 2016-12-20 2017-05-03 西安电子科技大学 基于深度学习ssd框架的道路车辆实时检测方法
CN109002807A (zh) * 2018-07-27 2018-12-14 重庆大学 一种基于ssd神经网络的驾驶场景车辆检测方法
CN110032949A (zh) * 2019-03-22 2019-07-19 北京理工大学 一种基于轻量化卷积神经网络的目标检测与定位方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020134151A1 (en) * 2001-02-05 2002-09-26 Matsushita Electric Industrial Co., Ltd. Apparatus and method for measuring distances
CN106611162A (zh) * 2016-12-20 2017-05-03 西安电子科技大学 基于深度学习ssd框架的道路车辆实时检测方法
CN109002807A (zh) * 2018-07-27 2018-12-14 重庆大学 一种基于ssd神经网络的驾驶场景车辆检测方法
CN110032949A (zh) * 2019-03-22 2019-07-19 北京理工大学 一种基于轻量化卷积神经网络的目标检测与定位方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
朱菲婷: "基于激光点云3D检测的车辆外廓尺寸测量研究" *
赵邢 等: "结合目标检测与双目视觉的三维车辆姿态检测" *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11165462B2 (en) * 2018-11-07 2021-11-02 Samsung Electronics Co., Ltd. Motion assisted leakage removal for radar applications
WO2022016368A1 (zh) * 2020-07-21 2022-01-27 深圳市大疆创新科技有限公司 3d框标注方法、设备及计算机可读存储介质
CN111860509A (zh) * 2020-07-28 2020-10-30 湖北九感科技有限公司 一种由粗到精的两阶段非约束车牌区域精准提取方法
CN113327192A (zh) * 2021-05-11 2021-08-31 武汉唯理科技有限公司 一种通过三维测量技术测算汽车行驶速度的方法

Similar Documents

Publication Publication Date Title
CN111126161A (zh) 一种基于关键点回归的3d车辆检测方法
CN110738697B (zh) 基于深度学习的单目深度估计方法
CN101719286B (zh) 融合单视点场景分析的多视点三维场景重建方法及其系统
Engelmann et al. Joint object pose estimation and shape reconstruction in urban street scenes using 3D shape priors
CN106447601B (zh) 一种基于投影-相似变换的无人机遥感影像拼接方法
CN113065546B (zh) 一种基于注意力机制和霍夫投票的目标位姿估计方法及系统
CN104376594A (zh) 三维人脸建模方法和装置
Martyniuk et al. Dad-3dheads: A large-scale dense, accurate and diverse dataset for 3d head alignment from a single image
CN111639663A (zh) 多传感器数据融合的方法
CN103700082B (zh) 基于对偶四元数相对定向的图像拼接方法
CN106599810A (zh) 一种基于栈式自编码的头部姿态估计方法
CN115171096A (zh) 一种基于rgb图像与激光点云融合的3d目标检测方法
Chen et al. Shape prior guided instance disparity estimation for 3d object detection
CN116805360B (zh) 一种基于双流门控渐进优化网络的显著目标检测方法
CN114155414A (zh) 面向无人驾驶的新型特征层数据融合的方法、系统及目标检测方法
Hagelskjær et al. Does vision work well enough for industry?
CN117351078A (zh) 基于形状先验的目标尺寸与6d姿态估计方法
CN114022414B (zh) 一种基于双目感知学习的加油加电智能动作的执行方法
CN113222070B (zh) 一种仿真图像数据自动标注方法及系统
CN115564891A (zh) 一种针对现实艺术作品的数字孪生重构方法
CN113724329A (zh) 融合平面与立体信息的目标姿态估计方法、系统和介质
Zhang et al. Symmetry-aware 6D object pose estimation via multitask learning
Zachar et al. Application of machine learning for object detection in oblique aerial images
CN116933440A (zh) 一种装载机自主铲掘过程的数字孪生机理模型建模方法
CN114581287B (zh) 数据处理方法以及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination