CN111179271A - 一种基于检索匹配的物体角度信息标注方法及电子设备 - Google Patents
一种基于检索匹配的物体角度信息标注方法及电子设备 Download PDFInfo
- Publication number
- CN111179271A CN111179271A CN201911156006.7A CN201911156006A CN111179271A CN 111179271 A CN111179271 A CN 111179271A CN 201911156006 A CN201911156006 A CN 201911156006A CN 111179271 A CN111179271 A CN 111179271A
- Authority
- CN
- China
- Prior art keywords
- pic
- image
- angle
- coordinate system
- axis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于检索匹配的物体角度信息标注方法及电子设备,包括如下步骤:S1,利用制图软件,对所选取的2D图像中特定目标物体,建立一个3D模型;S2,物体中心点O和相机中心点Oc的连线与Zc轴夹角设定为θ,在θ为某一固定值的情况下,改变物体的观察角度α,得到各个角度下物体在图像坐标系的投影图;S3,改变θ角,重复步骤S2,得到多组投影图片,再根据这些图片建立数据库;S4,根据2D图像中2个目标点,以及实际物体的3D尺寸大小,进行坐标系转换,计算得到θ;S5,进行检索匹配算法得到角度信息。本发明通过软件的方式即可获取角度信息,不需要借助激光雷达设备,简化方案,节省成本。
Description
技术领域
本发明属于深度学习应用相关的图像标注技术,具体涉及对2D图像中目标物体的角度信息进行标注。
背景技术
在无人驾驶、机器人、增强现实等应用场景下,普通2D检测并不能提供感知环境所需要的全部信息,大部分应用都需要有目标物体的长宽高还有偏转角等信息。例如,在自动驾驶场景下,需要从图像中提供目标物体三维大小及旋转角度等指标,在鸟瞰投影的信息对于后续自动驾驶场景中的路径规划和控制具有至关重要的作用。
一些基于深度学习的3D目标检测算法,可实现对图像中这些信息的获取。但训练集数据的准备过程中,需要对2D图像中的各种数据进行标注(包含物体二维边界框、三维物体的尺寸、物体的观察角度等)。其中物体三维大小是容易确定的,物体在图像中的二维边界框也可由图像直接得出,但图像中目标物体的角度信息较难得出。
现有的方法通常是结合激光雷达来测量物体的角度信息,但实施起来较复杂,涉及校准、点云数据处理、雷达和相机数据的同步等。
发明内容
本发明所要解决的技术问题就是提供一种基于检索匹配的物体角度信息标注方法,可以较为方便的对2D图像中目标物体进行角度信息的标注。
为解决上述技术问题,本发明采用如下技术方案:一种基于检索匹配的物体角度信息标注方法,包括如下步骤:
S1,利用制图软件,对所选取的2D图像中特定目标物体,建立一个3D模型;
S2,物体中心点O和相机中心点Oc的连线与Zc轴夹角设定为θ,在θ为某一固定值的情况下,改变物体的观察角度α,即将物体沿着自身中心点O旋转至各角度,得到各个角度下物体在图像坐标系的投影图;
S3,改变θ角,重复步骤S2,得到多组投影图片,再根据这些图片建立数据库;
S4,根据2D图像中2个目标点,以及实际物体的3D尺寸大小,进行坐标系转换,计算得到θ;
S5,进行检索匹配算法得到角度信息,从3D模型数据库中检索出θ对应的一组图片,所选取的2D图像,标注其边框,将包含边框的图片截取出来,再将截取后的图片和该组模板图片进行匹配,找到匹配度大于某一阈值的图片后,即可确定该图片中物体的观察角度α。
本发明还提供了一种电子设备,采用上述的一种基于检索匹配的物体角度信息标注方法进行目标物体的角度标注。
本发明采用的技术方案,先建立一个目标物体的3D几何模型,再将其各个角度下在图像坐标系的投影图制作成一个数据库,进行目标物体的角度标注时,去检索数据库中,找出匹配的投影图,则可确定对应的角度信息。
因而,本发明具有如下有益效果:
1)通过软件的方式即可获取角度信息,不需要借助激光雷达设备,简化方案,节省成本。
2)因为角度信息和背景像素的依赖关系不大,所以建立好模型的数据库以后,即可重复对各种背景下的目标物体的角度信息进行标注,适用范围广。
本发明的具体技术方案及其有益效果将会在下面的具体实施方式中结合附图进行详细的说明。
附图说明
下面结合附图和具体实施方式对本发明作进一步描述:
图1为旋转目标物体得到各个角度的投影图;
图2为像素坐标系与图像坐标系的关系图;
图3为相机坐标系与图像坐标系的关系图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
为解决对2D图像中目标物体进行角度信息的标注的问题,本发明提供一种基于检索匹配的物体角度信息标注方法,包括如下步骤:
步骤S1,利用autoCAD等软件工具,对所要标注的2D图像中的目标物体,建立一个3D模型。
步骤S2,物体中心点O和相机中心点Oc的连线与Zc轴夹角设定为θ,θ取值的范围是0-359度,可取具体值为0、δ1、2δ1、3δ1…,(δ1为角度θ的分辨率),物体的观察角度设定为α,α取值的范围是0-359度,可取具体值为0、δ2、2δ2、3δ2…,(δ2为角度α的分辨率)。
如图1所示,在θ为某一固定值的情况下(起始值为0度,步骤S3中依次递增δ1),改变物体的观察角度α,即将物体沿着自身中心点O旋转至各角度,得到各个角度下物体在图像坐标系的投影图。
考kitti数据集,一般3D检测任务所对应的训练集中,标注信息包含的角度有物体的观察角度,物体的全局方向角。
α是物体的观察角度,在相机坐标系下,以相机原点Oc为中心,相机原点Oc到物体中心O的连线为半径,将物体绕相机Yc轴旋转至相机Zc轴,此时物体方向与相机Xc轴的夹角。物体的全局方向角r_y是物体前进方向与相机坐标轴Xc的夹角。θ是物体中心点Oc与相机中心点O的连线,与摄像机主轴Zc的夹角,即物体与光轴的夹角。角度有如下关系:α=r_y-θ。
当θ固定时,0-359度范围内旋转目标物体以改变α,得到各角度下在图像平面对应的投影图(假设分辨率为5度,则α取值为0度、5度、10度…355度,对应有72张投影图)。
步骤S3,改变θ角,重复步骤S2,每个θ都得到一组对应的投影图片,再根据这些图片建立数据库。
根据步骤S2,调整θ的值,每个θ对应一组投影图。将每组图片保存起来,建立数据库。
对于某一确定种类的目标物体,数据库中内容如下:
α<sub>1</sub> | α<sub>2</sub> | α<sub>3</sub> | … | α<sub>m</sub> | … | α<sub>M</sub> | |
θ<sub>1</sub> | pic_11 | pic_12 | pic_13 | pic_1m | pic_1M | ||
θ<sub>2</sub> | pic_21 | pic_22 | pic_23 | pic_2m | pic_2M | ||
… | … | ||||||
θ<sub>n</sub> | pic_n1 | pic_n2 | pic_n3 | pic_nm | pic_nM | ||
… | |||||||
θ<sub>N</sub> | pic_N1 | pic_N2 | pic_N3 | pic_Nm | pic_NM |
每个投影图pic_nm对应于角度θn和αm。δ1是角度θ的分辨率,δ2是角度α的分辨率,θn=n*δ1,αm=m*δ2。M和N和分辨率有关:N=360/δ1,M=360/δ2。
目前对于某一特定种类的物体,建立的一个二维数据库可以根据2个角度信息,确定一张图片。如果有其它类别的物体,则可建立一个三维数据库,第一维是类别信息。
步骤S4,根据2D图像中2个目标点,以及实际物体的3D尺寸大小,进行坐标系转换,计算得到θ。
待标注的2D图像是基于像素坐标系的,需将像素坐标系转换到图像坐标系,再转换到相机坐标系中。
如图2,像素坐标系u-v的原点为O0,横坐标u和纵坐标v分别是图像所在的行和列。在视觉处理库OpenCV中,u对应x,v对应y;图像坐标系x-y的原点是O1,为像素坐标系的中点,假设(u0,v0)代表O1在u-v坐标系下的坐标,dx和dy分别表示每个像素在横轴x和纵轴y的物理尺寸;
则图像坐标系和像素坐标系的关系如下:
如图3所示,相机坐标系中,Oc点是摄像机光心,Xc轴和Yc轴与成像平面坐标系的x轴和y轴平行,Zc轴为摄像机的光轴,和图像平面垂直,光轴与图像平面的交点为图像的主点O,由点Oc与Xc、Yc、Zc轴组成的直角坐标系成为摄像机的坐标系,OOc的距离f为摄像机的焦距;目标物体的中心点Pc在图像坐标系的投影点设为P,物体外轮廓的最上方表面的中心点Qc在图像上的投影点为Q,PcQc与Yc轴平行。物体的实际大小和投影大小,有等比例的对应关系。所以已知物体的实际尺寸信息和图像中的投影大小,经计算可得到物体中心点Pc在Zc轴的坐标zcp。
首先,zcp=zcq=zc,xcp=xcq=xc;
从2D图像中,可得到PQ点的v轴坐标之差vq-vp(像素坐标系),对应到图像坐标系,有
yq-yp=(vq-v0)×dy-(vp-v0)×dy=(vq-vp)×dy
ycq-ycp根据物体的尺寸得知(是物体高度的1/2),根据相机的内参文件可确定f和dy。从而可计算得出zc;
再根据投影关系:
根据xp,yp,xq,yq分别计算得到xcp,ycp,xcq,ycq,从而得到Pc、Qc点的坐标(xcp,ycp,zc)和(xcq,ycq,zc);
同一角度下,不同深度距离对应的投影形状是相似的,可按等比例缩放得到。
步骤S5,进行检索匹配算法得到角度信息,从3D模型数据库中检索出θ对应的一组图片,所选取的2D图像,标注其边框,将包含边框的图片截取出来,再将截取后的图片和该组模板图片进行匹配,找到匹配度大于某一阈值(此阈值可根据实验数据统计得出)的图片后,即可确定该图片中物体的观察角度α。
从2D图像中截取出目标物体,减小背景的干扰以提高检索匹配算法的效率,数据库中的投影模板图都是纯色背景的。
本方法中的匹配步骤主要实现的是区分同一物体在不同角度下的投影,是针对图像的物理形状特征。可选取对灰度变化、纹理等不敏感,而对旋转和扭曲等形变特征敏感的匹配算法。通过特征点(诸如几何角点、边缘点等)提取,对于模板图像和待匹配图像可各得到一个特征点的集合。再对特征进行相关性计算。
关于上述匹配算法,已有的一些改进的尺度不变特征变换(SIFT)算法可实现其目标,在进行图像匹配的同时,可以求取出物体的旋转角度。首先,利用SIFT特征对旋转保持不变的特性,按照原算法提取出旋转前后两幅图像的SIFT特征,分析特征点主方向的计算过程,记录每个特征点主方向的角度值进行特征匹配。然后,计算出每对匹配的SIFT特征点的主方向角度之差,得到特征点的旋转角度;采用迭代自组织聚类的方法分析得到的特征点旋转角度数据,依据类内方差和类内样本数目,选取正确的样本类。最后,选用该样本类的均值作为物体的最终旋转角度。
步骤S6,重复步骤S4和S5,对多张2D图片进行角度信息的标注。
实施例二
一种电子设备,采用上述的一种基于检索匹配的物体角度信息标注方法进行目标物体的角度标注。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,熟悉该本领域的技术人员应该明白本发明包括但不限于上面具体实施方式中描述的内容。任何不偏离本发明的功能和结构原理的修改都将包括在权利要求书的范围中。
Claims (10)
1.一种基于检索匹配的物体角度信息标注方法,其特征在于:包括如下步骤:
S1,利用制图软件,对所选取的2D图像中特定目标物体,建立一个3D模型;
S2,物体中心点O和相机中心点Oc的连线与Zc轴夹角设定为θ,在θ为某一固定值的情况下,改变物体的观察角度α,即将物体沿着自身中心点O旋转至各角度,得到各个角度下物体在图像坐标系的投影图;
S3,改变θ角,重复步骤S2,得到多组投影图片,再根据这些图片建立数据库;
S4,根据2D图像中2个目标点,以及实际物体的3D尺寸大小,进行坐标系转换,计算得到θ;
S5,进行检索匹配算法得到角度信息,从3D模型数据库中检索出θ对应的一组图片,所选取的2D图像,标注其边框,将包含边框的图片截取出来,再将截取后的图片和该组模板图片进行匹配,找到匹配度大于某一阈值的图片后,即可确定该图片中物体的观察角度α;
S6,重复步骤S4和S5,对多张2D图片进行角度信息的标注。
2.根据权利要求1所述的一种基于检索匹配的物体角度信息标注方法,其特征在于:所述制图软件包括autoCAD。
3.根据权利要求1所述的一种基于检索匹配的物体角度信息标注方法,其特征在于:θ的取值的范围是0-359度,且取值为δ1的整数倍,δ1为角度θ的分辨率。
4.根据权利要求3所述的一种基于检索匹配的物体角度信息标注方法,其特征在于:α的取值的范围是0-359度,且取值为δ2的整数倍,δ2为角度α的分辨率。
5.根据权利要求1所述的一种基于检索匹配的物体角度信息标注方法,其特征在于:对于某一确定种类的目标物体,数据库中内容如下:
每个投影图pic_nm对应于角度θn和αm,δ1是角度θ的分辨率,δ2是角度α的分辨率,θn=n*δ1,αm=m*δ2,M和N和分辨率有关:N=360/δ1,M=360/δ2。
6.根据权利要求5所述的一种基于检索匹配的物体角度信息标注方法,其特征在于:对于某一特定种类的物体,建立一个二维数据库,根据2个角度信息,确定一张图片;如果有其它类别的物体,则建立一个三维数据库,第一维是类别信息。
7.根据权利要求1所述的一种基于检索匹配的物体角度信息标注方法,其特征在于:像素坐标系u-v的原点为O0,横坐标u和纵坐标v分别是图像所在的行和列,在视觉处理库OpenCV中,u对应x,v对应y;图像坐标系x-y的原点是O1,为像素坐标系的中点,假设(u0,v0)代表O1在u-v坐标系下的坐标,dx和dy分别表示每个像素在横轴x和纵轴y的物理尺寸;
则图像坐标系和像素坐标系的关系如下:
相机坐标系中,Oc点是摄像机光心,Xc轴和Yc轴与成像平面坐标系的x轴和y轴平行,Zc轴为摄像机的光轴,和图像平面垂直,光轴与图像平面的交点为图像的主点O,由点Oc与Xc、Yc、Zc轴组成的直角坐标系成为摄像机的坐标系,OOc的距离f为摄像机的焦距;目标物体的中心点Pc在图像坐标系的投影点设为P,物体外轮廓的最上方表面的中心点Qc在图像上的投影点为Q,PcQc与Yc轴平行,物体的实际大小和投影大小,有等比例的对应关系,所以已知物体的实际尺寸信息和图像中的投影大小,经计算可得到物体中心点Pc在Zc轴的坐标zcp。
8.根据权利要求7所述的一种基于检索匹配的物体角度信息标注方法,其特征在于:物体中心点Pc在Zc轴的坐标zcp计算方法为:
首先,zcp=zcq=zc,xcp=xcq=xc;
从2D图像中,可得到PQ点的v轴坐标之差vq-vp,对应到图像坐标系,有
yq-yp=(vq-v0)×dy-(vp-v0)×dy=(vq-vp)×dy
ycq-ycp根据物体的尺寸得知,根据相机的内参文件可确定f和dy,从而可计算得出zc;
再根据投影关系:
根据xp、yp、xq、yq分别计算得到xcp、ycp、xcq、ycq,从而得到Pc、Qc点的坐标(xcp,ycp,zc)和(xcq,ycq,zc);
9.根据权利要求1所述的一种基于检索匹配的物体角度信息标注方法,其特征在于:所述检索匹配算法选取对灰度变化、纹理不敏感,而对旋转和扭曲形变特征敏感的匹配算法,通过特征点提取,包括几何角点、边缘点,对于模板图像和待匹配图像可各得到一个特征点的集合,再对特征进行相关性计算。
10.一种电子设备,其特征在于:采用权利要求1至9中任意一项所述的一种基于检索匹配的物体角度信息标注方法进行目标物体的角度标注。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911156006.7A CN111179271B (zh) | 2019-11-22 | 2019-11-22 | 一种基于检索匹配的物体角度信息标注方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911156006.7A CN111179271B (zh) | 2019-11-22 | 2019-11-22 | 一种基于检索匹配的物体角度信息标注方法及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111179271A true CN111179271A (zh) | 2020-05-19 |
CN111179271B CN111179271B (zh) | 2021-05-11 |
Family
ID=70653715
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911156006.7A Active CN111179271B (zh) | 2019-11-22 | 2019-11-22 | 一种基于检索匹配的物体角度信息标注方法及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111179271B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111797810A (zh) * | 2020-07-20 | 2020-10-20 | 吉林大学 | 一种行车过程中驾驶员前视预瞄区域的获取方法 |
CN114495038A (zh) * | 2022-01-12 | 2022-05-13 | 九识(苏州)智能科技有限公司 | 一种自动驾驶检测标注数据的后处理方法 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102163340A (zh) * | 2011-04-18 | 2011-08-24 | 宁波万里电子科技有限公司 | 计算机系统中实现三维动态几何图形数据信息标注的方法 |
CN102222348A (zh) * | 2011-06-28 | 2011-10-19 | 南京大学 | 一种三维目标运动矢量计算方法 |
CN102810160A (zh) * | 2012-06-06 | 2012-12-05 | 北京京东世纪贸易有限公司 | 一种搜索图像的方法与装置 |
US8576223B1 (en) * | 2011-03-29 | 2013-11-05 | Google Inc. | Multiple label display for 3D objects |
CN104599275A (zh) * | 2015-01-27 | 2015-05-06 | 浙江大学 | 基于概率图模型的非参数化的rgb-d场景理解方法 |
CN105205199A (zh) * | 2014-06-30 | 2015-12-30 | 上海神机软件有限公司 | 建设工程模板标识码管理系统及方法、排模系统及方法 |
CN105551084A (zh) * | 2016-01-28 | 2016-05-04 | 北京航空航天大学 | 一种基于图像内容解析的室外三维场景组合构建方法 |
CN107423520A (zh) * | 2017-08-08 | 2017-12-01 | 宁存鑫 | 基于cad二次开发快速提取管线信息swmm建模方法 |
CN108021683A (zh) * | 2017-12-11 | 2018-05-11 | 首都航天机械公司 | 一种基于三维标注的相似模型检索实现方法 |
CN108108443A (zh) * | 2017-12-21 | 2018-06-01 | 深圳市数字城市工程研究中心 | 街景视频的文字标注方法、终端设备及存储介质 |
CN108537240A (zh) * | 2017-03-01 | 2018-09-14 | 华东师范大学 | 基于领域本体的商品图像语义标注方法 |
CN108650465A (zh) * | 2018-05-17 | 2018-10-12 | 深圳市零壹移动互联系统有限公司 | 摄像机画面增强现实标签的计算方法、装置及电子设备 |
CN109345562A (zh) * | 2018-09-26 | 2019-02-15 | 贵州优易合创大数据资产运营有限公司 | 一种交通图片智能标注系统 |
CN109584295A (zh) * | 2017-09-29 | 2019-04-05 | 阿里巴巴集团控股有限公司 | 对图像内目标物体进行自动标注的方法、装置及系统 |
CN109729490A (zh) * | 2018-11-12 | 2019-05-07 | 浙江众合科技股份有限公司 | 全自动驾驶车辆段人员安全防护系统 |
CN110390258A (zh) * | 2019-06-05 | 2019-10-29 | 东南大学 | 图像目标三维信息标注方法 |
-
2019
- 2019-11-22 CN CN201911156006.7A patent/CN111179271B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8576223B1 (en) * | 2011-03-29 | 2013-11-05 | Google Inc. | Multiple label display for 3D objects |
CN102163340A (zh) * | 2011-04-18 | 2011-08-24 | 宁波万里电子科技有限公司 | 计算机系统中实现三维动态几何图形数据信息标注的方法 |
CN102222348A (zh) * | 2011-06-28 | 2011-10-19 | 南京大学 | 一种三维目标运动矢量计算方法 |
CN102810160A (zh) * | 2012-06-06 | 2012-12-05 | 北京京东世纪贸易有限公司 | 一种搜索图像的方法与装置 |
CN105205199A (zh) * | 2014-06-30 | 2015-12-30 | 上海神机软件有限公司 | 建设工程模板标识码管理系统及方法、排模系统及方法 |
CN104599275A (zh) * | 2015-01-27 | 2015-05-06 | 浙江大学 | 基于概率图模型的非参数化的rgb-d场景理解方法 |
CN105551084A (zh) * | 2016-01-28 | 2016-05-04 | 北京航空航天大学 | 一种基于图像内容解析的室外三维场景组合构建方法 |
CN108537240A (zh) * | 2017-03-01 | 2018-09-14 | 华东师范大学 | 基于领域本体的商品图像语义标注方法 |
CN107423520A (zh) * | 2017-08-08 | 2017-12-01 | 宁存鑫 | 基于cad二次开发快速提取管线信息swmm建模方法 |
CN109584295A (zh) * | 2017-09-29 | 2019-04-05 | 阿里巴巴集团控股有限公司 | 对图像内目标物体进行自动标注的方法、装置及系统 |
CN108021683A (zh) * | 2017-12-11 | 2018-05-11 | 首都航天机械公司 | 一种基于三维标注的相似模型检索实现方法 |
CN108108443A (zh) * | 2017-12-21 | 2018-06-01 | 深圳市数字城市工程研究中心 | 街景视频的文字标注方法、终端设备及存储介质 |
CN108650465A (zh) * | 2018-05-17 | 2018-10-12 | 深圳市零壹移动互联系统有限公司 | 摄像机画面增强现实标签的计算方法、装置及电子设备 |
CN109345562A (zh) * | 2018-09-26 | 2019-02-15 | 贵州优易合创大数据资产运营有限公司 | 一种交通图片智能标注系统 |
CN109729490A (zh) * | 2018-11-12 | 2019-05-07 | 浙江众合科技股份有限公司 | 全自动驾驶车辆段人员安全防护系统 |
CN110390258A (zh) * | 2019-06-05 | 2019-10-29 | 东南大学 | 图像目标三维信息标注方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111797810A (zh) * | 2020-07-20 | 2020-10-20 | 吉林大学 | 一种行车过程中驾驶员前视预瞄区域的获取方法 |
CN114495038A (zh) * | 2022-01-12 | 2022-05-13 | 九识(苏州)智能科技有限公司 | 一种自动驾驶检测标注数据的后处理方法 |
CN114495038B (zh) * | 2022-01-12 | 2023-04-07 | 九识(苏州)智能科技有限公司 | 一种自动驾驶检测标注数据的后处理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111179271B (zh) | 2021-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11727661B2 (en) | Method and system for determining at least one property related to at least part of a real environment | |
CN107093205B (zh) | 一种基于无人机图像的三维空间建筑物窗户检测重建方法 | |
CN111665842B (zh) | 一种基于语义信息融合的室内slam建图方法及系统 | |
CN109685078B (zh) | 基于自动标注的红外图像识别方法 | |
CN111401266B (zh) | 绘本角点定位的方法、设备、计算机设备和可读存储介质 | |
CN111046843B (zh) | 一种智能驾驶环境下的单目测距方法 | |
Konishi et al. | Real-time 6D object pose estimation on CPU | |
Urban et al. | Finding a good feature detector-descriptor combination for the 2D keypoint-based registration of TLS point clouds | |
Han et al. | CAD-based 3D objects recognition in monocular images for mobile augmented reality | |
CN111179271B (zh) | 一种基于检索匹配的物体角度信息标注方法及电子设备 | |
CN116452852A (zh) | 一种高精度矢量地图的自动生成方法 | |
CN112489099A (zh) | 点云配准方法、装置、存储介质及电子设备 | |
CN108447092B (zh) | 视觉定位标识物的方法及装置 | |
CN115685160A (zh) | 基于标靶的激光雷达与相机标定方法、系统、电子设备 | |
CN104166995B (zh) | 一种基于马步测度的Harris‑SIFT双目视觉定位方法 | |
WO2022247126A1 (zh) | 视觉定位方法、装置、设备、介质及程序 | |
CN113012298B (zh) | 一种基于区域检测的弯曲mark三维注册增强现实方法 | |
Marelli et al. | ENRICH: Multi-purposE dataset for beNchmaRking In Computer vision and pHotogrammetry | |
WO2021114775A1 (en) | Object detection method, object detection device, terminal device, and medium | |
Wang et al. | Target recognition and localization of mobile robot with monocular PTZ camera | |
CN113096016A (zh) | 一种低空航拍图像拼接方法和系统 | |
CN117496401A (zh) | 一种用于视频测量影像序列椭圆形目标点全自动识别与跟踪方法 | |
CN117333548A (zh) | 一种基于类环面的相机位姿估计方法、系统和存储介质 | |
CN113688819A (zh) | 一种基于标记点的目标物期望点跟踪匹配方法 | |
JP6835665B2 (ja) | 情報処理装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |