CN110428490B - 构建模型的方法和装置 - Google Patents
构建模型的方法和装置 Download PDFInfo
- Publication number
- CN110428490B CN110428490B CN201810401667.0A CN201810401667A CN110428490B CN 110428490 B CN110428490 B CN 110428490B CN 201810401667 A CN201810401667 A CN 201810401667A CN 110428490 B CN110428490 B CN 110428490B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- model
- cloud data
- video frame
- video frames
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000010276 construction Methods 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 10
- 238000001914 filtration Methods 0.000 claims description 10
- 238000003709 image segmentation Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013499 data model Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请实施例公开了构建模型的方法和装置。该方法的一具体实施方式包括:获取采集的目标区域的视频帧集合和点云数据集合,其中,目标区域中包括至少一个物体;根据点云数据集合进行地图重构和点云拼接得到目标区域的点云模型;从视频帧集合中识别出至少一个物体,以及确定出在视频帧集合的视频帧中呈现物体的位置区域;对于至少一个物体中的物体,根据在视频帧中呈现该物体的位置区域从点云数据集合中确定出该物体的点云数据子集,根据该物体的点云数据子集从预设的物体模型集合中获取与该物体匹配的物体模型,以及用该物体的物体模型替换目标区域的点云模型中的该物体的点云模型。该实施方式能够提高构建模型的效率。
Description
技术领域
本申请实施例涉及计算机技术领域,具体涉及构建模型的方法和装置。
背景技术
现有虚拟环境构建方式主要包括三类:1)由绘制引擎制作而成,2)基于图像的场景构建,3)航拍图拉伸方法。
其中,由绘制引擎制作的方法首先用模型制作工具制作道路/车辆/人体模型,然后在绘制引擎中将各种模型添加到同一个平台中,再设定各种光照效果。基于图像绘制的方法通过采集一系列图像,用多视图几何算法将匹配点生成稠密点云,进而对点云进行三角面片和纹理贴图合成虚拟场景。航拍图拉伸的方法是将一个航拍图在用户交互操作下对指定区域进行竖向拉伸,例如某个建筑进行竖向拉伸,得到2.5D的航拍图建模。
发明内容
本申请实施例提出了构建模型的方法和装置。
第一方面,本申请实施例提供了一种构建模型的方法,包括:获取采集的目标区域的视频帧集合和点云数据集合,其中,目标区域中包括至少一个物体;根据点云数据集合进行地图重构和点云拼接得到目标区域的点云模型,其中,目标区域的点云模型中包括至少一个物体的点云模型;从视频帧集合中识别出至少一个物体,以及确定出在视频帧集合的视频帧中呈现物体的位置区域;对于至少一个物体中的物体,根据在视频帧中呈现该物体的位置区域从点云数据集合中确定出该物体的点云数据子集,根据该物体的点云数据子集从预设的物体模型集合中获取与该物体匹配的物体模型,以及用该物体的物体模型替换目标区域的点云模型中的该物体的点云模型。
在一些实施例中,视频帧集合中的至少一个视频帧中包括道路图数据,目标区域的点云模型中包括道路模型;以及上述方法还包括:根据道路图数据生成道路的俯视图;根据俯视图对道路模型进行纹理贴图。
在一些实施例中,从视频帧集合中识别出至少一个物体,以及确定出在视频帧集合的视频帧中呈现物体的位置区域,包括:对于视频帧集合中的视频帧,将该视频帧输入预设的图像识别模型,输出该视频帧中的物体的标签和物体在该视频帧中的位置区域,其中,图像识别模型用于表征待识别视频帧与待识别视频帧中的物体的标签和物体在待识别视频帧中的位置区域之间的对应关系。
在一些实施例中,物体模型集合中的物体模型与形状特征相对应;以及根据该物体的点云数据子集从预设的物体模型集合中获取与该物体匹配的物体模型,包括:从该物体的点云数据子集中提取该物体的形状特征;从预设的物体模型集合中获取与该物体的形状特征匹配的物体模型。
在一些实施例中,物体模型集合中的物体模型与形状特征和纹理特征相对应;以及根据该物体的点云数据子集从预设的物体模型集合中获取与该物体匹配的物体模型,包括:从视频帧集合中提取该物体的纹理特征;从该物体的点云数据子集中提取该物体的形状特征;从预设的物体模型集合中获取与该物体的形状特征和纹理特征匹配的物体模型。
在一些实施例中,在对于至少一个物体中的物体,根据在视频帧中呈现该物体的位置区域从点云数据集合中确定出该物体的点云数据子集之前,上述方法还包括:使用时间戳同步点云数据集合和视频帧集合以确定点云数据集合中各点云数据和视频帧集合中各视频帧之间的对应关系;对点云数据集合进行滤波去噪。
在一些实施例中,对于至少一个物体中的物体,根据在视频帧中呈现该物体的位置区域从点云数据集合中确定出该物体的点云数据子集包括:根据对应关系将在视频帧中呈现该物体的位置区域的中心点对应的点云数据作为聚类中心对滤波去噪后的点云数据集合进行聚类,得到该物体的点云数据子集。
第二方面,本申请实施例提供了一种构建模型的装置,包括:获取单元,被配置成获取采集的目标区域的视频帧集合和点云数据集合,其中,目标区域中包括至少一个物体;构建单元,被配置成根据点云数据集合进行地图重构和点云拼接得到目标区域的点云模型,其中,目标区域的点云模型中包括至少一个物体的点云模型;确定单元,被配置成从视频帧集合中识别出至少一个物体,以及确定出在视频帧集合的视频帧中呈现物体的位置区域;替换单元,被配置成对于至少一个物体中的物体,根据在视频帧中呈现该物体的位置区域从点云数据集合中确定出该物体的点云数据子集,根据该物体的点云数据子集从预设的物体模型集合中获取与该物体匹配的物体模型,以及用该物体的物体模型替换目标区域的点云模型中的该物体的点云模型。
在一些实施例中,视频帧集合中的至少一个视频帧中包括道路图数据,目标区域的点云模型中包括道路模型;以及上述装置还包括道路模型单元,被配置成:根据道路图数据生成道路的俯视图;根据俯视图对道路模型进行纹理贴图。
在一些实施例中,确定单元进一步被配置成:对于视频帧集合中的视频帧,将该视频帧输入预设的图像识别模型,输出该视频帧中的物体的标签和物体在该视频帧中的位置区域,其中,图像识别模型用于表征待识别视频帧与待识别视频帧中的物体的标签和物体在待识别视频帧中的位置区域之间的对应关系。
在一些实施例中,物体模型集合中的物体模型与形状特征相对应;以及替换单元进一步被配置成:从该物体的点云数据子集中提取该物体的形状特征;从预设的物体模型集合中获取与该物体的形状特征匹配的物体模型。
在一些实施例中,物体模型集合中的物体模型与形状特征和纹理特征相对应;以及替换单元进一步被配置成:从视频帧集合中提取该物体的纹理特征;从该物体的点云数据子集中提取该物体的形状特征;从预设的物体模型集合中获取与该物体的形状特征和纹理特征匹配的物体模型。
在一些实施例中,确定单元进一步被配置成:使用时间戳同步点云数据集合和视频帧集合以确定点云数据集合中点云数据和视频帧集合中视频帧之间的对应关系;对点云数据集合进行滤波去噪。
在一些实施例中,确定单元进一步被配置成:根据对应关系将在视频帧中呈现该物体的位置区域的中心点对应的点云数据作为聚类中心对滤波去噪后的点云数据集合进行聚类,得到该物体的点云数据子集。
第三方面,本申请实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一的方法。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现如第一方面中任一的方法。
本申请实施例提供的构建模型的方法和装置,通过同时采集点云数据和视频帧数据,生成点云模型。然后再利用视频帧的纹理特征和点云模型的形状特征,从预设的物体模型集合中获取与该物体匹配的物体模型替换点云模型中的该物体的点云模型。从而提高构建模型的效率。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的构建模型的方法的一个实施例的流程图;
图3a-3d是根据本申请的构建模型的方法的一个应用场景的示意图;
图4是根据本申请的构建模型的方法的又一个实施例的流程图;
图5是根据本申请的构建模型的装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的构建模型的方法或构建模型的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括车辆101、网络104和服务器105。车辆101上安装了摄像头102和激光雷达103。网络104用以在车辆101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用车辆101上的摄像头102采集目标区域的视频。用车辆101上的激光雷达103采集目标区域的点云数据。车辆101通过网络104与服务器105交互,以接收或发送消息等。
车辆101可以是无人驾驶车辆,按照服务器设置的路线和速度自动驾驶以使得车辆101上安装的摄像头102和激光雷达103采集数据。车辆101还可以是人工驾驶的车辆。司机驾驶车辆以使得车辆101上安装的摄像头102和激光雷达103采集数据。车辆101将采集的目标区域的视频帧集合和点云数据集合通过网络104发送给服务器105。
服务器105可以是提供各种服务的服务器,例如对车辆101采集的目标区域的视频帧集合和点云数据集合提供处理的后台建模服务器。后台建模服务器可以对接收到的目标区域的视频帧集合和点云数据集合请求等数据进行分析等处理,并生成模型。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本申请实施例所提供的构建模型的方法一般由服务器105执行,相应地,构建模型的装置一般设置于服务器105中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的构建模型的方法的一个实施例的流程200。该构建模型的方法,包括以下步骤:
步骤201,获取采集的目标区域的视频帧集合和点云数据集合。
在本实施例中,构建模型的方法的执行主体(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式从用户利用其进行数据采集的车辆接收目标区域的视频帧集合和点云数据集合。其中,目标区域中包括至少一个物体,例如,建筑物、人、道路、树木等。目标区域可以是用户预先设定的区域。例如,北京市中关村区域。可以预先规划车辆的行驶路线,使得在车辆行驶过程中同时采集目标区域的视频帧集合和点云数据集合。视频帧中包括了车辆行驶路线沿线的景色,可包括建筑物、人、道路、树木等物体的图像。点云数据是通过激光雷达采集的。当一束激光照射到物体表面时,所反射的激光会携带方位、距离等信息。若将激光束按照某种轨迹进行扫描,便会边扫描边记录到反射的激光点信息,由于扫描极为精细,则能够得到大量的激光点,因而就可形成激光点云。
需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
步骤202,根据点云数据集合进行地图重构和点云拼接得到目标区域的点云模型。
在本实施例中,目标区域的点云模型中包括至少一个物体的点云模型。例如,车辆的点云模型、建筑物的点云模型等。可通过SLAM(simultaneous localization andmapping)算法,也称为CML(Concurrent Mapping and Localization),即时定位与地图构建,或并发建图与定位。通过车辆在未知环境中从一个未知位置开始移动,在移动过程中根据位置估计和地图进行自身定位,同时在自身定位的基础上建造增量式地图,实现车辆的自主定位和导航。
点云拼接也被称为点云配准或点云注册,就是把不同位置的点云通过重叠部分的信息,变换到同一个位置。在逆向工程,计算机视觉,文物数字化等领域中,由于点云的不完整,旋转错位,平移错位等,使得要得到的完整的点云就需要对局部点云进行拼接,为了得到被测物体的完整数据模型,需要确定一个合适的坐标系,将从各个视角得到的点集合并到统一的坐标系下形成一个完整的点云,然后就可以方便进行可视化的操作,这就是点云数据的拼接。点云的拼接有手动拼接依赖仪器的拼接,和自动拼接,点云的自动拼接技术是通过一定的算法或者统计学规律利用计算机计算两块点云之间错位,从而达到两块点云自动拼接的效果,其实质就是把不同的坐标系中测得到的数据点云进行坐标系的变换,以得到整体的数据模型,问题的关键是如何让得到坐标变换的参数R(旋转矩阵)和T(平移向量),使得两视角下测得的三维数据经坐标变换后的距离最小,目前拼接算法按照过程可以分为整体拼接和局部拼接。
步骤203,从视频帧集合中识别出至少一个物体,以及确定出在视频帧集合的视频帧中呈现物体的位置区域。
在本实施例中,可使用常见的图像识别技术从视频帧集合中识别出至少一个物体。首先可通过图像分割从图像中识别出物体的轮廓。现有的图像分割的方法有许多种,有阈值分割方法,边缘检测方法,区域提取方法,结合特定理论工具的分割方法等。从图像的类型来分有:灰度图像分割、彩色图像分割和纹理图像分割等。然后再根据分割出的图像的纹理特征确定出物体的类别,一个类别与一个标签相对应。可通过卷积神经网络或者循环神经网络等深度学习算法识别出视频帧中的物体。并确定出物体的轮廓上每个点所在的位置,组合出呈现物体的位置区域。一个物体可能有某几个帧中出现,多个帧的图像结合在一起能够更精确的确定出呈现物体的位置和物体的类别。
需要说明的是,步骤202和203的执行顺序可以互换。不限定步骤202和203的执行顺序。
在本实施例的一些可选的实现方式中,对于视频帧集合中的视频帧,将该视频帧输入预设的图像识别模型,输出该视频帧中的物体的标签和物体在该视频帧中的位置区域。其中,图像识别模型用于表征待识别视频帧与待识别视频帧中的物体的标签和物体在待识别视频帧中的位置区域之间的对应关系。图像识别模型可以是神经网络模型,例如,Mask RCNN(通过在Faster-RCNN(较快区域卷积神经网络)的基础上添加一个分支网络,在实现目标检测的同时,把目标像素分割出来)。采用监督学习方式,包括训练和验证阶段。在训练阶段,预先标注大量样本(输入图像和解析图像匹配对,解析图像中可以不同的颜色区分物体的类别,如图3a所示,左侧为输入图像,右侧为解析图像),用深度学习算法(MaskRCNN)进行模型训练。在验证阶段,给出一幅视频中,深度学习算法用训练好的模型可以完成视频帧的解析。
步骤204,对于至少一个物体中的物体,根据在视频帧中呈现该物体的位置区域从点云数据集合中确定出该物体的点云数据子集,根据该物体的点云数据子集从预设的物体模型集合中获取与该物体匹配的物体模型,以及用该物体的物体模型替换目标区域的点云模型中的该物体的点云模型。
在本实施例中,将视频帧集合和点云数据集合在时间上对齐,这样可以通过视频帧上已经确定出的呈现物体的位置区域找到该物体的对应的点云数据。可使用时间戳同步点云数据集合和视频帧集合以确定点云数据集合中各点云数据和所述视频帧集合中各视频帧之间的对应关系。即,视频帧通过时间与点云数据相关联。例如,0.1秒采集的视频帧对应于0.1秒采集的点云数据。可以预先确定物体的类别,再按照类别从预设的物体模型集合中匹配查找到相似度高于预定阈值的物体模型。例如,如果物体是车辆,则从预设的由绘制引擎制作而成的车辆模型库中查找匹配的车辆模型。如果物体是树木,则从预设的由绘制引擎制作而成的树木模型库中查找匹配的树木模型。并对其进行几何变换(平移,旋转和缩放)后放置到虚拟空间中。
预设的物体模型集合中的物体模型可以是由绘制引擎制作而成的三维模型。物体模型集合中的物体模型比点云模型更加逼真。且物体模型集合分类存储,针对不同类别的物体的点云模型,查找对应类型的物体模型集合。三维模型具有纹理特征和形状特征。物体的点云数据子集中可提取出物体的形状特征。将提取出的形状特征与三维模型的形状特征做比对,匹配度大于预定阈值的三维模型可确定为与该物体匹配的物体模型。匹配度的计算方法包括但不限于:余弦相似度、欧氏距离、汉明距离等。
原有目标区域的点云模型中的物体的点云模型是只包括形状特征的模型。因为点云数据中不包括纹理特征。而从预设的物体模型集合中获取的物体模型具有纹理特征和形状特征。因此可达到通过绘制引擎制作的模型的逼真效果。对于从预设的物体模型集合中找不到匹配的物体模型的情况,则仍可使用原有的点云模型。
在本实施例的一些可选的实现方式中,视频帧集合中的至少一个视频帧中包括道路图数据,目标区域的点云模型中包括道路模型。上述构建模型的方法还包括:根据道路图数据生成道路的俯视图。根据俯视图对道路模型进行纹理贴图。假设道路面的高度一致,根据激光点云确定道路面在XY轴的范围,得到一个矩形道路重建面。为了对道路面进行纹理贴图,沿着车载行驶的路线均匀采样一些视频帧,将视频中的道路面从车载透视图转换为从上到下的正视图,然后根据车载姿态进行道路面旋转和拼接,从而完成道路面的纹理贴图。
在本实施例的一些可选的实现方式中,物体模型集合中的物体模型与形状特征相对应。根据该物体的点云数据子集从预设的物体模型集合中获取与该物体匹配的物体模型,包括:从该物体的点云数据子集中提取该物体的形状特征。从预设的物体模型集合中获取与该物体的形状特征匹配的物体模型。物体模型集合中的物体模型是三维的,具有形状特征。例如,对于一辆车,根据形状特征可从物体模型集合中选取出相同车型的车的三维模型。由绘制引擎制作而成的车的三维模型比原本的点云模型更加逼真。并且可以重复利用已经制作好的三维模型,提高模型生成的效率。
在本实施例的一些可选的实现方式中,物体模型集合中的物体模型与形状特征和纹理特征相对应。根据该物体的点云数据子集从预设的物体模型集合中获取与该物体匹配的物体模型,包括:从视频帧集合中提取该物体的纹理特征。从该物体的点云数据子集中提取该物体的形状特征。从预设的物体模型集合中获取与该物体的形状特征和纹理特征匹配的物体模型。可以分别为形状特征和纹理特征分别设置不同的权重。总的相似度=形状相似度*形状权重+纹理相似度*纹理权重。形状相似度指的是点云模型的形状特征与预设的物体模型集合中的物体模型的形状特征之间的相似度。纹理相似度指的是点云模型的纹理特征与预设的物体模型集合中的物体模型的纹理特征之间的相似度。形状权重与纹理权重之和为1。如果将形状特征的权重设置的高于纹理特征的权重。则可优先找到形状相同但纹理稍有差别的物体模型。如果将形状特征的权重设置的低于纹理特征的权重。则可优先找到纹理相同但形状稍有差别的物体模型。
可选地,可将构建好的道路模型以及其他模型进行格式转换,转换为一个绘制引擎能够解析的格式。
继续参见图3a-3d,图3a-3d是根据本实施例的构建模型的方法的应用场景的示意图。在图3a-3d的应用场景中,用户想要构建目标区域的街景模型,驾驶安装了激光雷达和摄像头的车辆在目标区域行驶以使得激光雷达采集点云数据,摄像头采集视频数据。然后车辆将点云数据和视频数据发送给服务器。服务器将接收到的视频数据逐帧进行识别。如图3a所示,左侧为原始采集的视频帧,右侧为识别结果,以不同的颜色区分不同类别的物体。301指示的区域为树木,302指示的区域为汽车、303指示的区域为人。服务器将接收到的点云数据进行处理生成目标区域的点云模型,如图3b所示,线框304为车辆行驶路线。对于目标区域的点云模型中的车辆点云模型(如图3c左侧所示的车辆),从预设的通过绘制引擎制作的三维模型库中选择出与车辆点云模型相似的三维车辆模型(如图3c右侧所示的车辆)。同理,将目标区域的点云模型中的物体点云模型逐个替换成绘制引擎制作的三维模型。最终形成如图3d所示的目标区域的街景模型。
本申请的上述实施例提供的方法通过将点云数据和视频数据相结合,提高构建模型的效率,降低了构建模型的成本。
进一步参考图4,其示出了构建模型的方法的又一个实施例的流程400。该构建模型的方法的流程400,包括以下步骤:
步骤401,获取采集的目标区域的视频帧集合和点云数据集合。
步骤402,根据点云数据集合进行地图重构和点云拼接得到目标区域的点云模型。
步骤403,从视频帧集合中识别出至少一个物体,以及确定出在视频帧集合的视频帧中呈现物体的位置区域。
步骤401-403与步骤201-203基本相同,因此不再赘述。
步骤404,使用时间戳同步点云数据集合和视频帧集合以确定点云数据集合中各点云数据和视频帧集合中各视频帧之间的对应关系
在本实施例中,将视频帧集合和点云数据集合在时间上对齐,这样可以通过视频帧上已经确定出的物体的位置区域找到该物体的对应的点云数据。可使用时间戳同步点云数据集合和视频帧集合以确定点云数据集合中各点云数据和所述视频帧集合中各视频帧之间的对应关系。即,视频帧通过时间与点云数据相关联。例如,0.1秒采集的视频帧对应于0.1秒采集的点云数据。
步骤405,对点云数据集合进行滤波去噪。
在本实施例中,首先,剔除掉一些距离车载路线过远的物体,只对近景物体进行建模,即设置一个阈值T,垂直距离车载路线超过该阈值的点将过滤掉。
其次,在一定的范围(例如,以目标像素为中心的周围8个像素)的三维空间对点云标注进行加权标注更新,即:其中lb为最佳标注,i表示物体,lbi表示物体i的标签,j为当前范围内的领域点,dataj表示点j的观测特征,包括但不限于颜色,强度值等.p(lbi|dataj)为视频场景解析估计出的点j的标签为lbi的概率。wi表示物体i的权重。将上式的值最大时对应的物体的标签作为该范围内所有点的标签。即,采用均值滤波进行去噪。均值滤波是典型的线性滤波算法,它是指在图像上对目标像素给一个模板,该模板包括了其周围的临近像素(以目标像素为中心的周围8个像素,构成一个滤波模板,即去掉目标像素本身),再用模板中的全体像素的平均值来代替原来像素值。
步骤406,对于至少一个物体中的物体,根据对应关系将在视频帧中呈现该物体的位置区域的中心点对应的点云数据作为聚类中心对滤波去噪后的点云数据集合进行聚类,得到该物体的点云数据子集,根据该物体的点云数据子集从预设的物体模型集合中获取与该物体匹配的物体模型,以及用该物体的物体模型替换目标区域的点云模型中的该物体的点云模型。
在本实施例中,对点云进行语义空间聚类,设K个聚类区域,K为从视频帧中解析出的物体个数,每个聚类中心为从视频帧中解析出的物体在视频中显示位置区域的中心点在点云上的投影点。对每一个聚类区域从预设的物体模型集合中检索一个最相似模型,并对其进行几何变换(平移,旋转和缩放)后放置到虚拟空间中。模型检索策略为:通过视频提取物体的纹理特征,通过点云提取物体的形状特征,然后跟模型库中的模型进行加权比较,选取最佳匹配模型。
从图4中可以看出,与图2对应的实施例相比,本实施例中的构建模型的方法的流程400突出了对点云数据进行去噪的步骤。由此,本实施例描述的方案可以提高模型匹配的准确率和匹配的效率,从而提高构建模型的效率,并降低构建模型的时间成本。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种构建模型的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的构建模型的装置500包括:获取单元501、构建单元502、确定单元503和替换单元504。其中,获取单元501被配置成获取采集的目标区域的视频帧集合和点云数据集合,其中,目标区域中包括至少一个物体。构建单元502被配置成根据点云数据集合进行地图重构和点云拼接得到目标区域的点云模型,其中,目标区域的点云模型中包括至少一个物体的点云模型。确定单元503被配置成从视频帧集合中识别出至少一个物体,以及确定出在视频帧集合的视频帧中呈现物体的位置区域。替换单元504被配置成对于至少一个物体中的物体,根据在视频帧中呈现该物体的位置区域从点云数据集合中确定出该物体的点云数据子集,根据该物体的点云数据子集从预设的物体模型集合中获取与该物体匹配的物体模型,以及用该物体的物体模型替换目标区域的点云模型中的该物体的点云模型。
在本实施例中,构建模型的装置500的获取单元501、构建单元502、确定单元503和替换单元504的具体处理可以参考图2对应实施例中的步骤201、步骤202、步骤203、步骤204。
在本实施例的一些可选的实现方式中,视频帧集合中的至少一个视频帧中包括道路图数据,目标区域的点云模型中包括道路模型;以及装置500还包括道路模型单元(未示出),被配置成:根据道路图数据生成道路的俯视图;根据俯视图对道路模型进行纹理贴图。
在本实施例的一些可选的实现方式中,确定单元503进一步被配置成:对于视频帧集合中的视频帧,将该视频帧输入预设的图像识别模型,输出该视频帧中的物体的标签和物体在该视频帧中的位置区域,其中,图像识别模型用于表征待识别视频帧与待识别视频帧中的物体的标签和物体在待识别视频帧中的位置区域之间的对应关系。
在本实施例的一些可选的实现方式中,物体模型集合中的物体模型与形状特征相对应;以及替换单元504进一步被配置成:从该物体的点云数据子集中提取该物体的形状特征;从预设的物体模型集合中获取与该物体的形状特征匹配的物体模型。
在本实施例的一些可选的实现方式中,物体模型集合中的物体模型与形状特征和纹理特征相对应;以及替换单元504进一步被配置成:从视频帧集合中提取该物体的纹理特征;从该物体的点云数据子集中提取该物体的形状特征;从预设的物体模型集合中获取与该物体的形状特征和纹理特征匹配的物体模型。
在本实施例的一些可选的实现方式中,确定单元503进一步被配置成:在对于至少一个物体中的物体,根据在视频帧中呈现该物体的位置区域从点云数据集合中确定出该物体的点云数据子集之前,使用时间戳同步点云数据集合和视频帧集合以确定点云数据集合中点云数据和视频帧集合中视频帧之间的对应关系;对点云数据集合进行滤波去噪。
在本实施例的一些可选的实现方式中,确定单元503进一步被配置成:对于至少一个物体中的物体,根据对应关系将在视频帧中呈现该物体的位置区域的中心点对应的点云数据作为聚类中心对滤波去噪后的点云数据集合进行聚类,得到该物体的点云数据子集。
下面参考图6,其示出了适于用来实现本申请实施例的电子设备(如图1所示的服务器)的计算机系统600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、构建单元、确定单元和替换单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取采集的目标区域的视频帧集合和点云数据集合的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:获取采集的目标区域的视频帧集合和点云数据集合,其中,目标区域中包括至少一个物体;根据点云数据集合进行地图重构和点云拼接得到目标区域的点云模型;从视频帧集合中识别出至少一个物体,以及确定出在视频帧集合的视频帧中呈现物体的位置区域;对于至少一个物体中的物体,根据在视频帧中呈现该物体的位置区域从点云数据集合中确定出该物体的点云数据子集,根据该物体的点云数据子集从预设的物体模型集合中获取与该物体匹配的物体模型,以及用该物体的物体模型替换目标区域的点云模型中的该物体的点云模型。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离所述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (16)
1.一种构建模型的方法,包括:
获取采集的目标区域的视频帧集合和点云数据集合,其中,所述目标区域中包括至少一个物体;
根据所述点云数据集合进行地图重构和点云拼接得到所述目标区域的点云模型,其中,所述目标区域的点云模型中包括所述至少一个物体的点云模型;
通过图像分割从图像中识别出物体的轮廓,根据分割出的图像的纹理特征确定出物体的类别,从所述视频帧集合中识别出所述至少一个物体,以及确定出物体的轮廓上每个点所在的位置,组合出呈现物体的位置区域;
对于所述至少一个物体中的物体,根据在视频帧中呈现该物体的位置区域从所述点云数据集合中确定出该物体的点云数据子集,根据该物体的点云数据子集从预设的物体模型集合中获取与该物体匹配的物体模型,以及用该物体的物体模型替换所述目标区域的点云模型中的该物体的点云模型。
2.根据权利要求1所述的方法,其中,所述视频帧集合中的至少一个视频帧中包括道路图数据,所述目标区域的点云模型中包括道路模型;以及
所述方法还包括:
根据所述道路图数据生成道路的俯视图;
根据所述俯视图对所述道路模型进行纹理贴图。
3.根据权利要求1所述的方法,其中,所述从所述视频帧集合中识别出所述至少一个物体,以及确定出在所述视频帧集合的视频帧中呈现物体的位置区域,包括:
对于所述视频帧集合中的视频帧,将该视频帧输入预设的图像识别模型,输出该视频帧中的物体的标签和物体在该视频帧中的位置区域,其中,所述图像识别模型用于表征待识别视频帧与待识别视频帧中的物体的标签和物体在待识别视频帧中的位置区域之间的对应关系。
4.根据权利要求1所述的方法,其中,所述物体模型集合中的物体模型与形状特征相对应;以及
所述根据该物体的点云数据子集从预设的物体模型集合中获取与该物体匹配的物体模型,包括:
从该物体的点云数据子集中提取该物体的形状特征;
从预设的物体模型集合中获取与该物体的形状特征匹配的物体模型。
5.根据权利要求1所述的方法,其中,所述物体模型集合中的物体模型与形状特征和纹理特征相对应;以及
所述根据该物体的点云数据子集从预设的物体模型集合中获取与该物体匹配的物体模型,包括:
从所述视频帧集合中提取该物体的纹理特征;
从该物体的点云数据子集中提取该物体的形状特征;
从预设的物体模型集合中获取与该物体的形状特征和纹理特征匹配的物体模型。
6.根据权利要求1-5之一所述的方法,其中,在所述对于所述至少一个物体中的物体,根据在视频帧中呈现该物体的位置区域从所述点云数据集合中确定出该物体的点云数据子集之前,所述方法还包括:
使用时间戳同步所述点云数据集合和所述视频帧集合以确定所述点云数据集合中各点云数据和所述视频帧集合中各视频帧之间的对应关系;
对所述点云数据集合进行滤波去噪。
7.根据权利要求6所述的方法,其中,所述对于所述至少一个物体中的物体,根据在视频帧中呈现该物体的位置区域从所述点云数据集合中确定出该物体的点云数据子集,包括:
根据所述对应关系将在视频帧中呈现该物体的位置区域的中心点对应的点云数据作为聚类中心对滤波去噪后的所述点云数据集合进行聚类,得到该物体的点云数据子集。
8.一种构建模型的装置,包括:
获取单元,被配置成获取采集的目标区域的视频帧集合和点云数据集合,其中,所述目标区域中包括至少一个物体;
构建单元,被配置成根据所述点云数据集合进行地图重构和点云拼接得到所述目标区域的点云模型,其中,所述目标区域的点云模型中包括所述至少一个物体的点云模型;
确定单元,被配置成通过图像分割从图像中识别出物体的轮廓,根据分割出的图像的纹理特征确定出物体的类别,从所述视频帧集合中识别出所述至少一个物体,以及确定出物体的轮廓上每个点所在的位置,组合出呈现物体的位置区域;
替换单元,被配置成对于所述至少一个物体中的物体,根据在视频帧中呈现该物体的位置区域从所述点云数据集合中确定出该物体的点云数据子集,根据该物体的点云数据子集从预设的物体模型集合中获取与该物体匹配的物体模型,以及用该物体的物体模型替换所述目标区域的点云模型中的该物体的点云模型。
9.根据权利要求8所述的装置,其中,所述视频帧集合中的至少一个视频帧中包括道路图数据,所述目标区域的点云模型中包括道路模型;以及
所述装置还包括道路模型单元,被配置成:
根据所述道路图数据生成道路的俯视图;
根据所述俯视图对所述道路模型进行纹理贴图。
10.根据权利要求8所述的装置,其中,所述确定单元进一步被配置成:
对于所述视频帧集合中的视频帧,将该视频帧输入预设的图像识别模型,输出该视频帧中的物体的标签和物体在该视频帧中的位置区域,其中,所述图像识别模型用于表征待识别视频帧与待识别视频帧中的物体的标签和物体在待识别视频帧中的位置区域之间的对应关系。
11.根据权利要求8所述的装置,其中,所述物体模型集合中的物体模型与形状特征相对应;以及
所述替换单元进一步被配置成:
从该物体的点云数据子集中提取该物体的形状特征;
从预设的物体模型集合中获取与该物体的形状特征匹配的物体模型。
12.根据权利要求8所述的装置,其中,所述物体模型集合中的物体模型与形状特征和纹理特征相对应;以及
所述替换单元进一步被配置成:
从所述视频帧集合中提取该物体的纹理特征;
从该物体的点云数据子集中提取该物体的形状特征;
从预设的物体模型集合中获取与该物体的形状特征和纹理特征匹配的物体模型。
13.根据权利要求8-12之一所述的装置,其中,所述确定单元进一步被配置成:
在所述对于所述至少一个物体中的物体,根据在视频帧中呈现该物体的位置区域从所述点云数据集合中确定出该物体的点云数据子集之前,使用时间戳同步所述点云数据集合和所述视频帧集合以确定所述点云数据集合中点云数据和所述视频帧集合中视频帧之间的对应关系;
对所述点云数据集合进行滤波去噪。
14.根据权利要求13所述的装置,其中,所述确定单元进一步被配置成:
对于所述至少一个物体中的物体,根据所述对应关系将在视频帧中呈现该物体的位置区域的中心点对应的点云数据作为聚类中心对滤波去噪后的所述点云数据集合进行聚类,得到该物体的点云数据子集。
15.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
16.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-7中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810401667.0A CN110428490B (zh) | 2018-04-28 | 2018-04-28 | 构建模型的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810401667.0A CN110428490B (zh) | 2018-04-28 | 2018-04-28 | 构建模型的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110428490A CN110428490A (zh) | 2019-11-08 |
CN110428490B true CN110428490B (zh) | 2024-01-12 |
Family
ID=68407148
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810401667.0A Active CN110428490B (zh) | 2018-04-28 | 2018-04-28 | 构建模型的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110428490B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11373067B2 (en) * | 2018-08-10 | 2022-06-28 | Nec Corporation | Parametric top-view representation of scenes |
CN110654422B (zh) * | 2019-11-12 | 2022-02-01 | 银河水滴科技(北京)有限公司 | 一种轨道列车驾驶辅助的方法、装置及系统 |
CN111612891B (zh) * | 2020-05-22 | 2023-08-08 | 北京京东乾石科技有限公司 | 模型生成方法、点云数据处理方法、装置、设备及介质 |
CN114063091A (zh) * | 2020-07-30 | 2022-02-18 | 北京四维图新科技股份有限公司 | 高精度的定位方法及产品 |
CN112733938A (zh) * | 2021-01-11 | 2021-04-30 | 上海思岚科技有限公司 | 一种障碍物识别辅助建图与定位的方法及设备 |
CN113343016B (zh) * | 2021-06-01 | 2023-06-16 | 中国计量大学 | 一种监管建筑材料的系统及方法 |
CN113642060A (zh) * | 2021-08-12 | 2021-11-12 | 武汉维谘信息技术有限公司 | 一种eoat视觉工作站及端拾器的建模方法 |
CN113822993B (zh) * | 2021-11-23 | 2022-04-08 | 之江实验室 | 一种基于3d模型匹配的数字孪生方法和系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103093191A (zh) * | 2012-12-28 | 2013-05-08 | 中电科信息产业有限公司 | 一种三维点云数据结合数字影像数据的物体识别方法 |
CN106250881A (zh) * | 2016-08-25 | 2016-12-21 | 深圳大学 | 一种基于三维点云数据的目标识别方法及系统 |
CN107025323A (zh) * | 2016-12-29 | 2017-08-08 | 南京南瑞信息通信科技有限公司 | 一种基于模板库的变电站快速建模方法 |
CN107871129A (zh) * | 2016-09-27 | 2018-04-03 | 北京百度网讯科技有限公司 | 用于处理点云数据的方法和装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104794756A (zh) * | 2014-01-20 | 2015-07-22 | 鸿富锦精密工业(深圳)有限公司 | 点云模型贴图系统及方法 |
-
2018
- 2018-04-28 CN CN201810401667.0A patent/CN110428490B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103093191A (zh) * | 2012-12-28 | 2013-05-08 | 中电科信息产业有限公司 | 一种三维点云数据结合数字影像数据的物体识别方法 |
CN106250881A (zh) * | 2016-08-25 | 2016-12-21 | 深圳大学 | 一种基于三维点云数据的目标识别方法及系统 |
CN107871129A (zh) * | 2016-09-27 | 2018-04-03 | 北京百度网讯科技有限公司 | 用于处理点云数据的方法和装置 |
CN107025323A (zh) * | 2016-12-29 | 2017-08-08 | 南京南瑞信息通信科技有限公司 | 一种基于模板库的变电站快速建模方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110428490A (zh) | 2019-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110428490B (zh) | 构建模型的方法和装置 | |
Yue et al. | A lidar point cloud generator: from a virtual world to autonomous driving | |
US10643106B2 (en) | System and method for procedurally synthesizing datasets of objects of interest for training machine-learning models | |
CN109285220B (zh) | 一种三维场景地图的生成方法、装置、设备及存储介质 | |
CN109598794B (zh) | 三维gis动态模型的构建方法 | |
US10628890B2 (en) | Visual analytics based vehicle insurance anti-fraud detection | |
CN108764187A (zh) | 提取车道线的方法、装置、设备、存储介质以及采集实体 | |
US10043097B2 (en) | Image abstraction system | |
CN112257605B (zh) | 基于自标注训练样本的三维目标检测方法、系统及装置 | |
EP2874097A2 (en) | Automatic scene parsing | |
JP6719497B2 (ja) | 画像生成方法、画像生成装置及び画像生成システム | |
CN102959946A (zh) | 基于相关3d点云数据来扩充图像数据的技术 | |
US20230005278A1 (en) | Lane extraction method using projection transformation of three-dimensional point cloud map | |
CN112949366A (zh) | 障碍物识别方法和装置 | |
Oskouie et al. | A data quality-driven framework for asset condition assessment using LiDAR and image data | |
CN113496163B (zh) | 障碍物识别方法和装置 | |
CN112529116B (zh) | 场景元素融合处理方法、装置和设备及计算机存储介质 | |
Spiegel et al. | Using simulation data from gaming environments for training a deep learning algorithm on 3d point clouds | |
JP7204087B2 (ja) | 対象物認識装置 | |
CN113870412A (zh) | 一种航空场景图像的处理方法、装置以及电子设备 | |
Wu et al. | Derivation of Geometrically and Semantically Annotated UAV Datasets at Large Scales from 3D City Models | |
CN113642395B (zh) | 面向城市增强现实信息标注的建筑物场景结构提取方法 | |
KR102249380B1 (ko) | 기준 영상 정보를 이용한 cctv 장치의 공간 정보 생성 시스템 | |
Luttrell IV | Data Collection and Machine Learning Methods for Automated Pedestrian Facility Detection and Mensuration | |
WO2023053485A1 (ja) | 情報処理装置、情報処理方法および情報処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |