CN117456130A - 一种场景模型构建方法 - Google Patents
一种场景模型构建方法 Download PDFInfo
- Publication number
- CN117456130A CN117456130A CN202311773407.3A CN202311773407A CN117456130A CN 117456130 A CN117456130 A CN 117456130A CN 202311773407 A CN202311773407 A CN 202311773407A CN 117456130 A CN117456130 A CN 117456130A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- preset
- initial offset
- coefficient
- offset coefficient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010276 construction Methods 0.000 title claims abstract description 84
- 238000000034 method Methods 0.000 claims abstract description 30
- 238000012937 correction Methods 0.000 claims description 33
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 238000001514 detection method Methods 0.000 claims description 7
- 230000000694 effects Effects 0.000 claims description 7
- 230000008447 perception Effects 0.000 claims description 7
- 238000000926 separation method Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 7
- 238000013095 identification testing Methods 0.000 claims description 5
- 238000013135 deep learning Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 230000003068 static effect Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 9
- 230000009286 beneficial effect Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000004088 simulation Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Abstract
本发明涉及计算机视觉技术领域,公开了一种场景模型构建方法,获取实际场景的区域信息,并基于区域信息判断实际场景是否满足预设构建条件;若实际场景满足预设构建条件,则控制图像采集设备在实际场景中移动,并在移动过程中实时获取图像采集设备的位置信息和实际场景的第一点云;获取与第一点云对应的历史点云,确定第一点云和历史点云之间的相似度值,并根据相似度值确定第一点云的偏移状态;基于第一点云的偏移状态得到第二点云,并基于第二点云构建场景模型,本发明可以提升场景模型的构建精准度,有效提升场景模型构建真实感,保证了场景模型生成的可行性与准确率,可以给用户呈现更好的展示体验,提高用户的使用感受度。
Description
技术领域
本发明涉及计算机视觉技术领域,特别是涉及一种场景模型构建方法。
背景技术
场景模型技术是近年来仿真技术的一个重要方向,它不断发展和完善,迅速在各个领域和行业都得到了广泛应用,对人们的知觉体验有着良好的增强作用。场景模型是仿真技术与计算机图形学、人机接口技术、多媒体技术、传感技术、网络技术等多种技术的集合创建的虚拟空间,场景模型是由计算机生成的、实时动态的三维立体逼真图像。
作为街景店车制造商,每天都要接待大量的用户,为了满足用户的各种需求,需要通过场景模型向用户进行产品展示,但是随着人工智能技术的飞速发展,对于场景模型的要求越来越高,因此,为了提升场景模型的真实感,生成更加真实的场景模型已经成为关键点。但是,目前的大多数车辆场景模型构建缺乏真实感,导致用户体验较差。
因此,如何提供一种场景模型构建方法,是目前有待解决的技术问题。
发明内容
本发明实施例提供一种场景模型构建方法,用以解决现有技术中无法保证场景模型构建精准性,无法有效提升场景模型构建真实感和可行性的技术问题。
为了实现上述目的,本发明提供了一种场景模型构建方法,所述方法包括:
获取实际场景的区域信息,并基于所述区域信息判断所述实际场景是否满足预设构建条件;
若所述实际场景满足预设构建条件,则控制图像采集设备在所述实际场景中移动,并在移动过程中实时获取所述图像采集设备的位置信息和所述实际场景的第一点云;
获取与所述第一点云对应的历史点云,确定所述第一点云和所述历史点云之间的相似度值,并根据所述相似度值确定所述第一点云的偏移状态;
基于所述第一点云的偏移状态得到第二点云,并基于所述第二点云构建场景模型。
在其中一个实施例中,在获取实际场景的区域信息,并基于所述区域信息判断所述实际场景是否满足预设构建条件时,包括:
将所述区域信息作为输入,构建实际场景动态感知神经网络;
提取所述区域信息中的目标数据;
基于深度学习的点云目标检测算法对所述目标数据进行特征提取,实现目标类别识别并赋予对应候选框,从而得到若干目标帧;
根据所述目标帧,获取对应动态干扰物和静态干扰物的数目以及大小参数,并结合干扰物识别测试指标对干扰物识别效果进行确定;
利用预设数量的所述目标帧作为训练样本,对所述实际场景动态感知神经网络进行训练得到实际场景动态感知模型,计算得到所述实际场景的构建系数;
根据所述实际场景的构建系数判断所述实际场景是否满足预设构建条件,
当所述实际场景的构建系数大于或等于预设构建系数时,则判断所述实际场景满足预设构建条件;
当所述实际场景的构建系数小于所述预设构建系数时,则判断所述实际场景不满足预设构建条件。
在其中一个实施例中,在计算得到所述实际场景的构建系数时,包括:
根据下式计算所述实际场景的构建系数:
;
其中,Li为实际场景的构建系数,Pi为实际场景的平整度,
а1为实际场景的平整度的影响权重,di为实际场景中干扰物的面积大小,Di为实际场景的面积大小,а2为实际场景中干扰物的面积大小的影响权重,δ为在计算构建系数的过程中产生的损耗因子。
在其中一个实施例中,在确定所述第一点云和所述历史点云之间的相似度值,并根据所述相似度值确定所述第一点云的偏移状态时,包括:
根据所述相似度值确定对应的预设相似度值,并基于所述相似度值和所述预设相似度值之间的关系对所述第一点云生成偏移状态标识,
当所述相似度值小于或等于所述预设相似度值时,则对所述第一点云生成第一偏移状态标识;
当所述相似度值大于所述预设相似度值时,则对所述第一点云生成第二偏移状态标识。
在其中一个实施例中,在基于所述第一点云的偏移状态得到第二点云时,包括:
当所述第一点云携带有所述第二偏移状态标识时,则将所述第一点云作为所述第二点云;
当所述第一点云携带有所述第一偏移状态标识时,则获取所述第一点云和所述历史点云之间的间隔距离A,并根据所述间隔距离A设定所述第一点云的初始偏移系数。
在其中一个实施例中,在根据所述间隔距离A设定所述第一点云的初始偏移系数时,包括:
预设间隔距离矩阵B,设定B(B1,B2,B3,B4),其中,B1为第一预设间隔距离,B2为第二预设间隔距离,B3为第三预设间隔距离,B4为第四预设间隔距离,且B1<B2<B3<B4;
预设第一点云的初始偏移系数矩阵C,设定C(C1,C2,C3,C4,C5),其中,C1为第一预设初始偏移系数,C2为第二预设初始偏移系数,C3为第三预设初始偏移系数,C4为第四预设初始偏移系数,C5为第五预设初始偏移系数,且C1<C2<C3<C4<C5;
根据所述间隔距离A与各预设间隔距离之间的关系设定所述第一点云的初始偏移系数:
当A<B1时,选定所述第一预设初始偏移系数C1作为所述第一点云的初始偏移系数;
当B1≤A<B2时,选定所述第二预设初始偏移系数C2作为所述第一点云的初始偏移系数;
当B2≤A<B3时,选定所述第三预设初始偏移系数C3作为所述第一点云的初始偏移系数;
当B3≤A<B4时,选定所述第四预设初始偏移系数C4作为所述第一点云的初始偏移系数;
当B4≤A时,选定所述第五预设初始偏移系数C5作为所述第一点云的初始偏移系数。
在其中一个实施例中,在根据所述间隔距离A设定所述第一点云的初始偏移系数之后,还包括:
获取所述第一点云的第一曲率K1,获取所述历史点云的第二曲率K2;
计算所述第一曲率K1和所述第二曲率K2之间的曲率差值
∣K1-K2∣;
根据所述曲率差值∣K1-K2∣对所述第一点云的初始偏移系数进行修正,并将修正后的初始偏移系数作为所述第一点云的目标偏移系数;
基于所述目标偏移系数对所述第一点云的坐标进行转换,并得到所述第二点云。
在其中一个实施例中,在根据所述曲率差值∣K1-K2∣对所述第一点云的初始偏移系数进行修正时,包括:
预设曲率差值矩阵G,设定G(G1,G2,G3,G4),其中,G1为第一预设曲率差值,G2为第二预设曲率差值,G3为第三预设曲率差值,G4为第四预设曲率差值,且G1<G2<G3<G4;
预设第一点云的初始偏移系数修正系数矩阵h,设定h(h1,h2,h3,h4,h5),其中,h1为第一预设初始偏移系数修正系数,h2为第二预设初始偏移系数修正系数,h3为第三预设初始偏移系数修正系数,h4为第四预设初始偏移系数修正系数,h5为第五预设初始偏移系数修正系数,且0.8<h1<h2<h3<h4<h5<1.2;
在将所述第一点云的初始偏移系数设定为第i预设初始偏移系数Ci时,i=1,2,3,4,5,根据所述曲率差值∣K1-K2∣与各预设曲率差值之间的关系对所述第一点云的初始偏移系数进行修正:
当∣K1-K2∣<G1时,选定所述第一预设初始偏移系数修正系数h1对所述第i预设初始偏移系数Ci进行修正,修正后的第一点云的初始偏移系数为Ci*h1;
当G1≤∣K1-K2∣<G2时,选定所述第二预设初始偏移系数修正系数h2对所述第i预设初始偏移系数Ci进行修正,修正后的第一点云的初始偏移系数为Ci*h2;
当G2≤∣K1-K2∣<G3时,选定所述第三预设初始偏移系数修正系数h3对所述第i预设初始偏移系数Ci进行修正,修正后的第一点云的初始偏移系数为Ci*h3;
当G3≤∣K1-K2∣<G4时,选定所述第四预设初始偏移系数修正系数h4对所述第i预设初始偏移系数Ci进行修正,修正后的第一点云的初始偏移系数为Ci*h4;
当G4≤∣K1-K2∣时,选定所述第五预设初始偏移系数修正系数h5对所述第i预设初始偏移系数Ci进行修正,修正后的第一点云的初始偏移系数为Ci*h5。
在其中一个实施例中,在基于所述第一点云的偏移状态得到第二点云,并基于所述第二点云构建场景模型时,包括:
基于表面重建算法对所述第二点云进行表面重建处理,生成与所述第二点云相对应的网格模型;
根据所述网格模型的网格的位置信息生成所述网格的贴图;
将所述贴图设置在对应的网格处,并生成所述场景模型。
本发明提供了一种场景模型构建方法,相较现有技术,具有以下有益效果:
本发明公开了一种场景模型构建方法,获取实际场景的区域信息,并基于区域信息判断实际场景是否满足预设构建条件;若实际场景满足预设构建条件,则控制图像采集设备在实际场景中移动,并在移动过程中实时获取图像采集设备的位置信息和实际场景的第一点云;获取与第一点云对应的历史点云,确定第一点云和历史点云之间的相似度值,并根据相似度值确定第一点云的偏移状态;基于第一点云的偏移状态得到第二点云,并基于第二点云构建场景模型,本发明可以提升场景模型的构建精准度,有效的提升场景模型构建后的真实感,保证了场景模型生成的可行性与准确率,可以为用户呈现更好的展示效果,提升场景模型的展示体验,并提高用户的使用感受。
附图说明
图1示出了本发明实施例中一种场景模型构建方法的流程示意图;
图2示出了本发明实施例中判断实际场景是否满足预设构建条件的流程示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式做进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
在本申请的描述中,需要理解的是,术语“中心”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。
术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本申请的描述中,除非另有说明,“多个”的含义是两个或两个以上。
在本申请的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体的连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本申请中的具体含义。
下文是结合附图对本发明的优选的实施例说明。
如图1所示,本发明的实施例公开了一种场景模型构建方法,所述方法包括:
S110:获取实际场景的区域信息,并基于所述区域信息判断所述实际场景是否满足预设构建条件。
结合图2所示,在本申请的一些实施例中,在获取实际场景的区域信息,并基于所述区域信息判断所述实际场景是否满足预设构建条件时,包括以下步骤:
S111:将所述区域信息作为输入,构建实际场景动态感知神经网络;
S112:提取所述区域信息中的目标数据;
S113:基于深度学习的点云目标检测算法对所述目标数据进行特征提取,实现目标类别识别并赋予对应候选框,从而得到若干目标帧;
S114:根据所述目标帧,获取对应动态干扰物和静态干扰物的数目以及大小参数,并结合干扰物识别测试指标对干扰物识别效果进行确定;
S115:利用预设数量的所述目标帧作为训练样本,对所述实际场景动态感知神经网络进行训练得到实际场景动态感知模型,计算得到所述实际场景的构建系数;
本实施例中,预设数量可以根据实际情况进行设置,满足实际场景动态感知神经网络的训练需求即可。
S116:根据所述实际场景的构建系数判断所述实际场景是否满足预设构建条件,
当所述实际场景的构建系数大于或等于预设构建系数时,则判断所述实际场景满足预设构建条件;
当所述实际场景的构建系数小于所述预设构建系数时,则判断所述实际场景不满足预设构建条件。
在计算得到所述实际场景的构建系数时,包括:
根据下式计算所述实际场景的构建系数:
;
其中,Li为实际场景的构建系数,Pi为实际场景的平整度,
а1为实际场景的平整度的影响权重,di为实际场景中干扰物的面积大小,Di为实际场景的面积大小,а2为实际场景中干扰物的面积大小的影响权重,δ为在计算构建系数的过程中产生的损耗因子。
本实施例中,区域信息是指实际场景所在区域的物体信息或者其他环境信息。
本实施例中,目标数据是指从区域信息中提取出来的,如车辆、导购台等信息。
本实施例中,目标类别主要包括动态干扰物和静态干扰物,其中静态干扰物如桌子和椅子,动态干扰物一般是指运动的行人和行驶车辆等。
本实施例中,目标帧指的是基于深度学习的点云目标检测算法对目标数据进行特征提取,目标类别识别并赋予对应候选框后得到的帧图像。
本实施例中,干扰物识别效果是通过干扰物识别测试指标确定的,其中干扰物识别测试指标包括干扰物的正检率、误检率以及漏检率。
上述技术方案的有益效果是:本实施例通过根据实际场景的构建系数判断实际场景是否满足预设构建条件,进而可以为场景模型的构建奠定基础,保证场景模型的精准性,避免引入不必要的干扰物。
S120:若所述实际场景满足预设构建条件,则控制图像采集设备在所述实际场景中移动,并在移动过程中实时获取所述图像采集设备的位置信息和所述实际场景的第一点云。
本实施例中,图像采集设备可为安装在移动机器人上的深度相机、激光雷达传感器和工控机,或者可为头戴式扫描仪,或者可为手持式扫描仪。
本实施例中,点云是一个数据集,数据集中的每个点代表一组X、Y、Z几何坐标和一个强度值,这个强度值根据物体表面反射率记录返回信号的强度,当这些点组合在一起时,就会形成一个点云。
S130:获取与所述第一点云对应的历史点云,确定所述第一点云和所述历史点云之间的相似度值,并根据所述相似度值确定所述第一点云的偏移状态。
在本申请的一些实施例中,在确定所述第一点云和所述历史点云之间的相似度值,并根据所述相似度值确定所述第一点云的偏移状态时,包括:
根据所述相似度值确定对应的预设相似度值,并基于所述相似度值和所述预设相似度值之间的关系对所述第一点云生成偏移状态标识,
当所述相似度值小于或等于所述预设相似度值时,则对所述第一点云生成第一偏移状态标识;
当所述相似度值大于所述预设相似度值时,则对所述第一点云生成第二偏移状态标识。
本实施例中,两个点云之间相似度值的计算方法冗长且成熟,此处不做过多介绍。
本实施例中,预设相似度值可以根据实际情况进行设置,在此不作具体限定,如设置为90%、92%或者93%等。
本实施例中,当相似度值小于或等于预设相似度值时,则说明当前的点云偏差较大,需要进行调整,反之,当相似度值大于预设相似度值时,则说明当前的点云偏差较小,不需要进行调整。
上述技术方案的有益效果是:本实施例通过相似度值和预设相似度值之间的关系对第一点云生成偏移状态标识,进而可以为点云是否偏移提供可靠的判断依据,进一步保证场景模型的构建精准度。
S140:基于所述第一点云的偏移状态得到第二点云,并基于所述第二点云构建场景模型。
在本申请的一些实施例中,在基于所述第一点云的偏移状态得到第二点云时,包括:
当所述第一点云携带有所述第二偏移状态标识时,则将所述第一点云作为所述第二点云;
当所述第一点云携带有所述第一偏移状态标识时,则获取所述第一点云和所述历史点云之间的间隔距离A,并根据所述间隔距离A设定所述第一点云的初始偏移系数。
在本申请的一些实施例中,在根据所述间隔距离A设定所述第一点云的初始偏移系数时,包括:
预设间隔距离矩阵B,设定B(B1,B2,B3,B4),其中,B1为第一预设间隔距离,B2为第二预设间隔距离,B3为第三预设间隔距离,B4为第四预设间隔距离,且B1<B2<B3<B4;
预设第一点云的初始偏移系数矩阵C,设定C(C1,C2,C3,C4,C5),其中,C1为第一预设初始偏移系数,C2为第二预设初始偏移系数,C3为第三预设初始偏移系数,C4为第四预设初始偏移系数,C5为第五预设初始偏移系数,且C1<C2<C3<C4<C5。
根据所述间隔距离A与各预设间隔距离之间的关系设定所述第一点云的初始偏移系数:
当A<B1时,选定所述第一预设初始偏移系数C1作为所述第一点云的初始偏移系数;
当B1≤A<B2时,选定所述第二预设初始偏移系数C2作为所述第一点云的初始偏移系数;
当B2≤A<B3时,选定所述第三预设初始偏移系数C3作为所述第一点云的初始偏移系数;
当B3≤A<B4时,选定所述第四预设初始偏移系数C4作为所述第一点云的初始偏移系数;
当B4≤A时,选定所述第五预设初始偏移系数C5作为所述第一点云的初始偏移系数。
本实施例中,间隔距离A具体是指第一点云和历史点云之间的最邻近距离。
本实施例中,偏移系数是点云坐标的平移依据,如点云的位置坐标为(100,200,300),根据偏移系数对点云进行平移后,点云的位置坐标为(90,190,290)。
上述实施例的有益效果是:根据间隔距离A与各预设间隔距离之间的关系设定第一点云的初始偏移系数,通过设定第一点云的初始偏移系数,进而可以使得第一点云进行平移,降低场景模型的构建误差。
在本申请的一些实施例中,在根据所述间隔距离A设定所述第一点云的初始偏移系数之后,还包括:
获取所述第一点云的第一曲率K1,获取所述历史点云的第二曲率K2;
计算所述第一曲率K1和所述第二曲率K2之间的曲率差值
∣K1-K2∣;
根据所述曲率差值∣K1-K2∣对所述第一点云的初始偏移系数进行修正,并将修正后的初始偏移系数作为所述第一点云的目标偏移系数;
基于所述目标偏移系数对所述第一点云的坐标进行转换,并得到所述第二点云。
本实施例中,点云的曲率是点云表面形状的度量,它衡量了曲面在每个点处的弯曲程度。
在本申请的一些实施例中,在根据所述曲率差值∣K1-K2∣对所述第一点云的初始偏移系数进行修正时,包括:
预设曲率差值矩阵G,设定G(G1,G2,G3,G4),其中,G1为第一预设曲率差值,G2为第二预设曲率差值,G3为第三预设曲率差值,G4为第四预设曲率差值,且G1<G2<G3<G4;
预设第一点云的初始偏移系数修正系数矩阵h,设定h(h1,h2,h3,h4,h5),其中,h1为第一预设初始偏移系数修正系数,h2为第二预设初始偏移系数修正系数,h3为第三预设初始偏移系数修正系数,h4为第四预设初始偏移系数修正系数,h5为第五预设初始偏移系数修正系数,且0.8<h1<h2<h3<h4<h5<1.2。
在将所述第一点云的初始偏移系数设定为第i预设初始偏移系数Ci时,i=1,2,3,4,5,根据所述曲率差值∣K1-K2∣与各预设曲率差值之间的关系对所述第一点云的初始偏移系数进行修正:
当∣K1-K2∣<G1时,选定所述第一预设初始偏移系数修正系数h1对所述第i预设初始偏移系数Ci进行修正,修正后的第一点云的初始偏移系数为Ci*h1;
当G1≤∣K1-K2∣<G2时,选定所述第二预设初始偏移系数修正系数h2对所述第i预设初始偏移系数Ci进行修正,修正后的第一点云的初始偏移系数为Ci*h2;
当G2≤∣K1-K2∣<G3时,选定所述第三预设初始偏移系数修正系数h3对所述第i预设初始偏移系数Ci进行修正,修正后的第一点云的初始偏移系数为Ci*h3;
当G3≤∣K1-K2∣<G4时,选定所述第四预设初始偏移系数修正系数h4对所述第i预设初始偏移系数Ci进行修正,修正后的第一点云的初始偏移系数为Ci*h4;
当G4≤∣K1-K2∣时,选定所述第五预设初始偏移系数修正系数h5对所述第i预设初始偏移系数Ci进行修正,修正后的第一点云的初始偏移系数为Ci*h5。
上述实施例的有益效果是:本实施例在将第一点云的初始偏移系数设定为第i预设初始偏移系数Ci时,i=1,2,3,4,5,根据曲率差值∣K1-K2∣与各预设曲率差值之间的关系对第一点云的初始偏移系数进行修正,本实施例通过对第一点云的初始偏移系数进行修正,得到目标偏移系数,最终通过目标偏移系数对第一点云的坐标进行转换,并得到第二点云,进而有效的提高了场景模型的展示效果,保证了场景模型的真实感,提升了用户体验。
在本申请的一些实施例中,在基于所述第一点云的偏移状态得到第二点云,并基于所述第二点云构建场景模型时,包括:
基于表面重建算法对所述第二点云进行表面重建处理,生成与所述第二点云相对应的网格模型;
根据所述网格模型的网格的位置信息生成所述网格的贴图;
将所述贴图设置在对应的网格处,并生成所述场景模型。
本实施例中,表面重建算法是三维重建领域中的一种算法,它通过已知的点云数据来重建物体的表面形状。
上述实施例的有益效果是:本实施例有效的解决了现有的场景模型建立方法容易引入累积误差,导致场景模型存在扭曲比较严重的问题,提高了场景模型的建模效率和准确度,可以给用户呈现更好的展示体验,提高了客户的使用感受度。
在上述实施方式的描述中,具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
虽然在上文中已经参考实施例对本发明进行了描述,然而在不脱离本发明的范围的情况下,可以对其进行各种改进并且可以用等效物替换其中的部件。尤其是,只要不存在结构冲突,本发明所披露的实施例中的各项特征均可通过任意方式相互结合起来使用,在本说明书中未对这些组合的情况进行全部的描述仅仅是出于省略篇幅和节约资源的考虑。因此,本发明并不局限于文中公开的特定实施例,而是包括落入权利要求的范围内的所有技术方案。
本领域普通技术人员可以理解:以上仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种场景模型构建方法,其特征在于,所述方法包括:
获取实际场景的区域信息,并基于所述区域信息判断所述实际场景是否满足预设构建条件;
若所述实际场景满足预设构建条件,则控制图像采集设备在所述实际场景中移动,并在移动过程中实时获取所述图像采集设备的位置信息和所述实际场景的第一点云;
获取与所述第一点云对应的历史点云,确定所述第一点云和所述历史点云之间的相似度值,并根据所述相似度值确定所述第一点云的偏移状态;
基于所述第一点云的偏移状态得到第二点云,并基于所述第二点云构建场景模型。
2.根据权利要求1所述的场景模型构建方法,其特征在于,在获取实际场景的区域信息,并基于所述区域信息判断所述实际场景是否满足预设构建条件时,包括:
将所述区域信息作为输入,构建实际场景动态感知神经网络;
提取所述区域信息中的目标数据;
基于深度学习的点云目标检测算法对所述目标数据进行特征提取,实现目标类别识别并赋予对应候选框,从而得到若干目标帧;
根据所述目标帧,获取对应动态干扰物和静态干扰物的数目以及大小参数,并结合干扰物识别测试指标对干扰物识别效果进行确定;
利用预设数量的所述目标帧作为训练样本,对所述实际场景动态感知神经网络进行训练得到实际场景动态感知模型,计算得到所述实际场景的构建系数;
根据所述实际场景的构建系数判断所述实际场景是否满足预设构建条件,
当所述实际场景的构建系数大于或等于预设构建系数时,则判断所述实际场景满足预设构建条件;
当所述实际场景的构建系数小于所述预设构建系数时,则判断所述实际场景不满足预设构建条件。
3.根据权利要求2所述的场景模型构建方法,其特征在于,在计算得到所述实际场景的构建系数时,包括:
根据下式计算所述实际场景的构建系数:
;
其中,Li为实际场景的构建系数,Pi为实际场景的平整度,
а1为实际场景的平整度的影响权重,di为实际场景中干扰物的面积大小,Di为实际场景的面积大小,а2为实际场景中干扰物的面积大小的影响权重,δ为在计算构建系数的过程中产生的损耗因子。
4.根据权利要求1所述的场景模型构建方法,其特征在于,在确定所述第一点云和所述历史点云之间的相似度值,并根据所述相似度值确定所述第一点云的偏移状态时,包括:
根据所述相似度值确定对应的预设相似度值,并基于所述相似度值和所述预设相似度值之间的关系对所述第一点云生成偏移状态标识,
当所述相似度值小于或等于所述预设相似度值时,则对所述第一点云生成第一偏移状态标识;
当所述相似度值大于所述预设相似度值时,则对所述第一点云生成第二偏移状态标识。
5.根据权利要求4所述的场景模型构建方法,其特征在于,在基于所述第一点云的偏移状态得到第二点云时,包括:
当所述第一点云携带有所述第二偏移状态标识时,则将所述第一点云作为所述第二点云;
当所述第一点云携带有所述第一偏移状态标识时,则获取所述第一点云和所述历史点云之间的间隔距离A,并根据所述间隔距离A设定所述第一点云的初始偏移系数。
6.根据权利要求5所述的场景模型构建方法,其特征在于,在根据所述间隔距离A设定所述第一点云的初始偏移系数时,包括:
预设间隔距离矩阵B,设定B(B1,B2,B3,B4),其中,B1为第一预设间隔距离,B2为第二预设间隔距离,B3为第三预设间隔距离,B4为第四预设间隔距离,且B1<B2<B3<B4;
预设第一点云的初始偏移系数矩阵C,设定C(C1,C2,C3,C4,C5),其中,C1为第一预设初始偏移系数,C2为第二预设初始偏移系数,C3为第三预设初始偏移系数,C4为第四预设初始偏移系数,C5为第五预设初始偏移系数,且C1<C2<C3<C4<C5;
根据所述间隔距离A与各预设间隔距离之间的关系设定所述第一点云的初始偏移系数:
当A<B1时,选定所述第一预设初始偏移系数C1作为所述第一点云的初始偏移系数;
当B1≤A<B2时,选定所述第二预设初始偏移系数C2作为所述第一点云的初始偏移系数;
当B2≤A<B3时,选定所述第三预设初始偏移系数C3作为所述第一点云的初始偏移系数;
当B3≤A<B4时,选定所述第四预设初始偏移系数C4作为所述第一点云的初始偏移系数;
当B4≤A时,选定所述第五预设初始偏移系数C5作为所述第一点云的初始偏移系数。
7.根据权利要求6所述的场景模型构建方法,其特征在于,在根据所述间隔距离A设定所述第一点云的初始偏移系数之后,还包括:
获取所述第一点云的第一曲率K1,获取所述历史点云的第二曲率K2;
计算所述第一曲率K1和所述第二曲率K2之间的曲率差值
∣K1-K2∣;
根据所述曲率差值∣K1-K2∣对所述第一点云的初始偏移系数进行修正,并将修正后的初始偏移系数作为所述第一点云的目标偏移系数;
基于所述目标偏移系数对所述第一点云的坐标进行转换,并得到所述第二点云。
8.根据权利要求7所述的场景模型构建方法,其特征在于,在根据所述曲率差值∣K1-K2∣对所述第一点云的初始偏移系数进行修正时,包括:
预设曲率差值矩阵G,设定G(G1,G2,G3,G4),其中,G1为第一预设曲率差值,G2为第二预设曲率差值,G3为第三预设曲率差值,G4为第四预设曲率差值,且G1<G2<G3<G4;
预设第一点云的初始偏移系数修正系数矩阵h,设定h(h1,h2,h3,h4,h5),其中,h1为第一预设初始偏移系数修正系数,h2为第二预设初始偏移系数修正系数,h3为第三预设初始偏移系数修正系数,h4为第四预设初始偏移系数修正系数,h5为第五预设初始偏移系数修正系数,且0.8<h1<h2<h3<h4<h5<1.2;
在将所述第一点云的初始偏移系数设定为第i预设初始偏移系数Ci时,i=1,2,3,4,5,根据所述曲率差值∣K1-K2∣与各预设曲率差值之间的关系对所述第一点云的初始偏移系数进行修正:
当∣K1-K2∣<G1时,选定所述第一预设初始偏移系数修正系数h1对所述第i预设初始偏移系数Ci进行修正,修正后的第一点云的初始偏移系数为Ci*h1;
当G1≤∣K1-K2∣<G2时,选定所述第二预设初始偏移系数修正系数h2对所述第i预设初始偏移系数Ci进行修正,修正后的第一点云的初始偏移系数为Ci*h2;
当G2≤∣K1-K2∣<G3时,选定所述第三预设初始偏移系数修正系数h3对所述第i预设初始偏移系数Ci进行修正,修正后的第一点云的初始偏移系数为Ci*h3;
当G3≤∣K1-K2∣<G4时,选定所述第四预设初始偏移系数修正系数h4对所述第i预设初始偏移系数Ci进行修正,修正后的第一点云的初始偏移系数为Ci*h4;
当G4≤∣K1-K2∣时,选定所述第五预设初始偏移系数修正系数h5对所述第i预设初始偏移系数Ci进行修正,修正后的第一点云的初始偏移系数为Ci*h5。
9.根据权利要求1所述的场景模型构建方法,其特征在于,在基于所述第一点云的偏移状态得到第二点云,并基于所述第二点云构建场景模型时,包括:
基于表面重建算法对所述第二点云进行表面重建处理,生成与所述第二点云相对应的网格模型;
根据所述网格模型的网格的位置信息生成所述网格的贴图;
将所述贴图设置在对应的网格处,并生成所述场景模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311773407.3A CN117456130B (zh) | 2023-12-22 | 2023-12-22 | 一种场景模型构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311773407.3A CN117456130B (zh) | 2023-12-22 | 2023-12-22 | 一种场景模型构建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117456130A true CN117456130A (zh) | 2024-01-26 |
CN117456130B CN117456130B (zh) | 2024-03-01 |
Family
ID=89583989
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311773407.3A Active CN117456130B (zh) | 2023-12-22 | 2023-12-22 | 一种场景模型构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117456130B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107958482A (zh) * | 2016-10-17 | 2018-04-24 | 杭州海康威视数字技术股份有限公司 | 一种三维场景模型构建方法及装置 |
US20200074729A1 (en) * | 2018-08-30 | 2020-03-05 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and device for generating three-dimensional scene map |
CN115205489A (zh) * | 2022-06-06 | 2022-10-18 | 广州中思人工智能科技有限公司 | 一种大场景下的三维重建方法、系统及装置 |
WO2023164845A1 (zh) * | 2022-03-02 | 2023-09-07 | 深圳市大疆创新科技有限公司 | 三维重建方法、装置、系统及存储介质 |
CN117132964A (zh) * | 2023-08-30 | 2023-11-28 | 北京百度网讯科技有限公司 | 模型训练方法、点云编码方法、对象处理方法及装置 |
CN117237912A (zh) * | 2023-08-24 | 2023-12-15 | 广州汽车集团股份有限公司 | 目标检测模型的训练方法、装置、计算机设备及存储介质 |
-
2023
- 2023-12-22 CN CN202311773407.3A patent/CN117456130B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107958482A (zh) * | 2016-10-17 | 2018-04-24 | 杭州海康威视数字技术股份有限公司 | 一种三维场景模型构建方法及装置 |
US20190272671A1 (en) * | 2016-10-17 | 2019-09-05 | Hangzhou Hikvision Digital Technology Co., Ltd. | Method and device for constructing 3d scene model |
US20200074729A1 (en) * | 2018-08-30 | 2020-03-05 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and device for generating three-dimensional scene map |
WO2023164845A1 (zh) * | 2022-03-02 | 2023-09-07 | 深圳市大疆创新科技有限公司 | 三维重建方法、装置、系统及存储介质 |
CN115205489A (zh) * | 2022-06-06 | 2022-10-18 | 广州中思人工智能科技有限公司 | 一种大场景下的三维重建方法、系统及装置 |
CN117237912A (zh) * | 2023-08-24 | 2023-12-15 | 广州汽车集团股份有限公司 | 目标检测模型的训练方法、装置、计算机设备及存储介质 |
CN117132964A (zh) * | 2023-08-30 | 2023-11-28 | 北京百度网讯科技有限公司 | 模型训练方法、点云编码方法、对象处理方法及装置 |
Non-Patent Citations (2)
Title |
---|
NUO CHENG; XIAOHAN LI; CHUANYU LUO; XIAOTONG LIU; HAN LI; SHENGGUANG LEI; PU LI: "PSCO: A Point Cloud Scene Classification Model Based on Contrast Learning", 2023 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP), 11 September 2023 (2023-09-11) * |
李钦;游雄;李科;汤奋;: "基于相似矩阵自适应加权的实景图像相似度计算方法", 模式识别与人工智能, no. 11, 15 November 2017 (2017-11-15) * |
Also Published As
Publication number | Publication date |
---|---|
CN117456130B (zh) | 2024-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104899563A (zh) | 一种二维人脸关键特征点定位方法及系统 | |
CN109064549B (zh) | 标志点检测模型生成方法及标志点检测方法 | |
CN110322564B (zh) | 一种适用于vr/ar的变电站运行环境的三维模型构建方法 | |
CN105574905B (zh) | 一种三维激光点云数据的二维图像化表述方法 | |
CN110443879B (zh) | 一种基于神经网络的透视误差补偿方法 | |
CN105930795A (zh) | 一种基于人体骨骼关节点间空间向量的行走状态识别方法 | |
CN106875437A (zh) | 一种面向rgbd三维重建的关键帧提取方法 | |
CN112818925A (zh) | 一种城市建筑和树冠识别方法 | |
CN110276768A (zh) | 图像分割方法、图像分割装置、图像分割设备及介质 | |
CN108428248A (zh) | 车窗定位方法、系统、设备及存储介质 | |
CN108664860A (zh) | 房间平面图的识别方法及装置 | |
CN106709432B (zh) | 基于双目立体视觉的人头检测计数方法 | |
CN110007764B (zh) | 一种手势骨架识别方法、装置、系统及存储介质 | |
WO2020228224A1 (zh) | 一种人脸部位测距方法、装置及车载终端 | |
CN108288299A (zh) | 一种表情数据驱动三维形象表情的方法及系统 | |
EP3825804A1 (en) | Map construction method, apparatus, storage medium and electronic device | |
CN117456130B (zh) | 一种场景模型构建方法 | |
CN109931940A (zh) | 一种基于单目视觉的机器人定位置信度评估方法 | |
CN110659440B (zh) | 一种点云数据大场景的不同细节层次快速动态显示方法 | |
CN109920049B (zh) | 边缘信息辅助精细三维人脸重建方法及系统 | |
CN107240133A (zh) | 一种立体视觉映射模型建立方法 | |
CN111898552A (zh) | 一种判别人员关注目标物的方法、装置及计算机设备 | |
CN111768476A (zh) | 一种基于网格变形的表情动画重定向方法及系统 | |
CN110189283A (zh) | 基于语义分割图的遥感图像dsm融合方法 | |
CN105513071A (zh) | 一种地形图图式质量评价方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |