CN117710709A - 光影秀的数据采集方法、装置、设备及存储介质 - Google Patents
光影秀的数据采集方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN117710709A CN117710709A CN202410144364.0A CN202410144364A CN117710709A CN 117710709 A CN117710709 A CN 117710709A CN 202410144364 A CN202410144364 A CN 202410144364A CN 117710709 A CN117710709 A CN 117710709A
- Authority
- CN
- China
- Prior art keywords
- data
- preset
- target area
- point cloud
- panoramic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 74
- 238000003860 storage Methods 0.000 title abstract description 11
- 238000012360 testing method Methods 0.000 claims abstract description 60
- 238000004590 computer program Methods 0.000 claims description 8
- 238000013480 data collection Methods 0.000 claims description 2
- 238000009434 installation Methods 0.000 description 9
- 238000013507 mapping Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000004927 fusion Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 240000005528 Arctium lappa Species 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000011065 in-situ storage Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000007596 consolidation process Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000005553 drilling Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000007789 sealing Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 238000004804 winding Methods 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本申请公开了光影秀的数据采集方法、装置、设备及存储介质,该方法包括:获取目标区域的航拍数据、导航位置数据、全景数据和测试数据;将航拍数据、全景数据与测试数据进行融合,得到现场点云数据;判断现场点云数据与导航位置数据是否匹配;若现场点云数据与导航位置数据匹配成功,则将现场点云数据作为光影秀的目标采集数据。本申请能够提高光影秀数据采集的准确性。
Description
技术领域
本申请涉及光影秀数据处理技术领域,特别是涉及光影秀的数据采集方法、装置、设备及存储介质。
背景技术
光影秀(Light show)是一种通过灯光和投影技术创造出的视觉表演形式。它通过在建筑物、景点、舞台等特定场景上使用灯光、投影仪等设备,将图案、动画、影像等投射在特定的表演区域上,以营造出精彩而独特的视觉效果。
光影秀所需的数据通常需要在特定的场地或设备上进行采集,例如特定的舞台、灯光设备等。由于场地、设备等资源的限制以及方便制作人员更好地控制和调整光影秀的效果,因此,传统的数据采集方法都比较单一(比如采集卫星影像数据),但是单一的采集方法使得采集的数据不连续,导致提供的现场信息不全,对后期定位识别造成严重困扰,比如识别率低,定位差,信号漂移等问题。
发明内容
本申请提供了光影秀的数据采集方法、装置、设备及存储介质,能够提高光影秀数据采集的准确性。
第一方面,本申请提供一种光影秀的数据采集方法,方法包括:
获取目标区域的航拍数据、导航位置数据、全景数据和测试数据;
将航拍数据、全景数据与测试数据进行融合,得到现场点云数据;
判断现场点云数据与导航位置数据是否匹配;
若现场点云数据与导航位置数据匹配成功,则将现场点云数据作为光影秀的目标采集数据。
其进一步的技术方案为,方法还包括:
获取预设规划路线;
获取目标区域的航拍数据和导航位置数据;以及获取目标区域的全景数据和测试数据,包括:
按照预设规划路线获取目标区域的航拍数据、导航位置数据、全景数据和测试数据。
其进一步的技术方案为,获取预设规划路线,包括:
从电子地图获取待规划地点的截图;
利用绘图工具在截图上进行绘测,得到包含待规划地点的目标区域的矩形面积;
当目标区域的矩形面积超过预设阈值,则将目标区域划分为多个子区域;
按照预设绘图原则获取每一子区域对应的预设规划路线。
其进一步的技术方案为,按照预设绘图原则获取每一子区域对应的预设规划路线,包括:
当子区域的面积超过预设采集面积时,则先采集子区域的整体框架,再采集子区域的局部细节。
其进一步的技术方案为,按照预设绘图原则获取每一子区域对应的预设规划路线,包括:
当子区域为多层楼建筑时,则采集每一层楼对应的拍摄视频,再基于扶梯采集所有楼层连接的视频。
其进一步的技术方案为,按照预设绘图原则获取每一子区域对应的预设规划路线,还包括:
当子区域为巷道时,若巷道的左右宽度未超过预设距离,则直接从中间进行采集;若巷道的左右宽度超过预设距离,则在预设墙壁阈值内分别靠近两侧墙壁进行采集。
其进一步的技术方案为,利用运动相机设备在360全景模式下对目标区域进行至少两次拍摄,得到目标区域的全景数据。
其进一步的技术方案为,判断现场点云数据与导航位置数据是否匹配,还包括:
若现场点云数据与导航位置数据匹配未成功,则重新获取目标区域的航拍数据、全景数据、测试数据,直至重新获取的航拍数据、全景数据和测试数据进行融合后得到的现场点云数据与导航位置数据匹配成功。
第二方面,本申请提供了一种光影秀的数据采集装置,光影秀的数据采集装置包括用于执行如上述方法的单元。
第三方面,本申请提供了一种电子设备,该电子设备包括存储器及处理器,该存储器上存储有计算机程序,用于执行如本申请上述任一项方法的步骤。
本申请的有益效果是:区别于现有技术的情况,本申请通过采集多元化数据如目标区域的航拍数据、导航位置数据、全景数据和测试数据,以提供更为全面和精确的现场信息。进一步,通过融合航拍数据、全景数据和测试数据,得到现场点云数据的方式,能够综合利用各种数据的优势,提升数据的质量和精度,以改善传统采用单一数据采集方法的不足,使得采集的数据更加全面和连续,并且将现场点云数据与导航位置数据进行匹配,可以确保数据在空间上的准确性和一致性,减少定位误差,进而解决定位差和信号漂移的问题。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。其中:
图1是本申请提供的光影秀的数据采集方法第一实施例的流程示意图;
图2是本申请提供的光影秀的数据采集方法第二实施例的流程示意图;
图3是本申请提供的光影秀的数据采集方法另一的流程示意图;
图4是本申请提供的电子设备一实施例的结构示意图;
图5是本申请提供的计算机可读存储介质一实施例的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。可以理解的是,此处所描述的具体实施例仅用于解释本申请,而非对本申请的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本申请相关的部分而非全部结构。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
光影秀(Light show)是一种通过灯光和投影技术创造出的视觉表演形式。它通过在建筑物、景点、舞台等特定场景上使用灯光、投影仪等设备,将图案、动画、影像等投射在特定的表演区域上,以营造出精彩而独特的视觉效果。
光影秀所需的数据通常需要在特定的场地或设备上进行采集,例如特定的舞台、灯光设备等。由于场地、设备等资源的限制以及方便制作人员更好地控制和调整光影秀的效果,因此,传统的数据采集方法都比较单一(比如采集卫星影像数据),但是单一的采集方法使得采集的数据不连续,导致提供的现场信息不全,对后期定位识别造成严重困扰,比如识别率低,定位差,信号漂移等问题。
因此,为了解决现有技术中因采用单一的采集方法使得采集的数据不连续,导致提供的现场信息不全,对后期定位识别造成严重困扰的技术问题,本申请提供了一种光影秀的数据采集方法,能够提高光影秀数据采集的准确性。具体参阅以下实施例。
下面对本申请提供的光影秀的数据采集方法进行详细的介绍。具体请参阅图1,图1是本申请提供的光影秀的数据采集方法第一实施例的流程示意图。方法包括:
步骤110:获取目标区域的航拍数据、导航位置数据、全景数据和测试数据。
其中,可以根据项目需求或用户请求确定感兴趣的目标区域。具体可以使用地理信息系统(GIS)工具或其他相关软件对区域进行选择。
具体地,可以使用无人机采用实时动态差分定位技术(Real Time Kinematic,RTK)与倾斜摄影相技术相结合实时获取目标区域的航拍数据。航拍数据可以包括影像数据、位置数据以及姿态数据等。
导航位置数据可以是目标区域的位置信息如经纬度信息,具体可以通过如GPS、北斗等导航系统进行获取。
其中,全景数据可以是景点的全部数据,涵盖了景点在360度全方位的空间信息和内容,测试数据是呈现给用户视角的重点景观数据,测试数据可以是部分景观(即景区内的重点景观),用于特定功能的测试或验证;或者,测试数据也可以是全部景观,涵盖景点的所有内容,用于更全面的测试和验证。
全景数据和测试数据都是以用户的视角为基准来呈现的,以提供最佳的用户体验和视角。
具体可以利用运动相机设备比如Gopro Max全景相机在360全景模式下对目标区域进行至少两次拍摄,得到目标区域的全景数据。
而测试数据的获取可以使用高端智能手机(比如iPhone手机)。
其中,在获取数据之前,可以先获取预设规划路线,按照预设规划路线获取目标区域的航拍数据和导航位置数据;以及获取目标区域的全景数据和测试数据。
具体可以是在PC端先获取目标区域的电子地图,比如根据需要规划的地点在各个地图供应商比如百度地图、腾讯地图、高德地图等的路线清晰情况来选择目标区域的电子地图;然后利用截图工具比如电脑自带的截图快捷键或者其他第三放截图工具对平面地图进行截图,截图后利用绘图工具(比如第三方的截图工具自带的绘画功能)在截取的图片上进行绘画,完成绘图后,为了将静态图像转换成动态的GIF格式,可以使用GIF制作工具对绘图进一步处理。其中,在Mac端,可以使用GIF Brewery,而在Windows端,可以使用LICEcap。这些工具可以将绘画后的静态图片制作成动态的GIF。
由于在使用平面地图时,对于需要进行路线规划或导航的地点,地图中的道路信息越是详尽和清晰,则越能帮助理解和规划这些地点的路线和位置。即这样的地图更有助于导航和路线规划。因此,本申请实施例优先选择能够详细且清晰表示所需规划地点的平面地图。
步骤120:将航拍数据、全景数据与测试数据进行融合,得到现场点云数据。
其中,在对航拍数据、全景数据与测试数据进行融合前,可以根据需要进行预处理,比如图像去噪、几何校正、数据格式转换等,以确保数据的一致性和准确性。
具体地,可以利用点云融合算法,将航拍数据、全景数据和测试数据进行融合。在融合过程中,算法可以根据数据的特征和属性,进行点云的匹配和拼接,生成现场点云数据。
在一些实施例中,可以对融合后的现场点云数据进行后处理,如去除冗余点、平滑处理、色彩映射等,以提升点云数据的质量。
步骤130:判断现场点云数据与导航位置数据是否匹配。
其中,可以利用坐标变换和配准算法,将现场点云数据与导航位置数据进行匹配判断。匹配过程中,算法可以根据位置数据和点云数据的空间关系,进行坐标变换,以使两者在空间上对齐。
步骤140:若现场点云数据与导航位置数据匹配成功,则将现场点云数据作为光影秀的目标采集数据。
其中,可以通过计算现场点云数据与导航位置数据之间的位置误差,如果误差值小于预定的阈值,则可以认为匹配成功。预定的阈值可以根据具体应用和需求进行设定,以确保匹配结果的准确性。
或者可以利用可视化技术,将现场点云数据与导航位置数据同时显示在同一坐标系中,如果两者在空间分布上一致,没有出现明显的错位或重叠,则可以判断现场点云数据与导航位置数据匹配成功。
在一些实施例中,若现场点云数据与导航位置数据匹配未成功,则重新获取目标区域的航拍数据、全景数据、测试数据,直至重新获取的航拍数据、全景数据和测试数据进行融合后得到的现场点云数据与导航位置数据匹配成功。
该实施例通过采集多元化数据如目标区域的航拍数据、导航位置数据、全景数据和测试数据,以提供更为全面和精确的现场信息。进一步,通过融合航拍数据、全景数据和测试数据,得到现场点云数据的方式,能够综合利用各种数据的优势,提升数据的质量和精度,以改善传统采用单一数据采集方法的不足,使得采集的数据更加全面和连续,并且将现场点云数据与导航位置数据进行匹配,可以确保数据在空间上的准确性和一致性,减少定位误差,进而解决定位差和信号漂移的问题。
在一些实施例中,为了避免在大范围内进行无目标的搜索,提高工作效率和路线规划的准确性,可以对目标区域进行适当地划分区域。具体请参阅图2,图2是本申请提供的光影秀的数据采集方法第二实施例的流程示意图。第二实施例可以包括以下步骤:
步骤210:从电子地图获取待规划地点的截图。
步骤220:利用绘图工具在截图上进行绘测,得到包含待规划地点的目标区域的矩形面积。
具体地,一般可以提前将需要规划路线的整个区域范围在电子地图中框选好,然后在电子地图上找到所需的区域范围即目标区域所在位置。
在一些具体的实施例中,一般在百度地图搜索时选中对应地点的名称比如中心公园,则百度地图自动框选出对应的区域范围。
利用百度地图右上角的工具箱中选择“工具箱"中的测距功能,使用该测距功能在地图上框选出一个包含整个目标区域的近似矩形,通过测量该矩形的边长,进而用边长×边长求得总体面积即矩形面积。
当然,也可以使用其他的电子地图如腾讯地图、高德地图等参照上述过程获取待规划地点的目标区域的矩形面积。
另外,在测量面积时,一般会提前预估目标区域的大致面积,若未进行面积的预估则可以根据实际情况的需要执行预估步骤。
步骤230:当目标区域的矩形面积超过预设阈值,则将目标区域划分为多个子区域。
其中,预设阈值可以人为根据实际情况进行设定,比如预设阈值可以为1万平方米、1.5万平方米等,每个子区域的面积尽量控制在1万平方米以内,优先范围为0.7-0.8万平方米。对于每个分区的面积可以利用上述测量整个场景面积的类似方法进行预估。
步骤240:按照预设绘图原则获取每一子区域对应的预设规划路线。
当目标区域划分为多个子区域之后,可以对整体划分后的子区域进行审核确认,若确认无误则可以开始绘制单个区域即子区域的路线。
其中,单个区域绘制行走路线的预设绘图原则包括以下几点:
(一):单个区域内每条路径需保证走两遍,当路线比较绕时,则可以走两遍以上(但尽量控制在两遍)。
(二):单个区域的绘制起点即是绘制终点,终点需要回到起点,与起点保持同方向,优选回到起点后还超过起点一段距离。
(三):大于6米的道路可以在道路两边都绘制路线。
(四):当采集的子区域面积超过预设采集面积时,则先采集子区域的整体框架,再采集子区域的局部细节。
其中,如果采集范围很大,而且又要采集一些识别点位的局部细节或者在整体线路上有一些“小分支”,则在走第一遍路径时,不能选择在拐出主路线进行分支或者在细节的地方一直绕,因为转圈多了导致严重的漂移。因此,可以先走一遍完整大框架,保证整体精度,然后在走第二遍途径到分支或者重要点位时再绕着该分支或者点位采集一些细节部分。即可以一圈一圈的绕着采集,先绕大圈,最后用大圈把小圈串起来,使得最终形成的轨迹环环相扣。
当采集的子区域比较窄时,例如宽度在6米以下,则可以不用绕圈,一直在中间走,回头后也是在中间走即可。
当子区域为多层楼建筑如多层楼大商场时,则采集每一层楼对应的拍摄视频,再基于扶梯采集所有楼层连接的视频。
当子区域为巷道时,若巷道的左右宽度未超过预设距离,则直接从中间进行采集;若巷道的左右宽度超过预设距离,则在预设墙壁阈值内分别靠近两侧墙壁进行采集。其中,预设距离可以根据实际情况进行设置,优先选择预设距离为6米左右,预设墙壁阈值优先选择3米左右。
按照上述预设绘图原则绘制完子区域后,则将该子区域在平面地图中进行放大,若平面地图中可以清晰展示各个道路的路名,则用截图工具截取为图片,并切换截图工具为画笔工具或者在绘图工具中打开该截图,然后打开GIF制作工具开始录制绘画过程,得到每个子区域的GIF图。
当所有子区域绘制完成后,则可以将每个子区域的GIF图以“省份/城市-景区/商圈/园区等地点名称-区域编号”命名并保存,以作为后续获取目标区域相关数据的预设规划路线。
步骤250:按照预设规划路线获取目标区域的航拍数据、导航位置数据、全景数据和测试数据。
步骤260:将航拍数据、全景数据与测试数据进行融合,得到现场点云数据。
步骤270:判断现场点云数据与导航位置数据是否匹配。
步骤280:若现场点云数据与导航位置数据匹配成功,则将现场点云数据作为光影秀的目标采集数据。
其中,步骤250至步骤280与上述第一实施例具有相同或相似的技术方案,这里不做赘述。
结合上述实施例,本申请提供的光影秀的数据采集方法主要包括以下流程:
1、规划线路的前期准备:其中,可以是获取电子地图,根据地图情况规划线路,具体的规划过程可以参考上述实施例相对应的内容;另外可以分配工作人员现场勘察得到实际数据,对比电子地图的数据和实际数据的区别和偏差,对已规划的线路进行修正。即图3中的S1。
2、现场数据采集,结合参阅图3中的S2-S4:
2-1)获取目标区域的航拍数据:
其中,可以使用无人机航拍采用实时动态差分定位技术(Real Time Kinematic,RTK)与倾斜摄影相技术相结合实时获取目标区域的航拍数据,其中,可以是由拍摄图像景深数据获取实景空间数据(包含建筑物等)。
2-2)获取目标区域的全景数据:
可以是利用数据采集人员通过运动相机如Gopro Max全景相机在360全景模式下,按照预设规划路线在地面对目标区域进行至少两次拍摄后上传的数据,将该数据作为目标区域的全景数据。
其中,现场数据采集的通用要求为以下:
(1)平稳握住拍摄设备:平稳的握住拍摄设备移动,尽量不要原地旋转,也不要突然大幅运动。对于运动相机如Gopro Max全景相机,需要尽量保持设备竖直,而不要搭在肩上。
(2)防止镜头被遮挡或弄脏:由于采集的视频是360度全景视频,所以应尽量避开人群,防止镜头被遮挡。具体可以是开拍前取下镜头保护罩;或者下雨天不使用雨伞进行采集等。
另外,可以在每次使用设备前先擦拭下设备镜头,避免镜头上的指纹等污渍影响成像。
(3)控制采集起点和终点尽量在一起:拍摄的起点和终点最好在同一个地方,同一个朝向。
(4)采集初始化:拍视频时在起始的地方对着纹理丰富(比如色彩丰富,非单一色墙面)的建筑或者墙面左右横移超过2米,来回移动2次以方便初始化。
其中,左右横移时,将有屏幕的一侧朝着自己,另一侧朝向纹理丰富的建筑或墙面,且人和建筑之间的距离大概在3-5米 ,以免景深过大导致初始化失败。
需要说明的是,每次开始拍摄都需要进行初始化操作。
(5)断拍需回退一定距离再开始:比如在一个区域拍摄过程中,如果相机断电或内存卡满,可关机后更新电池或内存卡。更换完成后,需在断点位置往回退一段距离,优先选择回退5-10米,以保证有部分图像信息重合后再开始采集。
其中,每次拍完一个区域后,可观察下设备剩余电量和内容容量,若两者有任意一个较低,预估可能无法拍完下一个区域,则可以提前更换再拍摄下一区域,避免拍摄过程中出现相机断电或内存卡满的情况。
(6)对于大场景需进行划分采集子区域:比如,当进行视频采集的区域超过预设范围时,则一般按照最多1万平左右进行区域划分,划分时每个相邻区域间需要有一部分重叠区域。划分完成后,每个区域按照要求进行采集路线规划。并且,在每次开始一个子区域的拍摄时可以记下开始时间,中间换电池或内存卡后再次续拍时也记录时间,方便后期整理数据。
同样地,根据上述实施例提到的,在进行区域划分时,子区域的面积优先选择在0.7-0.8万平方米。
另外,可以根据采图自动分割视频,比如在采集一个目标区域时,Gopro Max全景相机会每隔8分钟自动切割一段视频,若限定采图时最多支持同一个目标区域生成6段视频,则该目标区域采集下来最多产生48分钟的视频;但是为了采集的视频便于处理,通常将目标区域采集视频的时长控制在30分钟左右,即一个目标区域在采集过程中生成3-4段视频。
(7)采集路线的要求,具体可以包括以下几点:
(7-1)基本要求:在采集前先找到目标区域的平面图,大致规划下行走路径。
示例性地,比如,当采集的地方比较大时,则需要一圈一圈的绕着采集,先绕大圈,最后用大圈把小圈串起来。其中,大概每走30米就需要回头绕个圈。当采集的地方比较窄时,例如宽度在6米以下,则可以不用绕圈,一直在中间走,最后再回头,回头后也在中间走。具体可以参考步骤140的相关内容。
(7-2)当采集区域为多层楼建筑如多层楼大商场时,则可以一层拍一个视频,然后从扶梯(优选最靠近商场中央的扶梯)拍一个视频将各层楼连接起来。其中,连接视频需要在每一层楼的扶梯周围转一圈,然后上楼,最后再下楼,回到原点,中间不需要再在各层绕着扶梯转圈。回到原点时要保证位置和方向一致或者位置差为1米以内,方向保证是对着同一个景物即可。
其中,扶梯一般为商场中央的自动扶梯,不能是垂直电梯,且自动扶梯还要和各层楼之间有交集。
具体可以是:在一楼扶梯周围绕一圈(长度至少30米),上楼,在每一层楼扶梯周围都绕一圈(长度至少30米),到顶楼后再下楼,下楼时不需要再在每层楼绕圈,最后回到一楼再绕一圈(保证跟最开始那一圈是同位置同方向的),一般来说,一层楼转一分钟,上楼30秒,则两层楼的连接视频大概为4分钟。
(7-3)当采集区域为巷道时,比如,若巷道的左右宽度不超过6米,可以直接从中间走,不需要靠左或者靠右走两遍。当超过6米,则需要分别靠近两侧走两遍,每次离旁边的墙壁3米左右即可。
另外,在采集过程中可能会遇到实际路径与规划的采集路径不符的情况,比如:
(1)道路施工/封死:则可以在采集时走到封住的地方再掉头往回走,在保证上述中回环的原则,然后接着走其他路线。
(2)走到售票口或者出口,需要出去再进来:比如在规划路线时会尽量将内外分隔开,实在无法分开的,则可以询问售票或相关区域负责人是否可以出门再进入,若可以则正常采集;若不可以则拆分为内外两个区域进行采集。
其中,采集室外区域时,需要先找到一个空旷的地方将设备开机,并在该点拿着开机的设备静立两分钟左右,两分钟后则可以拿着设备走到要采集的区域起点开始进行采集,以提高设备记录GPS数据的准确性。
另外,GoPro Max全景相机在使用时需要注意以下的拍摄要求:
2-2-1)由于GoPro Max全景相机自带屏幕(比如触摸屏),因此,可以直接在GoProMax全景相机上操作进行视频拍摄。
2-2-2)工作人员双手握住自拍杆,保持GoPro Max全景相机稳定,且行走过程中勿玩手机。其中,握持方式具体可以为:双手握住自拍杆,手在胸前,两臂略微收紧,以提高握持的稳定性;其次GoPro Max全景相机需举过头顶,避免导致较大的遮挡区域。
2-2-3)GoPro Max全景相机有两个镜头,需要让两个镜头对着一前一后,将GoProMax全景相机上屏幕的那一侧对着自己。
2-2-4)对GoPro Max全景相机进行特定的设置,如防频闪和拍摄帧率的设置。
其中,可以根据建图版本的需求,进行相应的数据转换步骤,然后再进行后续的数据整理。
另外,在实际项目开始采集之前可以先完成软件安装的步骤。
示例性地,可以选择在Windows环境下安装GoPro Max Exported或者在MacOS环境下安装GoPro Player,其中,MacOS环境下的安装可以是直接在app store里面搜索GoProPlayer进行安装,优先选择系统在macOS10.14或以上的安装环境。
对于数据的读取与转码,可以使用SD卡读卡器,拷贝GoPro Max的.360文件到电脑,而用来演练操作产生的视频、采集过程中错误操作产生的视频等无用数据则不需要转码再上传。
在360文件视频转码完成后,可以将该数据进行回传至服务器。
对于数据的读取与转码,还需注意以下几点:
(1)注意SD上文件的后缀,原始数据后缀为.360文件,而lrv文件则需单独放在另外的文件夹。
(2)直接用线连接GoPro Max到电脑上,由于很多电脑看不到文件内容,因此,最保险的是通过读卡器直接读microSD卡。
(3)当windows提示需要额外的HEVC解码器时,则根据提示进行安装。
(4)windows系统数据所在文件夹必须用数字或英文字母命名,且勿将文件夹放在桌面位置。
在数据读取与转码之后,则可以对数据进行整理,具体地,数据整理需要注意以下几点事项:
(1)注意视频数据的命名规则;
(2)对数据进行分区;
其中,为每个区域准备一个主文件夹,命名可用省份城市的拼音全称+景区/商区名称的拼音全称+区域编号,例如:shanghaiwaitan1。
另外,每个区域的主目录文件夹下可以有两个子目录文件夹,比如分别为以下:
(1)lowres(存放采集目标区域时所产生的LRV文件);
(2)·360文件夹:存放该目标区域采集时所产生的360文件,名称与LRV文件一一对应,具体可用于建图版本为v4.0及之后的版本。
(3)·videos文件夹:存放该区域采集时所产生的360文件转码后的mp4文件,名称与LRV文件一一对应,具体可用于建图版本为v3.1及之前版本。
另外,对于数据文件夹的结构图,在目标区域的数据采集过程中,当单个区域的数据文件整理完后,如果没有出现特殊情况(如电池耗尽、内存卡满等),则保证同一个目标区域的多个子区域的视频文件的尾号是相同的。
当采集完目标区域的全景数据后,则将目标区域的全景数据进行上传,上传前可以先对所有文件夹内的视频检查,以保证所有视频都可以正常播放。
2-3)获取测试数据。
可以是利用数据采集人员通过高端智能手机(比如iPhone手机)按照预设规划路线在地面对目标区域进行拍摄采集后上传的数据,将该数据作为目标区域的测试数据。
其中,可以在测试数据的采集工具上安装二维码。另外,在测试数据的采集过程中,还需注意以下几个事项:
2-3-1)安装工具应用包
其中,iOS版本可以采用http://demoapp.sightp.com/tpm6的安装网址;Android版本可以采用http://demoapp.sightp.com/7rhx的安装网址。
2-3-2)文件的命名格式
由于后期主要以文件名来判断数据对应的采图区域或者测试点位,因此可以将测试点位或采图区域作为文件名,比如meiluocheng2或者美罗城2层,其中,文件名可以包含英文、数字和中文。
2-3-3)测试数据的采集
文件命名后进入相机开启页面,此时可将相机先朝向地面或者较近处纹理丰富的区域进行初始化设置,观察到面板参数Tracking Statusd的值变为“Tracking”,再将手机抬起朝向需要录制测试数据的地方点击开始录制。
其中,在录制时需要在之前采图的目标区域内行走,重点是识别出内容效果的点位附近。并且在录制时应该模拟正常游客的视角,避免突然大幅转向或者长时间朝向白墙或地面等无纹理的区域。除此之外,可以控制每段录制时长不超过10分钟,录制完成即可点击底部按钮停止录制。
2-3-4)测试数据的导出
其中,对于Android版本,则可以将手机直接连接电脑,通过本地文件路径:Android/data/com.easyar.eiftool/files/MapValidationTool/EifRecordings,读取本地文件,然后选择对应日期的数据文件导出即可。需要注意的是,在该数据文件中除了有测试数据,还包含与测试数据对应的json文件,需要将两者同时导出。
对于iOS版本,则可以将iPhone手机连接Mac电脑,打开Finder应用程序,点击手机图标,点击信任后在手机端也点击“信任”,授信后点击“文件”菜单,找到MapValidationTool文件夹下的EifRecordings文件夹,拖拽到电脑桌面。其中,当该文件夹数据量较大时需注意检查是否全部导出完成,比如可以先查看桌面文件夹大小,和对应文件夹作对比。同样地,需要将测试数据,还包含与测试数据对应的json文件两者同时导出,即录制的数据格式为eif和json,两者一一对应。
另外,还可以是将iPhone手机连接Windows电脑进行数据导出,其中,可以在Windows电脑安装以下工具:iTunes:https://www.apple.com.cn/itunes/ (推荐使用)和iTools:https://www.itools.cn/,在安装完成后iPhone手机连接Windows电脑并进行授信操作,授信后点击“我的应用”,找到MapValidationTool应用,点击文件共享,找到EifRecordings文件夹,将对应日期的文件夹拖拽到电脑桌面。同样地,在导出的过程中,需要检查是否全部文件都导出完成,以及确保将测试数据,还包含与测试数据对应的json文件两者同时导出。
其中,上述的测试数据可以是外部接口文件(External Interface File,eif)测试数据,在将eif测试数据上传到建图服务中时,需要将采图视频数据一起上传,并且写明eif数据和采图视频数据的对应关系,例如采图视频数据为美罗城1层,则与该数据一起上传的eif测试数据也为美罗城1层。
3、将航拍数据、全景数据和测试数据上传到空间点云生成服务器中进行融合,生成现场点云数据。如图3中的S5。
4、判断现场点云数据与GPS信息即导航位置数据的匹配度是否满足要求,若现场点云数据与GPS信息即导航位置数据的匹配度满足要求,则表示匹配成功,将现场点云数据作为生成该项目光影秀的模型数据即光影秀的目标采集数据,若现场点云数据与GPS信息即导航位置数据的匹配度未满足要求,则表示匹配失败,则返回现场重新采集数据或者补充采集数据。具体可以参阅图3中的S6-S7。
综上,本申请通过采集多元化数据如目标区域的航拍数据、导航位置数据、全景数据和测试数据,以提供更为全面和精确的现场信息。进一步,通过融合航拍数据、全景数据和测试数据,得到现场点云数据的方式,能够综合利用各种数据的优势,提升数据的质量和精度,以改善传统采用单一数据采集方法的不足,使得采集的数据更加全面和连续,并且将现场点云数据与导航位置数据进行匹配,可以确保数据在空间上的准确性和一致性,减少定位误差,进而解决定位差和信号漂移的问题。
对应于上文实施例的光影秀的数据采集方法,本申请还提供光影秀的数据采集装置,该光影秀的数据采集装置包括获取单元、融合单元、判断单元和分析单元。
其中,获取单元用于获取目标区域的航拍数据、导航位置数据、全景数据和测试数据;融合单元用于将航拍数据、全景数据与测试数据进行融合,得到现场点云数据;判断单元用于判断现场点云数据与导航位置数据是否匹配;分析单元用于若现场点云数据与导航位置数据匹配成功,则将现场点云数据作为光影秀的目标采集数据。
可以理解的,上述单元还用于实现本申请中任一实施例的技术方案。
本申请还提供电子设备一实施例的结构示意图,参阅图4,电子设备80包括存储器81和处理器82,其中,存储器81上存储有计算机程序;处理器82用于执行计算机程序时实现前述任意一个方法实施例提供的光影秀的数据采集方法的控制方法。
请参阅图5,图5是本申请提供的计算机可读存储介质一实施例的结构示意图,计算机可读存储介质90用于存储计算机程序91,计算机程序91在被处理器执行时,用于实现以下的方法步骤:
获取目标区域的航拍数据、导航位置数据、全景数据和测试数据;将航拍数据、全景数据与测试数据进行融合,得到现场点云数据;判断现场点云数据与导航位置数据是否匹配;若现场点云数据与导航位置数据匹配成功,则将现场点云数据作为光影秀的目标采集数据。
可以理解的,计算机程序91在被处理器执行时,还用于实现本申请中任一实施例的技术方案。
在本申请所提供的几个实施方式中,应该理解到,所揭露的方法以及设备,可以通过其它的方式实现。例如,以上所描述的设备实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本申请各个实施方式中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述其他实施方式中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random AccessMemory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上仅为本申请的实施方式,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (10)
1.一种光影秀的数据采集方法,其特征在于,所述方法包括:
获取目标区域的航拍数据、导航位置数据、全景数据和测试数据;
将所述航拍数据、所述全景数据与所述测试数据进行融合,得到现场点云数据;
判断所述现场点云数据与所述导航位置数据是否匹配;
若所述现场点云数据与所述导航位置数据匹配成功,则将所述现场点云数据作为光影秀的目标采集数据。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取预设规划路线;
所述获取目标区域的航拍数据、导航位置数据、全景数据和测试数据,包括:
按照所述预设规划路线获取所述目标区域的所述航拍数据、所述导航位置数据、所述全景数据和所述测试数据。
3.根据权利要求2所述的方法,其特征在于,所述获取预设规划路线,包括:
从电子地图获取待规划地点的截图;
利用绘图工具在所述截图上进行绘测,得到包含所述待规划地点的所述目标区域的矩形面积;
当所述目标区域的矩形面积超过预设阈值,则将所述目标区域划分为多个子区域;
按照预设绘图原则获取每一所述子区域对应的预设规划路线。
4.根据权利要求3所述的方法,其特征在于,所述按照预设绘图原则获取每一所述子区域对应的预设规划路线,包括:
当所述子区域的面积超过预设采集面积时,则先采集所述子区域的整体框架,再采集所述子区域的局部细节。
5.根据权利要求3所述的方法,其特征在于,所述按照预设绘图原则获取每一所述子区域对应的预设规划路线,包括:
当所述子区域为多层楼建筑时,则采集每一层楼对应的拍摄视频,再基于扶梯采集所有楼层连接的视频。
6.根据权利要求3所述的方法,其特征在于,所述按照预设绘图原则获取每一所述子区域对应的预设规划路线,还包括:
当所述子区域为巷道时,若所述巷道的左右宽度未超过预设距离,则直接从中间进行采集;若所述巷道的左右宽度超过所述预设距离,则在预设墙壁阈值内分别靠近两侧墙壁进行采集。
7.根据权利要求1-4任一项所述的方法,其特征在于,利用运动相机设备在360全景模式下对所述目标区域进行至少两次拍摄,得到所述目标区域的全景数据。
8.根据权利要求1所述的方法,其特征在于,所述判断所述现场点云数据与所述导航位置数据是否匹配,还包括:
若所述现场点云数据与所述导航位置数据匹配未成功,则重新获取所述目标区域的航拍数据、全景数据、测试数据,直至重新获取的所述航拍数据、所述全景数据和所述测试数据进行融合后得到的所述现场点云数据与所述导航位置数据匹配成功。
9.一种光影秀的数据采集装置,其特征在于,所述光影秀的数据采集装置包括用于执行如权利要求1-7任一项所述方法的单元。
10.一种电子设备,其特征在于,所述电子设备包括存储器及处理器,所述存储器上存储有计算机程序,所述处理器执行所述计算机程序时实现如权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410144364.0A CN117710709B (zh) | 2024-02-01 | 2024-02-01 | 光影秀的数据采集方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410144364.0A CN117710709B (zh) | 2024-02-01 | 2024-02-01 | 光影秀的数据采集方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117710709A true CN117710709A (zh) | 2024-03-15 |
CN117710709B CN117710709B (zh) | 2024-05-17 |
Family
ID=90162730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410144364.0A Active CN117710709B (zh) | 2024-02-01 | 2024-02-01 | 光影秀的数据采集方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117710709B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120139325A1 (en) * | 2010-09-01 | 2012-06-07 | The University Of Sydney | System and method for terrain analysis |
AU2020101435A4 (en) * | 2020-07-21 | 2020-08-27 | Southwest University | A panoramic vision system based on the uav platform |
CN112233056A (zh) * | 2020-10-16 | 2021-01-15 | 北京恒华伟业科技股份有限公司 | 一种多源数据的点云融合方法、装置和存储介质 |
CN113706594A (zh) * | 2021-09-10 | 2021-11-26 | 广州中海达卫星导航技术股份有限公司 | 三维场景信息生成的系统、方法及电子设备 |
WO2022040868A1 (zh) * | 2020-08-24 | 2022-03-03 | 深圳市大疆创新科技有限公司 | 全景拍摄方法、电子设备及存储介质 |
CN115017454A (zh) * | 2022-05-31 | 2022-09-06 | 武汉大学 | 无人机和移动测量车空地协同组网遥感数据采集系统 |
CN116883604A (zh) * | 2023-08-02 | 2023-10-13 | 中色蓝图科技股份有限公司 | 一种基于天、空、地影像的三维建模技术方法 |
CN117409438A (zh) * | 2022-07-13 | 2024-01-16 | Mftb股份有限公司 | 使用楼层平面图和采集的建筑物图像的自动化建筑物识别 |
-
2024
- 2024-02-01 CN CN202410144364.0A patent/CN117710709B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120139325A1 (en) * | 2010-09-01 | 2012-06-07 | The University Of Sydney | System and method for terrain analysis |
AU2020101435A4 (en) * | 2020-07-21 | 2020-08-27 | Southwest University | A panoramic vision system based on the uav platform |
WO2022040868A1 (zh) * | 2020-08-24 | 2022-03-03 | 深圳市大疆创新科技有限公司 | 全景拍摄方法、电子设备及存储介质 |
CN112233056A (zh) * | 2020-10-16 | 2021-01-15 | 北京恒华伟业科技股份有限公司 | 一种多源数据的点云融合方法、装置和存储介质 |
CN113706594A (zh) * | 2021-09-10 | 2021-11-26 | 广州中海达卫星导航技术股份有限公司 | 三维场景信息生成的系统、方法及电子设备 |
CN115017454A (zh) * | 2022-05-31 | 2022-09-06 | 武汉大学 | 无人机和移动测量车空地协同组网遥感数据采集系统 |
CN117409438A (zh) * | 2022-07-13 | 2024-01-16 | Mftb股份有限公司 | 使用楼层平面图和采集的建筑物图像的自动化建筑物识别 |
CN116883604A (zh) * | 2023-08-02 | 2023-10-13 | 中色蓝图科技股份有限公司 | 一种基于天、空、地影像的三维建模技术方法 |
Also Published As
Publication number | Publication date |
---|---|
CN117710709B (zh) | 2024-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7192923B2 (ja) | 装置、方法、プログラム、システム | |
RU2741443C1 (ru) | Способ и устройство для планирования точек выборки для съёмки и картографирования, терминал управления и носитель для хранения данных | |
AU2015332046B2 (en) | Street-level guidance via route path | |
CN105339758B (zh) | 使用重叠区域优化光束法平差的系统、方法和设备 | |
US9454848B2 (en) | Image enhancement using a multi-dimensional model | |
US9529511B1 (en) | System and method of generating a view for a point of interest | |
CN105973236A (zh) | 室内定位或导航方法、装置以及地图数据库生成方法 | |
US20110211040A1 (en) | System and method for creating interactive panoramic walk-through applications | |
US9224243B2 (en) | Image enhancement using a multi-dimensional model | |
CN111540048A (zh) | 一种基于空地融合的精细化实景三维建模方法 | |
BRPI0812782B1 (pt) | aparelho de captura de imagem, aparelho de provisão de informação adicional e método para uso em um aparelho de provisão de informação adicional | |
CN109387186A (zh) | 测绘信息获取方法、装置、电子设备及存储介质 | |
US20140160251A1 (en) | Live streaming video over 3d | |
CN107885763B (zh) | 室内图中兴趣点信息的更新方法、装置及计算机可读介质 | |
CN103763470A (zh) | 一种便携式场景拍照装置 | |
KR101574636B1 (ko) | 면형방식 디지털 항공카메라로 촬영한 시계열 항공사진을 입체시하여 좌표를 연동하고 변화지역을 판독하는 시스템 | |
CN111527375B (zh) | 一种测绘采样点的规划方法、装置、控制终端及存储介质 | |
CN112665554B (zh) | 一种正射影像的生成方法与系统 | |
CN117710709B (zh) | 光影秀的数据采集方法、装置、设备及存储介质 | |
CN111246096B (zh) | 一种三维全景漫游模型的生成系统及方法 | |
CN103345302A (zh) | 基于定位及姿态感知的虚实漫游系统及其实现方法 | |
CN204046707U (zh) | 一种便携式场景拍照装置 | |
Pezzica et al. | Photogrammetry as a participatory recovery tool after disasters: A grounded framework for future guidelines | |
KR101236992B1 (ko) | 기준점 데이터가 적용된 수치 영상이미지의 실시간 업데이팅 영상처리시스템 | |
KR20210106422A (ko) | 작업 제어 시스템, 작업 제어 방법, 장치 및 기기 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |