CN113597568A - 数据处理方法、控制设备及存储介质 - Google Patents
数据处理方法、控制设备及存储介质 Download PDFInfo
- Publication number
- CN113597568A CN113597568A CN202080017479.3A CN202080017479A CN113597568A CN 113597568 A CN113597568 A CN 113597568A CN 202080017479 A CN202080017479 A CN 202080017479A CN 113597568 A CN113597568 A CN 113597568A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- position information
- point
- sampling
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 42
- 238000005070 sampling Methods 0.000 claims abstract description 550
- 238000000034 method Methods 0.000 claims abstract description 149
- 230000008569 process Effects 0.000 claims abstract description 31
- 239000003550 marker Substances 0.000 claims description 111
- 238000004590 computer program Methods 0.000 claims description 106
- 238000005259 measurement Methods 0.000 claims description 76
- 238000003384 imaging method Methods 0.000 claims description 23
- 230000004044 response Effects 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 10
- 230000008859 change Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 14
- 230000000007 visual effect Effects 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 10
- 238000012544 monitoring process Methods 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0011—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
- G05D1/0038—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0094—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/87—Combinations of radar systems, e.g. primary radar and secondary radar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/28—Details of pulse systems
- G01S7/285—Receivers
- G01S7/295—Means for transforming co-ordinates or for evaluating data, e.g. using computers
- G01S7/2955—Means for determining the position of the radar coordinate system for evaluating the position data of the target in another coordinate system
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/523—Details of pulse systems
- G01S7/526—Receivers
- G01S7/53—Means for transforming coordinates or for evaluating data, e.g. using computers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/56—Particle system, point based geometry or rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2012—Colour editing, changing, or manipulating; Use of colour codes
Abstract
一种数据处理方法、控制设备及存储介质,该方法包括:获取采样点的三维数据,所述采样点的三维数据是在可移动平台运动过程中通过所述可移动平台搭载的点云传感器采集得到的(S101);获取采集所述采样点时所述可移动平台和/或所述点云传感器的第一位姿数据(S102);根据所述采样点的三维数据和所述第一位姿数据,将所述采样点投影在观测平面上(S103);根据投影到所述观测平面上的采样点生成点云画面,所述点云画面用于在所述可移动平台的用户设备上展示(S104)。
Description
技术领域
本申请涉及数据处理技术领域,尤其涉及一种数据处理方法、控制设备及存储介质。
背景技术
随着无人机技术和激光雷达的发展,机载激光雷采集点云数据已经成为各领域地图获取、物体测量的重要基础手段。
现有机载激光雷达系统多数为采集数据后经过高性能计算机处理后生成三维点云数据、模型,在此基础上再做目标标记、识别、测量。上述数据处理的方式是根据用户在显示器上拖动模型的基础上做目标标记、识别、测量的,难以实时反映无人机或激光雷达的位姿变动时当前采集的变化,也难以实时监控采集过程。
发明内容
基于此,本申请提供一种数据处理方法、控制设备及存储介质。
第一方面,本申请提供一种数据处理方法,包括:
获取采样点的三维数据,所述采样点的三维数据是在可移动平台运动过程中,通过所述可移动平台搭载的点云传感器采集得到的;
获取采集所述采样点时所述可移动平台和/或所述点云传感器的第一位姿数据;
根据所述采样点的三维数据和所述第一位姿数据,将所述采样点投影在观测平面上;
根据投影到所述观测平面上的采样点生成点云画面,所述点云画面用于在所述可移动平台的用户设备上展示。
第二方面,本申请提供一种数据处理方法,包括:
获取目标场景的三维模型的采样点的三维数据;
获取可移动平台和/或所述可移动平台搭载的点云传感器的相对于所述目标场景的第二位姿数据;
根据所述采样点的三维数据和所述第二位姿数据,将所述采样点投影在观测平面上;
根据投影到所述观测平面上的采样点生成点云画面,所述点云画面用于在所述可移动平台的用户设备上展示。
第三方面,本申请提供一种数据处理方法,包括:
控制可移动平台的点云传感器采集目标场景中采样点的测量数据,所述测量数据包括所述采样点相对所述点云传感器之间的距离和/或方位数据;
获取采集所述采样点时所述可移动平台和/或所述点云传感器的在所述地理坐标系的第一位姿数据;
根据所述测量数据和在所述地理坐标系的第一位姿数据,确定所述采样点的在所述地理坐标系下的三维数据;
其中,所述采样点的三维数据用于投影在与所述位姿数据相应的观测平面上,并生成在所述可移动平台的用户设备展示的点云画面。
第四方面,本申请提供一种控制设备,所述控制设备包括:存储器和处理器;
所述存储器用于存储计算机程序;
所述处理器用于执行所述计算机程序并在执行所述计算机程序时,实现如下步骤:
获取采样点的三维数据,所述采样点的三维数据是在可移动平台运动过程中,通过所述可移动平台搭载的点云传感器采集得到的;
获取采集所述采样点时所述可移动平台和/或所述点云传感器的第一位姿数据;
根据所述采样点的三维数据和所述第一位姿数据,将所述采样点投影在观测平面上;
根据投影到所述观测平面上的采样点生成点云画面,所述点云画面用于在所述可移动平台的用户设备上展示。
第五方面,本申请提供一种控制设备,所述控制设备包括:存储器和处理器;
所述存储器用于存储计算机程序;
所述处理器用于执行所述计算机程序并在执行所述计算机程序时,实现如下步骤:
获取目标场景的三维模型的采样点的三维数据;
获取可移动平台和/或所述可移动平台搭载的点云传感器的相对于所述目标场景的第二位姿数据;
根据所述采样点的三维数据和所述第二位姿数据,将所述采样点投影在观测平面上;
根据投影到所述观测平面上的采样点生成点云画面,所述点云画面用于在所述可移动平台的用户设备上展示。
第六方面,本申请提供一种控制设备,所述控制设备包括:存储器和处理器;
所述存储器用于存储计算机程序;
所述处理器用于执行所述计算机程序并在执行所述计算机程序时,实现如下步骤:
控制可移动平台的点云传感器采集目标场景中采样点的测量数据,所述测量数据包括所述采样点相对所述点云传感器之间的距离和/或方位数据;
获取采集所述采样点时所述可移动平台和/或所述点云传感器的在所述地理坐标系的第一位姿数据;
根据所述测量数据和在所述地理坐标系的第一位姿数据,确定所述采样点的在所述地理坐标系下的三维数据;
其中,所述采样点的三维数据用于投影在与所述位姿数据相应的观测平面上,并生成在所述可移动平台的用户设备展示的点云画面。
第七方面,本申请提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如上第一方面所述的数据处理方法。
第八方面,本申请提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如上第二方面所述的数据处理方法。
第九方面,本申请提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如上第三方面所述的数据处理方法。
本申请实施例提供了一种数据处理方法、控制设备及存储介质,在将点云的三维数据进行投影时,投影到的平面是可移动平台和/或点云传感器的FPV的观测平面,即根据采样点的三维数据和可移动平台和/或点云传感器的位姿数据,将采样点投影在观测平面上,通过这种方式,能够实时反映可移动平台或点云传感器的位姿变动时当前采集的变化,也能够实时监控采集过程;在将采样点投影在观测平面上的基础上,能够更好地展示点云的采集效果,能够更好地提升可移动平台与用户观测的交互体验。在根据采样点的三维数据和可移动平台和/或点云传感器的位姿数据,将采样点投影在观测平面上的基础上,本申请实施例从三个不同的主要角度说明本申请实施例的数据处理方法。
第一个主要角度是:根据可移动平台和/或点云传感器姿态实时变动显示当前采集的点云,每次采集点云,都重新算投影平面,并生成投影后的画面。由于采样点的三维数据是在可移动平台运动过程中通过搭载的点云传感器采集得到的,根据采样点的三维数据和采集采样点时可移动平台和/或点云传感器的位姿数据,将采样点投影在观测平面上,根据投影到观测平面上的采样点生成点云画面,当可移动平台的用户设备上展示点云画面时,用户能够观测到实时反映可移动平台上的点云传感器采集采样点时的位姿下对应的采样点的情况;当可移动平台和/或点云传感器位姿实时变动,由于每次采集点云,都重新确定投影平面,并生成投影后的画面,当可移动平台的用户设备上展示投影后的画面时,用户能够观测到可移动平台和/或点云传感器位姿实时变动时显示当前采集的点云。
第二个主要角度是:根据可移动平台和/或点云传感器位姿变化,调整FPV形成。简单说就是:可移动平台在移动和/或点云传感器位姿变化,随着可移动平台和/或点云传感器的位姿变化,当前展示在用户界面上的FPV的点云视角也发生变化。由于采样点的三维数据是目标场景的三维模型的采样点的三维数据,位姿数据是可移动平台和/或所述可移动平台搭载的点云传感器的相对于所述目标场景的位姿数据,据此将所述采样点投影在观测平面上,投影在观测平面上的是可移动平台和/或点云传感器某个视角下所采集的采样点,生成的点云画面也是可移动平台和/或点云传感器某个视角下所采集的采样点的点云画面,因此当可移动平台在移动和/或点云传感器位姿变化,随着可移动平台和/或点云传感器的位姿变化,当前展示在用户界面上的FPV的点云视角也发生变化。
第三个主要角度是:实时监控可移动平台的点云传感器的采集过程,实时监控可移动平台和/或所述点云传感器的位姿,用户能够在用户界面观看到实时采集过程。由于控制可移动平台的点云传感器采集目标场景中采样点的测量数据,根据测量数据和采集所述采样点时所述可移动平台和/或所述点云传感器的在所述地理坐标系的位姿数据,确定所述采样点的在所述地理坐标系下的三维数据,采样点的所述三维数据用于投影在与所述位姿数据相应的观测平面上,并生成在所述可移动平台的用户终端展示的点云画面,通过这种方式,能够使用户在用户界面观看到可移动平台的点云传感器的实时采集过程。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
为了更清楚地说明本申请实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请数据处理方法一实施例的流程示意图;
图2是本申请数据处理方法另一实施例的流程示意图;
图3是本申请数据处理方法又一实施例的流程示意图;
图4是本申请数据处理方法又一实施例的流程示意图;
图5是本申请数据处理方法中一实施例点云画面的示意图;
图6是本申请数据处理方法又一实施例的流程示意图;
图7是本申请数据处理方法又一实施例的流程示意图;
图8是本申请数据处理方法又一实施例的流程示意图;
图9是本申请数据处理方法又一实施例的流程示意图;
图10是本申请数据处理方法又一实施例的流程示意图;
图11是本申请数据处理方法又一实施例的流程示意图;
图12是本申请控制设备一实施例的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
附图中所示的流程图仅是示例说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解、组合或部分合并,因此实际执行的顺序有可能根据实际情况改变。
现有机载激光雷达系统多数为采集数据后经过高性能计算机处理后生成点云的三维数据、模型,在此基础上再做目标标记、识别、测量。上述数据处理的方式是根据用户在显示器上拖动模型的基础上做目标标记、识别、测量的,这种方式难以实时反映无人机或激光雷达的位姿变动时当前采集的变化,也难以实时监控采集过程。
即现有技术点云的三维数据投影到哪个平面并非是根据无人机和/或激光雷达的视角确定的,而是根据用户在显示器上拖动模型确定的,因此现有技术点云的三维数据投影到哪个平面不是无人机的“第一人称主视角”(FPV,First Person View)。
本申请实施例提供一种数据处理方法、控制设备及存储介质,在将点云的三维数据进行投影时,投影到的平面是可移动平台和/或点云传感器的FPV的观测平面,即根据采样点的三维数据和可移动平台和/或点云传感器的位姿数据,将采样点投影在观测平面上,通过这种方式,能够实时反映可移动平台或点云传感器的位姿变动时当前采集的变化,也能够实时监控采集过程;在将采样点投影在观测平面上的基础上,能够更好地展示点云的采集效果,能够更好地提升可移动平台与用户观测的交互体验。在根据采样点的三维数据和可移动平台和/或点云传感器的位姿数据,将采样点投影在观测平面上的基础上,本申请实施例从三个不同的主要角度说明本申请实施例的数据处理方法。
第一个主要角度是:根据可移动平台和/或点云传感器姿态实时变动显示当前采集的点云,每次采集点云,都重新算投影平面,并生成投影后的画面。即,获取采样点的三维数据,所述采样点的三维数据是在可移动平台运动过程中,通过所述可移动平台搭载的点云传感器采集得到的;获取采集所述采样点时所述可移动平台和/或所述点云传感器的位姿数据;根据所述采样点的三维数据和所述位姿数据,将所述采样点投影在观测平面上;根据投影到所述观测平面上的采样点生成点云画面,所述点云画面用于在所述可移动平台的用户设备上展示。由于采样点的三维数据是在可移动平台运动过程中通过搭载的点云传感器采集得到的,根据采样点的三维数据和采集采样点时可移动平台和/或点云传感器的位姿数据,将采样点投影在观测平面上,根据投影到观测平面上的采样点生成点云画面,当可移动平台的用户设备上展示点云画面时,用户能够观测到实时反映可移动平台上的点云传感器采集采样点时的位姿下对应的采样点的情况;当可移动平台和/或点云传感器位姿实时变动,由于每次采集点云,都重新确定投影平面,并生成投影后的画面,当可移动平台的用户设备上展示投影后的画面时,用户能够观测到可移动平台和/或点云传感器位姿实时变动时显示当前采集的点云。
第二个主要角度是:根据可移动平台和/或点云传感器位姿变化,调整FPV形成。简单说就是:可移动平台在移动和/或点云传感器位姿变化,随着可移动平台和/或点云传感器的位姿变化,当前展示在用户界面上的FPV的点云视角也发生变化。即,获取目标场景的三维模型的采样点的三维数据;获取可移动平台和/或所述可移动平台搭载的点云传感器的相对于所述目标场景的位姿数据;根据所述采样点的三维数据和所述位姿数据,将所述采样点投影在观测平面上;根据投影到所述观测平面上的采样点生成点云画面,所述点云画面用于在所述可移动平台的用户设备上展示。由于采样点的三维数据是目标场景的三维模型的采样点的三维数据,位姿数据是可移动平台和/或所述可移动平台搭载的点云传感器的相对于所述目标场景的位姿数据,据此将所述采样点投影在观测平面上,投影在观测平面上的是可移动平台和/或点云传感器某个视角下所采集的采样点,生成的点云画面也是可移动平台和/或点云传感器某个视角下所采集的采样点的点云画面,因此当可移动平台在移动和/或点云传感器位姿变化,随着可移动平台和/或点云传感器的位姿变化,当前展示在用户界面上的FPV的点云视角也发生变化。
第三个主要角度是:实时监控可移动平台的点云传感器的采集过程,实时监控可移动平台和/或所述点云传感器的位姿,用户能够在用户界面观看到实时采集过程。即,控制可移动平台的点云传感器采集目标场景中采样点的测量数据,所述测量数据包括所述采样点相对所述点云传感器之间的距离和/或方位数据;获取采集所述采样点时所述可移动平台和/或所述点云传感器的在所述地理坐标系的位姿数据;根据所述测量数据和所述位姿数据,确定所述采样点的在所述地理坐标系下的三维数据;其中,所述采样点的所述三维数据用于投影在与所述位姿数据相应的观测平面上,并生成在所述可移动平台的用户终端展示的点云画面。由于控制可移动平台的点云传感器采集目标场景中采样点的测量数据,根据测量数据和采集所述采样点时所述可移动平台和/或所述点云传感器的在所述地理坐标系的位姿数据,确定所述采样点的在所述地理坐标系下的三维数据,采样点的所述三维数据用于投影在与所述位姿数据相应的观测平面上,并生成在所述可移动平台的用户终端展示的点云画面,通过这种方式,能够使用户在用户界面观看到可移动平台的点云传感器的实时采集过程。
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
下面主要从三个不同的主要角度说明本申请实施例的数据处理方法。
第一个主要角度是:根据可移动平台和/或点云传感器位姿实时变动显示当前采集的点云,每次采集点云,都重新算投影平面,并生成投影后的画面。
参见图1,图1是本申请数据处理方法一实施例的流程示意图,所述方法包括:步骤S101、步骤S102、步骤S103以及步骤S104。
步骤S101:获取采样点的三维数据,所述采样点的三维数据是在可移动平台运动过程中,通过所述可移动平台搭载的点云传感器采集得到的。
三维数据可以是三维空间的数据,包括三维位置数据。三维数据是相对某个坐标系的三维数据,具体数据与坐标系有关,不同的坐标系,具体的三维数据不同,不同坐标系下具体的三维数据可以相互转换。
可移动平台可以是指可以自动移动或者在受控条件下移动的各种平台,例如:无人机、车辆、无人车辆、地面机器人、无人船、云台等等。可移动平台也可以是上述平台的组合,例如无人机、车辆、无人车辆、地面机器人、无人船等上面搭载的设备或装置一起组成可移动平台,如无人机搭载云台一起组成可移动平台,点云传感器设置在云台上。
点云可以是通过测量仪器得到的目标表面的采样点的数据集;采样点包含丰富的信息,包括三维坐标(XYZ)、颜色、分类值、强度值、时间等等。例如:根据激光测量原理得到的点云,包括三维坐标(XYZ)和激光反射强度(Intensity),根据摄影测量原理得到的点云,包括三维坐标(XYZ)和颜色信息(RGB),结合激光测量和摄影测量原理得到点云,包括三维坐标(XYZ)、激光反射强度和颜色信息。在获取目标表面的采样点的空间坐标后,得到的是一个点的集合,称之为“点云”(Point Cloud)。
点云传感器(即测量仪器),可以是能够用于采集目标表面的采样点至少以得到采样点的三维数据的传感器,点云传感器包括但不限于:激光雷达、可见光相机、多光谱相机、毫米波雷达、超声波雷达,等等,或者这些传感器的组合。
采样点的三维数据,可以是通过采样点的测量数据直接计算出来,也可以是通过二维影像进行三维重建,在重建过程中获取采样点的三维数据,或者还可以通过三维模型来计算获取采样点的三维数据。其中,在获取采样点的三维数据中需要利用的算力资源可以是可移动平台或可移动平台的负载的算力资源,也可以把相关数据实时传输到地面端设备(如PC、平板、移动设备等)或云端,利用地面端设备或云端的算力资源实时进行计算,或者还可以利用本地的算力资源进行计算。即,获取采样点的三维数据,可以是从可移动平台获取,或者从地面端设备或云端获取,或者利用本地的算力资源进行计算得到,等等。
所述采样点的三维数据是在可移动平台运动过程中,通过所述可移动平台搭载的点云传感器采集得到的,可移动平台在运动过程中位置和姿态是变动的,点云传感器的位置和姿态也是变动的,采样点在变动,采样点的三维数据也是变动的。
步骤S102:获取采集所述采样点时所述可移动平台和/或所述点云传感器的第一位姿数据。
位姿数据可以是位置数据和姿态数据。第一位姿数据可以是采集采样点时可移动平台和/或所述点云传感器的位姿数据。点云传感器搭载在可移动平台上,点云传感器的位姿可以跟随可移动平台的位姿的变化而变化,点云传感器的姿态也可以自己变化。采集所述采样点时的第一位姿数据可以是所述可移动平台的位姿数据(点云传感器随可移动平台的位姿的变化而变化),可以是所述点云传感器的位姿数据(点云传感器的位姿可变,可移动平台的位姿不变),也可以是可移动平台和所述点云传感器的位姿数据(可移动平台的位姿可变,点云传感器的位姿也可变)。第一位姿数据可以用于确定可移动平台和/或点云传感器的FPV,用于确定投影平面。多个采样点对应的第一位姿数据可以相同,也可以不同。
通过可移动平台上的姿态捕捉系统和定位系统即可得到可移动平台的第一位姿数据,如果点云传感器的姿态相对可移动平台不变,可移动平台的第一位姿数据即为采集所述采样点时所述点云传感器的第一位姿数据;如果点云传感器的姿态相对可移动平台可变,则需要结合可移动平台和点云传感器的位姿确定第一位姿数据。
需要说明的是,步骤S101和步骤S102没有明显的先后顺序关系。
步骤S103:根据所述采样点的三维数据和所述第一位姿数据,将所述采样点投影在观测平面上。
投影是投射线通过物体,向选定的投影平面投射,并在该投影平面上得到图形的方法。投影可分为正投影和斜投影。正投影即是投射线的中心线垂直于投影平面,其投射中心线不垂直于投影平面的称为斜投影。本实施例的投影平面为观测平面,观测平面可以是以可移动平台和/或点云传感器的第一人称主视角进行投影的平面,这样后续用户能够在用户设备上观测采集情况。三维数据的来源不同,将采样点投影在观测平面的过程不太相同,需要将不同的坐标系中的三维数据进行转换,最后转换至相机坐标系,将相机坐标系中的三维点投影到观测平面中的点。
步骤S104:根据投影到所述观测平面上的采样点生成点云画面,所述点云画面用于在所述可移动平台的用户设备上展示。
点云画面可以是指至少包括采样点投影到观测平面上的对应的点的画面,点云画面还可以包括对应的点的颜色信息(例如RGB)、高度值、反射率,等等。点云画面用于在所述可移动平台的用户设备上展示,通过这种方式,能够使用户在用户设备上观看到采集情况,如同身临其境的感觉。
本申请实施例获取采样点的三维数据,所述采样点的三维数据是在可移动平台运动过程中,通过所述可移动平台搭载的点云传感器采集得到的;获取采集所述采样点时所述可移动平台和/或所述点云传感器的位姿数据;根据所述采样点的三维数据和所述位姿数据,将所述采样点投影在观测平面上;根据投影到所述观测平面上的采样点生成点云画面,所述点云画面用于在所述可移动平台的用户设备上展示。由于采样点的三维数据是在可移动平台运动过程中通过搭载的点云传感器采集得到的,根据采样点的三维数据和采集采样点时可移动平台和/或点云传感器的位姿数据,将采样点投影在观测平面上,根据投影到观测平面上的采样点生成点云画面,当可移动平台的用户设备上展示点云画面时,用户能够观测到实时反映可移动平台上的点云传感器(例如无人机上的激光雷达)采集采样点时的位姿下对应的采样点的情况;当可移动平台和/或点云传感器位姿实时变动,由于每次采集点云,都重新确定投影平面,并生成投影后的画面,当可移动平台的用户设备上展示投影后的画面时,用户能够观测到可移动平台和/或点云传感器姿态实时变动时显示当前采集的点云。
参见图2,在一实施例中,步骤S103,根据所述采样点的三维数据和所述第一位姿数据,将所述采样点投影在观测平面上,可以包括:子步骤S1031和子步骤S1032。
子步骤S1031:根据所述第一位姿数据,确定所述观测平面。
第一位姿数据是采集所述采样点时所述可移动平台和/或所述点云传感器的位姿数据,根据所述第一位姿数据,可以确定以可移动平台和/或点云传感器的第一人称主视角进行投影的观测平面。
子步骤S1032:根据所述三维数据将所述采样点投影至所述观测平面上。
通过上述方式,能够提供技术支持,以使用户以可移动平台和/或点云传感器的第一人称主视角在用户设备上观看采集情况。
参见图3,在一实施例中,获取采样点的三维数据的方式是,控制点云传感器采集采样点的测量数据,根据测量数据确定预设坐标系下的三维位置数据,即步骤S101,所述获取采样点的三维数据,可以包括:子步骤S1011和子步骤S1012。
子步骤S1011:控制所述点云传感器采集目标场景中采样点的测量数据,所述测量数据包括所述采样点相对所述点云传感器之间的距离和/或方位数据。
子步骤S1012:根据所述测量数据,确定所述采样点的在预设坐标系下的三维位置数据。
本实施例中,所述采样点是目标场景中被点云传感器测量的场景中的物点。测量数据包括所述采样点相对所述点云传感器之间的距离和/或方位数据;其中,如果点云传感器的探测距离是固定的,那么通过方位数据也可以确定出采样点的三维位置数据。
由于控制点云传感器采集目标场景中采样点的测量数据,这是以实时控制采集的方式实时获取测量数据,并在本地根据所述测量数据,确定所述采样点的在预设坐标系下的三维位置数据。通过这种方式,能够使用户在用户设备实时监控点云传感器采集采样点。
其中,所述预设坐标系为地理坐标系或者所述可移动平台的机身坐标系。
地理坐标是用纬度、经度表示地面点位置的球面坐标。地理坐标系(GeographicCoordinate System),是使用三维球面来定义地球表面位置,以实现通过经纬度对地球表面点位引用的坐标系。在大地测量学中,对于地理坐标系统中的经纬度有三种提法:天文经纬度、大地经纬度和地心经纬度。因此地理坐标系可以分为天文坐标系、大地坐标系与地心坐标系。例如:大地坐标系包括:1954北京坐标系、1980国家大地坐标系以及2000国家大地坐标系(CGCS2000);地心坐标系包括国际上采用的WGS-84坐标系(World Geodetic System一1984Coordinate System)。在实际应用中,针对不同的设计计算需求,结合各种坐标系的特点,可以对地理坐标进行转换,以便于利用和进行辅助决策。
可移动平台的机身坐标系可以是指固定在可移动平台上的遵循右手法则的三维正交直角坐标系,其原点位于可移动平台的质心。以无人机为例,无人机的机身坐标系可以是:OX轴位于无人机参考平面内,平行于机身轴线并指向无人机前方,OY轴垂直于无人机参考平面并指向无人机的右方,OZ轴在参考平面内垂直于XOY平面,指向无人机的下方。
进一步,参见图4,子步骤S1012,所述根据所述测量数据,确定所述采样点的在预设坐标系下的三维位置数据,还可以包括:子步骤S10121和子步骤S10122。
子步骤S10121:获取采集所述采样点时所述可移动平台和/或所述点云传感器在所述地理坐标系的第一位姿数据。
子步骤S10122:根据所述测量数据和在所述地理坐标系的第一位姿数据,确定所述采样点的在所述地理坐标系下的三维数据。
例如:点云传感器为激光传感器,通过激光测距技术,激光传感器可以获取离散的距离测量信息。配合与激光传感器固定连接且标定过相对位姿的惯性导航系统,通过卫星与基站的观测,可以计算出激光传感器在空间中的绝对位置(如WGS-84坐标系里的位置)与姿态(即点云传感器在地理坐标系的第一位姿数据),进而可以计算出每次测量到的采样点的绝对位置(即采样点的在所述地理坐标系下的三维数据),该过程包括如下步骤:
Pw为世界坐标系的三维点,PL为激光传感器坐标系的三维点,先将PL通过激光传感器与惯性导航系统(INS,Inertial Navigation System)间标定的旋转矩阵平移矩阵投射到INS中,再由INS估计自身的位姿(即INS到世界坐标系的旋转矩阵和平移矩阵)投射到世界坐标系中。
所有采样点经过上述步骤,可以获取到整个采集过程中所有的采样点在世界坐标系中的三维位置,将其存入内存中作为三维点云。
下面以具体的坐标系来说明投影的步骤。
(1)已知点云的世界坐标(in World Coordinates),需要获取变换矩阵(ViewMatrix)把世界坐标的点转换为相机坐标系(Camera Coordinates)的点:
需要说明的是,点与变换都用齐次坐标(Homogeneous coordinates)方式表示,Pw,Pc分别为点在世界坐标系与相机坐标系中的齐次坐标,为将点从世界坐标系变换为相机坐标系的变换矩阵(View Matrix)。其中来源于惯性导航系统估计的自身位姿以及惯性导航系统与相机间标定过的外参
(2)将相机坐标系中的点(三维)投影到观测平面中的点(二维)。如图5所示,投影前,图中的小方块表示的目标场景中的采样点都位于摄像机空间中(即位于摄像机视场角范围内),图中头部被截取的棱椎表示摄像机的平截头体(frustum),摄像机的平截头体是摄像机实际能看见的可视区域。将相机坐标系中的点(三维)投影到观测平面中的点(二维)的投影公式如下:
其中,Pscreen是观测平面中的点(二维)的坐标,仅取x和y;是将相机坐标系的点投影到观测平面中的投影矩阵(Projection Matrix);Pc是相机坐标系中的点(三维)的坐标;除以(-z)是为了归一化Pscreen,从而产生透视投影近大远小的效果。
如果已知点云的在三维模型的坐标系中的三维数据,可以先将三维模型的坐标系中的点的三维数据变换到世界坐标系下的点的三维数据,然后再按照上述的步骤进行投影即可。
在一实施例中,生成的所述点云画面中包括一个或者多个所述采样点的投影。当生成的所述点云画面中包括一个或者多个所述采样点的投影时,可以说明这一个或者多个所述采样点的观测平面相同,这一个或者多个所述采样点对应的可移动平台的FPV视角基本相同,每采集一个采样点,点云画面中可以增加一个所述采样点的投影,通过这种方式,能够使用户实时观测到点云传感器采集采样点在观测平面上的动态过程。
在一实施例中,可以生产带有颜色信息的点云画面,即所述方法还可以包括:获取投影在所述观测平面的所述采样点的颜色信息。此时,步骤S104,所述根据投影到所述观测平面上的采样点生成点云画面,还可以包括:根据所述观测平面上的采样点的颜色信息生成所述点云画面。
颜色具有三个特性,即色调、明度和饱和度。颜色信息可以是关于色调、明度和饱和度的信息。色调,即色彩的相貌、长相,也可以说是区别色名称,如红色、黄色、绿色、灰色等。明度,即色彩明暗深浅的差异程度,白色最高,黑色最低。饱和度,又称为纯度、彩度,它是指色彩饱和的程度,或是指色彩的纯净程度。
本实施例获取采样点的颜色信息,能够使根据观测平面上的采样点的颜色信息生成的点云画面更加形象、生动、丰富、直观,能够提升用户体验。
其中,所述可移动平台还搭载可见光传感器,所述采样点的颜色信息是基于所述可见光传感器的采集所述目标场景形成的可见光成像确定的。
可见光传感器是一种敏感的电子元件,是将可见光作为探测对象,并转换成输出信号的器件。可见光传感器包括但不限于:光敏二极管、光敏三极管、光敏电阻、CMOS线性可见光传感器,等等。
本实施例由于采样点的颜色信息是基于所述可见光传感器的采集所述目标场景形成的可见光成像确定的,通过这种方式,能够使根据观测平面上的采样点的颜色信息生成的点云画面客观、真实反映出采样点自身的颜色信息,更加能够使用户在用户设备观察时有身临其境的真实感觉,能够提升用户体验。
进一步,所述方法还包括:在所述可见光成像中确定与所述采样点对应同一物点的像素点,根据所述像素点的像素值确定所述采样点的所述颜色信息。
通过这种方式,能够客观、真实反映采样点自身的颜色信息。
其中,所述可见光传感器与所述点云传感器固定连接。通过这种方式,能够在点云传感器采集采样点时,也能够采集到此时采样点的颜色信息。
进一步,所述可见光传感器与所述点云传感器固定连接,且通过云台结构搭载于所述可移动平台。通过这种方式,能够使可见光传感器捕捉到点云传感器采集采样点时采样点真实的颜色信息。
参见图6,在一实施例中,用户还可以在用户设备上进行标记操作,响应该标记操作可以确定标记操作对应的目标采样点。即所述方法还包括:步骤S105、步骤S106以及步骤S107。
步骤S105:响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息和内容信息。
步骤S106:根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点。
步骤S107:将所述内容信息与所述目标采样点关联存储。
本实施例中,还建立有目标场景的三维模型,响应用户的标记操作,获取对应的标记的位置信息和内容信息后,根据标记的位置信息可以在三维模型中确定对应的目标采样点,将内容信息和目标采样点关联存储,通过这种方式,能够使用户的标记操作对应的目标采样点与内容信息建立对应关系,后续方便用户查看目标采样点的内容信息。
其中,所述内容信息包括以下信息中的一种或者多种:任务信息、类型信息、状态信息。
其中,所述目标采样点为所述三维模型中的一个或者多个采样点。由于用户在所述用户设备上的标记操作是在二维平面上的标记操作,二维平面上标记操作对应的点对应到三维模型时,目标采样点可以为所述三维模型中的一个或者多个采样点。
在一实施例中,步骤S106,所述根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点,还可以包括:根据所述标记的位置信息,和当前展示的点云画面的投影关系,在所述三维模型中确定与所述标记的位置信息相对应的一个或多个目标采样点。
投影的时候,是三维空间的点投影到二维的观测平面(即投影平面),投影包括正投影和斜投影。正投影时,投射线的方向是观测平面的法线方向,也是垂直于Z轴方向的方向,也是FPV视线方向。斜投影时,投射线的方向与观测平面的法线方向呈预设夹角的方向,也是与于Z轴方向呈预设夹角的方向,也是与FPV视线方向呈预设夹角的方向。不管是正投影还是斜投影,在沿投射线的方向,一个或多个三维空间的点投影到二维投影平面后均对应投影平面上的一个二维点,因此投影后,一个二维的观测平面上的点可以对应一个或多个三维空间的点。
在一实施例中,所述标记的位置信息包括所述标记操作的点在所述观测平面的二维坐标位置,步骤S106,根据所述标记的位置信息,和当前展示的点云画面的投影关系,在所述三维模型中确定与所述标记的位置信息相对应的一个或多个目标采样点,还可以包括:从所述观测平面的所述二维坐标位置出发,沿所述观测平面的预设方向,在所述三维模型中确定距离所述观测平面最近的采样点,作为所述目标采样点。
本实施例中,沿所述观测平面的预设方向可以是投射线的方向,在三维模型中沿投射线的方向,通常三维模型中有多个采样点投影后对应二维平面的一个投影点。反过来用户标记操作的点在观测平面的二维坐标位置上的投影点可以对应三维模型中的多个采样点,为了确定具体的目标采样点,可以选择三维模型中距离所述观测平面最近的采样点作为所述目标采样点。
其中,所述预设方向为所述观测平面的法线方向,或者与所述观测平面的法线方向呈预设夹角的方向。预设方向为所述观测平面的法线方向,即投影时采用的是正投影,预设方向为与所述观测平面的法线方向呈预设夹角的方向,即投影时采用的是斜投影。
参见图7,在一实施例中,基于用户在用户设备上的标记操作,可以控制点云传感器采集对应的采样点的三维数据,即用户在观测用户设备上的点云画面时,可以根据采集情况控制点云传感器采集指定的采样点的三维数据。因此,所述方法还包括:步骤S108、步骤S109以及步骤S110。
步骤S108:响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息。
步骤S109:根据所述标记的位置信息,确定与所述标记位置信息相对应的空间位置信息。
步骤S110:控制所述点云传感器采集与所述空间位置信息相应处的采样点的三维数据。
本实施例由于用户在所述用户设备上进行标记操作,可以获取点云画面上标记的位置信息,进而能够确定与所述标记位置信息相对应的空间位置信息(即指定区域确定),在控制所述点云传感器采集与所述空间位置信息相应处的采样点的三维数据时,使得点云传感器的采集具有针对性和目标性。例如当用户发现采集质量不满足要求时,可以重新采集,或者针对关键目标进行重点采集,等等。由于采集区域为与所述空间位置信息相应的指定区域,相比与没有指定区域的采集区域,这种方式还能够缩小采集区域,缩小可移动平台和/或点云传感器的搜索范围。
其中,所述空间位置信息包括三维坐标。
进一步,步骤S110,所述控制所述点云传感器采集与所述空间位置信息相应处的采样点的三维数据,还包括:响应于用于指示采样的触发指令,控制所述点云传感器采集与所述三维坐标相应处的采样点的三维数据。
本实施例还响应用于指示采样的触发指令,然后控制所述点云传感器采集与所述三维坐标相应处的采样点的三维数据,通过这种方式,能够使用户亲自参与指定区域采样点的采集,能够提升用户体验。
参见图8,在一实施例中,基于用户在用户设备上的标记操作,还可以识别出对应的目标物体,即所述方法还可以包括:步骤S111、步骤S112以及步骤S113。
步骤S111:响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息。
步骤S112:根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的多个目标采样点。
步骤S113:根据所述多个目标采样点识别出所述三维模型中所述多个目标采样点对应的目标物体。
其中,识别出目标物体后,还可以使可移动平台跟踪目标物体,即所述方法还包括:控制所述可移动平台跟踪已识别出的目标物体。
参见图9,在一实施例中,基于用户在用户设备上的框选操作,还可以展示已采集的测量数据,便于后续用户能够为关键物体状态、尺度等做出初步判断,即所述方法还包括:步骤S114、步骤S115以及步骤S116。
步骤S114:响应于用户在所述用户设备上的框选操作,获取用户在所述点云画面上的标记的位置信息。
步骤S115:根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点。
步骤S116:展示所述目标采样点已采集的测量数据。
通过上述方式,能够使用户直观看到目标采样点已采集的测量数据,便于用户为关键物体状态、尺度等做出初步判断提供技术支持。
第二个主要角度是:根据可移动平台和/或点云传感器位姿变化,调整FPV形成。简单说就是:可移动平台在移动和/或点云传感器位姿变化,随着可移动平台和/或点云传感器的姿态变化,当前展示在用户界面上的FPV的点云视角也发生变化。
需要说明的是,第二个主要角度的相关内容与第一个主要角度的相关内容两者之间有共同内容,有关两者之间的共同内容的详细说明请参见上述第一个主要角度的相关内容部分,在此不再赘叙。下面主要是详细说明第二个主要角度的相关内容中不同于第一个主要角度的相关内容的内容。
参见图10,图10是本申请数据处理方法又一实施例的流程示意图,所述方法包括:步骤S201、步骤S202、步骤S203以及步骤S204。
步骤S201:获取目标场景的三维模型的采样点的三维数据。
本实施例中,采样点的三维数据来自目标场景的三维模型,由于已构建目标场景的三维模型,在获取目标场景的三维模型的采样点的三维数据时,可以获取到某一个视角范围内的一个或多个采样点的三维数据。
步骤S202:获取可移动平台和/或所述可移动平台搭载的点云传感器的相对于所述目标场景的第二位姿数据。
本实施例中,第二位姿数据是可移动平台和/或所述可移动平台搭载的点云传感器的相对于所述目标场景的位姿数据。可移动平台和/或所述可移动平台搭载的点云传感器的相对于所述目标场景的某个第二位姿数据,所述可移动平台搭载的点云传感器采集的采样点可以是一个或多个。
需要说明的是,步骤S201和步骤S202没有明显的先后顺序关系。
步骤S203:根据所述采样点的三维数据和所述第二位姿数据,将所述采样点投影在观测平面上。
步骤S204:根据投影到所述观测平面上的采样点生成点云画面,所述点云画面用于在所述可移动平台的用户设备上展示。
本申请实施例获取目标场景的三维模型的采样点的三维数据;获取可移动平台和/或所述可移动平台搭载的点云传感器的相对于所述目标场景的位姿数据;根据所述采样点的三维数据和所述位姿数据,将所述采样点投影在观测平面上;根据投影到所述观测平面上的采样点生成点云画面,所述点云画面用于在所述可移动平台的用户设备上展示。由于采样点的三维数据是目标场景的三维模型的采样点的三维数据,第二位姿数据是可移动平台和/或所述可移动平台搭载的点云传感器的相对于所述目标场景的位姿数据,据此将所述采样点投影在观测平面上,投影在观测平面上的是可移动平台和/或点云传感器某个视角下所采集的采样点,生成的点云画面也是可移动平台和/或点云传感器某个视角下所采集的采样点的点云画面,因此当可移动平台在移动和/或点云传感器位姿变化,随着可移动平台和/或点云传感器的姿态变化,当前展示在用户界面上的FPV的点云视角也发生变化。
其中,步骤S103,根据所述采样点的三维数据和所述第二位姿数据,将所述采样点投影在观测平面上,可以包括:根据所述第二位姿数据,确定所述观测平面;根据所述三维数据将所述采样点投影至所述观测平面上。
其中,所述三维模型中的所述采样点的三维数据是通过所述可移动平台搭载的点云传感器实时/预先采集得到的。
其中,生成的所述点云画面中包括一个或者多个所述采样点的投影。
其中,所述方法还包括:获取投影在所述观测平面的所述采样点的颜色信息;此时,步骤S204,所述根据投影到所述观测平面上的采样点生成点云画面,可以包括:根据所述观测平面上的采样点的颜色信息生成所述点云画面。
其中,所述可移动平台还搭载可见光传感器,所述采样点的颜色信息是基于所述可见光传感器的采集所述目标场景形成的可见光成像确定的。
其中,所述方法还包括:在所述可见光成像中确定与所述采样点对应同一物点的像素点,根据所述像素点的像素值确定所述采样点的所述颜色信息。
其中,所述可见光传感器与所述点云传感器固定连接。
其中,所述可见光传感器与所述点云传感器固定连接,且通过云台结构搭载于所述可移动平台。
其中,所述方法还包括:响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息和内容信息;根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点;将所述内容信息与所述目标采样点关联存储。
其中,所述内容信息包括以下信息中的一种或者多种:任务信息、类型信息、状态信息。
其中,所述目标采样点为所述三维模型中的一个或者多个采样点。
其中,所述根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点,包括:根据所述标记的位置信息,和当前展示的点云画面的投影关系,在所述三维模型中确定与所述标记的位置信息相对应的一个或多个目标采样点。
其中,所述标记的位置信息包括所述标记操作的点在所述观测平面的二维坐标位置,所述根据所述标记的位置信息,和当前展示的点云画面的投影关系,在所述三维模型中确定与所述标记的位置信息相对应的一个或多个采样点,包括:从所述观测平面的所述二维坐标位置出发,沿所述观测平面的预设方向,在所述三维模型中确定距离所述观测平面最近的采样点,作为所述目标采样点。
其中,所述预设方向为所述观测平面的法线方向,或者与所述观测平面的法线方向呈预设夹角的方向。
其中,所述方法还包括:响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息;根据所述标记的位置信息,确定与所述标记位置信息相对应的空间位置信息;控制所述点云传感器采集与所述空间位置信息相应处的采样点的三维数据。
其中,所述空间位置信息包括三维坐标。
其中,所述控制所述点云传感器采集与所述空间位置信息相应处的采样点的三维数据,还包括:响应于用于指示采样的触发指令,控制所述点云传感器采集与所述三维坐标相应处的采样点的三维数据。
其中,所述方法还包括:响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息;根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的多个目标采样点;根据所述多个目标采样点识别出所述三维模型中所述多个目标采样点对应的目标物体。
其中,所述方法还包括:控制所述可移动平台跟踪已识别出的目标物体。
其中,所述方法还包括:响应于用户在所述用户设备上的框选操作,获取用户在所述点云画面上的标记的位置信息;根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点;展示所述目标采样点已采集的测量数据。
第三个主要角度是:实时监控可移动平台的点云传感器的采集过程,实时监控可移动平台和/或所述点云传感器的姿态,用户能够在用户界面观看到实时采集过程。
需要说明的是,第三个主要角度的相关内容与第一个主要角度的相关内容和/或第二个主要角度的相关内容两者或三者之间有共同内容,有关两者或三者之间的共同内容的详细说明请参见上述第一个主要角度的相关内容部分和/或第二个主要角度的相关内容,在此不再赘叙。下面主要是详细说明第三个主要角度的相关内容中不同于第一个主要角度的相关内容和/或第二个主要角度的相关内容的内容。
参见图11,图11是本申请数据处理方法又一实施例的流程示意图,所述方法包括:步骤S301、步骤S302以及步骤S303。
步骤S301:控制可移动平台的点云传感器采集目标场景中采样点的测量数据,所述测量数据包括所述采样点相对所述点云传感器之间的距离和/或方位数据。
步骤S302:获取采集所述采样点时所述可移动平台和/或所述点云传感器的在所述地理坐标系的第一位姿数据。
需要说明的是,步骤S301和步骤S302没有明显的先后顺序关系。
步骤S303:根据所述测量数据和在所述地理坐标系的第一位姿数据,确定所述采样点的在所述地理坐标系下的三维数据;其中,所述采样点的三维数据用于投影在与所述位姿数据相应的观测平面上,并生成在所述可移动平台的用户设备展示的点云画面。
本实施例中,在本地控制可移动平台的点云传感器采集目标场景中采样点的测量数据,获取采集所述采样点时所述可移动平台和/或所述点云传感器的在所述地理坐标系的第一位姿数据,据此确定所述采样点的在所述地理坐标系下的三维数据。所述采样点的三维数据具体用于投影在与所述位姿数据相应的观测平面上,并生成在所述可移动平台的用户设备展示的点云画面。其中,将所述采样点的三维数据投影到与所述位姿数据相应的观测平面上,并生成点云换面的过程,可以在本地执行,也可以在其他地面端设备(如PC、平板、移动设备等)或云端执行。
本申请实施例控制可移动平台的点云传感器采集目标场景中采样点的测量数据,所述测量数据包括所述采样点相对所述点云传感器之间的距离和/或方位数据;获取采集所述采样点时所述可移动平台和/或所述点云传感器的在所述地理坐标系的位姿数据;根据所述测量数据和所述位姿数据,确定所述采样点的在所述地理坐标系下的三维数据;其中,所述采样点的所述三维数据用于投影在与所述位姿数据相应的观测平面上,并生成在所述可移动平台的用户终端展示的点云画面。由于控制可移动平台的点云传感器采集目标场景中采样点的测量数据,根据测量数据和采集所述采样点时所述可移动平台和/或所述点云传感器的在所述地理坐标系的位姿数据,确定所述采样点的在所述地理坐标系下的三维数据,采样点的所述三维数据用于投影在与所述位姿数据相应的观测平面上,并生成在所述可移动平台的用户终端展示的点云画面,通过这种方式,能够使用户在用户界面观看到可移动平台的点云传感器的实时采集过程。
其中,所述方法还包括:根据所述采样点的三维数据和在所述地理坐标系的第一位姿数据,将所述采样点投影在观测平面上;根据投影到所述观测平面上的采样点生成点云画面,所述点云画面用于在所述可移动平台的用户设备上展示。
其中,生成的所述点云画面中包括一个或者多个所述采样点的投影。
其中,所述方法还包括:获取投影在所述观测平面的所述采样点的颜色信息;所述根据投影到所述观测平面上的采样点生成点云画面,包括:根据所述观测平面上的采样点的颜色信息生成所述点云画面。
其中,所述可移动平台还搭载可见光传感器,所述采样点的颜色信息是基于所述可见光传感器的采集所述目标场景形成的可见光成像确定的。
其中,所述方法还包括:在所述可见光成像中确定与所述采样点对应同一物点的像素点,根据所述像素点的像素值确定所述采样点的所述颜色信息。
其中,所述可见光传感器与所述点云传感器固定连接。
其中,所述可见光传感器与所述点云传感器固定连接,且通过云台结构搭载于所述可移动平台。
其中,所述方法还包括:响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息和内容信息;根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点;将所述内容信息与所述目标采样点关联存储。
其中,所述内容信息包括以下信息中的一种或者多种:任务信息、类型信息、状态信息。
其中,所述目标采样点为所述三维模型中的一个或者多个采样点。
其中,所述根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点,包括:根据所述标记的位置信息,和当前展示的点云画面的投影关系,在所述三维模型中确定与所述标记的位置信息相对应的一个或多个目标采样点。
其中,所述标记的位置信息包括所述标记操作的点在所述观测平面的二维坐标位置,所述根据所述标记的位置信息,和当前展示的点云画面的投影关系,在所述三维模型中确定与所述标记的位置信息相对应的一个或多个采样点,包括:从所述观测平面的所述二维坐标位置出发,沿所述观测平面的预设方向,在所述三维模型中确定距离所述观测平面最近的采样点,作为所述目标采样点。
其中,所述预设方向为所述观测平面的法线方向,或者与所述观测平面的法线方向呈预设夹角的方向。
其中,所述方法还包括:响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息;根据所述标记的位置信息,确定与所述标记位置信息相对应的空间位置信息;控制所述点云传感器采集与所述空间位置信息相应处的采样点的三维数据。
其中,所述空间位置信息包括三维坐标。
其中,所述控制所述点云传感器采集与所述空间位置信息相应处的采样点的三维数据,还包括:响应于用于指示采样的触发指令,控制所述点云传感器采集与所述三维坐标相应处的采样点的三维数据。
其中,所述方法还包括:响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息;根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的多个目标采样点;根据所述多个目标采样点识别出所述三维模型中所述多个目标采样点对应的目标物体。
其中,所述方法还包括:控制所述可移动平台跟踪已识别出的目标物体。
其中,所述方法还包括:响应于用户在所述用户设备上的框选操作,获取用户在所述点云画面上的标记的位置信息;根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点;展示所述目标采样点已采集的测量数据。
参见图12,图12是本申请控制设备一实施例的结构示意图,需要说明的是,本实施例的控制设备能够执行上述第一个主要角度的数据处理方法中的步骤,相关内容的详细说明,请参见上述第一个主要角度的数据处理方法的相关内容,在此不再赘叙。
所述控制设备100包括:存储器1和处理器2;处理器2与存储器1通过总线连接。
其中,处理器2可以是微控制单元、中央处理单元或数字信号处理器,等等。
其中,存储器1可以是Flash芯片、只读存储器、磁盘、光盘、U盘或者移动硬盘等等。
所述存储器1用于存储计算机程序;所述处理器2用于执行所述计算机程序并在执行所述计算机程序时,实现如下步骤:
获取采样点的三维数据,所述采样点的三维数据是在可移动平台运动过程中,通过所述可移动平台搭载的点云传感器采集得到的;获取采集所述采样点时所述可移动平台和/或所述点云传感器的第一位姿数据;根据所述采样点的三维数据和所述第一位姿数据,将所述采样点投影在观测平面上;根据投影到所述观测平面上的采样点生成点云画面,所述点云画面用于在所述可移动平台的用户设备上展示。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:根据所述第一位姿数据,确定所述观测平面;根据所述三维数据将所述采样点投影至所述观测平面上。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:控制所述点云传感器采集目标场景中采样点的测量数据,所述测量数据包括所述采样点相对所述点云传感器之间的距离和/或方位数据;根据所述测量数据,确定所述采样点的在预设坐标系下的三维位置数据。
其中,所述预设坐标系为地理坐标系或者所述可移动平台的机身坐标系。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:获取采集所述采样点时所述可移动平台和/或所述点云传感器在所述地理坐标系的第一位姿数据;根据所述测量数据和在所述地理坐标系的第一位姿数据,确定所述采样点的在所述地理坐标系下的三维位置数据。
其中,生成的所述点云画面中包括一个或者多个所述采样点的投影。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:获取投影在所述观测平面的所述采样点的颜色信息;根据所述观测平面上的采样点的颜色信息生成所述点云画面。
其中,所述可移动平台还搭载可见光传感器,所述采样点的颜色信息是基于所述可见光传感器的采集所述目标场景形成的可见光成像确定的。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:在所述可见光成像中确定与所述采样点对应同一物点的像素点,根据所述像素点的像素值确定所述采样点的所述颜色信息。
其中,所述可见光传感器与所述点云传感器固定连接。
其中,所述可见光传感器与所述点云传感器固定连接,且通过云台结构搭载于所述可移动平台。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息和内容信息;根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点;将所述内容信息与所述目标采样点关联存储。
其中,所述内容信息包括以下信息中的一种或者多种:任务信息、类型信息、状态信息。
其中,所述目标采样点为所述三维模型中的一个或者多个采样点。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:根据所述标记的位置信息,和当前展示的点云画面的投影关系,在所述三维模型中确定与所述标记的位置信息相对应的一个或多个目标采样点。
其中,所述标记的位置信息包括所述标记操作的点在所述观测平面的二维坐标位置,所述处理器在执行所述计算机程序时,实现如下步骤:从所述观测平面的所述二维坐标位置出发,沿所述观测平面的预设方向,在所述三维模型中确定距离所述观测平面最近的采样点,作为所述目标采样点。
其中,所述预设方向为所述观测平面的法线方向,或者与所述观测平面的法线方向呈预设夹角的方向。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息;根据所述标记的位置信息,确定与所述标记位置信息相对应的空间位置信息;控制所述点云传感器采集与所述空间位置信息相应处的采样点的三维数据。
其中,所述空间位置信息包括三维坐标。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:响应于用于指示采样的触发指令,控制所述点云传感器采集与所述三维坐标相应处的采样点的三维数据。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息;根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的多个目标采样点;根据所述多个目标采样点识别出所述三维模型中所述多个目标采样点对应的目标物体。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:控制所述可移动平台跟踪已识别出的目标物体。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:响应于用户在所述用户设备上的框选操作,获取用户在所述点云画面上的标记的位置信息;根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点;展示所述目标采样点已采集的测量数据。
本申请还提供另一种控制设备,需要说明的是,本实施例的控制设备能够执行上述第二个主要角度的数据处理方法中的步骤,相关内容的详细说明,请参见上述第二个主要角度的数据处理方法的相关内容,在此不再赘叙。
所述控制设备包括:存储器和处理器;处理器与存储器通过总线连接。
其中,处理器可以是微控制单元、中央处理单元或数字信号处理器,等等。
其中,存储器可以是Flash芯片、只读存储器、磁盘、光盘、U盘或者移动硬盘等等。
所述存储器用于存储计算机程序;所述处理器用于执行所述计算机程序并在执行所述计算机程序时,实现如下步骤:
获取目标场景的三维模型的采样点的三维数据;获取可移动平台和/或所述可移动平台搭载的点云传感器的相对于所述目标场景的第二位姿数据;根据所述采样点的三维数据和所述第二位姿数据,将所述采样点投影在观测平面上;根据投影到所述观测平面上的采样点生成点云画面,所述点云画面用于在所述可移动平台的用户设备上展示。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:根据所述第二位姿数据,确定所述观测平面;根据所述三维数据将所述采样点投影至所述观测平面上。
其中,所述三维模型中的所述采样点的三维数据是通过所述可移动平台搭载的点云传感器实时/预先采集得到的。
其中,生成的所述点云画面中包括一个或者多个所述采样点的投影。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:获取投影在所述观测平面的所述采样点的颜色信息;根据所述观测平面上的采样点的颜色信息生成所述点云画面。
其中,所述可移动平台还搭载可见光传感器,所述采样点的颜色信息是基于所述可见光传感器的采集所述目标场景形成的可见光成像确定的。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:在所述可见光成像中确定与所述采样点对应同一物点的像素点,根据所述像素点的像素值确定所述采样点的所述颜色信息。
其中,所述可见光传感器与所述点云传感器固定连接。
其中,所述可见光传感器与所述点云传感器固定连接,且通过云台结构搭载于所述可移动平台。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息和内容信息;根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点;将所述内容信息与所述目标采样点关联存储。
其中,所述内容信息包括以下信息中的一种或者多种:任务信息、类型信息、状态信息。
其中,所述目标采样点为所述三维模型中的一个或者多个采样点。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:根据所述标记的位置信息,和当前展示的点云画面的投影关系,在所述三维模型中确定与所述标记的位置信息相对应的一个或多个目标采样点。
其中,所述标记的位置信息包括所述标记操作的点在所述观测平面的二维坐标位置,所述处理器在执行所述计算机程序时,实现如下步骤:从所述观测平面的所述二维坐标位置出发,沿所述观测平面的预设方向,在所述三维模型中确定距离所述观测平面最近的采样点,作为所述目标采样点。
其中,所述预设方向为所述观测平面的法线方向,或者与所述观测平面的法线方向呈预设夹角的方向。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息;根据所述标记的位置信息,确定与所述标记位置信息相对应的空间位置信息;控制所述点云传感器采集与所述空间位置信息相应处的采样点的三维数据。
其中,所述空间位置信息包括三维坐标。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:响应于用于指示采样的触发指令,控制所述点云传感器采集与所述三维坐标相应处的采样点的三维数据。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息;根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的多个目标采样点;根据所述多个目标采样点识别出所述三维模型中所述多个目标采样点对应的目标物体。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:控制所述可移动平台跟踪已识别出的目标物体。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:响应于用户在所述用户设备上的框选操作,获取用户在所述点云画面上的标记的位置信息;根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点;展示所述目标采样点已采集的测量数据。
本申请还提供又一种控制设备,需要说明的是,本实施例的控制设备能够执行上述第三个主要角度的数据处理方法中的步骤,相关内容的详细说明,请参见上述第三个主要角度的数据处理方法的相关内容,在此不再赘叙。
所述控制设备包括:存储器和处理器;处理器与存储器通过总线连接。
其中,处理器可以是微控制单元、中央处理单元或数字信号处理器,等等。
其中,存储器可以是Flash芯片、只读存储器、磁盘、光盘、U盘或者移动硬盘等等。
所述存储器用于存储计算机程序;所述处理器用于执行所述计算机程序并在执行所述计算机程序时,实现如下步骤:
控制可移动平台的点云传感器采集目标场景中采样点的测量数据,所述测量数据包括所述采样点相对所述点云传感器之间的距离和/或方位数据;获取采集所述采样点时所述可移动平台和/或所述点云传感器的在所述地理坐标系的第一位姿数据;根据所述测量数据和在所述地理坐标系的第一位姿数据,确定所述采样点的在所述地理坐标系下的三维数据;其中,所述采样点的三维数据用于投影在与所述第一位姿数据相应的观测平面上,并生成在所述可移动平台的用户设备展示的点云画面。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:根据所述采样点的三维数据和在所述地理坐标系的第一位姿数据,将所述采样点投影在观测平面上;根据投影到所述观测平面上的采样点生成点云画面,所述点云画面用于在所述可移动平台的用户设备上展示。
其中,生成的所述点云画面中包括一个或者多个所述采样点的投影。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:获取投影在所述观测平面的所述采样点的颜色信息;根据所述观测平面上的采样点的颜色信息生成所述点云画面。
其中,所述可移动平台还搭载可见光传感器,所述采样点的颜色信息是基于所述可见光传感器的采集所述目标场景形成的可见光成像确定的。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:在所述可见光成像中确定与所述采样点对应同一物点的像素点,根据所述像素点的像素值确定所述采样点的所述颜色信息。
其中,所述可见光传感器与所述点云传感器固定连接。
其中,所述可见光传感器与所述点云传感器固定连接,且通过云台结构搭载于所述可移动平台。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息和内容信息;根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点;将所述内容信息与所述目标采样点关联存储。
其中,所述内容信息包括以下信息中的一种或者多种:任务信息、类型信息、状态信息。
其中,所述目标采样点为所述三维模型中的一个或者多个采样点。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:根据所述标记的位置信息,和当前展示的点云画面的投影关系,在所述三维模型中确定与所述标记的位置信息相对应的一个或多个目标采样点。
其中,所述标记的位置信息包括所述标记操作的点在所述观测平面的二维坐标位置,所述处理器在执行所述计算机程序时,实现如下步骤:从所述观测平面的所述二维坐标位置出发,沿所述观测平面的预设方向,在所述三维模型中确定距离所述观测平面最近的采样点,作为所述目标采样点。
其中,所述预设方向为所述观测平面的法线方向,或者与所述观测平面的法线方向呈预设夹角的方向。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息;根据所述标记的位置信息,确定与所述标记位置信息相对应的空间位置信息;控制所述点云传感器采集与所述空间位置信息相应处的采样点的三维数据。
其中,所述空间位置信息包括三维坐标。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:响应于用于指示采样的触发指令,控制所述点云传感器采集与所述三维坐标相应处的采样点的三维数据。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息;根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的多个目标采样点;根据所述多个目标采样点识别出所述三维模型中所述多个目标采样点对应的目标物体。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:控制所述可移动平台跟踪已识别出的目标物体。
其中,所述处理器在执行所述计算机程序时,实现如下步骤:响应于用户在所述用户设备上的框选操作,获取用户在所述点云画面上的标记的位置信息;根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点;展示所述目标采样点已采集的测量数据。
本申请还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如上第一个主要角度中任一项所述的数据处理方法。相关内容的详细说明请参见上述相关内容部分,在此不再赘叙。
其中,该计算机可读存储介质可以是上述第一个主要角度对应的控制设备的内部存储单元,例如硬盘或内存。该计算机可读存储介质也可以是外部存储设备,例如配备的插接式硬盘、智能存储卡、安全数字卡、闪存卡,等等。
本申请还提供另一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如上第二个主要角度中任一项所述的数据处理方法。相关内容的详细说明请参见上述相关内容部分,在此不再赘叙。
其中,该计算机可读存储介质可以是上述第二个主要角度对应的控制设备的内部存储单元,例如硬盘或内存。该计算机可读存储介质也可以是外部存储设备,例如配备的插接式硬盘、智能存储卡、安全数字卡、闪存卡,等等。
本申请还提供又一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如上第三个主要角度中任一项所述的数据处理方法。相关内容的详细说明请参见上述相关内容部分,在此不再赘叙。
其中,该计算机可读存储介质可以是上述第三个主要角度对应的控制设备的内部存储单元,例如硬盘或内存。该计算机可读存储介质也可以是外部存储设备,例如配备的插接式硬盘、智能存储卡、安全数字卡、闪存卡,等等。
应当理解,在本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
以上所述,仅为本申请的具体实施例,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (131)
1.一种数据处理方法,其特征在于,所述方法包括:
获取采样点的三维数据,所述采样点的三维数据是在可移动平台运动过程中,通过所述可移动平台搭载的点云传感器采集得到的;
获取采集所述采样点时所述可移动平台和/或所述点云传感器的第一位姿数据;
根据所述采样点的三维数据和所述第一位姿数据,将所述采样点投影在观测平面上;
根据投影到所述观测平面上的采样点生成点云画面,所述点云画面用于在所述可移动平台的用户设备上展示。
2.根据权利要求1所述的方法,其特征在于,所述根据所述采样点的三维数据和所述第一位姿数据,将所述采样点投影在观测平面上,包括:
根据所述第一位姿数据,确定所述观测平面;
根据所述三维数据将所述采样点投影至所述观测平面上。
3.根据权利要求1所述的方法,其特征在于,所述获取采样点的三维数据,包括:
控制所述点云传感器采集目标场景中采样点的测量数据,所述测量数据包括所述采样点相对所述点云传感器之间的距离和/或方位数据;
根据所述测量数据,确定所述采样点的在预设坐标系下的三维位置数据。
4.根据权利要求3所述的方法,其特征在于,所述预设坐标系为地理坐标系或者所述可移动平台的机身坐标系。
5.根据权利要求4所述的方法,其特征在于,所述根据所述测量数据,确定所述采样点的在预设坐标系下的三维位置数据,包括:
获取采集所述采样点时所述可移动平台和/或所述点云传感器在所述地理坐标系的第一位姿数据;
根据所述测量数据和在所述地理坐标系的第一位姿数据,确定所述采样点的在所述地理坐标系下的三维位置数据。
6.根据权利要求1所述的方法,其特征在于,生成的所述点云画面中包括一个或者多个所述采样点的投影。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取投影在所述观测平面的所述采样点的颜色信息;
所述根据投影到所述观测平面上的采样点生成点云画面,包括:
根据所述观测平面上的采样点的颜色信息生成所述点云画面。
8.根据权利要求7所述的方法,其特征在于,所述可移动平台还搭载可见光传感器,所述采样点的颜色信息是基于所述可见光传感器的采集所述目标场景形成的可见光成像确定的。
9.根据权利要求8所述的方法,其特征在于,所述方法还包括:
在所述可见光成像中确定与所述采样点对应同一物点的像素点,根据所述像素点的像素值确定所述采样点的所述颜色信息。
10.根据权利要求8所述的方法,其特征在于,所述可见光传感器与所述点云传感器固定连接。
11.根据权利要求10所述的方法,其特征在于,所述可见光传感器与所述点云传感器固定连接,且通过云台结构搭载于所述可移动平台。
12.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息和内容信息;
根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点;
将所述内容信息与所述目标采样点关联存储。
13.根据权利要求12所述的方法,其特征在于,所述内容信息包括以下信息中的一种或者多种:任务信息、类型信息、状态信息。
14.根据权利要求12所述的方法,其特征在于,所述目标采样点为所述三维模型中的一个或者多个采样点。
15.根据权利要求12所述的方法,其特征在于,所述根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点,包括:
根据所述标记的位置信息,和当前展示的点云画面的投影关系,在所述三维模型中确定与所述标记的位置信息相对应的一个或多个目标采样点。
16.根据权利要求15所述的方法,其特征在于,所述标记的位置信息包括所述标记操作的点在所述观测平面的二维坐标位置,
所述根据所述标记的位置信息,和当前展示的点云画面的投影关系,在所述三维模型中确定与所述标记的位置信息相对应的一个或多个目标采样点,包括:
从所述观测平面的所述二维坐标位置出发,沿所述观测平面的预设方向,在所述三维模型中确定距离所述观测平面最近的采样点,作为所述目标采样点。
17.根据权利要求16所述的方法,其特征在于,所述预设方向为所述观测平面的法线方向,或者与所述观测平面的法线方向呈预设夹角的方向。
18.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息;
根据所述标记的位置信息,确定与所述标记位置信息相对应的空间位置信息;
控制所述点云传感器采集与所述空间位置信息相应处的采样点的三维数据。
19.根据权利要求18所述的方法,其特征在于,所述空间位置信息包括三维坐标。
20.根据权利要求19所述的方法,其特征在于,所述控制所述点云传感器采集与所述空间位置信息相应处的采样点的三维数据,还包括:
响应于用于指示采样的触发指令,控制所述点云传感器采集与所述三维坐标相应处的采样点的三维数据。
21.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息;
根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的多个目标采样点;
根据所述多个目标采样点识别出所述三维模型中所述多个目标采样点对应的目标物体。
22.根据权利要求21所述的方法,其特征在于,所述方法还包括:
控制所述可移动平台跟踪已识别出的目标物体。
23.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应于用户在所述用户设备上的框选操作,获取用户在所述点云画面上的标记的位置信息;
根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点;
展示所述目标采样点已采集的测量数据。
24.一种数据处理方法,其特征在于,所述方法包括:
获取目标场景的三维模型的采样点的三维数据;
获取可移动平台和/或所述可移动平台搭载的点云传感器的相对于所述目标场景的第二位姿数据;
根据所述采样点的三维数据和所述第二位姿数据,将所述采样点投影在观测平面上;
根据投影到所述观测平面上的采样点生成点云画面,所述点云画面用于在所述可移动平台的用户设备上展示。
25.根据权利要求24所述的方法,其特征在于,所述根据所述采样点的三维数据和所述第二位姿数据,将所述采样点投影在观测平面上,包括:
根据所述第二位姿数据,确定所述观测平面;
根据所述三维数据将所述采样点投影至所述观测平面上。
26.根据权利要求24所述的方法,其特征在于,所述三维模型中的所述采样点的三维数据是通过所述可移动平台搭载的点云传感器实时/预先采集得到的。
27.根据权利要求24所述的方法,其特征在于,生成的所述点云画面中包括一个或者多个所述采样点的投影。
28.根据权利要求24所述的方法,其特征在于,所述方法还包括:
获取投影在所述观测平面的所述采样点的颜色信息;
所述根据投影到所述观测平面上的采样点生成点云画面,包括:
根据所述观测平面上的采样点的颜色信息生成所述点云画面。
29.根据权利要求28所述的方法,其特征在于,所述可移动平台还搭载可见光传感器,所述采样点的颜色信息是基于所述可见光传感器的采集所述目标场景形成的可见光成像确定的。
30.根据权利要求29所述的方法,其特征在于,所述方法还包括:
在所述可见光成像中确定与所述采样点对应同一物点的像素点,根据所述像素点的像素值确定所述采样点的所述颜色信息。
31.根据权利要求29所述的方法,其特征在于,所述可见光传感器与所述点云传感器固定连接。
32.根据权利要求31所述的方法,其特征在于,所述可见光传感器与所述点云传感器固定连接,且通过云台结构搭载于所述可移动平台。
33.根据权利要求24所述的方法,其特征在于,所述方法还包括:
响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息和内容信息;
根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点;
将所述内容信息与所述目标采样点关联存储。
34.根据权利要求33所述的方法,其特征在于,所述内容信息包括以下信息中的一种或者多种:任务信息、类型信息、状态信息。
35.根据权利要求33所述的方法,其特征在于,所述目标采样点为所述三维模型中的一个或者多个采样点。
36.根据权利要求33所述的方法,其特征在于,所述根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点,包括:
根据所述标记的位置信息,和当前展示的点云画面的投影关系,在所述三维模型中确定与所述标记的位置信息相对应的一个或多个目标采样点。
37.根据权利要求36所述的方法,其特征在于,所述标记的位置信息包括所述标记操作的点在所述观测平面的二维坐标位置,
所述根据所述标记的位置信息,和当前展示的点云画面的投影关系,在所述三维模型中确定与所述标记的位置信息相对应的一个或多个采样点,包括:
从所述观测平面的所述二维坐标位置出发,沿所述观测平面的预设方向,在所述三维模型中确定距离所述观测平面最近的采样点,作为所述目标采样点。
38.根据权利要求37所述的方法,其特征在于,所述预设方向为所述观测平面的法线方向,或者与所述观测平面的法线方向呈预设夹角的方向。
39.根据权利要求24所述的方法,其特征在于,所述方法还包括:
响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息;
根据所述标记的位置信息,确定与所述标记位置信息相对应的空间位置信息;
控制所述点云传感器采集与所述空间位置信息相应处的采样点的三维数据。
40.根据权利要求39所述的方法,其特征在于,所述空间位置信息包括三维坐标。
41.根据权利要求40所述的方法,其特征在于,所述控制所述点云传感器采集与所述空间位置信息相应处的采样点的三维数据,还包括:
响应于用于指示采样的触发指令,控制所述点云传感器采集与所述三维坐标相应处的采样点的三维数据。
42.根据权利要求24所述的方法,其特征在于,所述方法还包括:
响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息;
根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的多个目标采样点;
根据所述多个目标采样点识别出所述三维模型中所述多个目标采样点对应的目标物体。
43.根据权利要求42所述的方法,其特征在于,所述方法还包括:
控制所述可移动平台跟踪已识别出的目标物体。
44.根据权利要求24所述的方法,其特征在于,所述方法还包括:
响应于用户在所述用户设备上的框选操作,获取用户在所述点云画面上的标记的位置信息;
根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点;
展示所述目标采样点已采集的测量数据。
45.一种数据处理方法,其特征在于,所述方法包括:
控制可移动平台的点云传感器采集目标场景中采样点的测量数据,所述测量数据包括所述采样点相对所述点云传感器之间的距离和/或方位数据;
获取采集所述采样点时所述可移动平台和/或所述点云传感器的在所述地理坐标系的第一位姿数据;
根据所述测量数据和在所述地理坐标系的第一位姿数据,确定所述采样点的在所述地理坐标系下的三维数据;
其中,所述采样点的三维数据用于投影在与所述第一位姿数据相应的观测平面上,并生成在所述可移动平台的用户设备展示的点云画面。
46.根据权利要求45所述的方法,其特征在于,所述方法还包括:
根据所述采样点的三维数据和在所述地理坐标系的第一位姿数据,将所述采样点投影在观测平面上;
根据投影到所述观测平面上的采样点生成点云画面,所述点云画面用于在所述可移动平台的用户设备上展示。
47.根据权利要求45所述的方法,其特征在于,生成的所述点云画面中包括一个或者多个所述采样点的投影。
48.根据权利要求45所述的方法,其特征在于,所述方法还包括:
获取投影在所述观测平面的所述采样点的颜色信息;
所述根据投影到所述观测平面上的采样点生成点云画面,包括:
根据所述观测平面上的采样点的颜色信息生成所述点云画面。
49.根据权利要求48所述的方法,其特征在于,所述可移动平台还搭载可见光传感器,所述采样点的颜色信息是基于所述可见光传感器的采集所述目标场景形成的可见光成像确定的。
50.根据权利要求49所述的方法,其特征在于,所述方法还包括:
在所述可见光成像中确定与所述采样点对应同一物点的像素点,根据所述像素点的像素值确定所述采样点的所述颜色信息。
51.根据权利要求49所述的方法,其特征在于,所述可见光传感器与所述点云传感器固定连接。
52.根据权利要求51所述的方法,其特征在于,所述可见光传感器与所述点云传感器固定连接,且通过云台结构搭载于所述可移动平台。
53.根据权利要求45所述的方法,其特征在于,所述方法还包括:
响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息和内容信息;
根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点;
将所述内容信息与所述目标采样点关联存储。
54.根据权利要求53所述的方法,其特征在于,所述内容信息包括以下信息中的一种或者多种:任务信息、类型信息、状态信息。
55.根据权利要求53所述的方法,其特征在于,所述目标采样点为所述三维模型中的一个或者多个采样点。
56.根据权利要求53所述的方法,其特征在于,所述根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点,包括:
根据所述标记的位置信息,和当前展示的点云画面的投影关系,在所述三维模型中确定与所述标记的位置信息相对应的一个或多个目标采样点。
57.根据权利要求56所述的方法,其特征在于,所述标记的位置信息包括所述标记操作的点在所述观测平面的二维坐标位置,
所述根据所述标记的位置信息,和当前展示的点云画面的投影关系,在所述三维模型中确定与所述标记的位置信息相对应的一个或多个采样点,包括:
从所述观测平面的所述二维坐标位置出发,沿所述观测平面的预设方向,在所述三维模型中确定距离所述观测平面最近的采样点,作为所述目标采样点。
58.根据权利要求57所述的方法,其特征在于,所述预设方向为所述观测平面的法线方向,或者与所述观测平面的法线方向呈预设夹角的方向。
59.根据权利要求45所述的方法,其特征在于,所述方法还包括:
响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息;
根据所述标记的位置信息,确定与所述标记位置信息相对应的空间位置信息;
控制所述点云传感器采集与所述空间位置信息相应处的采样点的三维数据。
60.根据权利要求59所述的方法,其特征在于,所述空间位置信息包括三维坐标。
61.根据权利要求60所述的方法,其特征在于,所述控制所述点云传感器采集与所述空间位置信息相应处的采样点的三维数据,还包括:
响应于用于指示采样的触发指令,控制所述点云传感器采集与所述三维坐标相应处的采样点的三维数据。
62.根据权利要求45所述的方法,其特征在于,所述方法还包括:
响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息;
根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的多个目标采样点;
根据所述多个目标采样点识别出所述三维模型中所述多个目标采样点对应的目标物体。
63.根据权利要求62所述的方法,其特征在于,所述方法还包括:
控制所述可移动平台跟踪已识别出的目标物体。
64.根据权利要求45所述的方法,其特征在于,所述方法还包括:
响应于用户在所述用户设备上的框选操作,获取用户在所述点云画面上的标记的位置信息;
根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点;
展示所述目标采样点已采集的测量数据。
65.一种控制设备,其特征在于,所述控制设备包括:存储器和处理器;
所述存储器用于存储计算机程序;
所述处理器用于执行所述计算机程序并在执行所述计算机程序时,实现如下步骤:
获取采样点的三维数据,所述采样点的三维数据是在可移动平台运动过程中,通过所述可移动平台搭载的点云传感器采集得到的;
获取采集所述采样点时所述可移动平台和/或所述点云传感器的第一位姿数据;
根据所述采样点的三维数据和所述第一位姿数据,将所述采样点投影在观测平面上;
根据投影到所述观测平面上的采样点生成点云画面,所述点云画面用于在所述可移动平台的用户设备上展示。
66.根据权利要求65所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
根据所述第一位姿数据,确定所述观测平面;
根据所述三维数据将所述采样点投影至所述观测平面上。
67.根据权利要求65所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
控制所述点云传感器采集目标场景中采样点的测量数据,所述测量数据包括所述采样点相对所述点云传感器之间的距离和/或方位数据;
根据所述测量数据,确定所述采样点的在预设坐标系下的三维位置数据。
68.根据权利要求67所述的控制设备,其特征在于,所述预设坐标系为地理坐标系或者所述可移动平台的机身坐标系。
69.根据权利要求68所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
获取采集所述采样点时所述可移动平台和/或所述点云传感器在所述地理坐标系的第一位姿数据;
根据所述测量数据和在所述地理坐标系的第一位姿数据,确定所述采样点的在所述地理坐标系下的三维位置数据。
70.根据权利要求65所述的控制设备,其特征在于,生成的所述点云画面中包括一个或者多个所述采样点的投影。
71.根据权利要求65所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
获取投影在所述观测平面的所述采样点的颜色信息;
根据所述观测平面上的采样点的颜色信息生成所述点云画面。
72.根据权利要求71所述的控制设备,其特征在于,所述可移动平台还搭载可见光传感器,所述采样点的颜色信息是基于所述可见光传感器的采集所述目标场景形成的可见光成像确定的。
73.根据权利要求72所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
在所述可见光成像中确定与所述采样点对应同一物点的像素点,根据所述像素点的像素值确定所述采样点的所述颜色信息。
74.根据权利要求72所述的控制设备,其特征在于,所述可见光传感器与所述点云传感器固定连接。
75.根据权利要求74所述的控制设备,其特征在于,所述可见光传感器与所述点云传感器固定连接,且通过云台结构搭载于所述可移动平台。
76.根据权利要求65所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息和内容信息;
根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点;
将所述内容信息与所述目标采样点关联存储。
77.根据权利要求76所述的控制设备,其特征在于,所述内容信息包括以下信息中的一种或者多种:任务信息、类型信息、状态信息。
78.根据权利要求76所述的控制设备,其特征在于,所述目标采样点为所述三维模型中的一个或者多个采样点。
79.根据权利要求76所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
根据所述标记的位置信息,和当前展示的点云画面的投影关系,在所述三维模型中确定与所述标记的位置信息相对应的一个或多个目标采样点。
80.根据权利要求79所述的控制设备,其特征在于,所述标记的位置信息包括所述标记操作的点在所述观测平面的二维坐标位置,
所述处理器在执行所述计算机程序时,实现如下步骤:
从所述观测平面的所述二维坐标位置出发,沿所述观测平面的预设方向,在所述三维模型中确定距离所述观测平面最近的采样点,作为所述目标采样点。
81.根据权利要求80所述的控制设备,其特征在于,所述预设方向为所述观测平面的法线方向,或者与所述观测平面的法线方向呈预设夹角的方向。
82.根据权利要求65所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息;
根据所述标记的位置信息,确定与所述标记位置信息相对应的空间位置信息;
控制所述点云传感器采集与所述空间位置信息相应处的采样点的三维数据。
83.根据权利要求82所述的控制设备,其特征在于,所述空间位置信息包括三维坐标。
84.根据权利要求83所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
响应于用于指示采样的触发指令,控制所述点云传感器采集与所述三维坐标相应处的采样点的三维数据。
85.根据权利要求65所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息;
根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的多个目标采样点;
根据所述多个目标采样点识别出所述三维模型中所述多个目标采样点对应的目标物体。
86.根据权利要求85所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
控制所述可移动平台跟踪已识别出的目标物体。
87.根据权利要求65所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
响应于用户在所述用户设备上的框选操作,获取用户在所述点云画面上的标记的位置信息;
根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点;
展示所述目标采样点已采集的测量数据。
88.一种控制设备,其特征在于,所述控制设备包括:存储器和处理器;
所述存储器用于存储计算机程序;
所述处理器用于执行所述计算机程序并在执行所述计算机程序时,实现如下步骤:
获取目标场景的三维模型的采样点的三维数据;
获取可移动平台和/或所述可移动平台搭载的点云传感器的相对于所述目标场景的第二位姿数据;
根据所述采样点的三维数据和所述第二位姿数据,将所述采样点投影在观测平面上;
根据投影到所述观测平面上的采样点生成点云画面,所述点云画面用于在所述可移动平台的用户设备上展示。
89.根据权利要求88所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
根据所述第二位姿数据,确定所述观测平面;
根据所述三维数据将所述采样点投影至所述观测平面上。
90.根据权利要求88所述的控制设备,其特征在于,所述三维模型中的所述采样点的三维数据是通过所述可移动平台搭载的点云传感器实时/预先采集得到的。
91.根据权利要求88所述的控制设备,其特征在于,生成的所述点云画面中包括一个或者多个所述采样点的投影。
92.根据权利要求88所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
获取投影在所述观测平面的所述采样点的颜色信息;
根据所述观测平面上的采样点的颜色信息生成所述点云画面。
93.根据权利要求92所述的控制设备,其特征在于,所述可移动平台还搭载可见光传感器,所述采样点的颜色信息是基于所述可见光传感器的采集所述目标场景形成的可见光成像确定的。
94.根据权利要求93所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
在所述可见光成像中确定与所述采样点对应同一物点的像素点,根据所述像素点的像素值确定所述采样点的所述颜色信息。
95.根据权利要求93所述的控制设备,其特征在于,所述可见光传感器与所述点云传感器固定连接。
96.根据权利要求95所述的控制设备,其特征在于,所述可见光传感器与所述点云传感器固定连接,且通过云台结构搭载于所述可移动平台。
97.根据权利要求88所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息和内容信息;
根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点;
将所述内容信息与所述目标采样点关联存储。
98.根据权利要求97所述的控制设备,其特征在于,所述内容信息包括以下信息中的一种或者多种:任务信息、类型信息、状态信息。
99.根据权利要求97所述的控制设备,其特征在于,所述目标采样点为所述三维模型中的一个或者多个采样点。
100.根据权利要求97所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
根据所述标记的位置信息,和当前展示的点云画面的投影关系,在所述三维模型中确定与所述标记的位置信息相对应的一个或多个目标采样点。
101.根据权利要求100所述的控制设备,其特征在于,所述标记的位置信息包括所述标记操作的点在所述观测平面的二维坐标位置,
所述处理器在执行所述计算机程序时,实现如下步骤:
从所述观测平面的所述二维坐标位置出发,沿所述观测平面的预设方向,在所述三维模型中确定距离所述观测平面最近的采样点,作为所述目标采样点。
102.根据权利要求101所述的控制设备,其特征在于,所述预设方向为所述观测平面的法线方向,或者与所述观测平面的法线方向呈预设夹角的方向。
103.根据权利要求88所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息;
根据所述标记的位置信息,确定与所述标记位置信息相对应的空间位置信息;
控制所述点云传感器采集与所述空间位置信息相应处的采样点的三维数据。
104.根据权利要求103所述的控制设备,其特征在于,所述空间位置信息包括三维坐标。
105.根据权利要求104所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
响应于用于指示采样的触发指令,控制所述点云传感器采集与所述三维坐标相应处的采样点的三维数据。
106.根据权利要求88所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息;
根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的多个目标采样点;
根据所述多个目标采样点识别出所述三维模型中所述多个目标采样点对应的目标物体。
107.根据权利要求106所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
控制所述可移动平台跟踪已识别出的目标物体。
108.根据权利要求88所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
响应于用户在所述用户设备上的框选操作,获取用户在所述点云画面上的标记的位置信息;
根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点;
展示所述目标采样点已采集的测量数据。
109.一种控制设备,其特征在于,所述控制设备包括:存储器和处理器;
所述存储器用于存储计算机程序;
所述处理器用于执行所述计算机程序并在执行所述计算机程序时,实现如下步骤:
控制可移动平台的点云传感器采集目标场景中采样点的测量数据,所述测量数据包括所述采样点相对所述点云传感器之间的距离和/或方位数据;
获取采集所述采样点时所述可移动平台和/或所述点云传感器的在所述地理坐标系的第一位姿数据;
根据所述测量数据和在所述地理坐标系的第一位姿数据,确定所述采样点的在所述地理坐标系下的三维数据;
其中,所述采样点的三维数据用于投影在与所述第一位姿数据相应的观测平面上,并生成在所述可移动平台的用户设备展示的点云画面。
110.根据权利要求109所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
根据所述采样点的三维数据和在所述地理坐标系的第一位姿数据,将所述采样点投影在观测平面上;
根据投影到所述观测平面上的采样点生成点云画面,所述点云画面用于在所述可移动平台的用户设备上展示。
111.根据权利要求109所述的控制设备,其特征在于,生成的所述点云画面中包括一个或者多个所述采样点的投影。
112.根据权利要求109所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
获取投影在所述观测平面的所述采样点的颜色信息;
根据所述观测平面上的采样点的颜色信息生成所述点云画面。
113.根据权利要求112所述的控制设备,其特征在于,所述可移动平台还搭载可见光传感器,所述采样点的颜色信息是基于所述可见光传感器的采集所述目标场景形成的可见光成像确定的。
114.根据权利要求113所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
在所述可见光成像中确定与所述采样点对应同一物点的像素点,根据所述像素点的像素值确定所述采样点的所述颜色信息。
115.根据权利要求113所述的控制设备,其特征在于,所述可见光传感器与所述点云传感器固定连接。
116.根据权利要求115所述的控制设备,其特征在于,所述可见光传感器与所述点云传感器固定连接,且通过云台结构搭载于所述可移动平台。
117.根据权利要求109所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息和内容信息;
根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点;
将所述内容信息与所述目标采样点关联存储。
118.根据权利要求117所述的控制设备,其特征在于,所述内容信息包括以下信息中的一种或者多种:任务信息、类型信息、状态信息。
119.根据权利要求117所述的控制设备,其特征在于,所述目标采样点为所述三维模型中的一个或者多个采样点。
120.根据权利要求117所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
根据所述标记的位置信息,和当前展示的点云画面的投影关系,在所述三维模型中确定与所述标记的位置信息相对应的一个或多个目标采样点。
121.根据权利要求120所述的控制设备,其特征在于,所述标记的位置信息包括所述标记操作的点在所述观测平面的二维坐标位置,
所述处理器在执行所述计算机程序时,实现如下步骤:
从所述观测平面的所述二维坐标位置出发,沿所述观测平面的预设方向,在所述三维模型中确定距离所述观测平面最近的采样点,作为所述目标采样点。
122.根据权利要求121所述的控制设备,其特征在于,所述预设方向为所述观测平面的法线方向,或者与所述观测平面的法线方向呈预设夹角的方向。
123.根据权利要求109所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息;
根据所述标记的位置信息,确定与所述标记位置信息相对应的空间位置信息;
控制所述点云传感器采集与所述空间位置信息相应处的采样点的三维数据。
124.根据权利要求123所述的控制设备,其特征在于,所述空间位置信息包括三维坐标。
125.根据权利要求124所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
响应于用于指示采样的触发指令,控制所述点云传感器采集与所述三维坐标相应处的采样点的三维数据。
126.根据权利要求109所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
响应于用户在所述用户设备上的标记操作,获取用户在所述点云画面上的标记的位置信息;
根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的多个目标采样点;
根据所述多个目标采样点识别出所述三维模型中所述多个目标采样点对应的目标物体。
127.根据权利要求126所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
控制所述可移动平台跟踪已识别出的目标物体。
128.根据权利要求109所述的控制设备,其特征在于,所述处理器在执行所述计算机程序时,实现如下步骤:
响应于用户在所述用户设备上的框选操作,获取用户在所述点云画面上的标记的位置信息;
根据所述标记的位置信息,在目标场景的三维模型中确定与所述标记的位置信息相对应的目标采样点;
展示所述目标采样点已采集的测量数据。
129.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如权利要求1-23任一项所述的数据处理方法。
130.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如权利要求24-44任一项所述的数据处理方法。
131.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如权利要求45-64任一项所述的数据处理方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2020/120498 WO2022077190A1 (zh) | 2020-10-12 | 2020-10-12 | 数据处理方法、控制设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113597568A true CN113597568A (zh) | 2021-11-02 |
Family
ID=78237883
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080017479.3A Pending CN113597568A (zh) | 2020-10-12 | 2020-10-12 | 数据处理方法、控制设备及存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230244227A1 (zh) |
CN (1) | CN113597568A (zh) |
WO (1) | WO2022077190A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115330652A (zh) * | 2022-08-15 | 2022-11-11 | 北京城市网邻信息技术有限公司 | 点云拼接方法、设备及存储介质 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114782556B (zh) * | 2022-06-20 | 2022-09-09 | 季华实验室 | 相机与激光雷达的配准方法、系统及存储介质 |
CN115439634B (zh) * | 2022-09-30 | 2024-02-23 | 如你所视(北京)科技有限公司 | 点云数据的交互呈现方法和存储介质 |
CN115690923B (zh) * | 2022-11-17 | 2024-02-02 | 深圳市谷奇创新科技有限公司 | 一种基于光纤传感器的体征分布式监测方法和系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180144547A1 (en) * | 2015-06-30 | 2018-05-24 | Matterport, Inc. | Mobile capture visualization incorporating three-dimensional and two-dimensional imagery |
CN109154499A (zh) * | 2016-08-18 | 2019-01-04 | 深圳市大疆创新科技有限公司 | 用于增强立体显示的系统和方法 |
CN110869974A (zh) * | 2018-11-19 | 2020-03-06 | 深圳市大疆创新科技有限公司 | 点云处理方法、设备及存储介质 |
CN110998671A (zh) * | 2019-11-22 | 2020-04-10 | 驭势科技(南京)有限公司 | 三维重建方法、装置、系统和存储介质 |
CN111316289A (zh) * | 2019-04-10 | 2020-06-19 | 深圳市大疆创新科技有限公司 | 目标物体的拟合方法、点云传感器和移动平台 |
CN111598034A (zh) * | 2020-05-22 | 2020-08-28 | 知行汽车科技(苏州)有限公司 | 障碍物检测方法、装置及存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10853946B2 (en) * | 2018-05-18 | 2020-12-01 | Ebay Inc. | Physical object boundary detection techniques and systems |
CN109767452A (zh) * | 2018-12-24 | 2019-05-17 | 深圳市道通智能航空技术有限公司 | 一种目标定位方法和装置、无人机 |
CN110111414B (zh) * | 2019-04-10 | 2023-01-06 | 北京建筑大学 | 一种基于三维激光点云的正射影像生成方法 |
-
2020
- 2020-10-12 CN CN202080017479.3A patent/CN113597568A/zh active Pending
- 2020-10-12 WO PCT/CN2020/120498 patent/WO2022077190A1/zh active Application Filing
-
2023
- 2023-04-11 US US18/133,395 patent/US20230244227A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180144547A1 (en) * | 2015-06-30 | 2018-05-24 | Matterport, Inc. | Mobile capture visualization incorporating three-dimensional and two-dimensional imagery |
CN109154499A (zh) * | 2016-08-18 | 2019-01-04 | 深圳市大疆创新科技有限公司 | 用于增强立体显示的系统和方法 |
CN110869974A (zh) * | 2018-11-19 | 2020-03-06 | 深圳市大疆创新科技有限公司 | 点云处理方法、设备及存储介质 |
CN111316289A (zh) * | 2019-04-10 | 2020-06-19 | 深圳市大疆创新科技有限公司 | 目标物体的拟合方法、点云传感器和移动平台 |
CN110998671A (zh) * | 2019-11-22 | 2020-04-10 | 驭势科技(南京)有限公司 | 三维重建方法、装置、系统和存储介质 |
CN111598034A (zh) * | 2020-05-22 | 2020-08-28 | 知行汽车科技(苏州)有限公司 | 障碍物检测方法、装置及存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115330652A (zh) * | 2022-08-15 | 2022-11-11 | 北京城市网邻信息技术有限公司 | 点云拼接方法、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2022077190A1 (zh) | 2022-04-21 |
US20230244227A1 (en) | 2023-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210012520A1 (en) | Distance measuring method and device | |
CN106993181B (zh) | 多vr/ar设备协同系统及协同方法 | |
CN113597568A (zh) | 数据处理方法、控制设备及存储介质 | |
CN107402000B (zh) | 用于将显示装置相对于测量仪器相互关联的方法和系统 | |
CN117310739A (zh) | 在可移动物体之间共享绘图数据的技术 | |
US10451403B2 (en) | Structure-based camera pose estimation system | |
JP2014529727A (ja) | 自動シーン較正 | |
JP2008275391A (ja) | 位置姿勢計測装置及び位置姿勢計測方法 | |
US20180204387A1 (en) | Image generation device, image generation system, and image generation method | |
JPWO2018193574A1 (ja) | 飛行経路生成方法、情報処理装置、飛行経路生成システム、プログラム及び記録媒体 | |
CN108603933A (zh) | 用于融合具有不同分辨率的传感器输出的系统和方法 | |
US20230032219A1 (en) | Display control method, display control apparatus, program, and recording medium | |
JP2006234703A (ja) | 画像処理装置及び三次元計測装置並びに画像処理装置用プログラム | |
CN115597659A (zh) | 一种变电站智能安全管控方法 | |
JP2022008125A (ja) | 可動物体の環境でマッピングするためのシステム、方法およびプログラム | |
WO2018214401A1 (zh) | 移动平台、飞行体、支持装置、便携式终端、摄像辅助方法、程序以及记录介质 | |
CN113906481A (zh) | 成像显示方法、遥控终端、装置、系统及存储介质 | |
WO2022077297A1 (zh) | 数据处理方法、装置、设备及存储介质 | |
CN113311855B (zh) | 飞行器监控方法和设备、计算机存储介质及计算机设备 | |
CN112254653B (zh) | 一种用于3d信息采集的程序控制方法 | |
WO2021075307A1 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
CN110617800A (zh) | 基于民航客机的应急遥感监测方法、系统及存储介质 | |
US20200005527A1 (en) | Method and apparatus for constructing lighting environment representations of 3d scenes | |
WO2022113482A1 (ja) | 情報処理装置、方法およびプログラム | |
KR102407802B1 (ko) | 인공신경망 학습 기반의 실내외 3차원 좌표 및 방위 추정 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |