CN110599583A - 无人机飞行轨迹生成方法、装置、计算机设备和存储介质 - Google Patents
无人机飞行轨迹生成方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN110599583A CN110599583A CN201910683004.7A CN201910683004A CN110599583A CN 110599583 A CN110599583 A CN 110599583A CN 201910683004 A CN201910683004 A CN 201910683004A CN 110599583 A CN110599583 A CN 110599583A
- Authority
- CN
- China
- Prior art keywords
- visual angle
- view
- sampling point
- seed
- building
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 85
- 238000003860 storage Methods 0.000 title abstract description 13
- 230000000007 visual effect Effects 0.000 claims abstract description 218
- 238000004364 calculation method Methods 0.000 claims abstract description 13
- 238000005070 sampling Methods 0.000 claims description 172
- 238000001514 detection method Methods 0.000 claims description 24
- 238000012545 processing Methods 0.000 claims description 23
- 238000004422 calculation algorithm Methods 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 15
- 230000011218 segmentation Effects 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 12
- 238000012360 testing method Methods 0.000 claims description 8
- 230000009471 action Effects 0.000 claims description 6
- 238000009826 distribution Methods 0.000 claims description 5
- 230000008030 elimination Effects 0.000 claims description 5
- 238000003379 elimination reaction Methods 0.000 claims description 5
- 238000009877 rendering Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000010006 flight Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
- G05D1/106—Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/45—Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/507—Depth or shape recovery from shading
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0004—Transmission of traffic-related information to or from an aircraft
- G08G5/0013—Transmission of traffic-related information to or from an aircraft with a ground station
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0017—Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
- G08G5/0026—Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located on the ground
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/003—Flight plan management
- G08G5/0034—Assembly of a flight plan
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0047—Navigation or guidance aids for a single aircraft
- G08G5/0069—Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
- B64U2201/104—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] using satellite radio beacon positioning systems, e.g. GPS
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30184—Infrastructure
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/12—Shadow map, environment map
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Software Systems (AREA)
- Radar, Positioning & Navigation (AREA)
- Geometry (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computer Hardware Design (AREA)
- Navigation (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请涉及一种无人机飞行轨迹生成方法、装置、计算机设备和存储介质。所述方法包括获取待重建区域的地图数据;地图数据包括卫星地图图像及平面地图图像;根据平面地图图像获取待重建区域内各建筑物的建筑物轮廓;根据卫星地图图像获取各建筑物的高度数据;根据各建筑物的建筑物轮廓及高度数据生成初始模型;根据初始模型确定目标视角集合;根据目标视角集合生成飞行轨迹。采用本方法能够在无需对待重建区域进行预飞行的情况下建立初始模型,并直接生成无人机飞行轨迹,减少了数据计算量。
Description
技术领域
本申请涉及数据处理技术领域,特别是涉及一种无人机飞行轨迹生成方法、装置、计算机设备和存储介质。
背景技术
场景建模已经成为导航、仿真以及虚拟现实应用中的核心部分。尽管可以使用交互式软件获得细节丰富的模型,然而对于大尺度城市场景却不适用。随着近年来无人机技术迅速发展,其制造、使用成本低,机动性强,可以在多场合使用。这些特点使得利用无人机采集照片重建大尺度室外场景成为可能。
无人机照片重建技术多分为预设模式与自适应模式两种。其中预设技术,例如商业应用Altizure和DJI-Terra,可调节参数单一,同时不考虑环境的复杂程度和场景内建筑的分布情况,极易采样不均,使得重建结果不完整。对于自适应模式技术,目前多采用两步策略,需要对重建区域飞两次:第一次使用预定义模式预飞场景,采集照片重建粗糙几何代理;第二次是按照几何代理指导生成新的规划路径。两次飞行对于室外作业来讲,需要长时间的数据采集以及较高的计算能力。
发明内容
基于此,有必要针对上述技术问题,提供一种无人机飞行轨迹生成方法、装置、计算机设备和存储介质,以减少现场作业时间,降低数据计算量。
一种无人机飞行轨迹生成方法,所述方法包括:
获取待重建区域的地图数据;所述地图数据包括卫星地图图像及平面地图图像;
根据所述平面地图图像获取所述待重建区域内各建筑物对应的建筑物轮廓;
根据所述卫星地图图像获取各所述建筑物对应的高度数据;
根据各所述建筑物对应的建筑物轮廓及高度数据,生成初始模型;
根据所述初始模型确定目标视角集合;所述目标视角集合包括无人机对所述待重建区域拍摄时的多个视角;
根据所述目标视角集合生成飞行轨迹。
一种无人机飞行轨迹生成装置,所述装置包括:
地图获取模块,用于获取待重建区域的地图数据;所述地图数据包括卫星地图图像及平面地图图像;
轮廓识别模块,用于根据所述平面地图图像获取所述待重建区域内各建筑物对应的建筑物轮廓;
建筑物高度计算模块,用于根据所述卫星地图图像获取各所述建筑物对应的高度数据;
模型生成模块,用于根据各所述建筑物对应的建筑物轮廓及高度数据,生成初始模型;
视角建立模块,用于根据所述初始模型确定目标视角集合;所述目标视角集合包括无人机对所述待重建区域拍摄时的多个视角;
飞行轨迹生成模块,用于根据所述视角集合生成飞行轨迹。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取待重建区域的地图数据;所述地图数据包括卫星地图图像及平面地图图像;
根据所述平面地图图像获取所述待重建区域内各建筑物对应的建筑物轮廓;
根据所述卫星地图图像获取各所述建筑物对应的高度数据;
根据各所述建筑物对应的建筑物轮廓及高度数据,生成初始模型;
根据所述初始模型确定目标视角集合;所述目标视角集合包括无人机对所述待重建区域拍摄时的多个视角;
根据所述目标视角集合生成飞行轨迹。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取待重建区域的地图数据;所述地图数据包括卫星地图图像及平面地图图像;
根据所述平面地图图像获取所述待重建区域内各建筑物对应的建筑物轮廓;
根据所述卫星地图图像获取各所述建筑物对应的高度数据;
根据各所述建筑物对应的建筑物轮廓及高度数据,生成初始模型;
根据所述初始模型确定目标视角集合;所述目标视角集合包括无人机对所述待重建区域拍摄时的多个视角;
根据所述目标视角集合生成飞行轨迹。
根据本申请实施例提供的无人机飞行轨迹生成方法、装置、计算机设备和存储介质,通过地图数据生成待重建区域的初始模型,并通过初始模型生成目标视角集合,进而得到无人机飞行轨迹。可以在无需对待重建区域进行预飞行的情况下建立初始模型,并且基于该初始模型,可以直接生成无人机飞行轨迹,减少了数据计算量,进而降低了计算耗时,也减少了室外作业的时间,提高了作业效率。
附图说明
图1为本申请实施例提供的无人机飞行轨迹生成方法的实施环境图;
图2为本申请实施例提供的一种无人机飞行轨迹生成方法的流程图;
图3为本申请实施例提供的另一种无人机飞行轨迹生成方法的流程图;
图4为本申请实施例提供的另一种无人机飞行轨迹生成方法的流程图;
图5为本申请实施例提供的另一种无人机飞行轨迹生成方法的流程图;
图6为本申请实施例提供的另一种无人机飞行轨迹生成方法的流程图;
图7为本申请实施例提供的另一种无人机飞行轨迹生成方法的流程图;
图8为本申请实施例提供的另一种无人机飞行轨迹生成方法的流程图;
图9a-图9d为本申请实施例提供的地图图像示意图;
图10为本申请实施例提供的另一种无人机飞行轨迹生成方法的流程图;
图11a-图11d为本申请实施例提供的地图图像示意图;
图12本申请实施例提供的另一种无人机飞行轨迹生成方法的流程图;
图13a-图13b为本申请实施例提供三维模型示意图;
图14a-图14b为本申请实施例提供视角调整示意图;
图15为本申请实施例提供的一种无人机飞行轨迹生成装置的框图;
图16为本申请实施例提供的另一种无人机飞行轨迹生成装置的框图;
图17为本申请实施例提供的一种计算机设备的框图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的无人机飞行轨迹生成方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104通过网络进行通信。其中,终端102可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
请参考图2,其示出了本实施例提供的一种无人机飞行轨迹生成方法,以该方法应用于图1中的终端为例进行说明,包括以下步骤:
步骤202,获取待重建区域的地图数据;地图数据包括卫星地图图像及平面地图图像。
在本申请的一个实施例中,用户可以通过终端102的交互式界面在卫星地图图像或者平面地图图像中框选需要重建的待重建区域,在用户对该待重建区域选择之后,终端102会向存储地图数据的数据库或者第三方服务器发送地图数据请求消息,并得到该待重建区域对应的卫星地图图像及平面地图图像。
步骤204,根据平面地图图像获取待重建区域内各建筑物对应的建筑物轮廓。
具体的,该平面地图图像中包含不同的颜色区块,根据颜色区块与地图中实际物体的对应关系,确定待重建区域内各建筑物对应的建筑物轮廓。例如,白色区块表示建筑物所在区域,绿色区域表示绿化区域。通过识别白色区域的区域轮廓可以近似的得到各建筑物对应的建筑物轮廓。
步骤206,根据卫星地图图像获取各建筑物对应的高度数据。
在本申请的一个实施例中,该卫星地图图像反映了待重建区域的真实图像,包含了待重建区域的俯视图。通过获取各建筑物的阴影长度,根据阴影长度与建筑物的对应关系,得到各建筑物的高度数据。
步骤208,根据各建筑物对应的建筑物轮廓及高度数据,生成初始模型。
在本申请的一个实施例中,在三维空间中,以待重建地面为X-Y面,对建筑物轮廓按对应高度沿Z轴纵向拉伸得到建筑物模型。初始模型为建筑物模型和待重建区域地面的组合。
步骤210,根据初始模型确定目标视角集合;目标视角集合包括无人机对待重建区域拍摄时的多个视角。
在本申请的一个实施例中,可以在三维空间内,根据得到的初始模型,在初始模型周围设置多个视角,以使无人机可以通过该多个视角对待重建区域进行拍摄,从而根据拍摄得到的多张拍摄图片对待重建区域内建筑物进行重建。具体的,每一个视角都包含该视角在三维空间内的位置信息及方向信息。
步骤212,根据目标视角集合生成飞行轨迹。
在本申请的一个实施例中,得到的目标视角集合包含多个视角,在无人机通过该多个视角对待重建区域进行拍摄时,需要建立一条飞行轨迹,使得该飞行轨迹可以依次连接每一个视角。
可选的,对目标视角集合中的多个视角,按照距离和角度变化构建代价函数,通过旅行商问题算法,生成一条最优的飞行路径。
根据本申请实施例提供的无人机飞行轨迹生成方法,通过地图数据生成待重建区域的初始模型,并通过初始模型生成目标视角集合,进而得到无人机飞行轨迹。可以在无需对待重建区域进行预飞行的情况下,也可以建立初始模型,并且基于该初始模型,可以直接生成的无人机飞行轨迹,减少了数据计算量,进而降低了计算耗时,也减少了室外作业的时间,提高了作业效率。
请参考图3,其示出了本实施例提供的另一种无人机飞行轨迹生成方法的流程图,该无人机飞行轨迹生成方法可以应用于上文所述的实施环境中的终端102中。在上述图2所示实施例的基础上,上述步骤210具体可以包括以下步骤:
步骤302,获取视距、视场及视角重叠率,并生成泊松采样直径。
具体的,视距为无人机沿视角方向与目标物之间的距离,在一个实施例中,视距最优值为62.4米。视场为无人机携带的拍摄设备的视场,与拍摄设备的硬件参数有关。视角重叠率为相邻两个视角的重叠率,在一个实施例中,视角重叠率的最优值为0.85。
在本申请的一个实施例中,泊松采样直径与视距、视场及视角重叠率的关系满足:
其中,Ddisk为泊松采样直径,dGSD为视距,θFOV为视场,overla_ratio为视角重叠率。
步骤304,将初始模型、泊松采样直径作为输入,通过泊松分布采样算法生成采样点集合;采样点集合包括多个采样点,各采样点包括对应的坐标及法向。
在本申请的一个实施例中,在将初始模型输入泊松采样算法时,获取初始模型的模型顶点的位置和法向及模型表面的三角面片。泊松采样算法根据输入的初始模型、泊松采样直径自动生成近似均匀分布的采样点。其中,每一采样点都包括对应的坐标及法向。
步骤306,对各采样点设置对应的视角,确定目标视角集合;各视角设置于对应的采样点的法向上,各视角的坐标与对应的采样点的坐标间距为视距,各视角的方向与对应的采样点的法向相反。
在本申请的一个实施例中,对应每一个生成的采样点,都设置一个对应的视角,将得到的多个视角作为目标视角集合。其中,采样点集合中的采样点与目标视角集合中的视角一一对应,各采样点与对应的视角之间的间距为视距,各采样点与对应的视角的方向相反,且视角设置于对应采样点的法向上。
根据本申请实施例提供的无人机飞行轨迹生成方法,通过泊松采样算法生成采样点集合,进而生成目标视角集合。对于得到的初始模型,可以得到均匀分布的采样点集合,进而得到可以对该均匀分布的采样点集合对应的目标视角集合。进而使得根据该目标视角集合生成的无人机飞行轨迹更加合理,进而提升了数据采集效率,减少了室外作业的时间,提高了作业效率。
请参考图4,其示出了本实施例提供的另一种无人机飞行轨迹生成方法的流程图,该无人机飞行轨迹生成方法可以应用于上文所述的实施环境中的终端102中。在上述图3所示实施例的基础上,上述步骤306具体可以包括以下步骤:
步骤402,对各采样点设置对应的视角,得到初始视角集合。
步骤404,获取初始视角集合中的冗余视角。
步骤406,在初始视角集合内剔除冗余视角,根据剔除处理后的初始视角集合得到目标视角集合。
在本申请的一个实施例中,将得到的各采样点对应的视角作为初始视角集合。针对该初始视角集合,获取其中冗余度最高的一个视角,将其从该初始视角集合内剔除。针对剔除后的初始视角集合,再次计算其中冗余度最高的一个视角,并剔除,直到剔除后的初始视角集合刚刚可以满足对待重建区域进行重建操作的数据采集。
根据本申请实施例提供的无人机飞行轨迹生成方法,通过剔除冗余视角,避免了对待重建区域的冗余采集过程,在保证重建质量的前提下,提升了数据采集效率,减少了室外作业的时间,提高了作业效率。
请参考图5,其示出了本实施例提供的另一种无人机飞行轨迹生成方法的流程图,该无人机飞行轨迹生成方法可以应用于上文所述的实施环境中的终端102中。在上述图4所示实施例的基础上,上述步骤404具体可以包括以下步骤:
步骤502,计算初始视角集合中各视角的视角冗余度。
步骤504,将视角冗余度最高的视角作为待剔除视角。
在本申请的一个实施例中,由于根据泊松采样算法中设置的该多个视角之间会有重合率,因此在每一个视角中,无人机除了可以拍摄该视角对应的采样点之外,还可以拍摄到该对应采样点周围的其他视角,及每一视角都对应有至少一个可见采样点。该视角的视角冗余度与该视角对应的至少一个可见采样点的可重建性有关,可重建性的大小反映了采样点未来重建质量的高低,即采样点的可重建性越高,将来重建质量就越高。
在本申请的一个实施例中,根据视角与至少一个可见采样点的对应关系,获取该至少一个可见采样点的可重建性,并将最小的可重建性作为该视角的视角冗余度。进一步的,计算初始视角集合中所有视角的视角冗余度并将视角冗余度最高的视角作为待剔除视角。
步骤506,在初始视角集合内剔除待剔除视角,根据剔除处理后的初始视角集合得到测试视角集合。
步骤508,根据测试视角集合计算各采样点的可重建性。
在本申请的一个实施例中,由于测试视角集合相比于初始视角集合剔除了待剔除视角,因此,采样点集合中其中一部分的采样点的可重建性会有一定程度的降低,因此,需要根据测试视角集合重新计算各采样点的可重建性。
步骤510,若各采样点的可重建性均高于或等于预设阈值,将待剔除视角作为冗余视角。
在本申请的一个实施例中,当采样点的可重建性高于或等于预设阈值时,表示该采样点所在的区域可以被较好的重建出来。在剔除该待剔除视角之后,若仍满足以上要求就认为该待剔除视角可以作为冗余视角剔除。
根据本申请实施例提供的无人机飞行轨迹生成方法,在保证采样点集合中每一采样点所在区域的重建质量的前提下,确定冗余视角。可以在保证待重建区域的重建质量的前提下,避免了对待重建区域的冗余采集过程,提升了数据的计算和采集效率,减少了室外作业的时间,提高了作业效率。
请参考图6,其示出了本实施例提供的另一种无人机飞行轨迹生成方法的流程图,该无人机飞行轨迹生成方法可以应用于上文所述的实施环境中的终端102中。在上述图5所示实施例的基础上,上述步骤502具体可以包括以下步骤:
步骤602,获取与视角对应的至少一个可见采样点。
在本申请的一个实施例中,获取通过该视角可以观测到的至少一个采样点,将可以观测到的采样点作为该视角对应的至少一个可见采样点。
步骤604,根据初始视角集合计算各采样点可重建性。
具体的,各采样点的可重建性会根据视角集合的变化而发生变化。在本申请的一个实施例中,可以根据初始视角集合中的视角计算每一个采样点的可重建性。
步骤606,获取各可见采样点的可重建性,并将各可见采样点的中的最小的可重建性设置为视角的视角冗余度。
在本申请的一个实施例中,可以根据步骤604中得到的各采样点的可重建性,得到步骤602中该各可见采样点的可重建性,将该视角的视角冗余度定义为各可见采样点中的可重建性最小值。
在本申请的一个实施例中,采样点对应的可重建性与该采样点对应的至少两个可见视角有关。
例如,若某个采样点被一对视角看到,即该采样点对应有两个可见视角,那么该采样点的可重建性定义为:
q(s,vi,vj)=w1(α)*w2(d)*w3(α)*cos θm
其中,
w1(α)=(1+exp(-k1*(α-α1)))-1
w2(d)=1-min(dGSD/dm,1)
w3(α)=1-(1+exp(-k3*(α-α3)))-1
θm=max(θi,θj)
根据经典多目立体重建算法的原理,w1(α)模拟了三角测量误差的视差依赖特性,w2(d)模拟了距离对可重建性的影响,w3(α)是衡量匹配度对视差的依赖性。
其中s为该采样点,vi及vj为该采样点对应的两个可见视角,α为两个可见视角的方向夹角,dm是我们定义的最大视距,dGSD是两个可见视角到采样点的距离中的最大值。θi为该采样点法向与可见视角vi的方向之间的夹角,θj为该采样点法向与可见视角vj的方向之间的夹角,k1,α1,k3,α3是可调参数,在一个较优的实施例中,k1=32,k3=8,
若某个采样点有至少两个可见视角,那么该采样点的可重建性和定义为所有可见视角两两作用下的和:
其中δ(s,v)是二值函数,如果视角可以看到采样点则为1,否则为0。即该采样点的可重建性为每两个可见视角作用下的可重建性的和,例如,若该采样点对应于A,B,C三个可见视角,那该采样点的可重建性为该采样点相对于AB采样点的可重建性、该采样点相对于BC采样点的可重建性及该采样点相对于AC采样点的可重建性的和。
本申请实施例还提供了另一种无人机飞行轨迹生成方法,该无人机飞行轨迹生成方法可以应用于上文所述的实施环境中的终端102中。在上文所述的实施例的基础上,上述步骤406具体可以包括以下步骤:
根据剔除处理后的初始视角集合得到种子视角集合;种子视角集合包括多个种子视角。
对种子视角集合进行视角替换处理,根据视角替换处理后的种子视角集合得到目标视角集合。
在本申请的一个实施例中,在对初始视角集合进行剔除处理后,可以得到初始视角的一个最小的集合。为了最大化采样点集合中各采样点的可重建性,本发明将得到的剔除后的初始视角集合定义为种子视角集合,以种子视角集合内种子视角为中心,从初始视角集合中搜索各种子视角的候选视角。对于每一个种子视角,用候选视角去替换该种子视角,如果可以使所有采样点的可重建性有所增加,并且所有采样点中的每一采样点的可重建性依然高于预设阈值,即认为该候选视角满足要求,可以将该种子视角替换。该过程不会改变视角数量,只会增加所有采样点的可重建性。
在本申请的一个实施例中,将所述预设阈值定义为,在采样点的法向周围均匀分布三个可见视角作用下的采样点的可重建性,其中该三个可见视角两两之间的方向夹角为15度。
具体的,请参考图7,其示出了本实施例提供的另一种无人机飞行轨迹生成方法的流程图,所述对所述剔除处理后的初始视角集合进行视角替换处理,得到所述目标视角集合,包括:
步骤702,对于各所述种子视角,在所述视角集合中搜索对应的候选视角,得到候选视角集合。
在本申请的一个实施例中,对于每一个种子视角,在初始视角集合中搜索与该种子视角对应的候选视角,具体的,可以在最初的视角集合中查找与该种子视角的视角相似度最高的一个视角作为与该种子视角对应的候选视角。
具体的,两个视角的视角相似度定义为:
其中,oi*oj度量两个视角方向之间的相似度,||vivj||表示两个视角的位置间距,δ是很小的常数,避免分母为0。
步骤704,从所述候选视角集合中取出一个候选视角,利用所述候选视角替换所述种子视角集合中与所述候选视角对应的种子视角。
在本申请的一个实施例中,利用候选种子替换对应的种子视角的过程是依次执行的,也就是说,在前一个候选种子对其对应的种子视角的替换过程完成之前,种子视角集合中的其他种子视角是保持不变的。
步骤706,根据替换前的种子视角集合及替换后的种子视角集合,分别计算替换前各所述采样点的可重建性总和及替换后各所述采样点的可重建性总和。
在本申请的一个实施例中,对于每一次替换过程,在利用候选视角替换种子视角集合中与候选视角对应的种子视角之前,计算替换前各采样点的可重建性的总和,在利用候选视角替换种子视角集合中与候选视角对应的种子视角之后,再计算替换后各采样点的可重建性的总和。
步骤708,若所述替换前各所述采样点的可重建性总和大于或等于所述替换后各所述采样点的可重建性总和,认定替换失败,并撤销替换动作;若所述替换前各所述采样点的可重建性总和小于所述替换后各所述采样点的可重建性总和,认定替换成功。
在本申请的一个实施例中,比较该替换前各采样点的可重建性的总和与替换后各采样点的可重建性的总和之间的大小关系,若替换前各采样点的可重建性总和小于替换后各采样点的可重建性总和,表示候选视角可以使得各采样点的可重建性变大,因此,认定替换成功。在执行下一个候选视角的替换过程中,以本次替换后的种子视角集合为基础进行视角替换处理。反之认定替换失败,并撤销替换动作,即将替换后的种子视角中的该候选视角剔除,并重新加入该候选视角对应的种子视角。
步骤710,依次取出所述候选视角集合中的其他候选视角,并利用各所述其他候选视角替换所述种子视角集合中与各所述其他候选视角对应的种子视角,得到视角替换处理后的种子视角集合。
在本申请的一个实施例中,在根据前一个候选视角完成相应的视角替换操作后,再从所述候选视角集合中剩余的其他候选视角中取出一个候选视角,重复步骤704至步骤708的步骤,直至该候选视角集合中的各候选视角均被取出。此时,对所述种子视角集合的一次视角替换处理已经完成,得到该视角替换处理后的种子视角集合。
在本申请的一个实施例中,可以按照随机顺序依次取出所述候选视角集合中的各候选视角,在本申请的另一个实施例中,可以按照各候选视角的生成顺序依次取出所述候选视角集合中的各候选视角,在本申请的另一个实施例中,还可以按照各候选视角对应的相似度大小顺序依次取出所述候选视角集合中的各候选视角。
本申请实施例还提供了另一种无人机飞行轨迹生成方法,该无人机飞行轨迹生成方法可以应用于上文所述的实施环境中的终端102中。在上述图7所示实施例的基础上,还可以包括以下步骤:
重复所述对所述种子视角集合进行视角替换处理,直至在所述对所述种子视角集合进行视角替换处理的步骤中,各所述候选视角均未成功替换对应的种子视角。
在本申请的一个实施例中,在各种子视角均被对应的候选视角替换过后,会得到一个视角替换处理后的种子视角集合,再次对该视角替换处理后的种子视角集合进行视角替换操作,即对于该视角替换处理后的种子视角集合中的每一个种子视角,重复步骤702至步骤710,直到在视角替换操作的步骤中,各候选视角均未成功替换对应的种子视角。
在本申请实施例提供的无人机飞行轨迹生成方法中,通过对种子视角集合进行重复的视角替换操作,可以在保证视角数量一定时,极大程度提升各采样点的可重建性,进而使得在较少视角数量的前提下,仍然具有较高的可重建性,有效减少无人机飞行的次数,节约现场作业时间。
请参考图8,其示出了本实施例提供的另一种无人机飞行轨迹生成方法的流程图,该无人机飞行轨迹生成方法可以应用于上文所述的实施环境中的终端102中。在上述图2所示实施例的基础上,上述步骤206具体可以包括以下步骤:
步骤802,根据卫星地图图像获得阴影二值化图,阴影二值化图用于显示卫星地图图像中的阴影区域。
在本申请的一个实施例中,请参考图9a,其示出了待重建区域的卫星地图图像,对该卫星地图图像进行阴影检测,可得到图9b所示的阴影二值化图,该阴影二值化图用于显示卫星地图图像中的阴影区域。
步骤804,检测阴影二值化图像中的多条边缘直线,对多条边缘直线进行方向统计,得到太阳方位角。
在本申请的一个实施例中,可以通过霍夫变换算法检测二值化阴影图中的直线,对直线方向进行统计。由于图9b所示的阴影二值化图用于显示卫星地图图像中的阴影区域,因此,对直线方向统计的结果,大多数方向都是沿着太阳照射方向,故选择统计结果的主方向作为太阳的方位角,如图9c所示。
步骤806,在卫星地图图像上添加阴影区域及各建筑物轮廓。
步骤808,根据太阳方位角获取卫星地图图像中各建筑物轮廓对应的阴影子区域。
在本申请的一个实施例中,如图9d所示,将从平面地图图像中得到的各建筑物的轮廓添加至卫星地图图像中,并且,将得到的卫星地图图像中的阴影区域也添加到该卫星地图图像中,根据太阳方位角,可以得到每一建筑物与该建筑物的阴影子区域的对应关系。
步骤810,根据各建筑物的阴影子区域获取对应的阴影长度。
在本申请的一个实施例中,可以根据建筑物上某点,沿着该太阳方位角的方向进行延伸,与该建筑物对应阴影区域相交的最大线段作为该建筑物对应的阴影长度。
步骤812,根据待重建区域的区域经纬度,卫星地图图像的拍摄时间及太阳方位角得到太阳高度角。
在本申请的一个实施例中,该地图数据还包括待重建区域的区域经纬度,通过区域经纬度、卫星地图图像的拍摄时间、太阳方位角以及太阳高度角之间的对应关系,得到该待重建区域的太阳高度角。
步骤814,根据太阳高度角及各建筑物对应的阴影长度,获得各建筑物的高度数据。
具体的,建筑物的高度数据满足关系式:
Hb=Ls*tan(θel)
其中,Hb为建筑物高度数据,Ls为阴影长度,θel为太阳的高度角。
根据本申请实施例提供的无人机飞行轨迹生成方法,通过对平面地图图像和卫星地图图像的分析处理,得到待重建区域中各建筑物的高度数据,由此建立的初始模型可以在较大程度上反映待重建区域的建筑分布及形态,使得由此确定的飞行轨迹更加合理。
请参考图10,其示出了本实施例提供的另一种无人机飞行轨迹生成方法的流程图,该无人机飞行轨迹生成方法可以应用于上文所述的实施环境中的终端102中。在上述图8所示实施例的基础上,上述步骤802具体可以包括以下步骤:
步骤902,对卫星地图图像进行阴影检测处理,得到阴影概率图像,阴影概率图像中像素点的灰度值用于表征像素点处于阴影的概率。
在本申请的一个实施例中,请参考图11a,其示出了待重建区域的卫星地图图像,对该卫星地图图像进行阴影检测处理,可以得到图11b所示的阴影概率图像,其中阴影概率图像中像素点的灰度值用于表征像素点处于阴影的概率。即颜色越黑,代表该像素点是阴影的概率越大。
步骤904,对卫星地图图像进行区域分割,得到区域分割图像。
在本申请的一个实施例中,采用均值漂移算法对该卫星地图图像进行区域分割,可以得到如图11c所示的区域分割图像,其中,该区域分割图像中包含多个分割区域,每一个分割区域中填充的颜色均不相同。
步骤906,根据区域分割图像及阴影概率图像获得阴影二值化图像。
在本申请的一个实施例中,获取该分割图像中各分割区域内各像素点对应的阴影概率值,若分割区域内阴影概率大于0.2的像素数目大于等于该分割区域内总像素数目的百分之七十,则将该分割区域标记为阴影区域,得到如图11d所示的阴影二值化图像。
根据本申请实施例提供的无人机飞行轨迹生成方法,通过获取卫星地图图像的阴影概率图像及区域分割图像并得到阴影二值化图像,使得得到的阴影二值化图像更加准确的反映该卫星地图图像中阴影区域的位置及大小,进而使得根据该阴影区域得到的各建筑物的高度数据更加准确。
本申请实施例还提供了另一种无人机飞行轨迹生成方法,该无人机飞行轨迹生成方法可以应用于上文所述的实施环境中的终端102中。在上文所述的实施例的基础上,还可以包括以下步骤:
在所述初始模型中,结合所述目标视角集合与所述采样点集合进行预渲染,得到所述目标视角集合与所述采样点集合之间的可见关系;所述可见关系包括各所述视角与至少一个可见采样点的对应关系;所述可见采样点为无人机在所述视角下可以观测到的采样点;所述可见关系还包括各采样点与至少一个可见视角的对应关系;所述可见视角为无人机可以观测到所述采样点时的视角。
通过本实施例提供的无人机飞行轨迹生成方法,可以得到各所述视角与至少一个可见采样点的对应关系,也可以得到采样点与至少一个可见视角的对应关系,进而在之后的视角冗余度及采样点可重建性计算时,可以降低计算工作量,提升计算效率。
本申请实施例还提供了另一种无人机飞行轨迹生成方法,该无人机飞行轨迹生成方法可以应用于上文所述的实施环境中的终端102中。在上文所述的实施例的基础上,上述步骤212,具体可以包括以下步骤:
获取飞行路径代价函数;根据所述目标视角集合、所述飞行路径代价函数及旅行商问题算法生成所述飞行轨迹。
在本申请的一个实施例中,该飞行路径代价函数预设在终端102中,可以根据所述目标视角集合、所述飞行路径代价函数及旅行商问题算法生成一条代价最小的飞行轨迹。
具体的,该飞行路径代价函数与目标视角集合中两个视角的视角差、最短距离有关。该飞行路径代价函数可以定义为:
其中,α为两个视角之间的视角差,l(vi,vj)为两个视角在安全区内的最短距离。
通过本实施例提供的无人机飞行轨迹生成方法,可以根据该飞行代价函数,并通过旅行商问题算法得到一条合理高效的飞行路径。
请参考图12,其示出了本实施例提供的另一种无人机飞行轨迹生成方法的流程图,该无人机飞行轨迹生成方法可以应用于上文所述的实施环境中的终端102中。在上述图2所示实施例的基础上,还可以包括以下步骤:
步骤1002,对得到的初始模型在空间内按照预设膨胀半径进行膨胀,得到禁飞区域,禁飞区域包括初始模型所在的区域及膨胀区域。
在本申请的一个实施例中,请参考图13a,其示出了待重建区域对应的初始模型,按照预设膨胀半径对该初始模型进行膨胀处理,得到如图13b所示的膨胀后的三维模型,其中,白色物体为初始模型中的建筑物所在区域,深色物体为对建筑物进行膨胀处理后的膨胀区域,将禁飞区域设置为初始模型所在的区域及膨胀区域。较优的,可以将预设膨胀半径设置为20米。
在本申请的一个实施例中,可以通过添加禁飞高度更新该禁飞区域,具体的,可以根据无人机飞行管制条例将无人机最低飞行高度为35米,最高飞行高度为120米,即在三维空间内,将Z轴小于35米或大于120米的区域也设置为禁飞区域。
步骤1004,对视角进行遮挡检测;遮挡检测用于检测视角是否落入禁飞区域,或检测视角是否可以观测到对应的采样点。
具体的,请参考图14a,其示出了禁飞区域的示意图,其中,视角A通过了遮挡检测,视角B、视角C及视角D未通过遮挡检测,其中,视角B是由于落入禁飞区域中的膨胀区域而未通过遮挡检测,视角C是由于通过该视角无法观测到对应的采样点而未通过遮挡检测,视角D是由于落入禁飞区域中的建筑物区域而未通过遮挡检测。
步骤1006,若视角未通过遮挡检测,以与视角对应的采样点坐标为球心,视距为半径,沿着预设方向调整视角的坐标及法向,直至视角通过遮挡检测。
在本申请的一个实施例中,该预设方向为朝向Z轴的方向,请参考图14b,其示出了视角调整过程的示意图,其中,视角E未通过遮挡检测,以视角E对应的采样点的坐标为球心,视距为半径,沿着朝向Z轴的方向调整视角E的坐标和法向,当判断调整后的视角E可以通过遮挡检测时,停止调整,并保存视角E的当前坐标及法向。
应该理解的是,虽然上述流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,上述流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
请参考图15,其示出了本申请实施例提供的一种无人机飞行轨迹生成装置1100的框图。如图15所示,所述无人机飞行轨迹生成装置1100可以包括:地图获取模块1101、轮廓识别模块1102、建筑物高度计算模块1103、模型生成模块1104、视角建立模块1105和飞行轨迹生成模块1106,其中:
所述地图获取模块1101,用于获取待重建区域的地图数据;所述地图数据包括卫星地图图像及平面地图图像。
所述轮廓识别模块1102,用于根据所述平面地图图像获取所述待重建区域内各建筑物对应的建筑物轮廓。
所述建筑物高度计算模块1103,用于根据所述卫星地图图像获取各所述建筑物对应的高度数据。
所述模型生成模块1104,用于根据各所述建筑物对应的建筑物轮廓及高度数据,生成初始模型。
所述视角建立模块1105,用于根据所述初始模型确定目标视角集合;所述目标视角集合包括无人机对所述待重建区域拍摄时的多个视角。
所述飞行轨迹生成模块1106,用于根据所述视角集合生成飞行轨迹。
在本申请的一个实施例中,所述视角建立模块1105,具体用于:获取视距、视场及视角重叠率,并生成泊松采样直径;将所述初始模型、所述泊松采样直径作为输入,通过泊松分布采样算法生成采样点集合;所述采样点集合包括多个采样点,各所述采样点包括对应的坐标及法向;对各所述采样点设置对应的视角,确定所述目标视角集合;各所述视角设置于对应的采样点的法向上,各所述视角的坐标与对应的采样点的坐标间距为视距,各所述视角的方向与对应的采样点的法向相反。
在本申请的一个实施例中,所述视角建立模块1105,具体还用于:对各所述采样点设置对应的视角,得到初始视角集合;获取所述初始视角集合中的冗余视角;在所述初始视角集合内剔除所述冗余视角,根据剔除处理后的初始视角集合得到所述目标视角集合。
在本申请的一个实施例中,所述视角建立模块1105,具体还用于:计算所述初始视角集合中各视角的视角冗余度;将视角冗余度最高的视角作为待剔除视角;根据剔除待剔除视角之后的视角集合建立测试视角集合;根据所述测试视角集合计算各所述采样点的可重建性;若各所述采样点的可重建性均高于或等于预设阈值,将所述待剔除视角作为冗余视角。
在本申请的一个实施例中,所述视角建立模块1105,具体还用于:获取与所述视角对应的至少一个可见采样点;根据所述初始视角集合计算所述各所述采样点可重建性;获取各所述可见采样点的可重建性,并将各所述可见采样点的中的最小的可重建性设置为所述视角的视角冗余度。
在本申请的一个实施例中,所述采样点对应的可重建性与所述采样点对应的至少两个可见视角有关。
在本申请的一个实施例中,所述视角建立模块1105,具体还用于:根据剔除处理后的初始视角集合得到种子视角集合;所述种子视角集合包括多个种子视角;对所述种子视角集合进行视角替换处理,根据视角替换处理后的种子视角集合得到所述目标视角集合;所述对所述种子视角集合进行视角替换处理包括:对于各所述种子视角,在所述视角集合中搜索对应的候选视角,得到候选视角集合;从所述候选视角集合中取出一个候选视角,利用所述候选视角替换所述种子视角集合中与所述候选视角对应的种子视角;根据替换前的种子视角集合及替换后的种子视角集合,分别计算替换前各所述采样点的可重建性总和及替换后各所述采样点的可重建性总和;若所述替换前各所述采样点的可重建性总大于或等于所述替换后各所述采样点的可重建性总和,认定替换失败,并撤销替换动作;若所述替换前各所述采样点的可重建性总和小于所述替换后各所述采样点的可重建性总和,认定替换成功;依次取出所述候选视角集合中的其他候选视角,并利用各所述其他候选视角替换所述种子视角集合中与各所述其他候选视角对应的种子视角,得到视角替换处理后的种子视角集合。
在本申请的一个实施例中,所述视角建立模块1105,具体还用于:重复所述对所述种子视角集合进行视角替换处理,直至在所述对所述种子视角集合进行视角替换处理的步骤中,各所述候选视角均未成功替换对应的种子视角。
在本申请的一个实施例中,所述建筑物高度计算模块1103,具体用于:根据所述卫星地图图像获得阴影二值化图,所述阴影二值化图用于显示所述卫星地图图像中的阴影区域;检测所述阴影二值化图像中的多条边缘直线,对所述多条边缘直线进行方向统计,得到太阳方位角;在所述卫星地图图像上添加所述阴影区域及各所述建筑物轮廓;根据所述太阳方位角获取所述卫星地图图像中各所述建筑物轮廓对应的阴影子区域;根据各所述建筑物的阴影子区域获取对应的阴影长度;根据所述待重建区域的区域经纬度,所述卫星地图图像的拍摄时间及所述太阳方位角得到太阳高度角;根据所述太阳高度角及各所述建筑物对应的阴影长度,获得各所述建筑物的高度数据。
在本申请的一个实施例中,所述建筑物高度计算模块1103,具体还用于:对所述卫星地图图像进行阴影检测处理,得到阴影概率图像,所述阴影概率图像中像素点的灰度值用于表征所述像素点处于阴影的概率;对所述卫星地图图像进行区域分割,得到区域分割图像;根据所述区域分割图像及所述阴影概率图像获得所述阴影二值化图像。
在本申请的一个实施例中,所述飞行轨迹生成模块1106,具体还用于:获取飞行路径代价函数;根据所述目标视角集合、所述飞行路径代价函数及旅行商问题算法生成所述飞行轨迹。
在本申请的一个实施例中,所述飞行路径代价函数与所述目标视角集合中两个视角的视角差、最短距离有关。
请参考图16,其示出了本申请实施例提供的一种无人机飞行轨迹生成装置1200的框图。如图16所示,所述无人机飞行轨迹生成装置1200除了包括无人机飞行轨迹生成装置1100包括的各模块外,可选的,还可以包括:预渲染模块1107和视角调整模块1108。其中:
所述预渲染模块1107,用于在所述初始模型中,结合所述目标视角集合与所述采样点集合进行预渲染,得到所述目标视角集合与所述采样点集合之间的可见关系;所述可见关系包括各所述视角与至少一个可见采样点的对应关系;所述可见采样点为无人机在所述视角下可以观测到的采样点;所述可见关系还包括各采样点与至少一个可见视角的对应关系;所述可见视角为无人机可以观测到所述采样点时的视角。
所述视角调整模块1108,用于对得到的初始模型在空间内按照预设膨胀半径进行膨胀,得到禁飞区域,所述禁飞区域包括初始模型所在的区域及膨胀区域;对所述视角进行遮挡检测;所述遮挡检测用于检测所述视角是否落入所述禁飞区域,或检测所述视角是否可以看到对应的采样点;若所述视角未通过所述遮挡检测,以与所述视角对应的采样点坐标为球心,视距为半径,沿着预设方向调整所述视角的坐标及方向,直至所述视角通过所述遮挡检测。
关于无人机飞行轨迹生成装置的具体限定可以参见上文中对于无人机飞行轨迹生成方法的限定,在此不再赘述。上述无人机飞行轨迹生成装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图17所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种无人机飞行轨迹生成方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图17中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取待重建区域的地图数据;所述地图数据包括卫星地图图像及平面地图图像;
根据所述平面地图图像获取所述待重建区域内各建筑物对应的建筑物轮廓;
根据所述卫星地图图像获取各所述建筑物对应的高度数据;
根据各所述建筑物对应的建筑物轮廓及高度数据,生成初始模型;
根据所述初始模型确定目标视角集合;所述目标视角集合包括无人机对所述待重建区域拍摄时的多个视角;
根据所述目标视角集合生成飞行轨迹。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取待重建区域的地图数据;所述地图数据包括卫星地图图像及平面地图图像;
根据所述平面地图图像获取所述待重建区域内各建筑物对应的建筑物轮廓;
根据所述卫星地图图像获取各所述建筑物对应的高度数据;
根据各所述建筑物对应的建筑物轮廓及高度数据,生成初始模型;
根据所述初始模型确定目标视角集合;所述目标视角集合包括无人机对所述待重建区域拍摄时的多个视角;
根据所述目标视角集合生成飞行轨迹。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种无人机飞行轨迹生成方法,其特征在于,包括:
获取待重建区域的地图数据;所述地图数据包括卫星地图图像及平面地图图像;
根据所述平面地图图像获取所述待重建区域内各建筑物对应的建筑物轮廓;
根据所述卫星地图图像获取各所述建筑物对应的高度数据;
根据各所述建筑物对应的建筑物轮廓及高度数据,生成初始模型;
根据所述初始模型确定目标视角集合;所述目标视角集合包括无人机对所述待重建区域拍摄时的多个视角;
根据所述目标视角集合生成飞行轨迹。
2.根据权利要求1所述的方法,其特征在于,所述根据所述初始模型确定目标视角集合,包括:
获取视距、视场及视角重叠率,并生成泊松采样直径;
将所述初始模型、所述泊松采样直径作为输入,通过泊松分布采样算法生成采样点集合;所述采样点集合包括多个采样点,各所述采样点包括对应的坐标及法向;
对各所述采样点设置对应的视角,确定所述目标视角集合;各所述视角设置于对应的采样点的法向上,各所述视角的坐标与对应的采样点的坐标间距为视距,各所述视角的方向与对应的采样点的法向相反;
所述对各所述采样点设置对应的视角,确定所述目标视角集合,包括:
对各所述采样点设置对应的视角,得到初始视角集合;
获取所述初始视角集合中的冗余视角;
在所述初始视角集合内剔除所述冗余视角,根据剔除处理后的初始视角集合得到所述目标视角集合。
3.根据权利要求2所述的方法,其特征在于,所述获取所述初始视角集合中的冗余视角包括:
计算所述初始视角集合中各视角的视角冗余度;
将视角冗余度最高的视角作为待剔除视角;
在所述初始视角集合内剔除所述待剔除视角,根据剔除处理后的初始视角集合得到测试视角集合;
根据所述测试视角集合计算各所述采样点的可重建性;所述采样点对应的可重建性与所述采样点对应的至少两个可见视角有关;
若各所述采样点的可重建性均高于或等于预设阈值,将所述待剔除视角作为冗余视角;
所述计算所述初始视角集合中各视角的视角冗余度包括:
获取与所述视角对应的至少一个可见采样点;
根据所述初始视角集合计算所述各所述采样点可重建性;
获取各所述可见采样点的可重建性,并将各所述可见采样点的中的最小的可重建性设置为所述视角的视角冗余度。
4.根据权利要求2所述的方法,其特征在于,所述根据剔除处理后的初始视角集合得到所述目标视角集合,包括:
根据剔除处理后的初始视角集合得到种子视角集合;所述种子视角集合包括多个种子视角;
对所述种子视角集合进行视角替换处理,根据视角替换处理后的种子视角集合得到所述目标视角集合;
所述对所述种子视角集合进行视角替换处理包括:
对于各所述种子视角,在所述视角集合中搜索对应的候选视角,得到候选视角集合;
从所述候选视角集合中取出一个候选视角,利用所述候选视角替换所述种子视角集合中与所述候选视角对应的种子视角;
根据替换前的种子视角集合及替换后的种子视角集合,分别计算替换前各所述采样点的可重建性总和及替换后各所述采样点的可重建性总和;
若所述替换前各所述采样点的可重建性总和大于或等于所述替换后各所述采样点的可重建性总和,认定替换失败,并撤销替换动作;若所述替换前各所述采样点的可重建性总和小于所述替换后各所述采样点的可重建性总和,认定替换成功;
依次取出所述候选视角集合中的其他候选视角,并利用各所述其他候选视角替换所述种子视角集合中与各所述其他候选视角对应的种子视角,得到视角替换处理后的种子视角集合;
重复所述对所述种子视角集合进行视角替换处理,直至在所述对所述种子视角集合进行视角替换处理的步骤中,各所述候选视角均未成功替换对应的种子视角。
5.根据权利要求1所述的方法,其特征在于,所述根据所述卫星地图图像获取各所述建筑物对应的高度数据,包括:
对所述卫星地图图像进行阴影检测处理,得到阴影概率图像,所述阴影概率图像中像素点的灰度值用于表征所述像素点处于阴影的概率;
对所述卫星地图图像进行区域分割,得到区域分割图像;
根据所述区域分割图像及所述阴影概率图像获得所述阴影二值化图像,所述阴影二值化图用于显示所述卫星地图图像中的阴影区域;
检测所述阴影二值化图像中的多条边缘直线,对所述多条边缘直线进行方向统计,得到太阳方位角;
在所述卫星地图图像上添加所述阴影区域及各所述建筑物轮廓;
根据所述太阳方位角获取所述卫星地图图像中各所述建筑物轮廓对应的阴影子区域;
根据各所述建筑物的阴影子区域获取对应的阴影长度;
根据所述待重建区域的区域经纬度,所述卫星地图图像的拍摄时间及所述太阳方位角得到太阳高度角;
根据所述太阳高度角及各所述建筑物对应的阴影长度,获得各所述建筑物的高度数据。
6.根据权利要求2所述的方法,其特征在于,所述方法还包括:
在所述初始模型中,结合所述目标视角集合与所述采样点集合进行预渲染,得到所述目标视角集合与所述采样点集合之间的可见关系;
所述可见关系包括各所述视角与至少一个可见采样点的对应关系;所述可见采样点为无人机在所述视角下可以观测到的采样点;
所述可见关系还包括各采样点与至少一个可见视角的对应关系;所述可见视角为无人机可以观测到所述采样点时的视角。
7.根据权利要求1所述的方法,其特征在于,所述根据所述目标视角集合生成飞行轨迹包括:
获取飞行路径代价函数;所述飞行路径代价函数与所述目标视角集合中两个视角的视角差、最短距离有关;
根据所述目标视角集合、所述飞行路径代价函数及旅行商问题算法生成所述飞行轨迹。
8.根据权利要求2所述的方法,其特征在于,还包括:
对得到的初始模型在空间内按照预设膨胀半径进行膨胀,得到禁飞区域,所述禁飞区域包括初始模型所在的区域及膨胀区域;
对所述视角进行遮挡检测;所述遮挡检测用于检测所述视角是否落入所述禁飞区域,或检测所述视角是否可以观测到与所述视角对应的采样点;
若所述视角未通过所述遮挡检测,以与所述视角对应的采样点坐标为球心,视距为半径,沿着预设方向调整所述视角的坐标及方向,直至所述视角通过所述遮挡检测。
9.一种无人机飞行轨迹生成装置,其特征在于,所述装置包括:
地图获取模块,用于获取待重建区域的地图数据;所述地图数据包括卫星地图图像及平面地图图像;
轮廓识别模块,用于根据所述平面地图图像获取所述待重建区域内各建筑物对应的建筑物轮廓;
建筑物高度计算模块,用于根据所述卫星地图图像获取各所述建筑物对应的高度数据;
模型生成模块,用于根据各所述建筑物对应的建筑物轮廓及高度数据,生成初始模型;
视角建立模块,用于根据所述初始模型确定目标视角集合;所述目标视角集合包括无人机对所述待重建区域拍摄时的多个视角;
飞行轨迹生成模块,用于根据所述视角集合生成飞行轨迹。
10.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至8中任一项所述方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910683004.7A CN110599583B (zh) | 2019-07-26 | 2019-07-26 | 无人机飞行轨迹生成方法、装置、计算机设备和存储介质 |
US16/656,354 US11209837B2 (en) | 2019-07-26 | 2019-10-17 | Method and device for generating a model of a to-be reconstructed area and an unmanned aerial vehicle flight trajectory |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910683004.7A CN110599583B (zh) | 2019-07-26 | 2019-07-26 | 无人机飞行轨迹生成方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110599583A true CN110599583A (zh) | 2019-12-20 |
CN110599583B CN110599583B (zh) | 2022-03-18 |
Family
ID=68853174
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910683004.7A Active CN110599583B (zh) | 2019-07-26 | 2019-07-26 | 无人机飞行轨迹生成方法、装置、计算机设备和存储介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11209837B2 (zh) |
CN (1) | CN110599583B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111596685A (zh) * | 2020-05-13 | 2020-08-28 | 汉海信息技术(上海)有限公司 | 无人机控制方法、装置、电子设备、服务器及存储介质 |
CN112435312A (zh) * | 2020-09-04 | 2021-03-02 | 上海哔哩哔哩科技有限公司 | 运动轨迹的生成方法、装置、计算机设备和可读存储介质 |
CN112484707A (zh) * | 2020-11-25 | 2021-03-12 | 浙江有色勘测规划设计有限公司 | 一种基于飞行器的建筑测量方法、系统、终端及介质 |
CN114061548A (zh) * | 2022-01-14 | 2022-02-18 | 山东省地质测绘院 | 基于无人机遥感的建筑测绘方法及系统 |
CN114485568A (zh) * | 2021-12-31 | 2022-05-13 | 广州极飞科技股份有限公司 | 测绘方法和装置、计算机设备、存储介质 |
CN115100286A (zh) * | 2022-07-25 | 2022-09-23 | 深圳大学 | 无人机采集视点确定方法、装置、计算机设备和存储介质 |
CN115421509A (zh) * | 2022-08-05 | 2022-12-02 | 北京微视威信息科技有限公司 | 一种无人机飞行拍摄规划方法、装置及存储介质 |
CN116433865A (zh) * | 2023-06-15 | 2023-07-14 | 深圳大学 | 一种基于场景可重建性分析的空地协同采集路径规划方法 |
CN116433853A (zh) * | 2023-06-15 | 2023-07-14 | 深圳大学 | 一种基于实景模型的航测航点生成方法及装置 |
CN116778094A (zh) * | 2023-08-15 | 2023-09-19 | 深圳眸瞳科技有限公司 | 一种基于优选视角拍摄的建筑物变形监测方法及装置 |
CN117274605A (zh) * | 2023-11-20 | 2023-12-22 | 北京飞渡科技股份有限公司 | 一种从无人机拍摄的照片中提取水域轮廓的方法及装置 |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6535975B2 (ja) * | 2017-10-10 | 2019-07-03 | 幸助 野浦 | 飛行物体による一定の土地に対する日陰生成法 |
CN112348781A (zh) * | 2020-10-26 | 2021-02-09 | 广东博智林机器人有限公司 | 一种基准面高度检测方法、装置、设备及存储介质 |
CN113344963B (zh) * | 2021-05-27 | 2022-10-25 | 绍兴市北大信息技术科创中心 | 一种基于图像分割的种子点自适应目标跟踪系统 |
FR3124626A1 (fr) * | 2021-06-25 | 2022-12-30 | Totalenergies Se | Procédé de caractérisation d’une zone d’un territoire destinée à l’installation de panneaux photovoltaïques |
CN114037808B (zh) * | 2022-01-10 | 2022-03-29 | 武大吉奥信息技术有限公司 | 一种高仿真的白模数据生产方法 |
CN114413852B (zh) * | 2022-01-13 | 2023-10-03 | 山东高速岩土工程有限公司 | 一种无人机辅助测绘方法及系统 |
CN115331131B (zh) * | 2022-10-17 | 2023-02-17 | 四川腾盾科技有限公司 | 一种无人机任务规划辅助决策方法 |
CN117635856B (zh) * | 2023-11-07 | 2024-06-11 | 广东省地质调查院 | 一种矿山开采原始数字高程模型重建方法、系统和介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170039765A1 (en) * | 2014-05-05 | 2017-02-09 | Avigilon Fortress Corporation | System and method for real-time overlay of map features onto a video feed |
CN108981706A (zh) * | 2018-07-20 | 2018-12-11 | 深圳大学 | 无人机航拍路径生成方法、装置、计算机设备和存储介质 |
CN109447371A (zh) * | 2018-11-12 | 2019-03-08 | 北京中飞艾维航空科技有限公司 | 巡检路径规划方法、装置、电子设备及可读存储介质 |
CN109447326A (zh) * | 2018-09-30 | 2019-03-08 | 深圳眸瞳科技有限公司 | 无人机迁移轨迹生成方法、装置、电子设备和存储介质 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8207964B1 (en) * | 2008-02-22 | 2012-06-26 | Meadow William D | Methods and apparatus for generating three-dimensional image data models |
US9075415B2 (en) * | 2013-03-11 | 2015-07-07 | Airphrame, Inc. | Unmanned aerial vehicle and methods for controlling same |
WO2015017855A1 (en) * | 2013-08-02 | 2015-02-05 | Xactware Solutions, Inc. | System and method for detecting features in aerial images using disparity mapping and segmentation techniques |
WO2016003555A2 (en) * | 2014-07-01 | 2016-01-07 | Scanifly, LLC | Device, method, apparatus, and computer-readable medium for solar site assessment |
US9942583B2 (en) * | 2014-11-18 | 2018-04-10 | The Invention Science Fund Ii, Llc | Devices, methods and systems for multi-user capable visual imaging arrays |
US9601022B2 (en) * | 2015-01-29 | 2017-03-21 | Qualcomm Incorporated | Systems and methods for restricting drone airspace access |
US20160307447A1 (en) * | 2015-02-13 | 2016-10-20 | Unmanned Innovation, Inc. | Unmanned aerial vehicle remote flight planning system |
CA2977945A1 (en) * | 2015-03-03 | 2016-09-09 | Prenav Inc. | Scanning environments and tracking unmanned aerial vehicles |
US10893419B2 (en) * | 2015-04-14 | 2021-01-12 | ETAK Systems, LLC | Systems and methods for coordinating initiation, preparing, vetting, scheduling, constructing, and implementing a small cell implementation |
CA3012049A1 (en) * | 2016-01-20 | 2017-07-27 | Ez3D, Llc | System and method for structural inspection and construction estimation using an unmanned aerial vehicle |
US10521664B2 (en) * | 2016-11-04 | 2019-12-31 | Loveland Innovations, LLC | Systems and methods for autonomous perpendicular imaging of test squares |
CN108702444B (zh) * | 2017-08-31 | 2021-07-06 | 深圳市大疆创新科技有限公司 | 一种图像处理方法、无人机及系统 |
JP6535975B2 (ja) * | 2017-10-10 | 2019-07-03 | 幸助 野浦 | 飛行物体による一定の土地に対する日陰生成法 |
CN108701373B (zh) * | 2017-11-07 | 2022-05-17 | 深圳市大疆创新科技有限公司 | 基于无人机航拍的三维重建方法、系统及装置 |
CN107943072B (zh) * | 2017-11-13 | 2021-04-09 | 深圳大学 | 无人机飞行路径生成方法、装置、存储介质及设备 |
US10642284B1 (en) * | 2018-06-08 | 2020-05-05 | Amazon Technologies, Inc. | Location determination using ground structures |
US11138712B2 (en) * | 2018-07-12 | 2021-10-05 | TerraClear Inc. | Systems and methods to determine object position using images captured from mobile image collection vehicle |
KR102275572B1 (ko) * | 2018-12-21 | 2021-07-09 | 한국전자통신연구원 | 이종 고도 항공영상을 이용한 3차원 지형정보 정합 방법 및 장치 |
-
2019
- 2019-07-26 CN CN201910683004.7A patent/CN110599583B/zh active Active
- 2019-10-17 US US16/656,354 patent/US11209837B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170039765A1 (en) * | 2014-05-05 | 2017-02-09 | Avigilon Fortress Corporation | System and method for real-time overlay of map features onto a video feed |
CN108981706A (zh) * | 2018-07-20 | 2018-12-11 | 深圳大学 | 无人机航拍路径生成方法、装置、计算机设备和存储介质 |
CN109447326A (zh) * | 2018-09-30 | 2019-03-08 | 深圳眸瞳科技有限公司 | 无人机迁移轨迹生成方法、装置、电子设备和存储介质 |
CN109447371A (zh) * | 2018-11-12 | 2019-03-08 | 北京中飞艾维航空科技有限公司 | 巡检路径规划方法、装置、电子设备及可读存储介质 |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111596685A (zh) * | 2020-05-13 | 2020-08-28 | 汉海信息技术(上海)有限公司 | 无人机控制方法、装置、电子设备、服务器及存储介质 |
CN112435312B (zh) * | 2020-09-04 | 2023-04-11 | 上海哔哩哔哩科技有限公司 | 运动轨迹的生成方法、装置、计算机设备和可读存储介质 |
CN112435312A (zh) * | 2020-09-04 | 2021-03-02 | 上海哔哩哔哩科技有限公司 | 运动轨迹的生成方法、装置、计算机设备和可读存储介质 |
CN112484707A (zh) * | 2020-11-25 | 2021-03-12 | 浙江有色勘测规划设计有限公司 | 一种基于飞行器的建筑测量方法、系统、终端及介质 |
CN112484707B (zh) * | 2020-11-25 | 2022-05-10 | 浙江有色勘测规划设计有限公司 | 一种基于飞行器的建筑测量方法、系统、终端及介质 |
CN114485568A (zh) * | 2021-12-31 | 2022-05-13 | 广州极飞科技股份有限公司 | 测绘方法和装置、计算机设备、存储介质 |
CN114061548A (zh) * | 2022-01-14 | 2022-02-18 | 山东省地质测绘院 | 基于无人机遥感的建筑测绘方法及系统 |
CN115100286A (zh) * | 2022-07-25 | 2022-09-23 | 深圳大学 | 无人机采集视点确定方法、装置、计算机设备和存储介质 |
CN115100286B (zh) * | 2022-07-25 | 2022-11-11 | 深圳大学 | 无人机采集视点确定方法、装置、计算机设备和存储介质 |
CN115421509A (zh) * | 2022-08-05 | 2022-12-02 | 北京微视威信息科技有限公司 | 一种无人机飞行拍摄规划方法、装置及存储介质 |
CN116433865A (zh) * | 2023-06-15 | 2023-07-14 | 深圳大学 | 一种基于场景可重建性分析的空地协同采集路径规划方法 |
CN116433853A (zh) * | 2023-06-15 | 2023-07-14 | 深圳大学 | 一种基于实景模型的航测航点生成方法及装置 |
CN116433865B (zh) * | 2023-06-15 | 2023-10-20 | 深圳大学 | 一种基于场景可重建性分析的空地协同采集路径规划方法 |
CN116433853B (zh) * | 2023-06-15 | 2023-11-17 | 深圳大学 | 一种基于实景模型的航测航点生成方法及装置 |
CN116778094A (zh) * | 2023-08-15 | 2023-09-19 | 深圳眸瞳科技有限公司 | 一种基于优选视角拍摄的建筑物变形监测方法及装置 |
CN116778094B (zh) * | 2023-08-15 | 2023-11-24 | 深圳眸瞳科技有限公司 | 一种基于优选视角拍摄的建筑物变形监测方法及装置 |
CN117274605A (zh) * | 2023-11-20 | 2023-12-22 | 北京飞渡科技股份有限公司 | 一种从无人机拍摄的照片中提取水域轮廓的方法及装置 |
CN117274605B (zh) * | 2023-11-20 | 2024-03-01 | 北京飞渡科技股份有限公司 | 一种从无人机拍摄的照片中提取水域轮廓的方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110599583B (zh) | 2022-03-18 |
US11209837B2 (en) | 2021-12-28 |
US20210026377A1 (en) | 2021-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110599583B (zh) | 无人机飞行轨迹生成方法、装置、计算机设备和存储介质 | |
CN110135455B (zh) | 影像匹配方法、装置及计算机可读存储介质 | |
CN111353969B (zh) | 道路可行驶区域的确定方法、装置及计算机设备 | |
CN109657583B (zh) | 脸部关键点检测方法、装置、计算机设备和存储介质 | |
CN109683699B (zh) | 基于深度学习实现增强现实的方法、装置及移动终端 | |
CN111144304A (zh) | 车辆目标检测模型的生成方法、车辆目标检测方法及装置 | |
CN111680675A (zh) | 人脸活体检测方法、系统、装置、计算机设备和存储介质 | |
CN113689535A (zh) | 基于无人机影像的建筑物模型的生成方法和装置 | |
CN115984273B (zh) | 道路病害检测方法、装置、计算机设备及可读存储介质 | |
CN108648141B (zh) | 一种图像拼接方法及装置 | |
WO2021051868A1 (zh) | 目标的定位方法及装置、计算机设备、计算机存储介质 | |
CN113537180A (zh) | 树障的识别方法、装置、计算机设备和存储介质 | |
CN112396701A (zh) | 卫星图像的处理方法、装置、电子设备和计算机存储介质 | |
CN112489207B (zh) | 一种空间约束的密集匹配点云平面基元提取方法 | |
CN112132466A (zh) | 基于三维建模的路线规划方法、装置、设备和存储介质 | |
CN112270748A (zh) | 基于图像的三维重建方法及装置 | |
CN109314774A (zh) | 用于立体成像的系统和方法 | |
CN116977539A (zh) | 图像处理方法、装置、计算机设备、存储介质和程序产品 | |
CN116310899A (zh) | 基于YOLOv5改进的目标检测方法及装置、训练方法 | |
CN115376018A (zh) | 建筑物高度及占地面积计算方法、装置、设备及存储介质 | |
CN114998743A (zh) | 一种视觉地图点的构建方法、装置、设备及介质 | |
CN116188587A (zh) | 定位方法、装置及车辆 | |
CN112767477A (zh) | 一种定位方法、装置、存储介质及电子设备 | |
CN113763467B (zh) | 图像处理方法、装置、计算设备及介质 | |
US20240153207A1 (en) | Systems, methods, and media for filtering points of a point cloud utilizing visibility factors to generate a model of a scene |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |