CN112154447A - 地表特征识别方法、设备、无人机及计算机可读存储介质 - Google Patents

地表特征识别方法、设备、无人机及计算机可读存储介质 Download PDF

Info

Publication number
CN112154447A
CN112154447A CN201980033702.0A CN201980033702A CN112154447A CN 112154447 A CN112154447 A CN 112154447A CN 201980033702 A CN201980033702 A CN 201980033702A CN 112154447 A CN112154447 A CN 112154447A
Authority
CN
China
Prior art keywords
information
image
disaster
earth surface
earth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980033702.0A
Other languages
English (en)
Inventor
董双
李鑫超
王涛
李思晋
梁家斌
田艺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Publication of CN112154447A publication Critical patent/CN112154447A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

一种地表特征识别方法、设备、无人机及计算机可读存储介质,其中该方法包括:获取地表图像信息(S101);对多个颜色通道信息和图像深度信息进行处理,得到包含地表语义信息的特征图(S102);根据特征图中的地表语义信息,确定地表特征的识别结果(S103)。上述方法提高了地表特征识别的准确性和便利性。

Description

地表特征识别方法、设备、无人机及计算机可读存储介质
技术领域
本申请涉及人工智能领域,尤其涉及一种地表特征识别方法、设备、无人机及计算机可读存储介质。
背景技术
随着我国无人机制造业的高速发展,无人机在农业、航测、电力巡线、天然气(石油)管道巡检、森林防火、抢险救灾、智慧城市等领域快速成长。在农业领域,通过无人机可以实现农作物的农药自动喷洒。
目前,地表的各种自然灾害以及病虫害都对自然界有着较大的影响,人们可以通过定期观察地表的变化情况,如植物的生长情况等,识别出对应的地表特征之后才能确定自然界是否受到了自然灾害以及病虫害等的影响,但需要花费较多的时间成本和人力成本才能识别到想要的地表特征,也无法保证识别出来的结果的准确性。因此,如何提高地表特征识别的准确性和便利性是目前亟待解决的问题。
发明内容
基于此,本申请提供了一种地表特征识别方法、设备、无人机及计算机可读存储介质,旨在提高地表特征的识别结果的准确性和便利性。
第一方面,本申请提供了一种地表特征识别方法,包括:
获取地表图像信息,其中,所述地表图像信息包括多个颜色通道的图像信息和图像深度信息;
对所述多个颜色通道信息和图像深度信息进行处理,得到包含地表语义信息的特征图;
根据所述特征图中的地表语义信息,确定地表特征的识别结果。
第二方面,本申请还提供了一种无人机,所述无人机包括喷洒装置和处理器,所述处理器,用于实现如下步骤:
获取飞行喷洒任务,其中,所述飞行喷洒任务根据地表特征的识别结果确定;
执行所述飞行喷洒任务,并控制所述喷洒装置按照所述飞行喷洒任务中的喷洒参数执行对应的喷洒动作。
第三方面,本申请还提供了一种地表特征识别设备,所述地表特征识别设备包括存储器和处理器;
所述存储器用于存储计算机程序;
所述处理器,用于执行所述计算机程序并在执行所述计算机程序时,实现如下步骤:
获取地表图像信息,其中,所述地表图像信息包括多个颜色通道的图像信息和图像深度信息;
对所述多个颜色通道信息和图像深度信息进行处理,得到包含地表语义信息的特征图;
根据所述特征图中的地表语义信息,确定地表特征的识别结果。
第四方面,本申请还提供了一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如上所述的地表特征识别方法。
本申请实施例提供了一种地表特征识别方法、无人机及计算机可读存储介质,通过对地表图像信息中的多个颜色通道信息和图像深度信息进行处理,可以得到包含地表语义信息的特征图,通过该特征图中的地表语义信息,可以准确的确定地表特征的识别结果,整个识别过程不需要人工参与,可以提高地表特征识别的准确性和便利性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
为了更清楚地说明本申请实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一实施例提供的一种地表特征识别方法的步骤示意流程图;
图2是图1中的地表特征识别方法的子步骤示意流程图;
图3是本申请实施例中拼接地表图像的一示意图;
图4是本申请一实施例提供的另一种地表特征识别方法的步骤示意流程图;
图5是本申请一实施例提供的又一种地表特征识别方法的步骤示意流程图;
图6是本申请一实施例提供的无人机的结构示意图;
图7是本申请一实施例提供的无人机执行喷洒任务的步骤流程示意图;
图8是本申请实施例中的飞行喷洒航线的一示意图;
图9是本申请实施例中的飞行喷洒航线的一示意图;
图10是本申请一实施例中灾害蔓延边界的一示意图;
图11是本申请一实施例中喷洒作业区域交叠的一示意图;
图12是本申请一实施例中喷洒作业区域交叠的另一示意图
图13是本申请一实施例提供的地表特征识别设备的示意性框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
附图中所示的流程图仅是示例说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解、组合或部分合并,因此实际执行的顺序有可能根据实际情况改变。
本申请提供的地表特征识别方法可以应用于地面控制平台、服务器和/或无人机中,用于对地表特征进行识别。其中,地面控制平台包括笔记本电脑和PC电脑等,服务器可以为单台的服务器,也可以为由多台服务器组成的服务器集群,无人机包括旋翼型无人机,例如四旋翼无人机、六旋翼无人机、八旋翼无人机,也可以是固定翼无人机,还可以是旋翼型与固定翼无人机的组合,在此不作限定。
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
请参阅图1,图1是本申请一实施例提供的一种地表特征识别方法的步骤示意流程图。
具体地,如图1所示,该地表特征识别方法包括步骤S101至步骤S103。
S101、获取地表图像信息,其中,所述地表图像信息包括多个颜色通道的图像信息和图像深度信息。
在需要对地表特征进行识别时,获取所需的地表图像信息,其中,该地表图像信息由多个颜色通道的图像信息和图像深度信息融合得到,多个颜色通道的图像信息至少包括R、G、B三通道信息。通过对多个颜色通道的图像信息和图像深度信息进行融合,可以丰富地表图像信息,可以间接的提高地表特征识别的准确性。
其中,该地表图像信息还包括俯视正视图,该图像深度信息为俯视正视图下的高度信息。地表图像是通过航拍得到的,在航拍过程中,由于可移动平台的倾斜等原因,导致航拍得到的地表图像不是正常的俯视正视图像,通过将地表图像转换为俯视正视下的地表图像,可以保证地表图像信息的准确性,可以提高地表特征识别的准确性。
其中,该地表图像信息还包括地表图像所对应的地理位置信息。该地理位置信息包括通过全球卫星导航定位系统获得的定位信息;和/或,通过实时差分定位系统获得的定位信息。在航拍过程中,可移动平台可以通过全球卫星导航定位系统或实时差分定位系统获取地表图像的地理位置信息,可以进一步的丰富地表图像信息,也方便后续查询识别到的地表特征所属的地区。
其中,该图像深度信息的确定方式可以为基于双目测距算法和多个颜色通道的图像信息确定,还可以为基于单目测距算法和多个颜色通道的图像信息的关联帧确定。该关联帧为多个颜色通道的图像信息中存在交叠的图像帧,将交叠的图像帧作为相同的两个图像帧,并计算这两个图像帧的视差,然后通过视差,可以确定图像深度信息。需要说明的是,该双目测距算法可基于实际情况进行设置,本申请对此不作具体限定。该双目测距算法可选为半全局匹配算法(Semi-Global Matching,SGM)。
在一实施例中,如图2所述,步骤S101包括子步骤S1011至子步骤S1012。
S1011、获取地表图像集,并根据所述地表图像集中的每个地表图像,生成对应的深度图;
从本地或者云端获取地表图像集,该地表图像集包括多张地表图像,且每种地表图像均为俯视正视下的地表图像;根据地表图像集中的每个地表图像,生成对应的深度图。其中,地表图像集可以通过无人机对地表进行航拍得到,具体地,无人机获取地表航拍任务,其中,地表航拍任务包括航拍飞行航线和航拍参数;无人机执行地表航拍任务,以对地表进行航拍,得到获取地表图像集,其中,地表图像集中的地表图像包括地理位置信息。无人机可以将航拍得到的地表图像集存储在本地,也可以将航拍得到的地表图像集上传至云端。
其中,地表航拍任务的获取方式具体为:无人机获取地表航拍任务文件,其中,地表航拍任务文件包括航点信息和每个航点的航拍参数;根据航点信息,生成航拍飞行航线,其中,航拍飞行航线上标记有多个航点;根据每个航点的航拍参数,设置航拍飞行航线上的每个航点的航拍参数,以生成地表航拍任务。其中,航拍参数包括航拍高度和航拍频率,该航拍频率用于控制摄像头进行连拍,航点信息包括每个航点的位置和顺序。
其中,深度图的生成方式具体为:基于单目测距算法根据地表图像集中的每个地表图像的关联帧,生成每个地表图像对应的深度图,并对每个地表图像对应的深度图进行拼接,得到拼接深度图,且将拼接深度图作为地表图像集对应的深度图。或者基于双目测距算法,根据地表图像集中每两个关联的地表图像,生成每两个关联的地表图像对应的深度图,并对每两个关联的地表图像对应的深度图进行拼接,得到拼接深度图,且将拼接深度图作为地表图像集对应的深度图。
S1012、对所述地表图像集中的每个地表图像和所述深度图进行处理,得到地表图像信息。
在生成地表图像集对应的深度图之后,对地表图像集中的每个地表图像和深度图进行处理,得到地表图像信息。具体地,对地表图像集中的每个地表图像进行拼接,得到拼接地表图像;对深度图和拼接地表图像进行融合,得到地表图像信息,该地表图像信息包括多个颜色通道的图像信息和图像深度信息。
其中,地表图像的拼接方式具体为:确定每个地表图像各自对应的拼接参数,其中,拼接参数包括拼接顺序和拼接关系;根据每个地表图像各自对应的拼接参数,对每个地表图像进行拼接,得到拼接地表图像。请参阅图3,图3为本申请实施例中的拼接地表图像的一拼接示意图,如图3所示,地表图像A的右侧与地表图像B的左侧拼接,地表图像B的右侧与地表图像C的左侧拼接,地表图像D的上侧与地表图像A的下侧拼接,地表图像E的右侧与地表图像D的左侧拼接,地表图像F的左侧与地表图像E的右侧拼接。
其中,拼接参数的确定方式具体为:获取每个地表图像各自对应的航拍时刻点和航拍位置;根据每个地表图像各自对应的航拍时刻点,确定每个地表图像各自对应的拼接顺序;根据每个地表图像各自对应的航拍位置,确定每个地表图像各自对应的拼接关系。需要说明的是,航拍时刻点越小的地表图像的拼接顺序越靠前,航拍时刻点越大的地表图像的拼接顺序越靠后,通过地表图像的航拍位置,可以确定各地表图像之间的位置关系,并将各地表图像之间的位置关系作为每个地表图像各自对应的拼接关系。
S102、对所述多个颜色通道信息和图像深度信息进行处理,得到包含地表语义信息的特征图。
在获取到地表图像信息之后,对地表图像信息中的多个颜色通道信息和图像深度信息进行处理,得到包含地表语义信息的特征图。其中,该地表语义信息包括每个地表特征以及每个地表特征的识别概率值。
在一实施例中,对多个颜色通道信息和图像深度信息进行融合处理,得到融合图像块;将融合图像块与预设的图像块集中的图像块进行匹配,得到融合图像块与每个图像块之间的匹配程度;根据融合图像块与每个图像块之间的匹配程度,确定包含地表语义信息的特征图。需要说明的是,预设的图像块集中包括多个标注有地表特征的图像块,预设的图像块集中的图像块可基于实际情况进行设置,本申请对此不作具体限定。
其中,融合图像块与图像块之间的匹配方式具体为:将融合图像块拆分为预设数量的融合图像子块,并将图像块均拆分为预设数量的图像子块,其中,融合图像子块与图像子块存在一一对应关系;计算每个融合图像子块与对应的图像子块之间的相似度,并累加每个融合图像子块与对应的图像子块之间的相似度,得到融合图像块与图像块之间的匹配程度。
其中,特征图的确定方式具体为:获取该匹配程度大于或等于预设的匹配程度阈值的图像块作为目标图像块,并获取每个目标图像块中各图像子块与对应的融合子块之间的相似度以及每个目标图像块中各图像子块对应的地表特征;获取该相似度大于或等于预设的相似度阈值的图像子块对应的地表特征,并将该地表特征对应的图像子块的相似度作为识别概率值;在该融合图像块中的对应融合图像子块中标记该地表特征以及识别概率值,从而得到包含地表语义信息的特征图。
在一实施例中,对多个颜色通道信息和图像深度信息进行融合处理,得到融合图像块;通过经过预先训练的神经网络对融合图像块进行处理,得到包含地表语义信息的特征图。其中,经过预先训练的神经网络可以从融合图像块中提取地表语义信息,从而得到包含地表语义信息的特征图。需要说明的是,该神经网络可以为卷积神经网络,还可以为循环卷积神经网络,本申请对此不作具体限定。
其中,神经网络的训练方式具体为:获取大量标注有地表语义信息的地表图像,并对标注有地表语义信息的地表图像进行归一化处理以及数据增强处理,从而得到样本数据;将样本数据输入至神经网络,对神经网络进行训练,直到该神经网络收敛,使得通过收敛后的神经网络对地表图像信息进行处理,可以得到包含地表语义信息的特征图。通过对标注有地表语义信息的地表图像进行归一化处理以及数据增强处理,可以保证训练得到的神经网络对地表图像的处理效果,可以得到准确的包含地表语义信息的特征图,提高地表特征识别的准确性。
S103、根据所述特征图中的地表语义信息,确定地表特征的识别结果。
在得到包含特征图中的地表语义信息之后,根据该特征图中的地表语义信息,确定地表特征的识别结果。具体地,从该地表语义信息中获取每个地表特征的置信度,并将每个地表特征的置信度与预设的置信度阈值进行比较,获取该置信度大于或等于置信度阈值的地表特征,并根据置信度大于或等于置信度阈值的地表特征,确定地表特征的识别结果。需要说明的是,上述置信度阈值可基于实际情况进行设置,本申请对此不作具体限定。
其中,地表特征的识别结果包括地表受灾类型、地表受灾区域信息、地表受灾程度信息和地表受灾面积信息,地表受灾类型用于描述地表发生的灾害的种类,地表受灾区域信息用于描述地表上受灾的区域,地表受灾程度信息用于描述受灾的区域的受灾程度,地表受灾面积信息用于描述受灾的区域的面积。需要说明的是,灾害的种类包括但不限于倒伏、病虫害、水灾和旱灾,本申请对此不作具体限定。
上述实施例提供的地表特征识别方法,通过对地表图像信息中的多个颜色通道信息和图像深度信息进行处理,可以得到包含地表语义信息的特征图,通过该特征图中的地表语义信息,可以准确的确定地表特征的识别结果,整个识别过程不需要人工参与,可以提高地表特征识别的准确性和便利性。
请参阅图4,图4是本申请一实施例提供的另一种地表特征识别方法的步骤示意流程图。
具体地,如图4所示,该地表特征识别方法包括步骤S201至S205。
S201、获取地表图像信息,其中,所述地表图像信息包括多个颜色通道的图像信息和图像深度信息。
在需要对地表特征进行识别时,获取所需的地表图像信息,其中,该地表图像信息由多个颜色通道的图像信息和图像深度信息融合得到,多个颜色通道的图像信息至少包括R、G、B三通道信息。通过对多个颜色通道的图像信息和图像深度信息进行融合,可以丰富地表图像信息,可以间接的提高地表特征识别的准确性。
S202、对所述多个颜色通道信息和图像深度信息进行处理,得到包含地表语义信息的特征图。
在获取到地表图像信息之后,对地表图像信息中的多个颜色通道信息和图像深度信息进行处理,得到包含地表语义信息的特征图。其中,该地表语义信息包括每个地表特征以及每个地表特征的识别概率值。
S203、根据所述特征图中的地表语义信息,确定地表特征的识别结果。
在得到包含特征图中的地表语义信息之后,根据该特征图中的地表语义信息,确定地表特征的识别结果。具体地,从该地表语义信息中获取每个地表特征的置信度,并将每个地表特征的置信度与预设的置信度阈值进行比较,获取该置信度大于或等于置信度阈值的地表特征,并根据置信度大于或等于置信度阈值的地表特征,确定地表特征的识别结果。需要说明的是,上述置信度阈值可基于实际情况进行设置,本申请对此不作具体限定。
S204、获取地表特征的至少一个历史识别结果,其中,所述历史识别结果为在当前时刻之前确定的地表特征的识别结果。
在确定地表特征的识别结果之后,获取地表特征的至少一个历史识别结果。其中,该历史识别结果为在当前时刻之前确定的地表特征的识别结果。该历史识别结果存储在本地磁盘中,或者,该历史识别结果存储在云端。
在一实施例中,可以根据地表特征的识别结果的地理位置信息,将地表特征的识别结果分地区进行存储,还可以在地区的维度下进一步地分地表区域进行存储,便于后续查询。
S205、根据所述地表特征的识别结果和所述地表特征的至少一个历史识别结果,确定地表变化趋势。
在获取到地表特征的至少一个历史识别结果之后,根据地表特征的识别结果和地表特征的至少一个历史识别结果,确定地表变化趋势,即将地表特征的识别结果与历史识别结果进行比较,即可知道地表变化趋势。其中,地表变化趋势包括但不限于病虫害变化趋势、倒伏变化趋势、水灾变化趋势和旱灾变化趋势,病虫害变化趋势包括病虫害继续蔓延和病虫害强度减弱,倒伏变化趋势包括倒伏继续蔓延和倒伏强度减弱,水灾变化趋势包括水灾继续蔓延和水灾强度减弱,旱灾变化趋势包括旱灾继续蔓延和旱灾强度减弱。
在一实施例中,获取地表特征的识别结果的第一确定时刻点以及每个历史识别结果的第二确定时刻点;根据第一确定时刻点和每个第二确定时刻点,对识别结果和每个历史识别结果进行排序,得到识别结果队列;根据识别结果队列中相邻的每两个识别结果,确定多个候选地表变化趋势;对多个候选地表变化趋势进行处理,得到地表变化趋势。
其中,候选地表变化趋势的确定方式具体为:获取识别结果队列中相邻的每两个识别结果,并将两个识别结果进行相互比较,从而得到候选地表变化趋势。需要说明的是,识别结果的确定时刻点越小,则该识别结果在识别结果队列中的位置越靠前,识别结果的确定时刻点越大,则该识别结果在识别结果队列中的位置越靠后。其中,候选地表变化趋势的处理方式具体为:获取每个候选地表变化趋势各自对应的时间顺序,并按照每个候选地表变化趋势各自对应的时间顺序,依次连接每个候选地表变化趋势,从而得到地表变化趋势。
上述实施例提供的地表特征识别方法,在准确的确定地表特征的识别结果之后,获取之前确定的地表特征的识别结果,通过对当前确定的地表特征的识别结果与之前确定的地表特征的识别结果,可以准确的确定地表变化趋势,便于用户决策,极大的提高了用户体验。
请参阅图5,图5是本申请一实施例提供的又一种地表特征识别方法的步骤示意流程图。
具体地,如图5所示,该地表特征识别方法包括步骤S301至步骤S305。
S301、获取地表图像信息,其中,所述地表图像信息包括多个颜色通道的图像信息和图像深度信息。
在需要对地表特征进行识别时,获取所需的地表图像信息,其中,该地表图像信息由多个颜色通道的图像信息和图像深度信息融合得到,多个颜色通道的图像信息至少包括R、G、B三通道信息。通过对多个颜色通道的图像信息和图像深度信息进行融合,可以丰富地表图像信息,可以间接的提高地表特征识别的准确性。
S302、对所述多个颜色通道信息和图像深度信息进行处理,得到包含地表语义信息的特征图。
在获取到地表图像信息之后,对地表图像信息中的多个颜色通道信息和图像深度信息进行处理,得到包含地表语义信息的特征图。其中,该地表语义信息包括每个地表特征以及每个地表特征的识别概率值。
S303、根据所述特征图中的地表语义信息,确定地表特征的识别结果。
在得到包含特征图中的地表语义信息之后,根据该特征图中的地表语义信息,确定地表特征的识别结果。具体地,从该地表语义信息中获取每个地表特征的置信度,并将每个地表特征的置信度与预设的置信度阈值进行比较,获取该置信度大于或等于置信度阈值的地表特征,并根据置信度大于或等于置信度阈值的地表特征,确定地表特征的识别结果。需要说明的是,上述置信度阈值可基于实际情况进行设置,本申请对此不作具体限定。
S304、获取三维地表地图,并从所述识别结果中获取地表受灾区域信息、地表受灾程度信息和地表受灾面积信息。
在确定地表特征的识别结果之后,获取三维地表地图,并从识别结果中获取地表受灾区域信息、地表受灾程度信息和地表受灾面积信息。其中,地表特征的识别结果包括地表受灾类型、地表受灾区域信息、地表受灾程度信息和地表受灾面积信息,地表受灾类型用于描述地表发生的灾害的种类,地表受灾区域信息用于描述地表上受灾的区域,地表受灾程度信息用于描述受灾的区域的受灾程度,地表受灾面积信息用于描述受灾的区域的面积。需要说明的是,灾害的种类包括但不限于倒伏、病虫害、水灾和旱灾,本申请对此不作具体限定。
需要说明的是,三维地表地图基于三维构建算法生成,该三维构建算法可基于实际情况进行设置,本申请对此不作具体限定。
S305、根据所述地表受灾区域信息、地表受灾程度信息和地表受灾面积信息,对所述三维地表地图进行标记,得到标记有受灾区域、受灾程度和受灾面积的目标三维地图。
根据地表受灾区域信息、地表受灾程度信息和地表受灾面积信息,对三维地表地图进行标记,得到标记有受灾区域、受灾程度和受灾面积的目标三维地图。用户可以通过目标三维地图快速简单的知晓受灾区域、受灾程度和受灾面积,便于用户参考,提高了用户体验。其中,在得到目标三维地图之后,可以存储目标三维地图;和/或将目标三维地图发送至终端设备,以供终端设备显示目标三维地图;和/或将目标三维地图发送至云端,以供云端存储目标三维地图。
具体地,根据地表受灾区域信息,在三维地表地图中标记每个受灾区域,即从地表受灾区域信息中获取每个受灾区域的地理位置信息,按照每个受灾区域的地理位置信息,在三维地表地图中标记每个受灾区域;根据地表受灾程度信息,标记每个受灾区域各自对应的受灾程度;根据地表受灾面积信息,标记每个受灾区域各自对应的受灾面积,即从地表受灾面积信息中获取每个受灾区域各自对应的受灾面积,并在三维地表地图中的受灾区域内标记受灾面积。需要说明的是,受灾区域、受灾程度和受灾面积的标记方式可基于实际情况进行设置,本申请对此不作具体限定。可选地,受灾程度的标记方式为颜色标记。
其中,根据地表受灾程度信息,确定每个受灾区域各自对应的受灾程度颜色,即从地表受灾程度信息中获取每个受灾区域各自对应的受灾程度,并获取预存的受灾程度与颜色之间的映射关系表,然后查询该映射关系表,可以确定每个受灾区域各自对应的受灾程度颜色;根据每个受灾区域各自对应的受灾程度颜色,标记每个受灾区域各自对应的受灾程度。
上述实施例提供的地表特征识别方法,在确定地表特征的识别结果之后,根据地表特征的识别结果中的地表受灾区域信息、地表受灾程度信息和地表受灾面积信息,对三维地表地图进行标记,得到标记有受灾区域、受灾程度和受灾面积的目标三维地图,使得用户可以通过目标三维地图快速简单的知晓受灾区域、受灾程度和受灾面积,便于用户参考,提高了用户体验。
请参阅图6,图6是本申请一实施例提供的无人机的结构示意图。无人机可以为旋翼型无人机,例如四旋翼无人机、六旋翼无人机、八旋翼无人机,也可以是固定翼无人机,还可以是旋翼型与固定翼无人机的组合,在此不作限定。
如图6所示,无人机400包括喷洒装置401和处理器402,该无人机400用于农耕产业中对农产品、林木等进行农药、水等液体喷洒作业活动。无人机400可以实现移动、转动、翻转等动作,可以带动喷洒装置401运动到不同的位置或者不同的角度以在预设区域内进行喷洒作业。处理器402安装在无人机400内部,在图6中不可见。
请参阅图6,在一些实施例中,喷洒装置401包括泵组件4011、供液箱4012、喷头组件4013和导液管4014。供液箱4012与泵组件4011连通。喷头组件4013用于实现喷洒作业。导液管4014与泵组件4011及喷头组件4013连接,用于将从泵组件4011泵出的液体输送至喷头组件4013。其中,喷头组件4013的数量为至少一个,可以为一个、两个、三个、四个或者更多,本申请对此不作限定。
具体地,处理器402可以是微控制单元(Micro-controller Unit,MCU)、中央处理单元(Central Processing Unit,CPU)或数字信号处理器(Digital Signal Processor,DSP)等。
请参阅图7,图7为本申请一实施例提供的无人机执行喷洒任务的步骤流程示意图。如图7所示,处理器402用于实现步骤S401至步骤S402。
S401、获取飞行喷洒任务,其中,所述飞行喷洒任务根据地表特征的识别结果确定。
具体地,在得到地表特征的识别结果之后,发现农作物或者果树等出现倒伏、病虫害或者缺水等情况,需要对农作物或者果树喷洒农药或者浇水等,可以根据地表特征的识别结果确定飞行喷洒任务。无人机400获取飞行喷洒任务,其中,该飞行喷洒任务包括飞行喷洒航线和每个航点的喷洒参数,该喷洒参数包括喷洒时间、喷洒角度、喷洒流量和喷洒箱。
在一实施例中,从本地磁盘、地面终端或者服务器获取地表特征的识别结果,其中,地表特征的识别结果包括地表受灾区域信息和地表受灾程度信息;根据地表受灾区域信息和地表受灾程度信息,生成对应的飞行喷洒任务。
进一步地,飞行喷洒任务的生成方式具体为:根据地表受灾区域信息,确定待规划的飞行喷洒航线的航点信息,并根据航点信息,生成对应的飞行喷洒航线;根据地表受灾程度信息,设置飞行喷洒航线上每个航点的喷洒参数,以生成对应的飞行喷洒任务。
进一步地,航点信息的确定方式具体为:根据地表受灾区域信息,确定受灾区域的形状和面积;根据受灾区域的形状,确定待规划的飞行喷洒航线的航线类型;根据受灾区域的面积,确定待规划的飞行喷洒航线的航点数量;根据航线类型、地表受灾区域信息和航点数量,确定待规划的飞行喷洒航线的航点信息。
进一步地,受灾区域的形状和面积的确定方式具体为:从地表受灾区域信息中获取地表受灾区域的轮廓信息和每个轮廓点的地理位置,并根据每个轮廓点的地理位置,确定受灾区域的面积;根据轮廓信息,确定地表受灾区域的轮廓形状,并计算该轮廓形状与每个预设形状之间的相似度,且将相似度最高的预设形状作为受灾区域的形状。
进一步地,航线类型的确定方式具体为:获取预存的形状与航线类型之间的映射关系表,并查询该映射关系表,获取受灾区域的形状对应的航线类型,且将获取到的航线类型作为待规划的飞行喷洒航线的航线类型。航线类型包括带状航线和环状航线。需要说明的是,上述形状与航线类型之间的映射关系表可基于实际情况进行设置,本申请对此不作具体限定。
进一步地,航点数量的确定方式具体为:获取预存的面积与航点数量之间的映射关系表,并查询该映射关系表,获取受灾区域的面积对应的航点数量,并将获取到的航点数量作为待规划的飞行喷洒航线的航点数量。需要说明的是,上述面积与航点数量之间的映射关系表可基于实际情况进行设置,本申请对此不作具体限定。
进一步地,航点信息的确定方式进一步为:获取预存的地图,并根据地表受灾区域信息在预存的地图中标记对应的地表受灾区域;计算标记的地表受灾区域的面积,并根据该面积和航点数量,确定航点之间的间距;按照该间距和航线类型,在该地表受灾区域中依次标记每个航点,并获取每个航点的标记顺序和每个航点在该地表受灾区域中的地理位置;将每个航点的标记顺序和每个航点在该地表受灾区域中的地理位置作为每个航点的航点顺序和航点位置,从而得到待规划的飞行喷洒航线的航点信息。
进一步地,飞行喷洒航线的生成方式具体为:从航点信息中获取每个航点的航行顺序和航点位置;按照每个航点的航行顺序的先后,依次连接每个航点位置,以生成对应的飞行喷洒航线。其中,飞行喷洒航线包括环绕航线和/或带状航线。
图8为本申请实施例中的飞行喷洒航线的一示意图,如图8所示,该飞行喷洒航线为环绕航线,且该飞行喷洒航线包括四个航点,而四个航点分别为航点A、航点B、航点C和航点D,且航行顺序为航点A→航点B→航点C→航点D。如此,该生成以航点A、航点B、航点C和航点D所围合而成的环绕航线航点A→航点B→航点C→航点D→航点A。
图9为本申请实施例中的飞行喷洒航线的一示意图,如图9所示,该飞行喷洒航线为带状航线,且该飞行喷洒航线包括四个航点,四个航点分别为航点E、航点F、航点G和航点H,其中起始点为航点E,结束点为航点G。依次连接航点E、航点F、航点G和航点H,形成一闭合喷洒区域,并在此喷洒区域根据预先设置的起始航点E、结束航点G、以及预设的航线间隔等自动规划航线,例如图9中所示的弓字形航线。
进一步地,飞行喷洒任务的生成方式具体为:获取预存的地表受灾程度与喷洒参数之间的映射关系表;根据地表受灾程度信息和映射关系表,确定飞行喷洒航线上每个航点的喷洒参数;根据确定的飞行喷洒航线上每个航点的喷洒参数,设置飞行喷洒航线上每个航点的喷洒参数,以生成对应的飞行喷洒任务。需要说明的是,上述地表受灾程度与喷洒参数之间的映射关系表可基于实际情况进行设置,本申请对此不作具体限定。
进一步地,飞行喷洒任务的生成方式还可以为:根据获得的地表受灾程度信息,确定地表受灾区域的灾害蔓延边界,并确定每个航点与该灾害蔓延边界之间的位置关系;根据每个航点与该灾害蔓延边界之间的位置关系,确定飞行喷洒航线上每个航点的喷洒参数,使得位于灾害蔓延边界的已蔓延侧的航点的喷洒时间、喷洒浓度和/或喷洒流量等喷洒参数大于位于灾害蔓延边界的待蔓延侧的航点的喷洒时间、喷洒浓度和/或喷洒流量等喷洒参数;根据确定的飞行喷洒航线上每个航点的喷洒参数,设置飞行喷洒航线上每个航点的喷洒参数,以生成对应的飞行喷洒任务。其中,位置关系包括位于灾害蔓延边界的已蔓延侧和待蔓延侧,已蔓延侧的受灾程度大于待蔓延侧的受灾程度。通过航点与灾害蔓延边界之间的位置关系,确定喷洒参数,使得无人机按照喷洒参数对地表受灾区域进行喷洒,以抑制或延缓灾害继续蔓延。
请参阅图10,图10是本申请一实施例中灾害蔓延边界的一示意图,如图10所示,灾害蔓延边界的已蔓延侧为地表受灾区域A所在的一侧,灾害蔓延边界的待蔓延侧为地表区域B所在的一侧,且灾害由地表受灾区域A向地表区域B进行蔓延,地表受灾区域A的作物与地表区域B的作物可以是相同的,也可以是不同的。
进一步地,喷洒参数还包括喷洒箱标签,喷洒箱标签用于标识喷洒箱,无人机包括至少两个喷洒箱,且每个喷洒箱的农药种类和/或农药浓度不同,不同地表受灾程度对应的农药种类和/或农药浓度不同,地表受灾程度越高对应的农药浓度也越高,地表受灾程度越低对应的农药浓度也越低,针对一个地表受灾区域,按照每个航点所在位置区域的地表受灾程度,设置每个航点的农药种类和/或农药浓度对应的喷洒箱标签。通过不同农药种类和/或农药浓度的组合喷洒,可以有效的治理灾害,也可以抑制或者延缓灾害继续蔓延。
进一步地,针对一个地表受灾区域,可以通过至少两台无人机协同完成飞行喷洒任务,每台无人机负责地表受灾区域中的一个喷洒作业区域,至少两台无人机之间的喷洒作业区域是交叠的,交叠的区域为地表受灾程度严重对应的区域,且在交叠的区域内,各无人机位于不同高度或各无人机的喷洒时刻点不同,或者通过传感器实现避障,可以避免无人机在交叠的区域内喷洒时发生相撞,由于至少两台无人机均对交叠的区域(受灾程度严重的区域)进行组合喷洒,可以有效的提高对受灾程度严重的区域的治理效果,也可以快速完成对地表受灾区域的喷洒,抑制或者延缓灾害继续蔓延。
以两台无人机协同完成地表受灾区域的飞行喷洒任务为例进行解释说明,两台无人机中的第一无人机负责地表受灾区域中的一个喷洒作业区域,两台无人机中的第二无人机负责地表受灾区域中的另一个喷洒作业区域,第一无人机负责的喷洒作业区域与第二无人机负责的喷洒区域是交叠的,且交叠的区域为地表受灾程度严重对应的区域,在交叠的区域内,第一无人机和第二无人机位于不同高度,或者第一无人机和第二无人机无人机的喷洒时刻点不同,或者第一无人机和第二无人机通过传感器实现避障,可以避免第一无人机和第二无人机在交叠的区域内喷洒时发生相撞。请参照图11,图11是本申请一实施例中喷洒作业区域交叠的一示意图,如图11所示,地表受灾区域包括喷洒作业区域A和喷洒作业区域B,且喷洒作业区域A与喷洒作业区域B交叠的区域为区域C,第一无人机负责喷洒作业区域A,第二无人机负责喷洒作业区域B,第一无人机和第二无人机均对交叠的区域C进行喷洒作业。
请参照图12,图12是本申请一实施例中喷洒作业区域交叠的另一示意图,如图12所示,根据获得的地表受灾程度信息,确定的地表受灾区域的灾害蔓延方向为地表受灾区域A向地表区域B蔓延,给四台无人机分配飞行喷洒区域,并在各自对应的飞行喷洒区域中规划飞行喷洒航线,无人机1的飞行喷洒区域为a,无人机2的飞行喷洒区域为b,无人机3的飞行喷洒区域为c,无人机4的飞行喷洒区域为d,且飞行喷洒区域a、飞行喷洒区域为b和飞行喷洒区域为c与飞行喷洒区域d存在交叠,无人机1、无人机2和无人机3主要负责已蔓延侧的地表受灾区域A的喷洒,无人机4主要负责待蔓延侧的地表区域B的喷洒,交叠的区域包含地表受灾区域A的一部分和地表区域B的一部分。在感知到地表受灾程度信息后,可以给多台无人机分配飞行喷洒区域,并规划飞行喷洒航线,使得多台无人机协同完成喷洒作业,可以在无人机的续航里程内合理规划喷洒路径,同时对交叠的区域进行组合喷洒,可以抑制或者延缓灾害继续蔓延。作为对比实施例,如果在未使用多无人机协同作业实施交叠喷洒的情况下,单个无人机如果对灾害较为严重或者灾害的蔓延区域实施喷洒,那么需要在固定区域停留较久,以增大该区域位置的喷洒药量,而无人机由于能源的限制,续航里程固定,在该情况下难以对整个要喷洒的区域进行喷洒。
可以理解的是,以上实施例仅为多台无人机协同完成喷洒作业的示例性说明,也可以根据实际需要,灵活对无人机的数量进行设置,例如无人机的数量为2台、3台、4台和5台等,本申请对此不作限定。
S402、执行所述飞行喷洒任务,并控制所述喷洒装置按照所述飞行喷洒任务中的喷洒参数执行对应的喷洒动作。
无人机400在获取到飞行喷洒任务,执行飞行喷洒任务,并控制喷洒装置按照飞行喷洒任务中的喷洒参数执行对应的喷洒动作,即从飞行喷洒任务中获取飞行喷洒航线和每个航点的喷洒参数,并按照该飞行喷洒航线飞行,且在飞行过程中,控制喷洒装置401按照每个航点的喷洒参数执行对应的喷洒动作,以完成飞行喷洒任务。
无人机可以执行根据地表特征的识别结果确定的飞行喷洒任务,可以自动完成对农作物或者果树喷洒农药或者浇水,对农作物或者果树等的倒伏、病虫害或者缺水等情况进行防治。
本申请还提供一种地表特征识别设备。
请参照图13,图13是本申请一实施例提供的地表特征识别设备的示意性框图。如图13所示,该地表特征识别设500包括处理器501和存储器502,处理器501和存储器502通过总线503连接,该总线503比如为I2C(Inter-integrated Circuit)总线。其中,该地表特征识别设备500可以为地面控制平台、服务器或无人机,地面控制平台包括笔记本电脑和PC电脑等,服务器可以为单台的服务器,也可以为由多台服务器组成的服务器集群,无人机包括旋翼型无人机,例如四旋翼无人机、六旋翼无人机、八旋翼无人机,也可以是固定翼无人机,还可以是旋翼型与固定翼无人机的组合,在此不作限定。
具体地,处理器501可以是微控制单元(Micro-controller Unit,MCU)、中央处理单元(Central Processing Unit,CPU)或数字信号处理器(Digital Signal Processor,DSP)等。
具体地,存储器502可以是Flash芯片、只读存储器(ROM,Read-Only Memory)磁盘、光盘、U盘或移动硬盘等。
其中,所述处理器501用于运行存储在存储器502中的计算机程序,并在执行所述计算机程序时实现如下步骤:
获取地表图像信息,其中,所述地表图像信息包括多个颜色通道的图像信息和图像深度信息;
对所述多个颜色通道信息和图像深度信息进行处理,得到包含地表语义信息的特征图;
根据所述特征图中的地表语义信息,确定地表特征的识别结果。
进一步地,所述地表图像信息包括俯视正视图。
进一步地,所述图像深度信息为所述俯视正视图下的高度信息。
进一步地,所述地表图像信息包括地表图像所对应的地理位置信息。
进一步地,所述地理位置信息包括通过全球卫星导航定位系统获得的定位信息;
和/或,通过实时差分定位系统获得的定位信息。
进一步地,所述多个颜色通道的图像信息至少包括R、G、B三通道信息。
进一步地,所述图像深度信息基于双目测距算法和所述多个颜色通道的图像信息确定。
进一步地,所述图像深度信息基于单目测距算法和所述多个颜色通道的图像信息的关联帧确定。
进一步地,所述处理器在实现对所述多个颜色通道信息和图像深度信息进行处理,得到包含地表语义信息的特征图时,用于实现:
对所述多个颜色通道信息和图像深度信息进行融合处理,得到融合图像块;
将所述融合图像块与预设的图像块集中的图像块进行匹配,得到所述融合图像块与每个所述图像块之间的匹配程度;
根据所述融合图像块与每个所述图像块之间的匹配程度,确定包含地表语义信息的特征图。
进一步地,所述处理器在实现对所述多个颜色通道信息和图像深度信息进行处理,得到包含地表语义信息的特征图时,用于实现:
对所述多个颜色通道信息和图像深度信息进行融合处理,得到融合图像块;
通过经过预先训练的神经网络对所述融合图像块进行处理,得到包含地表语义信息的特征图。
进一步地,所述处理器在实现获取地表图像信息时,用于实现:
获取地表图像集,并根据所述地表图像集中的每个地表图像,生成对应的深度图;
对所述地表图像集中的每个地表图像和所述深度图进行处理,得到地表图像信息。
进一步地,所述处理器在实现对所述地表图像集中的每个地表图像和所述深度图进行处理,得到地表图像信息时,用于实现:
对所述地表图像集中的每个地表图像进行拼接,得到拼接地表图像;
对所述深度图和拼接地表图像进行融合,得到地表图像信息。
进一步地,所述处理器在实现对所述地表图像集中的每个地表图像进行拼接,得到拼接地表图像时,用于实现:
确定每个所述地表图像各自对应的拼接参数,其中,所述拼接参数包括拼接顺序和拼接关系;
根据每个所述地表图像各自对应的拼接参数,对每个所述地表图像进行拼接,得到拼接地表图像。
进一步地,所述处理器在实现确定每个所述地表图像各自对应的拼接参数时,用于实现:
获取每个所述地表图像各自对应的航拍时刻点和航拍位置;
根据每个所述地表图像各自对应的航拍时刻点,确定每个所述地表图像各自对应的拼接顺序;
根据每个所述地表图像各自对应的航拍位置,确定每个所述地表图像各自对应的拼接关系。
进一步地,所述处理器在实现根据所述特征图中的地表语义信息,确定地表特征的识别结果之后,还用于实现:
获取地表特征的至少一个历史识别结果,其中,所述历史识别结果为在当前时刻之前确定的地表特征的识别结果;
根据所述地表特征的识别结果和所述地表特征的至少一个历史识别结果,确定地表变化趋势。
进一步地,所述处理器在实现根据所述地表特征的识别结果和所述地表特征的至少一个历史识别结果,确定地表变化趋势时,用于实现:
获取所述地表特征的识别结果的第一确定时刻点以及每个所述历史识别结果的第二确定时刻点;
根据所述第一确定时刻点和每个所述第二确定时刻点,对所述识别结果和每个所述历史识别结果进行排序,得到识别结果队列;
根据所述识别结果队列中相邻的每两个识别结果,确定多个候选地表变化趋势;
对所述多个候选地表变化趋势进行处理,得到地表变化趋势。
进一步地,所述处理器在实现根据所述特征图中的地表语义信息,确定地表特征的识别结果之后,还用于实现:
获取三维地表地图,并从所述识别结果中获取地表受灾区域信息、地表受灾程度信息和地表受灾面积信息;
根据所述地表受灾区域信息、地表受灾程度信息和地表受灾面积信息,对所述三维地表地图进行标记,得到标记有受灾区域、受灾程度和受灾面积的目标三维地图。
进一步地,所述处理器在实现根据所述地表受灾区域信息、地表受灾程度信息和地表受灾面积信息,对所述三维地表地图进行标记时,用于实现:
根据所述地表受灾区域信息,在所述三维地表地图中标记每个受灾区域;
根据所述地表受灾程度信息,标记每个所述受灾区域各自对应的受灾程度;
根据所述地表受灾面积信息,标记每个所述受灾区域各自对应的受灾面积。
进一步地,所述处理器在实现根据所述地表受灾程度信息,标记每个所述受灾区域各自对应的受灾程度时,用于实现:
根据所述地表受灾程度信息,确定每个所述受灾区域各自对应的受灾程度颜色;
根据每个所述受灾区域各自对应的受灾程度颜色,标记每个所述受灾区域各自对应的受灾程度。
进一步地,所述处理器在实现根据所述地表受灾区域信息、地表受灾程度信息和地表受灾面积信息,对所述三维地表地图进行标记,得到标记有受灾区域、受灾程度和受灾面积的目标三维地图之后,用于实现:
存储所述目标三维地图;和/或
将所述目标三维地图发送至终端设备,以供所述终端设备显示所述目标三维地图;和/或
将所述目标三维地图发送至云端,以供所述云端存储所述目标三维地图。
需要说明的是,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的地表特征识别设备的具体工作过程,可以参考前述飞行任务生成方法实施例中的对应过程,在此不再赘述。
本申请的实施例中还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序中包括程序指令,所述处理器执行所述程序指令,实现上述实施例提供的地表特征识别方法的步骤。
其中,所述计算机可读存储介质可以是前述任一实施例所述的地表特征识别设备的内部存储单元,例如所述地表特征识别设备的硬盘或内存。所述计算机可读存储介质也可以是所述地表特征识别设备的外部存储设备,例如所述地表特征识别设备上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。
应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (47)

1.一种地表特征识别方法,其特征在于,包括:
获取地表图像信息,其中,所述地表图像信息包括多个颜色通道的图像信息和图像深度信息;
对所述多个颜色通道信息和图像深度信息进行处理,得到包含地表语义信息的特征图;
根据所述特征图中的地表语义信息,确定地表特征的识别结果。
2.根据权利要求1所述的地表特征识别方法,其特征在于,所述地表图像信息包括俯视正视图。
3.根据权利要求2所述的地表特征识别方法,其特征在于,所述图像深度信息为所述俯视正视图下的高度信息。
4.根据权利要求1所述的地表特征识别方法,其特征在于,所述地表图像信息包括地表图像所对应的地理位置信息。
5.根据权利要求4所述的地表特征识别方法,其特征在于,所述地理位置信息包括通过全球卫星导航定位系统获得的定位信息;
和/或,通过实时差分定位系统获得的定位信息。
6.根据权利要求1所述的地表特征识别方法,其特征在于,所述多个颜色通道的图像信息至少包括R、G、B三通道信息。
7.根据权利要求1所述的地表特征识别方法,其特征在于,所述图像深度信息基于双目测距算法和所述多个颜色通道的图像信息确定。
8.根据权利要求1所述的地表特征识别方法,其特征在于,所述图像深度信息基于单目测距算法和所述多个颜色通道的图像信息的关联帧确定。
9.根据权利要求1所述的地表特征识别方法,其特征在于,所述对所述多个颜色通道信息和图像深度信息进行处理,得到包含地表语义信息的特征图,包括:
对所述多个颜色通道信息和图像深度信息进行融合处理,得到融合图像块;
将所述融合图像块与预设的图像块集中的图像块进行匹配,得到所述融合图像块与每个所述图像块之间的匹配程度;
根据所述融合图像块与每个所述图像块之间的匹配程度,确定包含地表语义信息的特征图。
10.根据权利要求1所述的地表特征识别方法,其特征在于,所述对所述多个颜色通道信息和图像深度信息进行处理,得到包含地表语义信息的特征图,包括:
对所述多个颜色通道信息和图像深度信息进行融合处理,得到融合图像块;
通过经过预先训练的神经网络对所述融合图像块进行处理,得到包含地表语义信息的特征图。
11.根据权利要求1至10中任一项所述的地表特征识别方法,其特征在于,所述获取地表图像信息,包括:
获取地表图像集,并根据所述地表图像集中的每个地表图像,生成对应的深度图;
对所述地表图像集中的每个地表图像和所述深度图进行处理,得到地表图像信息。
12.根据权利要求11所述的地表特征识别方法,其特征在于,所述对所述地表图像集中的每个地表图像和所述深度图进行处理,得到地表图像信息,包括:
对所述地表图像集中的每个地表图像进行拼接,得到拼接地表图像;
对所述深度图和拼接地表图像进行融合,得到地表图像信息。
13.根据权利要求12所述的地表特征识别方法,其特征在于,所述对所述地表图像集中的每个地表图像进行拼接,得到拼接地表图像,包括:
确定每个所述地表图像各自对应的拼接参数,其中,所述拼接参数包括拼接顺序和拼接关系;
根据每个所述地表图像各自对应的拼接参数,对每个所述地表图像进行拼接,得到拼接地表图像。
14.根据权利要求13所述的地表特征识别方法,其特征在于,所述确定每个所述地表图像各自对应的拼接参数,包括:
获取每个所述地表图像各自对应的航拍时刻点和航拍位置;
根据每个所述地表图像各自对应的航拍时刻点,确定每个所述地表图像各自对应的拼接顺序;
根据每个所述地表图像各自对应的航拍位置,确定每个所述地表图像各自对应的拼接关系。
15.根据权利要求1至10中任一项所述的地表特征识别方法,其特征在于,所述根据所述特征图中的地表语义信息,确定地表特征的识别结果之后,还包括:
获取地表特征的至少一个历史识别结果,其中,所述历史识别结果为在当前时刻之前确定的地表特征的识别结果;
根据所述地表特征的识别结果和所述地表特征的至少一个历史识别结果,确定地表变化趋势。
16.根据权利要求15所述的地表特征识别方法,其特征在于,所述根据所述地表特征的识别结果和所述地表特征的至少一个历史识别结果,确定地表变化趋势,包括:
获取所述地表特征的识别结果的第一确定时刻点以及每个所述历史识别结果的第二确定时刻点;
根据所述第一确定时刻点和每个所述第二确定时刻点,对所述识别结果和每个所述历史识别结果进行排序,得到识别结果队列;
根据所述识别结果队列中相邻的每两个识别结果,确定多个候选地表变化趋势;
对所述多个候选地表变化趋势进行处理,得到地表变化趋势。
17.根据权利要求1至10中任一项所述的地表特征识别方法,其特征在于,所述根据所述特征图中的地表语义信息,确定地表特征的识别结果之后,还包括:
获取三维地表地图,并从所述识别结果中获取地表受灾区域信息、地表受灾程度信息和地表受灾面积信息;
根据所述地表受灾区域信息、地表受灾程度信息和地表受灾面积信息,对所述三维地表地图进行标记,得到标记有受灾区域、受灾程度和受灾面积的目标三维地图。
18.根据权利要求17所述的地表特征识别方法,其特征在于,所述根据所述地表受灾区域信息、地表受灾程度信息和地表受灾面积信息,对所述三维地表地图进行标记,包括:
根据所述地表受灾区域信息,在所述三维地表地图中标记每个受灾区域;
根据所述地表受灾程度信息,标记每个所述受灾区域各自对应的受灾程度;
根据所述地表受灾面积信息,标记每个所述受灾区域各自对应的受灾面积。
19.根据权利要求18所述的地表特征识别方法,其特征在于,所述根据所述地表受灾程度信息,标记每个所述受灾区域各自对应的受灾程度,包括:
根据所述地表受灾程度信息,确定每个所述受灾区域各自对应的受灾程度颜色;
根据每个所述受灾区域各自对应的受灾程度颜色,标记每个所述受灾区域各自对应的受灾程度。
20.根据权利要求17所述的地表特征识别方法,其特征在于,所述根据所述地表受灾区域信息、地表受灾程度信息和地表受灾面积信息,对所述三维地表地图进行标记,得到标记有受灾区域、受灾程度和受灾面积的目标三维地图之后,还包括:
存储所述目标三维地图;和/或
将所述目标三维地图发送至终端设备,以供所述终端设备显示所述目标三维地图;和/或
将所述目标三维地图发送至云端,以供所述云端存储所述目标三维地图。
21.一种无人机,其特征在于,所述无人机包括喷洒装置和处理器,所述处理器,用于实现如下步骤:
获取飞行喷洒任务,其中,所述飞行喷洒任务根据地表特征的识别结果确定;
执行所述飞行喷洒任务,并控制所述喷洒装置按照所述飞行喷洒任务中的喷洒参数执行对应的喷洒动作。
22.根据权利要求21所述的无人机,其特征在于,所述处理器实现获取飞行喷洒任务时,用于实现:
获取地表特征的识别结果,其中,所述地表特征的识别结果包括地表受灾区域信息和地表受灾程度信息;
根据所述地表受灾区域信息和所述地表受灾程度信息,生成对应的飞行喷洒任务。
23.根据权利要求22所述的无人机,其特征在于,所述处理器实现根据所述地表受灾区域信息和所述地表受灾程度信息,生成对应的飞行喷洒任务时,用于实现:
根据所述地表受灾区域信息,确定待规划的飞行喷洒航线的航点信息,并根据所述航点信息,生成对应的飞行喷洒航线;
根据所述地表受灾程度信息,设置所述飞行喷洒航线上每个航点的喷洒参数,以生成对应的飞行喷洒任务。
24.根据权利要求23所述的无人机,其特征在于,所述根据所述地表受灾区域信息,确定待规划的飞行喷洒航线的航点信息,包括:
根据所述地表受灾区域信息,确定受灾区域的形状和面积;
根据所述受灾区域的形状,确定待规划的飞行喷洒航线的航线类型;
根据所述受灾区域的面积,确定待规划的飞行喷洒航线的航点数量;
根据所述航线类型、地表受灾区域信息和航点数量,确定待规划的飞行喷洒航线的航点信息。
25.根据权利要求23所述的无人机,其特征在于,所述根据所述航点信息,生成对应的飞行喷洒航线,包括:
从所述航点信息中获取每个航点的航行顺序和航点位置;
按照每个航点的所述航行顺序的先后,依次连接每个所述航点位置,以生成对应的飞行喷洒航线。
26.根据权利要求23所述的无人机,其特征在于,所述根据所述地表受灾程度信息,设置所述飞行喷洒航线上每个航点的喷洒参数,以生成对应的飞行喷洒任务,包括:
获取预存的地表受灾程度与喷洒参数之间的映射关系表;
根据所述地表受灾程度信息和映射关系表,确定所述飞行喷洒航线上每个航点的喷洒参数;
根据确定的所述飞行喷洒航线上每个航点的喷洒参数,设置所述飞行喷洒航线上每个航点的喷洒参数,以生成对应的飞行喷洒任务。
27.一种地表特征识别设备,其特征在于,所述地表特征识别设备包括存储器和处理器;
所述存储器用于存储计算机程序;
所述处理器,用于执行所述计算机程序并在执行所述计算机程序时,实现如下步骤:
获取地表图像信息,其中,所述地表图像信息包括多个颜色通道的图像信息和图像深度信息;
对所述多个颜色通道信息和图像深度信息进行处理,得到包含地表语义信息的特征图;
根据所述特征图中的地表语义信息,确定地表特征的识别结果。
28.根据权利要求27所述的地表特征识别设备,其特征在于,所述地表图像信息包括俯视正视图。
29.根据权利要求28所述的地表特征识别设备,其特征在于,所述图像深度信息为所述俯视正视图下的高度信息。
30.根据权利要求27所述的地表特征识别设备,其特征在于,所述地表图像信息包括地表图像所对应的地理位置信息。
31.根据权利要求30所述的地表特征识别设备,其特征在于,所述地理位置信息包括通过全球卫星导航定位系统获得的定位信息;
和/或,通过实时差分定位系统获得的定位信息。
32.根据权利要求27所述的地表特征识别设备,其特征在于,所述多个颜色通道的图像信息至少包括R、G、B三通道信息。
33.根据权利要求27所述的地表特征识别设备,其特征在于,所述图像深度信息基于双目测距算法和所述多个颜色通道的图像信息确定。
34.根据权利要求27所述的地表特征识别设备,其特征在于,所述图像深度信息基于单目测距算法和所述多个颜色通道的图像信息的关联帧确定。
35.根据权利要求27所述的地表特征识别设备,其特征在于,所述处理器在实现对所述多个颜色通道信息和图像深度信息进行处理,得到包含地表语义信息的特征图时,用于实现:
对所述多个颜色通道信息和图像深度信息进行融合处理,得到融合图像块;
将所述融合图像块与预设的图像块集中的图像块进行匹配,得到所述融合图像块与每个所述图像块之间的匹配程度;
根据所述融合图像块与每个所述图像块之间的匹配程度,确定包含地表语义信息的特征图。
36.根据权利要求27所述的地表特征识别设备,其特征在于,所述处理器在实现对所述多个颜色通道信息和图像深度信息进行处理,得到包含地表语义信息的特征图时,用于实现:
对所述多个颜色通道信息和图像深度信息进行融合处理,得到融合图像块;
通过经过预先训练的神经网络对所述融合图像块进行处理,得到包含地表语义信息的特征图。
37.根据权利要求27至36中任一项所述的地表特征识别设备,其特征在于,所述处理器在实现获取地表图像信息时,用于实现:
获取地表图像集,并根据所述地表图像集中的每个地表图像,生成对应的深度图;
对所述地表图像集中的每个地表图像和所述深度图进行处理,得到地表图像信息。
38.根据权利要求37所述的地表特征识别设备,其特征在于,所述处理器在实现对所述地表图像集中的每个地表图像和所述深度图进行处理,得到地表图像信息时,用于实现:
对所述地表图像集中的每个地表图像进行拼接,得到拼接地表图像;
对所述深度图和拼接地表图像进行融合,得到地表图像信息。
39.根据权利要求38所述的地表特征识别设备,其特征在于,所述处理器在实现对所述地表图像集中的每个地表图像进行拼接,得到拼接地表图像时,用于实现:
确定每个所述地表图像各自对应的拼接参数,其中,所述拼接参数包括拼接顺序和拼接关系;
根据每个所述地表图像各自对应的拼接参数,对每个所述地表图像进行拼接,得到拼接地表图像。
40.根据权利要求39所述的地表特征识别设备,其特征在于,所述处理器在实现确定每个所述地表图像各自对应的拼接参数时,用于实现:
获取每个所述地表图像各自对应的航拍时刻点和航拍位置;
根据每个所述地表图像各自对应的航拍时刻点,确定每个所述地表图像各自对应的拼接顺序;
根据每个所述地表图像各自对应的航拍位置,确定每个所述地表图像各自对应的拼接关系。
41.根据权利要求27至36中任一项所述的地表特征识别设备,其特征在于,所述处理器在实现根据所述特征图中的地表语义信息,确定地表特征的识别结果之后,还用于实现:
获取地表特征的至少一个历史识别结果,其中,所述历史识别结果为在当前时刻之前确定的地表特征的识别结果;
根据所述地表特征的识别结果和所述地表特征的至少一个历史识别结果,确定地表变化趋势。
42.根据权利要求41所述的地表特征识别设备,其特征在于,所述处理器在实现根据所述地表特征的识别结果和所述地表特征的至少一个历史识别结果,确定地表变化趋势时,用于实现:
获取所述地表特征的识别结果的第一确定时刻点以及每个所述历史识别结果的第二确定时刻点;
根据所述第一确定时刻点和每个所述第二确定时刻点,对所述识别结果和每个所述历史识别结果进行排序,得到识别结果队列;
根据所述识别结果队列中相邻的每两个识别结果,确定多个候选地表变化趋势;
对所述多个候选地表变化趋势进行处理,得到地表变化趋势。
43.根据权利要求27至36中任一项所述的地表特征识别设备,其特征在于,所述处理器在实现根据所述特征图中的地表语义信息,确定地表特征的识别结果之后,还用于实现:
获取三维地表地图,并从所述识别结果中获取地表受灾区域信息、地表受灾程度信息和地表受灾面积信息;
根据所述地表受灾区域信息、地表受灾程度信息和地表受灾面积信息,对所述三维地表地图进行标记,得到标记有受灾区域、受灾程度和受灾面积的目标三维地图。
44.根据权利要求43所述的地表特征识别设备,其特征在于,所述处理器在实现根据所述地表受灾区域信息、地表受灾程度信息和地表受灾面积信息,对所述三维地表地图进行标记时,用于实现:
根据所述地表受灾区域信息,在所述三维地表地图中标记每个受灾区域;
根据所述地表受灾程度信息,标记每个所述受灾区域各自对应的受灾程度;
根据所述地表受灾面积信息,标记每个所述受灾区域各自对应的受灾面积。
45.根据权利要求44所述的地表特征识别设备,其特征在于,所述处理器在实现根据所述地表受灾程度信息,标记每个所述受灾区域各自对应的受灾程度时,用于实现:
根据所述地表受灾程度信息,确定每个所述受灾区域各自对应的受灾程度颜色;
根据每个所述受灾区域各自对应的受灾程度颜色,标记每个所述受灾区域各自对应的受灾程度。
46.根据权利要求43所述的地表特征识别设备,其特征在于,所述处理器在实现根据所述地表受灾区域信息、地表受灾程度信息和地表受灾面积信息,对所述三维地表地图进行标记,得到标记有受灾区域、受灾程度和受灾面积的目标三维地图之后,用于实现:
存储所述目标三维地图;和/或
将所述目标三维地图发送至终端设备,以供所述终端设备显示所述目标三维地图;和/或
将所述目标三维地图发送至云端,以供所述云端存储所述目标三维地图。
47.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如权利要求1至20中任一项所述的地表特征识别方法。
CN201980033702.0A 2019-09-17 2019-09-17 地表特征识别方法、设备、无人机及计算机可读存储介质 Pending CN112154447A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2019/106228 WO2021051278A1 (zh) 2019-09-17 2019-09-17 地表特征识别方法、设备、无人机及计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN112154447A true CN112154447A (zh) 2020-12-29

Family

ID=73891556

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980033702.0A Pending CN112154447A (zh) 2019-09-17 2019-09-17 地表特征识别方法、设备、无人机及计算机可读存储介质

Country Status (2)

Country Link
CN (1) CN112154447A (zh)
WO (1) WO2021051278A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210129853A1 (en) * 2019-10-30 2021-05-06 Deere & Company Predictive machine control
CN115903855A (zh) * 2023-01-10 2023-04-04 北京航科星云科技有限公司 一种基于卫星遥感的林场喷药路径规划方法、装置及设备

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113312991A (zh) * 2021-05-14 2021-08-27 华能阜新风力发电有限责任公司 一种基于无人机的前端智能识别系统
CN113296537B (zh) * 2021-05-25 2024-03-12 湖南博瑞通航航空技术有限公司 基于电力杆塔模型匹配的电力无人机巡检方法及系统
CN113537309B (zh) * 2021-06-30 2023-07-28 北京百度网讯科技有限公司 一种对象识别方法、装置及电子设备
CN114067245A (zh) * 2021-11-16 2022-02-18 中国铁路兰州局集团有限公司 一种铁路外部环境隐患识别方法及系统
CN114299699B (zh) * 2021-12-03 2023-10-10 浙江朱道模块集成有限公司 一种基于物联网的园林植物智能语音情景标识系统
CN114675695B (zh) * 2022-03-26 2023-04-18 太仓武港码头有限公司 一种堆场抑尘的控制方法、系统、设备及存储介质
CN116630828B (zh) * 2023-05-30 2023-11-24 中国公路工程咨询集团有限公司 基于地形环境适配的无人机遥感信息采集系统及方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105173085A (zh) * 2015-09-18 2015-12-23 山东农业大学 无人机变量施药自动控制系统及方法
CN105654103A (zh) * 2014-11-12 2016-06-08 联想(北京)有限公司 一种图像识别方法及电子设备
WO2017156205A1 (en) * 2016-03-11 2017-09-14 Siemens Aktiengesellschaft Automated identification of parts of an assembly
CN109977924A (zh) * 2019-04-15 2019-07-05 北京麦飞科技有限公司 针对农作物的无人机机上实时图像处理方法及系统
CN109978947A (zh) * 2019-03-21 2019-07-05 广州极飞科技有限公司 一种监控无人机的方法、装置、设备和存储介质
CN110232418A (zh) * 2019-06-19 2019-09-13 深圳前海达闼云端智能科技有限公司 一种语义识别方法、终端及计算机可读存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106778888A (zh) * 2016-12-27 2017-05-31 浙江大学 一种基于无人机遥感的果园病虫害普查系统和方法
US10699139B2 (en) * 2017-03-30 2020-06-30 Hrl Laboratories, Llc System for real-time object detection and recognition using both image and size features
CN106956778A (zh) * 2017-05-23 2017-07-18 广东容祺智能科技有限公司 一种无人机农药喷洒方法及系统
CN109446959B (zh) * 2018-10-18 2021-10-08 广州极飞科技股份有限公司 目标区域的划分方法及装置、药物的喷洒控制方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105654103A (zh) * 2014-11-12 2016-06-08 联想(北京)有限公司 一种图像识别方法及电子设备
CN105173085A (zh) * 2015-09-18 2015-12-23 山东农业大学 无人机变量施药自动控制系统及方法
WO2017156205A1 (en) * 2016-03-11 2017-09-14 Siemens Aktiengesellschaft Automated identification of parts of an assembly
CN109978947A (zh) * 2019-03-21 2019-07-05 广州极飞科技有限公司 一种监控无人机的方法、装置、设备和存储介质
CN109977924A (zh) * 2019-04-15 2019-07-05 北京麦飞科技有限公司 针对农作物的无人机机上实时图像处理方法及系统
CN110232418A (zh) * 2019-06-19 2019-09-13 深圳前海达闼云端智能科技有限公司 一种语义识别方法、终端及计算机可读存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210129853A1 (en) * 2019-10-30 2021-05-06 Deere & Company Predictive machine control
US11904871B2 (en) * 2019-10-30 2024-02-20 Deere & Company Predictive machine control
CN115903855A (zh) * 2023-01-10 2023-04-04 北京航科星云科技有限公司 一种基于卫星遥感的林场喷药路径规划方法、装置及设备

Also Published As

Publication number Publication date
WO2021051278A1 (zh) 2021-03-25

Similar Documents

Publication Publication Date Title
CN112154447A (zh) 地表特征识别方法、设备、无人机及计算机可读存储介质
US20210150184A1 (en) Target region operation planning method and apparatus, storage medium, and processor
CN106873631B (zh) 无人机控制方法、植保作业方法、无人机及地面站
CN104615146B (zh) 一种无需外部导航信号的无人机喷药作业自动导航方法
CN110297483B (zh) 待作业区域边界获取方法、装置,作业航线规划方法
CN109341702B (zh) 作业区域内的路线规划方法、装置、设备及存储介质
NL2012485B1 (en) Method and system for navigating an agricultural vehicle on a land area.
JP2022523836A (ja) 農薬散布の制御方法、デバイス及び記憶媒体
KR102181283B1 (ko) 나무 계측 시스템
CN108205326B (zh) 无人机作业的方法及装置
KR20230107811A (ko) 농업 객체의 지도 기반 타겟팅을 이용한 자율 농업 처리 시스템
CN113494913A (zh) 无人机电力巡检规划方法、装置、计算机设备和存储介质
CN105159319A (zh) 一种无人机的喷药方法及无人机
CN110254722B (zh) 一种飞行器系统及其方法、计算机可读存储介质
JP2023041675A (ja) ドローン作業支援システム及びドローン作業支援方法
CN112817331A (zh) 一种基于多机协同的林业信息智能监测系统
CA3140577A1 (en) A method for preparing for harvesting of forest using an unmanned vehicle and un-manned vehicle and system using said method
Hartley et al. Using roads for autonomous air vehicle guidance
CN117516513A (zh) 智能割草机路径规划方法、装置、设备及存储介质
CN112219177A (zh) 喷洒无人机的作业规划方法、系统和设备
CN116171962B (zh) 一种植保无人机的高效对靶喷雾调控方法及系统
Linchant et al. WIMUAS: Developing a tool to review wildlife data from various UAS flight plans
CN112416016B (zh) 基于访问区域的作业控制方法和装置
Hrabar et al. Towards autonomous navigation of a mobile robot in a steep slope vineyard
Basso A framework for autonomous mission and guidance control of unmanned aerial vehicles based on computer vision techniques

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20201229