CN108369635A - 用于航空图像获取与分析的方法 - Google Patents
用于航空图像获取与分析的方法 Download PDFInfo
- Publication number
- CN108369635A CN108369635A CN201680071121.2A CN201680071121A CN108369635A CN 108369635 A CN108369635 A CN 108369635A CN 201680071121 A CN201680071121 A CN 201680071121A CN 108369635 A CN108369635 A CN 108369635A
- Authority
- CN
- China
- Prior art keywords
- image
- spot
- segmentation
- subgraph
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 105
- 238000004458 analytical method Methods 0.000 title claims abstract description 50
- 230000011218 segmentation Effects 0.000 claims abstract description 37
- 241000607479 Yersinia pestis Species 0.000 claims description 76
- 238000001514 detection method Methods 0.000 claims description 23
- 238000004422 calculation algorithm Methods 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 17
- 229910002056 binary alloy Inorganic materials 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 14
- 241000196324 Embryophyta Species 0.000 claims description 10
- 239000003086 colorant Substances 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 9
- 230000005484 gravity Effects 0.000 claims description 9
- 238000011282 treatment Methods 0.000 claims description 8
- 241001525654 Phyllocnistis citrella Species 0.000 claims description 5
- 238000002372 labelling Methods 0.000 claims description 5
- 238000001228 spectrum Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 claims description 4
- 230000002708 enhancing effect Effects 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 4
- 230000003213 activating effect Effects 0.000 claims description 3
- 230000007797 corrosion Effects 0.000 claims description 3
- 238000005260 corrosion Methods 0.000 claims description 3
- 238000003708 edge detection Methods 0.000 claims description 3
- 230000001133 acceleration Effects 0.000 claims description 2
- 230000004913 activation Effects 0.000 claims description 2
- 238000004891 communication Methods 0.000 claims description 2
- 230000003628 erosive effect Effects 0.000 claims description 2
- 238000007689 inspection Methods 0.000 claims description 2
- 230000007704 transition Effects 0.000 claims description 2
- 239000002956 ash Substances 0.000 claims 2
- 235000002918 Fraxinus excelsior Nutrition 0.000 claims 1
- 238000003709 image segmentation Methods 0.000 claims 1
- 239000000203 mixture Substances 0.000 claims 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 26
- 201000010099 disease Diseases 0.000 description 10
- 241001124076 Aphididae Species 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000000926 separation method Methods 0.000 description 5
- TVZRAEYQIKYCPH-UHFFFAOYSA-N 3-(trimethylsilyl)propane-1-sulfonic acid Chemical compound C[Si](C)(C)CCCS(O)(=O)=O TVZRAEYQIKYCPH-UHFFFAOYSA-N 0.000 description 4
- 229920000742 Cotton Polymers 0.000 description 4
- 241000257162 Lucilia <blowfly> Species 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000036541 health Effects 0.000 description 3
- 208000015181 infectious disease Diseases 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 241000254032 Acrididae Species 0.000 description 2
- 241001517923 Douglasiidae Species 0.000 description 2
- 241000238631 Hexapoda Species 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000002329 infrared spectrum Methods 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000009897 systematic effect Effects 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 241000207199 Citrus Species 0.000 description 1
- 241001633663 Iris pseudacorus Species 0.000 description 1
- 241001125046 Sardina pilchardus Species 0.000 description 1
- 241000242583 Scyphozoa Species 0.000 description 1
- 238000012152 algorithmic method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 229930002875 chlorophyll Natural products 0.000 description 1
- 235000019804 chlorophyll Nutrition 0.000 description 1
- ATNHDLDRLWWWCB-AENOIHSZSA-M chlorophyll a Chemical compound C1([C@@H](C(=O)OC)C(=O)C2=C3C)=C2N2C3=CC(C(CC)=C3C)=[N+]4C3=CC3=C(C=C)C(C)=C5N3[Mg-2]42[N+]2=C1[C@@H](CCC(=O)OC\C=C(/C)CCC[C@H](C)CCC[C@H](C)CCCC(C)C)[C@H](C)C2=C5 ATNHDLDRLWWWCB-AENOIHSZSA-M 0.000 description 1
- 235000020971 citrus fruits Nutrition 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000011496 digital image analysis Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 235000019688 fish Nutrition 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000002427 irreversible effect Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 244000144972 livestock Species 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 244000052769 pathogen Species 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 235000019512 sardine Nutrition 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 239000007921 spray Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
- 238000004804 winding Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/18—Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals
- H04W4/185—Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals by embedding added-value information into content, e.g. geo-tagging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/28—Investigating the spectrum
- G01J3/2823—Imaging spectrometer
- G01J2003/2826—Multispectral imaging, e.g. filter imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10036—Multispectral image; Hyperspectral image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30188—Vegetation; Agriculture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/194—Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Remote Sensing (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Image Analysis (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Image Processing (AREA)
- Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
- Investigating Or Analysing Biological Materials (AREA)
- Catching Or Destruction (AREA)
Abstract
一种用于多光谱图像获取与分析的方法和系统,该方法包括:以预先选定的分辨率根据预先定义的勘测参数来捕获初步多光谱航空图像;使用对所捕获的图像进行的大规模斑点分割来在现场或场地中的位置实时或接近实时地自动执行初步分析;检测预先定义的勘测参数内的不规则区并提供与其对应的输出;以及根据初步分析输出来判定是否以高于预先选定的分辨率的分辨率来执行图像获取和分析的第二阶段。本发明还包括一种用于分析和对象识别的方法,该方法包括:根据预先定义的对象参数来分析高分辨率多光谱图像;当找到在预先定义的对象参数内的参数时,对包含这些参数的图像执行斑点分割以识别斑点;以及将限制在那些斑点中的对象与预先定义的参考参数进行比较,以识别具有预先定义的对象参数的对象。
Description
相关申请
本申请要求于2015年11月8日提交的美国临时专利申请No.62/252,513的权益。
技术领域
一般而言,本发明涉及图像获取和分析,并且具体地涉及航空图像获取和分析。
背景技术
过去几十年来,航空遥感一直在迅速发展。
遥感正在用于各种目的,其中包括农业和其它环境监测目的。随着诸如无人机、气垫船和其它许多类型的无人飞行器(UAV)的轻型飞行器的迅速发展,除了超轻型和轻型载人飞行器的实惠成本之外,正在开发包括图像获取在内的遥感技术,并且甚至可供小规模组织和农民使用。
可以对飞行器进行远程控制和管理。当飞越城市或田野时,可以捕获图像以用于遥感目的。无人飞行器的飞行任务,就像配备自动驾驶仪的载人飞行任务一样,可根据任务目的对特定路线进行预先规划,并且在需要时进行实时更改。
NDVI(归一化植被指数)软件和工具是农业遥感测量的主要工具,与许多用于其它目的遥感工具一样,可协助组织和农民监测环境和田地/农作物状况。NDVI植被指数(归一化植被指数)测量可用于分析遥感测量结果,通常但不一定来自空间平台或飞行器,并且评估被观测的目标是否包含活的绿色植被。NDVI和其它多光谱和高光谱分析工具当被正确使用并且基于正确的图像获取设备时可以指示例如海中存在水母群和沙丁鱼群,浅层地面的军事水雷,地面上存在金属对象,植被的压力和活力,干/湿区域,林业健康和疾病,存在害虫和牲畜等等。NDVI分析和类似工具的输出结果可以呈现为简单的图形指示器(例如,位图图像)。
然而,NDVI和所有其它工具的分析通常是离线进行的(在无人机/飞机/卫星获取之后),并且所得图像或一组图像(正射影像)以不同颜色呈现图像的不同区域,在明显延迟后呈现给农民/用户。另外,对于普通人/农民来说,这些工具的输出图像没有多大价值,因为他通常不是专家,并且无法执行必要的分析以充分理解位图中呈现的内容。此外,在大多数情况下,基于分析结果,用户将被送到现场仔细观察,以便找出所指出的不规则区的确切性质。有些服务可以分析图像并且向农民发送报告,但通常这些报告是由人类专家准备的,他们以类似于医生检查X光照片的方式检查图像,并且在获取图像之后的一天或几天发送这样的分析,并且如上所述,在许多情况下需要额外和更详细的探究。
对遥感的典型的农业使用可以作为这样的需求的良好示例。如果农民希望进行勘测以及时发现其作物中存在白蝇或蚜虫,并且白蝇和蚜虫的尺寸仅为1mm-2mm,则很明显,人们无法在每英寸的作物上筛查寻找它们。然而,可能会有变化,这在较低分辨率的图像(视觉、超光谱或多光谱图像)中是明显的,这表明某一田地的某个区域可能感染一些未识别的害虫或疾病。不幸的是,最佳的卫星图像(如GeoEye-1)是每40cm1个像素,这远远不足以及早发现这些害虫。例如,空中无人机成像拍摄,距离地面三米的25毫米镜头可以覆盖1.6米×2.4米(3.84平方米)的矩形区域。使用1000万像素相机,这意味着每平方厘米26个像素。这样的详细图像可以允许识别白蝇,但在这样的分辨率下获取数百英亩的图像将需要过多的资源,并且将使该过程变为不切实际的过程。
因此,需要一种用于自动分析和决策支持系统的智能方法,该方法不仅能够实现更好的遥感,还能为最终用户(组织/农民)提供即时或短期的分析结果和建议,因为在很多情况下,延迟的建议可能毫无用处,且过晚的分析的损害可能是不可逆转的。
存在已知的图像处理计算机程序以用于分析所获得的具有未知形状的对象的图像并将它们与数据库中的形状进行比较以识别对象。基于深度神经网络方法的图像分类方法是用于此目的最常用的方法之一。
在计算机图像分析中,已知斑点检测方法用于检测数字图像中与周围区域相比在特性(例如亮度或颜色)上不同的区域。非正式地,斑点是图像中某些特性恒定或大致恒定的区域;在一个斑点中的所有点在某种程度上可以被认为是相互相似的。在斑点分割方法中,每个数字图像都由灰度级亮度组成,也就是256级亮度。图像中的每个像素都与其中一个级别关联。斑点分割方法将具有相同亮度的相邻像素组合在一起,并将它们在显示器上表现为离散对象或斑点。也就是说,每个斑点的尺寸由所包含的像素的数目来限定。
发明内容
根据本发明提供了一种用于自动分析的方法和一种决策支持系统,其允许优选以实时或接近实时的方式获取和分析多光谱图像数据。具体而言,该方法包括:初始图像获取和大规模斑点分割,每个斑点达数百至数千个像素,用于初始分析,以判定是否继续第二次图像获取以及小规模斑点分割,根据选定的标准以每个斑点数十个像素分组,以勘测初始图像中的不规则区。
根据本发明,提供了一种用于多光谱图像获取和分析的方法,所述方法包括:以预先选定的分辨率根据预先定义的勘测参数来捕获初步多光谱航空图像;使用对所捕获的图像进行大规模斑点分割以实时或接近实时的方式在现场或场地中的位置自动地执行初步分析;检测预先定义的勘测参数内的不规则区并提供与其对应的输出;以及根据初步分析输出判定是否以高于预先选定的分辨率的分辨率执行图像获取和分析的第二阶段。
根据本发明的实施例,该方法还包括:将GPS数据与检测到的不规则区相关联;引导图像获取装置,以使用相关联的GPS数据以比预先选定的分辨率更高的分辨率来实时或接近实时地捕获所检测到的不规则区中的至少一者的附加图像;以及使用捕获的图像的小尺寸斑点分割来实时或接近实时地执行分析。
根据本发明,还提供了一种用于多光谱图像获取和分析的系统,该系统包括至少一个多光谱图像获取装置;耦合到该图像获取装置的处理器,该处理器运行图像处理模块,该图像处理模块包括斑点分割模块,用以根据预先定义的勘测参数通过斑点分割来自动分析捕获的图像,并且提供对应于落在所述预先定义的勘测参数内的每个图像上的不规则区的输出,其中斑点分割模块能够实现大规模斑点分割和小规模斑点分割;以及地理位置指示器,所述地理位置指示器适于并被配置成提供所述不规则区的地理位置的指示,所述处理器被配置成自动判定是否将所述多光谱图像捕获装置中的一个引导到指示的地理位置以响应于所述输出来捕获不规则区的图像。
根据本发明,还提供了一种用于分析和对象识别的方法,该方法包括:根据预先定义的对象参数来分析高分辨率多光谱图像;当发现在预先定义的对象参数内的参数时,对包含这样的参数的图像进行斑点分割以识别斑点;以及将受限于那些斑点的对象与预先定义的参考参数进行比较,以识别具有预先定义的对象参数的对象。
附图说明
从下面结合附图的详细描述中将进一步理解和领悟本发明,其中:
图1a示出了根据本发明的一个实施例的使用合适的滤波器在种植场上方飞行的无人机拍摄的一对图像以获得该种植场的可见和近红外(NIR)图像;
图1b示出了图1a中的与叠加在可见光图像上的选定的NDVI值相关联的像素;
图1c示出了从这组像素推导的来自图1b的最大34个斑点的集合;
图2a示出了给定种植场的一对可见图像和近红外光谱(NIR)图像;
图2b示出了与从图2a的图像推导的选定的NDVI值相关联的像素;
图2c示出了与图2b中具有最高密度值的多边形相关联的点的集合;
图3a和图3b示出了根据本发明的一个实施例的声明检测的方法;
图4a和图4b示出了从颜色被限制在“接近”白色的距离的小斑点提取得到的检测到的SMS害虫的集合;
图5a和图5b示出了高度相关性,标记存在SMS害虫;
图6a、图6b和图6c示出了当相关性测量结果超过预先设计的阈值时标记检测到害虫;
图7a、图7b和图7c分别示出了原始CMS害虫,由原始害虫的最大三个斑点的像素的投影产生的二进制图像以及处理之后的害虫的最终边界;
图8a和图8b示出了基于斑点分割CMS的检测方法;
图9a示出了一个典型的柑桔潜叶蛾库(mine);
图9b和图9c示出了图9a的图像的边界和计算的拐角点;
图10示出了使用颜色处理来加强植物中与枯萎病相关的颜色;以及
图11是根据本发明的实施例而构造和操作的系统的框图图示。
具体实施方式
本发明提供了用于图像获取和分析的创新方法和决策支持系统,其将提供更好的遥感,并向最终用户(组织/农民)提供增强的图像获取、分析结果和建议。特别地,该方法允许对多光谱图像进行一阶段或两阶段的获取和分析,其中至少第一阶段分析在大区域上以低分辨率实时或接近实时地执行。根据该分析的结果,判定是否在较小的区域上以高分辨率进行第二阶段的多光谱图像获取和分析。可以针对位置(on location)进行分析,即,在获取每个图像或帧且稍后添加地理标志时,或者可以对更大区域的地理标记的正射影像进行分析。为了本发明的目的,对于每个获取的图像,特别是针对位置(在现场)分析的近实时分析意味着在获取会话之后不超过几秒(5秒或更短),并且对于覆盖几十公顷或更多的场地接近实时的地理标记的正射影像的创建和分析意味着在获取之后几分钟(15分钟或更短)。在捕获多光谱图像的航空器上提供处理器可以允许实时分析各个捕获的帧并且识别感兴趣的区域。根据本发明,如果所捕获的图像通过无线网络传输到地面上的处理平台(例如,计算机),则执行这样的接近实时或实时分析也是可能的。
根据本发明,为了识别不规则区或感兴趣的区域,使用大规模的斑点分割来执行对低分辨率图像的分析。分析的第二阶段在分析高分辨率图像获取结果(例如,用于害虫检测和识别)时,利用小规划的斑点分割。具体而言,本发明利用多光谱数据的获取和分析,而不仅仅是可见光范围内的图像。根据本发明的一些实施例,关于是否执行获取和分析的第二阶段的判定是自动进行的。这样的自动决策支持系统将分析所获取的图像,协助管理获取过程,并且允许基于初步捕获的图像的初始分析来获取选定地理区域的更详细图像,从而能够以在更大区域上不太可能获得的分辨率来检查勘测区域中的感兴趣点。在其它任务中,增强的图像获取涉及准确描绘具有特定要求特性的区域,由请求勘测的人员事先定义,诸如NDVI值或其它测量值的特定期望范围。
本发明提供了一种有效的解决方案,以便通过提供用于附加有效的视觉和超光谱或多光谱自动航空图像获取和分析的方法,自动地描绘与期望的NDVI或基于其它植被指数的值或任何其它选定参数相关的区域。这是通过在称为“低分辨率获取”的分辨率下获取图像来实现的,在分析过程中足以允许准确检测其相关值被限制在所需NDVI或其它参数范围内的斑点。这通常是通过自动搜索指示植被处于某种应激状态下的斑点(例如,表现为平均值比最佳NDVI值低15%至20%的NDVI值)来实现的。所述应激可能表明植被状况和健康方面的各种问题,如干燥度、活力、害虫和疾病。
应该理解的是,图像获取装置可以被布置为横跨光谱的宽带来获取多光谱图像。可替换地或另外地,图像获取装置可以被布置为获取根据在勘测中寻求的对象选择的多个预选波段或颜色通道中的图像。在任一种情况下,将利用根据勘测中寻求的对象选择的所获取颜色通道来执行多光谱图像的分析。
优选地,低分辨率获取装置使用低失真相机,优选地使用NADIR万向架。这可以确保垂直视图,从而使由于相机角度造成的失真最小。或者,可以使用其它合适的低分辨率获取装置。优选地,图像获取装置配备有自动数字校准设备,因此能够处理单独捕获的图像,而不需要对颜色通道进行复杂对齐,并且避免了对诸如对图像进行变形和失真校正的预处理的需要。合适的图像捕获设备的示例在2015年11月26日提交的申请人的未决美国专利申请USSN 62/260,272中进行了描述。
本发明允许通过其独特的图像获取和文件类型对所获取的图像进行快速甚至实时分析。多光谱图像获取最好使用文件类型(如JPEG、RAW、TIFF或任何其它图像文件格式)进行,而多光谱通道(蓝色、绿色、红色、红边、近红外,其全部或其中一些)并排保存为多通道图像。这可以通过使用多个透镜(如在上面引用的图像捕获专利申请中描述的)使用分成单独区域的单个传感器来最高效地执行,但是本发明不限于这些示例。使用这种相机(具有多个镜头和一个传感器),可以分别保存不同的RGB(红绿蓝)和NIR(近红外)通道。因此,例如,可以在传感器的左侧捕获红色通道,而可以在传感器的右侧捕获近红外通道。此外,可以在传感器的不同区域捕获不同范围的绿色和蓝色,然后将所有通道保存在单个文件中。这种捕获过程允许使用两个带有单个传感器的镜头简单分区多达6个不同通道。任何一侧可能包含最多三个红色、绿色和蓝色阴影通道。这种文件结构允许简单和快速的通道分离。由于不同的红色类型(650nm或710nm)与850nm通道并排保存,同样的方式可以有不同的窄的蓝色和绿色通道,因此将通道分成RGB并将图像分成两个(在使用两个透镜的情况下),将产生所有不同的通道。这种文件格式可以是任何标准的RGB格式文件,如JPG、BMP、PNG、TIFF等,而这些文件仅限于3个波段、或3个波段和一个伽马通道。由于目前使用的重要植被指数采用多于两个的波段来精确地检测感兴趣的斑点(诸如VI--采用红色蓝色和NIR波段的“大气阻力植被指数”),所以这种并排分离对于正确识别感兴趣的斑点是非常重要的。
本发明利用斑点检测方法来检测数字图像中与周围区域相比在特性(例如亮度或颜色)上不同的区域。这样的区域或不规则区表明可能需要进一步勘测的问题。检测与勘测区域中预先定义的参数相关的斑点指导图像获取任务的第二步,即,高分辨率步骤。这种指导可以通过将GPS数据与这些斑点相关联并且引导UAV/无人机/气垫船/超轻型飞机等上的图像捕获装置来完成,以无论是接近实时、实时或后处理来获取感兴趣点(不规则区)的额外高度详细的(更高分辨率)图像。这种详细的图像获取可以通过相同的飞行器和捕获装置、或通过使用另一个捕获装置的相同的交通工具、或通过具有更高分辨率捕获装置的另一个飞行器、或通过具有捕获装置的地面交通工具来完成。
一旦获得高度详细的图像(VIS、高光谱或多光谱图像),就可以分析获取的图像,并帮助农民决定立即或在短期内或在长期内他需要采取何种步骤。同时也使用斑点分割,通常是小规模斑点分割来进行该第二阶段的分析。
换句话说,本发明应用首先自动分析低分辨率图像和然后自动分析高分辨率图像,以产生利用遥感装置的全自动决策支持系统。低分辨率图像可能是高空和/或低分辨率相机和/或短焦距航空图像获取的结果。由于分辨率越低,处理的数据就越少,因此低分辨率扫描更快、效率更高。可以通过低空获取和/或高分辨率相机和/或长焦距(变焦)或甚至从地面获取图像来获取高分辨率详细图像。根据本发明,对于图像获取过程的每个步骤使用不同的方法,以有效地利用图像获取装置,并且在可能的情况下实时或接近实时地执行环境/场的快速和实际的扫描,同时“聚焦”高分辨率图像中的感兴趣斑点,并根据所需勘测尽可能准确地识别其性质。例如,为了农业目的,本发明使用自动系统学来识别害虫、疾病和植被活力以及作物的其它方面。
需要重点阐明的是,根据特定勘测的目的来事先定义感兴趣的斑点。例如,如果要发现地雷,则在适当分析之后(使用NDVI或任何其它基于植被指数的指标或预选参数)表示它们的图形表示的像素将被定义为感兴趣的像素。例如,如果要发现棉花冠层,则表示白色棉铃的像素将被定义为感兴趣的像素和斑点。
根据本发明的一个可能实施例的第一步包括空中获取相当低分辨率的多光谱图像。这样的低分辨率可以是每100平方厘米(10厘米×10厘米)1个像素或每平方米1个像素,或任何其它与卫星捕获的分辨率类似的分辨率,这一点多年来已被证明足以用于遥感所需的勘测。换句话说,例如,如果农业勘测集中在棉花冠层上,已经知道(如在各种美国DOA出版物中记录的)可以使用50mm焦距相机从几百米的高度完成图像获取。在这种情况下,已知四个光谱带(红色、绿色、蓝色和近红外)的多光谱相机可以获取所需的用于NDVI呈现的图像。
根据本发明,该农业遥感示例的第二步包括根据NDVI(和/或基于其的工具之一)的分析。分析的结果值可以呈现为图像,该图像用一种颜色呈现了被棉花覆盖的区域并且以另一种颜色呈现了未被棉花覆盖的区域。同样的原则适用于大多数农业勘测,其中干燥或不健康的植被或杂草将被“涂成”一种颜色,并且健康的植被将“涂成”另一种颜色。这些彩色像素仅以用户友好的方式表示分析结果,并且自动分析使用了附属于这些像素的值。
根据本发明,第三步包括在图像分析期间将与预先定义的参数(例如,NDVI值(或任何其它农业植被指数指标))相关联的像素自动收集成斑点。创建这样的斑点需要取决于所需勘测的统一的量化操作。在一些勘测中(如白蝇检测),极少数像素不能被忽略,甚至小斑点也很重要,而在其它勘测中(如金枪鱼群检测),只有大斑点很重要。由于NDVI实际上是合成图像,也就是说,每个像素都有从RED通道和NIR通道获取的计算值,所以在创建任何此类斑点之前,NDVI图可能会经历高级去噪操作,从而允许创建最佳地保留了所获取的图像的重要特征的连续斑点。
系统处理器使用该初步分析来判定是否需要第二阶段的图像获取和分析,例如,是否观察到不规则区以及其范围或尺寸是否超过了预先选定的阈值。如果没有,则勘测结束,并且将这些信息发送给请求勘测的人。另一方面,如果判定第二阶段是有保证的,则处理器要么自动地执行如下所述的内容,要么通知请求勘测的人并且等待手动指令。或者,可以手动(人类视觉)完成斑点分割后的图像分析,以判定是否进行第二步获取。
在自动获取和分析的情况下,第四步包括将GPS数据附加到斑点上,指出勘测所针对的不规则区(害虫大批出没的田地、漏水等)。可以通过各种方式将GPS数据附加到图像上。一些相机具有与其集成的嵌入式GPS传感器。在其它情况下,相机可以通过操作性智能手机进行无线操作(例如Sony的QX1类透镜相机和Olympus(奥林巴斯)Air A01相机,其可以从操作智能手机或附接到相机的自动驾驶仪/处理平台添加GPS数据)。根据本发明,由于更好的准确性,优选的解决方案是从飞行器的GPS传感器添加GPS数据,该GPS传感器通常位于交通工具的顶部并连接到自动驾驶仪,或直接连接到相机(如果相机支持)。因为飞行器会快速移动,所以使图像的拍摄时间和GPS数据同步是重要的。应该理解的是,每个帧都可以具有与之相关联的GPS数据,或者更大面积的正射影像可以被地理标记。
另一种方式,也是最准确的方式是,通过创建所获取图像的正射影像并将其与准确的地图进行拟合。这种匹配虽然速度慢并且需要相当繁重的计算,但克服了由于在获取图像的同时镜头失真、卫星信号缺乏以及交通工具的角度而导致的偏离和偏差。
根据本发明,第五步包括自动准备由感兴趣的斑点代表的区域的高度详细的图像获取。将优选为多光谱或超光谱相机的图像获取装置(例如,机载或地面相机)发送到这些斑点的地理位置以捕获这些位置的详细图像。获取高度详细图像的一些可能的方法是使用在作物上方几英尺/米处飞行的低空的气垫船或直升机或者派遣从最近的可能距离获取图像的地面机器人和/或人。另一种方法是使用具有较长的变焦焦距的相机。但是,如果需要高光谱或多光谱高度详细的图像,则此方法相当昂贵并且效率低下。GPS数据的准确性非常重要,因为如此近距离观察感兴趣的斑点可能意味着,例如,如上所述,以1000万像素获取0.8m×1.2m矩形的图像。
应该注意的是,在一些勘测中(如金枪鱼群检测),单个图像中斑点的GPS数据可能不够,并且需要基于多个连续图像预测轨迹,并附加分析斑点的GPS数据变化。通过处理和获取时间计算的这种分析将允许系统遵循所需的非静态的感兴趣的斑点,并获取这些斑点在其预测位置的详细图像。
根据本发明,第六步包括自动系统分类和识别结果。出于本发明的目的,系统学或系统生物学尤其包括描述和提供有机体的分类,它们识别的关键以及它们分布的数据。这一步是一个相当复杂的步骤,并且它本身包含一些子步骤。将会理解,下面描述的对象的自动系统分类和识别可以用于分析以任何方式捕获的高分辨率图像,而不仅仅是借助于上述自动图像获取方法和系统。
首先,根据勘测类型分析获取的图像。例如,如果所获得的图像仅具有可见光谱,则识别绿叶上的绿蝇比识别白蝇更困难。但是,在绿叶上添加绿蝇的NIR图像消除蚜虫的绿色伪装,因为绿蝇不以与叶绿素相同的方式反映近红外光谱。
其次,一旦发现可疑对象(蚜虫、绿蝇、蠕虫、蚱蜢等)的存在,通常通过绘制以每个图像片段的几何中心为中心的矩形正方形来提取包含这些对象的片段,正方形是几个像素长。优选地,每个片段包含具有最小背景“噪声”的单个对象,以允许更好的分类和识别。根据勘测类型,可疑对象优选首先利用包含参考害虫数据库的远程服务器进行分类。例如,对农业勘测中害虫/疾病进行分类的一种优选方式将包括地点、作物类型以及对与特定类型作物有关的潜在害虫/疾病库的参考。但是,也可以在获取平台中执行自动系统分类。在这种情况下,获取平台将配备一个内部程序,该内部程序能够通过将其与平台处理内存中驻留的参考害虫图像的小数据集进行比较来识别害虫。第七步包括识别怀疑的(和分类的,如果它们在前一步中被分类)对象。
在这个步骤中识别对象的基本潜在思想与如下主张相关联:将获取的图像适当分区成有限尺寸的子图像很有可能保证如果可疑对象存在于详细获取的图像中,则很可能在限制尺寸的子图像中发现它们。
根据勘测类型设置有限尺寸的子图像的尺寸,将图像尺寸与应该表示勘测所关注的对象的斑点的尺寸相匹配。一旦准备了一组这样的包含斑点的有限尺寸的子图像,就识别该组子图像内的对象的过程可以通过将这些子图像的集合发送到远程服务器以进行识别或者通过激活本地识别码来识别当场的对象来完成。
本发明详述了各种图像分割方法和相应的检测方法。通常,搜索两种类型的对象,即具有简单结构的对象和具有复杂结构的对象。针对每种类型定制了一些特定的基于图像分割的方法。
根据本发明,第八步包括将分析结果发送给收件人(订购勘测的人或服务提供者)。结果包括对勘测结果的可能的识别,并且它们还可能包括有关为了例如消灭害虫或扑灭火灾或在旧地雷周围放置栅栏和警告标志而需要采取的步骤的建议(取决于勘测)。例如,当处理平台是配备有蜂窝连接(例如,3G或LTE)的智能手机时,可以将结果与来自云(互联网)的图像的小片段一起发送,或甚至从飞行器发送。在本发明的一些可能的实施例中,通过多媒体消息收发服务(MMS)或通过诸如Messenger、WhatsApp、Skype等的即时消息服务(IM)来发送图像的片段、位置和给用户的建议。
示范性农业勘测中某些步骤的详细描述
识别与特定NDVI(和类似指标)值相关的区域
一个优选的过程将包括下列步骤:
1.从有效范围(优选为几十米到几百米甚至更高的高度)捕获视觉和/或高光谱或多光谱图像;
2.根据期望的勘测(例如,干燥度;植被活力;害虫;疾病等)来分析图像;
3.定义需要通过大规模斑点分割进行更详细检查的图像中的感兴趣区域。
4.将精确的GPS数据附加到感兴趣的区域。
5.自动将具有图像捕获装置的相同飞行器或其它交通工具引导至这些感兴趣的区域,指导其根据测量类型获取详细(更高分辨率)的图像。通常,指导平台执行高分辨率获取的标准将是存在与最佳NDVI值(即,“植被应力”
的指示)相比低10%或20%的NDVI值相关联的斑点。
这里的总体目标是根据相对较低分辨率的图像自动检测来自飞行器的与特定NDVI(或其它工具)值相关联的感兴趣区域。这些感兴趣的区域通常可以指示植被压力/活力、湿润地区、水覆盖区域、成熟作物、植被活力等。由于NDVI(或其它基于植被指数)的地图实际上是合成图像,因此有非常大的噪音量。因此,可以执行预处理去噪操作。在本发明中,优选采用先进的去噪算法,其保留了NDVI图像的关键特征。(例如,参见“Total VariationFilter(全变差滤波器)”-,Chambolle 2004)。或者,可以使用任何其它合适的去噪算法。
自动检测这样的区域可以通过“聚集”成指示偏离所需勘测的正常值(例如,NDVI或EVI或任何类似指示)的斑点像素来执行,优选基于可配置数量的像素和密度。
使用NDVI指标的过程的一个可能的实施例如下:
用于计算的输入是由多光谱机载相机获取的范围从-1到1的NDVI值的矩阵。NI波段和VIS RED波段用于使用公式NDVI=(NIR-VIS_RED)/(NIR+VIS RED)生成NDVI值。这种NIR和VIS红色波段可以是20nm到70nm的窄波段,这些波段的中心是650nm和850nm。
在本发明的一个这样的可能实施例中,在NDVI图上已经应用了先进的去噪声操作之后,搜索具有所需的NDVI值范围的斑点。通过以下三个步骤程序“聚集”与所需NDVI值相关联的像素以定义斑点:
步骤1.假设感兴趣区域与已知范围的NDVI值或其它预先定义的参数值相关联,则该算法构造NDVI图像的二进制图,其中与相关联的范围的NDVI值相关联的相关像素被设置为1并且其余像素被设置为0。
步骤2.使用例如簇标记算法或另一种合适的算法来构建与从步骤1导出的二进制图相关联的所有可能的斑点(簇)的集合。该算法基于“哈希-科普尔曼(Hoshen Kopelman)”簇标记算法(1975)。基本上,在本发明中使用的Hoshen Kopelman算法光栅扫描二进制图,并且在一次遍历中,沿着扫描过程找到所有的斑点并且为它们分配运行索引。
也可以使用用于斑点结构的其它技术,诸如用于耗尽的相邻像素搜索的各种方法,但是它们会产生计算负担。
步骤3.将给定的斑点组定义为不规则区或“属于所需NDVI值的感兴趣区域”的判定标准定义如下:
1.如果属于给定单个斑点的像素的数目超过给定的阈值参数
2.属于全部受限于给定半径(来自上述一组斑点的重心)的一组斑点的像素的数目超过给定的阈值。
图1a、图1b和图1c说明该过程如何工作。图1a示出了使用合适的滤波器从在种植场上方飞行的UAV拍摄的一对图像,以获得该场的可见和NIR图像。图1b示出了与叠加在可见光图像上的范围从-0.3至-0.1(红色)(预先定义的感兴趣区域)的NDVI值相关联的像素。这些像素标记了场中的潮湿区域。图1c示出了从使用上述算法自动地计算的该组像素导出的34个最大斑点(每个斑点、随机着色、包含数量超过200个的像素)的集合。
在本发明的另一个实施例中,通过以下程序执行与预选NDVI值相关联的区域的检测。
将与NDVI所需值相关联的像素的二进制地图分割成具有相同面积的多边形,并且计算每个多边形的密度。然后选择具有大密度的多边形来表示与所需的NDVI值相关联的区域的中心。
图2a、图2b和图2c示出了这个过程如何工作。图2a示出了给定种植场的一对可见光图像和NIR图像。图2b示出与从图2a的图像导出的范围为0.75至0.9(预先定义的感兴趣的范围)的NDVI值相关联的像素。图2c示出了与具有最高密度值的多边形(实际上尺寸为4×4的块)相关联的一组点(以白色标记)。左侧图像的红色点表示其NDVI值介于0.75和0.9之间的所有像素的集合。
上述方法可以通过图11中示意性示出的用于多光谱图像获取和分析的系统10来实现。系统10包括至少一个多光谱图像捕获装置12和耦合到图像捕获装置的处理器14。优选地,处理器与用户20进行双向通信以交换数据和指令。处理器运行包括斑点分割模块18的图像处理模块16,以根据预先定义的勘测参数通过斑点分割自动分析捕获的图像,并提供对应于落入预先定义的勘测参数内的每个图像上的不规则区的输出。如上所述,该输出可以由处理器14使用或者提供给用户20。斑点分割模块18可以实现大规模斑点分割和小规模斑点分割。该系统还包括地理位置指示器22,该地理位置指示器22适于且被配置成提供不规则区的地理位置的指示。尽管在本实施例中将地理位置指示器22示出为独立单元,但根据本发明的其它实施例,其可以是图像捕获装置12的一部分。处理器还被配置为自动判定是否将多光谱图像捕获装置中的一个引向到所指示的地理位置以响应于输出来捕获不规则区的图像。
本发明还涉及用于识别多光谱图像中的对象的方法。该方法包括根据预先定义的对象参数来分析高分辨率多光谱图像,并且当找到预先定义的对象参数内的参数时,对包含这些参数的图像执行斑点分割以识别斑点。将受限于这些斑点的对象与预先定义的参考参数进行比较,以识别具有预先定义的对象参数的对象。根据一些实施例,在比较之前对对象进行分类。使用该方法的许多非限制性示例如下。
简单形态对象的自动识别
选择用于识别过程的一些对象具有非常简单的形态(形式和结构)(以下简称“SMS”,即,简单形态结构)的特定,典型地呈小污点的形状。检测SMS对象的一种有用方法需要计算一组非常小的斑点(1个至15个像素),提取每个小斑点周围的小图像,并且搜索该图像中的选定对象。通常,这样的搜索将涉及激活小斑点和参考图案之间的内部图案匹配程序。
检测SMS对象的一个重要实施方式是其在小型害虫检测中的应用。害虫的SMS图像通常呈现“小污点”的形状,其边界可以近似为椭圆形状。
受感染地区的SMS害虫的计算机识别是基于以下观察性假设:
a.SMS的图像具有几何意义,具有椭圆状的形状,并且通常,SMS害虫相对于其周围的颜色对比非常明显。
b.与未感染植物相比,感染植物含有高浓度“污点”(SMS害虫)的视觉形态。因此,通过比较合适的图像处理工具中的“污点浓度”,可以将感染的植物与未感染的植物区分开来。
本发明采用了基于将上述观测假设转换为有效算法来自动检测SMS害虫的方法。
在这些观测的一个算法实施例中,所获取的图像(在可见光或NI或NDVI图像中,或任何类型的像CMYK(青色、品红色、黄色和黑色)的通道分离首先被转换成灰度级图像,然后经历基于灰度级斑点的分割。取决于图像的质量,有效的斑点分割通常需要一个统一的量化操作,对于大多数应用来说,32个灰度级值通常是足够的。每个灰度级值的二进制地图都经历上面描述的Hoshen-Kopelman簇标记算法,并且最后创建并存储由所有灰度值组成的所有可能斑点的集合。从这组计算斑点中,只有大小小于小阈值数量的像素的小斑点(通常但不限于,具有小于10个像素的小小)被提取。
图像被分成几个相同尺寸的子图像。在每个子图像中,计算由上述方法创建的小斑点的数目。如果给定百分比的子图像中的小斑点的数量超过预先定义的校准阈值,则声明检测到SMS害虫的存在。这种阈值设置可以被设置为与农业喷洒策略相匹配。
在本发明的另一个算法实施例中,图像被转换成灰度级图像并且使用与上述相同的方法进行灰度级斑点分割。从划分的斑点组中选择具有非常小尺寸的斑点(通常但不限于具有小于10个像素的大小)并且记录它们的重心。
围绕每个被记录的重心(半径长度被设置为,典型地但不限于,小于50个像素)的所有子图像被提取并且与通常具有椭圆形式的SMS害虫的参考图像进行比较,该参考图像驻留在存储器中,使用相关算子或预先编程的深度神经网络分类器函数。如果相关性超过预设的阈值,和/或标记了成功的分类,则声明检测。图3a和图3b展示了这种方法的工作原理。这两个灰度级图像描绘了受感染的棉田。图3a中叠加在图像上的红色点集合示出了如通过上述方法计算的像素数目小于50的所有小斑点的重心。在这个示例中,灰度级图像被降低到32级。提取这些点中每个点周围的16×16像素尺寸的小图像,并且使用相关算子对参考图像进行匹配。图3b中叠加在图像上的红色点集合示出了相关算子找到的所有子图像。
在分析的另一个算法实施例中,对小斑点的选择局限于具有位于与通常表征查询中的SMS害虫的参考色近距离内的颜色的斑点组。在本发明中,两个给定RGB颜色之间的距离定义如下:
如果,XI={R1.G1.B 1}和X2={R2,G2,B2}
则,距离[Xl,X2]=Max{Abs[Rl-R2],Abs[Gl-G2],Abs[B l-B2]};
图4a和图4b示出了此过程的工作方式。图4a示出了含有一组SMS害虫(白色)的叶片。图4b示出了从上面定义的意义上提取其颜色被限制在距离“接近”的小斑点所产生的一组检测到的SMS害虫(由叠加在图4a的图像上的紫色点指示)(在该示例中,少于40个颜色单位)转换为白色。可以理解的是,被选择用以指示显示器中的害虫的颜色本身是无意义的,并且显示器可以是任何选择的颜色。
在分析的另一种算法实施例中,使用以下方法进行对SMS害虫的检测。通过形成行方向和列方向的交叉算子,将所获取的可见光图像的灰度级图像分割成几个(例如四个)非常相似的非重叠图像,从而形成四个子图像,这四个子图像联合精确地跨越原始图像。这里,假定原始灰度级图像被标记为X,并且由于对交叉算子的应用,X1、X2、X3和X4是得到的子图像。
将图像A(“X的加速度图像”)定义为:A=(XI+X4-2*X3);将产生增强对比度的图像A。声明从A中提取具有最高亮度值的一组预先选定数量的像素产生具有包括SMS有害物的非常高概率的一组像素。提取计算的高值像素组周围的小的子图像,并将其内容与驻留在存储器中的参考SMS虫害的图像进行比较。高度相关性将标记存在SMS害虫。图5a和图5b示出了这个构思。图5a示出了包含SMS害虫的感染叶片,图5b示出了叠加在图5a上的一组红色点。这些红点是由上述方法创建的点,为此,相关器将其相应提取的小的子图像标识为包含SMS害虫。在上述算法构思的另一个实施例中,使用以下方法进行SMS害虫的检测。可见光图像或NIR图像的灰度级经历边缘检测算子。从得到的边缘检测图像中选择其强度值超过给定阈值的一组像素。
提取这些像素周围的小的子图像,并且使用相关方法将其内容与已知参考图像进行比较。如果相关性测量值超过预先设计的阈值,则标记检测到害虫。图6a、图6b和图6c展示了这个构思。图6a示出了包含SMS害虫(着白色)的叶子,图6b示出了图6a的边缘检测应用,并且图6c示出了叠加在图6a上的一组点(黄色),这是根据所描述的方法从图6b的相关点中提取的结果。
在上述算法构思的另一个实施例中,使用以下方法进行SMS害虫的检测。可见光图像或NIR图像的灰度级经历二进制阈值操作。阈值水平计算如下:从非常高的阈值(暗帧)开始,阈值水平逐渐降低,使得如果白点的数目(由阈值操作产生)超过给定水平,则声明了所需阈值。
从得到的图像中,选择其强度值超过上述所需阈值的一组像素。提取这些像素周围的小的子图像,并且使用相关方法将其内容与已知参考图像进行比较。如果相关性测量结果超过预先设计的阈值,则标记检测到害虫。
复杂形态对象的自动识别
一些需要识别的对象具备具有复杂结构(以下被称为CMS)的特性。检测CMS对象的一般方法需要根据特定的所需对象形态将图像分割成具有中等尺寸的斑点。据称,如果CMS对象存在于获取的图像中,则它们很可能在围绕这种中等尺寸的斑点的多个图像中被找到,通常通过将这些相当小的图像(通常仅限于几十个像素)传输到远程服务器以用于识别,优选但不限于使用深度神经网络方法。另一个识别选项是激活能够识别对象的内部代码(如下所述)。
现在将描述多种CMS害虫识别方法。
CMS害虫的示例是苍蝇、蚱蜢、昆虫等。观察这些害虫的结构示出非常复杂的形态,其检测通常需要复杂的匹配代码。
在害虫CMS检测方法的一个实施例中,所获取的图像(任选地可见光图像和/或NIR图像和/或NDVI图像和/或其它基于植被指数的图像)首先经历灰度级转换和直方图均衡化。然后使用上述的Hoshen Kopelman簇标记方法对图像进行斑点分割。
选择具有中等到高数目像素的斑点,并且提取围绕这些斑点的具有小于给定水平(通常但不限于32个像素)的半径的重心的子图像。
每个选择的子图像都经历进一步的斑点分割,优选地使用4个灰度级值。或者,可以使用不同数目的强度值。计算出的斑点按照其像素的尺寸进行安排。提取选定的数目(例如前三个)的大斑点,并且创建包含它们相关像素的二进制图像。如果在上述提取的子图像中“捕获”了害虫,并且为了划定形态边界的目的,则在包含大斑点的二进制地图上应用两个形态二进制算子:二进制膨胀算子和二进制腐蚀算子。最后,计算膨胀图像和腐蚀图像之间的差异,从而产生近似捕获害虫形态边界的图像。
图7a、图7b和图7c展示了该算法如何工作。图7a中的每个图像都示出了原始的CMS害虫。图7b中的每个图像都示出了由图7a中的相应图像的最大三个斑点的像素的投影产生的二进制图像。图7c中的每个图像都示出了应用二进制腐蚀和膨胀算子后图7a中相应害虫的结果边界。然后使用相关程序和/或使用深度神经网络或其它机器视觉方法(诸如预测器和分类器)的分类程序,将图7c中的所得到的图像与相似类型的图像(例如CMS害虫边界)进行比较。
在基于斑点分割CMS的检测方法的另一个实施例中,可见光图像或NIR图像或NDVI或其它基于植被指数的图像的灰度级经历斑点分割(优选但不限于4个强度级别),并且提取具有选定的像素尺寸(例如范围从50个到300个像素数目)的斑点。提取每个这样的斑点的周围图像并且将其发送到远程服务器,以使用深度神经网络方法或其它机器视觉方法(诸如预测器和分类器)将其分类到CMS害虫的正确类别,与被用作害虫分类训练集的害虫图像的大数据集相比较。图8a和图8b说明了这个概念。图8a描述感染了CMS蚜虫的叶子,图8b示出了一组尺寸范围在100个和200个像素之间的斑点。害虫和提取的斑点之间的匹配是显著的。
对象的自动间接识别
在某些情况下,特别是在自动害虫识别的情况下,害虫的存在可以通过对其周围环境的独特影响来检测。换句话说,在获取的图像中捕获实际害虫可能是困难的或不可能的,但是可以从植物的状态推断出害虫的存在。以下仅以非限制性示例的方式从许多这样的情况中提出两种这样的情况。
被称为“柑桔潜叶蛾”的害虫可以用作一个很好的示例。通常在叶表面发现归因于这种害虫的“卷绕”集群的存在。因此,对这种集群的检测表明存在这种害虫。本发明提出了识别这种害虫的两种算法方法:
A.使用如前一节所述的用于自动识别复杂形态结构的方法,其中提取具有相对大量的像素(通常在100个和700个之间)的斑点周围的图像,并且将该图像的内容与包含柑桔潜叶蛾的各种参考图像进行比较。
B.对具体潜叶蛾量身定制的检测算法描述如下:提取具有相对大量像素的斑点的图像。计算存在于这些图像中的可能对象的边界。在任何这样的图像上,应用图像拐角过滤器并且计数所计算的角坐标的数量。如果角坐标的数量超过给定的阈值,则声明了检测到柑桔潜叶蛾。
图9a、图9b和图9c展示了这样的构思:图9a示出了典型的柑桔潜叶蛾集群(用黄色圈出),并且图9b示出了它的边界,而图9c示出了由于应用角滤波器(底部图)产生的合成角点。显然有相当大数目的这样的点,表明存在集群。
应该理解,当在不同的光谱带中观察时,对象相对于其背景的外观是不同的。根据本发明的实施例,可以利用这个事实来改善各种感兴趣对象的隔离和识别。例如,高分辨率多光谱图像可以首先进行颜色处理以加强并将所寻找的对象的外观与图像的其余对象隔开。这些操作可以包括将一些原始多光谱可见波带与CMYK(青色、品红色、基色(黑色))彩色空间和/或HLS(色相亮度饱和度)彩色空间和/或任何其它一个彩色空间或多个彩色空间中某些通道组合起来。本发明中在来自RGB彩色空间、CMYK彩色空间、HSL彩色空间和可能的其它彩色空间的各个带之间的各种组合中使用多光谱窄带使得能够改善所搜索对象与其周围背景的分离。在各种颜色通道和矩阵中检查疾病或其它对象的外观的独特性后,选择增强该外观的算术计算。可以使用各种图像处理工具来实现这样的波段组合,诸如图像差异,添加<减去,最亮/最暗像素,图像调整等。根据对象在不同的矩阵中的外观,组合可以在两个通道/矩阵或更多之间。与仅使用RGB彩色空间相比,这样提供与背景颜色的好得多的对象分离。一般来说,搜索对象的进一步分离可以通过还包含多光谱的特定650nm红色波段来实现。在这种情况下,明显的白色表示对检测到对象。执行各种颜色组合的交叉检测可以改进检测。可以预选如上所述的各种颜色组合并针对特定种类的害虫进行定制,从而增加了害虫检测的机会。
根据本发明的这些实施例的自动化间接害虫识别的另一个重要示例在此参照枯萎病现象提出。枯萎病是指响应于致病生物感染而影响植物的症状。它通常与棕色和干叶相关联。根据本发明,使用所获取的高分辨率多光谱图像来执行对枯萎病的自动搜索。如上所述,所获取的图像首先经历颜色处理,以增强和将枯萎病的外观与图像的其它对象隔开。在RGB彩色空间、CMYK彩色空间、HSL彩色空间和其它可能的彩色空间的各个窄带之间使用各种组合,可以使感染了枯萎病的叶子与它们的周围背景几乎完全分离。周围背景通常是叶子的绿色部分或土壤的棕色。
成功的颜色处理通常非常清楚地示出枯萎部分,通常具有两种(或更多种)显著的主色。为了方便起见,这些被称为主要颜色和次要颜色。这些颜色值取决于所执行的特定颜色处理。图10说明了这个示例。这里的颜色处理包括拍摄由RGB通道构成的可见光图像和与图像的CMYK颜色相关的品红色通道之间的图像差异。中心的叶子清楚地示出了两种颜色,即,棕色和紫色。自动枯萎检测算法首先提取与主色相关联的所有像素,并且在该组上应用斑点分割。将具有与其紧邻的次要颜色相关联的像素的斑点声明为与枯萎病相关联。
虽然上面已经参考枯萎病例证了这种颜色处理的原理,但是可以理解,它可以用于许多不同的应用,无论是搜索不同类型的害虫或疾病还是监测完全不同的对象。重要的步骤是捕获多光谱图像,并且在斑点分割之后,执行将图像分割成各种颜色空间和交叉选定的颜色通道,以使寻找的对象从图像的其余部分中突出。
可以理解的是,虽然上面已经就农业勘测对本发明进行了例证,但是本发明也适用于需要扫描陆地或海洋中的区域以便进一步勘测局部不规则区的许多其它情况,例如,寻找鱼类或陆地集群或地面上的其它表面不规则区。
尽管已经关于有限数量的实施例描述了本发明,但是应该理解,可以对本发明做出许多变化、修改和其它应用。将进一步理解的是,本发明不限于仅作为示例在上文中描述的内容。相反,本发明仅由所附权利要求限定。
参考文献
J.Hoshen和R.Kopelman(1976)."Percolation and Cluster Distribution".Phys.Rev.B.1(14):3438-3445
http://jpe.oxfordjournals.org/content/1/1/9.full
植被映射中的遥感图像:综述
参考美国农业部有关遥感和光谱波段的内容。
www.mdpi.com%2f2072-4292%2F6%2F6%2F5257%2Fpdf&usg=AFQJCNErQYE2IPKfPKwtJYLnXLB0jWN5KA&sig2=9bMbgRXFMNgmqMIrr2TWqA用于农业遥感的基于两台消费级相机的机载多光谱成像系统
“系统生物学(以下简称系统学)(a)提供有机体的科学名称,(b)描述它们,(c)保存它们的集合,(d)提供有机体的分类,它们的识别的关键以及关于它们分布的数据(e)勘测它们的进化历史,以及(f)考虑它们的环境适应性。”***
***维基百科-系统分类学
UAV图像,如美国DOA所描述的,每0.1m(10cm)最多只使用一个像素,分辨率比上述场景低12.5倍,而在上述场景中使用50mm镜头时,会导致与DOA研究的最佳分辨率相比,在x50分辨率下的三米高度,即,每平方厘米超过100个像素!
这种分辨率的感应区域允许识别害虫类型,甚至可以远程区分蚜虫和苍蝇。Chambolle,A.(2004)."An algorithm for total variation minimization andapplications".Journal of Mathematical Imaging and Vision.20:89-97.
Claims (26)
1.一种用于多光谱图像获取和分析的方法,所述方法包括:
以预先选定的分辨率根据预先定义的勘测参数来捕获多光谱航空图像;
使用对所捕获图像的大规模斑点分割来实时或接近实时地自动执行初步分析;
根据所述预先定义的勘测参数来检测所分析的图像数据中的不规则区并提供与其对应的输出;
将GPS数据与所检测到的不规则区相关联;以及
根据所述输出判定是否以比所述预先选定的分辨率更高的分辨率来执行图像获取的第二阶段以及使用小规模斑点分割进行分析。
2.根据权利要求1所述的方法,还包括:
引导图像获取装置使用所述相关联的GPS数据以比所述预先选定的分辨率更高的分辨率来捕获所述检测到的不规则区中的至少一者的附加多光谱图像;以及
使用对所述附加多光谱图像的小规模斑点分割来实时或接近实时地执行分析。
3.根据权利要求1或权利要求2所述的方法,其中所述判定步骤是自动执行的。
4.根据权利要求2所述的方法,其中所述引导步骤包括自动地引导所述图像获取装置。
5.根据权利要求1或权利要求2所述的方法,其中所述判定步骤包括:
构建所述图像的二进制地图,其中与预定范围的参数值相关联的像素被设置为1,并且其余像素被设置为0;
通过对所述二进制地图进行光栅扫描来构建与所述二进制地图相关联的所有可能的斑点的集合,沿所述扫描过程找到斑点并为它们分配运行索引;
在以下情况下将一组斑点定义为不规则区:
a.属于给定单个斑点的若干像素超过预先定义的阈值参数;或
b.属于一组斑点的都受限于给定半径(从该组斑点的重心)的若干像素超过预先定义的阈值。
6.根据权利要求2所述的方法,还包括将所述检测到的不规则区中的至少一者的形态与已知对象的形态进行比较。
7.根据前述权利要求中任一项所述的方法,其中所述多光谱图像包括从包括可见光图像和近红外(NIR)图像的组中选择的至少两个图像。
8.一种用于多光谱图像获取和分析的系统,所述系统包括:
至少一个多光谱图像捕获装置;
耦合到所述图像捕获装置的处理器;
所述处理器运行图像处理模块,所述图像处理模块包括斑点分割模块,以根据预先定义的勘测参数通过斑点分割来自动分析所捕获的图像,并提供与落入所述预先定义的勘测参数内的每个图像上的不规则区相对应的输出;
其中所述斑点分割模块能够实现大规模斑点分割和小规模斑点分割两者,以及
地理位置指示器,所述地理位置指示器适于且被配置为提供对所述不规则区的地理位置的指示;
所述处理器被配置为自动判定是否将所述至少一个多光谱图像捕获装置中的一者引向所述指示的地理位置以响应于所述输出来捕获所述不规则区的图像。
9.根据权利要求7所述的系统,其中所述处理器与用户进行双向通信以交换数据和指令。
10.一种用于识别多光谱图像中的对象的方法,所述方法包括:
根据预先定义的对象参数来分析高分辨率的多光谱图像;
当找到在所述预先定义的对象参数内的参数时,对包含这些参数的所述图像执行斑点分割以识别斑点;
将受限于所述斑点的对象与预先定义的参考参数进行比较以识别具有所述对象参数的对象。
11.根据权利要求10所述的方法,还包括:
在所述比较步骤之前对所述对象分类。
12.根据权利要求10或权利要求11所述的方法,还包括:
根据勘测类型将所获取的图像分割成有限尺寸的子图像的集合,
将图像尺寸与所述斑点的尺寸匹配;以及
通过以下任一方式识别所述子图像的集合内的对象:
将这些子图像的集合发送到远程服务器以用于识别;或
通过激活本地识别码来识别现场的对象。
13.根据权利要求10或权利要求11所述的方法,还包括激活所述斑点和参考图案之间的内部图案匹配程序,以检测所述图像中的选择的简单形态结构(SMS)对象。
14.根据权利要求10或权利要求11所述的方法,还包括:将所述图像转换为经历基于灰度级斑点的分割的灰度级图像;
每个灰度值的二进制地图经历哈希-科普尔曼簇标记算法,并且创建和存储由所有灰度值组成的所有可能的斑点的集合;
从所计算的所述斑点的集合中仅提取尺寸小于预定阈值数目的像素的小斑点;
将所述图像分成几个相同尺寸的子图像;
计数每个子图像中的若干小斑点;
并且当给定百分比的所述子图像中的若干小斑点超过预先定义的校准阈值时,声明检测到简单形态结构害虫的存在。
15.根据权利要求10或权利要求11所述的方法,还包括:
将所述图像转换为经历灰度级斑点分割的灰度级图像;
从分割的斑点的集合中选择具有预先定义的极小尺寸的斑点并记录它们的重心;
提取每个记录重心周围的子图像;以及
使用机器视觉方法将所提取的子图像与简单形态结构害虫的参考图像进行比较;以及
当所述相关性超过预设阈值和/或标记了成功的分类时,声明检测到简单形态结构害虫。
16.根据权利要求10或权利要求11所述的方法,还包括:
对所述多光谱图像执行斑点分割;
选择具有位于与通常表征所述简单形态结构害虫的预选参考色近距离内的颜色的小斑点,其中两个给定RGB颜色之间的距离被定义如下:
如果XI={R1,G1,B1},并且X2={R2,G2,B2}
则距离[Xl,X2]=Max{Abs[Rl-R2],Abs[Gl-G2],Abs[Bl-B2]}。
17.根据权利要求10或权利要求11所述的方法,还包括:
通过形成行方向和列方向的交织算子,将可见光图像的所获取的灰度级图像X分割成几个非常相似的非重叠图像,导致形成四个子图像X1、X2、X3和X4,所述四个子图像联合精确地跨越原始图像;
将图像A定义为X的加速度图像:A=(XI+X4-2*X3);会导致增强对比度的图像A;
从A中提取具有最高亮度值的预选数目的像素的集合以产生像素集合;
提取所计算的高值像素的集合周围的小的子图像;以及
将它们的内容与驻留在存储器中的参考简单形态结构害虫的图像进行比较;以及
当存在高度相关性时标记简单形态结构害虫的存在。
18.根据权利要求10或权利要求11所述的方法,还包括:
将可见光或NIR图像转换为灰度级图像;
使所述图像的灰度级经历边缘检测算子;
从所得到的边缘检测图像中选择其强度值超过给定阈值的像素的集合;
提取这些像素周围的小的子图像;
使用相关方法将所述子图像的内容与已知参考图像进行比较;以及
如果相关性测量值超过预先设计的阈值,则标记检测到害虫。
19.根据权利要求10或权利要求11所述的方法,还包括:
在可见光或NIR图像的灰度级图像上执行二进制阈值操作;
从结果图像中选择其强度值超过预定阈值的像素的集合;
提取这些像素周围的小的子图像;
使用相关方法将所提取的小的子图像的内容与已知参考图像进行比较;以及
当相关性测量值超过预先设计的阈值时标记检测到简单形态学结构害虫。
20.根据权利要求10或权利要求11所述的方法,还包括:
对所获取的图像执行灰度级转换和直方图均衡化;
在所述灰度级图像上执行斑点分割;
选择具有中等至高数目像素的斑点并且提取围绕这些斑点的重心具有小于预选尺寸的半径的子图像;
对每个所选择的子图像执行进一步的斑点分割;
相对于所计算的斑点的像素尺寸来布置所述所计算的斑点;
提取选定数量的大斑点并且创建包含它们相关像素的二进制图像;
如果在所提取的子图像中“捕获”复杂形态结构害虫,则在包含所述大斑点的二进制地图上应用两个形态二进制算子,即二进制膨胀算子和二进制腐蚀算子;
计算膨胀图像和腐蚀图像之间的差异,得到近似捕获害虫形态边界的图像;以及
将所计算的边界与所存储的CMS害虫边界的参考图像进行比较。
21.根据权利要求10或权利要求11所述的方法,还包括:
将可见光图像或NIR图像转换为灰度级图像;
在所述灰度级图像上执行斑点分割;
提取具有选定像素尺寸的斑点;
提取围绕每个这样的斑点的图像;以及
使用机器视觉方法将远程服务器中的每个这样的图像分类为CMS害虫的类别。
22.根据权利要求10或权利要求11所述的方法,还包括:
提取具有相对大量像素的斑点的图像;
计算驻留在所提取的图像中的可能对象的边界;
在每个这样的图像上应用图像拐角过滤器,
对所计算的角坐标的数目进行计数;以及
如果所计算的角坐标数目超过给定阈值,则通过间接识别来声明检测到柑桔潜叶蛾。
23.根据权利要求10或权利要求11所述的方法,还包括:
对植物的多光谱图像执行颜色处理以增强所述植物中与枯萎病相关联的颜色;
使用预先定义的容差对图像中的一组与主要主色相关联的所有像素执行斑点分割;
寻找所检测到的主要颜色斑点与所述斑点紧邻的次要主色相关联的像素的匹配;
当发现这样的匹配时,声明枯萎病叶子。
24.根据权利要求10或11中任一项所述的方法,还包括:
对高分辨率多光谱图像执行颜色处理以增强和隔离与图像中其它对象的对象外观;
在被处理的图像上执行斑点分割;
根据至少两个颜色空间将所述图像划分成颜色通道;以及
组合来自至少所述两个颜色空间的选定颜色通道以增强所述对象的外观。
25.根据权利要求24所述的方法,还包括执行各种颜色组合的交叉检测以改善与背景颜色的对象分离。
26.根据权利要求24或权利要求25所述的方法,其中所述组合步骤还包括结合所述多光谱的650nm红色波段。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562252513P | 2015-11-08 | 2015-11-08 | |
US62/252,513 | 2015-11-08 | ||
PCT/IL2016/051205 WO2017077543A1 (en) | 2015-11-08 | 2016-11-08 | A method for aerial imagery acquisition and analysis |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108369635A true CN108369635A (zh) | 2018-08-03 |
CN108369635B CN108369635B (zh) | 2022-07-29 |
Family
ID=58662917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680071121.2A Active CN108369635B (zh) | 2015-11-08 | 2016-11-08 | 用于航空图像获取与分析的方法 |
Country Status (11)
Country | Link |
---|---|
US (1) | US10943114B2 (zh) |
EP (1) | EP3374928B1 (zh) |
JP (1) | JP6921095B2 (zh) |
KR (1) | KR102623403B1 (zh) |
CN (1) | CN108369635B (zh) |
AU (1) | AU2016350155B2 (zh) |
BR (1) | BR112018009108B1 (zh) |
CA (1) | CA3004388C (zh) |
EA (1) | EA039345B1 (zh) |
MX (1) | MX2018005714A (zh) |
WO (1) | WO2017077543A1 (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109100350A (zh) * | 2018-08-21 | 2018-12-28 | 珠海市博恩科技有限公司 | 一种面粉麸星检测方法 |
CN109492541A (zh) * | 2018-10-18 | 2019-03-19 | 广州极飞科技有限公司 | 目标对象类型的确定方法及装置、植保方法、植保系统 |
CN109684938A (zh) * | 2018-12-06 | 2019-04-26 | 广西大学 | 一种基于作物冠层航拍俯视图的甘蔗株数自动识别方法 |
CN109919088A (zh) * | 2019-03-06 | 2019-06-21 | 贵州师范大学 | 一种喀斯特地区火龙果单株识别自动提取方法 |
CN110866493A (zh) * | 2019-11-14 | 2020-03-06 | 生态环境部南京环境科学研究所 | 基于遥感影像的规模化生猪养殖场识别方法 |
CN111191488A (zh) * | 2018-11-15 | 2020-05-22 | 中国电信股份有限公司 | 活体检测方法、装置、系统和计算机可读存储介质 |
WO2020192385A1 (zh) * | 2019-03-26 | 2020-10-01 | 深圳市大疆创新科技有限公司 | 确定装置、摄像系统及移动体 |
CN112948371A (zh) * | 2019-12-10 | 2021-06-11 | 广州极飞科技股份有限公司 | 数据处理方法、装置、存储介质、处理器 |
CN113177956A (zh) * | 2021-05-11 | 2021-07-27 | 南通大学 | 一种面向无人机遥感影像的语义分割方法 |
CN113614774A (zh) * | 2019-03-22 | 2021-11-05 | 巴斯夫涂料有限公司 | 用于目标涂层的图像数据中的缺陷检测的方法和系统 |
Families Citing this family (107)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7711796B2 (en) | 2006-06-12 | 2010-05-04 | Icontrol Networks, Inc. | Gateway registry methods and systems |
US10200504B2 (en) | 2007-06-12 | 2019-02-05 | Icontrol Networks, Inc. | Communication protocols over internet protocol (IP) networks |
US11582065B2 (en) | 2007-06-12 | 2023-02-14 | Icontrol Networks, Inc. | Systems and methods for device communication |
US8335842B2 (en) | 2004-03-16 | 2012-12-18 | Icontrol Networks, Inc. | Premises management networking |
US11201755B2 (en) | 2004-03-16 | 2021-12-14 | Icontrol Networks, Inc. | Premises system management using status signal |
US10721087B2 (en) | 2005-03-16 | 2020-07-21 | Icontrol Networks, Inc. | Method for networked touchscreen with integrated interfaces |
US10142392B2 (en) | 2007-01-24 | 2018-11-27 | Icontrol Networks, Inc. | Methods and systems for improved system performance |
US11244545B2 (en) | 2004-03-16 | 2022-02-08 | Icontrol Networks, Inc. | Cross-client sensor user interface in an integrated security network |
US11159484B2 (en) | 2004-03-16 | 2021-10-26 | Icontrol Networks, Inc. | Forming a security network including integrated security system components and network devices |
US10339791B2 (en) | 2007-06-12 | 2019-07-02 | Icontrol Networks, Inc. | Security network integrated with premise security system |
US11343380B2 (en) | 2004-03-16 | 2022-05-24 | Icontrol Networks, Inc. | Premises system automation |
US11316958B2 (en) | 2008-08-11 | 2022-04-26 | Icontrol Networks, Inc. | Virtual device systems and methods |
US9141276B2 (en) | 2005-03-16 | 2015-09-22 | Icontrol Networks, Inc. | Integrated interface for mobile device |
US9729342B2 (en) | 2010-12-20 | 2017-08-08 | Icontrol Networks, Inc. | Defining and implementing sensor triggered response rules |
US11811845B2 (en) | 2004-03-16 | 2023-11-07 | Icontrol Networks, Inc. | Communication protocols over internet protocol (IP) networks |
US11677577B2 (en) | 2004-03-16 | 2023-06-13 | Icontrol Networks, Inc. | Premises system management using status signal |
US11113950B2 (en) | 2005-03-16 | 2021-09-07 | Icontrol Networks, Inc. | Gateway integrated with premises security system |
US9531593B2 (en) | 2007-06-12 | 2016-12-27 | Icontrol Networks, Inc. | Takeover processes in security network integrated with premise security system |
US11368327B2 (en) | 2008-08-11 | 2022-06-21 | Icontrol Networks, Inc. | Integrated cloud system for premises automation |
US11190578B2 (en) | 2008-08-11 | 2021-11-30 | Icontrol Networks, Inc. | Integrated cloud system with lightweight gateway for premises automation |
US10522026B2 (en) | 2008-08-11 | 2019-12-31 | Icontrol Networks, Inc. | Automation system user interface with three-dimensional display |
US10237237B2 (en) | 2007-06-12 | 2019-03-19 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US20160065414A1 (en) | 2013-06-27 | 2016-03-03 | Ken Sundermeyer | Control system user interface |
US11368429B2 (en) | 2004-03-16 | 2022-06-21 | Icontrol Networks, Inc. | Premises management configuration and control |
US11277465B2 (en) | 2004-03-16 | 2022-03-15 | Icontrol Networks, Inc. | Generating risk profile using data of home monitoring and security system |
US20090077623A1 (en) | 2005-03-16 | 2009-03-19 | Marc Baum | Security Network Integrating Security System and Network Devices |
US11489812B2 (en) | 2004-03-16 | 2022-11-01 | Icontrol Networks, Inc. | Forming a security network including integrated security system components and network devices |
US11916870B2 (en) | 2004-03-16 | 2024-02-27 | Icontrol Networks, Inc. | Gateway registry methods and systems |
US10156959B2 (en) | 2005-03-16 | 2018-12-18 | Icontrol Networks, Inc. | Cross-client sensor user interface in an integrated security network |
US11496568B2 (en) | 2005-03-16 | 2022-11-08 | Icontrol Networks, Inc. | Security system with networked touchscreen |
US9306809B2 (en) | 2007-06-12 | 2016-04-05 | Icontrol Networks, Inc. | Security system with networked touchscreen |
US11615697B2 (en) | 2005-03-16 | 2023-03-28 | Icontrol Networks, Inc. | Premise management systems and methods |
US20120324566A1 (en) | 2005-03-16 | 2012-12-20 | Marc Baum | Takeover Processes In Security Network Integrated With Premise Security System |
US10999254B2 (en) | 2005-03-16 | 2021-05-04 | Icontrol Networks, Inc. | System for data routing in networks |
US20170180198A1 (en) | 2008-08-11 | 2017-06-22 | Marc Baum | Forming a security network including integrated security system components |
US20110128378A1 (en) | 2005-03-16 | 2011-06-02 | Reza Raji | Modular Electronic Display Platform |
US11700142B2 (en) | 2005-03-16 | 2023-07-11 | Icontrol Networks, Inc. | Security network integrating security system and network devices |
US10079839B1 (en) | 2007-06-12 | 2018-09-18 | Icontrol Networks, Inc. | Activation of gateway device |
US11706279B2 (en) | 2007-01-24 | 2023-07-18 | Icontrol Networks, Inc. | Methods and systems for data communication |
US7633385B2 (en) | 2007-02-28 | 2009-12-15 | Ucontrol, Inc. | Method and system for communicating with and controlling an alarm system from a remote server |
US8451986B2 (en) | 2007-04-23 | 2013-05-28 | Icontrol Networks, Inc. | Method and system for automatically providing alternate network access for telecommunications |
US11089122B2 (en) | 2007-06-12 | 2021-08-10 | Icontrol Networks, Inc. | Controlling data routing among networks |
US11218878B2 (en) | 2007-06-12 | 2022-01-04 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US11423756B2 (en) | 2007-06-12 | 2022-08-23 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US11212192B2 (en) | 2007-06-12 | 2021-12-28 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US11601810B2 (en) | 2007-06-12 | 2023-03-07 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US10523689B2 (en) | 2007-06-12 | 2019-12-31 | Icontrol Networks, Inc. | Communication protocols over internet protocol (IP) networks |
US11646907B2 (en) | 2007-06-12 | 2023-05-09 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US11316753B2 (en) | 2007-06-12 | 2022-04-26 | Icontrol Networks, Inc. | Communication protocols in integrated systems |
US11237714B2 (en) | 2007-06-12 | 2022-02-01 | Control Networks, Inc. | Control system user interface |
US10223903B2 (en) | 2010-09-28 | 2019-03-05 | Icontrol Networks, Inc. | Integrated security system with parallel processing architecture |
US11831462B2 (en) | 2007-08-24 | 2023-11-28 | Icontrol Networks, Inc. | Controlling data routing in premises management systems |
US11916928B2 (en) | 2008-01-24 | 2024-02-27 | Icontrol Networks, Inc. | Communication protocols over internet protocol (IP) networks |
US20170185278A1 (en) | 2008-08-11 | 2017-06-29 | Icontrol Networks, Inc. | Automation system user interface |
US11258625B2 (en) * | 2008-08-11 | 2022-02-22 | Icontrol Networks, Inc. | Mobile premises automation platform |
US11792036B2 (en) * | 2008-08-11 | 2023-10-17 | Icontrol Networks, Inc. | Mobile premises automation platform |
US11758026B2 (en) | 2008-08-11 | 2023-09-12 | Icontrol Networks, Inc. | Virtual device systems and methods |
US11729255B2 (en) | 2008-08-11 | 2023-08-15 | Icontrol Networks, Inc. | Integrated cloud system with lightweight gateway for premises automation |
US8638211B2 (en) | 2009-04-30 | 2014-01-28 | Icontrol Networks, Inc. | Configurable controller and interface for home SMA, phone and multimedia |
US8836467B1 (en) | 2010-09-28 | 2014-09-16 | Icontrol Networks, Inc. | Method, system and apparatus for automated reporting of account and sensor zone information to a central station |
US11750414B2 (en) | 2010-12-16 | 2023-09-05 | Icontrol Networks, Inc. | Bidirectional security sensor communication for a premises security system |
US9147337B2 (en) | 2010-12-17 | 2015-09-29 | Icontrol Networks, Inc. | Method and system for logging security event data |
US11405463B2 (en) | 2014-03-03 | 2022-08-02 | Icontrol Networks, Inc. | Media content management |
US11146637B2 (en) | 2014-03-03 | 2021-10-12 | Icontrol Networks, Inc. | Media content management |
GB2568007A (en) | 2016-09-08 | 2019-05-01 | Walmart Apollo Llc | Systems and methods for dispensing an insecticide via unmanned vehicles to defend a crop-containing area against pests |
US11266054B2 (en) | 2017-01-24 | 2022-03-08 | Cnh Industrial America Llc | System and method for automatically estimating and adjusting crop residue parameters as a tillage operation is being performed |
CN110418572A (zh) * | 2017-03-12 | 2019-11-05 | 株式会社尼罗沃克 | 作物拍摄用无人机 |
US11470784B2 (en) * | 2017-03-21 | 2022-10-18 | Paul Richard GAUVREAU, Jr. | Unmanned aerial vehicle for augmenting plant pollination |
JP7152836B2 (ja) * | 2017-04-28 | 2022-10-13 | 株式会社オプティム | 無人飛行体のアクションプラン作成システム、方法及びプログラム |
IL253260B (en) | 2017-07-02 | 2021-07-29 | Manna Irrigation Ltd | Methods and systems for directing irrigation |
EP3425572A1 (en) * | 2017-07-06 | 2019-01-09 | Bayer Aktiengesellschaft | Apparatus for automated weed control |
AU2018298391B2 (en) * | 2017-07-06 | 2024-05-02 | Discovery Purchaser Corporation | A weed control apparatus |
CN109406412A (zh) * | 2017-08-18 | 2019-03-01 | 广州极飞科技有限公司 | 一种植物健康状态监控方法及装置 |
US10491778B2 (en) | 2017-09-21 | 2019-11-26 | Honeywell International Inc. | Applying features of low-resolution data to corresponding high-resolution data |
US11094055B2 (en) * | 2018-01-11 | 2021-08-17 | Intelinair, Inc. | Anomaly detection system |
US11235874B2 (en) | 2018-03-30 | 2022-02-01 | Greensight Agronomics, Inc. | Automated drone-based spraying system |
US11116145B2 (en) | 2018-03-30 | 2021-09-14 | Greensight Argonomics, Inc. | Automated optimization of agricultural treatments based on raster image data system |
US11205073B2 (en) | 2018-03-30 | 2021-12-21 | Greensight Agronomics, Inc. | System to automatically detect and report changes over time in a large imaging data set |
IL258665B (en) | 2018-04-12 | 2021-12-01 | Manna Irrigation Ltd | Growth constants and their use for guiding irrigation |
JP7038860B2 (ja) * | 2018-05-30 | 2022-03-18 | グーグル エルエルシー | 地理的領域の選択の最適化 |
CA3158552A1 (en) | 2018-07-12 | 2020-01-16 | TerraClear Inc. | Object identification and collection system and method |
IL260844B (en) * | 2018-07-29 | 2019-09-26 | Benedek Nadav | System and method for locating and destroying insects |
US10813262B2 (en) * | 2018-10-16 | 2020-10-27 | Cnh Industrial America Llc | System and method for generating a prescription map for an agricultural implement based on yield map and/or crop biomass |
JP7292850B2 (ja) * | 2018-10-17 | 2023-06-19 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US10778916B2 (en) | 2018-10-24 | 2020-09-15 | Honeywell International Inc. | Applying an annotation to an image based on keypoints |
CN109151402B (zh) * | 2018-10-26 | 2022-10-11 | 深圳市道通智能航空技术股份有限公司 | 航拍相机的图像处理方法、图像处理系统及无人机 |
CN110334372B (zh) * | 2019-04-22 | 2023-02-03 | 武汉建工智能技术有限公司 | 一种基于图纸配准的bim增强现实仿真方法 |
JP7415348B2 (ja) | 2019-07-03 | 2024-01-17 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラム、センシングシステム |
WO2021062459A1 (en) * | 2019-10-04 | 2021-04-08 | Single Agriculture Pty Ltd | Weed mapping |
KR102254491B1 (ko) * | 2019-11-22 | 2021-05-21 | (주)가시 | 지능형 영상 분석 모듈을 탑재한 자율비행 드론 |
CN111027441B (zh) * | 2019-12-03 | 2023-05-05 | 西安石油大学 | 一种基于机载高光谱遥感影像的道路提取方法 |
CN111047566B (zh) * | 2019-12-04 | 2023-07-14 | 昆明市滇池高原湖泊研究院 | 无人机和多光谱卫星影像进行水生植被年变化统计的方法 |
US11263454B2 (en) * | 2020-05-25 | 2022-03-01 | Jingdong Digits Technology Holding Co., Ltd. | System and method for video-based pig counting in the crowd |
KR102162342B1 (ko) * | 2020-06-17 | 2020-10-06 | 주식회사 아이온커뮤니케이션즈 | 태양광 패널 검사용 고품질 영상 획득을 위한 무인 비행체 및 그의 비행 제어 방법 |
KR102187654B1 (ko) * | 2020-07-09 | 2020-12-07 | 주식회사 이노드 | 저고도 무인 비행체 및 이를 포함하는 작물 재배 정보 획득 시스템 |
CN112034512B (zh) * | 2020-09-02 | 2023-03-14 | 中海石油(中国)有限公司 | 基于深度学习模型的地震数据不连续性检测方法和系统 |
KR102218863B1 (ko) * | 2020-10-16 | 2021-02-24 | 네이버시스템(주) | 드론을 이용한 실시간 변량 살포 방법 및 드론을 이용한 실시간 변량 살포 시스템 |
KR102267022B1 (ko) * | 2020-10-30 | 2021-06-18 | 주식회사 스페이스소프트인더스트리 | 액제 혹은 입제를 변량 살포하기 위한 드론 |
WO2022155565A1 (en) * | 2021-01-15 | 2022-07-21 | Medici Land Governance | Enhancement of coarse resolution imagery using super-resolution and convolution neural networks to be used for fit-for-purpose systematic land titling and land valuation |
CN112906648A (zh) * | 2021-03-24 | 2021-06-04 | 深圳前海微众银行股份有限公司 | 一种地块中对象的分类方法、装置及电子设备 |
KR102300348B1 (ko) * | 2021-04-13 | 2021-09-09 | 주식회사 프로펠 | 실시간 이미지 분석을 기반으로 현장 상황을 공유하는 무인 항공기, 및 제어 방법 |
KR102300349B1 (ko) * | 2021-04-13 | 2021-09-09 | 주식회사 프로펠 | 탐지 상황에 따라 자동으로 이동 경로를 설정하는 무인 항공기, 및 운용 방법 |
CN113361350A (zh) * | 2021-05-25 | 2021-09-07 | 东南大学 | 一种地表生境因子量化解析方法 |
JP2023170711A (ja) * | 2022-05-19 | 2023-12-01 | 横河電機株式会社 | データ取得装置、データ取得方法、および、データ取得プログラム |
CN116733472A (zh) * | 2023-06-05 | 2023-09-12 | 江西华丽丰科技有限公司 | 一种基于智能算法的金属矿石采选控制系统 |
CN117014584B (zh) * | 2023-09-28 | 2023-12-29 | 中国科学院空天信息创新研究院 | 植被遥感产品获取系统及方法 |
CN117611784A (zh) * | 2023-11-30 | 2024-02-27 | 华北电力大学 | 面向多光谱高时效性放电检测的协同控制方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050036139A1 (en) * | 2002-12-18 | 2005-02-17 | Johnson Paul E. | High resolution imaging fountain flow cytometry |
US20110311101A1 (en) * | 2005-02-08 | 2011-12-22 | Microsoft Corporation | Method and system to segment depth images and to detect shapes in three-dimensionally acquired data |
CN104851113A (zh) * | 2015-04-17 | 2015-08-19 | 华中农业大学 | 多分辨率遥感影像的城市植被自动提取方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010016053A1 (en) * | 1997-10-10 | 2001-08-23 | Monte A. Dickson | Multi-spectral imaging sensor |
US6178253B1 (en) * | 1997-10-10 | 2001-01-23 | Case Corporation | Method of determining and treating the health of a crop |
JP2000194833A (ja) * | 1998-12-28 | 2000-07-14 | Hitachi Ltd | 観測衛星を利用した地域管理システム,地域管理方法と農業育成管理システム及び観測衛星運用システム |
US6567537B1 (en) | 2000-01-13 | 2003-05-20 | Virginia Commonwealth University | Method to assess plant stress using two narrow red spectral bands |
US7208733B2 (en) * | 2004-08-24 | 2007-04-24 | International Electronic Machines Corp. | Non-visible radiation imaging and inspection |
US8503794B2 (en) | 2010-07-28 | 2013-08-06 | Microsoft Corporation | Data difference guided image capturing |
JP5560157B2 (ja) * | 2010-10-19 | 2014-07-23 | 株式会社日立製作所 | スペクトル情報抽出装置 |
US20140312165A1 (en) * | 2013-03-15 | 2014-10-23 | Armen Mkrtchyan | Methods, apparatus and systems for aerial assessment of ground surfaces |
FR3003377A1 (fr) * | 2013-03-18 | 2014-09-19 | Delta Drone | Procede d'analyse d'une parcelle agricole cultivee |
FR3003380A1 (fr) * | 2013-03-18 | 2014-09-19 | Delta Drone | Procede de surveillance de l'etat de vegetation aux abords d'une infrastructure |
EP3028464B1 (en) * | 2013-08-02 | 2019-05-01 | Xactware Solutions Inc. | System and method for detecting features in aerial images using disparity mapping and segmentation techniques |
US9830514B2 (en) * | 2013-12-27 | 2017-11-28 | Weyerhaeuser Nr Company | Method and apparatus for distinguishing between types of vegetation using near infrared color photos |
US20150254800A1 (en) | 2014-03-06 | 2015-09-10 | F12 Solutions, Llc | Nitrogen status determination in growing crops |
US9734399B2 (en) * | 2014-04-08 | 2017-08-15 | The Boeing Company | Context-aware object detection in aerial photographs/videos using travel path metadata |
US9989965B2 (en) * | 2015-08-20 | 2018-06-05 | Motionloft, Inc. | Object detection and analysis via unmanned aerial vehicle |
-
2016
- 2016-11-08 EP EP16861733.0A patent/EP3374928B1/en active Active
- 2016-11-08 US US15/774,287 patent/US10943114B2/en active Active
- 2016-11-08 KR KR1020187015897A patent/KR102623403B1/ko active IP Right Grant
- 2016-11-08 JP JP2018543475A patent/JP6921095B2/ja active Active
- 2016-11-08 WO PCT/IL2016/051205 patent/WO2017077543A1/en active Application Filing
- 2016-11-08 AU AU2016350155A patent/AU2016350155B2/en active Active
- 2016-11-08 EA EA201890935A patent/EA039345B1/ru unknown
- 2016-11-08 CN CN201680071121.2A patent/CN108369635B/zh active Active
- 2016-11-08 CA CA3004388A patent/CA3004388C/en active Active
- 2016-11-08 BR BR112018009108-1A patent/BR112018009108B1/pt active IP Right Grant
- 2016-11-08 MX MX2018005714A patent/MX2018005714A/es unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050036139A1 (en) * | 2002-12-18 | 2005-02-17 | Johnson Paul E. | High resolution imaging fountain flow cytometry |
US20110311101A1 (en) * | 2005-02-08 | 2011-12-22 | Microsoft Corporation | Method and system to segment depth images and to detect shapes in three-dimensionally acquired data |
US20130057654A1 (en) * | 2005-02-08 | 2013-03-07 | Microsoft Corporation | Method and system to segment depth images and to detect shapes in three-dimensionally acquired data |
CN104851113A (zh) * | 2015-04-17 | 2015-08-19 | 华中农业大学 | 多分辨率遥感影像的城市植被自动提取方法 |
Non-Patent Citations (1)
Title |
---|
ALBERT YU-MIN LIN 等: ""Combining GeoEye-1 Satellite Remote Sensing, UAV Aerial Imaging, and Geophysical Surveys in Anomaly Detection Applied to Archaeology"", 《IEEE JOURNAL OF SELECTED TOPICS IN APPLIED EARTH OBSERVATIONS AND REMOTE SENSING》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109100350A (zh) * | 2018-08-21 | 2018-12-28 | 珠海市博恩科技有限公司 | 一种面粉麸星检测方法 |
CN109492541A (zh) * | 2018-10-18 | 2019-03-19 | 广州极飞科技有限公司 | 目标对象类型的确定方法及装置、植保方法、植保系统 |
CN109492541B (zh) * | 2018-10-18 | 2021-02-19 | 广州极飞科技有限公司 | 目标对象类型的确定方法及装置、植保方法、植保系统 |
CN111191488B (zh) * | 2018-11-15 | 2023-06-27 | 中国电信股份有限公司 | 活体检测方法、装置、系统和计算机可读存储介质 |
CN111191488A (zh) * | 2018-11-15 | 2020-05-22 | 中国电信股份有限公司 | 活体检测方法、装置、系统和计算机可读存储介质 |
CN109684938A (zh) * | 2018-12-06 | 2019-04-26 | 广西大学 | 一种基于作物冠层航拍俯视图的甘蔗株数自动识别方法 |
CN109919088A (zh) * | 2019-03-06 | 2019-06-21 | 贵州师范大学 | 一种喀斯特地区火龙果单株识别自动提取方法 |
CN109919088B (zh) * | 2019-03-06 | 2022-09-23 | 贵州师范大学 | 一种喀斯特地区火龙果单株识别自动提取方法 |
CN113614774A (zh) * | 2019-03-22 | 2021-11-05 | 巴斯夫涂料有限公司 | 用于目标涂层的图像数据中的缺陷检测的方法和系统 |
WO2020192385A1 (zh) * | 2019-03-26 | 2020-10-01 | 深圳市大疆创新科技有限公司 | 确定装置、摄像系统及移动体 |
CN112154646A (zh) * | 2019-03-26 | 2020-12-29 | 深圳市大疆创新科技有限公司 | 确定装置、摄像系统及移动体 |
CN110866493A (zh) * | 2019-11-14 | 2020-03-06 | 生态环境部南京环境科学研究所 | 基于遥感影像的规模化生猪养殖场识别方法 |
CN112948371A (zh) * | 2019-12-10 | 2021-06-11 | 广州极飞科技股份有限公司 | 数据处理方法、装置、存储介质、处理器 |
CN113177956A (zh) * | 2021-05-11 | 2021-07-27 | 南通大学 | 一种面向无人机遥感影像的语义分割方法 |
Also Published As
Publication number | Publication date |
---|---|
KR102623403B1 (ko) | 2024-01-12 |
AU2016350155A1 (en) | 2018-05-24 |
EA201890935A1 (ru) | 2018-11-30 |
EA039345B1 (ru) | 2022-01-17 |
EP3374928A4 (en) | 2019-06-05 |
US20190073534A1 (en) | 2019-03-07 |
MX2018005714A (es) | 2019-08-16 |
KR20180081104A (ko) | 2018-07-13 |
BR112018009108A8 (pt) | 2019-02-26 |
JP2018534714A (ja) | 2018-11-22 |
WO2017077543A1 (en) | 2017-05-11 |
BR112018009108B1 (pt) | 2023-10-24 |
US10943114B2 (en) | 2021-03-09 |
JP6921095B2 (ja) | 2021-08-25 |
EP3374928A1 (en) | 2018-09-19 |
BR112018009108A2 (pt) | 2018-11-06 |
AU2016350155B2 (en) | 2021-08-19 |
CA3004388A1 (en) | 2017-05-11 |
CA3004388C (en) | 2024-02-13 |
EP3374928B1 (en) | 2024-03-27 |
CN108369635B (zh) | 2022-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108369635A (zh) | 用于航空图像获取与分析的方法 | |
Knoth et al. | Unmanned aerial vehicles as innovative remote sensing platforms for high‐resolution infrared imagery to support restoration monitoring in cut‐over bogs | |
Pérez-Ortiz et al. | Machine learning paradigms for weed mapping via unmanned aerial vehicles | |
Murugan et al. | Fusion of drone and satellite data for precision agriculture monitoring | |
Baron et al. | Combining image processing and machine learning to identify invasive plants in high-resolution images | |
Diago et al. | On‐the‐go assessment of vineyard canopy porosity, bunch and leaf exposure by image analysis | |
JP5542530B2 (ja) | サンプリング位置決定装置 | |
Wijesingha et al. | Mapping invasive Lupinus polyphyllus Lindl. in semi-natural grasslands using object-based image analysis of UAV-borne images | |
Mutalib et al. | A brief study on paddy applications with image processing and proposed architecture | |
JP2023526390A (ja) | ゴルフコースのディボット探知システム及びこれを用いた探知方法 | |
CN115136207A (zh) | 用于自动植物图像标记的方法和系统 | |
Harbas et al. | Detection of roadside vegetation using features from the visible spectrum | |
Lyu et al. | Development of phenotyping system using low altitude UAV imagery and deep learning | |
Rumora et al. | Spatial video remote sensing for urban vegetation mapping using vegetation indices | |
Dersch et al. | Novel single tree detection by transformers using uav-based multispectral imagery | |
Xu et al. | Detecting white cotton bolls using high-resolution aerial imagery acquired through unmanned aerial system | |
Siok et al. | A simulation approach to the spectral quality of multispectral images enhancement | |
Kalmukov et al. | Methods for Automated Remote Sensing and Counting of Animals | |
Zaki et al. | Individual tree crown (ITC) delineation using watershed transformation algorithm for tropical lowland dipterocarp | |
Wijesingha et al. | Mapping invasive Lupinus polyphyllus Lindl. in semi-natural grasslands using object-based analysis of UAV-borne images | |
López et al. | Multi-Spectral Imaging for Weed Identification in Herbicides Testing | |
Torsvik et al. | Detection of macroplastic on beaches using drones and object-based image analysis | |
Lawrence | Early detection of Heacleum Mantegazzianum (Giant Hogweed) based on leaf spectral characteristics from UAV images SVM and OBIA Techniques | |
Khidher et al. | Automatic trees density classification using deep learning of unmanned aerial vehicles images | |
Alkema | Aerial Plant Recognition Through Machine Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |