CN101763655A - 基于模拟真实场景的遥感影像像元分解方法 - Google Patents
基于模拟真实场景的遥感影像像元分解方法 Download PDFInfo
- Publication number
- CN101763655A CN101763655A CN201010039795A CN201010039795A CN101763655A CN 101763655 A CN101763655 A CN 101763655A CN 201010039795 A CN201010039795 A CN 201010039795A CN 201010039795 A CN201010039795 A CN 201010039795A CN 101763655 A CN101763655 A CN 101763655A
- Authority
- CN
- China
- Prior art keywords
- sample ground
- ground
- formula
- sample
- end member
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
一种基于模拟真实场景的遥感影像像元分解方法,步骤如下:一是地面样地调查获取冠型及样地参数;二是目标植被几何形状的简化;三是三维建模软件中模拟样地地形;四是三维建模软件中模拟毛竹林场景;五是获得模拟丰度值;六是计算端元的光谱反射率;七是含全部约束的最小二乘法像元分解。本发明涉及真实场景的三维建模及其在遥感科学中的应用领域。它将样地调查数据的先验知识应用于端元提取,并将三维模拟模型引入到二维的线性光谱分解当中,解决了以往像元分解方法难以获取真实端元的问题。采用本方法可以获得质量更好的端元从而达到更好的混合像元分解效果。
Description
【技术领域】
本发明涉及真实场景的三维建模遥感影像像元分解方法。
【背景技术】
通常,遥感影像是以像元为单位描述地物目标属性的一种信息载体。然而,在像元尺度内通常有多种地物类型或同一地物类型的不同状态对遥感影像获取的信息产生影响。一般将在像元内混杂着多种地物信号的现象称为“混合像元问题”。混合像元不仅影响识别地物目标的精度,也是遥感科学向定量化发展的主要障碍。为了解决混合像元产生的一系列问题,人们针对不同问题发展了相应的像元分解方法。赵英时(2003)总结了混合像元分解的五种类型:一、线性模型。线性模型理论简单,但在地物类型选取不精确时会造成较大误差;二、几何光学模型。几何光学模型是基于分析景观的几何特征,它需要有多个冠型参数;三、随机几何模型。该模型是几何光学模型的一种特例,不同的是它把景观的几何参数作为随机变量。四、概率模型。这类模型是以概率统计方法为基础来判定端元的比例。五、模糊模型。模糊模型以模糊理论为基础,用隶属函数作为判断的模型。以上各种光谱混合模型各有其适用场合。
混合像元分解主要有两步,首先获取研究区内地物目标的端元,然后通过混像元分解获得各端元组分的面积比例(丰度),其中,端元的质量是影响像元分解结果最重要的因素。目前,端元的选择主要有以下两种方法:
第一种为“影像端元”法,就是通过不同的分析方法在遥感影像上确定端元的方法。确定这一类端元不需要进行实地的光谱测量,也不需要额外的先验知识,因此这一种端元选择方法是目前较普遍使用的方法。然而,在像元分解过程中经常出现的一个问题是遥感影像中无法找到需要的“纯净像元”。比如李小文等(1985,1986,1992)提出的著名的几何光学模型,其中的“四分量”包括植被承照面、植被阴影面、背景承照面和背景阴影面,但四分量“理想”的纯净像元在遥感影像上是不可能存在的。一般的解决方法是用洁净并且深的水体代替阴影分量或在“穗帽变换”亮度和绿度两个分量的二维散点图中搜索近似的纯净像元。然而,林地背景混杂了大量的地被植物,林内土壤有机质的含量、含水量也与裸地背景有着很大的区别。因此,影像端元很难完全的反映地物目标的真实属性。
第二种为“参考端元”法,即将野外实测的波谱直接作为端元或从光谱库中选择端元。参考端元从理论上讲可以比较精确的代表地物反射特征,但遥感影像受大气、地形、传感器等诸多外界因素影响,因此参考端元往往很难代表遥感影像中地物的光谱反射特征。另外,参考端元一般只能代表某种确定地物类型的反射率,在像元分解过程中如果漏选了某种地物类型的端元,将会造成很大的分解误差甚至错误。
植被的三维建模目前已在农学、林学、生态学、遥感等领域广泛应用。在遥感应用中,Disney(2000)等总结了很多可以用来生成场景的方法。随着计算机技术、图形学算法的快速发展,以及三维植物测量与建模的不断涌现,适用于多种场合通用模型的研究正不断发展。其中,李小文和Strahler较早就用计算机模拟来探索、验证其几何光学模型,尽管他们的计算机模拟仅停留在树冠阶段,未进入到叶的层次,也未考虑多次散射,但这些模型仍取得了较好的效果。更精确的模拟植被冠层细节有助于提高模型的精度,然而,目前对于林分尺度场景细节模拟的最大障碍是场景中面元数量过多导致的计算机运行速度过慢甚至无法运行。在很多研究中已经采用了简化模型的方法并取得了较好的效果。
【发明内容】
本发明为了解决现有混合像元分解方法端元难以准确获取造成的不适用于影像中不存在所需纯净像元的问题,而提出了一种基于模拟真实场景的遥感影像像元分解方法。
本方法按如下步骤进行:
(1)、在研究区域内设置调查样地,样地的大小等于所用遥感影像的空间分辨率,进行地面样地调查,获取目标植被的冠型、样地的地形地貌及方位参数;
(2)、简化目标植被的几何形状,使简化后植被的几何形状在空间建模工具软件中可以用尽量少的面片数描述;
(3)、假设将像元分解为n分量,则必须在所有调查的样地中随机选择大于等于n的样地数量作为建模样本,将样地内地面假设为平面,太阳光假设为相对于样地地面的平行光,用公式①-⑤在空间建模软件3DMax中建立样地模型,其中,公式①-②用于计算样地在模拟场景中的参数,公式③-⑤用于计算太阳相对于样地的位置;
坡长L的计算公式为:L=30/cos(α) ①
坡高H的计算公式为:H=30×tan(α) ②
a的计算公式为:a=-R×cos(α)×sin(180°-φ) ③
b的计算公式为:b=-R×cos(α)×cos(180°-φ) ④
c的计算公式为:c=R×sin(α)⑤
α表示样地的坡度,φ为样地的坡向;L和H分别表示样地的坡长和坡高;a,b,c分别为太阳在X,Y,Z坐标系统中的位置坐标;R为太阳与样地的距离;
(4)、在空间建模软件3DMax中将简化后植被模型按照样地调查数据分别置于相应的场景中,用公式⑥计算植被模型在模拟样地内的高度坐标Z′,植被模型在样地内的X′和Y′坐标均由随机数产生,调用3DMax中的MAXScript脚本语言用语句⑦将随机产生的坐标赋给样地内的每一个植被模型;
Z′=X′×tan(α)+C ⑥
select $name;move$[p1,p2,p3]; ⑦
其中,X′为X轴的随机坐标;C为实测枝下高;name表示欲移动目标的名称;p1,p2,p3分别为在X,Y,Z轴方向上移动的距离;
(5)、在3DMax中分别输出垂直视条件下有光照和无光照的场景影像,截取输出影像中样地中心50%正方形影像,统计截取影像中四分量的面积比例,得到模拟丰度值;
(6)、用公式⑧计算各端元的光谱反射率,
Ai=(XT·X)-1·XT·Fi ⑧
公式⑧中,Ai是第i波段的端元反射率向量,Fi是与用做建模样本的调查样地对应的n个像元第i波段的反射率向量,X为模拟丰度值;
公式⑨中,fi是第i波段的反射率;Aij是第i波段,第j分量(j=1,2,......,n)的端元反射率;xj为第j分量在这一像元的面积中所占比例;ei是这一像元在第i波段的误差项;约束条件如⑩-式。
本发明的有益效果是将样地调查数据的先验知识应用于端元提取,并将三维模拟模型引入到二维的线性光谱分解当中,解决了以往像元分解方法难以获取真实端元的问题,利用这种方法可以获得质量更好的端元从而达到更好的混合像元分解效果。
【附图说明】
图1是本发明的流程图;
图2是简化的毛竹模型示意图;
图3是样地和太阳相对方位示意图;
图4是场景模拟模型示意图;
图5是样地模拟场景的示意(俯视)图,其中,图5a是有光源时样地像元的俯视图,图5b是没有光源时样地像元的俯视图。
【具体实施方式】
本发明下面结合实施例并参照附图予以详述:
现以毛竹林四分量的混合像元分解为例说明本发明各步骤的具体实施方式。
步骤一:在研究区域内设置调查样地,样地的大小等于所用遥感影像的空间分辨率,进行地面样地调查,获取目标植被的冠型、样地的地形地貌及方位参数。
具体到本毛竹林之例,则在研究区域内设置55个30m×30m的调查样地,样地的大小与所使用的LandsatTM5遥感影像的空间分辨率相等,调查样地内毛竹的冠型参数及样地的坡度和坡向等参数;
步骤二:简化目标植被的几何形状,使简化后植被的几何形状在空间建模工具软件中可以用尽量少的面片数描述。
具体到本毛竹林之例,则将毛竹的几何形状按照图2所示的几何体进行简化,图2中,A,B,C,D分别表示单株毛竹的冠幅,冠长,枝下高,胸径。简化的模型将毛竹的树冠部分描述为“胶囊体”,将毛竹树冠以下部分描述为圆柱体。因此,仅需A,B,C,D四个参数即可模拟单株毛竹的几何形状。
根据实测的样地数据,统计单株毛竹所有可能的“胶囊体”与圆柱体组合,分别在三维建模软件3DMax中按照以上描述建立简化的单株毛竹模型。具体操作过程是先在3DMax中建立单株毛竹的模型共需A,B,C,D四个参数,分别创建“胶囊体”和圆柱体两个部件。再用快速对齐命令使圆柱体的垂直中心与“胶囊体”的垂直中心重合后,将“胶囊体”的最底面高度Z设置为枝下高的高度。运用布尔运算中的求并集命令将两个部件连接成一个实例,最后将创建好的单株毛竹模型坐标位置移至坐标系统原点并选择保存对象。按照上述过程创建建模样本样地中所有可能的单株毛竹模型。
步骤三:假设将像元分解为n分量,则必须在所有调查的样地中随机选择大于等于n的样地数量作为建模样本,将样地内地面假设为平面,太阳光假设为相对于样地地面的平行光,用公式①-⑤在空间建模软件3DMax中建立样地模型,其中,公式①-②用于计算样地在模拟场景中的参数,公式③-⑤用于计算太阳相对于样地的位置;
坡长L的计算公式为:L=30/cos(α) ①
坡高H的计算公式为:H=30×tan(α) ②
a的计算公式为:a=-R×cos(α)×sin(180°-φ) ③
b的计算公式为:b=-R×cos(α)×cos(180°-φ) ④
c的计算公式为:c=R×sin(α)⑤
α表示样地的坡度,φ为样地的坡向;L和H分别表示样地的坡长和坡高;a,b,c分别为太阳在X,Y,Z坐标系统中的位置坐标;R为太阳与样地的距离。
具体到本毛竹林之例,则将毛竹林的混合像元分解为四分量,在所有调查的样地中随机选择大于等于4的样地数量作为建模样本,选择9个样地作为建模样本。将样地内地面假设为平面,太阳光假设为相对于样地地面的平行光,从遥感影像头文件中获得太阳的高度角和方位角,用公式①-⑤在空间建模软件3DMax中建立样地模型,其中,公式①-②用于计算样地在模拟场景中的参数,公式③-⑤用于计算太阳相对于样地的位置,如图3所示,图3中,N,S,E,W分别表示北,南,东,西方向;X,Y,Z分别表示坐标系统的方向轴;V表示传感器观察方向;β表示太阳高度角;其他符号同公式①-⑤中的符号含义。其中,在3DMax中对太阳设置“目标平行光”,因此,R可以取任意值。
步骤四:在空间建模软件3DMax中将简化后植被模型按照样地调查数据分别置于相应的场景中,用公式⑥计算植被模型在模拟样地内的高度坐标Z′,植被模型在样地内的X′和Y′坐标均由随机数产生,调用3DMax中的MAXScript脚本语言用语句⑦将随机产生的坐标赋给样地内的每一个植被模型;
Z′=X′×tan(α)+C ⑥
select$name;move$[p1,p2,p3];⑦
其中,X′为X轴的随机坐标;C为实测枝下高;name表示欲移动目标的名称;p1,p2,p3分别为在X,Y,Z轴方向上移动的距离。
具体到本毛竹林之例,则在空间建模软件3DMax中将简化后毛竹模型按照样地调查数据分别置于相应的场景中,导入的全部毛竹单株模型均在X,Y,Z坐标系的原点位置。用公式⑥计算毛竹模型在模拟样地内的高度坐标Z′,根据样地模型内实际的毛竹株数,在样地范围内产生毛竹模型在样地内位置的随机二维坐标X′和Y′,调用3DMax中的MAXScript脚本语言用语句⑦将随机产生的坐标赋给样地内的每一个植被模型。
步骤五:在3DMax中分别输出垂直视条件下有光照和无光照的场景影像,截取输出影像中样地中心50%正方形影像,统计截取影像中四分量的面积比例,得到模拟丰度值。
具体到本毛竹林之例,则使用简化的毛竹模型结合样地的方位以及影像成像时的太阳方位建立的真实场景模拟模型,如图4所示。在3DMax中选择视角,俯视的模拟样地如图5所示,可以看出模拟样地的边缘问题很明显,即光照方向一侧样地光照背景明显偏多,同时,许多树冠已经超出了样地的边界。解决方法是只计算样地中心50%正方形面积内的四分量比例作为整个像元的四分量面积比例,如图5样地内的方框所示。根据线性光谱混合理论,在任意波段任一像元的光谱反射率是其各分量光谱响应的线性和,同时,样地中心50%正方形面积内的四分量比例基本不受边缘影响。
图5a可以明显区分出植被承照面、背景承照面和阴影这三个分量,图5b中容易找到植被与非植被的分界面。分别通过3DMax中的渲染工具以俯视视角对有光源和无光源的模拟样地进行渲染,将渲染结果分别保存为图像文件,截取图像文件中样地中心50%正方形影像,通过分类与加减运算可以得到建模样本毛竹林四分量的面积比例。统计所有模拟样地的四分量的面积比例(模拟丰度值)。
步骤六:用公式⑧计算各端元的光谱反射率,
Ai=(XT·X)-1·XT·Fi ⑧
公式⑧中,Ai是第i波段的端元反射率向量,Fi是与用做建模样本的调查样地对应的n个像元第i波段的反射率向量,X为模拟丰度值。
具体到本毛竹林之例,则用公式⑧计算各端元的光谱反射率,由于本例将样地组分数定为4,因此必须满足n≥4时公式⑧才有恰定或超定方程的解。
公式⑨中,fi是第i波段的反射率;Aij是第i波段,第j分量(j=1,2,......,n)的端元反射率;xj为第j分量在这一像元的面积中所占比例;ei是这一像元在第i波段的误差项;约束条件如⑩-式。
xj≥0
本发明内容不仅限于毛竹林混合像元的四分量分解,也适用于其它森林类型或地物类型。另外,本发明所使用的操作软件也不仅限于3DMax建模软件,使用其他具有空间建模功能的软件也可以实现发明的目的。
Claims (1)
1.一种基于模拟真实场景的遥感影像像元分解方法,其特征在于按如下步骤进行:
(1)、在研究区域内设置调查样地,样地的大小等于所用遥感影像的空间分辨率,进行地面样地调查,获取目标植被的冠型、样地的地形地貌及方位参数;
(2)、简化目标植被的几何形状,使简化后植被的几何形状在空间建模工具软件中可以用尽量少的面片数描述;
(3)、假设将像元分解为n分量,则必须在所有调查的样地中随机选择大于等于n的样地数量作为建模样本,将样地内地面假设为平面,太阳光假设为相对于样地地面的平行光,用公式①-⑤在空间建模软件3DMax中建立样地模型,其中,公式①-②用于计算样地在模拟场景中的参数,公式③-⑤用于计算太阳相对于样地的位置;
坡长L的计算公式为:L=30/cos(α) ①
坡高H的计算公式为:H=30×tan(α) ②
a的计算公式为:a=-R×cos(α)×sin(180°-φ) ③
b的计算公式为:b=-R×cos(α)×cos(180°-φ) ④
c的计算公式为:c=R×sin(α) ⑤
α表示样地的坡度,φ为样地的坡向;L和H分别表示样地的坡长和坡高;a,b,c分别为太阳在X,Y,Z坐标系统中的位置坐标;R为太阳与样地的距离;
(4)、在空间建模软件3DMax中将简化后植被模型按照样地调查数据分别置于相应的场景中,用公式⑥计算植被模型在模拟样地内的高度坐标Z′,植被模型在样地内的X′和Y′坐标均由随机数产生,调用3DMax中的MAXScript脚本语言用语句⑦将随机产生的坐标赋给样地内的每一个植被模型;
Z′=X′×tan(α)+C ⑥
select$name;move$[p1,p2,p3]; ⑦
其中,X′为X轴的随机坐标;C为实测枝下高;name表示欲移动目标的名称;p1,p2,p3分别为在X,Y,Z轴方向上移动的距离;
(5)、在3DMax中分别输出垂直视条件下有光照和无光照的场景影像,截取输出影像中样地中心50%正方形影像,统计截取影像中四分量的面积比例,得到模拟丰度值;
(6)、用公式⑧计算各端元的光谱反射率,
Ai=(XT·X)-1·XT·Fi ⑧
公式⑧中,Ai是第i波段的端元反射率向量,Fi是与用做建模样本的调查样地对应的n个像元第i波段的反射率向量,X为模拟丰度值;
公式⑨中,fi是第i波段的反射率;Aij是第i波段,第j分量(j=1,2,......,n)的端元反射率;xj为第j分量在这一像元的面积中所占比例;ei是这一像元在第i波段的误差项;约束条件如⑩-式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2010100397959A CN101763655B (zh) | 2010-01-18 | 2010-01-18 | 基于模拟真实场景的遥感影像像元分解方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2010100397959A CN101763655B (zh) | 2010-01-18 | 2010-01-18 | 基于模拟真实场景的遥感影像像元分解方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101763655A true CN101763655A (zh) | 2010-06-30 |
CN101763655B CN101763655B (zh) | 2011-07-27 |
Family
ID=42494807
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2010100397959A Expired - Fee Related CN101763655B (zh) | 2010-01-18 | 2010-01-18 | 基于模拟真实场景的遥感影像像元分解方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101763655B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102270355A (zh) * | 2011-04-28 | 2011-12-07 | 华中科技大学 | 一种基于景物分类的红外场景图像生成方法 |
CN103150566A (zh) * | 2011-12-06 | 2013-06-12 | 中国科学院电子学研究所 | 一种基于随机几何模型的遥感地物目标自动检测方法 |
CN103218598A (zh) * | 2013-03-26 | 2013-07-24 | 中国科学院电子学研究所 | 一种基于随机几何模型的遥感地物目标自动检测方法 |
CN103324945A (zh) * | 2013-07-08 | 2013-09-25 | 南京大学 | 一种基于模式识别的森林点云分类方法 |
CN112768085A (zh) * | 2021-01-11 | 2021-05-07 | 中国人民解放军军事科学院军事医学研究院 | 一种现场流行病学调查与综合态势可视化分析方法及系统 |
-
2010
- 2010-01-18 CN CN2010100397959A patent/CN101763655B/zh not_active Expired - Fee Related
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102270355A (zh) * | 2011-04-28 | 2011-12-07 | 华中科技大学 | 一种基于景物分类的红外场景图像生成方法 |
CN103150566A (zh) * | 2011-12-06 | 2013-06-12 | 中国科学院电子学研究所 | 一种基于随机几何模型的遥感地物目标自动检测方法 |
CN103218598A (zh) * | 2013-03-26 | 2013-07-24 | 中国科学院电子学研究所 | 一种基于随机几何模型的遥感地物目标自动检测方法 |
CN103324945A (zh) * | 2013-07-08 | 2013-09-25 | 南京大学 | 一种基于模式识别的森林点云分类方法 |
CN103324945B (zh) * | 2013-07-08 | 2016-12-28 | 南京大学 | 一种基于模式识别的森林点云分类方法 |
CN112768085A (zh) * | 2021-01-11 | 2021-05-07 | 中国人民解放军军事科学院军事医学研究院 | 一种现场流行病学调查与综合态势可视化分析方法及系统 |
CN112768085B (zh) * | 2021-01-11 | 2024-04-26 | 中国人民解放军军事科学院军事医学研究院 | 一种现场流行病学调查与综合态势可视化分析方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN101763655B (zh) | 2011-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Réjou-Méchain et al. | Upscaling forest biomass from field to satellite measurements: sources of errors and ways to reduce them | |
Gastellu-Etchegorry et al. | DART: recent advances in remote sensing data modeling with atmosphere, polarization, and chlorophyll fluorescence | |
Schneider et al. | Simulating imaging spectrometer data: 3D forest modeling based on LiDAR and in situ data | |
Kokalj et al. | Application of sky-view factor for the visualisation of historic landscape features in lidar-derived relief models | |
Lewis | Three-dimensional plant modelling for remote sensing simulation studies using the Botanical Plant Modelling System | |
Laurent et al. | Bayesian object-based estimation of LAI and chlorophyll from a simulated Sentinel-2 top-of-atmosphere radiance image | |
Small | Estimation of urban vegetation abundance by spectral mixture analysis | |
Laurent et al. | Estimating forest variables from top-of-atmosphere radiance satellite measurements using coupled radiative transfer models | |
Yaney-Keller et al. | Using Unmanned Aerial Systems (UAS) to assay mangrove estuaries on the Pacific coast of Costa Rica | |
Asner et al. | Unmixing the directional reflectances of AVHRR sub-pixel landcovers | |
CN101763655B (zh) | 基于模拟真实场景的遥感影像像元分解方法 | |
Kuester et al. | Simulation of multitemporal and hyperspectral vegetation canopy bidirectional reflectance using detailed virtual 3-D canopy models | |
Wu et al. | Estimation of cotton canopy parameters based on unmanned aerial vehicle (UAV) oblique photography | |
Ma et al. | Characterizing the three-dimensional spatiotemporal variation of forest photosynthetically active radiation using terrestrial laser scanning data | |
Jin et al. | Combining 3D radiative transfer model and convolutional neural network to accurately estimate forest canopy cover from very high-resolution satellite images | |
Morsdorf et al. | The laegeren site: An augmented forest laboratory: combining 3-D reconstruction and radiative transfer models for trait-based assessment of functional diversity | |
Sties et al. | Comparison of digital elevation data from airborne laser and interferometric SAR systems | |
Teixeira et al. | Evaluation of the radiometric accuracy of images obtained by a Sequoia multispectral camera | |
Couteron et al. | Linking remote-sensing information to tropical forest structure: The crucial role of modelling | |
Danoedoro et al. | Combining pan-sharpening and forest cover density transformation methods for vegetation mapping using Landsat-8 Satellite Imagery | |
Chabrillat et al. | Prediction of common surface soil properties using airborne and simulated EnMAP hyperspectral images: Impact of soil algorithm and sensor characteristic | |
Rojo et al. | Development of a dynamic model to estimate canopy par interception | |
Fernández-Sarría et al. | Estimation of walnut structure parameters using terrestrial photogrammetry based on structure-from-motion (SfM) | |
Proisy et al. | Mangrove forest dynamics using very high spatial resolution optical remote sensing | |
RU2424540C2 (ru) | Способ определения параметров состояния почвенно-растительного покрова по данным многоспектрального аэрокосмического зондирования |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20110727 Termination date: 20210118 |