CN108229261A - 遥感图像检测方法、装置和计算机设备 - Google Patents

遥感图像检测方法、装置和计算机设备 Download PDF

Info

Publication number
CN108229261A
CN108229261A CN201611198657.9A CN201611198657A CN108229261A CN 108229261 A CN108229261 A CN 108229261A CN 201611198657 A CN201611198657 A CN 201611198657A CN 108229261 A CN108229261 A CN 108229261A
Authority
CN
China
Prior art keywords
remote sensing
target object
sensing images
probability
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201611198657.9A
Other languages
English (en)
Inventor
李聪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Priority to CN201611198657.9A priority Critical patent/CN108229261A/zh
Publication of CN108229261A publication Critical patent/CN108229261A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了遥感图像检测方法和装置。该方法的一具体实施方式包括:将遥感图像数据输入深度神经网络模型进行目标对象检测;根据目标对象特征确定遥感图像中每个像素属于目标对象的概率;根据概率,确定遥感图像中包括有目标对象的区域。该实施方式能够快速、准确地检测遥感图像中的对象。

Description

遥感图像检测方法、装置和计算机设备
技术领域
本申请涉及计算机技术领域,具体涉及遥感技术领域,尤其涉及遥感图像检测方法和装置。
背景技术
随着各种越来越高空间、时间、光谱分辨率卫星发射升空,基于卫星的遥感数据开始被广泛应用到各个领域,极大提升信息获取效率,促进行业发展。从遥感数据上对指定物体进行检测提取一直是各领域应用热点,尤其是军事领域中对敏感目标的检测。
由于遥感数据通常尺寸较大,受分辨率制约物体在影像上的成像较小,甚至只有几个像素大小,即使是进行目视解译也需要综合多种信息的较长时间考量。
发明内容
本申请的目的在于提出一种遥感图像检测方法和装置,来解决以上背景技术部分提到的技术问题。
第一方面,本申请提供了一种遥感图像检测方法,该方法包括:将遥感图像数据输入深度神经网络模型进行目标对象检测;根据目标对象特征确定遥感图像中每个像素属于目标对象的概率;根据概率,确定遥感图像中包括有目标对象的区域。
在一些实施例中,遥感图像包括未标注的遥感图像数据。
在一些实施例中,基于深度神经网络模型提取遥感图像包括的目标对象特征,包括:基于深度神经网络模型提取未标注的遥感图像数据的特征;以及根据目标对象特征确定遥感图像中每个像素属于目标对象的概率,包括:根据未标注的遥感图像数据的特征,确定遥感图像中每个像素属于目标对象的概率。
在一些实施例中,根据概率,确定遥感图像中包括有目标对象的区域,包括:根据属于目标对象的概率大于预设阈值的多个像素的位置确定目标对象区域。
在一些实施例中,根据概率,确定遥感图像中包括有目标对象的区域,还包括:通过形态学确定遥感图像中包括目标对象的区域中目标对象的边界;对目标对象的边界进行回归,得到目标对象的位置和/或尺寸。
在一些实施例中,该方法还包括:根据遥感图像中包括目标对象的区域的数量,确定未标注的遥感图像数据中的目标对象的数量。
在一些实施例中,遥感图像包括已标注的遥感图像数据。
在一些实施例中,该方法还包括采用下述步骤预先训练深度神经网络模型:将已标注的遥感图像数据作为训练数据输入深度神经网络模型;确定深度神经网络模型的输出结果和已标注的遥感图像数据之间的损失值;根据损失值调整深度神经网络模型的参数。
在一些实施例中,深度神经网络模型是卷积神经网络。
在一些实施例中,未标注的遥感图像数据的数据类别和已标注的遥感图像数据的数据类别相同。
在一些实施例中,未标注的遥感图像数据和已标注的遥感图像数据的数据类别包括以下至少之一:全色数据、多光谱数据、全色数据和多光谱数据的融合图像数据。
第二方面,本申请提供了一种遥感图像检测装置,该装置包括:提取单元,用于基于深度神经网络模型提取遥感图像包括的目标对象特征;第一确定单元,用于根据目标对象特征确定遥感图像中每个像素属于目标对象的概率;第二确定单元,用于根据概率,确定遥感图像中包括有目标对象的区域。
在一些实施例中,遥感图像包括未标注的遥感图像数据。
在一些实施例中,提取单元进一步用于:基于深度神经网络模型提取未标注的遥感图像数据的特征;以及第一确定单元进一步用于根据未标注的遥感图像数据的特征,确定遥感图像中每个像素属于目标对象的概率。
在一些实施例中,第二确定单元进一步用于:根据属于目标对象的概率大于预设阈值的多个像素的位置确定目标对象区域。
在一些实施例中,第二确定单元进一步用于:通过形态学确定遥感图像中包括目标对象的区域中目标对象的边界;对目标对象的边界进行回归,得到目标对象的位置和/或尺寸。
在一些实施例中,该装置还包括对象数量确定单元,用于:根据遥感图像中包括目标对象的区域的数量确定未标注的遥感图像数据中的目标对象的数量。
在一些实施例中,遥感图像包括已标注的遥感图像数据。
在一些实施例中,该装置包括深度神经网络模型训练单元:将已标注的遥感图像数据作为训练数据输入深度神经网络模型;确定深度神经网络模型的输出结果和已标注的遥感图像数据之间的损失值;根据损失值调整深度神经网络模型的参数。
在一些实施例中,该深度神经网络模型是卷积神经网络。
在一些实施例中,未标注的遥感图像数据的数据类别和已标注的遥感图像数据的数据类别相同。
在一些实施例中,未标注的遥感图像数据和已标注的遥感图像数据的数据类别包括以下至少之一:全色数据、多光谱数据、全色数据和多光谱数据的融合图像数据。
第三方面,本申请提供了一种计算机设备,其特征在于,包括:存储器,存储可执行指令;一个或多个处理器,与存储器通信以执行可执行指令从而完成以下操作:基于深度神经网络模型提取遥感图像包括的目标对象特征;根据目标对象特征确定遥感图像中每个像素属于目标对象的概率;根据概率,确定遥感图像中包括有目标对象的区域。
本申请提供的遥感图像检测方法和装置,采用深度神经网络对遥感图像进行对象检测,提取目标对象特征并得到遥感图像中每个像素属于目标对象的概率从而确定出遥感图像中包括有目标对象的区域,能够快速、准确地识别出遥感图像中的对象,提升检测目标对象的效率和精度。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的遥感图像检测方法的一个实施例的流程图;
图3a、3b是根据本申请的遥感图像检测方法的一个应用场景的示意图;
图4是根据本申请的遥感图像检测方法的生成深度神经网络模型的网络结构图;
图5是根据本申请的遥感图像检测方法的生成对象深度神经网络模型的网络结构图;
图6是根据本申请的遥感图像检测装置的一个实施例的结构示意图;
图7是适于用来实现本申请实施例的终端设备或服务器的电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的遥感图像检测方法或遥感图像检测装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101(航拍对象)、终端设备102(人造卫星),网络103和服务器104。网络103用以在终端设备101、102和服务器104之间提供通信链路的介质。网络103可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102通过网络103与服务器104交互,以接收或发送消息等。终端设备101、102是用来搭载传感器的运载工具,常用的有气球、对象和人造卫星等,从远距离获取目标物体的电磁波特性,通过该信息的传输、贮存、卫星、修正、识别目标物体,最终实现其功能(定时、定位、定性、定量)。传感器是用来探测目标物电磁波特性的仪器设备,常用的有照相机、扫描仪和成像雷达等。
服务器104可以是提供各种服务的服务器,例如从终端设备101、102上搭载的传感器获取遥感图像的后台图像处理服务器。后台图像处理服务器可以对接收到的遥感图像等数据进行分析等处理,并将处理结果(例如对象检测结果)输出。
需要说明的是,本申请实施例所提供的遥感图像检测方法一般由服务器104执行,相应地,遥感图像检测装置一般设置于服务器104中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的遥感图像检测方法的一个实施例的流程200。所述的方法,包括以下步骤:
步骤201,基于深度神经网络模型提取遥感图像包括的目标对象特征。
在本实施例中,基于深度神经网络模型提取遥感图像包括的目标对象特征。该深度神经网络模型可以包括FCNN(Fast Convolutional Neural Networks,快速卷积神经网络),用于提取用于分类的稳定的、具有局部平移旋转不变性、包含多尺度信息、鲁棒性等能力的对象特征。目标对象可以是例如飞机、船、车辆、储油罐、坦克等等。对象特征可包括对象的颜色、纹理、高度、温度、阴影、方向变化等特征。
步骤202,根据目标对象特征确定遥感图像中每个像素属于目标对象的概率。
在本实施例中,根据目标对象特征确定每一像素属于目标对象的概率,例如,根据像素的颜色、纹理、阴影、方向变化可以确定出该像素属于云的概率为30%,属于雪的概率为70%。
步骤203,根据该概率,确定遥感图像中包括有目标对象的区域。
在本实施例中,该概率为每个像素点表示该像素点属于目标对象的概率,可以据此生成概率分布图(如图3a所示),图中颜色越浅表示该像素点属于目标对象的区域的概率越大。
本申请的上述实施例提供的方法基于深度神经网络模型得到对象区域,从而快速、准确地检测出对象。而现有技术中,基于先验特征的自动检测技术很难准确地检测像素较小的区域,因此无法快速、准确地检测出对象。由于目标对象的遥感图像尺度较大(通常大小在几万*几万),传统滑动框遍历方法耗时太久,即使是使用选择性搜索方法的RCNN(Region Based Convolutional Neural Networks,基于区域的卷积神经网络)方案也会因为产生过的建议而降低检测效率,基于此本申请提出级联FCNN的对象检测方案。可以首先采用FCNN网络对降采样的原始影像进行对象检测,生成对象影像,作为第二步对象检测的输入数据,然后依然进行FCNN网络的网络检测。
在本实施例的一些可选的实现方式中,遥感图像包括未标注的遥感图像数据。可以通过上述方法确定未标注的遥感图像数据是否属于目标对象。
在本实施例的一些可选的实现方式中,基于深度神经网络模型提取未标注的遥感图像数据的特征;根据未标注的遥感图像数据的特征,确定未标注的遥感图像数据中每个像素属于目标对象的概率。因此,可以无需手工标注即可确定出未标注的遥感图像数据中每个像素属于目标对象的概率,可以降低人力成本。
在本实施例的一些可选的实现方式中,根据概率,确定遥感图像中包括有目标对象的区域,包括:根据属于目标对象的概率大于预设阈值的多个像素的位置确定目标对象区域。对于不同的目标对象所需要使用的像素点个数不同,例如,对于道路检测时,可以至少使用2个像素点来确定一条窄路,可将概率大于50%的2个像素的位置确定的直线确定为目标对象道路区域。对于占地范围比较大的目标对象例如飞机可至少使用3个像素的位置确定目标对象区域。使用的像素点越多则得到的目标对象区域越精确。还可以设置更高的阈值以获得准确度更高的结果。
在本实施例的一些可选的实现方式中,根据遥感图像中每个像素点属于目标对象的概率,确定所述遥感图像中包括有目标对象的区域,还包括:通过形态学确定遥感图像中包括目标对象的区域中目标对象的边界;对目标对象的边界进行回归,得到目标对象的位置和/或尺寸。形态学一般是使用二值图像,进行边界提取,骨架提取,孔洞填充,角点提取,图像重建。形态学运算用于边缘检测,它对与结构元素同方向的边缘敏感,而与其不同方向的边缘(或噪声)会被平滑掉,即边缘的方向可以由结构元素的形状确定。在边缘检测中,可以考虑用多方位的形态结构元素,运用不同的结构元素的逻辑组合检测出不同方向的边缘。例如,使用条件随机场(conditional random field,CRF)标注遥感图像。如同马尔科夫随机场,条件随机场为无向性之图模型,图中的顶点代表随机变量,顶点间的连线代表随机变量间的相依关系,在条件随机场当中,随机变量Y的分布为条件机率,给定的观察值则为随机变量X。原则上,条件随机场的图模型布局是可以任意给定的,一般常用的布局是链结式的架构,链结式架构不论在训练(training)、推论(inference)、或是解码(decoding)上,都存在有效率的算法可供演算。
因为可以通过每个像素点直接确定目标对象区域的边界,因此不需要像在先技术一样,划定推荐区域(proposal),就可以直接得到目标对象区域的位置和尺寸,省略了调整proposal位置和判断其类别的过程。
在本实施例的一些可选的实现方式中,根据遥感图像中包括目标对象的区域的数量确定未标注的遥感图像数据中的目标对象的数量。以便后续统计时使用。
在本实施例的一些可选的实现方式中,遥感图像包括已标注的遥感图像数据,可以作为训练深度神经网络的样本。
在本实施例的一些可选的实现方式中,该方法包括训练深度神经网络模型的步骤:将已标注的遥感图像数据作为训练数据输入深度神经网络模型;确定深度神经网络模型的输出结果和已标注的遥感图像数据之间的损失值。根据损失值调整深度神经网络模型的参数。生成的深度神经网络模型可用于后续的遥感图像检测,从而简化了遥感图像检测步骤,并且可积累样本数据以进一步优化深度神经网络模型。
在本实施例的一些可选的实现方式中,深度神经网络模型是卷积神经网络。卷积神经网络是一种人工神经网络。卷积神经网络通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。深度学习的实质,是通过构建具有很多隐层的机器学习模型和海量的训练数据,来学习更有用的特征,从而最终提升分类或预测的准确性。与人工规则构造特征的方法相比,利用大数据来学习特征,更能够刻画数据的丰富内在信息。
在本实施例的一些可选的实现方式中,未标注的遥感图像数据的数据类别和已标注的遥感图像数据的数据类别相同。采用同样类别的数据可以简化处理过程并且可以达到更好的检测效果。
在本实施例的一些可选的实现方式中,未标注的遥感图像数据和已标注的遥感图像数据的数据类别包括以下至少之一:全色数据、多光谱数据、全色数据和多光谱数据的融合图像数据。同一光学遥感卫星常常会获取全色与多光谱两种数据。前者有较高空间分辨率,保证了数据的空间几何信息;后者有较高光谱分辨率,保证了数据中更丰富的光谱信息。全色数据和多光谱数据的融合图像将全色与多光谱数据进行融合,能够更好的从这些数据中挖掘信息,结合两类数据的空间分辨率优势和光谱分辨率优势,因此全色与多光谱数据的融合图像的效果比全色数据和多光谱数据的效果好。
继续参见图3a、3b,图3a、3b是根据本实施例的遥感图像检测方法的应用场景的一个示意图。在图3a的应用场景中,用户将左图所示的包含飞机杨的原始遥感图像输入到预先训练的深度神经网络模型中,根据该模型输出的飞机场信息绘制出右图所示的飞机的像素概率分布图,从右图中可以清楚地看到遥感图像中存在的飞机。在图3b的应用场景中,用户城市市区的遥感图像输入到预先训练的深度神经网络模型中,根据该模型输出的像素概率信息绘制出市区地图。
进一步参考图4,图4为一种深度神经网络模型的网络结构,可用于检测目标对象,例如飞机场,包括:
数据:全色数据和/或多光谱数据和/或全色数据和多光谱数据的融合图像数据;
Conv1-1、1-2、2-1、2-2、3-1、3-2、3-3、4-1、4-2、4-3为卷积层,卷积核大小3×3,步长(stride)为2;
池化层(Pooling)1\2\3,池化区间为3×3,步长为2,孔(hole)为默认值1;
池化层4\5,池化区间为3×3,步长为1,孔为2。添加大小为2的孔,在保证图像大小不变的情况下,增加感受野范围;
fc5为卷积层,卷积核大小1×1,步长为1;
fc6为卷积层,卷积核大小1×1,步长为1;
丢弃层,为了避免参数过多造成过拟合现象,对参数进行丢弃操作,使部分参数不参与工作,从而获得在数据处理过程中更稳定的模型;
BN(Batch Normalization),为归一化处理层,可以实现对卷积层提取特征的归一化操作,避免了由各特征值域范围不同而导致的优化困难,使模型能够更快得到收敛;
ReLU(Rectified Liner Limit),为纠正线性单元处理层,在保证模型能够更方便训练的同时,对特征进行类似非线性的映射,提升模型表示的复杂度,同时令输出相应变得更加稀疏,一定程度上也可以加速收敛;
Conv层、BN层、ReLU层、池化层、丢弃层实现了对图像特征的提取;
标记,用于将像素属于对象的概率大于预设的阈值的像素位置标记为对象区域;
将标记结果和提取到的对象特征结合起来通过回归算法得到对象区域。回归算法可以采用softmax回归,其中,对象或对象的检测为2分类问题。
进一步参考图5,图5为深度神经网络模型的另一种网络结构,可用于在检测一个目标对象的基础上再对该目标对象范围内的另一个目标对象进行检测,例如检测飞机,包括:
数据:全色数据和/或多光谱数据和/或全色数据和多光谱数据的融合图像数据;
Conv(1_1~4_3),卷积层;
池化层1~5;
fc5/6,卷积层与图4一致;
data_conv、p1_conv、p2_conv、p3_conv为卷积层,卷积核大小3×3,步长为1;
data_fc\p1_fc\p2_fc\p3_fc为卷积层,卷积核大小1×1,步长为1;
data_ms\p1_ms\p2_ms\p3_ms\为卷积层,卷积核大小1×1,步长为1;
BN层、ReLU层、丢弃层与图4相同,Conv层、BN层、ReLU层、池化层、丢弃层实现了对图像特征的提取。
data_ms\p1_ms\p2_ms\p3_ms可以提取不同尺度特征,尤其对类似对象的微小物体检测,浅层信息尤为重要,所以该网络对各尺度信息进行了融合,最后实现对对象的敏锐检测。
池化融合与卷积融合为加和操作,是对像素级特征进行相加,例如xi为进行相加操作的各个特征,m为特征个数,yi为相加即融合后的输出特征。
如图6所示,本实施例的装置600包括:提取单元601、第一确定单元602和第二确定单元603。其中,提取单元601用于基于深度神经网络模型提取遥感图像包括的目标对象特征;第一确定单元602用于根据目标对象特征确定遥感图像中每个像素属于目标对象的概率;第二确定单元603用于根据概率,确定遥感图像中包括有目标对象的区域。
在本实施例中,提取单元601从遥感图像中提取目标对象特征。
在本实施例中,第一确定单元602根据提取单元601提取的目标对象特征确定遥感图像中每个像素属于目标对象的概率。
在本实施例中,第二确定单元603根据第一确定单元602得到的概率,确定遥感图像中包括有目标对象的区域。
在本实施例的一些可选的实现方式中,遥感图像包括未标注的遥感图像数据。
在本实施例的一些可选的实现方式中,提取单元601进一步用于:基于深度神经网络模型提取所述未标注的遥感图像数据的特征;以及所述第一确定单元进一步用于根据所述未标注的遥感图像数据的特征,确定所述遥感图像中每个像素属于所述目标对象的概率。
在本实施例的一些可选的实现方式中,第二确定单元603进一步用于:将属于所述目标对象的概率大于预设阈值的多个像素的位置确定为目标对象区域。
在本实施例的一些可选的实现方式中,第二确定单元603进一步用于:通过形态学确定遥感图像中包括目标对象的区域中目标对象的边界;对目标对象的边界进行回归,得到目标对象的位置和/或尺寸。
在本实施例的一些可选的实现方式中,根据遥感图像中包括目标对象的区域的数量确定未标注的遥感图像数据中的目标对象的数量。
在本实施例的一些可选的实现方式中,遥感图像包括已标注的遥感图像数据。
在本实施例的一些可选的实现方式中,装置600包括深度神经网络模型训练单元(未示出),包括:将已标注的遥感图像数据作为训练数据输入深度神经网络模型;确定深度神经网络模型的输出结果和已标注的遥感图像数据之间的损失值;根据损失值调整深度神经网络模型的参数。
在本实施例的一些可选的实现方式中,深度神经网络模型是卷积神经网络。
在本实施例的一些可选的实现方式中,未标注的遥感图像数据的数据类别和已标注的遥感图像数据的数据类别相同。
在本实施例的一些可选的实现方式中,未标注的遥感图像数据和已标注的遥感图像数据的数据类别包括以下至少之一:全色数据、多光谱数据、全色数据和多光谱数据的融合图像数据。
本发明实施例还提供了一种电子设备,例如可以是移动终端、个人计算机(PC)、平板电脑、服务器等。下面参考图7,其示出了适于用来实现本申请实施例的终端设备或服务器的电子设备700的结构示意图:如图7所示,计算机系统700包括一个或多个处理器、通信部等,所述一个或多个处理器例如:一个或多个中央处理单元(CPU)701,和/或一个或多个图像处理器(GPU)713等,处理器可以根据存储在只读存储器(ROM)702中的可执行指令或者从存储部分708加载到随机访问存储器(RAM)703中的可执行指令而执行各种适当的动作和处理。通信部712可包括但不限于网卡,所述网卡可包括但不限于IB(Infiniband)网卡,
处理器可与只读存储器702和/或随机访问存储器630中通信以执行可执行指令,通过总线704与通信部712相连、并经通信部712与其他目标设备通信,从而完成本申请实施例提供的任一项方法对应的操作,例如,将遥感图像数据输入深度神经网络模型进行目标对象检测;根据目标对象特征确定遥感图像中每个像素属于目标对象的概率;根据概率,确定遥感图像中包括有目标对象的区域。
此外,在RAM 703中,还可存储有装置操作所需的各种程序和数据。CPU701、ROM702以及RAM703通过总线704彼此相连。在有RAM703的情况下,ROM702为可选模块。RAM703存储可执行指令,或在运行时向ROM702中写入可执行指令,可执行指令使处理器701执行上述通信方法对应的操作。输入/输出(I/O)接口705也连接至总线704。通信部712可以集成设置,也可以设置为具有多个子模块(例如多个IB网卡),并在总线链接上。
以下部件连接至I/O接口705:包括键盘、鼠标等的输入部分706;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分707;包括硬盘等的存储部分708;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分709。通信部分709经由诸如因特网的网络执行通信处理。驱动器710也根据需要连接至I/O接口705。可拆卸介质711,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器710上,以便于从其上读出的计算机程序根据需要被安装入存储部分708。
需要说明的,如图7所示的架构仅为一种可选实现方式,在具体实践过程中,可根据实际需要对上述图7的部件数量和类型进行选择、删减、增加或替换;在不同功能部件设置上,也可采用分离设置或集成设置等实现方式,例如GPU和CPU可分离设置或者可将GPU集成在CPU上,通信部可分离设置,也可集成设置在CPU或GPU上,等等。这些可替换的实施方式均落入本发明公开的保护范围。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括有形地包含在机器可读介质上的计算机程序,计算机程序包含用于执行流程图所示的方法的程序代码,程序代码可包括对应执行本申请实施例提供的方法步骤对应的指令,例如,将遥感图像数据输入深度神经网络模型进行目标对象检测;根据目标对象特征确定遥感图像中每个像素属于目标对象的概率;根据概率,确定遥感图像中包括有目标对象的区域。在这样的实施例中,该计算机程序可以通过通信部分709从网络上被下载和安装,和/或从可拆卸介质711被安装。在该计算机程序被中央处理单元(CPU)701执行时,执行本申请的方法中限定的上述功能。
可能以许多方式来实现本发明的方法和装置、设备。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本发明的方法和装置、设备。用于方法的步骤的上述顺序仅是为了进行说明,本发明的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本发明实施为记录在记录介质中的程序,这些程序包括用于实现根据本发明的方法的机器可读指令。因而,本发明还覆盖存储用于执行根据本发明的方法的程序的记录介质。
本发明的描述是为了示例和描述起见而给出的,而并不是无遗漏的或者将本发明限于所公开的形式。很多修改和变化对于本领域的普通技术人员而言是显然的。选择和描述实施例是为了更好说明本发明的原理和实际应用,并且使本领域的普通技术人员能够理解本发明从而设计适于特定用途的带有各种修改的各种实施例。

Claims (10)

1.一种遥感图像检测方法,其特征在于,所述方法包括:
基于深度神经网络模型提取遥感图像包括的目标对象特征;
根据所述目标对象特征确定所述遥感图像中每个像素属于所述目标对象的概率;
根据所述概率,确定所述遥感图像中包括有目标对象的区域。
2.根据权利要求1所述的方法,其特征在于,所述遥感图像包括未标注的遥感图像数据。
3.根据权利要求2所述的方法,其特征在于,所述基于深度神经网络模型提取遥感图像包括的目标对象特征,包括:
基于深度神经网络模型提取所述未标注的遥感图像数据的特征;以及
所述根据所述目标对象特征确定所述遥感图像中每个像素属于所述目标对象的概率,包括:根据所述未标注的遥感图像数据的特征,确定所述遥感图像中每个像素属于所述目标对象的概率。
4.根据权利要求1-3任一所述的方法,其特征在于,所述根据所述概率,确定所述遥感图像中包括有目标对象的区域,包括:
根据属于所述目标对象的概率大于预设阈值的多个像素的位置确定所述目标对象区域。
5.根据权利要求1-4任一所述的方法,其特征在于,所述根据所述概率,确定所述遥感图像中包括有目标对象的区域,还包括:
通过形态学确定所述遥感图像中包括所述目标对象的区域中所述目标对象的边界;
对所述目标对象的边界进行回归,得到所述目标对象的位置和/或尺寸。
6.一种遥感图像检测装置,其特征在于,所述装置包括:
提取单元,用于基于深度神经网络模型提取遥感图像包括的目标对象特征;
第一确定单元,用于根据所述目标对象特征确定所述遥感图像中每个像素属于所述目标对象的概率;
第二确定单元,用于根据所述概率,确定所述遥感图像中包括有目标对象的区域。
7.根据权利要求6所述的装置,其特征在于,所述遥感图像包括未标注的遥感图像数据。
8.根据权利要求7所述的装置,其特征在于,所述提取单元进一步用于:
基于深度神经网络模型提取所述未标注的遥感图像数据的特征;以及
所述第一确定单元进一步用于根据所述未标注的遥感图像数据的特征,确定所述遥感图像中每个像素属于所述目标对象的概率。
9.根据权利要求6-8任一所述的装置,其特征在于,所述第二确定单元进一步用于:
根据属于所述目标对象的概率大于预设阈值的多个像素的位置确定所述目标对象区域。
10.一种计算机设备,其特征在于,包括:
存储器,存储可执行指令;
一个或多个处理器,与存储器通信以执行可执行指令从而完成以下操作:
基于深度神经网络模型提取遥感图像包括的目标对象特征;
根据所述目标对象特征确定所述遥感图像中每个像素属于所述目标对象的概率;
根据所述概率,确定所述遥感图像中包括有目标对象的区域。
CN201611198657.9A 2016-12-22 2016-12-22 遥感图像检测方法、装置和计算机设备 Pending CN108229261A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611198657.9A CN108229261A (zh) 2016-12-22 2016-12-22 遥感图像检测方法、装置和计算机设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611198657.9A CN108229261A (zh) 2016-12-22 2016-12-22 遥感图像检测方法、装置和计算机设备

Publications (1)

Publication Number Publication Date
CN108229261A true CN108229261A (zh) 2018-06-29

Family

ID=62657029

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611198657.9A Pending CN108229261A (zh) 2016-12-22 2016-12-22 遥感图像检测方法、装置和计算机设备

Country Status (1)

Country Link
CN (1) CN108229261A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109801265A (zh) * 2018-12-25 2019-05-24 国网河北省电力有限公司电力科学研究院 一种基于卷积神经网络的实时输电设备异物检测系统
CN111179166A (zh) * 2019-12-09 2020-05-19 平安国际智慧城市科技股份有限公司 图像处理方法、装置、设备及计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6901110B1 (en) * 2000-03-10 2005-05-31 Obvious Technology Systems and methods for tracking objects in video sequences
CN101276420A (zh) * 2008-04-17 2008-10-01 中国科学院地理科学与资源研究所 一种融合光谱信息和多点模拟空间信息的分类方法
CN102646200A (zh) * 2012-03-08 2012-08-22 武汉大学 多分类器自适应权值融合的影像分类方法及系统
CN104915636A (zh) * 2015-04-15 2015-09-16 北京工业大学 基于多级框架显著性特征的遥感影像道路识别方法
CN105844228A (zh) * 2016-03-21 2016-08-10 北京航空航天大学 一种基于卷积神经网络的遥感图像云检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6901110B1 (en) * 2000-03-10 2005-05-31 Obvious Technology Systems and methods for tracking objects in video sequences
CN101276420A (zh) * 2008-04-17 2008-10-01 中国科学院地理科学与资源研究所 一种融合光谱信息和多点模拟空间信息的分类方法
CN102646200A (zh) * 2012-03-08 2012-08-22 武汉大学 多分类器自适应权值融合的影像分类方法及系统
CN104915636A (zh) * 2015-04-15 2015-09-16 北京工业大学 基于多级框架显著性特征的遥感影像道路识别方法
CN105844228A (zh) * 2016-03-21 2016-08-10 北京航空航天大学 一种基于卷积神经网络的遥感图像云检测方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109801265A (zh) * 2018-12-25 2019-05-24 国网河北省电力有限公司电力科学研究院 一种基于卷积神经网络的实时输电设备异物检测系统
CN109801265B (zh) * 2018-12-25 2020-11-20 国网河北省电力有限公司电力科学研究院 一种基于卷积神经网络的实时输电设备异物检测系统
CN111179166A (zh) * 2019-12-09 2020-05-19 平安国际智慧城市科技股份有限公司 图像处理方法、装置、设备及计算机可读存储介质
CN111179166B (zh) * 2019-12-09 2023-06-09 平安国际智慧城市科技股份有限公司 图像处理方法、装置、设备及计算机可读存储介质

Similar Documents

Publication Publication Date Title
US10607362B2 (en) Remote determination of containers in geographical region
US10192323B2 (en) Remote determination of containers in geographical region
Ma et al. Fully convolutional network for rice seedling and weed image segmentation at the seedling stage in paddy fields
Bao et al. Multi-scale structured CNN with label consistency for brain MR image segmentation
Zhao et al. On combining multiscale deep learning features for the classification of hyperspectral remote sensing imagery
Lu et al. Multi-scale strip pooling feature aggregation network for cloud and cloud shadow segmentation
Rahaman et al. An efficient multilevel thresholding based satellite image segmentation approach using a new adaptive cuckoo search algorithm
Cao et al. Automatic change detection in high-resolution remote-sensing images by means of level set evolution and support vector machine classification
Zhang et al. Multi-scale segmentation approach for object-based land-cover classification using high-resolution imagery
Abdollahi et al. Extraction of road features from UAV images using a novel level set segmentation approach
Ghanea et al. Automatic building extraction in dense urban areas through GeoEye multispectral imagery
EP3553700A2 (en) Remote determination of containers in geographical region
Yue et al. Texture extraction for object-oriented classification of high spatial resolution remotely sensed images using a semivariogram
CN109858494A (zh) 一种低对比度图像中显著性目标检测方法及装置
Zhang et al. Level set evolution with local uncertainty constraints for unsupervised change detection
CN110119460A (zh) 图像检索方法、装置及电子设备
Li et al. Unsupervised road extraction via a Gaussian mixture model with object-based features
Jian et al. A hypergraph-based context-sensitive representation technique for VHR remote-sensing image change detection
Zheng et al. Segmentation for remote-sensing imagery using the object-based Gaussian-Markov random field model with region coefficients
Zhou et al. SVM-based soft classification of urban tree species using very high-spatial resolution remote-sensing imagery
Song et al. Small UAV-based multi-temporal change detection for monitoring cultivated land cover changes in mountainous terrain
Skurikhin et al. Arctic tundra ice-wedge landscape characterization by active contours without edges and structural analysis using high-resolution satellite imagery
CN108229261A (zh) 遥感图像检测方法、装置和计算机设备
Dong et al. A cloud detection method for GaoFen-6 wide field of view imagery based on the spectrum and variance of superpixels
Miao et al. Road centreline extraction from classified images by using the geodesic method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20180629

RJ01 Rejection of invention patent application after publication