CN117649602A - 基于人工智能的图像处理方法及系统 - Google Patents

基于人工智能的图像处理方法及系统 Download PDF

Info

Publication number
CN117649602A
CN117649602A CN202311670088.3A CN202311670088A CN117649602A CN 117649602 A CN117649602 A CN 117649602A CN 202311670088 A CN202311670088 A CN 202311670088A CN 117649602 A CN117649602 A CN 117649602A
Authority
CN
China
Prior art keywords
image
matrix
migration
nodes
synthetic aperture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311670088.3A
Other languages
English (en)
Other versions
CN117649602B (zh
Inventor
缪晓东
郭晓燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yandong Technology Guangdong Co ltd
Original Assignee
Yandong Technology Guangdong Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yandong Technology Guangdong Co ltd filed Critical Yandong Technology Guangdong Co ltd
Priority to CN202311670088.3A priority Critical patent/CN117649602B/zh
Publication of CN117649602A publication Critical patent/CN117649602A/zh
Application granted granted Critical
Publication of CN117649602B publication Critical patent/CN117649602B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及图像处理技术领域,公开了基于人工智能的图像处理方法及系统,包括:获取包含目标建筑物的合成孔径雷达图像;基于合成孔径雷达图像生成像元图结构数据;将像元图结构数据输入预先训练的迁移模型中,获得生成矩阵;基于生成矩阵来解码节点之间的迁移关系,将存在迁移关系的节点对应的合成孔径雷达图像的像元的位置进行调换来获得迁移图像;将迁移图像进行灰度可视化为灰度图像,然后对灰度图像进行边缘检测获得目标建筑物的轮廓;本发明通过深度学习来训练模型学习合成孔径雷达图像的畸变模式,并基于像元级别来进行迁移处理来校正畸变,能够获取更加准确的建筑物轮廓。

Description

基于人工智能的图像处理方法及系统
技术领域
本发明涉及人工智能技术领域,更具体地说,它涉及基于人工智能的图像处理方法及系统。
背景技术
申请公布号为CN105678694A的中国专利公开了通过引入建筑物目标三维模型先验知识,充分考虑到建筑物目标几何畸变和辐射畸变特征,提高了建筑物目标的识别效果,适于推广应用,但是其采用的几何方法依赖先验知识,包括建筑物目标的三维模型的先验知识;先验知识基于有限的参数要素和技术人员主观的认识,只适用于建筑物目标几何畸变较小的情况,对于几何畸变大的情况准确率低。
发明内容
本发明提供基于人工智能的图像处理方法,解决相关技术中基于先验知识优化建筑物的识别效果,来获取建筑物轮廓的准确率低的技术问题。
本发明提供了基于人工智能的图像处理方法,包括以下步骤:
步骤101,获取包含目标建筑物的合成孔径雷达图像;
步骤102,基于合成孔径雷达图像生成像元图结构数据,像元图结构数据包括与合成孔径雷达图像的像元一一对应的节点,如果两个节点之间存在边的连接,则这两个节点对应的合成孔径雷达图像的像元为相邻的像元;
像元图结构数据还包括对应于每个顶点的顶点特征向量,顶点特征向量的一个分量表示顶点对应的像元的一个图像值;
步骤103,将像元图结构数据输入预先训练的迁移模型中,预先训练的迁移模型包括第一图学习层、第二图学习层、生成层,其中第一图学习层的计算公式如下:
其中φ表示ReLU函数,X表示第一特征矩阵,第一特征矩阵的第i个行向量即为第i个节点的节点特征向量,表示顶点的邻接矩阵与单位矩阵的和,/>表示/>的度矩阵,/>表示第一图学习层的第一权重参数,/>表示第一图学习层的第二权重参数;
第二图学习层的计算公式如下:
其中φ表示ReLU函数,X表示第一特征矩阵,第一特征矩阵的第i个行向量即为第i个节点的节点特征向量,表示顶点的邻接矩阵与单位矩阵的和,/>表示/>的度矩阵,/>表示第二图学习层的第一权重参数,/>表示第二图学习层的第二权重参数;
生成层的计算公式如下:
其中T表示矩阵的转置,表示条件函数,条件函数的值为0或1,输出值为1的条件是变量大于0.5,C是与/>的行数相同的N*1的矩阵,C中的元素的值是符合标准正态分布的随机生成的值,/>表示C第i行的元素的值分别与/>中第i行的元素的值相乘;
步骤104,基于生成矩阵E来解码节点之间的迁移关系,将存在迁移关系的节点对应的合成孔径雷达图像的像元的位置进行调换来获得迁移图像;
步骤105,将迁移图像进行灰度可视化为灰度图像,然后对灰度图像进行边缘检测获得目标建筑物的轮廓。
进一步地,合成孔径雷达图像为二维图像,则像元在二维空间上点阵分布,定义一个像元与其八个方向上最近的像元相邻,八方向分别是左、右、上、下、左上、左下、右上、右下。
进一步地,生成矩阵,因此第i行第j列的元素值和第j行第i列的元素值均表示第i个和第j个节点的迁移关系。
进一步地,第i行第j列的元素值和第j行第i列的元素值均为1时第i个和第j个节点之间存在迁移关系。
进一步地,第i行第j列的元素值和第j行第i列的元素值任意一个为1时第i个和第j个节点之间存在迁移关系。
进一步地,灰度可视化的方法可以是基于像元的振幅的值映射为灰度值。
进一步地,灰度值的值域为0~255,将迁移图像中振幅的最大值和最小值分别对标255和0的灰度值,其他振幅的值与振幅的最小值求差然后乘以缩放比例,缩放比例为255除以振幅的最大值和最小值的差。
进一步地,边缘检测采用以下边缘检测算子中的任意一个:一般Sobel算子、Prewitt算子、Roberts算子、各向同性Sobel算子。
本发明提供了基于人工智能的图像处理系统,包括:
采集模块,获取包含目标建筑物的合成孔径雷达图像;
图像预处理模块,基于合成孔径雷达图像生成像元图结构数据,像元图结构数据包括与合成孔径雷达图像的像元一一对应的节点,如果两个节点之间存在边的连接,则这两个节点对应的合成孔径雷达图像的像元为相邻的像元;
迁移学习模块,将像元图结构数据输入预先训练的迁移模型中,预先训练的迁移模型包括第一图学习层、第二图学习层和生成层,其中第一图学习层的计算公式如下:
其中φ表示ReLU函数,X表示第一特征矩阵,第一特征矩阵的第i个行向量即为第i个节点的节点特征向量,表示顶点的邻接矩阵与单位矩阵的和,/>表示/>的度矩阵,/>表示第一图学习层的第一权重参数,/>表示第一图学习层的第二权重参数;
第二图学习层的计算公式如下:
其中φ表示ReLU函数,X表示第一特征矩阵,第一特征矩阵的第i个行向量即为第i个节点的节点特征向量,表示顶点的邻接矩阵与单位矩阵的和,/>表示/>的度矩阵,/>表示第二图学习层的第一权重参数,/>表示第二图学习层的第二权重参数;
生成层的计算公式如下:
其中T表示矩阵的转置,表示条件函数,条件函数的值为0或1,输出值为1的条件是变量大于0.5,C是与/>的行数相同的N*1的矩阵,C中的元素的值是符合标准正态分布的随机生成的值,/>表示C第i行的元素的值分别与/>中第i行的元素的值相乘;
迁移模块,基于生成矩阵E来解码节点之间的迁移关系,将存在迁移关系的节点对应的合成孔径雷达图像的像元的位置进行调换来获得迁移图像;
边缘检测模块,将迁移图像进行灰度可视化为灰度图像,然后对灰度图像进行边缘检测获得目标建筑物的轮廓。
根据实施例,使用迭代调节来调整迁移模型的权重参数。迭代调节包括多个迭代循环。每个迭代循环包括确定迁移模型的结果得到的输出与训练迁移模型的预期输出之间的差异。
根据实施例,对于迁移模型的训练的预期输出为监督性的学习的预期输出,其采用同角度的光学图像的人为标记的获得。
根据实施例,对于迁移模型的训练采用一般的神经网络通用的反向传播迭代更新的方式,可以根据实施例中提供的损失函数来确定损失值来作为反向传播的基础。
根据实施例,反向传播迭代的阈值可以定义为损失值的阈值,这个阈值是人为设定的。根据图像的像元的总数的规模可以线性或非线性的调高该阈值。需要说明的是训练无法使损失值降为0,也即任何数学模型都无法保证100%的正确率。
本发明提供了一种存储介质,存储有非暂时性计算机可读指令,用于执行前述的基于人工智能的图像处理方法中的一个或多个步骤。
本发明的有益效果在于:本发明通过深度学习来训练模型学习合成孔径雷达图像的畸变模式,并基于像元级别来进行迁移处理来校正畸变,能够获取更加准确的建筑物轮廓,不需要依赖先验知识。
附图说明
图1是本发明的基于人工智能的图像处理方法的流程图;
图2是本发明的成像分析示意图;
图3是本发明的轮廓分析示意图;
图4是本发明的合成孔径雷达图像的灰度可视化图像;
图5是本发明的基于人工智能的图像处理系统的模块示意图。
具体实施方式
现在将参考示例实施方式讨论本文描述的主题。应该理解,讨论这些实施方式只是为了使得本领域技术人员能够更好地理解从而实现本文描述的主题,可以在不脱离本说明书内容的保护范围的情况下,对所讨论的元素的功能和排列进行改变。各个示例可以根据需要,省略、替代或者添加各种过程或组件。另外,相对一些示例所描述的特征在其他例子中也可以进行组合。
如图1所示,基于人工智能的图像处理方法,包括以下步骤:
步骤101,获取包含目标建筑物的合成孔径雷达图像;
前述的合成孔径雷达图像利用的是合成孔径雷达成像技术,拍摄的平台可以是卫星或飞行器。
前述的目标建筑物是指进行图像分析的目标,映射于具体的现实实体,可以是一栋独立的建筑物或一个以上的建筑物组成的建筑物群。
步骤102,基于合成孔径雷达图像生成像元图结构数据,像元图结构数据包括与合成孔径雷达图像的像元一一对应的节点,如果两个节点之间存在边的连接,则这两个节点对应的合成孔径雷达图像的像元为相邻的像元;
在这里,像元的相邻是指像元在合成孔径雷达图像上的相邻,在图像的像元的空间分布上的相邻,在本发明的下述实施例中,合成孔径雷达图像为二维图像,则像元在二维空间上点阵分布,定义一个像元与其八个方向上最近的像元相邻,八方向分别是左、右、上、下、左上、左下、右上、右下;
像元图结构数据还包括对应于每个顶点的顶点特征向量,顶点特征向量的一个分量表示顶点对应的像元的一个图像值;
图像值是表示像元的具体含义的值,这里的每个图像值对应一个具体的含义,例如一个图像值表示相位的值,一个图像值表示振幅的值,这里的相位和振幅表示雷达回波的参数。
步骤103,将像元图结构数据输入预先训练的迁移模型中,预先训练的迁移模型包括第一图学习层、第二图学习层、生成层,其中第一图学习层的计算公式如下:
其中表示ReLU函数,X表示第一特征矩阵,第一特征矩阵的第i个行向量即为第i个节点的节点特征向量,/>表示顶点的邻接矩阵与单位矩阵的和,/>表示/>的度矩阵,/>表示第一图学习层的第一权重参数,/>表示第一图学习层的第二权重参数;
第二图学习层的计算公式如下:
其中表示ReLU函数,X表示第一特征矩阵,第一特征矩阵的第i个行向量即为第i个节点的节点特征向量,/>表示顶点的邻接矩阵与单位矩阵的和,/>表示/>的度矩阵,/>表示第二图学习层的第一权重参数,/>表示第二图学习层的第二权重参数;
生成层的计算公式如下:
其中T表示矩阵的转置,表示条件函数,条件函数的值为0或1,输出值为1的条件是变量大于0.5,C是与/>的行数相同的N*1的矩阵,C中的元素的值是符合标准正态分布的随机生成的值,/>表示C第i行的元素的值分别与/>中第i行的元素的值相乘;
步骤104,基于生成矩阵E来解码节点之间的迁移关系,将存在迁移关系的节点对应的合成孔径雷达图像的像元的位置进行调换来获得迁移图像;
由于生成矩阵E为M*M的矩阵,M为节点的数量,因此第i行第j列的元素值和第j行第i列的元素值均表示第i个和第j个节点的迁移关系,本发明的一个实施例中进一步限定只有第i行第j列的元素值和第j行第i列的元素值均为1时第i个和第j个节点之间才存在迁移关系;这一实施例中缩小了迁移关系的数量,提高了模型的鲁棒性。
在其他的实施例中,第i行第j列的元素值和第j行第i列的元素值任意一个为1时第i个和第j个节点之间存在迁移关系。
在这里像元的位置进行调换指的是在图像的空间分布上的位置,由于像元是一个人为定义的概念,并非实体,这里的调换可以通过将像元的图像值相互替换来进行实现。
步骤105,将迁移图像进行灰度可视化为灰度图像,然后对灰度图像进行边缘检测获得目标建筑物的轮廓。
灰度可视化的方法可以是基于像元的振幅的值映射为灰度值,灰度值的值域为0~255,将迁移图像中振幅的最大值和最小值分别对标255和0的灰度值,其他振幅的值与振幅的最小值求差然后乘以缩放比例,缩放比例为255除以振幅的最大值和最小值的差。
边缘检测采用以下边缘检测算子中的任意一个:一般Sobel算子、Prewitt算子、Roberts算子、各向同性Sobel算子;
在本发明的一个实施例中选择的是各向同性Sobel算子,这是由于迁移图像在迁移的过程中已经去除了部分噪声,各向同性Sobel算子虽然对于噪声过滤不足,但是能够保留更多的边缘特征。
需要说明的是,步骤105中通过边缘检测之后获得的轮廓线包括了目标建筑物内部的轮廓线和非目标建筑物的轮廓线,需要人工再去除不属于目标建筑物的轮廓线和目标建筑物内部的轮廓线。
提取轮廓线的目的是为了分析目标建筑物的参数或者用于对目标建筑物进行三维建模,因此轮廓线虽然属于目标建筑物的边缘轮廓,但是可以根据用途来进行选择。
在前述的实施例中,对于迁移模型进行训练,通过相同角度的光学图像对目标建筑物的轮廓线进行人工标记来作为训练的对比,也即通过迁移模型处理获得的迁移图像进行轮廓识别的结果(标记的轮廓线)与人工标记的对应的轮廓线进行比较,比较的方法是映射到同一二维图像空间内进行重合度对比;
提供一种损失函数如下:
另一种损失函数如下:
KL表示KL散度,p(D)=N(0,I);S表示迁移图像中标记的轮廓线上的像元与人工标记的对应的轮廓线重合的数量,N是迁移图像中标记的轮廓线上的像元的总数。
如图2-3所示,建筑物起始位置x=xlayover+llayover
建筑物高度h=llayover*cosθ;
θ表示雷达波入射角;llayover表示沿着SAR传感器入射的方向的叠掩的长度。
取llayover=L1+L2或取llayover=L3+L4
如图4所示,叠掩的区域为灰度可视化的高亮区域,边缘检测能够获得包含高亮区域的轮廓,人工标记高亮区域的轮廓线的线段,然后通过最小二乘法或沿切线方向移动的方法对线段进行取直,然后获取llayover来获得目标建筑物的高度。
如图5所示,基于人工智能的图像处理系统,包括:
采集模块201,获取包含目标建筑物的合成孔径雷达图像;
图像预处理模块202,基于合成孔径雷达图像生成像元图结构数据,像元图结构数据包括与合成孔径雷达图像的像元一一对应的节点,如果两个节点之间存在边的连接,则这两个节点对应的合成孔径雷达图像的像元为相邻的像元;
迁移学习模块203,将像元图结构数据输入预先训练的迁移模型中,预先训练的迁移模型包括第一图学习层、第二图学习层和生成层,其中第一图学习层的计算公式如下:
其中表示ReLU函数,X表示第一特征矩阵,第一特征矩阵的第i个行向量即为第i个节点的节点特征向量,/>表示顶点的邻接矩阵与单位矩阵的和,/>表示/>的度矩阵,/>表示第一图学习层的第一权重参数,/>表示第一图学习层的第二权重参数;
第二图学习层的计算公式如下:
其中表示ReLU函数,X表示第一特征矩阵,第一特征矩阵的第i个行向量即为第i个节点的节点特征向量,/>表示顶点的邻接矩阵与单位矩阵的和,/>表示/>的度矩阵,/>表示第二图学习层的第一权重参数,/>表示第二图学习层的第二权重参数;
生成层的计算公式如下:
其中T表示矩阵的转置,表示条件函数,条件函数的值为0或1,输出值为1的条件是变量大于0.5,C是与/>的行数相同的N*1的矩阵,C中的元素的值是符合标准正态分布的随机生成的值,/>表示C第i行的元素的值分别与/>中第i行的元素的值相乘;
迁移模块204,基于生成矩阵E来解码节点之间的迁移关系,将存在迁移关系的节点对应的合成孔径雷达图像的像元的位置进行调换来获得迁移图像;
边缘检测模块205,将迁移图像进行灰度可视化为灰度图像,然后对灰度图像进行边缘检测获得目标建筑物的轮廓。
本公开的至少一实施例提供一种存储介质,存储有非暂时性计算机可读指令,用于执行前述的基于人工智能的图像处理方法中的一个或多个步骤。
计算机程序可以被存储/分布在合适的介质上,例如与其他硬件一起或作为其他硬件的部分供应的光学存储介质或固态介质,但是也可以被以其他形式分布,例如经由互联网或其他有线或无线的电信系统来分布。权利要求中的任何附图标记都不应被解释为对范围的限制。
应当理解,可以对本发明的前述实施例中的一个或多个实施例进行组合,只要组合的实施例不相互排斥即可。
上面对本实施例的实施例进行了描述,但是本实施例并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本实施例的启示下,还可做出很多形式,均属于本实施例的保护之内。

Claims (10)

1.基于人工智能的图像处理方法,其特征在于,包括以下步骤:
步骤101,获取包含目标建筑物的合成孔径雷达图像;
步骤102,基于合成孔径雷达图像生成像元图结构数据,像元图结构数据包括与合成孔径雷达图像的像元一一对应的节点,如果两个节点之间存在边的连接,则这两个节点对应的合成孔径雷达图像的像元为相邻的像元;
像元图结构数据还包括对应于每个顶点的顶点特征向量,顶点特征向量的一个分量表示顶点对应的像元的一个图像值;
步骤103,将像元图结构数据输入预先训练的迁移模型中,预先训练的迁移模型包括第一图学习层、第二图学习层、生成层,其中第一图学习层的计算公式如下:
其中φ表示ReLU函数,X表示第一特征矩阵,第一特征矩阵的第i个行向量即为第i个节点的节点特征向量,表示顶点的邻接矩阵与单位矩阵的和,/>表示/>的度矩阵,/>表示第一图学习层的第一权重参数,/>表示第一图学习层的第二权重参数;
第二图学习层的计算公式如下:
其中φ表示ReLU函数,X表示第一特征矩阵,第一特征矩阵的第i个行向量即为第i个节点的节点特征向量,表示顶点的邻接矩阵与单位矩阵的和,/>表示/>的度矩阵,/>表示第二图学习层的第一权重参数,/>表示第二图学习层的第二权重参数;
生成层的计算公式如下:
其中T表示矩阵的转置,表示条件函数,条件函数的值为0或1,输出值为1的条件是变量大于0.5,C是与/>的行数相同的N*1的矩阵,C中的元素的值是符合标准正态分布的随机生成的值,/>表示C第i行的元素的值分别与/>中第i行的元素的值相乘;
步骤104,基于生成矩阵E来解码节点之间的迁移关系,将存在迁移关系的节点对应的合成孔径雷达图像的像元的位置进行调换来获得迁移图像;
步骤105,将迁移图像进行灰度可视化为灰度图像,然后对灰度图像进行边缘检测获得目标建筑物的轮廓。
2.根据权利要求1所述的基于人工智能的图像处理方法,其特征在于,合成孔径雷达图像为二维图像,则像元在二维空间上点阵分布,定义一个像元与其八个方向上最近的像元相邻,八方向分别是左、右、上、下、左上、左下、右上、右下。
3.根据权利要求1所述的基于人工智能的图像处理方法,其特征在于,生成矩阵,因此第i行第j列的元素值和第j行第i列的元素值均表示第i个和第j个节点的迁移关系。
4.根据权利要求3所述的基于人工智能的图像处理方法,其特征在于,第i行第j列的元素值和第j行第i列的元素值均为1时第i个和第j个节点之间存在迁移关系。
5.根据权利要求3所述的基于人工智能的图像处理方法,其特征在于,第i行第j列的元素值和第j行第i列的元素值任意一个为1时第i个和第j个节点之间存在迁移关系。
6.根据权利要求1所述的基于人工智能的图像处理方法,其特征在于,灰度可视化的方法可以是基于像元的振幅的值映射为灰度值。
7.根据权利要求6所述的基于人工智能的图像处理方法,其特征在于,灰度值的值域为0~255,将迁移图像中振幅的最大值和最小值分别对标255和0的灰度值,其他振幅的值与振幅的最小值求差然后乘以缩放比例,缩放比例为255除以振幅的最大值和最小值的差。
8.根据权利要求7所述的基于人工智能的图像处理方法,其特征在于,边缘检测采用以下边缘检测算子中的任意一个:一般Sobel算子、Prewitt算子、Roberts算子、各向同性Sobel算子。
9.基于人工智能的图像处理系统,其特征在于,包括:
采集模块,获取包含目标建筑物的合成孔径雷达图像;
图像预处理模块,基于合成孔径雷达图像生成像元图结构数据,像元图结构数据包括与合成孔径雷达图像的像元一一对应的节点,如果两个节点之间存在边的连接,则这两个节点对应的合成孔径雷达图像的像元为相邻的像元;
迁移学习模块,将像元图结构数据输入预先训练的迁移模型中,预先训练的迁移模型包括第一图学习层、第二图学习层和生成层,其中第一图学习层的计算公式如下:
其中φ表示ReLU函数,X表示第一特征矩阵,第一特征矩阵的第i个行向量即为第i个节点的节点特征向量,表示顶点的邻接矩阵与单位矩阵的和,/>表示/>的度矩阵,/>表示第一图学习层的第一权重参数,/>表示第一图学习层的第二权重参数;
第二图学习层的计算公式如下:
其中φ表示ReLU函数,X表示第一特征矩阵,第一特征矩阵的第i个行向量即为第i个节点的节点特征向量,表示顶点的邻接矩阵与单位矩阵的和,/>表示/>的度矩阵,/>表示第二图学习层的第一权重参数,/>表示第二图学习层的第二权重参数;
生成层的计算公式如下:
其中T表示矩阵的转置,表示条件函数,条件函数的值为0或1,输出值为1的条件是变量大于0.5,C是与/>的行数相同的N*1的矩阵,C中的元素的值是符合标准正态分布的随机生成的值,/>表示C第i行的元素的值分别与/>中第i行的元素的值相乘;
迁移模块,基于生成矩阵E来解码节点之间的迁移关系,将存在迁移关系的节点对应的合成孔径雷达图像的像元的位置进行调换来获得迁移图像;
边缘检测模块,将迁移图像进行灰度可视化为灰度图像,然后对灰度图像进行边缘检测获得目标建筑物的轮廓。
10.一种存储介质,其特征在于,存储有非暂时性计算机可读指令,用于执行如权利要求1-8任一所述的基于人工智能的图像处理方法中的一个或多个步骤。
CN202311670088.3A 2023-12-06 2023-12-06 基于人工智能的图像处理方法及系统 Active CN117649602B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311670088.3A CN117649602B (zh) 2023-12-06 2023-12-06 基于人工智能的图像处理方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311670088.3A CN117649602B (zh) 2023-12-06 2023-12-06 基于人工智能的图像处理方法及系统

Publications (2)

Publication Number Publication Date
CN117649602A true CN117649602A (zh) 2024-03-05
CN117649602B CN117649602B (zh) 2024-06-07

Family

ID=90046142

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311670088.3A Active CN117649602B (zh) 2023-12-06 2023-12-06 基于人工智能的图像处理方法及系统

Country Status (1)

Country Link
CN (1) CN117649602B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190087726A1 (en) * 2017-08-30 2019-03-21 The Board Of Regents Of The University Of Texas System Hypercomplex deep learning methods, architectures, and apparatus for multimodal small, medium, and large-scale data representation, analysis, and applications
CN114549689A (zh) * 2022-02-17 2022-05-27 中国人民解放军战略支援部队信息工程大学 一种基于图卷积神经网络的河流模式识别方法与装置
CN115984650A (zh) * 2023-01-09 2023-04-18 中国人民解放军国防科技大学 一种基于深度学习的合成孔径雷达图像的识别方法
WO2023087558A1 (zh) * 2021-11-22 2023-05-25 重庆邮电大学 基于嵌入平滑图神经网络的小样本遥感图像场景分类方法
CN116778104A (zh) * 2023-08-16 2023-09-19 江西省国土资源测绘工程总院有限公司 一种动态遥感监测的测绘方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190087726A1 (en) * 2017-08-30 2019-03-21 The Board Of Regents Of The University Of Texas System Hypercomplex deep learning methods, architectures, and apparatus for multimodal small, medium, and large-scale data representation, analysis, and applications
WO2023087558A1 (zh) * 2021-11-22 2023-05-25 重庆邮电大学 基于嵌入平滑图神经网络的小样本遥感图像场景分类方法
CN114549689A (zh) * 2022-02-17 2022-05-27 中国人民解放军战略支援部队信息工程大学 一种基于图卷积神经网络的河流模式识别方法与装置
CN115984650A (zh) * 2023-01-09 2023-04-18 中国人民解放军国防科技大学 一种基于深度学习的合成孔径雷达图像的识别方法
CN116778104A (zh) * 2023-08-16 2023-09-19 江西省国土资源测绘工程总院有限公司 一种动态遥感监测的测绘方法及系统

Also Published As

Publication number Publication date
CN117649602B (zh) 2024-06-07

Similar Documents

Publication Publication Date Title
CN111902825B (zh) 多边形对象标注系统和方法以及训练对象标注系统的方法
US11488308B2 (en) Three-dimensional object detection method and system based on weighted channel features of a point cloud
CN111899163B (zh) 生成对抗网络中单图像超分辨率的有效结构保持
CN111340214B (zh) 对抗攻击模型的训练方法及装置
CN110363116B (zh) 基于gld-gan的不规则人脸矫正方法、系统及介质
CN113450396B (zh) 基于骨骼特征的三维/二维图像配准方法及装置
CN113724379B (zh) 融合图像与激光点云的三维重建方法及装置
CN110136162B (zh) 无人机视角遥感目标跟踪方法及装置
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
CN113313047B (zh) 一种基于车道结构先验的车道线检测方法及系统
CN115359195A (zh) 一种正射影像生成方法、装置、存储介质和电子设备
CN114787828A (zh) 利用具有有意受控畸变的成像器进行人工智能神经网络的推理或训练
CN113989612A (zh) 基于注意力及生成对抗网络的遥感影像目标检测方法
CN115439669A (zh) 基于深度学习的特征点检测网络及跨分辨率图像匹配方法
CN116958420A (zh) 一种数字人教师三维人脸的高精度建模方法
CN117576724A (zh) 一种无人机飞鸟检测方法、系统、设备和介质
KR20170100718A (ko) 점군 정합 장치 및 방법
CN112132971B (zh) 三维人体建模方法、装置、电子设备和存储介质
CN111833395B (zh) 一种基于神经网络模型的测向体制单目标定位方法和装置
CN117392508A (zh) 一种基于坐标注意力机制的目标检测方法和装置
CN117649602B (zh) 基于人工智能的图像处理方法及系统
CN116563104A (zh) 一种基于粒子群算法的图像配准方法及图像拼接方法
CN116863285A (zh) 多尺度生成对抗网络的红外与可见光图像融合方法
CN116402904A (zh) 一种基于激光雷达间和单目相机的联合标定方法
CN115375816A (zh) 可微渲染方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant