CN117077438B - 基于图像整合与提取的合成孔径雷达仿真方法及装置 - Google Patents

基于图像整合与提取的合成孔径雷达仿真方法及装置 Download PDF

Info

Publication number
CN117077438B
CN117077438B CN202311317573.2A CN202311317573A CN117077438B CN 117077438 B CN117077438 B CN 117077438B CN 202311317573 A CN202311317573 A CN 202311317573A CN 117077438 B CN117077438 B CN 117077438B
Authority
CN
China
Prior art keywords
synthetic aperture
aperture radar
current
carrier
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311317573.2A
Other languages
English (en)
Other versions
CN117077438A (zh
Inventor
张少雄
何宇
陈立坦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Lingkong Electronic Technology Co Ltd
Original Assignee
Xian Lingkong Electronic Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Lingkong Electronic Technology Co Ltd filed Critical Xian Lingkong Electronic Technology Co Ltd
Priority to CN202311317573.2A priority Critical patent/CN117077438B/zh
Publication of CN117077438A publication Critical patent/CN117077438A/zh
Application granted granted Critical
Publication of CN117077438B publication Critical patent/CN117077438B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/895Side looking radar [SLR]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Evolutionary Computation (AREA)
  • Computer Hardware Design (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本申请公开了一种基于图像整合与提取的合成孔径雷达仿真方法及装置,该方法包括:将由局部雷达图像融合得到的整体雷达图像放入仿真场景中;获取仿真场景中的飞控数据与合成孔径雷达指令;根据飞控数据与合成孔径雷达指令确定合成孔径雷达的当前扫描范围;根据当前扫描范围确定合成孔径雷达在整体雷达图像上的合成孔径雷达扫描图像。通过实施上述方法能够解决合成孔径雷达仿真技术还停留在利用合成孔径雷达图像数据回放来实现单一固定场景的仿真的问题,能够根据飞控数据与合成孔径雷达指令实时输出合成孔径雷达仿真图像,能够满足当前环境下对仿真技术实时性的要求。

Description

基于图像整合与提取的合成孔径雷达仿真方法及装置
技术领域
本申请涉及合成孔径雷达仿真技术领域,尤其涉及一种基于图像整合与提取的合成孔径雷达仿真方法及装置。
背景技术
合成孔径雷达(简称:SAR)是一种高分辨率的侧视成像雷达,可以在能见度极低的气象条件下得到类似光学照相的高分辨率雷达图像。合成孔径雷达利用机载雷达向前运动产生一个等效的阵列天线,其长度可达数千英尺。雷达天线最快能在几秒钟内将接收到的信号在信号处理机中合成为该阵列的输出。
合成孔径雷达通过调整天线波束的偏移可以在一次过顶时实现对目标的单侧照射或两侧照射。单侧照射是在条带模式、聚束模式、扫描模式、滑动聚束模式、TopSAR模式等工作模式下对目标进行观测,一次过顶仅能对目标的一侧进行照射。单侧照射存在探测盲区,难以刻画出完整的目标。双侧照射采用多条带模式或多过顶轨迹成像的工作模式,能够避免上述单侧照射存在的问题。但双侧照射的数据处理量较大,成像所需的时间较长。
重要的是,现有的合成孔径雷达仿真技术,还停留在利用合成孔径雷达图像数据回放来实现单一固定场景的仿真,无法实现多场景实时仿真,难以满足当前高速发展的技术环境下对仿真技术实时性的追求。
发明内容
本申请实施例通过提供一种基于图像整合与提取的合成孔径雷达仿真方法,解决了现有技术中的合成孔径雷达仿真技术还停留在利用合成孔径雷达图像数据回放来实现单一固定场景的仿真的问题,实现了一种能够根据飞控数据与合成孔径雷达指令实时输出合成孔径雷达仿真图像的方法。
第一方面,本申请实施例提供了一种基于图像整合与提取的合成孔径雷达仿真方法,包括:将由局部雷达图像融合得到的整体雷达图像放入仿真场景中;获取所述仿真场景中的飞控数据与合成孔径雷达指令;根据所述飞控数据与所述合成孔径雷达指令确定合成孔径雷达的当前扫描范围;根据所述当前扫描范围确定合成孔径雷达在所述整体雷达图像上的合成孔径雷达扫描图像。
结合第一方面,在第一种可能的实现方式中,所述飞控数据包括数据输入频率以及载机当前的经度、纬度、高度、地速与姿态角;其中,所述姿态角包括航向角、偏流角与横滚角;所述合成孔径雷达指令包括合成孔径雷达的侧视方式、成像作用距离与条带成像宽度。
结合第一方面的第一种可能的实现方式,在第二种可能的实现方式中,所述根据所述飞控数据与所述合成孔径雷达指令确定合成孔径雷达的当前扫描范围,包括:根据载机当前的所述高度与合成孔径雷达的所述成像作用距离确定当前载机的位置与合成孔径雷达扫描边界的最远距离与最近距离;根据所述最远距离确定合成孔径雷达的扫描边界的第一角点;根据所述最近距离确定合成孔径雷达的扫描边界的第二角点;根据所述第一角点与载机当前的所述航向角确定合成孔径雷达的扫描边界的第三角点;根据所述第二角点与载机当前的所述航向角确定合成孔径雷达的扫描边界的第四角点;根据所述第一角点、所述第二角点、所述第三角点与所述第四角点确定合成孔径雷达的所述当前扫描范围。
结合第一方面的第二种可能的实现方式,在第三种可能的实现方式中,所述根据所述飞控数据与所述合成孔径雷达指令确定合成孔径雷达的当前扫描范围,还包括:根据所述飞控数据确定波束方位角与波束俯仰角,所述波束方位角的计算公式如下:
;式中,b表示载机当前的所述波束方位角,表示载 机当前的所述航向角,表示载机当前的所述偏流角。
结合第一方面的第三种可能的实现方式,在第四种可能的实现方式中,所述最远距离的计算公式如下:
;式中,表示载机当前位置与合成孔径雷达扫描边界的所述最远距 离,表示合成孔径雷达的所述成像作用距离,表示载机当前的所述高度;
最近距离的计算公式如下:
;式中,表示载机当前位置与合成孔径雷达扫描边界的所述最近 距离,表示合成孔径雷达的所述成像作用距离,表示载机当前的所述高度,表示合成孔 径雷达的所述条带成像宽度。
结合第一方面的第四种可能的实现方式,在第五种可能的实现方式中,所述第一角点的确定公式如下:
;式中,表示所述第一角点的纬度,表示所述第一角点的经度,分别表示载机当前的纬度与经度,表示载机当前位置 与合成孔径雷达扫描边界的所述最远距离,b表示载机当前的所述波束方位角,R表示地球 半径,约为6371393m,表示弧度;
所述第二角点的确定公式如下:
;式中,表示所述第二角点的纬度,表示所述第二角点的经度,分别表示载机当前的纬度与经度,表示载机当前位置 与合成孔径雷达扫描边界的所述最近距离,b表示载机当前的所述波束方位角,R表示地球 半径,约为6371393m,表示弧度;
所述第三角点的确定公式如下:
;式中,表示所述第三角点的纬 度,表示所述第三角点的经度,分别表示所述第一角点当前的纬度与经度,表示所 述数据输入频率,v表示载机当前的所述地速,表示载机当前的所述航向角,R表示地球半 径,约为6371393m,表示弧度;
所述第四角点的确定公式如下:
;式中,表示所述第四角点的纬 度,表示所述第四角点的经度,分别表示所述第二角点当前的纬度与经度,表示 所述数据输入频率,v表示载机当前的所述地速,表示载机当前的所述航向角,R表示地球 半径,约为6371393m,表示弧度。
结合第一方面的第二种可能的实现方式,在第六种可能的实现方式中,所述根据载机当前的所述高度与合成孔径雷达的所述成像作用距离确定当前载机的位置与合成孔径雷达扫描边界的最远距离与最近距离前,还包括:确定合成孔径雷达当前的所述侧视方式。
结合第一方面的第二种可能的实现方式,在第七种可能的实现方式中,所述根据所述当前扫描范围确定合成孔径雷达在所述整体雷达图像上的合成孔径雷达扫描图像,包括:在所述整体雷达图像中提取所述当前扫描范围,得到当前的所述合成孔径雷达扫描图像。
第二方面,本申请实施例提供了一种基于图像整合与提取的合成孔径雷达仿真装置,包括:融合模块,用于将由局部雷达图像融合得到的整体雷达图像放入仿真场景中;获取模块,用于获取所述仿真场景中的飞控数据与合成孔径雷达指令;范围确定模块,用于根据所述飞控数据与所述合成孔径雷达指令确定合成孔径雷达的当前扫描范围;图像确定模块,用于根据所述当前扫描范围确定合成孔径雷达在所述整体雷达图像上的合成孔径雷达扫描图像。
结合第二方面,在第一种可能的实现方式中,所述飞控数据包括数据输入频率以及载机当前的经度、纬度、高度、地速与姿态角;其中,所述姿态角包括航向角、偏流角与横滚角;所述合成孔径雷达指令包括合成孔径雷达的侧视方式、成像作用距离与条带成像宽度。
结合第二方面的第一种可能的实现方式,在第二种可能的实现方式中,所述根据所述飞控数据与所述合成孔径雷达指令确定合成孔径雷达的当前扫描范围,包括:根据载机当前的所述高度与合成孔径雷达的所述成像作用距离确定当前载机的位置与合成孔径雷达扫描边界的最远距离与最近距离;根据所述最远距离确定合成孔径雷达的扫描边界的第一角点;根据所述最近距离确定合成孔径雷达的扫描边界的第二角点;根据所述第一角点与载机当前的所述航向角确定合成孔径雷达的扫描边界的第三角点;根据所述第二角点与载机当前的所述航向角确定合成孔径雷达的扫描边界的第四角点;根据所述第一角点、所述第二角点、所述第三角点与所述第四角点确定合成孔径雷达的所述当前扫描范围。
结合第二方面的第二种可能的实现方式,在第三种可能的实现方式中,所述根据所述飞控数据与所述合成孔径雷达指令确定合成孔径雷达的当前扫描范围,还包括:根据所述飞控数据确定波束方位角与波束俯仰角,所述波束方位角的计算公式如下:
;式中,b表示载机当前的所述波束方位角,表示载 机当前的所述航向角,表示载机当前的所述偏流角。
结合第二方面的第三种可能的实现方式,在第四种可能的实现方式中,所述最远距离的计算公式如下:
;式中,表示载机当前位置与合成孔径雷达扫描边界的所述最远距 离,表示合成孔径雷达的所述成像作用距离,表示载机当前的所述高度;
最近距离的计算公式如下:
;式中,表示载机当前位置与合成孔径雷达扫描边界的所述最近 距离,表示合成孔径雷达的所述成像作用距离,表示载机当前的所述高度,表示合成孔 径雷达的所述条带成像宽度。
结合第二方面的第四种可能的实现方式,在第五种可能的实现方式中,所述第一角点的确定公式如下:
;式中,表示所述第一角点的纬度,表示所述第一角点的经度,分别表示载机当前的纬度与经度,表示载机当前位置 与合成孔径雷达扫描边界的所述最远距离,b表示载机当前的所述波束方位角,R表示地球 半径,约为6371393m,表示弧度;
所述第二角点的确定公式如下:
;式中,表示所述第二角点的纬度,表示所述第二角点的经度,分别表示载机当前的纬度与经度,表示载机当前位置 与合成孔径雷达扫描边界的所述最近距离,b表示载机当前的所述波束方位角,R表示地球 半径,约为6371393m,表示弧度;
所述第三角点的确定公式如下:
;式中,表示所述第三角点的纬 度,表示所述第三角点的经度,分别表示所述第一角点当前的纬度与经度,表示所 述数据输入频率,v表示载机当前的所述地速,表示载机当前的所述航向角,R表示地球半 径,约为6371393m,表示弧度;
所述第四角点的确定公式如下:
;式中,表示所述第四角点的纬 度,表示所述第四角点的经度,分别表示所述第二角点当前的纬度与经度,表示 所述数据输入频率,v表示载机当前的所述地速,表示载机当前的所述航向角,R表示地球 半径,约为6371393m,表示弧度。
结合第二方面的第二种可能的实现方式,在第六种可能的实现方式中,所述根据载机当前的所述高度与合成孔径雷达的所述成像作用距离确定当前载机的位置与合成孔径雷达扫描边界的最远距离与最近距离前,还包括:确定合成孔径雷达当前的所述侧视方式。
结合第二方面的第二种可能的实现方式,在第七种可能的实现方式中,所述根据所述当前扫描范围确定合成孔径雷达在所述整体雷达图像上的合成孔径雷达扫描图像,包括:在所述整体雷达图像中提取所述当前扫描范围,得到当前的所述合成孔径雷达扫描图像。
第三方面,本申请实施例提供了一种设备,所述设备包括:处理器;用于存储处理器可执行指令的存储器;所述处理器执行所述可执行指令时,实现如第一方面或第一方面任一种可能实现的方式所述的方法。
本申请实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:
本申请实施例通过合成整体雷达图像,并根据当前的飞控数据与合成孔径雷达指令确定合成孔径雷达的当前扫描范围,能够实现根据实时数据实时更新当前扫描范围进而更新合成孔径雷达的雷达扫描图像。有效解决了现有技术中的合成孔径雷达仿真技术还停留在利用合成孔径雷达图像数据回放来实现单一固定场景的仿真的问题,实现了可以在任意场景下根据飞控数据与合成孔径雷达指令实时更新雷达扫描图像,能够满足当前环境下对仿真技术实时性的要求。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的基于图像整合与提取的合成孔径雷达仿真方法的流程图;
图2为本申请实施例提供的根据飞控数据与合成孔径雷达指令确定合成孔径雷达的当前扫描范围的流程图;
图3为本申请实施例提供的基于图像整合与提取的合成孔径雷达仿真装置的结构示意图;
图4为本申请实施例提供的仿真场景的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1是本申请实施例提供的基于图像整合与提取的合成孔径雷达仿真方法流程图,包括步骤101至步骤104。其中,图1仅为本申请实施例示出的一种执行顺序,并不代表基于图像整合与提取的合成孔径雷达仿真方法的唯一执行顺序,在可实现最终结果的情况下,图1所示出的步骤可以被并列或颠倒执行。
步骤101:将由局部雷达图像融合得到的整体雷达图像放入仿真场景中。具体地,采集研究范围内的局部雷达图像,将多个局部雷达图像进行融合生成整体雷达图像。在本申请实施例中,局部雷达图像与整体雷达图像均为合成孔径雷达图像,并且均包含每个像素点的经纬度与灰度值信息。示例性地,此处可以使用小波变换、金字塔算法等方法实现将多个局部雷达图像融合为整体雷达图像。本领域技术人员应当意识到此处的局部雷达图像融合方法仅为本申请的实施例,不作为对本申请保护范围的限制。本领域技术人员还可以采用其他图像融合方法,例如基于区域的方法、基于像素的方法等。不同的方法适用于不同的场景和需求,需要本领域技术人员根据实际情况选择合适的融合方法。在实际应用中,还需要考虑雷达图像的质量、分辨率、噪声等因素,以及融合算法的复杂度、计算效率等问题。
步骤102:获取仿真场景中的飞控数据与合成孔径雷达指令。具体地,飞控数据包括数据输入频率(帧/50毫秒)以及载机当前的经度(度)、纬度(度)、高度(米)、地速(米/秒)与姿态角(度)。其中,姿态角包括航向角(度)、偏流角(度)与横滚角(度)。合成孔径雷达指令包括合成孔径雷达的侧视方式、成像作用距离(米)与条带成像宽度(米)。在本申请实施例中,用-1代表左侧视,1代表右侧视。需要注意的是,上述的飞控数据与合成孔径雷达指令既可以是从仿真场景中实时获取的,也可以是实时输入在仿真场景中的控制数据。此外,飞控数据与合成孔径雷达指令的单位仅为本申请采用的一种示例,本领域技术人员可根据实际情况对其进行各种修改或改变。仿真场景至少包括探测环境与装有合成孔径雷达的载机,探测环境即步骤101得到的整体雷达图像。本申请实施例中的仿真场景的结构示意图如图4所示。
步骤103:根据飞控数据与合成孔径雷达指令确定合成孔径雷达的当前扫描范围。具体地,在合成孔径雷达仿真过程中,根据飞控数据中载机的航向角与偏流角实时计算仿真场景中合成孔径雷达的波束方位角与波束俯仰角。波束方位角的计算公式如下:
。式中,b表示载机当前的波束方位角, 表示载机当前的航向角,表示载机当前的偏流角。
根据飞控数据中的载机当前的高度和合成孔径雷达指令中的成像作用距离,计算仿真场景中合成孔径雷达的波束俯仰角。波束俯仰角的计算公式如下:
。式中,c为合成孔径雷达的波束俯仰角,h表示载机当前的高度,s 表示合成孔径雷达的成像作用距离。
上述计算波束方位角与波束俯仰角的方法得出的数据与真实环境中的合成孔径雷达数据一致。实时计算出的波束方位角与波束俯仰角可以用于在图4所示的合成孔径雷达仿真控制模块中模拟真实情况下合成孔径雷达的工作状态。
步骤103的详细步骤如图2所示,包括步骤201至步骤206,具体如下。
步骤201:根据载机当前的高度与合成孔径雷达的成像作用距离确定当前载机的位置与合成孔径雷达扫描边界的最远距离与最近距离。在本申请实施例中,最远距离的计算公式如下:
。式中,表示载机当前位置与合成孔径雷达扫描边界的最远距离, 表示合成孔径雷达的成像作用距离,表示载机当前的高度。
最近距离的计算公式如下:
。式中,表示载机当前位置与合成孔径雷达扫描边界的最近距 离,表示合成孔径雷达的成像作用距离,表示载机当前的高度,表示合成孔径雷达的条 带成像宽度。
在本申请的一种实施例中,在确定最远距离与最近距离前先确定合成孔径雷达当前的侧视方式。侧视方式不同,最远距离与最近距离对应的方位也不同。
步骤202:根据最远距离确定合成孔径雷达的扫描边界的第一角点。具体地,第一角点的确定公式如下:
。式中,表示第一角点的纬度,表 示第一角点的经度,分别表示载机当前的纬度与经度,表示载机当前位置与合成 孔径雷达扫描边界的最远距离,b表示载机当前的波束方位角,R表示地球半径,约为 6371393m,表示弧度。上述第一角点为合成孔径雷达此时的最远扫描边界点,若确定当前 的侧视方式为左侧视,则第一角点为扫描边界左上角的像素点。若确定当前的侧视方式为 右侧视,则上述第一角点为扫描边界右上角的像素点。
步骤203:根据最近距离确定合成孔径雷达的扫描边界的第二角点。具体地,第二角点的确定公式如下:
。式中,表示第二角点的纬度,表 示第二角点的经度,分别表示载机当前的纬度与经度,表示载机当前位置与合成孔 径雷达扫描边界的最近距离,b表示载机当前的波束方位角,R表示地球半径,约为 6371393m,表示弧度。在本申请实施例中,第二角点为合成孔径雷达此时的最近扫描边界 点。若确定当前的侧视方式为左侧视,则第二角点为扫描边界左下角的像素点。若确定当前 的侧视方式为右侧视,则上述第一角点为扫描边界右下角的像素点。
步骤204:根据第一角点与载机当前的航向角确定合成孔径雷达的扫描边界的第 三角点。具体地,。式中,表 示第三角点的纬度,表示第三角点的经度,分别表示第一角点当前的纬度与经 度,表示数据输入频率,v表示载机当前的地速,表示载机当前的航向角,R表示地球半 径,约为6371393m,表示弧度。在本申请实施例中,若确定当前的侧视方式为左侧视,则第 三角点为扫描边界右上角的像素点,第一角点为扫描边界左上角的像素点。若确定当前的 侧视方式为右侧视,则上述第三角点为扫描边界左上角的像素点,第一角点为扫描边界右 上角的像素点。
步骤205:根据第二角点与载机当前的航向角确定合成孔径雷达的扫描边界的第四角点。具体地,第四角点的确定公式如下:
。式中,表示第四 角点的纬度,表示第四角点的经度,分别表示第二角点当前的纬度与经度,表 示数据输入频率,v表示载机当前的地速,表示载机当前的航向角,R表示地球半径,约为 6371393m,表示弧度。在本申请实施例中,若确定当前的侧视方式为左侧视,则第四角点 为扫描边界右下角的像素点,第二角点为扫描边界左下角的像素点。若确定当前的侧视方 式为右侧视,则上述第四角点为扫描边界左下角的像素点,第二角点为扫描边界右下角的 像素点。
步骤206:根据第一角点、第二角点、第三角点与第四角点确定合成孔径雷达的当前扫描范围。在本申请实施例中,合成孔径雷达的扫描方式为条带模式,往返扫描,获得的扫描区域为条带状,根据获取的第一角点、第二角点、第三角点与第四角点的位置即经纬度,集合确定扫描边界得到合成孔径雷达的当前扫描范围。
步骤104:根据当前扫描范围确定合成孔径雷达在整体雷达图像上的合成孔径雷达扫描图像。具体地,在整体雷达图像中提取当前扫描范围,得到当前的合成孔径雷达扫描图像。
通过以上处理后得到的波束方位角、波束俯仰角数据按协议拼接到合成孔径雷达的状态数据中,以每帧50毫秒的频率展示在图4所示的合成孔径雷达仿真状态模块中,将得到的合成孔径雷达扫描图像以每张N秒的频率展示在合成孔径雷达仿真图像模块中,进而实现在仿真场景中实时输出合成孔径雷达仿真图像与合成孔径雷达的仿真状态数据。
虽然本申请提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的劳动可以包括更多或者更少的操作步骤。本实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的装置或客户端产品执行时,可以按照本实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境)。
如图3所示,本申请实施例还提供一种基于图像整合与提取的合成孔径雷达仿真装置300。该装置包括:融合模块301、获取模块302、范围确定模块303与图像确定模块304,具体如下。
融合模块301用于将由局部雷达图像融合得到的整体雷达图像放入仿真场景中。融合模块301具体用于,采集研究范围内的局部雷达图像,将多个局部雷达图像进行融合生成整体雷达图像。在本申请实施例中,局部雷达图像与整体雷达图像均为合成孔径雷达图像,并且均包含每个像素点的经纬度与灰度值信息。示例性地,此处可以使用小波变换、金字塔算法等方法实现将多个局部雷达图像融合为整体雷达图像。本领域技术人员应当意识到此处的局部雷达图像融合方法仅为本申请的实施例,不作为对本申请保护范围的限制。本领域技术人员还可以采用其他图像融合方法,例如基于区域的方法、基于像素的方法等。
获取模块302用于获取仿真场景中的飞控数据与合成孔径雷达指令。获取模块302具体用于,飞控数据包括数据输入频率(帧/50毫秒)以及载机当前的经度(度)、纬度(度)、高度(米)、地速(米/秒)与姿态角(度)。其中,姿态角包括航向角(度)、偏流角(度)与横滚角(度)。合成孔径雷达指令包括合成孔径雷达的侧视方式、成像作用距离(米)与条带成像宽度(米)。在本申请实施例中,用-1代表左侧视,1代表右侧视。需要注意的是,上述飞控数据与合成孔径雷达指令的单位仅为本申请采用的一种示例,本领域技术人员可根据实际情况对其进行各种修改或改变。
范围确定模块303用于根据飞控数据与合成孔径雷达指令确定合成孔径雷达的当前扫描范围。范围确定模块303具体用于,在合成孔径雷达仿真过程中,根据飞控数据中载机的航向角与偏流角实时计算仿真场景中合成孔径雷达的波束方位角与波束俯仰角。波束方位角的计算公式如下:
。式中,b表示载机当前的波束方位角, 表示载机当前的航向角,表示载机当前的偏流角。
根据飞控数据中的载机当前的高度和合成孔径雷达指令中的成像作用距离,计算仿真场景中合成孔径雷达的波束俯仰角。波束俯仰角的计算公式如下:
。式中,c为合成孔径雷达的波束俯仰角,h表示载机当前的高度,s 表示合成孔径雷达的成像作用距离。根据载机当前的高度与合成孔径雷达的成像作用距离 确定当前载机的位置与合成孔径雷达扫描边界的最远距离与最近距离。
根据最远距离确定合成孔径雷达的扫描边界的第一角点。具体地,第一角点的确定公式如下:
。式中,表示第一角 点的纬度,表示第一角点的经度,分别表示载机当前的纬度与经度,表示载机 当前位置与合成孔径雷达扫描边界的最远距离,b表示载机当前的波束方位角,R表示地球 半径,约为6371393m,表示弧度。在本申请实施例中,在计算第一角点前先确定合成孔径 雷达当前的侧视方式。上述第一角点为合成孔径雷达此时的最远扫描边界点,若确定当前 的侧视方式为左侧视,则第一角点为扫描边界左上角的像素点。若确定当前的侧视方式为 右侧视,则上述第一角点为扫描边界右上角的像素点。
根据最近距离确定合成孔径雷达的扫描边界的第二角点。具体地,第二角点的确定公式如下:
。式中,表示第二角 点的纬度,表示第二角点的经度,分别表示载机当前的纬度与经度,表示载机 当前位置与合成孔径雷达扫描边界的最近距离,b表示载机当前的波束方位角,R表示地球 半径,约为6371393m,表示弧度。在本申请实施例中,第二角点为合成孔径雷达此时的最 近扫描边界点。若确定当前的侧视方式为左侧视,则第二角点为扫描边界左下角的像素点。 若确定当前的侧视方式为右侧视,则上述第一角点为扫描边界右下角的像素点。
根据第一角点与载机当前的航向角确定合成孔径雷达的扫描边界的第三角点。具 体地,。式中,表示第三角点 的纬度,表示第三角点的经度,分别表示第一角点当前的纬度与经度,表示数 据输入频率,v表示载机当前的地速,表示载机当前的航向角,R表示地球半径,约为 6371393m,表示弧度。在本申请实施例中,若确定当前的侧视方式为左侧视,则第三角点 为扫描边界右上角的像素点,第一角点为扫描边界左上角的像素点。若确定当前的侧视方 式为右侧视,则上述第三角点为扫描边界左上角的像素点,第一角点为扫描边界右上角的 像素点。
根据第二角点与载机当前的航向角确定合成孔径雷达的扫描边界的第四角点。具体地,第四角点的确定公式如下:
。式中,表示第四 角点的纬度,表示第四角点的经度,分别表示第二角点当前的纬度与经度,表 示数据输入频率,v表示载机当前的地速,表示载机当前的航向角,R表示地球半径,约为 6371393m,表示弧度。在本申请实施例中,若确定当前的侧视方式为左侧视,则第四角点 为扫描边界右下角的像素点,第二角点为扫描边界左下角的像素点。若确定当前的侧视方 式为右侧视,则上述第四角点为扫描边界左下角的像素点,第二角点为扫描边界右下角的 像素点。
根据第一角点、第二角点、第三角点与第四角点确定合成孔径雷达的当前扫描范围。在本申请实施例中,合成孔径雷达的扫描方式为条带模式,获得的扫描区域为条带状,根据获取的第一角点、第二角点、第三角点与第四角点的位置即经纬度,集合确定扫描边界得到合成孔径雷达的当前扫描范围。
图像确定模块304用于根据当前扫描范围确定合成孔径雷达在整体雷达图像上的合成孔径雷达扫描图像。图像确定模块304具体用于,在整体雷达图像中提取当前扫描范围,得到当前的合成孔径雷达扫描图像。
本申请所述装置中的部分模块可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构、类等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
上述申请实施例阐明的装置或模块,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。为了描述方便,描述以上装置时以功能分为各种模块分别描述。在实施本申请实施例时可以把各模块的功能在同一个或多个软件和/或硬件中实现。当然,也可以将实现某功能的模块由多个子模块或子单元组合实现。
本申请中所述的方法、装置或模块可以以计算机可读程序代码方式实现控制器按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(英文:Application Specific Integrated Circuit;简称:ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内部包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
本申请实施例还提供了一种设备,所述设备包括:处理器;用于存储处理器可执行指令的存储器;所述处理器执行所述可执行指令时,实现如本申请实施例所述的方法。
此外,在本发明的各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独存在,也可以两个或两个以上模块集成在一个模块中。
上述存储介质包括但不限于随机存取存储器(英文:Random Access Memory;简称:RAM)、只读存储器(英文:Read-Only Memory;简称:ROM)、缓存(英文:Cache)、硬盘(英文:Hard Disk Drive;简称:HDD)或者存储卡(英文:Memory Card)。所述存储器可以用于存储计算机程序指令。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本申请可借助软件加必需的硬件的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,也可以通过数据迁移的实施过程中体现出来。该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,移动终端,服务器,或者网络设备等)执行本申请各个实施例或者实施例的某些部分所述的方法。
本说明书中的各个实施方式采用递进的方式描述,各个实施方式之间相同或相似的部分互相参见即可,每个实施方式重点说明的都是与其他实施方式的不同之处。本申请的全部或者部分可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、移动通信终端、多处理器系统、基于微处理器的系统、可编程的电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。
以上实施例仅用以说明本申请的技术方案,而非对本申请限制;尽管参照前述实施例对本申请进行了详细的说明,本领域普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请技术方案的范围。

Claims (9)

1.一种基于图像整合与提取的合成孔径雷达仿真方法,其特征在于,包括:
将由局部雷达图像融合得到的整体雷达图像放入仿真场景中;
获取所述仿真场景中的飞控数据与合成孔径雷达指令;
根据所述飞控数据与所述合成孔径雷达指令确定合成孔径雷达的当前扫描范围,具体为:根据载机当前的高度与合成孔径雷达的成像作用距离确定当前载机的位置与合成孔径雷达扫描边界的最远距离与最近距离;根据所述最远距离确定合成孔径雷达的扫描边界的第一角点;根据所述最近距离确定合成孔径雷达的扫描边界的第二角点;根据所述第一角点与载机当前的航向角确定合成孔径雷达的扫描边界的第三角点;根据所述第二角点与载机当前的航向角确定合成孔径雷达的扫描边界的第四角点;根据所述第一角点、所述第二角点、所述第三角点与所述第四角点确定合成孔径雷达的所述当前扫描范围;
根据所述当前扫描范围确定合成孔径雷达在所述整体雷达图像上的合成孔径雷达扫描图像。
2.根据权利要求1所述的方法,其特征在于,所述飞控数据包括数据输入频率以及载机当前的经度、纬度、高度、地速与姿态角;其中,所述姿态角包括航向角、偏流角与横滚角;
所述合成孔径雷达指令包括合成孔径雷达的侧视方式、成像作用距离与条带成像宽度。
3.根据权利要求2所述的方法,其特征在于,所述根据所述飞控数据与所述合成孔径雷达指令确定合成孔径雷达的当前扫描范围,还包括:
根据所述飞控数据确定波束方位角与波束俯仰角,所述波束方位角的计算公式如下:
式中,b表示载机当前的所述波束方位角,α表示载机当前的所述航向角,θ表示载机当前的所述偏流角。
4.根据权利要求3所述的方法,其特征在于,所述最远距离的计算公式如下:
式中,Lm表示载机当前位置与合成孔径雷达扫描边界的所述最远距离,s表示合成孔径雷达的所述成像作用距离,h表示载机当前的所述高度;
最近距离的计算公式如下:
式中,Ls表示载机当前位置与合成孔径雷达扫描边界的所述最近距离,s表示合成孔径雷达的所述成像作用距离,h表示载机当前的所述高度,k表示合成孔径雷达的所述条带成像宽度。
5.根据权利要求4所述的方法,其特征在于,所述第一角点的确定公式如下:
式中,N1表示所述第一角点的纬度,E1表示所述第一角点的经度,Ni与Ei分别表示载机当前的纬度与经度,Lm表示载机当前位置与合成孔径雷达扫描边界的所述最远距离,b表示载机当前的所述波束方位角,R表示地球半径,π表示弧度;
所述第二角点的确定公式如下:
式中,N2表示所述第二角点的纬度,E2表示所述第二角点的经度,Ni与Ei分别表示载机当前的纬度与经度,Ls表示载机当前位置与合成孔径雷达扫描边界的所述最近距离,b表示载机当前的所述波束方位角,R表示地球半径,π表示弧度;
所述第三角点的确定公式如下:
式中,N3表示所述第三角点的纬度,E3表示所述第三角点的经度,N1与E1分别表示所述第一角点当前的纬度与经度,n表示所述数据输入频率,v表示载机当前的所述地速,α表示载机当前的所述航向角,R表示地球半径,π表示弧度;
所述第四角点的确定公式如下:
式中,N4表示所述第四角点的纬度,E4表示所述第四角点的经度,N2与E2分别表示所述第二角点当前的纬度与经度,n表示所述数据输入频率,v表示载机当前的所述地速,α表示载机当前的所述航向角,R表示地球半径,π表示弧度。
6.根据权利要求2所述的方法,其特征在于,所述根据载机当前的所述高度与合成孔径雷达的所述成像作用距离确定当前载机的位置与合成孔径雷达扫描边界的最远距离与最近距离前,还包括:
确定合成孔径雷达当前的所述侧视方式。
7.根据权利要求2所述的方法,其特征在于,所述根据所述当前扫描范围确定合成孔径雷达在所述整体雷达图像上的合成孔径雷达扫描图像,包括:
在所述整体雷达图像中提取所述当前扫描范围,得到当前的所述合成孔径雷达扫描图像。
8.一种基于图像整合与提取的合成孔径雷达仿真装置,其特征在于,包括:
融合模块,用于将由局部雷达图像融合得到的整体雷达图像放入仿真场景中;
获取模块,用于获取所述仿真场景中的飞控数据与合成孔径雷达指令;
范围确定模块,用于根据所述飞控数据与所述合成孔径雷达指令确定合成孔径雷达的当前扫描范围,具体为:根据载机当前的高度与合成孔径雷达的成像作用距离确定当前载机的位置与合成孔径雷达扫描边界的最远距离与最近距离;根据所述最远距离确定合成孔径雷达的扫描边界的第一角点;根据所述最近距离确定合成孔径雷达的扫描边界的第二角点;根据所述第一角点与载机当前的航向角确定合成孔径雷达的扫描边界的第三角点;根据所述第二角点与载机当前的航向角确定合成孔径雷达的扫描边界的第四角点;根据所述第一角点、所述第二角点、所述第三角点与所述第四角点确定合成孔径雷达的所述当前扫描范围;
图像确定模块,用于根据所述当前扫描范围确定合成孔径雷达在所述整体雷达图像上的合成孔径雷达扫描图像。
9.一种用于执行基于图像整合与提取的合成孔径雷达仿真方法的设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
所述处理器执行所述可执行指令时,实现如权利要求1至7中任意一项所述的方法。
CN202311317573.2A 2023-10-12 2023-10-12 基于图像整合与提取的合成孔径雷达仿真方法及装置 Active CN117077438B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311317573.2A CN117077438B (zh) 2023-10-12 2023-10-12 基于图像整合与提取的合成孔径雷达仿真方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311317573.2A CN117077438B (zh) 2023-10-12 2023-10-12 基于图像整合与提取的合成孔径雷达仿真方法及装置

Publications (2)

Publication Number Publication Date
CN117077438A CN117077438A (zh) 2023-11-17
CN117077438B true CN117077438B (zh) 2024-01-26

Family

ID=88702749

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311317573.2A Active CN117077438B (zh) 2023-10-12 2023-10-12 基于图像整合与提取的合成孔径雷达仿真方法及装置

Country Status (1)

Country Link
CN (1) CN117077438B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10035658A1 (de) * 2000-07-20 2002-02-14 Joao R Moreira Vorwärtssicht-Radarsystem (FLR; Forward Looking Radar) zur dreidimensionalen Abbildung eines Geländeausschnitts
CN106134457B (zh) * 2006-06-02 2011-04-27 西安空间无线电技术研究所 一种合成孔径雷达系统验证方法
CN102565776A (zh) * 2010-12-08 2012-07-11 中国科学院电子学研究所 一种星载sar相控阵天线阵面布局方法
EP2778712A1 (en) * 2013-03-13 2014-09-17 Thales Alenia Space Italia S.p.A. Con Unico Socio Real aperture radar system for use on board a satellite and for maritime surveillance applications
CN106546963A (zh) * 2016-11-03 2017-03-29 中国科学院电子学研究所 一种星载合成孔径雷达仿真测试装置
CN108711335A (zh) * 2018-06-15 2018-10-26 青岛擎鹰信息科技有限责任公司 一种实现分布式大场景雷达成像仿真方法及其系统
CN110579744A (zh) * 2019-08-30 2019-12-17 湖北航天技术研究院总体设计所 一种基于dom卫片的场景建模仿真方法
CN114217274A (zh) * 2022-02-22 2022-03-22 北京宏锐星通科技有限公司 干扰合成孔径雷达目标定位的方法及装置
CN114280613A (zh) * 2022-03-08 2022-04-05 南京雷电信息技术有限公司 基于dem数据生成仿真机载火控雷达对地测绘图像方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11435471B2 (en) * 2018-04-23 2022-09-06 KMB Telematics, Inc. Imaging using frequency-scanned radar

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10035658A1 (de) * 2000-07-20 2002-02-14 Joao R Moreira Vorwärtssicht-Radarsystem (FLR; Forward Looking Radar) zur dreidimensionalen Abbildung eines Geländeausschnitts
CN106134457B (zh) * 2006-06-02 2011-04-27 西安空间无线电技术研究所 一种合成孔径雷达系统验证方法
CN102565776A (zh) * 2010-12-08 2012-07-11 中国科学院电子学研究所 一种星载sar相控阵天线阵面布局方法
EP2778712A1 (en) * 2013-03-13 2014-09-17 Thales Alenia Space Italia S.p.A. Con Unico Socio Real aperture radar system for use on board a satellite and for maritime surveillance applications
CN106546963A (zh) * 2016-11-03 2017-03-29 中国科学院电子学研究所 一种星载合成孔径雷达仿真测试装置
CN108711335A (zh) * 2018-06-15 2018-10-26 青岛擎鹰信息科技有限责任公司 一种实现分布式大场景雷达成像仿真方法及其系统
CN110579744A (zh) * 2019-08-30 2019-12-17 湖北航天技术研究院总体设计所 一种基于dom卫片的场景建模仿真方法
CN114217274A (zh) * 2022-02-22 2022-03-22 北京宏锐星通科技有限公司 干扰合成孔径雷达目标定位的方法及装置
CN114280613A (zh) * 2022-03-08 2022-04-05 南京雷电信息技术有限公司 基于dem数据生成仿真机载火控雷达对地测绘图像方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Simulation of Multi-channel SAR Raw Data Based on Real Single Channel SAR Data;Huansheng Zhang 等;IEEE Xplore;全文 *
合成孔径雷达(SAR)实时成像仿真研究;贾建科;张麟兮;赵军仓;;计算机仿真(第11期);全文 *
星载合成孔径雷达TOPS模式研究;白霞;孙进平;洪文;毛士艺;;中国科学:信息科学(第03期);全文 *
激光成像雷达前视成像仿真及障碍物识别方法研究;王广君, 田金文, 柳健;红外与激光工程(第06期);全文 *

Also Published As

Publication number Publication date
CN117077438A (zh) 2023-11-17

Similar Documents

Publication Publication Date Title
US10692002B1 (en) Learning method and learning device of pedestrian detector for robust surveillance based on image analysis by using GAN and testing method and testing device using the same
CN111912417B (zh) 地图构建方法、装置、设备及存储介质
EP2874097A2 (en) Automatic scene parsing
US10430691B1 (en) Learning method and learning device for object detector based on CNN, adaptable to customers' requirements such as key performance index, using target object merging network and target region estimating network, and testing method and testing device using the same to be used for multi-camera or surround view monitoring
US11430199B2 (en) Feature recognition assisted super-resolution method
CN112733812A (zh) 三维车道线检测方法、装置及存储介质
CN109919862B (zh) 雷达图像去噪系统、方法及计算机设备
CN114252884A (zh) 路侧雷达定位监测方法、装置、计算机设备和存储介质
CN110516621A (zh) 无障碍行驶区域的检测方法、装置、车辆及存储介质
CN114782865B (zh) 一种基于多视角和重识别的路口车辆定位方法及系统
Jia et al. Adaptive component discrimination network for airplane detection in remote sensing images
CN113012215A (zh) 一种空间定位的方法、系统及设备
CN113160406B (zh) 道路三维重建方法、装置、存储介质及电子设备
CN114169425A (zh) 训练目标跟踪模型和目标跟踪的方法和装置
CN117077438B (zh) 基于图像整合与提取的合成孔径雷达仿真方法及装置
CN117115414A (zh) 基于深度学习的无gps无人机定位方法及装置
CN114252883A (zh) 目标检测方法、装置、计算机设备和介质
CN116977806A (zh) 一种基于毫米波雷达、激光雷达和高清阵列摄像机的机场目标检测方法及系统
JP7485200B2 (ja) 画像拡張装置、制御方法、及びプログラム
Chen et al. A simulation-augmented benchmarking framework for automatic RSO streak detection in single-frame space images
CN116188587A (zh) 定位方法、装置及车辆
CN111899222B (zh) 一种利用风向全自动初步定位热带气旋中心的方法及系统
Hammas et al. Training YOLO v4 on DOTA dataset
Zu et al. Uavs-based small object detection and tracking in various complex scenarios
Fritsch Deep Neural Networks for Object Detection in Satellite Imagery

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant