CN107229051B - 基于gpu的视频sar回波仿真并行实现方法 - Google Patents

基于gpu的视频sar回波仿真并行实现方法 Download PDF

Info

Publication number
CN107229051B
CN107229051B CN201710384715.5A CN201710384715A CN107229051B CN 107229051 B CN107229051 B CN 107229051B CN 201710384715 A CN201710384715 A CN 201710384715A CN 107229051 B CN107229051 B CN 107229051B
Authority
CN
China
Prior art keywords
radar
point
azimuth
gpu
point target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710384715.5A
Other languages
English (en)
Other versions
CN107229051A (zh
Inventor
丁金闪
陈文俊
梁毅
张玉洪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Xian Cetc Xidian University Radar Technology Collaborative Innovation Research Institute Co Ltd
Original Assignee
Xidian University
Xian Cetc Xidian University Radar Technology Collaborative Innovation Research Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University, Xian Cetc Xidian University Radar Technology Collaborative Innovation Research Institute Co Ltd filed Critical Xidian University
Priority to CN201710384715.5A priority Critical patent/CN107229051B/zh
Publication of CN107229051A publication Critical patent/CN107229051A/zh
Application granted granted Critical
Publication of CN107229051B publication Critical patent/CN107229051B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9004SAR image acquisition techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/904SAR modes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明属于雷达信号处理领域,公开了一种基于GPU的视频SAR回波仿真并行实现方法,包括:将雷达系统参数值从CPU内存复制到GPU的常量存储器中;将CPU内存中的原始场景图像数据传送到GPU显存中;设置核函数,并行计算每个点目标的空间坐标及后向散射系数;设置核函数,并行计算每个方位采样时刻雷达平台的空间坐标以及雷达平台与每个点目标的瞬时斜视角;设置核函数,对所有点目标进行分块,得到所有分块数据内点目标的回波信号;设置核函数,得到雷达所有方位时刻的初始回波信号;设置核函数,得到最终经过线性调频处理后的回波信号,作为视频SAR回波信号,具有高实时性和高效率的特点。

Description

基于GPU的视频SAR回波仿真并行实现方法
技术领域
本发明属于雷达信号处理技术领域,尤其涉及一种基于GPU的视频SAR回波仿真并行实现方法,可用于视频合成孔径雷达(VideoSynthetic Aperture Radar,VideoSAR)成像算法、运动补偿算法的验证以及视频成像雷达系统性能的评估。
背景技术
合成孔径雷达具有全天时、全天候、远距离和高分辨率成像等特点。而视频合成孔径雷达可以对分布式场景目标进行连续多帧的不间断观测成像,实现可靠的速度无关运动目标检测,属于雷达研究前沿技术。
在新型视频SAR系统付诸实践之前,为对该系统进行验证和评估,一般需要对回波信号进行精确仿真。面对视频SAR日益增长的高帧率高分辨宽测绘带需求,需要对分布式场景目标进行高频段回波仿真。但是对场景的每个点目标进行回波模拟的计算量巨大,回波信号生成非常耗时。这使得大场景、高帧率要求的视频SAR快速回波仿真成为了研究的热点。
近年来,随着图形处理器(Graphics Processing Unit,GPU)软硬件技术的日趋成熟,GPU强大的浮点运算和并行处理能力使得业界都在致力于挖掘其潜能,让它能够在非图形领域得到广泛应用。基于GPU的通用计算研究逐渐深入。
传统视频SAR回波仿真采用基于中央处理器(Central ProcessingUnit,CPU)的串行处理方式实现。这种做法的缺点是回波模拟计算时间长、效率低,很难满足大场景、高帧率的视频SAR回波仿真要求。
发明内容
针对上述现有技术的问题,本发明的目的在于提供一种基于GPU的视频SAR回波仿真并行实现方法,用GPU并行实现视频SAR回波信号仿真的整个过程,具有高实时性和高效率的特点,特别在大场景、高帧率的视频SAR回波仿真方面有显著优势。
本发明的技术思路是:结合改进的同心圆算法与GPU并行处理技术实现高效的视频SAR回波仿真。采用统一计算设备架构(Compute Unified Device Architecture,CUDA)的异构编程模式,所述CUDA异构编程包括CPU模块和GPU模块。用CPU做数据初始化和逻辑性事务管理,具体包括雷达系统参数设置、内存显存分配、场景数据初始化、CPU-GPU数据传输和GPU线程分配与核函数调用。用GPU做回波仿真算法处理,具体包括点目标参数计算、点目标回波信号模拟生成和附加调频项。
为达到上述目的,本发明采用如下技术方案予以实现。
一种基于GPU的视频SAR回波仿真并行实现方法,所述方法基于作为主控制器的CPU和作为设备端的GPU;所述方法包括如下步骤:
步骤1,设置CPU内存为页锁定内存,且采用连续地址访问方式访问GPU显存;
步骤2,在所述CPU中设置雷达系统参数值,并将所述雷达系统参数值存储在CPU的内存中;进而将所述雷达系统参数值从CPU内存复制到GPU的常量存储器中;所述雷达系统参数值至少包含雷达的发射脉冲周期、雷达带宽、雷达斜距采样间隔、雷达方位向波束宽度以及雷达平台的高度以及运行速度;
步骤3,获取一幅SAR图像数据作为视频SAR回波仿真的原始场景图像数据,所述SAR图像为二维灰度图像,且所述二维灰度图像中像素点的灰度值用于表征对应该像素点位置处的点目标的后向散射系数;并将所述原始场景图像数据存储于CPU内存中;进而将CPU内存中的原始场景图像数据经PCIE接口传送到GPU显存中;
步骤4,设置第一核函数,并行计算所述原始场景图像数据中每个点目标的空间坐标及每个点目标的后向散射系数;
步骤5,设置第二核函数,并行计算每个方位采样时刻雷达平台的空间坐标以及每个方位采样时刻雷达平台与每个点目标的瞬时斜视角;
步骤6,设置第三核函数,对所有采样时刻的所有点目标进行分块,计算得到多个分块数据,对每个分块数据进行块内点目标的回波信号的叠加,得到每个分块数据内的点目标在所有方位采样时刻的一维距离像数据;
步骤7,设置第四核函数,对所有分块数据的一维距离像数据进行块间叠加,从而得到雷达所有方位时刻的初始回波信号;
步骤8,设置第五核函数,将所述雷达所有方位时刻的初始回波信号变换到频域,并在频域乘以调频因子后,再变换到时域进行线性调频处理,得到最终经过线性调频处理后的回波信号,并将所述最终经过线性调频处理后的回波信号作为视频SAR回波信号;
步骤9,将所述视频SAR回波信号从GPU显存复制到CPU内存。
本发明技术方案的特点和进一步的改进为:
(1)步骤3中,将CPU内存中的原始场景图像数据分成多个数据流,使一个数据流经PCIE接口到GPU显存的传输过程与另一个数据流在GPU中的数据处理同时进行。
(2)在CPU端为第一核函数分配二维线程网格,所述二维线程网格由多个线程块组成,每个线程块由多个线程组成,且每个线程计算一个点目标的空间坐标和后向散射系数;步骤4具体包括如下子步骤:
(4a)获取原始场景图像数据中像素点(m,n),将像素点(m,n)作为原始场景图像中的一个对应点目标,按照所述雷达斜距采样间隔将所述点目标均匀分布在二维坐标平面上,得到该点目标在所述二维坐标平面上的坐标(xm,n,ym,n),进而得到该点目标的空间坐标(xm,n,ym,n,zm,n),其中,xm,n表示像素点(m,n)在X轴方向上的坐标,ym,n表示像素点在Y轴方向上的坐标,zm,n表示像素点在Z轴方向上的坐标,且zm,n=0;m=1,2,..,M,n=1,2,..,N,M为原始场景图像的长度,N为原始场景图像的宽度;
(4b)以原始场景图像数据中每个像素点(m,n)处的灰度值表征对应点目标的后向散射系数,并附加一个随机相位因子,得到该点目标的后向散射系数
Figure GDA0002257191700000041
其中,P(m,n)表示像素点(m,n)的灰度值,
Figure GDA0002257191700000042
表示对像素点(m,n)附加的随机相位因子。
(3)在CPU端为第二核函数分配二维线程网格,采用所述二维线程网格中对应方位采样时刻的线程计算每个方位采样时刻雷达平台的空间坐标,再采用所述二维线程网格中的每个线程计算一个瞬时斜视角;步骤5具体包括如下子步骤:
(5a)雷达平台以速度v沿X轴正方向即方位向做匀速直线运动,对雷达平台在方位向的运动时间以所述发射脉冲周期为间隔进行采样得到各方位采样时刻,并得到每个方位采样时刻雷达平台的空间坐标(xi,yi,zi),其中,下标i表示第i个方位采样时刻,且i大于零;根据第i个方位采样时刻雷达平台的空间坐标(xi,yi,zi)以及原始场景图像数据中第(m,n)个点目标的空间坐标(xm,n,ym,n,zm,n),计算得到第i个方位采样时刻雷达平台与第(m,n)个点目标的瞬时斜视角
Figure GDA0002257191700000043
(5b)遍历所有方位采样时刻,得到每个方位采样时刻雷达平台的空间坐标,从而计算得到每个方位采样时刻雷达平台与每个点目标的瞬时斜视角。
(4)在CPU端为所述第三核函数分配三维线程网格,步骤6具体包括如下子步骤:
(6a)对所有方位采样时刻的所有点目标进行分块,每个分块数据的大小不超过可用的GPU显存空间;
(6b)三维线程按照分块顺序串行计算每个分块数据内点目标对应的回波信号。
(5)子步骤(6b)具体包括如下子步骤:
每个分块数据内点目标对应的回波信号的计算过程如下,且各方位采样时刻的回波数据的计算是并行进行的:
(6b1)根据第i个方位采样时刻该分块数据中雷达平台与每个点目标的瞬时斜视角,判断该分块数据中每个点目标在第i个方位采样时刻是否在雷达方位向波束宽度范围内,若在第i个方位采样时刻雷达平台与某一点目标的瞬时斜视角小于或者等于所述雷达方位向波束宽度,则该点目标在雷达方位向波束宽度范围内;
(6b2)计算该分块数据中每个位于雷达方位向波束宽度范围内的点目标到雷达平台的斜距
Figure GDA0002257191700000051
(6b2)从而得到该分块数据中位于雷达方位向波束宽度范围内的每个点目标在第i个方位采样时刻对应的回波信号
Figure GDA0002257191700000052
其中,k为sinc插值点数,u表示插值点标号,且u=1,...,k,σ(m,n)表示点目标后向散射系数,B表示发射信号带宽,τ(u)表示快时间,c表示光速;
(6b3)将该分块数据中位于雷达方位向波束宽度范围内的所有点目标在第i个方位采样时刻对应的回波信号采用CUDA原子加操作进行时域叠加得到该分块数据在第i个方位采样时刻的回波信号
Figure GDA0002257191700000061
其中,p表示原始场景目标数据中点目标的总个数,v(m,n)表示位于(m,n)处的点目标的标号。
与现有技术相比,本发明的有益效果是:(1)本发明对GPU显存进行合并访存,并通过合理分配线程块大小,增加每个线程拥有的寄存器和共享内存资源,充分发挥了GPU显存和片内高速存储器高传输带宽的优势,不仅实现了数据并行,还实现了指令级并行;(2)本发明利用流处理将数据传输和核函数执行分成多个流进行处理,利用流与流之间的并行执行来隐藏部分数据传输时间,解决了CPU-GPU的IO传输瓶颈问题,有效节省了CPU-GPU数据传输时间;(3)本发明为回波模拟生成核函数分配三维线程网格,并行计算各方位时刻的回波信号,与传统各方位时刻回波信号串行计算相比,极大地提高了计算的并行度,有效节省了回波模拟生成的时间;(4)本发明采用线程外推的方法,对所有点目标分块进行回波模拟生成和叠加,分块大小根据显存空间自动调整,克服了因目标回波数据量过大而造成显存溢出的问题,满足了大场景高帧率视频SAR回波仿真要求;(5)本发明利用原子加操作进行点目标回波信号的时域叠加,与传统回波信号的并行归约求和相比,减少了对显存空间和计算资源的开销,有效提高了回波信号叠加的实时性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的改进同心圆算法的流程示意图;
图2为本发明实施例提供的CUDA异构编程的流程示意图;
图3为本发明实施例提供的合并访存与结构体数组替换示意图;
图4为本发明实施例提供的流处理的过程示意图;
图5为本发明实施例提供的雷达回波获取的几何示意图;
图6为本发明实施例提供的三维线程映射示意图;
图7为本发明实施例提供的点目标分块与回波时域叠加示意图;
图8为本发明实施例提供的视频SAR回波仿真成像结果图;
图9为本发明实施例提供的视频SAR回波仿真运行时间图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供一种基于GPU的视频SAR回波仿真并行实现方法,结合改进的同心圆算法与GPU并行技术实现高效的视频SAR回波仿真。采用CUDA异构编程模式,所述CUDA异构编程包括CPU模块和GPU模块。用CPU做数据初始化和逻辑性事务管理,具体包括雷达系统参数设置、内存显存分配、场景数据初始化、CPU-GPU数据传输和GPU线程分配与核函数调用。用GPU做回波仿真算法处理,具体包括点目标参数计算、点目标回波信号模拟生成和附加调频项。
具体的,所述改进同心圆算法的流程图如图1所示。
所述改进的同心圆算法是一种适用于分布式场景目标的快速时域回波仿真方法。在分布式场景目标中,斜距间隔小于斜距采样间隔的相邻点目标将落到同一距离单元上,形成许多以雷达相位中心为原点的同心圆,位于相同圆上的所有点目标的回波信号被累加到同一个距离单元上。当按每个同心圆累加点目标回波信号时,得到分布式场景目标的一维距离像。
所述CUDA异构编程模型是将CPU作为主控制器(Host),负责进行逻辑性强的事务管理和串行计算相关的工作;将GPU作为设备端(Device),专注于执行高度线程化的并行处理任务,两者协调一致完成工作。所述CUDA异构编程的流程图如图2所示,包括:
(1)所述雷达系统参数设置即先在CPU端设置雷达系统参数值,如发射脉冲周期、带宽、斜距采样间隔、方位向波束宽度及雷达平台速度与高度等。先将参数值存入内存,再将参数值传送给GPU端的常量存储器(Constant Memory),以供GPU模拟回波信号时使用。
具体的,先在CPU端初始化雷达系统参数值,再利用CUDA的常量复制函数将CPU内存的雷达系统参数值通过PCI-E接口传送给GPU的常量存储器。由于雷达系统参数值在回波模拟计算中频繁使用,将系统参数值存储在常量存储器中,不仅可以保护参数值不被非法修改,而且常量存储器的访问速度快于显存,可以节省数据读取时间。
(2)所述内存显存分配即在CPU端使用页锁定内存,在GPU端对显存采用合并访存方式。
(2.1)页锁定内存分配:
在CUDA中,CPU端的内存分为两种:可分页内存和页锁定内存。可分页内存即通过操作系统API分配的存储空间,内存中的数据可能被存入低速的虚拟内存中。页锁定内存始终不会分配低速的虚拟内存,能够保证数据存放在快速的物理内存中,并且能够通过DMA加速与GPU的通信。
具体的,通过CUDA的页锁定内存分配函数和释放函数为CPU端的数据分配页锁定内存,并在使用完成后释放页锁定内存。
(2.2)显存合并访问:
所述显存合并访问即连续地址的显存访问,且速度快于非连续地址的显存访问。合并访存一般用于对显存中数组的存取,对于简单数组,CUDA显存分配函数已经确保数组在显存中连续对齐存放,对于结构体数组经常发生非连续访问,造成访存事件增加,访存时延增大。
具体的,合并访存与结构体数组替换如图3所示,通过将结构体数组替换为数组的结构体,或拆分为多个简单数组,以实现显存合并访问,进而节省数据存取时间,有效利用显存带宽。
(3)所述场景数据初始化即以一幅原始SAR图像作为回波仿真的分布式场景目标,将场景图像数据由CPU内存传送到GPU显存,以供GPU模拟回波信号时使用。
改进的同心圆法以一幅原始SAR图像作为分布式场景目标进行回波仿真,所述原始SAR图像为二维灰度图像,以图像像素点的灰度值表征对应位置点目标的后向散射系数幅度值。
具体的,先在CPU端将读取的SAR图像灰度矩阵存入页锁定内存,再利用CUDA的数组复制函数将CPU内存的场景图像数据通过PCI-E接口传送给GPU显存。
(4)所述CPU-GPU数据传输即通过CPU与GPU之间的PCI-E接口将上述的雷达系统参数及场景图像数据由CPU端传送给GPU端进行运算,再将最终的视频SAR回波数据由GPU端传回CPU端。为了减少CPU-GPU数据传输时延,采用流处理。
具体的,利用CUDA的数组复制函数将CPU端页锁定内存的场景图像数据通过PCI-E接口传送给GPU显存,最终将生成的视频SAR回波数据以同样方式由GPU端传回到CPU端。
流处理将数据传入GPU、核函数执行和数据传出GPU的整个过程分成多个流进行处理,每个流顺序执行一系列操作,流与流之间异步并行执行。这样,一个流的CPU-GPU数据传输和另一个流的核函数执行可以同时进行,以隐藏部分CPU-GPU数据传输时间。从而解决了CPU-GPU的IO传输瓶颈问题,有效地节省了数据传输时间。所述流处理的过程示意图如图4所示。
(5)所述GPU线程分配与核函数调用即根据GPU端核函数(Kernel)所处理的数据模型,分配相适宜的GPU线程网格(Grid),线程网格划分为一定数量的线程块(Block),每个线程块又由一定数量的线程(Thread)组成。调用核函数将线程网格中的各线程映射到数据模型中的各数据元素,使每个线程计算对应的一个数据元素。
在线程块中分配较少的线程。本实施例为每个线程块分配128个线程,在低设备占有率的情况下,增加了每个线程拥有的寄存器和共享内存资源,利用尽可能多的高速存储器来提高数据存取速度。
(5.1)Kernel1函数实现:
该核函数用于并行计算分布式场景目标中各点目标的空间坐标及其后向散射系数。
将原始SAR图像即二维灰度图像中各像素点(m,n)按所述雷达系统参数中的斜距采样间隔均匀分布在二维坐标平面上,计算得到各像素点的坐标即为分布式场景目标中各点目标的空间坐标(xm,n,ym,n,zm,n)。所述点目标的空间坐标不考虑起伏高度,即zm,n=0。
以原始SAR图像即二维灰度图像中(m,n)处的像素点灰度值表征对应点目标的后向散射系数幅度值,并附加一个随机相位因子,得到该点目标的后向散射系数为
Figure GDA0002257191700000101
式中P(m,n)表示像素点(m,n)的灰度值,
Figure GDA0002257191700000102
表示为了模拟点目标因电磁特性、地表粗糙度等原因而附加的随机相位。由原始SAR图像各像素点计算得到分布式场景目标中各点目标的空间坐标和后向散射系数组成了场景目标数据。
具体的,由于场景目标数据是二维结构体数组,可以在CPU端为Kernel1函数分配二维线程网格,线程网格由一定数量的线程块组成,每个线程块又由一定数量的线程组成。调用Kernel1函数将二维线程网格映射到场景二维结构体数组,使每个线程计算一个点目标的空间坐标和后向散射系数即场景二维结构体数组中的一个数据元素。
(5.2)Kernel2函数实现:
该核函数用于并行计算各方位采样时刻雷达平台的空间坐标及雷达与各点目标的瞬时斜视角。
本发明实施例假设雷达工作在条带模式,雷达回波获取的几何关系如图5所示。雷达平台飞行高度为H,并以速度v沿x轴正方向即方位向做匀速直线运动,对雷达平台在方位向的运动时间以所述雷达系统参数中的发射脉冲周期为间隔进行采样得到各方位采样时刻i。计算雷达平台在各方位采样时刻的空间坐标(xi,yi,zi)。由各方位采样时刻雷达平台的空间坐标(xi,yi,zi)及分布式场景中各点目标的空间坐标(xm,n,ym,n,zm,n)可计算求得各方位采样时刻雷达平台与各点目标的瞬时斜视角
Figure GDA0002257191700000111
具体的,由于分布式场景中各点目标在各方位时刻的瞬时斜视角数据构成二维数组,其中一维表示方位时刻,另一维表示点目标数。可以在CPU端为Kernel2函数分配二维线程网格,调用Kernel2函数将二维线程网格映射到瞬时斜视角二维数组,先用其中一维对应方位采样时刻的线程计算各方位采样时刻雷达平台的空间坐标(xi,yi,zi)。再使二维线程网格中每个线程计算一个瞬时斜视角。
(5.3)Kernel3和Kernel4函数实现:
该核函数用于点目标回波模拟生成计算,具体包括判断点目标是否在方位向波束宽度范围内、计算雷达到点目标的斜距、点目标回波幅度sinc插值和点目标回波信号分块叠加。
改进的同心圆法在常规同心圆法基础上还对点目标回波信号的幅度进行sinc插值处理即得到插值点数个子回波信号,用所有子回波信号的幅度模拟点目标回波信号的脉冲波形,即所有子回波信号构成了一个点目标回波信号。
下面详细叙述视频SAR回波模拟生成并行实现的整个过程:
由于视频SAR回波数据是三维数据模型(sinc插值点数、点目标数和方位向点数),可以在CPU端为Kernel3函数分配三维线程网格,调用Kernel3函数将三维线程网格映射到回波三维数据模型,使每个线程计算三维数据中的一个元素即一个子回波数据。每个线程依次进行如下操作:根据点目标的瞬时斜视角是否满足θi,m,n≤θbw,判断点目标是否在方位向波束宽度范围内,其中θbw为所述雷达系统参数的方位向波束宽度;对位于方位向波束宽度范围内的点目标计算其到雷达的斜距
Figure GDA0002257191700000121
对前述点目标进行回波模拟生成计算并对点目标回波信号幅度进行sinc插值处理,插值后的点目标回波信号为
Figure GDA0002257191700000122
其中k为sinc插值点数,σ(m,n)表示点目标后向散射系数,B表示发射信号带宽,τ(u)表示快时间,c表示光速;再对前述点目标回波信号进行时域叠加得到各方位采样时刻的回波信号
Figure GDA0002257191700000123
其中p表示分布式场景目标中点目标总数。从而实现并行计算各方位采样时刻回波信号,提高了回波模拟生成计算的并行度。三维线程映射如图6所示。
为防止GPU显存因点目标回波模拟计算时数据量过大而溢出,采用线程外推的方法,使有限线程可以遍历所有点目标,即对所有点目标按一定数量进行分块处理,分块确保数据大小不超过可用显存空间。由三维线程按分块顺序串行计算各分块的回波信号,并进行块内点目标回波信号叠加及块间回波信号叠加,最终得到所有方位时刻的回波信号。点目标分块与回波时域叠加如图7所示。
块内点目标回波信号叠加具体采用CUDA原子加操作实现。如图7右下图所示,首先为块内各点目标分配插值点数大小的显存空间用于存储点目标的子回波信号,再用CUDA原子加操作将点目标回波信号(子回波信号构成的数组)叠加到对应的距离采样点(距离单元)处,其中距离采样点数远大于sinc插值点数。各方位采样时刻都进行上述操作,从而实现各分块点目标回波信号的并行叠加。采用CUDA原子加操作实现点目标回波信号叠加减少了显存空间占用和非必要计算开销,节省了点目标回波信号叠加的时间。调用Kernel4函数,对上述各分块数据即点目标回波信号叠加后的二维矩阵(距离采样点数,方位采样点数)进行块间数据叠加,得到各方位采样时刻的回波信号(距离采样点数,方位采样点数)即初始回波信号。
(5.4)Kernel5函数实现:
该核函数用于将(5.3)计算得到的初始回波信号由时域变换到频域,乘以调频因子再变换到时域,做线性调频处理,得到最终的经线性调频的回波信号即视频SAR回波信号。
具体的,调用CUDA的CUFFT函数即可将模拟生成的初始回波信号由时域快速变换到频域,乘以调频因子后再快速变换到时域,以得到最终的线性调频回波信号即视频SAR回波信号。
(6)为上述各Kernel函数所分配的线程网格由一定数量的线程块组织而成,每个线程块又由一定数量的线程组成。本实施例对各Kernel函数的线程网格进行优化分配,即在线程块中分配较少的线程,本实施例为每个线程块分配128个线程,实现在低设备占有率的情况下,增加每个线程拥有的寄存器和共享内存资源,利用尽可能多的高速存储器来提高数据存取速度。高速存储器中共享内存带宽是显存的7.6倍,寄存器带宽是共享内存的6倍。
本发明的结果可由实测数据处理结果进一步说明:
图8为本发明实施例提供的由上述模拟生成的视频SAR回波信号经成像算法处理后截取的视频SAR单帧图像,所成图像质量良好。图9为本发明实施例提供的视频SAR回波仿真的运行时间图,从回波仿真运行时间上看,基于GPU的视频SAR回波仿真比基于CPU的视频SAR回波仿真具有明显的速度提升,极大地缩短了仿真运行时间,验证了并行实现方案设计的可行性及有效性。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (6)

1.一种基于GPU的视频SAR回波仿真并行实现方法,其特征在于,所述方法基于作为主控制器的CPU和作为设备端的GPU;所述方法包括如下步骤:
步骤1,设置CPU内存为页锁定内存,且采用连续地址访问方式访问GPU显存;
步骤2,在所述CPU中设置雷达系统参数值,并将所述雷达系统参数值存储在CPU内存中;进而将所述雷达系统参数值从CPU内存复制到GPU的常量存储器中;所述雷达系统参数值至少包含雷达的发射脉冲周期、雷达带宽、雷达斜距采样间隔、雷达方位向波束宽度、雷达平台的高度以及雷达平台的运行速度;
步骤3,获取一幅SAR图像数据作为视频SAR回波仿真的原始场景图像数据,所述SAR图像为二维灰度图像,且所述二维灰度图像中像素点的灰度值用于表征对应该像素点位置处的点目标的后向散射系数;并将所述原始场景图像数据存储于CPU内存中;进而将CPU内存中的原始场景图像数据传送到GPU显存中;所述原始场景图像数据中一个像素点对应一个点目标;
步骤4,设置第一核函数,并行计算所述原始场景图像数据中每个点目标的空间坐标及每个点目标的后向散射系数;
步骤5,设置第二核函数,并行计算每个方位采样时刻雷达平台的空间坐标,以及每个方位采样时刻雷达平台与每个点目标的瞬时斜视角;
步骤6,设置第三核函数,对所有方位采样时刻的所有点目标进行分块,计算得到多个分块数据,对每个分块数据进行块内点目标的回波信号的叠加,得到每个分块数据内的点目标在所有方位采样时刻的一维距离像数据,记为该分块数据的一维距离像数据;
步骤7,设置第四核函数,对所有分块数据的一维距离像数据进行块间叠加,从而得到雷达所有方位时刻的初始回波信号;
步骤8,设置第五核函数以及调频因子,将所述雷达所有方位时刻的初始回波信号变换到频域,并在频域乘以调频因子后,再变换到时域进行线性调频处理,得到最终经过线性调频处理后的回波信号,并将所述最终经过线性调频处理后的回波信号作为视频SAR回波信号;
步骤9,将所述视频SAR回波信号从GPU显存复制到CPU内存。
2.根据权利要求1所述的一种基于GPU的视频SAR回波仿真并行实现方法,其特征在于,步骤3中,将CPU内存中的原始场景图像数据分成多个数据流,使一个数据流经PCIE接口到GPU显存的传输过程与另一个数据流在GPU中的数据处理同时进行。
3.根据权利要求2所述的一种基于GPU的视频SAR回波仿真并行实现方法,其特征在于,在CPU端为第一核函数分配二维线程网格,所述二维线程网格由多个线程块组成,每个线程块由多个线程组成,且每个线程计算一个点目标的空间坐标和后向散射系数;步骤4具体包括如下子步骤:
(4a)获取视频SAR回波仿真的原始场景图像数据中像素点(m,n),将像素点(m,n)作为视频SAR回波仿真的原始场景图像中的一个对应点目标,按照所述雷达斜距采样间隔将所述点目标均匀分布在二维坐标平面上,得到该点目标在所述二维坐标平面上的坐标(xm,n,ym,n),进而得到该点目标的空间坐标(xm,n,ym,n,zm,n),其中,xm,n表示像素点(m,n)在X轴方向上的坐标,ym,n表示像素点在Y轴方向上的坐标,zm,n表示像素点在Z轴方向上的坐标,且zm,n=0;m=1,2,..,M,n=1,2,..,N,M为视频SAR回波仿真的原始场景图像的长度,N为视频SAR回波仿真的原始场景图像的宽度;
(4b)以视频SAR回波仿真的原始场景图像数据中每个像素点(m,n)处的灰度值表征对应点目标的后向散射系数,并附加一个随机相位因子,得到该点目标的后向散射系数
Figure FDA0002257191690000031
其中,P(m,n)表示像素点(m,n)的灰度值,
Figure FDA0002257191690000032
表示对像素点(m,n)附加的随机相位因子。
4.根据权利要求3所述的一种基于GPU的视频SAR回波仿真并行实现方法,其特征在于,在CPU端为第二核函数分配二维线程网格,采用所述二维线程网格中对应方位采样时刻的线程计算每个方位采样时刻雷达平台的空间坐标,再采用所述二维线程网格中的每个线程计算一个瞬时斜视角;步骤5具体包括如下子步骤:
(5a)雷达平台以速度v沿X轴正方向即方位向做匀速直线运动,对雷达平台在方位向的运动时间以所述发射脉冲周期为间隔进行采样得到各方位采样时刻,并得到每个方位采样时刻雷达平台的空间坐标(xi,yi,zi),其中,下标i表示第i个方位采样时刻,且i大于零;根据第i个方位采样时刻雷达平台的空间坐标(xi,yi,zi)以及原始场景图像数据中第(m,n)个点目标的空间坐标(xm,n,ym,n,zm,n),计算得到第i个方位采样时刻雷达平台与第(m,n)个点目标的瞬时斜视角
Figure FDA0002257191690000033
其中,第(m,n)个点目标是指原始场景图像数据中像素点(m,n)对应的点目标;
(5b)遍历所有方位采样时刻,得到每个方位采样时刻雷达平台的空间坐标,从而计算得到每个方位采样时刻雷达平台与每个点目标的瞬时斜视角。
5.根据权利要求4所述的一种基于GPU的视频SAR回波仿真并行实现方法,其特征在于,在CPU端为所述第三核函数分配三维线程网格,步骤6具体包括如下子步骤:
(6a)对所有方位采样时刻的所有点目标进行分块,每个分块数据的大小不超过可用的GPU显存空间;
(6b)三维线程按照分块顺序串行计算每个分块数据内点目标对应的回波信号。
6.根据权利要求5所述的一种基于GPU的视频SAR回波仿真并行实现方法,其特征在于,子步骤(6b)具体包括如下子步骤:
每个分块数据内点目标对应的回波信号的计算过程如下,且各方位采样时刻的回波数据的计算是并行进行的:
(6b1)根据第i个方位采样时刻该分块数据中雷达平台与每个点目标的瞬时斜视角,判断该分块数据中每个点目标在第i个方位采样时刻是否在雷达方位向波束宽度范围内,若在第i个方位采样时刻雷达平台与某一点目标的瞬时斜视角小于或者等于所述雷达方位向波束宽度,则该点目标在雷达方位向波束宽度范围内;
(6b2)计算该分块数据中每个位于雷达方位向波束宽度范围内的点目标到雷达平台的斜距
Figure FDA0002257191690000041
(6b2)从而得到该分块数据中位于雷达方位向波束宽度范围内的每个点目标在第i个方位采样时刻对应的回波信号
Figure FDA0002257191690000042
其中,k为sinc插值点数,u表示插值点标号,且u=1,...,k,σ(m,n)表示点目标后向散射系数,B表示发射信号带宽,τ(u)表示在插值点u处的快时间,c表示光速,λ表示雷达发射信号的波长;
(6b3)将该分块数据中位于雷达方位向波束宽度范围内的所有点目标在第i个方位采样时刻对应的回波信号采用CUDA原子加操作进行时域叠加得到该分块数据在第i个方位采样时刻的回波信号
Figure FDA0002257191690000051
其中,p表示原始场景图像数据中点目标的总个数,v(m,n)表示位于(m,n)处的点目标的标号。
CN201710384715.5A 2017-05-26 2017-05-26 基于gpu的视频sar回波仿真并行实现方法 Active CN107229051B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710384715.5A CN107229051B (zh) 2017-05-26 2017-05-26 基于gpu的视频sar回波仿真并行实现方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710384715.5A CN107229051B (zh) 2017-05-26 2017-05-26 基于gpu的视频sar回波仿真并行实现方法

Publications (2)

Publication Number Publication Date
CN107229051A CN107229051A (zh) 2017-10-03
CN107229051B true CN107229051B (zh) 2020-05-01

Family

ID=59933555

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710384715.5A Active CN107229051B (zh) 2017-05-26 2017-05-26 基于gpu的视频sar回波仿真并行实现方法

Country Status (1)

Country Link
CN (1) CN107229051B (zh)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107728114B (zh) * 2017-11-14 2021-10-29 四川泰立科技股份有限公司 基于gpu的低速目标监视雷达信号处理方法
CN108107456B (zh) * 2017-12-22 2020-01-17 湖南卫导信息科技有限公司 实时获取外部轨迹gpu实时生成导航仿真信号的方法
CN108205135B (zh) * 2018-01-22 2022-03-04 西安电子科技大学 基于无插值融合快速后向投影的雷达视频成像方法
CN108614266A (zh) * 2018-03-13 2018-10-02 南京航空航天大学 一种视频sar高速处理技术的fpga的实现方法
CN108259779B (zh) * 2018-04-08 2020-05-05 成都索贝数码科技股份有限公司 一种利用部分幅面数据实现快速处理大幅面视频图像的方法
CN109061571A (zh) * 2018-06-25 2018-12-21 北京无线电测量研究所 一种基于OpenGL的雷达信息显示方法和系统
CN109683018B (zh) * 2018-12-24 2020-12-01 电子科技大学 一种实时多帧频域数据的并行处理方法
CN109884630B (zh) * 2019-01-28 2022-11-01 南京航空航天大学 基于gpu的圆迹视频sar实时成像的方法
CN109901165B (zh) * 2019-03-28 2023-03-14 河南九乾电子科技有限公司 星载sar回波的模拟装置及模拟方法
CN110515053B (zh) * 2019-08-27 2023-02-17 西安电子科技大学 基于cpu和多gpu的异构平台sar回波仿真并行方法
CN110515050B (zh) * 2019-08-30 2021-08-10 北京空间飞行器总体设计部 一种基于gpu的星载sar实时回波模拟器
CN110750752B (zh) * 2019-09-10 2023-12-05 许昌许继软件技术有限公司 一种模拟量数据的插值方法及装置
CN111965616B (zh) * 2020-08-18 2023-10-17 西安电子科技大学 基于cpu和gpu的时分mimo雷达信号处理方法
CN112698290A (zh) * 2020-12-10 2021-04-23 南京长峰航天电子科技有限公司 一种大场景sar回波模拟并行处理方法及系统
CN113641470A (zh) * 2021-07-23 2021-11-12 曙光云计算集团有限公司 基于gpu的线程排布方法、装置、设备以及存储介质
CN114489541B (zh) * 2022-01-14 2024-05-10 山东云海国创云计算装备产业创新中心有限公司 一种基于fpga的vga显存带宽调控方法及相关组件
CN114252855B (zh) * 2022-03-01 2022-05-06 南京雷电信息技术有限公司 一种同时sar/gmt回波模拟方法及其系统
CN114415181B (zh) * 2022-03-31 2022-07-12 南方海洋科学与工程广东省实验室(广州) 一种合成孔径雷达的原始回波生成方法和装置
CN116299463B (zh) * 2023-05-16 2023-08-08 四川天府新区北理工创新装备研究院 一种基于通用计算设备后端的小型sar成像系统及方法
CN117148351B (zh) * 2023-10-31 2024-02-06 西安电子科技大学 基于卫星sar图像的弹载sar图像成像方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104459666A (zh) * 2014-12-01 2015-03-25 西安电子科技大学 基于LabVIEW的弹载SAR回波仿真及成像方法
CN104483670A (zh) * 2014-12-01 2015-04-01 西安电子科技大学 基于gpu的合成孔径雷达回波仿真方法
CN105911532A (zh) * 2016-06-29 2016-08-31 北京化工大学 基于深度协同的合成孔径雷达回波并行模拟方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104459666A (zh) * 2014-12-01 2015-03-25 西安电子科技大学 基于LabVIEW的弹载SAR回波仿真及成像方法
CN104483670A (zh) * 2014-12-01 2015-04-01 西安电子科技大学 基于gpu的合成孔径雷达回波仿真方法
CN105911532A (zh) * 2016-06-29 2016-08-31 北京化工大学 基于深度协同的合成孔径雷达回波并行模拟方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"SAR raw signal simulation based on GPU parallel computation";Wang Bingnan et al.;《2019 IEEE International Geoscience and Remote Sensing Symposium》;20090717;第617-620页 *
"基于CPU的SAR回波信号模拟和研究与实现";李博;《中国优秀硕士学位论文全文数据库》;20141115(第11期);全文 *
"基于GPU的SAR回波模拟与成像方法";张云骥;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170315(第03期);全文 *

Also Published As

Publication number Publication date
CN107229051A (zh) 2017-10-03

Similar Documents

Publication Publication Date Title
CN107229051B (zh) 基于gpu的视频sar回波仿真并行实现方法
US11113790B2 (en) Adding greater realism to a computer-generated image by smoothing jagged edges
US20220405582A1 (en) Systems and methods for training neural networks with sparse data
US11557022B2 (en) Neural network system with temporal feedback for denoising of rendered sequences
EP3206190A1 (en) Device and process for improving efficiency of image rendering
Wang et al. Shader-based sensor simulation for autonomous car testing
CN112149795A (zh) 用于自监督事件学习与异常检测的神经架构
US10748332B2 (en) Hybrid frustum traced shadows systems and methods
CN102854507B (zh) 一种基于gpu后向投影双站合成孔径雷达成像方法
CN109859178B (zh) 一种基于fpga的红外遥感图像实时目标检测方法
CN110097582B (zh) 一种点云优化配准与实时显示系统及工作方法
CN110515053B (zh) 基于cpu和多gpu的异构平台sar回波仿真并行方法
US8963920B2 (en) Image processing apparatus and method
WO2023213178A1 (zh) 一种高分辨率遥感图像的目标检测方法及装置
US20210398253A1 (en) Adding greater realism to a computer-generated image by smoothing jagged edges
CN107621637B (zh) 基于单多普勒雷达的切变区风场反演方法
Zhao et al. High-quality Kinect depth filtering for real-time 3D telepresence
CN115825954A (zh) 一种基于gpu的sar后向投影成像并行加速优化方法
CN113344765A (zh) 一种频域天文图像目标检测方法及系统
Yang et al. An Embedded-GPU-Based Scheme for Real-Time Imaging Processing of Unmanned Aerial Vehicle Borne Video Synthetic Aperture Radar
US20200177798A1 (en) Machine Learning of Environmental Conditions to Control Positioning of Visual Sensors
KR101540941B1 (ko) 병렬 쉬어 와프 분해를 이용한 볼륨 렌더링 방법
CN113379906B (zh) 一种基于超像素滤波的单光子三维图像重建方法及系统
DE102019100505A1 (de) Durchführen einer Textur-Detaillierungsgrad-Näherung
KR20160030871A (ko) 그래픽 프로세싱 유닛을 사용하여 히스토그램 계산을 위한 시스템 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant