CN113672380A - Gpu实现fx互相关鉴相的相位干涉仪测向系统及其鉴相方法 - Google Patents
Gpu实现fx互相关鉴相的相位干涉仪测向系统及其鉴相方法 Download PDFInfo
- Publication number
- CN113672380A CN113672380A CN202110788384.8A CN202110788384A CN113672380A CN 113672380 A CN113672380 A CN 113672380A CN 202110788384 A CN202110788384 A CN 202110788384A CN 113672380 A CN113672380 A CN 113672380A
- Authority
- CN
- China
- Prior art keywords
- data
- gpu
- phase
- function
- cpu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/14—Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
- G06F17/141—Discrete Fourier transforms
- G06F17/142—Fast Fourier transforms, e.g. using a Cooley-Tukey type algorithm
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computational Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Discrete Mathematics (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Complex Calculations (AREA)
Abstract
本发明提供了一种GPU实现FX互相关鉴相的相位干涉仪测向系统及其鉴相方法,能够根据性能需求灵活配置GPU数量,具有极大的数据吞吐量和极好的矢量运算性能,并行计算速度很快。本发明以GPU作为核心的数据处理器件,用CPU完成任务的分配和调度,其中,以GPU线程作为并行基础,每一个线程用于处理一路信号中的一个采样点,然后以多线程并发进行多路信号的相位差提取。利用了GPU的高灵活性和高效并行数据处理能力,将计算输出最大化,采用绝大部分的晶体管进行构建算数逻辑单元,而不是构建数据缓存与流控,具有极大的数据吞吐量和极好的矢量运算性能,并行计算速度很快。
Description
技术领域
本发明属于鉴相技术领域,具体涉及一种GPU(图形处理单元)实现FX互相关鉴相的相位干涉仪测向系统及其鉴相方法。
背景技术
相位干涉仪测向法属于典型的比相法测向体制,信号相位的提取至关重要,不同的鉴相方式会有不同的鉴相准确度,最终会影响测向系统的测向结果,常用的鉴相方法有频域鉴相法,频域鉴相法又称为FX互相关鉴相法。
FX互相关鉴相法对两路信号进行时域抽样后,分别作离散傅里叶变换,得到相应的频域信号,对频移信号共轭相乘,取算术平均,求得两路频域信号的相关谱,找出相关谱的谱峰位置,该处的相位值即为两路信号的相位差。FX互相关鉴相算法能够最大限度的抑制噪声能量,减小噪声相位对信号的干扰,鉴相精度更高,但通常运算量很大,计算速度较慢,在实际工程应用中,一般需要进行数据加速处理,以实现测向系统实时测向的应用。
传统鉴相器仅使用CPU作为数据核心运算设备,但CPU在芯片设计上,运算控制电路与缓存占用了大部分面积与版图,绝大部分空间与电路构件并不属于算数逻辑单元(Arithmetic Logic Unit,ALU)。因此CPU作为通用处理器虽然分支能力强大,能够处理复杂的分支与条件指令以及进行任务之间的协调,但CPU在数据吞吐量和矢量运算能力上做出了不可避免的牺牲,无法并行处理数据。
发明内容
有鉴于此,本发明提供了一种GPU实现FX互相关鉴相的相位干涉仪测向系统及其鉴相方法,能够根据性能需求灵活配置GPU数量,具有极大的数据吞吐量和极好的矢量运算性能,并行计算速度很快。
为实现上述目的,本发明的一种GPU实现FX互相关鉴相的相位干涉仪测向系统,包括天线阵列、射频前端、数字中频模块和CPU,还包括GPU,GPU与CPU相连,GPU中设有FX互相关鉴相器;
所述数字中频模块对射频前端发射的模拟中频数据进行采样,采样得到的数字中频数据传输给CPU;其中,每次采样时,同一时刻各个天线的模拟中频数据按照通道号排列在一起;
CPU将所述数字中频数据分割成段数据,将段数据拷贝给GPU;
所述FX互相关鉴相器中编写有核函数,GPU调用编写的核函数以及CUDA函数库内的cufftPlan1D函数,用于对所述段数据按采样点进行FX互相关鉴相处理,得到不同天线间的相位差信息,完成鉴相,并将不同天线间的相位差信息发送给CPU;
其中,当GPU中调用的一个cufftPlan1D函数或者加载的一个核函数接收到数据后,启用大于本段内采样点数的线程,工作完成后关闭已启用的线程,数据传递至下一个cufftPlan1D函数或者核函数,不同cufftPlan1D函数或者核函数之间的线程完全独立;
CPU对接收到的相位差信息进行后续处理。
其中,在GPU内部编写有核函数kernel1、核函数kernel2以及核函数kernel3;
其中,核函数kernel1用于对分割后的各段数字中频数据进行类型转换,将类型转换后的数据发送给CUDA函数库内的cufftPlan1D函数;
所述cufftPlan1D函数对经过类型转换后的数据进行傅里叶变换,将傅里叶变换后数据发送给所述核函数kernel2;
核函数kernel2对傅里叶变换后的数据进行共轭相乘处理,共轭相乘时一个天线的信号取共轭与另一个天线的原始信号进行相乘,将共轭相乘后的数据发送给所述核函数kernel3;
核函数kernel3用于对共轭相乘后的数据进行能量累积及提相处理,所得相角即为每个采样点处两路信号相位差。
其中,对于每段数据,kernel1启用大于本段内采样点数的线程,工作时所有线程同时启动,完成本段内所有采样点数据转换后对应线程关闭。
其中,在CPU内存中申请有循环缓冲区,所述循环缓冲区包括若干个容量相等的内存块,相邻内存块首尾相接,形成一个环式的链。
其中,CPU和GPU的数据传输中,设计有2个线程:一个为CPU数据填充线程,负责将CPU接收的数据流按照顺序,依次存储到循环缓冲区的内存块;另一个为GPU读取线程,负责将循环缓冲区的内存块数据依次发送至GPU中进行处理。
其中,CPU与GPU之间利用cudaMemcpy函数进行数据传输。
其中,GPU将不同天线间的相位差信息通过UDP/TCP协议发送给CPU。
其中,GPU通过PCIe总线与CPU相连。
其中,GPU将不同天线间的相位差信息通过UDP/TCP协议发送给CPU。
本发明还提供了一种鉴相方法,采用本发明所述的测向系统,GPU调用编写的核函数kernel1、核函数kernel2以及核函数kernel3以及CUDA函数库内的cufftPlan1D函数,用于对所述采样点数据按段进行FX互相关鉴相处理,得到不同天线间的相位差信息,完成鉴相,其特征在于,包括如下步骤:
核函数kernel1对分割后的各段数字中频数据进行类型转换,将类型转换后的数据发送给CUDA函数库内的cufftPlan1D函数;
所述cufftPlan1D函数对经过类型转换后的数据进行傅里叶变换,将傅里叶变换后数据发送给所述核函数kernel2;
其中,对所述数字中频数据中每一路信号进行FFT变换;其中,将一秒内的采样点分成若干段,每段内的数据分别进行快速傅里叶变换;
核函数kernel2对傅里叶变换后的数据进行共轭相乘处理,共轭相乘时一个天线的信号取共轭与另一个天线的原始信号进行相乘,将共轭相乘后的数据发送给所述核函数kernel3;
其中,将FFT变换后的信号中每两路信号进行共轭相乘,得到每两路信号共轭相乘的结果;共轭相乘时,保持一路信号不变,另一路信号利用欧拉公式中正弦函数和余弦函数在复数范围内的复数关系取共轭,然后将取共轭后的信号与另一路取共轭前的信号进行相乘;
核函数kernel3用于对共轭相乘后的数据进行能量累积及提相处理,所得相角即为每个采样点处两路信号相位差;
其中,针对每两路信号共轭相乘的结果,对每段内数据进行n等分,每段内的共轭相乘后的n份数据相加然后取平均,最终一段内的数据量减少至原来数据量大小的1/n,完成能量累积,其中,n为正整数;
能量累积后得到的数据波形即为两路信号的相关谱,对能量累积后的每一个复数,利用其虚部除以实部,得到每个复数的相角;
找到每两路信号相关谱中能量的最大值,该最大值处对应的复数相角即为这两路信号这段数据采样点内的相位。
有益效果:
本发明以GPU作为核心的数据处理器件,用CPU完成任务的分配和调度,其中,以GPU线程作为并行基础,每一个线程用于处理一路信号中的一个采样点,然后以多线程并发进行多路信号的相位差提取。利用了GPU的高灵活性和高效并行数据处理能力,将计算输出最大化,采用绝大部分的晶体管进行构建算数逻辑单元,而不是构建数据缓存与流控,具有极大的数据吞吐量和极好的矢量运算性能,并行计算速度很快。
本发明GPU中可利用的执行单元众多,可以设计更多的通道,且GPU的开发使用更灵活,升级容易,通过加载不同的程序就可以完成不同的功能;从工程实用性上分析,本发明可靠性更高,扩展性更好,精度更高。
本发明采用循环链式缓冲区与多线程应用能够连续不断的接收数据,实现高速数据稳定的实时传输。
附图说明
图1为单基线干涉仪测向模型示意图。
图2为鉴相流程框图。
图3为FX互相关鉴相法相关谱。
图4为基线12的鉴相器输出相位差示意图。
图5为基线23的鉴相器输出相位差示意图。
图6为基线13的鉴相器输出相位差示意图。
图7为CPU与GPU结构对比图。
图8为GPU中网格、线程块与线程关系图。
图9为本发明基于GPU的FX互相关鉴相器实现框图。
图10为本发明原始数据类型转换流程框图。
图11为本发明快速傅里叶变换流程框图。
图12为本发明共轭相乘流程框图。
图13为本发明能量累积、求相位流程框图。
图14为本发明实施例测向系统结构框图。
图15为本发明实施例循环链式缓冲区结构图。
图16为本发明实施例FX互相关鉴相器软件程序流程图。
图17为本发明实施例基于GPU的FX互相关鉴相器实现流程框图。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
为了更好的说明本发明鉴相器的工作原理及其鉴相方法,先介绍下单基线相位干涉仪测向原理,单基线相位干涉仪测向原理图如图1所示,由两个阵元构成的只有一条基线的干涉仪测向系统,阵元间的连线称为基线。假设信号到·达接收天线前的阵前波为平行波,则天线1和2接收到的信号分别为:
x1(t)=A·exp[j(ωt+ψ)]
x2(t)=A·exp[j(ω(t-τ)+ψ)] (1)
式中A为信号幅度;ω=2πf,f为入射信号频率;τ为天线1相对于天线2接收信号的时延;ψ为入射信号的初相。FX互相关鉴相法先对两路信号分别做傅里叶变换,将信号变换到频域后进行共轭相乘然后求平均,得到两路信号的相关谱,求相关谱的谱峰位置,该处的相位值即为两路信号的相位差。对两路信号分别进行傅里叶变换后得:
互相关处理后相关谱为:
相关谱谱峰位置的相位差为:
φ=2πfτ=angle[Y(ω)|ω=2πf] (4)
利用鉴相器提取出两路信号的相位差φ为:
式中λ为信号波长;θ为入射信号与视轴之间的夹角,即入射信号的俯仰角;c为光速,即信号传播的速度;D为两个接收天线的间距,即基线长度。则对应的俯仰角为:
鉴相流程具体如下:
FX互相关鉴相算法需要将模拟信号离散化,采用数字信号处理的方法在频域内提取相位差信息,鉴相流程如图2所示,以只有两个阵元的一维单基线相位干涉仪测向系统为例,对两路信号离散化之后进行FFT变换,得到两路信号的频谱,对其中一路信号求复数共轭之后与另一路信号进行复数相乘,由于躁扰的影响,由一个或几个数据得到的结果可能不准确,因此需要多个样本平均以提高测向准确度,即能量累积,然后利用反正切求出在选定数据段上各个点的相位值,最后找到频谱最大值所对应的位置,提取该位置处的相位差信息。
图3所示为两路实测信号的相关谱,FFT点数为100点,可以求得相关谱在频谱上对应的最大值位置为第26点(另一点为折叠的频点),那么第26点对应的相位值就是要求的相位差。
在相位干涉仪测向方法中,由于鉴相器物理特性导致提取的信号相位差只能在[-π,π]范围内,当基线长度小于入射信号最高频率半波长时,对于任意方向入射信号,实际相位差都在[-π,π]以内,测量值反应实际值;当基线长度大于半波长时,相位差实际值超出[-π,π],此时鉴相器对实际相位差进行截断和平移,使其在[-π,π]范围内翻折,这就是相位干涉仪测向方法中常见的相位模糊问题。对于由i(i≥1)条基线构成的相位干涉仪,假设鉴相器输出的测量相位值为ψi,实际相位值为φi,则鉴相相位差与实际相位差的关系为:
φi=2kiπ+ψi (1)
式中ki为每条基线对应的模糊数,由上式可得:
由上式可知,在基线长度互质的情况下,当入射波波长不变,入射角度不变时,各条基线对应的模糊数的大小与基线长度有关,基线越长模糊数越大,鉴相器输出的相位差在[-π,π]范围内翻折的次数越多。假设有3个阵元1、2、3摆放在同一条直线上,3个阵元构成3条基线分别为基线12、基线13、基线23,3条基线的长度分别为:D12=30cm,D23=70cm,D13=100cm。对3个阵元接收的信号两两做互相关处理,得到3组相位差值,如图4-6所示,横轴为信号入射角度,纵轴为鉴相后存在模糊的相位差,由图4-6可知,基线越长,模糊数越大,相位翻折次数越多。
因为GPU具有大量执行单元,适合进行大量并行运算,解决并行化问题,因此本发明把鉴相算法加载到GPU中进行。本发明采用CPU+GPU异构并行方式,在计算密集型应用中,往往有很多并行数据的程序段。GPU就是用来提高这些并行数据的执行速度的。当使用CPU上的一个与其物理分离开的硬件组件来提高应用中的计算密集部分的执行速度时,这个组件就成为了一个硬件加速器,GPU可以说是最常见的硬件加速器。GPU不是一个独立运行的平台而是CPU的协处理器,因此GPU必须通过PCIe总线与基于CPU的主机相连来进行操作。
GPU是一种高度并行化的多核处理器,它的特点是能够利用大量的处理单元进行并行计算,在基带信号处理中有大量重复的相关运算,所以用GPU来处理是很合适而且有优势的。GPU通过增加计算单元和存储器控制单元来提高并行数据计算能力和存储器宽度,因此GPU在并行计算能力和存储器带宽上较CPU有明显优势,且成本和功耗上也没有付出太大代价。图7对CPU和GPU中控制单元、计算单元数量做了比较,从图7中可以看出GPU中计算单元远远多于CPU,使其有更强的并行计算能力。
通常一个异构应用包括两个部分:主机代码和设备代码,主机代码在CPU上运行,设备代码在GPU上运行,因此通常也将CPU称作主机端(host),GPU称作设备端(device)。CPU主要负责统筹管理整个程序或者测向系统的处理以及一些相对简单的串行计算和操作,GPU则主要负责计算量相对较大,较复杂的并行处理任务。异构平台上执行的应用由CPU初始化,在设备端加载计算密集型任务之前,CPU代码负责管理设备端的环境、代码和数据。
内核(kernel)是GPU编程模型的一个重要组成部分,其代码在GPU上运行,核函数可以串行执行。多数情况下,主机可以独立地对设备进行操作。内核一旦被启动,管理权立刻返回给主机,释放CPU来执行由设备上运行的并行代码实现额外的任务。GPU执行程序时的最小单位是线程(thread),每个线程都会并行地执行内核函数。这些线程被组织为两级的层次结构:一个网格(grid)包含一个或多个线程块(block),每个线程块包含一个或多个线程。网格、线程块和线程的关系如图8所示。
在CPU、GPU两种不同的结构下编程,需要注意的是两者各自维护自己的内存空间,分为host memory和device memory,如果要交互数据需要用CUDA runtime库调用cudaMemcpy函数来传递。一个典型的GPU程序实现流程遵循以下模式:
把数据从CPU内存拷贝到GPU内存。
调用核函数对存储在GPU内存中的数据进行操作。
将数据从GPU内存拷贝回CPU内存。
经过上述分析,本发明基于GPU的FX互相关鉴相器实现框图如图9所示,其中FFT变换调用GPU已有的函数库CUDA中的cufftPlan1D函数,其他处理则调用在GPU内编写的核函数,其中每一个函数和核函数的功能和作用具体如下:
1、kernel1原始数据类型转换
相位干涉仪测向时需要两个或多个天线接收信号,本发明中,多个天线接收的数据通过AD采集卡时,每次采样时同一时刻各个天线的信号按照通道号排列在一起,假设测向系统有n(n≥2)个天线,CPU将接收的信号数据分割成每段N个采样点拷贝给GPU,因此GPU第一个核函数(kernel1)每次读取N点数据,即kernel1对每个天线接收的数据每次处理N/n个采样点,得到数据后kernel1启用大于N的线程数来处理这些数据,保证一个线程处理一个采样点数据,处理完N点数据后关闭这些线程。GPU中第一个核函数的功能是对原始数据类型进行转换,即将各个天线得到的数据分开存放。图10是GPU中原始数据类型转换流程框图。其中,GPU每个线程块中分配线程(Thread)数512,共启用i(i≥1)个线程块(Block)。Kernel1工作时所有线程块内的线程同时启动,保证每个线程对每个采样点数据同时进行转换,启用的所有线程完成一次N点数据转换后循环加载进行下一段N点数据类型转换。设本次处理的数据在第iW个线程块,每个线程块大小为uL,数据点在线程块内索引为iL,其在整个数据序列的索引值为j=iW*uL+iL。
2、cufftPlan1D快速傅里叶变换
Kernel1完成原始数据类型转换后关闭kernel内所有的线程,将数据发送给CUDA函数库内的cufftPlan1D函数,cufftPlan1D函数对经过类型转换后的数据进行傅里叶变换。图11是GPU中快速傅里叶变换流程框图。其中,GPU每个线程块中分配线程数仍取512,线程网格循环加载,保证每个线程对每次转换后的N点数据进行FFT处理。设本次处理的数据为第iT段,设本次处理的数据在第iT个线程块,每个线程块大小为nL,数据点在线程块内索引为iL,其在整个数据序列的索引值为v=iT*nL+iL。在GPU上进行傅里叶变换需要做以下几步工作:
创建一个plan。调用cufftPlan1D创建一个简单的1维傅里叶变换;执行plan。使用cufftExecR2C()函数完成plan的计算任务;执行完成以后不再需要该plan,则调用cufftDestroy()函数销毁该plan及为其分配的计算资源。
CUDA库实现了三种不同类型的傅里叶变换:C2C(复数到复数)、C2R(复数到实数)、R2C(实数到复数),本系统在输入信号的FFT计算中,因为输入是实信号,因此使用了CUFFT_R2C类型的FFT,假设有X个数据,经过CUFFT_R2C类型的FFT变换后得到(X/2+1)个数据。本系统中天线数为n,cufftPlan1D函数每次处理点数为N,即对每个天线接收的数据每次处理N/n个采样点,为了减小噪音对信号的干扰,傅里叶变换前将N/n个点等分成x段,分段进行FFT变换,每段N/nx个点,因此每个天线每段FFT变换后会得到(N/2nx+1)点数据,x段数据FFT后得到(N/2n+x)点复数数据,即每个天线每次接收的N/x个实数得到(N/2n+x)个复数,因此n个天线FFT变换时每输入N个实数输出(N/2+xn)个复数。使用CUFFT_R2C类型变换,这样可以节省数据虚部初始化操作,减少数据传输量、减少数据计算量。
3、kernel2共轭相乘
共轭相乘流程框图如图12所示,cufftPlan1D完成FFT变换后关闭函数内所有线程,(N/2+xn)个复数传输至下一个核函数kernel2进行共轭相乘处理,共轭相乘时一个天线的信号取共轭与另一个天线的原始信号进行相乘,因为每两个天线构成一条基线,因此每两个天线的信号都需要进行共轭相乘处理,n个天线构成Cn 2条基线,即得到Cn 2组共轭相乘结果,因为每个天线数据为(N/2n+x)点,处理后共得到Cn 2(N/2n+x)个结果。
4、kernel3能量累积并求相位
Kernel2完成数据处理后关闭函数内所有线程,Cn 2(N/2n+x)个结果传输至下一个核函数kernel4进行能量累积及提相处理,每条基线的(N/2n+x)个数据分成x段进行相加平均,令M=(N/2n+x),分成x段后,每段M/x点,kernel3流程框图如图13所示。累加平均后每条基线数据量为M/x个复数,用atan2函数求每个复数的相角,所得相角即为每个采样点处两路信号相位差。
综上所述,本发明基于GPU平台,利用快速傅里叶变换算法、复数共轭相乘等,实现相位干涉仪实时提取阵元间相位差的效果。基于上述分析,得到本发明的相位干涉仪测向系统如图14所示,包括天线阵列、射频前端、数字中频模块、GPU和CPU,其中,GPU与CPU相连,GPU为后台单元,设有FX互相关鉴相器;射频前端包括低噪声放大器以及下变频器;
具体地,所述天线阵列用于接收辐射源产生的射频信号,并将射频信号传输给所述低噪声放大器;
所述低噪声放大器用于降低信号噪声,提高输出信号的信噪比,并将经过低噪声放大器后的信号传输给所述下变频器;所述下变频器把接收到的信号下变频到较低的频率,得到模拟中频数据,并将所述模拟中频数据输入到所述数字中频模块;
所述数字中频模块用于对接收到的模拟中频数据进行采样,产生数字中频数据,并将所述数字中频数据传输给CPU;其中,每次采样时,同一时刻各个天线的模拟中频数据按照通道号排列在一起;
其中,数字中频模块包括A/D数据采集板卡,用于对模拟中频数据进行离散化处理,产生数字中频信号;A/D数据采集板卡的缓冲器作为接收数据的缓存,用于获得数字中频信号的数据流;
CPU将所述数字中频数据分割成段数据,将段数据拷贝给GPU;
所述FX互相关鉴相器中编写有核函数,GPU调用编写的核函数以及CUDA函数库内的cufftPlan1D函数,用于对所述段数据按采样点进行FX互相关鉴相处理,得到不同天线间的相位差信息,完成鉴相,并将不同天线间的相位差信息发送给CPU;
其中,当GPU中调用的一个cufftPlan1D函数或者加载的一个核函数接收到数据后,启用大于本段内采样点数的线程,工作完成后关闭已启用的线程,数据传递至下一个cufftPlan1D函数或者核函数,不同cufftPlan1D函数或者核函数之间的线程完全独立;
CPU为前台单元,设有解模糊和拟合处理模块以及角度解算模块;所述CPU对相位差信息进行编帧,所述解模糊和拟合处理模块对编帧后的相位信息进行相位模糊解算及拟合处理,得到无模糊高精度的相位差信息;所述角度解算模块,用于根据相位差信息解算出辐射源俯仰角和方位角。
本发明测向系统还可以包括显示界面,所述显示界面用于对解算出的辐射源俯仰角和方位角进行可视化显示。
另外,由于操作系统的非实时性和总线传输速度的不稳定性,在传输过程中,不能实现将写入内存缓存区的数据立即读取完,为了连续不断的接收数据,本实施例采用高效率的循环链式缓存区管理策略。循环链式缓存区是在CPU内存中申请若干个容量相等的缓存区,并将这些缓存区首尾相接,形成一个环式的链,如图15所示。
在数据传输过程中,按照箭头的顺序,依次循环地对每个缓存区进行数据填充和读取操作。在每次进行数据读取操作之前,需要判断当前缓存块的数据是否已经被更新,如果未被更新,将处于等待状态。同样,在每次进行数据填充之前,需要判断当前缓存块的数据是否已经被读取完毕,否则,将处于等待状态,直到此缓存块数据被读取完毕。循环链式缓冲区的数据填充线程和数据读写线程被称作多线程,主要负责高速数据流持续地在GPU和CPU内存之间传输,由于CPU数据的填充和GPU数据的读取同时进行,必须使用多线程技术。
本发明采用循环链式缓冲区与多线程应用能够连续不断的接收数据,实现高速数据稳定的实时传输。FX互相关鉴相器软件程序流程图如图16示,共设计了2个线程:一个为CPU数据填充线程,负责将CPU接收的数据流按照顺序,依次存储到循环缓冲区的内存块;另一个为GPU读取线程,负责将循环缓冲区的内存块数据依次发送至GPU中进行处理,2个线程协调工作,保证了数据流的高速实时稳定传输。
可见,本实施例中,GPU利用其高效的浮点运算能力实现了FX互相关的实时运算,由于在鉴相过程中,每个并行支路的算法是相同的,可以认为每个支路之间没有必然的关联性,这就满足了GPU通用计算的条件,即对大量相同计算可做并行同步处理。在该测向系统中CPU利用循环缓冲区存储通过PCIe总线发送过来的数字中频信号,并将这些数据按一定规则进行有序分割,然后将分割后的数据送给GPU,由GPU完成计算量较大并行性较高的提相处理。CPU与GPU之间利用cudaMemcpy函数进行数据传输,主机复制数据到设备用cudaMemcpyHostToDevice,设备复制数据至主机用cudaMemcpyDeviceToHost。在GPU内部,对数据进行处理时调用CUDA函数库内的函数或者自己编写的核函数,同一个GPU内可以调用多个CUDA函数和加载多个核函数,当GPU中调用的一个函数或者加载的一个核函数接收到数据后启用一定数量的线程,工作完成后关闭已启用的线程,数据传递至下一个函数或者核函数,不同函数或者核函数之间的线程完全独立。
本发明基于GPU的FX互相关鉴相器工作流程如图17所示,包括如下步骤:
首先对所述数字中频数据中每一路信号进行FFT变换;其中,将一秒内的采样点分成若干段,每段内的数据分别进行快速傅里叶变换;
将FFT变换后的信号中每两路信号进行共轭相乘,得到每两路信号共轭相乘的结果;共轭相乘时,保持一路信号不变,另一路信号利用欧拉公式中正弦函数和余弦函数在复数范围内的复数关系取共轭,然后将取共轭后的信号与另一路取共轭前的信号进行相乘;
针对每两路信号共轭相乘的结果,对每段内数据进行n等分,每段内的共轭相乘后的n份数据相加然后取平均,最终一段内的数据量减少至原来数据量大小的1/n,完成能量累积,其中,n为正整数;
能量累积后得到的数据波形即为两路信号的相关谱,对能量累积后的每一个复数,利用其虚部除以实部,得到每个复数的相角;
找到每两路信号相关谱中能量的最大值,该最大值处对应的复数相角即为这两路信号这段数据采样点内的相位。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种GPU实现FX互相关鉴相的相位干涉仪测向系统,包括天线阵列、射频前端、数字中频模块和CPU,其特征在于,还包括GPU,GPU与CPU相连,GPU中设有FX互相关鉴相器;
所述数字中频模块对射频前端发射的模拟中频数据进行采样,采样得到的数字中频数据传输给CPU;其中,每次采样时,同一时刻各个天线的模拟中频数据按照通道号排列在一起;
CPU将所述数字中频数据分割成段数据,将段数据拷贝给GPU;
所述FX互相关鉴相器中编写有核函数,GPU调用编写的核函数以及CUDA函数库内的cufftPlan1D函数,用于对所述段数据按采样点进行FX互相关鉴相处理,得到不同天线间的相位差信息,完成鉴相,并将不同天线间的相位差信息发送给CPU;
其中,当GPU中调用的一个cufftPlan1D函数或者加载的一个核函数接收到数据后,启用大于本段内采样点数的线程,工作完成后关闭已启用的线程,数据传递至下一个cufftPlan1D函数或者核函数,不同cufftPlan1D函数或者核函数之间的线程完全独立;
CPU对接收到的相位差信息进行后续处理。
2.如权利要求1所述的测向系统,其特征在于,在GPU内部编写有核函数kernel1、核函数kernel2以及核函数kernel3;
其中,核函数kernel1用于对分割后的各段数字中频数据进行类型转换,将类型转换后的数据发送给CUDA函数库内的cufftPlan1D函数;
所述cufftPlan1D函数对经过类型转换后的数据进行傅里叶变换,将傅里叶变换后数据发送给所述核函数kernel2;
核函数kernel2对傅里叶变换后的数据进行共轭相乘处理,共轭相乘时一个天线的信号取共轭与另一个天线的原始信号进行相乘,将共轭相乘后的数据发送给所述核函数kernel3;
核函数kernel3用于对共轭相乘后的数据进行能量累积及提相处理,所得相角即为每个采样点处两路信号相位差。
3.如权利要求2所述的测向系统,其特征在于,对于每段数据,kernel1启用大于本段内采样点数的线程,工作时所有线程同时启动,完成本段内所有采样点数据转换后对应线程关闭。
4.如权利要求1-3任意一项所述的测向系统,其特征在于,在CPU内存中申请有循环缓冲区,所述循环缓冲区包括若干个容量相等的内存块,相邻内存块首尾相接,形成一个环式的链。
5.如权利要求4所述的测向系统,其特征在于,CPU和GPU的数据传输中,设计有2个线程:一个为CPU数据填充线程,负责将CPU接收的数据流按照顺序,依次存储到循环缓冲区的内存块;另一个为GPU读取线程,负责将循环缓冲区的内存块数据依次发送至GPU中进行处理。
6.如权利要求5所述的测向系统,其特征在于,CPU与GPU之间利用cudaMemcpy函数进行数据传输。
7.如权利要求1、2、3、5或6所述的测向系统,其特征在于,GPU将不同天线间的相位差信息通过UDP/TCP协议发送给CPU。
8.如权利要求1、2、3、5或6所述的测向系统,其特征在于,GPU通过PCIe总线与CPU相连。
9.如权利要求4所述的测向系统,其特征在于,GPU将不同天线间的相位差信息通过UDP/TCP协议发送给CPU。
10.一种鉴相方法,其特征在于,采用如权利要求1、2、3、5、6或9所述的测向系统,GPU调用编写的核函数kernel1、核函数kernel2以及核函数kernel3以及CUDA函数库内的cufftPlan1D函数,用于对所述采样点数据按段进行FX互相关鉴相处理,得到不同天线间的相位差信息,完成鉴相,其特征在于,包括如下步骤:
核函数kernel1对分割后的各段数字中频数据进行类型转换,将类型转换后的数据发送给CUDA函数库内的cufftPlan1D函数;
所述cufftPlan1D函数对经过类型转换后的数据进行傅里叶变换,将傅里叶变换后数据发送给所述核函数kernel2;
其中,对所述数字中频数据中每一路信号进行FFT变换;其中,将一秒内的采样点分成若干段,每段内的数据分别进行快速傅里叶变换;
核函数kernel2对傅里叶变换后的数据进行共轭相乘处理,共轭相乘时一个天线的信号取共轭与另一个天线的原始信号进行相乘,将共轭相乘后的数据发送给所述核函数kernel3;
其中,将FFT变换后的信号中每两路信号进行共轭相乘,得到每两路信号共轭相乘的结果;共轭相乘时,保持一路信号不变,另一路信号利用欧拉公式中正弦函数和余弦函数在复数范围内的复数关系取共轭,然后将取共轭后的信号与另一路取共轭前的信号进行相乘;
核函数kernel3用于对共轭相乘后的数据进行能量累积及提相处理,所得相角即为每个采样点处两路信号相位差;
其中,针对每两路信号共轭相乘的结果,对每段内数据进行n等分,每段内的共轭相乘后的n份数据相加然后取平均,最终一段内的数据量减少至原来数据量大小的1/n,完成能量累积,其中,n为正整数;
能量累积后得到的数据波形即为两路信号的相关谱,对能量累积后的每一个复数,利用其虚部除以实部,得到每个复数的相角;
找到每两路信号相关谱中能量的最大值,该最大值处对应的复数相角即为这两路信号这段数据采样点内的相位。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110788384.8A CN113672380B (zh) | 2021-07-13 | 2021-07-13 | Gpu实现fx互相关鉴相的相位干涉仪测向系统及其鉴相方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110788384.8A CN113672380B (zh) | 2021-07-13 | 2021-07-13 | Gpu实现fx互相关鉴相的相位干涉仪测向系统及其鉴相方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113672380A true CN113672380A (zh) | 2021-11-19 |
CN113672380B CN113672380B (zh) | 2022-10-11 |
Family
ID=78538982
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110788384.8A Active CN113672380B (zh) | 2021-07-13 | 2021-07-13 | Gpu实现fx互相关鉴相的相位干涉仪测向系统及其鉴相方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113672380B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114137474A (zh) * | 2021-11-30 | 2022-03-04 | 天津光电通信技术有限公司 | 适用于宽带测向接收机的旋转方法及装置 |
CN114928388A (zh) * | 2022-03-30 | 2022-08-19 | 中国人民解放军战略支援部队航天工程大学 | 基于gpu的多操作队列并发架构的宽带信号多天线合成方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190072833A1 (en) * | 2017-09-07 | 2019-03-07 | The George Washington University | All optical fast fourier transform on chip with heating tunability design, simulation, fabrication, and performance analysis |
CN111552559A (zh) * | 2020-04-07 | 2020-08-18 | 上海大学 | 基于gpu的宽带信号ddc系统设计方法 |
CN111624631A (zh) * | 2020-05-19 | 2020-09-04 | 中国科学院国家授时中心 | 一种并行化信号质量评估方法 |
-
2021
- 2021-07-13 CN CN202110788384.8A patent/CN113672380B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190072833A1 (en) * | 2017-09-07 | 2019-03-07 | The George Washington University | All optical fast fourier transform on chip with heating tunability design, simulation, fabrication, and performance analysis |
CN111552559A (zh) * | 2020-04-07 | 2020-08-18 | 上海大学 | 基于gpu的宽带信号ddc系统设计方法 |
CN111624631A (zh) * | 2020-05-19 | 2020-09-04 | 中国科学院国家授时中心 | 一种并行化信号质量评估方法 |
Non-Patent Citations (1)
Title |
---|
刘燕都;郑海昕;王小平: ""基于CUDA的数字调相信号并行解调程序设计"", 《通信技术》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114137474A (zh) * | 2021-11-30 | 2022-03-04 | 天津光电通信技术有限公司 | 适用于宽带测向接收机的旋转方法及装置 |
CN114928388A (zh) * | 2022-03-30 | 2022-08-19 | 中国人民解放军战略支援部队航天工程大学 | 基于gpu的多操作队列并发架构的宽带信号多天线合成方法 |
CN114928388B (zh) * | 2022-03-30 | 2022-11-04 | 中国人民解放军战略支援部队航天工程大学 | 宽带信号多天线合成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113672380B (zh) | 2022-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113672380B (zh) | Gpu实现fx互相关鉴相的相位干涉仪测向系统及其鉴相方法 | |
Ma et al. | Parallel programing templates for remote sensing image processing on GPU architectures: design and implementation | |
Roy et al. | A real-time software backend for the GMRT | |
Huynh et al. | Scalable framework for mapping streaming applications onto multi-GPU systems | |
Park et al. | Efficient backprojection‐based synthetic aperture radar computation with many‐core processors | |
Harris et al. | GPU accelerated radio astronomy signal convolution | |
Warn et al. | Accelerating SIFT on parallel architectures | |
Bodin et al. | Heterogeneous multicore parallel programming for graphics processing units | |
Veenboer et al. | Image-domain gridding on graphics processors | |
Meribout et al. | A parallel algorithm for real-time object recognition | |
Vermij et al. | Exascale Radio Astronomy: Can We Ride the Technology Wave? | |
Li et al. | Fast convolution operations on many-core architectures | |
Li et al. | Automatic FFT performance tuning on OpenCL GPUs | |
Ibrahim et al. | Performance analysis of fast Fourier transform on field programmable gate arrays and graphic cards | |
Membarth et al. | Efficient mapping of streaming applications for image processing on graphics cards | |
van Nieuwpoort et al. | Building correlators with many-core hardware | |
Schlemon et al. | Resource-Constrained Optimizations For Synthetic Aperture Radar On-Board Image Processing | |
Lu et al. | Fast implementation of image mosaicing on GPU | |
Nan et al. | An FPGA-based Hardware Acceleration for Key Steps of Facet Imaging Algorithm | |
Qin et al. | A CNN hardware accelerator designed for YOLO algorithm based on RISC-V SoC | |
Xu et al. | NAVSDR: a GPU-based modular GPS software receiver | |
Zhu et al. | Processing data of correlation on GPU | |
Itakura et al. | Scalability of hybrid programming for a CFD code on the Earth Simulator | |
Marinkovic et al. | Utilization of parallelization algorithms in InSAR/PS-InSAR processing | |
Novotný et al. | Implementing CUDA Streams into AstroAccelerate--A Case Study |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |