CN111651273A - 一种基于gpu的大容量短突发信号接收机设计 - Google Patents

一种基于gpu的大容量短突发信号接收机设计 Download PDF

Info

Publication number
CN111651273A
CN111651273A CN202010473057.9A CN202010473057A CN111651273A CN 111651273 A CN111651273 A CN 111651273A CN 202010473057 A CN202010473057 A CN 202010473057A CN 111651273 A CN111651273 A CN 111651273A
Authority
CN
China
Prior art keywords
gpu
tracking
cpu
information
channel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010473057.9A
Other languages
English (en)
Other versions
CN111651273B (zh
Inventor
刘增军
王雷
欧钢
王飞雪
孙广富
李井源
牟卫华
唐小妹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN202010473057.9A priority Critical patent/CN111651273B/zh
Publication of CN111651273A publication Critical patent/CN111651273A/zh
Application granted granted Critical
Publication of CN111651273B publication Critical patent/CN111651273B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5066Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/4881Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/06Receivers
    • H04B1/16Circuits
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Circuits Of Receivers In General (AREA)
  • Image Processing (AREA)

Abstract

本发明公开一种基于GPU的大容量短突发信号接收机设计方法,利用CPU和GPU形成接收机的实时接收架构,由于GPU的并行计算能力更强,因此在需要高计算量的捕获、跟踪过程中采用GPU完成,由于CPU的灵活性更高,因此在任务分配、GPU任务管理以及数据解调译码等过程采用CPU完成,本发明通过充分利用CPU和GPU的优势来解决大容量多通道的管理问题、信号接收的实时性问题以及信号接收性能问题,以降低接收机设计的复杂度。本发明设计的接收机可实现大容量并行通道处理,提高了接收机的处理效率。

Description

一种基于GPU的大容量短突发信号接收机设计
技术领域
本发明涉及短突发信号接收机技术领域,尤其是一种基于GPU的大容量短突发信号接收机设计方法及系统。
背景技术
在大规模的随机接入信号接收机设计过程中,通常是采用FPGA、DSP等专用设备实现,这些设备具备高实时性,因此可以保证接收机设计的性能。但是这种设备建设复杂,规模较大,并且在系统升级,功能移植等方面存在较高的成本。
通用计算GPU具有大量的并行计算单元,因此在对大规模独立信号接收方面具有独特的优势。目前基于CPU+GPU的架构模式的导航测试信号源、导航型测试接收机等均已经得到了应用,并且取得了不错的效果,但是在大规模短突发随机信号接收机方面仍然没有得到应用。目前在基于GPU的大规模短突发随机信号接收机的设计方面研究较少,该类型接收机在设计方面需要考虑大容量多通道的管理问题、信号接收的实时性问题以及信号接收性能的问题等,具有较高的设计复杂度。
发明内容
本发明提供一种基于GPU的大容量短突发信号接收机设计方法及系统,用于克服现有技术中设计复杂度较高等缺陷。
为实现上述目的,本发明提出一种基于GPU的大容量短突发信号接收机设计方法,利用CPU和GPU形成接收机的实时接收架构,所述GPU和所述CPU中均包含通道管理信息以及通道状态信息以对GPU和CPU中的信号通道进行管理;
所述接收机设计方法包括:
利用GPU按外部时标进行目标信号的捕获,并将捕获的目标信号输出给CPU以对所述CPU中的通道管理信息以及通道状态信息进行更新;
控制所述CPU采用多线程的运行模式,利用所述CPU根据所述CPU中更新后的通道管理信息对所述GPU中的多个流多处理器进行任务分配,并将相应任务中的任务信息数据发送给对应的流多处理器以对所述流多处理器的跟踪内核进行初始化;
利用所述跟踪内核对所述任务信息数据进行跟踪获得相应的跟踪结果数据,利用所述跟踪结果数据对所述GPU中的通道管理信息以及通道状态信息进行更新,同时GPU将进行目标信号跟踪状态的判断,若已经完成所述目标信号完整时长的跟踪,则进入下一步骤,同时删除相应通道的通道状态信息,否则进行下一阶段的跟踪,直至完成所述目标信号完整时长的跟踪;
利用所述CPU对所述GPU中更新后的通道管理信息以及通道状态信息进行数据解调译码,获得原始信息,并进行相应的信息输出。
为实现上述目的,本发明还提出一种基于GPU的大容量短突发信号接收机设计系统,包括:
数据更新模块,用于利用GPU按外部时标进行目标信号的捕获,并将捕获的目标信号输出给CPU以对所述CPU中的通道管理信息以及通道状态信息进行更新;
任务分配模块,用于控制所述CPU采用多线程的运行模式,利用所述CPU根据所述CPU中更新后的通道管理信息对所述GPU中的多个流多处理器进行任务分配,并将相应任务中的任务信息数据发送给对应的流多处理器以对所述流多处理器的跟踪内核进行初始化;
跟踪模块,用于利用所述跟踪内核对所述任务信息数据进行跟踪获得相应的跟踪结果数据,利用所述跟踪结果数据对所述GPU中的通道管理信息以及通道状态信息进行更新,同时GPU将进行目标信号跟踪状态的判断,若已经完成所述目标信号完整时长的跟踪,则进入下一步骤,同时删除相应通道的通道状态信息,否则进行下一阶段的跟踪,直至完成所述目标信号完整时长的跟踪;
解码模块,用于利用所述CPU对所述GPU中更新后的通道管理信息以及通道状态信息进行数据解调译码,获得原始信息,并进行相应的信息输出。
为实现上述目的,本发明还提出一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述所述方法的步骤。
为实现上述目的,本发明还提出一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述所述方法的步骤。
与现有技术相比,本发明的有益效果有:
1、本发明提供的基于GPU的大容量短突发信号接收机设计方法,利用CPU和GPU形成接收机的实时接收架构,由于GPU的并行计算能力更强,因此在需要高计算量的捕获、跟踪过程中采用GPU完成,由于CPU的灵活性更高,因此在任务分配、GPU任务管理以及数据解调译码等过程采用CPU完成,本发明通过充分利用CPU和GPU的优势来解决大容量多通道的管理问题、信号接收的实时性问题以及信号接收性能问题,以降低接收机设计的复杂度。
2、本发明提供的基于GPU的大容量短突发信号接收机设计方法,将CPU多线程与GPU流处理结合,实现多种异质化任务的管理与调度,在每次启动GPU运算之前,CPU将根据当前的更新信息数据向GPU内多个流多处理器进行任务分配,以均衡GPU内多个流多处理器的任务量,避免单个流多处理器的任务过于饱满,从而保证GPU运行效率最优化。本发明设计的接收机可实现大容量并行通道处理,提高了接收机的处理效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明提供的基于GPU的大容量短突发信号接收机设计方法的流程图;
图2为本发明设计的基于GPU的大容量短突发信号接收机的框图;
图3为本发明中任务分配的框图;
图4为本发明实施例设计的基于GPU的大容量短突发信号接收机的框图。
图5为本发明实施例中包括多个跟踪阶段的接收机设计方法流程图;
图6为本发明中GPU与CPU之间信息数据的流向关系图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
另外,本发明各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
信号的接收过程包括捕获、跟踪、数据解调译码阶段。对于特定的系统而言,跟踪过程可能包含一个阶段或者多个阶段,一个阶段的跟踪过程通常是信号从开始到结束的信号类型以及电文信息等具有一致性,因此跟踪算法也完全一致;多个阶段的跟踪过程通常是不同阶段包含的调制方式不同或者调制的数据信息不同,并且前一阶段的解调信息通常包含着后一阶段的跟踪解调信息,因此需要在每个阶段分别对信号进行跟踪解调。每个信号不同阶段任务的处理需要满足时间顺序,因此在上一个任务完成后,才能进入下一个任务。
本发明提出一种基于GPU的大容量短突发信号接收机设计方法,利用CPU和GPU形成接收机的实时接收架构,GPU和CPU中均包含通道管理信息以及通道状态信息以对GPU和CPU中的信号通道进行管理;
接收机设计方法如图1所示,包括:
101:利用GPU按外部时标进行目标信号的捕获,并将捕获的目标信号输出给CPU以对CPU中的通道管理信息以及通道状态信息进行更新;
GPU或者CPU内的通道管理信息以及通道状态信息,通道管理信息用于存储GPU或者CPU内的管理信息,通道状态信息用于存储GPU或者CPU内的状态信息。通道管理信息用于对GPU或者CPU内的信号通道进行管理,每个信号通道对应一组通道状态信息。
102:控制CPU采用多线程的运行模式,利用CPU根据CPU中更新后的通道管理信息对GPU中的多个流多处理器进行任务分配,并将相应任务中的任务信息数据发送给对应的流多处理器以对流多处理器的跟踪内核进行初始化;
多线程,是指从软件或者硬件上实现多个线程并发执行的技术,具有多线程能力的计算机因有硬件支持而能够在同一时间执行多于一个线程,进而提升整体处理性能。
多线程的运行模式以实现同时向GPU中多个流多处理器进行任务分配。
103:利用跟踪内核对任务信息数据进行跟踪获得相应的跟踪结果数据,利用跟踪结果数据对GPU中的通道管理信息以及通道状态信息进行更新,同时GPU将进行目标信号跟踪状态的判断,若已经完成所述目标信号完整时长的跟踪,则进入下一步骤,同时删除相应通道的通道状态信息,否则进行下一阶段的跟踪,直至完成所述目标信号完整时长的跟踪;
跟踪的目的在于对信息数据进行载波相位同步、载波频率同步和载波时间同步。
信号处理过程分为捕获、跟踪、以及数据解调译码等部分,其中跟踪部分可以包括一个阶段(即进行一次跟踪)或者多个阶段(即进行多次跟踪),跟踪部分的一个处理阶段或者多个阶段结束后,将跟踪信息数据传送至CPU,同时从GPU的两组信息数据中删除跟踪信息数据,以实现动态的接收机通道数量管理。
104:利用CPU对GPU中更新后的通道管理信息以及通道状态信息进行数据解调译码,获得原始信息,并进行相应的信息输出。
本发明提供的基于GPU的大容量短突发信号接收机设计方法,利用CPU和GPU形成接收机的实时接收架构,由于GPU的并行计算能力更强,因此在需要高计算量的捕获、跟踪过程中采用GPU完成,由于CPU的灵活性更高,因此在任务分配、GPU任务管理以及数据解调译码等过程采用CPU完成,本发明通过充分利用CPU和GPU的优势来解决大容量多通道的管理问题、信号接收的实时性问题以及信号接收性能问题,以降低接收机设计的复杂度。
本发明提供的基于GPU的大容量短突发信号接收机设计方法,将CPU多线程与GPU流处理结合,实现多种异质化任务的管理与调度,在每次启动GPU运算之前,CPU将根据当前的更新信息数据向GPU内多个流多处理器进行任务分配,以均衡GPU内多个流多处理器的任务量,避免单个流多处理器的任务过于饱满,从而保证GPU运行效率最优化。本发明设计的接收机可实现大容量并行通道处理,提高了接收机的处理效率。
本发明设计的接收机如图2所示,接收机分段进行数据处理,两个时标之间的时间间隔即为每次处理过程中信号的时长,每次时标到达后,接收机开始处理上一个时标到当前时标之间的信号数据。每个CPU进程可管理一个或者多个GPU流,可根据具体的任务进行分配。但是一个CPU进程管理一个GPU流的模式实现简单,并且具有一定的适应性,本发明将一个CPU进程管理一个GPU流的模式作为主要的运行模式。
在其中一个实施例中,通道管理信息包括当前每个处理信号的通道所处阶段、信号的数量、信号的时长;
通道状态信息包括每个信号的具体信息,该具体信息包括用户数据、信号多普勒、信号载波相位、伪码相位、电文比特、信号已处理时长、剩余处理时长。
CPU和GPU分别记录通道管理信息以及通道状态信息,可有效实现接收机处理通道数的动态管理。
在步骤101中,捕获过程完成后,GPU中的通道管理信息会增加相应新捕获到的信号的数量,通道状态信息会将相应的通道的状态设置为初始跟踪状态。
在步骤103中,将GPU中相应通道的通道状态信息进行删除,主要是以便进行下一阶段的任务,而通道管理信息只需在进行下一阶段的任务时进行相应的数据更新即可。
在下一个实施例中,在利用GPU按外部时标进行目标信号的捕获,并将捕获的目标信号输出给CPU以对所述CPU中的通道管理信息以及通道状态信息进行更新的步骤之前,还包括:
201:根据GPU的计算能力以及跟踪算法的复杂度,确定接收机可实时跟踪的信号的最大通道数,并将最大通道数设置为通道状态信息所能保存通道数量的最大值;
202:若当前通道状态信息中储存的通道数量小于所述最大值,则新捕获到的信号写入到GPU的通道状态信息中;
203:若当前通道状态信息中储存的通道数量等于最大值后,则新捕获到的信号将不会再写入到GPU的通道状态信息中,未写入到GPU的通道状态信息中的信号将被丢弃,成为通道损耗。
根据GPU的计算能力以及跟踪算法的复杂度设置最大可接收通道数,可有效保证接收机运行的实时性。
在另一个实施例中,每次启动GPU运算之前,需先进行任务分配,任务分配框图如图3所示。
利用CPU根据CPU中更新后的通道管理信息对GPU中的多个流多处理器进行任务分配,包括:
301:根据预先设计的任务分配原则定义任务量指标;
任务分配原则为多个流多处理器之间的任务尽量均衡,避免单个流多处理器的任务过于饱满。
302:根据任务量指标和CPU中更新后的通道管理信息,利用CPU向GPU中多个流多处理器进行任务分配。
GPU运行时长与所需处理的信号数量以及信号时长成正比,基于此,在某个实施例中,根据预先设计的任务分配原则定义任务量指标,包括:
根据预先设计的任务分配原则定义任务量指标为:
Figure BDA0002514966940000091
式中,Rn为分配到第n个流多处理器的总任务量;n为流多处理器的序号;kn为预计分配到第n个流多处理器上的信号通道数量;Li,n为第i个信号通道的信号时长。
在下一个实施例中,利用跟踪内核对任务信息数据进行跟踪获得相应的跟踪结果数据,利用跟踪结果数据对GPU中的通道管理信息以及通道状态信息进行更新,同时GPU将进行目标信号跟踪状态的判断,若已经完成目标信号完整时长的跟踪,则进入下一步骤,同时删除相应通道的状态信息,否则进行下一阶段的跟踪,直至完成所述目标信号完整时长的跟踪的步骤,如图4和图5所示,包括:
401:利用跟踪内核对所述任务信息数据进行跟踪获得相应的跟踪结果数据,利用跟踪结果数据对GPU中的通道管理信息以及通道状态信息进行更新,同时GPU将进行目标信号跟踪状态的判断;
402:若已经完成目标信号完整时长的跟踪,则进入下一步骤,同时删除相应通道的状态信息;
403:否则进行下一阶段的跟踪,利用GPU中更新后的通道管理信息以及通道状态信息对CPU中的通道管理信息以及通道状态信息进行再次更新,利用CPU对CPU中再次更新的通道管理信息以及通道状态信息进行数据解调译码以及获取下一阶段跟踪信息数据;
404:控制CPU采用多线程的运行模式,利用CPU根据下一阶段跟踪信息数据对GPU中的多个流多处理器进行任务分配,并将相应任务中的任务信息数据发送给对应的流多处理器以对所述流多处理器的跟踪内核进行初始化,利用跟踪内核对所述任务信息数据进行再次跟踪获得再次跟踪结果数据;
405:循环步骤403再次更新至步骤404再次跟踪的过程,直至完成目标信号完整时长的跟踪;
406:利用CPU对GPU中多次更新后的通道管理信息以及通道状态信息进行数据解调译码,获得原始信息,并进行相应的信息输出。
在另一个实施例中,对于包括多个跟踪阶段的接收机的设计方法,在捕获、跟踪以及在完成目标信号完整时长的跟踪前的每次再次跟踪之后,均需进行CPU多线程的同步和GPU流处理的同步以实现多个线程或多个流处理的同步输出。同步完成后,CPU的通道管理信息以及通道状态信息将根据GPU内的通道管理信息以及通道状态信息进行更新,如图6所示。
本发明还提出一种基于GPU的大容量短突发信号接收机设计系统,包括:
数据更新模块,用于利用GPU按外部时标进行目标信号的捕获,并将捕获的目标信号输出给CPU以对所述CPU中的通道管理信息以及通道状态信息进行更新;
任务分配模块,用于控制所述CPU采用多线程的运行模式,利用所述CPU根据所述CPU中更新后的通道管理信息对所述GPU中的多个流多处理器进行任务分配,并将相应任务中的任务信息数据发送给对应的流多处理器以对所述流多处理器的跟踪内核进行初始化;
跟踪模块,用于利用所述跟踪内核对所述任务信息数据进行跟踪获得相应的跟踪结果数据,利用所述跟踪结果数据对所述GPU中的通道管理信息以及通道状态信息进行更新,同时GPU将进行目标信号跟踪状态的判断,若已经完成所述目标信号完整时长的跟踪,则进入下一步骤,同时删除相应通道的状态信息,否则进行下一阶段的跟踪,直至完成所述目标信号完整时长的跟踪;
解码模块,用于利用所述CPU对所述GPU中更新后的通道管理信息以及通道状态信息进行数据解调译码,获得原始信息,并进行相应的信息输出。
本发明还提出一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述所述方法的步骤。
本发明还提出一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述所述方法的步骤。
以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是在本发明的发明构思下,利用本发明说明书及附图内容所作的等效结构变换,或直接/间接运用在其他相关的技术领域均包括在本发明的专利保护范围内。

Claims (10)

1.一种基于GPU的大容量短突发信号接收机设计方法,其特征在于,利用CPU和GPU形成接收机的实时接收架构,所述GPU和所述CPU中均包含通道管理信息以及通道状态信息以对GPU和CPU中的信号通道进行管理;
所述接收机设计方法包括:
利用GPU按外部时标进行目标信号的捕获,并将捕获的目标信号输出给CPU以对所述CPU中的通道管理信息以及通道状态信息进行更新;
控制所述CPU采用多线程的运行模式,利用所述CPU根据所述CPU中更新后的通道管理信息对所述GPU中的多个流多处理器进行任务分配,并将相应任务中的任务信息数据发送给对应的流多处理器以对所述流多处理器的跟踪内核进行初始化;
利用所述跟踪内核对所述任务信息数据进行跟踪获得相应的跟踪结果数据,利用所述跟踪结果数据对所述GPU中的通道管理信息以及通道状态信息进行更新,同时GPU将进行目标信号跟踪状态的判断,若已经完成所述目标信号完整时长的跟踪,则进入下一步骤,同时删除相应通道的通道状态信息,否则进行下一阶段的跟踪,直至完成所述目标信号完整时长的跟踪;
利用所述CPU对所述GPU中更新后的通道管理信息以及通道状态信息进行数据解调译码,获得原始信息,并进行相应的信息输出。
2.如权利要求1所述的基于GPU的大容量短突发信号接收机设计方法,其特征在于,所述通道管理信息包括当前每个处理信号的通道所处阶段、信号的数量、信号的时长;
所述通道状态信息包括每个信号的具体信息,所述具体信息包括用户数据、信号多普勒、信号载波相位、伪码相位、电文比特、信号已处理时长、剩余处理时长。
3.如权利要求2所述的基于GPU的大容量短突发信号接收机设计方法,其特征在于,在所述利用GPU按外部时标进行目标信号的捕获,并将捕获的目标信号输出给CPU以对所述CPU中的通道管理信息以及通道状态信息进行更新的步骤之前,还包括:
根据GPU的计算能力以及跟踪算法的复杂度,确定所述接收机可实时跟踪的信号的最大通道数,并将所述最大通道数设置为所述通道状态信息所能保存通道数量的最大值;
若当前通道状态信息中储存的通道数量小于所述最大值,则新捕获到的信号写入到所述GPU的通道状态信息中;
若当前通道状态信息中储存的通道数量等于所述最大值后,则新捕获到的信号将不会再写入到所述GPU的通道状态信息中,未写入到所述GPU的通道状态信息中的信号将被丢弃,成为通道损耗。
4.如权利要求1所述的基于GPU的大容量短突发信号接收机设计方法,其特征在于,利用所述CPU根据所述CPU中更新后的通道管理信息对所述GPU中的多个流多处理器进行任务分配,包括:
根据预先设计的任务分配原则定义任务量指标;
根据所述任务量指标和所述CPU中更新后的通道管理信息,利用所述CPU向所述GPU中多个流多处理器进行任务分配。
5.如权利要求4所述的基于GPU的大容量短突发信号接收机设计方法,其特征在于,根据预先设计的任务分配原则定义任务量指标,包括:
根据预先设计的任务分配原则定义任务量指标为:
Figure FDA0002514966930000031
式中,Rn为分配到第n个流多处理器的总任务量;n为流多处理器的序号;kn为预计分配到第n个流多处理器上的信号通道数量;Li,n为第i个信号通道的信号时长。
6.如权利要求1所述的基于GPU的大容量短突发信号接收机设计方法,其特征在于,利用所述跟踪内核对所述任务信息数据进行跟踪获得相应的跟踪结果数据,利用所述跟踪结果数据对所述GPU中的通道管理信息以及通道状态信息进行更新,同时GPU将进行目标信号跟踪状态的判断,若已经完成所述目标信号完整时长的跟踪,则进入下一步骤,同时删除相应通道的通道状态信息,否则进行下一阶段的跟踪,直至完成所述目标信号完整时长的跟踪的步骤,包括:
利用所述跟踪内核对所述任务信息数据进行跟踪获得相应的跟踪结果数据,利用所述跟踪结果数据对所述GPU中的通道管理信息以及通道状态信息进行更新,同时GPU将进行目标信号跟踪状态的判断;
若已经完成所述目标信号完整时长的跟踪,则进入下一步骤,同时删除相应通道的通道状态信息;
否则进行下一阶段的跟踪,利用所述GPU中更新后的通道管理信息以及通道状态信息对所述CPU中的通道管理信息以及通道状态信息进行再次更新,利用所述CPU对所述CPU中再次更新的通道管理信息以及通道状态信息进行数据解调译码以及获取下一阶段跟踪信息数据;
控制所述CPU采用多线程的运行模式,利用所述CPU根据所述下一阶段跟踪信息数据对所述GPU中的多个流多处理器进行任务分配,并将相应任务中的任务信息数据发送给对应的流多处理器以对所述流多处理器的跟踪内核进行初始化,利用所述跟踪内核对所述任务信息数据进行再次跟踪获得再次跟踪结果数据;
循环所述再次更新至所述再次跟踪的过程,直至完成所述目标信号完整时长的跟踪;
利用所述CPU对所述GPU中多次更新后的通道管理信息以及通道状态信息进行数据解调译码,获得原始信息,并进行相应的信息输出。
7.如权利要求6所述的基于GPU的大容量短突发信号接收机设计方法,其特征在于,所述捕获、所述跟踪以及在获得所述最终跟踪信息数据前的每次所述再次跟踪之后,均需进行CPU多线程的同步和GPU流处理的同步以实现多个线程或多个流处理的同步输出。
8.一种基于GPU的大容量短突发信号接收机设计系统,其特征在于,包括:
数据更新模块,用于利用GPU按外部时标进行目标信号的捕获,并将捕获的目标信号输出给CPU以对所述CPU中的通道管理信息以及通道状态信息进行更新;
任务分配模块,用于控制所述CPU采用多线程的运行模式,利用所述CPU根据所述CPU中更新后的通道管理信息对所述GPU中的多个流多处理器进行任务分配,并将相应任务中的任务信息数据发送给对应的流多处理器以对所述流多处理器的跟踪内核进行初始化;
跟踪模块,用于利用所述跟踪内核对所述任务信息数据进行跟踪获得相应的跟踪结果数据,利用所述跟踪结果数据对所述GPU中的通道管理信息以及通道状态信息进行更新,同时GPU将进行目标信号跟踪状态的判断,若已经完成所述目标信号完整时长的跟踪,则进入下一步骤,同时删除相应通道的通道状态信息,否则进行下一阶段的跟踪,直至完成所述目标信号完整时长的跟踪;
解码模块,用于利用所述CPU对所述GPU中更新后的通道管理信息以及通道状态信息进行数据解调译码,获得原始信息,并进行相应的信息输出。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1~7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~7中任一项所述方法的步骤。
CN202010473057.9A 2020-05-29 2020-05-29 一种基于gpu的大容量短突发信号接收机设计 Active CN111651273B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010473057.9A CN111651273B (zh) 2020-05-29 2020-05-29 一种基于gpu的大容量短突发信号接收机设计

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010473057.9A CN111651273B (zh) 2020-05-29 2020-05-29 一种基于gpu的大容量短突发信号接收机设计

Publications (2)

Publication Number Publication Date
CN111651273A true CN111651273A (zh) 2020-09-11
CN111651273B CN111651273B (zh) 2023-05-05

Family

ID=72344856

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010473057.9A Active CN111651273B (zh) 2020-05-29 2020-05-29 一种基于gpu的大容量短突发信号接收机设计

Country Status (1)

Country Link
CN (1) CN111651273B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN202041640U (zh) * 2011-01-18 2011-11-16 西安理工大学 一种基于gpu的卫星导航软件接收机
CN103278829A (zh) * 2013-05-06 2013-09-04 东南大学 一种基于gpu的并行导航卫星信号跟踪方法及其系统
CN104267416A (zh) * 2014-09-03 2015-01-07 北京一朴科技有限公司 利用gpu对卫星数据进行捕获处理的方法和装置
CN108226921A (zh) * 2017-12-28 2018-06-29 四川九洲空管科技有限责任公司 基于cpu和gpu架构的二次雷达信息处理系统
CN110413776A (zh) * 2019-07-01 2019-11-05 武汉大学 一种基于cpu-gpu协同并行的文本主题模型lda高性能计算方法
CN110554988A (zh) * 2018-06-03 2019-12-10 北京化工大学 一种基于cpu+gpu异构计算的高维多目标支配方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN202041640U (zh) * 2011-01-18 2011-11-16 西安理工大学 一种基于gpu的卫星导航软件接收机
CN103278829A (zh) * 2013-05-06 2013-09-04 东南大学 一种基于gpu的并行导航卫星信号跟踪方法及其系统
CN104267416A (zh) * 2014-09-03 2015-01-07 北京一朴科技有限公司 利用gpu对卫星数据进行捕获处理的方法和装置
CN108226921A (zh) * 2017-12-28 2018-06-29 四川九洲空管科技有限责任公司 基于cpu和gpu架构的二次雷达信息处理系统
CN110554988A (zh) * 2018-06-03 2019-12-10 北京化工大学 一种基于cpu+gpu异构计算的高维多目标支配方法
CN110413776A (zh) * 2019-07-01 2019-11-05 武汉大学 一种基于cpu-gpu协同并行的文本主题模型lda高性能计算方法

Also Published As

Publication number Publication date
CN111651273B (zh) 2023-05-05

Similar Documents

Publication Publication Date Title
CN102047241B (zh) 本地与全局数据共享
CN110650347B (zh) 多媒体数据的处理方法及装置
US20130212594A1 (en) Method of optimizing performance of hierarchical multi-core processor and multi-core processor system for performing the method
CN103019838B (zh) 一种基于多dsp处理器平台的分布式实时多任务操作系统
KR102594657B1 (ko) 비순차적 리소스 할당을 구현하는 방법 및 장치
US10504492B2 (en) Apparatus and methods for generating dynamic trace data on a GPU
CN113671478A (zh) 基于多核cpu的高速机动目标识别数据处理方法
CN112612523A (zh) 一种嵌入式设备驱动系统及方法
CN113918233A (zh) 一种ai芯片控制方法、电子设备及ai芯片
US20130262812A1 (en) Hardware Managed Allocation and Deallocation Evaluation Circuit
CN111651273A (zh) 一种基于gpu的大容量短突发信号接收机设计
CN112463340A (zh) 基于tensorflow的多任务弹性调度方法及系统
CN102542525B (zh) 一种信息处理设备以及信息处理方法
CN105378652A (zh) 线程共享资源分配方法及装置
CN111767121A (zh) 运算方法、装置及相关产品
CN110597627A (zh) 基于虚拟fpga的数据库运算加速装置及加速方法
CN114912384A (zh) 一种基于嵌入式gpu的智能计算模块及其设计方法
CN115775199A (zh) 数据处理方法和装置、电子设备和计算机可读存储介质
CN114070892A (zh) 数据传输方法和装置
CN112102305A (zh) 多骨骼发育等级检测方法及终端设备
KR102606239B1 (ko) 힙 정렬 기반의 타이밍 컨트롤러, 이를 구비하는 모뎀 칩, 및 집적 회로
DE102020119518A1 (de) Verfahren und vorrichtung für mehrere asynchrone konsumenten
CN111526172A (zh) 一种多设备管理方法和管理系统
CN115309555B (zh) 一种用于卫星的并行计算方法及系统、存储介质、设备
CN115827251A (zh) 基于异构平台的高性能Linpack基准测试程序优化方法和设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant