CN115563444A - 一种信号重构方法、装置、计算机设备及存储介质 - Google Patents
一种信号重构方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN115563444A CN115563444A CN202211553265.5A CN202211553265A CN115563444A CN 115563444 A CN115563444 A CN 115563444A CN 202211553265 A CN202211553265 A CN 202211553265A CN 115563444 A CN115563444 A CN 115563444A
- Authority
- CN
- China
- Prior art keywords
- original
- neural network
- deep neural
- network model
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000003860 storage Methods 0.000 title claims abstract description 17
- 230000003190 augmentative effect Effects 0.000 claims abstract description 93
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 87
- 238000003062 neural network model Methods 0.000 claims abstract description 74
- 238000013178 mathematical model Methods 0.000 claims abstract description 65
- 238000005070 sampling Methods 0.000 claims abstract description 52
- 230000006870 function Effects 0.000 claims description 92
- 230000009977 dual effect Effects 0.000 claims description 72
- 238000004364 calculation method Methods 0.000 claims description 22
- 230000015654 memory Effects 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 8
- 238000010276 construction Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 6
- 230000008569 process Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 238000005457 optimization Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- Computational Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Algebra (AREA)
- Biomedical Technology (AREA)
- Probability & Statistics with Applications (AREA)
- Operations Research (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Feedback Control In General (AREA)
Abstract
本发明涉及信号处理技术领域,尤其公开了一种信号重构方法、装置、计算机设备及存储介质,方法包括:基于原子范数最小化的稀疏信号重构算法和采样信号数学模型得到原子范数最小化稀疏信号重构算法数学模型;基于交替方向乘子算法和所述原子范数最小化稀疏信号重构数学模型得到交替方向乘子算法数学模型;计算所述交替方向乘子算法数学模型的增广拉格朗日函数;构建深度神经网络模型,并基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解以重构原始信号。通过本发明的方案,解决了传统技术方案进行信号重构时的网格失配问题和参数选择问题,提高了信号重构精度,并且不再依赖于预先设置的稀疏表示向量基以及先验参数。
Description
技术领域
本发明涉及信号处理技术领域,尤其涉及一种信号重构方法、装置、计算机设备及存储介质。
背景技术
稀疏信号重构(Sparse Signal Reconstruction,简称SSR)算法作为信号处理领域中的一个重要分支,已经在图像处理、传感器阵列信号处理与射电天文学等理论与实际应用中得到了广泛的关于与研究。尤其是随着2006年稀疏信号精确重构准则的提出,压缩感知理论得到了飞速发展,也涌现出了许多性能更加良好的稀疏信号重构算法。
其中,以范数最小化算法为代表,将稀疏信号重构问题转换为一个二阶锥规划问题,并利用牛顿法、内点法等凸优化数学工具进行求解,进而得到最终的稀疏信号重构结果。这一类算法的优势是显而易见的,一方面在于稀疏信号精确重构准则与凸优化理论的支持,能够强有力的保证该类算法的重构信号精度,另一方面由于该类算法不依赖于多快拍采样数据的二阶统计量数学模型,也不依赖于信号子空间与噪声子空间的正交性,因此能够直接处理相干信源,可以适用于当今日益复杂的电磁环境。
但是,上述传统稀疏信号重构算法自从被提出以来却一直饱受着诸多问题的困扰,极大地限制了该类算法在实际工程领域中的应用,这些问题主要体现在以下两个方面:
一是网格失配问题。通常情况下,在实际的生产生活中,标准的稀疏信号是不存在的,或者说某一个原始信号只是在某一个固定的向量基上的表示是稀疏的。因此,传统的稀疏信号重构算法首先需要确定一组正交的向量基,将非稀疏的原始信号进行稀疏表示,才能够建立稀疏信号重构数学模型。但是,原始信号的非稀疏分量不一定能够正好落在预先设置好的稀疏表示向量基上,这就导致了信号能量在稀疏向量基上的能量溢出。这种原始信号的非稀疏分量与稀疏表示向量基不匹配的问题通常被称为网格失配问题。网格失配问题属于算法的模型误差,严重影响着重构信号的精度,可以说是目前限制稀疏信号重构算法进一步广泛应用的最重要因素。
二是参数选择问题。传统的稀疏信号重构算法会依赖于许多先验的参数设置,对于不同的稀疏信号重构算法可能会需要更多的先验参数。通常情况下,信号的稀疏度并不是先验的,而正则化参数的选取目前尽管已经存在了许多先进理论,但不仅会增加算法的复杂度,提高的精度也十分有限。
针对上述网格失配问题和参数选择问题,CN109490819A提出了一种利用稀疏贝叶斯学习的方法与离网稀疏信号重构数学模型来解决稀疏信号的重构问题。上述专利采用的离网稀疏信号重构数学模型虽然能够在一定程度解决网格失配问题,但对算法估计精度的提高幅度有限,同时依赖于大量的先验参数与初始化参数,在先验参数未知的情况下,或初始化参数选取不当,都会严重影响算法的性能。
发明内容
有鉴于此,本发明提出了一种信号重构方法、装置、计算机设备及存储介质,解决了传统技术方案在解决稀疏信号重构时,出现的网格失配问题和参数选择问题,提高了信号重构精度,并且通过本发明的方案使得稀疏信号重构算法不再依赖于预先设置的稀疏表示向量基以及先验参数,提高了稀疏信号重构算法对于不同原始信号以及不同应用场景的鲁棒性。
基于上述目的,本发明实施例的一方面提供了一种信号重构方法,具体包括如下步骤:
基于原子范数最小化的稀疏信号重构算法和采样信号数学模型得到原子范数最小化稀疏信号重构算法数学模型;
基于交替方向乘子算法和所述原子范数最小化稀疏信号重构数学模型得到交替方向乘子算法数学模型;
计算所述交替方向乘子算法数学模型的增广拉格朗日函数;
构建深度神经网络模型,并基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解以重构原始信号。
在一些实施方式中,构建深度神经网络模型包括:
构建深度神经网络模型,并设置所述深度神经网络模型的初始化参数和正则化参数。
在一些实施方式中,基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解包括:
基于所述深度神经网络模型接收采样信号;
基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算得到原始最优解。
在一些实施方式中,基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算以得到原始最优解包括:
将所述正则化参数输入到所述增广拉格朗日函数,得到正则化增广拉格朗日函数;
基于所述正则化增广拉格朗日函数得到更新公式;
将所述采样信号和所述初始化参数输入到所述更新公式进行迭代计算得到原始最优解。
在一些实施方式中,将所述采样信号和所述初始化参数输入到所述更新公式进行迭代计算得到原始最优解包括:
将所述采样信号和所述初始化参数输入到所述更新公式,得到原始变量和对偶变量;
判断所述原始变量是否满足原始残差阈值,以及所述对偶变量是否满足对偶残差阈值;
响应于所述原始变量满足所述原始残差阈值并且所述对偶变量满足对偶残差阈值,判断迭代次数是否达到预设迭代次数;
响应于所述迭代次数达到预设迭代次数,输出原始最优解。
在一些实施方式中,方法还包括:
响应于所述原始变量不满足所述原始残差阈值或所述对偶变量不满足对偶残差阈值,返回将所述采样信号和所述初始化参数输入到所述更新公式的步骤以更新所述原始变量和所述对偶变量。
在一些实施方式中,方法还包括:
响应于所述迭代次数未达到预设迭代次数,基于所述原始变量和所述对偶变量更新所述正则化参数,并返回将所述正则化参数输入到所述增广拉格朗日函数的步骤以更新所述更新公式。
在一些实施方式中,基于所述原始变量和所述对偶变量更新所述正则化参数包括:
基于所述原始变量和所述对偶变量更新正则化参数计算公式以更新正则化参数。
在一些实施方式中,基于所述正则化增广拉格朗日函数得到更新公式包括:
基于所述正则化增广拉格朗日函数得到原始变量更新公式、半正定矩阵更新公式和对偶变量更新公式。
在一些实施方式中,所述深度神经网络模型包括迭代运算单元和正则化参数更新单元;
所述迭代运算单元配置用于基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算得到原始最优解;
所述正则化参数更新单元配置用于基于所述原始变量和所述对偶变量更新所述正则化参数。
本发明实施例的另一方面,还提供了一种信号重构装置,包括:
第一计算模块,所述第一计算模块配置为基于原子范数最小化的稀疏信号重构算法和采样信号数学模型得到原子范数最小化稀疏信号重构算法数学模型;
第二计算模块,所述第二计算模块配置为基于交替方向乘子算法和所述原子范数最小化稀疏信号重构数学模型得到交替方向乘子算法数学模型;
第三计算模块,所述第三计算模块配置为计算所述交替方向乘子算法数学模型的增广拉格朗日函数;
构建模块,所述构建模块配置为构建深度神经网络模型,并基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解以重构原始信号。
在一些实施方式中,所述构建模块配置为构建深度神经网络模型,并设置所述深度神经网络模型的初始化参数和正则化参数。
在一些实施方式中,所述构建模块包括接收子模块和第一计算子模块,其中,
所述接收子模块配置为基于所述深度神经网络模型接收采样信号;
所述第一计算子模块配置为基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算得到原始最优解。
在一些实施方式中,所述第一计算子模块配置为执行以下步骤:
将所述正则化参数输入到所述增广拉格朗日函数,得到正则化增广拉格朗日函数;
基于所述正则化增广拉格朗日函数得到更新公式;
将所述采样信号和所述初始化参数输入到所述更新公式进行迭代计算得到原始最优解。
本发明实施例的另一方面,还提供了一种计算机设备,包括:至少一个处理器;以及存储器,所述存储器存储有可在所述处理器上运行的计算机程序,所述处理器执行所述程序时执行如下步骤:
基于原子范数最小化的稀疏信号重构算法和采样信号数学模型得到原子范数最小化稀疏信号重构算法数学模型;
基于交替方向乘子算法和所述原子范数最小化稀疏信号重构数学模型得到交替方向乘子算法数学模型;
计算所述交替方向乘子算法数学模型的增广拉格朗日函数;
构建深度神经网络模型,并基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解以重构原始信号。
在一些实施方式中,构建深度神经网络模型包括:
构建深度神经网络模型,并设置所述深度神经网络模型的初始化参数和正则化参数。
在一些实施方式中,基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解包括:
基于所述深度神经网络模型接收采样信号;
基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算得到原始最优解。
在一些实施方式中,基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算以得到原始最优解包括:
将所述正则化参数输入到所述增广拉格朗日函数,得到正则化增广拉格朗日函数;
基于所述正则化增广拉格朗日函数得到更新公式;
将所述采样信号和所述初始化参数输入到所述更新公式进行迭代计算得到原始最优解。
在一些实施方式中,将所述采样信号和所述初始化参数输入到所述更新公式进行迭代计算得到原始最优解包括:
将所述采样信号和所述初始化参数输入到所述更新公式,得到原始变量和对偶变量;
判断所述原始变量是否满足原始残差阈值,以及所述对偶变量是否满足对偶残差阈值;
响应于所述原始变量满足所述原始残差阈值并且所述对偶变量满足对偶残差阈值,判断迭代次数是否达到预设迭代次数;
响应于所述迭代次数达到预设迭代次数,输出原始最优解。
本发明实施例的再一方面,还提供了一种计算机可读存储介质,计算机可读存储介质存储有被处理器执行时实现如上方法步骤的计算机程序。
本发明至少具有以下有益技术效果:通过本发明的方案解决了传统技术方案在解决稀疏信号重构时,出现的网格失配问题和参数选择问题,提高了信号重构精度;并且通过本发明的方案使得稀疏信号重构算法不再依赖于预先设置的稀疏表示向量基以及先验参数,提高了稀疏信号重构算法对于不同原始信号以及不同应用场景的鲁棒性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为本发明提供的信号重构方法的一实施例的框图;
图2为本发明提供的深度神经网络模型的一实施例的结构示意图;
图3为本发明提供的深度神经网络模型的迭代运算层的一实施例的结构示意图;
图4为本发明提供的信号重构装置的一实施例的示意图;
图5为本发明提供的计算机设备的一实施例的结构示意图;
图6为本发明提供的计算机可读存储介质的一实施例的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
基于上述目的,本发明实施例的第一个方面,提出了一种信号重构方法的实施例。如图1所示,其包括如下步骤:
S10、基于原子范数最小化的稀疏信号重构算法和采样信号数学模型得到原子范数最小化稀疏信号重构算法数学模型;
S20、基于交替方向乘子算法和所述原子范数最小化稀疏信号重构数学模型得到交替方向乘子算法数学模型;
S30、计算所述交替方向乘子算法数学模型的增广拉格朗日函数;
S40、构建深度神经网络模型,并基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解以重构原始信号。
具体的,考虑存在噪声的情况下,采样信号的数学模型可以被表示为如下的形式:
其中:
基于原子范数最小化的稀疏信号重构算法和采样信号数学模型得到原子范数最小化稀疏信号重构算法数学模型,原子范数最小化稀疏信号重构算法数学模型具体可以表示为:
向量x,u以及参数t均为待求解的优化变量,u 1 即为向量u中的第一个元素。
在本发明中,采用交替方向乘子算法(Alternating Direction Method ofMultipliers,ADMM)来解决上述的基于原子范数最小化的稀疏信号重构问题。
具体的,首先,基于交替方向乘子算法和原子范数最小化稀疏信号重构数学模型得到交替方向乘子算法数学模型,由此将基于原子范数最小化的稀疏信号重构问题等价为半正定规划问题。交替方向乘子算法数学模型具体可以表示为:
然后,确定交替方向乘子算法数学模型的增广拉格朗日(Lagrangrian)函数,增广Lagrangrian函数具体可以表示为:
之后,构建深度神经网络模型,并基于构建的深度神经网络模型对增广拉格朗日函数进行计算得到原始最优解,输出的原始最优解即对原始信号的重构。
基于原子范数最小化(Atomic Norm Minimization,ANM)的无网格稀疏信号重构算法是在连续域中选取的一组无限维度的稀疏表示向量基,与传统稀疏信号重构算法在离散域上选取有限维度的稀疏表示向量基存在着本质上的不同。由此将后续的凸优化求解问题从一个二阶锥规划问题进化为一个半正定锥规划问题。基于原子范数最小化稀疏信号重构算法数学模型的连续域无限维度的稀疏表示向量基从根本上解决网格失配问题,能够保证后续算法的估计精度,进而提高了信号重构精度。
在交替方向乘子算法数学模型的基础上构建深度神经网络模型,将正则化参数、稀疏度等先验参数设置为深度神经网络中的参数,对深度神经网络进行训练的过程便可以被视为稀疏信号重构算法中参数选择的过程,解决了原子范数最小化的稀疏信号重构问题,进而得到稀疏信号的重构结果,最终使得稀疏信号重构算法不再依赖于预先设置的稀疏表示向量基以及先验参数,提高算法对于不同原始信号以及不同应用场景的鲁棒性。
在一些实施方式中,构建深度神经网络模型包括:
构建深度神经网络模型,并设置所述深度神经网络模型的初始化参数和正则化参数。
在一些实施方式中,基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解包括:
基于所述深度神经网络模型接收采样信号;
基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算得到原始最优解。
在一具体实施例中,输入采样数据,即采样信号到深度神经网络模型;在深度神经
网络模型设置正则化参数λ和ρ,设置初始化参数,初始化参数包括迭代次数、绝对阈值参数、相对阈值参数、随机变量与;输出原始最优解u * 。
在一些实施方式中,基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算以得到原始最优解包括:
将所述正则化参数输入到所述增广拉格朗日函数,得到正则化增广拉格朗日函数;
基于所述正则化增广拉格朗日函数得到更新公式;
将所述采样信号和所述初始化参数输入到所述更新公式进行迭代计算得到原始最优解。
在一些实施方式中,将所述采样信号和所述初始化参数输入到所述更新公式进行迭代计算得到原始最优解包括:
将所述采样信号和所述初始化参数输入到所述更新公式,得到原始变量和对偶变量;
判断所述原始变量是否满足原始残差阈值,以及所述对偶变量是否满足对偶残差阈值;
响应于所述原始变量满足所述原始残差阈值并且所述对偶变量满足对偶残差阈值,判断迭代次数是否达到预设迭代次数;
响应于所述迭代次数达到预设迭代次数,输出原始最优解。
在一些实施方式中,方法还包括:
响应于所述原始变量不满足所述原始残差阈值或所述对偶变量不满足对偶残差阈值,返回将所述采样信号和所述初始化参数输入到所述更新公式的步骤以更新所述原始变量和所述对偶变量。
在一些实施方式中,方法还包括:
响应于所述迭代次数未达到预设迭代次数,基于所述原始变量和所述对偶变量更新所述正则化参数,并返回将所述正则化参数输入到所述增广拉格朗日函数的步骤以更新所述更新公式。
在一具体实施例中,基于如公式(6)的增广Lagrangrian函数,得到原始变量更新公式、半正定矩阵更新公式和对偶变量更新公式。
原始变量更新公式为:
固定增广Lagrangrian函数中的Λ (i) 与S (i) ,按原始变量更新公式更新x,u与t。
半正定矩阵更新公式为:
根据更新后的u (i+1) 与t (t+1) 以及半正定矩阵更新公式,确定S (i+1) 。
在一具体实施例中,基于构建的深度神经网络模型对增广拉格朗日函数进行计算得到原始最优解的具体过程如下:
设置初始正则化参数λ和ρ;
S113、将初始化正则化参数输入到增广拉格朗日函数,得到正则化增广拉格朗日函数,增广拉格朗日函数和正则化增广拉格朗日函数的表达式是相同的,区别在于正则化增广拉格朗日函数是将初始化正则化参数的值,代入公式(6)而得到的增广拉格朗日函数;
S114、基于正则化增广拉格朗日函数得到更新公式,即公式(7)、(8)、(9);
S115、将采样信号输入到公式(7),并将初始化参数同时输入到公式(7)、(8)、(9),根据公式(7)得到原始变量x (i+1) ,u (i+1) 与t (t+1) ,根据公式(8)更新变量S (i+1) 、根据公式(9)更新对偶变量Λ (i+1) ;
S117、判断原始变量是否满足原始残差阈值,以及对偶变量是否满足对偶残差阈值;
S118、响应于原始变量不满足原始残差阈值或对偶变量不满足对偶残差阈值,返回步骤S115;
S120、响应于迭代次数未达到预设迭代次数,基于原始变量和对偶变量更新正则化参数,并返回步骤S113以基于更新的正则化参数更新更新公式;
S121、响应于迭代次数达到预设迭代次数,输出原始最优解u * ,原始最优解即本次迭代得到的原始变量u (i+1) ,输出原始最优解u * =u (i+1) 。
在一些实施方式中,基于所述原始变量和所述对偶变量更新所述正则化参数包括:
基于所述原始变量和所述对偶变量更新正则化参数计算公式以更新正则化参数。
在一些实施方式中,基于所述正则化增广拉格朗日函数得到更新公式包括:
基于所述正则化增广拉格朗日函数得到原始变量更新公式、半正定矩阵更新公式和对偶变量更新公式。
在一些实施方式中,所述深度神经网络模型包括迭代运算单元和正则化参数更新单元;
所述迭代运算单元配置用于基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算得到原始最优解;
所述正则化参数更新单元配置用于基于所述原始变量和所述对偶变量更新所述正则化参数。
在一具体实施例中,如图2所示,为深度神经网络模型的结构示意图。深度神经网络模型包括迭代运算单元和正则化参数更新单元,迭代运算单元包括多个迭代运算层和多个迭代结束判断单元,其中,第N次迭代运算层的具体结构如图3所示。图3中,第一线性方程组的具体形式如下:
第二线性方程组的具体形式为:
第三线性运算的计算方法如公式(9)所示。
第一线性方程组是基于公式(7)计算得到的,第二线性方程组均是基于公式(8)计算得到的,迭代结束判断单元的具体计算方法如公式(10)和公式(11)。
正则化参数更新单元基于无监督学习策略。首先,随机选取正则化参数λ,ρ∈(0,1),将采样信号以及初始化参数输入上述深度神经网络模型中,迭代运算结束后,且迭代次数未达到预设迭代次数时,进入正则化参数更新单元,按照如下公式计算正则化参数的更新方向:
然后,利用Adam优化器计算更新后的正则化参数λ,ρ。
最后,迭代次数达到预设迭代次数,完成对正则化参数的更新过程。
在一具体实施例,结合具体的应用场景对本发明的实施方式进行说明。
步骤1:生成输入数据。具体的,采用波达方向估计领域中的实例,采用8阵元均匀
线形天线阵列,估计一维角度空间中的3个独立不相关信号,即入射信源的方位角参数,信号振幅在(0,1)范围内随机取值,符合正态分布,信号的相位参数在
(1,2π)范围内随机取值,符合指数分布,信噪比固定为10dB,天线阵列接收信号符合公式
(1)中所给出的数学模型,以此作为本发明中设计深度神经网络模型的一个输入数据,一共
生成60000组数据作为深度神经网络的训练集;
步骤2:输入网络。具体的,在步骤1中所生成的训练数据集中,每次随机选取200个输入网络,进入迭代运算单元;
步骤3:迭代过程停止。具体的,在每一次迭代运算过程之后,根据公式(10)与(11)计算原始残差r与对偶残差μ,并判断当前迭代过程是否达到终止条件;
步骤4:更新正则化参数,具体的,在迭代运算过程停止后,本发明中首先根据公式(14)计算负梯度方向,进而得到正则化参数的更新方向,然后通过默认设置的更新步长与Adam优化器完成正则化参数的更新,得到下一次网络训练时的正则化参数;
步骤5:停止训练。具体的,本发明中设置最大学习过程迭代次数为100,若当前学习迭代未达到100,则对训练数据重新洗牌,重复步骤3与步骤4,若已经达到最大迭代次数,则停止训练,保存当前的网络参数。
通过上述方案,所依赖的输入数据少,且提高了重构信号的精度。
基于同一发明构思,根据本发明的另一个方面,如图4所示,本发明的实施例还提供了一种信号重构装置,包括:
第一计算模块110,所述第一计算模块110配置为基于原子范数最小化的稀疏信号重构算法和采样信号数学模型得到原子范数最小化稀疏信号重构算法数学模型;
第二计算模块120,所述第二计算模块120配置为基于交替方向乘子算法和所述原子范数最小化稀疏信号重构数学模型得到交替方向乘子算法数学模型;
第三计算模块130,所述第三计算模块130配置为计算所述交替方向乘子算法数学模型的增广拉格朗日函数;
构建模块140,所述构建模块140配置为构建深度神经网络模型,并基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解以重构原始信号。
在一些实施方式中,所述构建模块配置为构建深度神经网络模型,并设置所述深度神经网络模型的初始化参数和正则化参数。
在一些实施方式中,所述构建模块包括接收子模块和第一计算子模块,其中,
所述接收子模块配置为基于所述深度神经网络模型接收采样信号;
所述第一计算子模块配置为基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算得到原始最优解。
在一些实施方式中,所述第一计算子模块配置为执行以下步骤:
将所述正则化参数输入到所述增广拉格朗日函数,得到正则化增广拉格朗日函数;
基于所述正则化增广拉格朗日函数得到更新公式;
将所述采样信号和所述初始化参数输入到所述更新公式进行迭代计算得到原始最优解。
基于同一发明构思,根据本发明的另一个方面,如图5所示,本发明的实施例还提供了一种计算机设备30,在该计算机设备30中包括处理器310以及存储器320,存储器320存储有可在处理器上运行的计算机程序321,处理器310执行程序时执行如下的方法的步骤:
基于原子范数最小化的稀疏信号重构算法和采样信号数学模型得到原子范数最小化稀疏信号重构算法数学模型;
基于交替方向乘子算法和所述原子范数最小化稀疏信号重构数学模型得到交替方向乘子算法数学模型;
计算所述交替方向乘子算法数学模型的增广拉格朗日函数;
构建深度神经网络模型,并基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解以重构原始信号。
其中,存储器作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的所述信号重构方法对应的程序指令/模块。处理器通过运行存储在存储器中的非易失性软件程序、指令以及模块,从而执行装置的各种功能应用以及数据处理,即实现上述方法实施例的信号重构方法。
存储器可以包括存储程序区和存储数据区,其中,存储程序区可存储操作装置、至少一个功能所需要的应用程序;存储数据区可存储根据装置的使用所创建的数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至本地模块。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
在一些实施方式中,构建深度神经网络模型包括:
构建深度神经网络模型,并设置所述深度神经网络模型的初始化参数和正则化参数。
在一些实施方式中,基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解包括:
基于所述深度神经网络模型接收采样信号;
基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算得到原始最优解。
在一些实施方式中,基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算以得到原始最优解包括:
将所述正则化参数输入到所述增广拉格朗日函数,得到正则化增广拉格朗日函数;
基于所述正则化增广拉格朗日函数得到更新公式;
将所述采样信号和所述初始化参数输入到所述更新公式进行迭代计算得到原始最优解。
在一些实施方式中,将所述采样信号和所述初始化参数输入到所述更新公式进行迭代计算得到原始最优解包括:
将所述采样信号和所述初始化参数输入到所述更新公式,得到原始变量和对偶变量;
判断所述原始变量是否满足原始残差阈值,以及所述对偶变量是否满足对偶残差阈值;
响应于所述原始变量满足所述原始残差阈值并且所述对偶变量满足对偶残差阈值,判断迭代次数是否达到预设迭代次数;
响应于所述迭代次数达到预设迭代次数,输出原始最优解。
基于同一发明构思,根据本发明的另一个方面,如图6所示,本发明的实施例还提供了一种计算机可读存储介质40,计算机可读存储介质40存储有被处理器执行时执行如上方法的计算机程序410。
最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,程序的存储介质可为磁碟、光盘、只读存储记忆体(ROM)或随机存储记忆体(RAM)等。上述计算机程序的实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件和软件的这种可互换性,已经就各种示意性组件、方块、模块、电路和步骤的功能对其进行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加给整个装置的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现的功能,但是这种实现决定不应被解释为导致脱离本发明实施例公开的范围。
以上是本发明公开的示例性实施例,但是应当注意,在不背离权利要求限定的本发明实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。此外,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。
应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。
Claims (20)
1.一种信号重构方法,其特征在于,包括:
基于原子范数最小化的稀疏信号重构算法和采样信号数学模型得到原子范数最小化稀疏信号重构算法数学模型;
基于交替方向乘子算法和所述原子范数最小化稀疏信号重构数学模型得到交替方向乘子算法数学模型;
计算所述交替方向乘子算法数学模型的增广拉格朗日函数;
构建深度神经网络模型,并基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解以重构原始信号。
2.根据权利要求1所述的方法,其特征在于,构建深度神经网络模型包括:
构建深度神经网络模型,并设置所述深度神经网络模型的初始化参数和正则化参数。
3.根据权利要求2所述的方法,其特征在于,基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解包括:
基于所述深度神经网络模型接收采样信号;
基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算得到原始最优解。
4.根据权利要求3所述的方法,其特征在于,基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算得到原始最优解包括:
将所述正则化参数输入到所述增广拉格朗日函数,得到正则化增广拉格朗日函数;
基于所述正则化增广拉格朗日函数得到更新公式;
将所述采样信号和所述初始化参数输入到所述更新公式进行迭代计算得到原始最优解。
5.根据权利要求4所述的方法,其特征在于,将所述采样信号和所述初始化参数输入到所述更新公式进行迭代计算得到原始最优解包括:
将所述采样信号和所述初始化参数输入到所述更新公式,得到原始变量和对偶变量;
判断所述原始变量是否满足原始残差阈值,以及所述对偶变量是否满足对偶残差阈值;
响应于所述原始变量满足所述原始残差阈值并且所述对偶变量满足对偶残差阈值,判断迭代次数是否达到预设迭代次数;
响应于所述迭代次数达到预设迭代次数,输出原始最优解。
6.根据权利要求5所述的方法,其特征在于,还包括:
响应于所述原始变量不满足所述原始残差阈值或所述对偶变量不满足对偶残差阈值,返回将所述采样信号和所述初始化参数输入到所述更新公式的步骤以更新所述原始变量和所述对偶变量。
7.根据权利要求5所述的方法,其特征在于,还包括:
响应于所述迭代次数未达到预设迭代次数,基于所述原始变量和所述对偶变量更新所述正则化参数,并返回将所述正则化参数输入到所述增广拉格朗日函数的步骤以更新所述更新公式。
8.根据权利要求7所述的方法,其特征在于,基于所述原始变量和所述对偶变量更新所述正则化参数包括:
基于所述原始变量和所述对偶变量更新正则化参数计算公式以更新正则化参数。
9.根据权利要求4所述的方法,其特征在于,基于所述正则化增广拉格朗日函数得到更新公式包括:
基于所述正则化增广拉格朗日函数得到原始变量更新公式、半正定矩阵更新公式和对偶变量更新公式。
10.根据权利要求9所述的方法,其特征在于,所述深度神经网络模型包括迭代运算单元和正则化参数更新单元;
所述迭代运算单元配置用于基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算得到原始最优解;
所述正则化参数更新单元配置用于基于所述原始变量和所述对偶变量更新所述正则化参数。
11.一种信号重构装置,其特征在于,包括:
第一计算模块,所述第一计算模块配置为基于原子范数最小化的稀疏信号重构算法和采样信号数学模型得到原子范数最小化稀疏信号重构算法数学模型;
第二计算模块,所述第二计算模块配置为基于交替方向乘子算法和所述原子范数最小化稀疏信号重构数学模型得到交替方向乘子算法数学模型;
第三计算模块,所述第三计算模块配置为计算所述交替方向乘子算法数学模型的增广拉格朗日函数;
构建模块,所述构建模块配置为构建深度神经网络模型,并基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解以重构原始信号。
12.根据权利要求11所述的装置,其特征在于,所述构建模块配置为构建深度神经网络模型,并设置所述深度神经网络模型的初始化参数和正则化参数。
13.根据权利要求12所述的装置,其特征在于,所述构建模块包括接收子模块和第一计算子模块,其中,
所述接收子模块配置为基于所述深度神经网络模型接收采样信号;
所述第一计算子模块配置为基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算得到原始最优解。
14.根据权利要求13所述的装置,其特征在于,所述第一计算子模块配置为执行以下步骤:
将所述正则化参数输入到所述增广拉格朗日函数,得到正则化增广拉格朗日函数;
基于所述正则化增广拉格朗日函数得到更新公式;
将所述采样信号和所述初始化参数输入到所述更新公式进行迭代计算得到原始最优解。
15.一种计算机设备,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行如下步骤:
基于原子范数最小化的稀疏信号重构算法和采样信号数学模型得到原子范数最小化稀疏信号重构算法数学模型;
基于交替方向乘子算法和所述原子范数最小化稀疏信号重构数学模型得到交替方向乘子算法数学模型;
计算所述交替方向乘子算法数学模型的增广拉格朗日函数;
构建深度神经网络模型,并基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解以重构原始信号。
16.根据权利要求15所述的计算机设备,其特征在于,构建深度神经网络模型包括:
构建深度神经网络模型,并设置所述深度神经网络模型的初始化参数和正则化参数。
17.根据权利要求16所述的计算机设备,其特征在于,基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解包括:
基于所述深度神经网络模型接收采样信号;
基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算得到原始最优解。
18.根据权利要求17所述的计算机设备,其特征在于,基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算得到原始最优解包括:
将所述正则化参数输入到所述增广拉格朗日函数,得到正则化增广拉格朗日函数;
基于所述正则化增广拉格朗日函数得到更新公式;
将所述采样信号和所述初始化参数输入到所述更新公式进行迭代计算得到原始最优解。
19.根据权利要求18所述的计算机设备,其特征在于,将所述采样信号和所述初始化参数输入到所述更新公式进行迭代计算得到原始最优解包括:
将所述采样信号和所述初始化参数输入到所述更新公式,得到原始变量和对偶变量;
判断所述原始变量是否满足原始残差阈值,以及所述对偶变量是否满足对偶残差阈值;
响应于所述原始变量满足所述原始残差阈值并且所述对偶变量满足对偶残差阈值,判断迭代次数是否达到预设迭代次数;
响应于所述迭代次数达到预设迭代次数,输出原始最优解。
20.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时执行如权利要求1至10任意一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211553265.5A CN115563444B (zh) | 2022-12-06 | 2022-12-06 | 一种信号重构方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211553265.5A CN115563444B (zh) | 2022-12-06 | 2022-12-06 | 一种信号重构方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115563444A true CN115563444A (zh) | 2023-01-03 |
CN115563444B CN115563444B (zh) | 2023-06-20 |
Family
ID=84770498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211553265.5A Active CN115563444B (zh) | 2022-12-06 | 2022-12-06 | 一种信号重构方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115563444B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116433662A (zh) * | 2023-06-12 | 2023-07-14 | 北京科技大学 | 一种基于稀疏分解与景深估计的神经元提取方法及装置 |
CN116450993A (zh) * | 2023-04-24 | 2023-07-18 | 哈尔滨工业大学 | 多测量向量卫星数据的处理方法、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109375125A (zh) * | 2018-10-25 | 2019-02-22 | 哈尔滨理工大学 | 一种修正正则化参数的压缩感知磁共振成像重建方法 |
CN112800599A (zh) * | 2021-01-15 | 2021-05-14 | 吉林大学 | 一种阵元失配情况下基于admm的无网格doa估计方法 |
CN114866110A (zh) * | 2022-05-25 | 2022-08-05 | 电子科技大学 | 一种基于弹性网络模型与广义admm结合的跳频信号参数估计方法 |
-
2022
- 2022-12-06 CN CN202211553265.5A patent/CN115563444B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109375125A (zh) * | 2018-10-25 | 2019-02-22 | 哈尔滨理工大学 | 一种修正正则化参数的压缩感知磁共振成像重建方法 |
CN112800599A (zh) * | 2021-01-15 | 2021-05-14 | 吉林大学 | 一种阵元失配情况下基于admm的无网格doa估计方法 |
CN114866110A (zh) * | 2022-05-25 | 2022-08-05 | 电子科技大学 | 一种基于弹性网络模型与广义admm结合的跳频信号参数估计方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116450993A (zh) * | 2023-04-24 | 2023-07-18 | 哈尔滨工业大学 | 多测量向量卫星数据的处理方法、电子设备及存储介质 |
CN116450993B (zh) * | 2023-04-24 | 2023-12-12 | 哈尔滨工业大学 | 多测量向量卫星数据的处理方法、电子设备及存储介质 |
CN116433662A (zh) * | 2023-06-12 | 2023-07-14 | 北京科技大学 | 一种基于稀疏分解与景深估计的神经元提取方法及装置 |
CN116433662B (zh) * | 2023-06-12 | 2023-09-05 | 北京科技大学 | 一种基于稀疏分解与景深估计的神经元提取方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN115563444B (zh) | 2023-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115563444A (zh) | 一种信号重构方法、装置、计算机设备及存储介质 | |
CN110109051B (zh) | 基于频控阵的互耦阵列doa估计方法 | |
CN108981957B (zh) | 基于自组织神经网络及经验正交函数的水下温度场重构方法 | |
CN114239840B (zh) | 量子信道噪声系数估计方法及装置、电子设备和介质 | |
Zhang et al. | Solving nonlinear optimization problems of real functions in complex variables by complex-valued iterative methods | |
Kim et al. | Cauchy noise removal by weighted nuclear norm minimization | |
CN106526565B (zh) | 一种基于支持向量机的单比特空间谱估计方法 | |
CN103944578A (zh) | 一种多信号的重构方法 | |
CN111175692A (zh) | 基于分层合成Lasso先验模型的离格稀疏贝叶斯DOA估计方法 | |
Wang et al. | Fast compressive sensing DOA estimation via ADMM solver | |
CN114355781A (zh) | 一种基于零值化神经动力学模型求解时变复值线性矩阵方程的方法 | |
CN115480206A (zh) | 一种离网格doa估计方法 | |
Gassiat et al. | Deconvolution with unknown noise distribution is possible for multivariate signals | |
CN113504505B (zh) | 一种适用于低信噪比环境下的一维doa估计方法 | |
CN112953548A (zh) | 一种基于ipnn和压缩感知的稀疏信号重构方法 | |
CN112087235A (zh) | 基于伪逆感知字典的稀疏度自适应doa估计方法及系统 | |
CN112710982A (zh) | 一种天线阵列波达角估计方法、系统、介质、设备及应用 | |
CN116359834A (zh) | 一种基于嵌套阵列改进的samp的波达方向估计方法 | |
CN106772223A (zh) | 一种基于逻辑回归的单比特空间谱估计方法 | |
CN115015869A (zh) | 可学习低频宽带雷达目标参数估计方法、设备及程序产品 | |
CN114996653A (zh) | 一种基于原子范数最小化的二维鲁棒自适应波束形成方法 | |
CN114254525A (zh) | 一种结合mmp算法与组合树剪枝的波达方向角优化方法 | |
Colonnese et al. | Compound Markov random field model of signals on graph: An application to graph learning | |
Guo et al. | Deep Learning Based DOA Estimation With Trainable-Step-Size LMS Algorithm | |
CN113219399B (zh) | 基于全实值计算的远场窄带无线电信号波达方向估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |