CN114095022B - 基于机器学习的分裂流水线逐次逼近模数转换器校准方法 - Google Patents
基于机器学习的分裂流水线逐次逼近模数转换器校准方法 Download PDFInfo
- Publication number
- CN114095022B CN114095022B CN202111407498.XA CN202111407498A CN114095022B CN 114095022 B CN114095022 B CN 114095022B CN 202111407498 A CN202111407498 A CN 202111407498A CN 114095022 B CN114095022 B CN 114095022B
- Authority
- CN
- China
- Prior art keywords
- neural network
- successive approximation
- digital converter
- analog
- split
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 238000010801 machine learning Methods 0.000 title claims abstract description 10
- 238000013528 artificial neural network Methods 0.000 claims abstract description 37
- 238000006243 chemical reaction Methods 0.000 claims abstract description 6
- 238000013138 pruning Methods 0.000 claims abstract description 6
- 230000006870 function Effects 0.000 claims description 13
- 230000004913 activation Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- UDQDXYKYBHKBTI-IZDIIYJESA-N 2-[4-[4-[bis(2-chloroethyl)amino]phenyl]butanoyloxy]ethyl (2e,4e,6e,8e,10e,12e)-docosa-2,4,6,8,10,12-hexaenoate Chemical compound CCCCCCCCC\C=C\C=C\C=C\C=C\C=C\C=C\C(=O)OCCOC(=O)CCCC1=CC=C(N(CCCl)CCCl)C=C1 UDQDXYKYBHKBTI-IZDIIYJESA-N 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 abstract description 4
- 210000002569 neuron Anatomy 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 3
- 239000003990 capacitor Substances 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M1/00—Analogue/digital conversion; Digital/analogue conversion
- H03M1/10—Calibration or testing
- H03M1/1009—Calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Analogue/Digital Conversion (AREA)
Abstract
本发明属于集成电路技术领域,具体为一种基于机器学习的分裂流水线逐次逼近模数转换器校准方法。本发明方法包括:使用开环余量放大器的分裂式流水线逐次逼近型模数转换器模型,完成输入模拟信号到数字码值的转换;采用神经网络失真补偿模块,通过补偿模拟电路引入的失真,完成对输出结果的数字后台校准。对该神经网络的训练不需要关于ADC结构的相关信息,且输出的数据具有稀疏性。通过对矩阵稀疏情况分析并剪枝,以降低神经网络的计算量;同时可由稀疏情况预测ADC的级数分配等结构信息。本发明对使用开环余量放大器的分裂式流水线逐次逼近型模数转换器电路结构具有广泛适用性,并且可以得到超过LMS校准算法的精度。
Description
技术领域
本发明属于集成电路技术领域,具体涉及基于机器学习的分裂式流水线逐次逼近型模数转换器的校准方法。
背景技术
随着数据要求的提高,高速和高分辨率的模数转换器不可缺少。流水线逐次逼近型模数转换器(Pipelined-SAR ADC)比传统的流水线型ADC更节能,在速度,分辨率和线性度方面,又优于SAR ADC,具有很大优势。
传统的Pipelined-SAR ADC依赖于开关电容(SC)电路中的高性能运算跨导放大器(OTA)来精确放大余量,功耗较高。使用环形放大器进行余量放大具有较好的功率效率,但是在工艺、温度、电压的影响下容易产生振荡。开环的余量放大器已经取代了闭环负反馈电路。但是开环放大器的增益和线性度与工艺、温度和电源电压高度相关并且对输入信号的稳定性很敏感,因此,自适应校准是必要的。
数字校准主要分为基于统计的校准和确定性校准,其中后者具有更快的收敛速度和更少的硬件复杂性的优点。在确定性校准方法中,分裂式模数转换器(Split ADC)具有最小模拟开销、更高转换速度和更低复杂性,优于其他确定性校准方案。
现有的校准方案通常是基于ADC结构的先验知识的,包括其级数、每一级的精度、放大器增益和非线性情况等。基于这些知识,使用如最小均方误差(LMS)方法,通过建立并求解与ADC误差模型相关的复杂矩阵方程,以校正放大器增益误差、非线性和电容器不匹配等。因此,针对使用开环余量放大器的Split Pipelined-SAR ADC的不同电路结构,校准算法也具有差异性,无法扩展。
机器学习的最新进展,尤其是神经网络算法,激励我们为这些具有动态开环放大器的ADC开发通用的,无先验知识的校准方案。
发明内容
本发明的目的在于提供一种基于机器学习的无先验知识的分裂式流水线逐次逼近型模数转换器的校准方法,用于校准带有开环余量放大器的分裂式流水线逐次逼近型模数转换器,同时纠正电容器不匹配、增益误差和开环放大器的高阶失真。
本发明提供的基于机器学习的分裂式流水线逐次逼近型模数转换器(ADC)的校准方法,具体步骤为:
(1)首先使用开环余量放大器的分裂式流水线逐次逼近型模数转换器(ADC),完成输入模拟信号到数字码值的转换,同时产生神经网络损失函数;
(2)使用神经网络失真补偿模块,通过补偿模拟电路引入的失真,完成对流水线逐次逼近型模数转换器(ADC)输出结果的数字后台校准。
其中,一个流水线逐次逼近型模数转换器(ADC)的每一级包括采样保持电路、CDAC阵列、逐次逼近控制逻辑、比较器和开环的余量放大器;并分裂成两个完全相同的半通道,各占用一半的面积与功耗;两个半通道同时对输入信号进行采样,并使用理想的电容权重进行信号重建;两个半通道重建结果相减后的差值用于校准ADC失真,相加后结果求平均为最终数字输出。
本发明中,所述的神经网络失真补偿模块(即神经网络校准模块),具有三层网络,依次为输入层、隐藏层、输出层;其中,隐藏层中的节点结构就是多层感知机基本单元;输入层实际上就是抽头,不包含内部结构;输出层可以包含激活函数也可以不包含;在激活函数的帮助下,多层感知机具备强大的函数拟合能力,已经证明,仅含有一层隐藏层的多层感知机,只要其中有足够多的神经元,就能够逼近任何函数。
本发明中,神经网络的损失函数为两个半通道转换结果相减后的差值的平方。
本发明中,神经网络的训练采用基于随机梯度下降的误差反向传播算法。
本发明中,神经网络失真补偿模块仅对两个半通道输出结果的失真进行补偿,而不是试图直接使用神经网络得到修正后的最终数字重建结果。
本发明中,神经网络的输入层直接使用各级流水线比较器的输出结果作为输入,极大减小计算量。
本发明中,对该神经网络的训练不需要关于ADC结构的相关信息,并且,输出数据具有稀疏性,通过对矩阵稀疏情况进行分析并剪枝,可极大降低神经网络的计算量;同时可由稀疏情况预测ADC的级数分配等结构信息。
通常,训练好的网络是稀疏的,即许多权重小于一个LSB振幅,可以忽略不计,因此我们强制这些权重到零后,初步收敛和重新训练网络,即可通过修剪来降低计算成本。
另外,稀疏分布表明了ADC结构,预测ADC的级数分配等结构信息,剪枝后计算量显著下降。在128个神经元中,有10个神经元只有最多的6个有效位作为输入,而另外49个神经元只有最少的11个有效位作为输入,其余的神经元没有这种规律性。这种现象意味着6位和11位很可能是不相关的,11位需要更多的非线性处理。稀疏分布也有助于获得未知的先验知识。对于只有MSB输入的神经元,我们通过消除隐藏层来进一步压缩网络,因为MSB只需要电容失配校正,输出层可以对其进行充分校正。修剪后的网络比未修剪的节省了75% 的计算成本,但具有同样的精度。
本发明提供的分裂式流水线逐次逼近型模数转换器的校准方法,具有可扩展性和广泛适用性,可使用于所有未知内部结构的、使用开环余量放大器的、分裂式流水线逐次逼近型模数转换器,并且经过对矩阵输出结果的稀疏性分析,可以预测相关的电路内部结构。
本发明的技术效果是,通过一个三层神经网络算法来对未知结构的、使用开环余量放大器的、分裂式流水线逐次逼近型模数转换器进行失真量的补偿,并可根据对神经网络输出数据的稀疏性分析来预测电路结构。校准方案具有可扩展性,对于不同的电路内部结构具有广泛适用性,并且可以得到超过LMS校准算法的精度。
附图说明
图1是本发明的用于带有开环余量放大器的分裂式流水线逐次逼近型模数转换器的基于机器学习的无先验知识的校准方法的流程图示。
图2是一种使用开环动态放大器的分裂式流水线逐次逼近型模数转换器的电路结构实例示意图。
具体实施方式
在下文中结合图示在参考实施例中更完全地描述本发明,但下文实例中的电路结构只是其中一种典型应用,但不应该被认为仅限于在此阐述的实施例。
图1为本发明的用于带有开环余量放大器的分裂式流水线逐次逼近型模数转换器的基于机器学习的无先验知识的校准方案的结构示意图,由Split ADC 模型和双层神经网络结构组成。Split ADC两个半通道输出结果的差值的平方作为神经网络的损失函数,比较器的输出结果作为神经网络的直接输入,神经网络的输出结果用于修正使用理想权值得到的数字重建结果中的失真。
图2为一个使用开环动态放大器作为余量放大的分裂式流水线逐次逼近型模数转换器实际电路结构图,其流水线第一级比较器输出为6bit,第二级比较器输出为11bit。将17位的比较器输出直接输入神经网络中,由于比较器的输出结果为1或-1,因此大量乘法计算可以转换为带符号的加法运算,大大减少了计算量。神经网络输出结果用于补偿未经校准输出中的失真,并最终得到校准后的数字输出结果。在本实例中,使用relu函数做激活函数校准的效果最好。
神经网络的输出结果具有稀疏性。通过分析稀疏情况,在使用的128个神经元中有10个神经元只具有最高6位的有效输入,49个神经元具有最低11位的有效输入,其余神经元没有类似特征。这与实际电路结构中,第一级6bit比较和第二级11bit比较相对应。并且由神经元数量的差异可以反映出11bit级电路的非理想性更大,这是因为后一级的结果受到余量放大器的影响。依据此分析结果对神经网络进行剪枝,即第一层神经网络只输入低11位数据,高6bit数据在隐藏层时再进行输入,由此神经网络的计算量比未剪枝时减少了75%。
以上通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。
Claims (5)
1.一种基于机器学习的分裂式流水线逐次逼近型模数转换器的校准方法,其特征在于,具体步骤为:
(1)首先使用开环余量放大器的分裂式流水线逐次逼近型模数转换器,完成输入模拟信号到数字码值的转换,同时产生神经网络损失函数;
(2)使用神经网络失真补偿模块,通过补偿模拟电路引入的失真,完成对流水线逐次逼近型模数转换器输出结果的数字后台校准;
其中,一个流水线逐次逼近型模数转换器的每一级包括采样保持电路、CDAC阵列、逐次逼近控制逻辑、比较器和开环的余量放大器;并分裂成两个完全相同的半通道,各占用一半的面积与功耗;两个半通道同时对输入信号进行采样,并使用电容权重进行信号重建;两个半通道重建结果相减后的差值用于校准逐次逼近型模数转换器的失真,相加后结果求平均为最终数字输出;
所述神经网络失真补偿模块具有三层网络,依次为输入层、隐藏层、输出层;其中,隐藏层中的节点结构就是多层感知机基本单元;输入层是抽头,不包含内部结构;输出层包含激活函数或不包含激活函数;
各级流水线比较器的输出结果进入到神经网络的输入层。
2.根据权利要求1所述的校准方法,其特征在于,神经网络的损失函数为两个半通道转换结果相减后的差值的平方。
3.根据权利要求1所述的校准方法,其特征在于,神经网络的训练采用基于随机梯度下降的误差反向传播算法。
4.根据权利要求1所述的校准方法,其特征在于,神经网络失真补偿模块仅对两个半通道输出结果的失真进行补偿。
5.根据权利要求1所述的校准方法,其特征在于,基于神经网络输出数据具有稀疏性,采用剪枝的方法,降低神经网络的计算量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111407498.XA CN114095022B (zh) | 2021-11-24 | 2021-11-24 | 基于机器学习的分裂流水线逐次逼近模数转换器校准方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111407498.XA CN114095022B (zh) | 2021-11-24 | 2021-11-24 | 基于机器学习的分裂流水线逐次逼近模数转换器校准方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114095022A CN114095022A (zh) | 2022-02-25 |
CN114095022B true CN114095022B (zh) | 2024-04-23 |
Family
ID=80304326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111407498.XA Active CN114095022B (zh) | 2021-11-24 | 2021-11-24 | 基于机器学习的分裂流水线逐次逼近模数转换器校准方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114095022B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116840759B (zh) * | 2023-07-04 | 2024-08-02 | 成都泰格微电子研究所有限责任公司 | 一种适用于混合集成电路测试系统的快速校准系统及方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015154671A1 (zh) * | 2014-04-09 | 2015-10-15 | 华为技术有限公司 | 流水线逐次比较模数转换器的自校准方法和装置 |
CN109412593A (zh) * | 2018-09-06 | 2019-03-01 | 东南大学 | 一种部分分裂流水线逐次逼近型adc数字电路 |
WO2019097513A1 (en) * | 2017-11-14 | 2019-05-23 | Technion Research & Development Foundation Limited | Analog to digital converter using memristors in a neural network |
-
2021
- 2021-11-24 CN CN202111407498.XA patent/CN114095022B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015154671A1 (zh) * | 2014-04-09 | 2015-10-15 | 华为技术有限公司 | 流水线逐次比较模数转换器的自校准方法和装置 |
WO2019097513A1 (en) * | 2017-11-14 | 2019-05-23 | Technion Research & Development Foundation Limited | Analog to digital converter using memristors in a neural network |
CN111630527A (zh) * | 2017-11-14 | 2020-09-04 | 技术研发基金会有限公司 | 在神经网络中使用存储器的模拟数字转换器 |
CN109412593A (zh) * | 2018-09-06 | 2019-03-01 | 东南大学 | 一种部分分裂流水线逐次逼近型adc数字电路 |
Non-Patent Citations (1)
Title |
---|
一款14位流水线-逐次逼近型模数转换器设计;张浩松;唐鹤;;电子与封装;20200720(第07期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114095022A (zh) | 2022-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8416107B1 (en) | Charge compensation calibration for high resolution data converter | |
CN111654285B (zh) | 一种pipelined SAR ADC电容失配和增益误差的数字后台校准方法 | |
CN113114247B (zh) | 基于比较时间探测器的流水线adc级间增益校准方法 | |
CN113037287B (zh) | 一种高精度逐次逼近性模数转换器的后台校准方法及系统 | |
Zhang et al. | Machine learning based prior-knowledge-free calibration for split pipelined-SAR ADCs with open-loop amplifiers achieving 93.7-dB SFDR | |
Zhai et al. | High-speed and time-interleaved ADCs using additive-neural-network-based calibration for nonlinear amplitude and phase distortion | |
CN114095022B (zh) | 基于机器学习的分裂流水线逐次逼近模数转换器校准方法 | |
Du et al. | Capacitor mismatch calibration of a 16-bit SAR ADC using optimized segmentation and shuffling scheme | |
Ware et al. | 6GS/s 8-channel CIC SAR TI-ADC with neural network calibration | |
Chen et al. | A partially binarized and fixed neural network based calibrator for SAR-pipelined ADCs achieving 95.0-dB SFDR | |
CN116015292A (zh) | 一种基于全连接神经网络的adc校准方法 | |
Chen et al. | A calibration scheme for nonlinearity of the SAR-pipelined ADCs based on a shared neural network | |
CN113271102B (zh) | 流水线模数转换器 | |
CN104467845B (zh) | 一种自适应电荷再分布模数转换器、转换方法及校准方法 | |
Dyer et al. | A comparison of monolithic background calibration in two time-interleaved analog-to-digital converters | |
CN116760412A (zh) | 一种基于ann的时间交织adc校准器 | |
CN118041363A (zh) | 一种基于信号导数信息的ti adc神经网络校准方法 | |
Xu et al. | A/D converter background calibration algorithm based on neural network | |
CN114826263B (zh) | 一种应用于分段式逐次逼近模数转换器的浮空节点校准方法 | |
CN117335802B (zh) | 一种基于神经网络的流水线模数转换器后台校准方法 | |
Li et al. | An Ultra-fast ADC Linearity Test and Calibration Method | |
CN111371456A (zh) | 全动态范围ns sar adc中的二阶失配误差整形技术 | |
CN118018017A (zh) | 基于插值法和混合式神经网络的adc校准方法及其应用 | |
CN113098511B (zh) | 一种流水线逐次逼近型模数转换器的前端自校准方法 | |
CN114614822B (zh) | 一种Pipelined-SAR ADC的级间增益非线性校准方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |