CN113873539A - 获取神经网络的方法和装置 - Google Patents
获取神经网络的方法和装置 Download PDFInfo
- Publication number
- CN113873539A CN113873539A CN202010615552.9A CN202010615552A CN113873539A CN 113873539 A CN113873539 A CN 113873539A CN 202010615552 A CN202010615552 A CN 202010615552A CN 113873539 A CN113873539 A CN 113873539A
- Authority
- CN
- China
- Prior art keywords
- neural network
- originating
- target
- performance
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 926
- 238000000034 method Methods 0.000 title claims abstract description 283
- 238000004891 communication Methods 0.000 claims description 123
- 238000012545 processing Methods 0.000 claims description 89
- 230000008569 process Effects 0.000 claims description 70
- 238000000605 extraction Methods 0.000 claims description 58
- 230000005540 biological transmission Effects 0.000 claims description 46
- 238000007906 compression Methods 0.000 claims description 29
- 230000006835 compression Effects 0.000 claims description 27
- 238000004590 computer program Methods 0.000 claims description 12
- 238000003860 storage Methods 0.000 claims description 10
- 238000012790 confirmation Methods 0.000 claims description 9
- 238000005259 measurement Methods 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 description 109
- 230000015654 memory Effects 0.000 description 75
- 238000007781 pre-processing Methods 0.000 description 57
- 238000012805 post-processing Methods 0.000 description 42
- 238000013461 design Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 21
- 238000012549 training Methods 0.000 description 16
- 210000002569 neuron Anatomy 0.000 description 15
- 210000004027 cell Anatomy 0.000 description 14
- 238000004422 calculation algorithm Methods 0.000 description 13
- 230000000670 limiting effect Effects 0.000 description 12
- 238000013527 convolutional neural network Methods 0.000 description 11
- 230000011664 signaling Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 8
- 230000009471 action Effects 0.000 description 7
- 230000009977 dual effect Effects 0.000 description 6
- 230000006872 improvement Effects 0.000 description 6
- 238000005457 optimization Methods 0.000 description 6
- 230000004913 activation Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000007667 floating Methods 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000011423 initialization method Methods 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000008054 signal transmission Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 208000037855 acute anterior uveitis Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000010960 commercial process Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000001404 mediated effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/02—Arrangements for optimising operational condition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/30—Monitoring
- G06F11/34—Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
- G06F11/3466—Performance evaluation by tracing or monitoring
- G06F11/3495—Performance evaluation by tracing or monitoring for systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0985—Hyperparameter optimisation; Meta-learning; Learning-to-learn
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/04—Network management architectures or arrangements
- H04L41/044—Network management architectures or arrangements comprising hierarchical management structures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0803—Configuration setting
- H04L41/0823—Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/145—Network analysis or design involving simulating, designing, planning or modelling of a network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/16—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0495—Quantised networks; Sparse networks; Compressed networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/085—Retrieval of network configuration; Tracking network configuration history
- H04L41/0853—Retrieval of network configuration; Tracking network configuration history by actively collecting configuration information or by backing up configuration information
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computer Hardware Design (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Arrangements For Transmission Of Measured Signals (AREA)
- Feedback Control In General (AREA)
Abstract
本申请提供了一种获取神经网络的方法和装置,以期减少发射机和接收机下载神经网络结构和参数信息等带来的空口开销。该方法包括:基于标准化的参考数据集、标准化的至少一个参考神经网络和标准化的性能判断准则,确定构建的目标神经网络是否满足预设的输出条件;在满足输出条件的情况下,输出该目标神经网络;在不满足输出条件的情况下,对该目标神经网络进行优化,直至获得的目标神经网络满足输出条件;其中,该目标神经网络是应用于发射机的发端目标神经网络或应用于接收机的收端目标神经网络。
Description
技术领域
本申请涉及人工智能领域,并且更具体地,涉及获取神经网络的方法和装置。
背景技术
在通信系统中,发射机用于发送信号,接收机用于接收发射机发送的信号。神经网络可应用于发射机和接收机,对收发两端进行联合优化,以提高整体性能。以信道信息(channel state information,CSI)压缩和重构为例,发射机可基于神经网络对CSI进行压缩,生成空口信息。接收机可基于神经网络对空口信息进行解析,以重构信道。在一种实现方式中,可以采用联合发射端的神经网络与接收端的神经网络设计来实现算法的联合优化,获得最优的压缩和重构算法。
然而,在实际商用系统中,接收机和发射机往往是由不同的厂商提供的。例如,发射机由A厂商提供,接收机由B厂商提供。为了解决联合优化问题,一种实现方式是,发射机和接收机分别下载匹配当前使用场景的神经网络结构和参数信息,再依据下载的神经网络进行收、发两端的处理。这会造成空口的巨大开销,在实际使用中受到较大局限。
发明内容
本申请提供一种获取神经网络的方法和装置,以期减少发射机和接收机下载神经网络结构和参数信息等所带来的巨大的空口开销。
第一方面,提供了一种获取神经网络的方法。该方法包括:基于标准化的参考数据集、一个或多个参考神经网络和性能判断准则,确定构建的目标神经网络是否满足预设的输出条件;在满足所述输出条件的情况下,输出所述目标神经网络,输出的所述目标神经网络是应用于发射机的发端目标神经网络或应用于接收机中的收端目标神经网络。
基于上述技术方案,通过引入标准化的参考数据集、标准化的参考神经网络以及标准化的性能判断准则,使得获取设备可以基于已有的标准化的参考神经网络,对目标神经网络进行评估,在目标神经网络满足输出条件的情况下才将其输出使用。输出的目标神经网络可应用于发射机或接收机中。从而使得发射机或接收机通过空口来下载神经网络结构和参数信息的开销得以避免。同时还可以保证不同厂商的产品之间能够互联互通,在保证性能的前提下,还可以体现不同厂商的产品的差异化设计和竞争力,因此从整体上说,大幅提升了对偶网络实现的可行性。
结合第一方面,在第一方面的某些可能的实现方式中,所述方法还包括:在不满足所述输出条件的情况下,继续对所述目标神经网络进行优化,直至获得的目标神经网络满足所述输出条件。
即,在不满足输出条件的情况下,还可继续对目标神经网络进行优化。所述优化可以包括但不限于,调整神经网络结构设计、调整参考数据集、调整神经网络训练方法、调整代价函数、损失函数或目标函数的定义、改变神经网络的初始化方法、改变神经网络参数的约束条件、以及改变神经网络的激活函数的定义等。
通过对目标神经网络的优化,所得到的优化后的目标神经网络可继续基于上述性能判断准则进行评估,如此循环,指导优化后的目标神经网络满足输出条件,进而将其输出。
结合第一方面,在第一方面的某些可能的实现方式中,所述发端目标神经网络用于星座调制、信道编码、预编码、或信道信息的提取和压缩;所述收端目标神经网络用于星座解调、信道解码、检测接收、或信道信息的重构。
换言之,该目标神经网络可以应用于通信的各个阶段。发端目标神经网络和收端目标神经网络可以相互耦合,协同工作。例如,协同工作的发端目标神经网络和收端目标神经网络可分别用于星座调制与解调、或信道编码与解码、或预编码与检测接收、或信道信息的提取和压缩与信道信息的重构。
结合第一方面,在第一方面的某些可能的实现方式中,所述方法还包括:从至少一套标准化的配置中确定适用于所述目标神经网络当前应用场景的配置;每套标准化的配置至少包括以下一项或多项:标准化的参考数据集、标准化的参考神经网络、标准化的数据结构、标准化的性能度量函数、标准化的性能判断准则、以及标准化的可实现能力度量值。
其中,所述参考神经网络包括应用于接收机中的收端参考神经网络和/或应用于发射机中的发端参考神经网络;所述数据结构用于生成和/或解析空口信息;所述性能度量函数用于生成性能度量值,所述性能判断准则包括性能指标和所述目标神经网络的输出条件,所述性能判断准则用于基于所述性能度量值和所述性能指标,确定所述目标神经网络是否满足所述输出条件;所述可实现能力度量值包括神经网络用于选择匹配的神经网络和/或匹配的性能指标。
应理解,这里所述的匹配的神经网络,具体可以是指,该神经网络在给定的约束下,能够应用在发射机或接收机中,所述给定的约束可以包括实现复杂度和/或空口开销。匹配的性能指标,具体可以是指,用于获取该神经网络的阶段对该神经网络进行评估所使用的性能指标。
针对不同的应用场景可以定义不同的标准化的配置。例如,在不同的应用场景中,性能判断准则可以不同;或,参考神经网络可以不同,等等。基于这样的设计,可以使得输出的目标神经网络与不同的应用场景相匹配,从而有利于获得较好的系统性能。
可选地,所述性能度量函数包括以下一项或多项:均方误差、归一化均方误差、平均绝对误差、最大绝对误差、相关系数、交叉熵、互信息、误比特率、或误帧率。
上文所列举的性能度量函数仅为示例,不应对本申请构成任何限定。性能度量函数在用于对目标神经网络进行评估时,可以同时使用其中的一项或多项来评估。本申请对此不作限定。
可选地,所述性能指标包括一个或多个性能指标,所述性能判断准则包括基于所述性能度量值与所述一个或多个性能指标的比较,确定是否满足所述输出条件。
应理解,所述性能指标可以为一项或多项。与之对应的性能指标的上界和/或下界也可以为一项或多项。
下文示出了结合上述性能判断准则,对目标神经网络进行评估,以确定其是否满足输出条件的几个示例。
在一种可能的设计中,所述目标神经网络为发端目标神经网络,所述一个或多个参考神经网络为一个或多个收端参考神经网络;以及,所述基于标准化的参考数据集、一个或多个参考神经网络和性能判断准则,确定设计得到的目标神经网络是否满足预设的输出条件,包括:将从所述参考数据集中获取到的发端数据输入至所述发端目标神经网络中,所述发端目标神经网络用于根据预定义的数据结构对所述发端数据进行处理,以生成待发送给所述一个或多个收端参考神经网络的空口信息;从所述一个或多个收端参考神经网络获取一个或多个输出结果,所述一个或多个输出结果由所述一个或多个收端参考神经网络分别基于接收到的所述空口信息得到;将所述一个或多个输出结果和所述发端数据作为所述性能度量函数的输入,以得到一个或多个性能度量值;根据所述一个或多个性能度量值,以及所述性能判断准则,确定所述目标神经网络是否满足所述输出条件。
即,将发端目标神经网络和收端参考神经网络级联来对收端目标神经网络进行评估。
在另一种可能的设计中,所述目标神经网络为发端目标神经网络,所述一个或多个参考神经网络为一个或多个发端参考神经网络;以及,所述基于标准化的参考数据集、一个或多个参考神经网络和性能判断准则,确定设计得到的目标神经网络是否满足预设的输出条件,包括:将从所述参考数据集中获取到的发端数据输入至所述发端目标神经网络中,所述发端目标神经网络用于根据预定义的数据结构对所述发端数据进行处理,以生成目标空口信息;将所述发端数据输入至所述一个或多个发端参考神经网络中,所述一个或多个发端参考神经网络用于根据预定义的数据结构对所述发端数据进行处理,以生成一个或多个参考空口信息;将所述一个或多个参考空口信息和所述目标空口信息作为所述性能度量函数的输入,以得到一个或多个性能度量值;根据所述一个或多个性能度量值,以及所述性能判断准则,确定所述发端目标神经网络是否满足所述输出条件。
即,将发端参考神经网络作为参考,来对发端目标神经网络进行评估。
在又一种可能的设计中,所述目标神经网络为收端目标神经网络,所述一个或多个参考神经网络为一个或多个发端参考神经网络;以及,所述基于标准化的参考数据集、一个或多个参考神经网络和性能判断准则,确定设计得到的目标神经网络是否满足预设的输出条件,包括:将从所述参考数据集中获取到的发端数据输入至所述一个或多个发端参考神经网络中,所述一个或多个发端参考神经网络用于根据预定义的数据结构对所述发端数据进行处理,以得到待发送给所述收端目标神经网络的一个或多个空口信息;从所述收端目标神经网络获取一个或多个输出结果,所述一个或多个输出结果是所述收端目标神经网络根据接收到的所述一个或多个空口信息分别生成的输出结果;将所述一个或多个输出结果和所述发端数据作为所述性能度量函数的输入,以得到一个或多个性能度量值;根据所述一个或多个性能度量值,以及所述性能判断准则,确定所述收端目标神经网络是否满足所述输出条件。
即,将收端目标神经网络和发端参考神经网络级联来对收端目标神经网络进行评估。
在再一种可能的设计中,所述目标神经网络为收端目标神经网络,所述一个或多个参考神经网络包括一个或多个发端参考神经网络和一个或多个收端参考神经网络;以及,所述基于标准化的参考数据集、一个或多个参考神经网络和性能判断准则,确定设计得到的目标神经网络是否满足预设的输出条件,包括:将从所述参考数据集中获取到的发端数据输入至所述一个或多个发端参考神经网络中,所述一个或多个发端参考神经网络用于根据预定义的数据结构对所述发端数据进行处理,以得到待发送给所述收端目标神经网络和所述一个或多个收端参考神经网络的一个或多个空口信息;从所述收端目标神经网络获取一个或多个目标输出结果,所述一个或多个目标输出结果是所述收端目标神经网络根据接收到的所述一个或多个空口信息分别生成的输出结果;从所述一个或多个收端参考神经网络获取一个或多个参考输出结果,所述一个或多个参考输出结果是由所述一个或多个收端参考神经网络分别根据接收到的所述一个或多个空口信息生成的输出结果;将所述一个或多个目标输出结果和所述一个或多个参考输出结果作为所述性能度量函数的输入,以得到一个或多个性能度量值;根据所述一个或多个性能度量值,以及所述性能判断准则,确定所述收端目标神经网络是否满足所述输出条件。
即,将收端目标神经网络和发端参考神经网络级联,并使用收端参考神经网络作为参考,对收端目标神经网络进行评估。
结合第一方面,在第一方面的某些可能的实现方式中,所述可实现能力度量值包括以下一项或多项:空口信息的开销、神经网络实现所需计算量、神经网络实现所存储的参数量、以及神经网络实现所需的计算精度。
因此,基于不同应用的实现复杂度,可选择匹配的神经网络来工作,也可选择匹配的性能指标来评估。
第二方面,提供了一种通信方法,该方法包括:第一设备基于与第二设备之间的空口传输条件,确定场景模式,所述场景模式用于确定适用于当前空口传输条件的神经网络,所述神经网络是从预先设计得到的多个神经网络中确定的,所述多个神经网络中的每个神经网络与一种或多种场景模式相匹配;所述第一设备向所述第二设备发送所述场景模式的指示信息。
基于上述方法,第一设备可以基于与第二设备之间当前的空口传输条件,选择合适的场景模式,并将该场景模式指示给第二设备,以便于第一设备和第二设备双方基于同一场景模式来确定采用怎样的神经网络来工作。从而有利于获得性能的提升。
结合第二方面,在第二方面的某些可能的实现方式中,所述方法还包括:所述第一设备接收来自所述第二设备的确认信息,所述确认信息用于指示对所述场景模式的指示信息的成功接收。
第二设备可以基于对上述指示信息的成功接收,向第一设备发送确认信息,以便于第一设备根据对该指示信息的接收情况执行后续流程。比如,在成功接收的情况下,采用与所述场景模式匹配神经网络工作;在未成功接收的情况下,重新发送所述场景模式的指示信息,等等。本申请对此不作限定。
结合第二方面,在第二方面的某些可能的实现方式中,所述方法还包括:所述第一设备采用与所述场景模式匹配的神经网络与所述第二设备通信。
第一设备可以基于第二设备对上述指示信息的成功接收,采用与所述场景模式匹配的神经网络来工作。第二设备也可以基于对上述指示信息的成功接收,确定并采用与所指示的场景模式匹配的神经网络来工作,从而可以实现两个相互耦合的神经网络协同工作,有利于提高系统性能。
第三方面,提供了一种通信方法,该方法包括:第二设备接收来自第一设备的场景模式的指示信息,所述场景模式用于确定适用于当前空口传输条件的神经网络,所述神经网络是从预先设计得到的多个神经网络中确定的,所述多个神经网络中的每个神经网络与一种或多种场景模式相匹配;所述第二设备根据所述场景模式的指示信息,确定所述场景模式;根据所述场景模式,确定适用于所述空口传输条件的神经网络。
基于上述方法,第一设备可以基于与第二设备之间当前的空口传输条件,选择合适的场景模式,并将该场景模式指示给第二设备,以便于第一设备和第二设备双方基于同一场景模式来确定采用怎样的神经网络来工作。从而有利于获得性能的提升。
结合第三方面,在第三方面的某些可能的实现方式中,所述方法还包括:所述第二设备向所述第一设备发送确认信息,所述确认信息用于指示对所述场景模式的指示信息的成功接收。
第二设备可以基于对上述指示信息的成功接收,向第一设备发送确认信息,以便于第一设备根据对该指示信息的接收情况执行后续流程。比如,在成功接收的情况下,采用与所述场景模式匹配神经网络工作;在未成功接收的情况下,重新发送所述场景模式的指示信息,等等。本申请对此不作限定。
结合第三方面,在第三方面的某些可能的实现方式中,所述方法还包括:所述第二设备采用与所述场景模式相匹配的神经网络与所述第一设备通信。
第一设备可以基于第二设备对上述指示信息的成功接收,采用与所述场景模式匹配的神经网络来工作。第二设备也可以基于对上述指示信息的成功接收,确定并采用与所指示的场景模式匹配的神经网络来工作,从而可以实现两个相互耦合的神经网络协同工作,有利于提高系统性能。
结合第二方面或第三方面,在某些可能的实现方式中,所述多个神经网络中的每个神经网络是基于标准化的参考数据集、标准化的参考神经网络以及标准化的性能判断准则获得的神经网络。
即,第一设备和第二设备所使用的神经网络可以是基于上文第一方面中所述的方法所获取的目标神经网络。
结合第二方面或第三方面,在某些可能的实现方式中,所述第一设备为网络设备,所述第二设备为终端设备;或,所述第一设备为终端设备,所述第二设备为网络设备。
即,上述对空口传输条件的确定以及对场景模式的选择可以是由网络设备执行,也可以是由终端设备执行。本申请对此不作限定。
应理解,上述第二方面和第三方面的方法可以与第一方面的方法结合使用,也可以单独使用。本申请对此不作限定。
还应理解,上述示例中采用的是第一设备和第二设备之间通过场景模式的指示信息来确定与场景模式匹配的神经网络。但这不应对本申请构成任何限定。在另一种可能的实现方法中,空口传输条件的确定以及对场景模式的选择可以不通过信令交互来指示,如网络设备和终端设备可以各自基于预设的空口传输条件、场景模式的选择和神经网络的匹配关系进行神经网络的适配。本申请对此也不做限定。
第四方面,提供了一种获取神经网络的装置,包括用于执行第一方面任一种可能实现方式中的方法的各个模块或单元。
第五方面,提供了一种获取神经网络的装置,包括处理器。该处理器与存储器耦合,可用于执行存储器中的指令或者数据,以实现上述第一方面任一种可能实现方式中的方法。可选地,该装置还包括存储器。可选地,该装置还包括输入/输出接口,处理器与输入/输出接口耦合。
第六方面,提供了一种通信装置,包括用于执行第二方面任一种可能实现方式中的方法的各个模块或单元。
第七方面,提供了一种通信装置,包括处理器。该处理器与存储器耦合,可用于执行存储器中的指令或者数据,以实现上述第二方面任一种可能实现方式中的方法。可选地,该通信装置还包括存储器。可选地,该通信装置还包括通信接口,处理器与通信接口耦合。
在一种实现方式中,该通信装置为终端设备。当该通信装置为终端设备时,所述通信接口可以是收发器,或,输入/输出接口。
在另一种实现方式中,该通信装置为配置于终端设备中的芯片。当该通信装置为配置于终端设备中的芯片时,所述通信接口可以是输入/输出接口。
可选地,所述收发器可以为收发电路。可选地,所述输入/输出接口可以为输入/输出电路。
第八方面,提供了一种通信装置,包括用于执行第三方面任一种可能实现方式中的方法的各个模块或单元。
第九方面,提供了一种通信装置,包括处理器。该处理器与存储器耦合,可用于执行存储器中的指令或者数据,以实现上述第三方面任一种可能实现方式中的方法。可选地,该通信装置还包括存储器。可选地,该通信装置还包括通信接口,处理器与通信接口耦合。
在一种实现方式中,该通信装置为网络设备。当该通信装置为网络设备时,所述通信接口可以是收发器,或,输入/输出接口。
在另一种实现方式中,该通信装置为配置于网络设备中的芯片。当该通信装置为配置于网络设备中的芯片时,所述通信接口可以是输入/输出接口。
可选地,所述收发器可以为收发电路。可选地,所述输入/输出接口可以为输入/输出电路。
第十方面,提供了一种处理器,包括:输入电路、输出电路和处理电路。所述处理电路用于通过所述输入电路接收信号,并通过所述输出电路发射信号,使得所述处理器执行第一方面至第三方面中任一种可能实现方式中的方法。
在具体实现过程中,上述处理器可以为一个或多个芯片,输入电路可以为输入管脚,输出电路可以为输出管脚,处理电路可以为晶体管、门电路、触发器和各种逻辑电路等。输入电路所接收的输入的信号可以是由例如但不限于接收器接收并输入的,输出电路所输出的信号可以是例如但不限于输出给发射器并由发射器发射的,且输入电路和输出电路可以是同一电路,该电路在不同的时刻分别用作输入电路和输出电路。本申请实施例对处理器及各种电路的具体实现方式不做限定。
第十一方面,提供了一种处理装置,包括处理器和存储器。该处理器用于读取存储器中存储的指令,并可通过接收器接收信号,通过发射器发射信号,以执行第一方面至第三方面任一种可能实现方式中的方法。
可选地,所述处理器为一个或多个,所述存储器为一个或多个。
可选地,所述存储器可以与所述处理器集成在一起,或者所述存储器与处理器分离设置。
在具体实现过程中,存储器可以为非瞬时性(non-transitory)存储器,例如只读存储器(read only memory,ROM),其可以与处理器集成在同一块芯片上,也可以分别设置在不同的芯片上,本申请实施例对存储器的类型以及存储器与处理器的设置方式不做限定。
应理解,相关的数据交互过程例如发送指示信息可以为从处理器输出指示信息的过程,接收能力信息可以为处理器接收输入能力信息的过程。具体地,处理器输出的数据可以输出给发射器,处理器接收的输入数据可以来自接收器。其中,发射器和接收器可以统称为收发器。
上述第十一方面中的处理装置可以是一个或多个芯片。该处理装置中的处理器可以通过硬件来实现也可以通过软件来实现。当通过硬件实现时,该处理器可以是逻辑电路、集成电路等;当通过软件来实现时,该处理器可以是一个通用处理器,通过读取存储器中存储的软件代码来实现,该存储器可以集成在处理器中,可以位于该处理器之外,独立存在。
第十二方面,提供了一种计算机程序产品,所述计算机程序产品包括:计算机程序(也可以称为代码,或指令),当所述计算机程序被运行时,使得计算机执行上述第一方面至第三方面中任一种可能实现方式中的方法。
第十三方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序(也可以称为代码,或指令)当其在计算机上运行时,使得计算机执行上述第一方面至第三方面中任一种可能实现方式中的方法。
第十四方面,提供了一种通信系统,包括前述的网络设备和终端设备,所述网络设备和所述终端设备可以分别配置有前述的目标神经网络。
附图说明
图1是可使用本申请实施例提供的神经网络进行通信的通信系统;
图2是配置了神经网络的发射机和接收机对信号的处理过程的示意图;
图3是深度神经网络(deep neural network,DNN)的示意图;
图4是卷积神经网络(convolutional neural network,CNN)的示意图;
图5是递归神经网络(recurrent neural network,RNN)的示意图;
图6至图14是本申请实施例提供的通信系统中的神经网络的训练方法的示意性流程图;
图15和图16是本申请实施例提供的通信方法的示意性流程图;
图17和图18是本申请实施例提供的获取神经网络的装置的示意性框图;
图19和图20是本申请实施例提供的通信装置的示意图框图;
图21是本申请实施例提供的终端设备的结构示意图;
图22是本申请实施例提供的网络设备的结构示意图。
具体实施方式
下面将结合附图,对本申请中的技术方案进行描述。
本申请提供的通信方法可以应用于各种通信系统,例如:长期演进(Long TermEvolution,LTE)系统、LTE频分双工(frequency division duplex,FDD)系统、LTE时分双工(time division duplex,TDD)、通用移动通信系统(universal mobiletelecommunication system,UMTS)、全球互联微波接入(worldwide interoperabilityfor microwave access,WiMAX)通信系统、未来的第五代(5th Generation,5G)移动通信系统或新无线接入技术(new radio access technology,NR)。其中,5G移动通信系统可以包括非独立组网(non-standalone,NSA)和/或独立组网(standalone,SA)。
本申请提供的通信方法还可以应用于机器类通信(machine typecommunication,MTC)、机器间通信长期演进技术(Long Term Evolution-machine,LTE-M)、设备到设备(device to device,D2D)网络、机器到机器(machine to machine,M2M)网络、物联网(internet of things,IoT)网络或者其他网络。其中,IoT网络例如可以包括车联网。其中,车联网系统中的通信方式统称为车到其他设备(vehicle to X,V2X,X可以代表任何事物),例如,该V2X可以包括:车辆到车辆(vehicle to vehicle,V2V)通信,车辆与基础设施(vehicle to infrastructure,V2I)通信、车辆与行人之间的通信(vehicle topedestrian,V2P)或车辆与网络(vehicle to network,V2N)通信等。
本申请提供的通信方法还可以应用于未来的通信系统,如第六代移动通信系统等。本申请对此不作限定。
本申请实施例中,网络设备可以是任意一种具有无线收发功能的设备。网络设备包括但不限于:演进型节点B(evolved Node B,eNB)、无线网络控制器(radio networkcontroller,RNC)、节点B(Node B,NB)、基站控制器(base station controller,BSC)、基站收发台(base transceiver station,BTS)、家庭基站(例如,home evolved NodeB,或homeNode B,HNB)、基带单元(baseband unit,BBU),无线保真(wireless fidelity,WiFi)系统中的接入点(access point,AP)、无线中继节点、无线回传节点、传输点(transmissionpoint,TP)或者发送接收点(transmission and reception point,TRP)等,还可以为5G,如,NR,系统中的gNB,或,传输点(TRP或TP),5G系统中的基站的一个或一组(包括多个天线面板)天线面板,或者,还可以为构成gNB或传输点的网络节点,如基带单元(BBU),或,分布式单元(distributed unit,DU)等。
在一些部署中,gNB可以包括集中式单元(centralized unit,CU)和DU。gNB还可以包括有源天线单元(active antenna unit,AAU)。CU实现gNB的部分功能,DU实现gNB的部分功能,比如,CU负责处理非实时协议和服务,实现无线资源控制(radio resource control,RRC),分组数据汇聚层协议(packet data convergence protocol,PDCP)层的功能。DU负责处理物理层协议和实时服务,实现无线链路控制(radio link control,RLC)层、介质接入控制(medium access control,MAC)层和物理(physical,PHY)层的功能。AAU实现部分物理层处理功能、射频处理及有源天线的相关功能。由于RRC层的信息最终会变成PHY层的信息,或者,由PHY层的信息转变而来,因而,在这种架构下,高层信令,如RRC层信令,也可以认为是由DU发送的,或者,由DU+AAU发送的。可以理解的是,网络设备可以为包括CU节点、DU节点、AAU节点中一项或多项的设备。此外,可以将CU划分为接入网(radio access network,RAN)中的网络设备,也可以将CU划分为核心网(core network,CN)中的网络设备,本申请对此不做限定。
网络设备为小区提供服务,终端设备通过网络设备分配的传输资源(例如,频域资源,或者说,频谱资源)与小区进行通信,该小区可以属于宏基站(例如,宏eNB或宏gNB等),也可以属于小小区(small cell)对应的基站,这里的小小区可以包括:城市小区(metrocell)、微小区(micro cell)、微微小区(pico cell)、毫微微小区(femto cell)等,这些小小区具有覆盖范围小、发射功率低的特点,适用于提供高速率的数据传输服务。
在本申请实施例中,终端设备也可以称为用户设备(user equipment,UE)、接入终端、用户单元、用户站、移动站、移动台、远方站、远程终端、移动设备、用户终端、终端、无线通信设备、用户代理或用户装置。
终端设备可以是一种向用户提供语音/数据连通性的设备,例如,具有无线连接功能的手持式设备、车载设备等。目前,一些终端的举例可以为:手机(mobile phone)、平板电脑(pad)、带无线收发功能的电脑(如笔记本电脑、掌上电脑等)、移动互联网设备(mobileinternet device,MID)、虚拟现实(virtual reality,VR)设备、增强现实(augmentedreality,AR)设备、工业控制(industrial control)中的无线终端、无人驾驶(selfdriving)中的无线终端、远程医疗(remote medical)中的无线终端、智能电网(smartgrid)中的无线终端、运输安全(transportation safety)中的无线终端、智慧城市(smartcity)中的无线终端、智慧家庭(smart home)中的无线终端、蜂窝电话、无绳电话、会话启动协议(session initiation protocol,SIP)电话、无线本地环路(wireless local loop,WLL)站、个人数字助理(personal digital assistant,PDA)、具有无线通信功能的手持设备、计算设备或连接到无线调制解调器的其它处理设备、车载设备、可穿戴设备,5G网络中的终端设备或者未来演进的公用陆地移动通信网络(public land mobile network,PLMN)中的终端设备等。
其中,可穿戴设备也可以称为穿戴式智能设备,是应用穿戴式技术对日常穿戴进行智能化设计、开发出可以穿戴的设备的总称,如眼镜、手套、手表、服饰及鞋等。可穿戴设备即直接穿在身上,或是整合到用户的衣服或配件的一种便携式设备。可穿戴设备不仅仅是一种硬件设备,更是通过软件支持以及数据交互、云端交互来实现强大的功能。广义穿戴式智能设备包括功能全、尺寸大、可不依赖智能手机实现完整或者部分的功能,例如:智能手表或智能眼镜等,以及只专注于某一类应用功能,需要和其它设备如智能手机配合使用,如各类进行体征监测的智能手环、智能首饰等。
此外,终端设备还可以是物联网(internet of things,IoT)系统中的终端设备。IoT是未来信息技术发展的重要组成部分,其主要技术特点是将物品通过通信技术与网络连接,从而实现人机互连,物物互连的智能化网络。IoT技术可以通过例如窄带(narrowband,NB)技术,做到海量连接,深度覆盖,终端省电。
此外,终端设备还可以包括智能打印机、火车探测器、加油站等传感器,主要功能包括收集数据(部分终端设备)、接收网络设备的控制信息与下行数据,并发送电磁波,向网络设备传输上行数据。
为便于理解本申请实施例,首先结合图1详细说明适用于本申请实施例提供的通信方法的通信系统。如图所示,该通信系统100可以包括至少一个网络设备,如图1中所示的网络设备101;该通信系统100还可以包括至少一个终端设备,如图1中所示的终端设备102至107。其中,该终端设备102至107可以是移动的或固定的。网络设备101和终端设备102至107中的一个或多个均可以通过无线链路通信。每个网络设备可以为特定的地理区域提供通信覆盖,并且可以与位于该覆盖区域内的终端设备通信。例如,网络设备可以向终端设备发送配置信息,终端设备可以基于该配置信息向网络设备发送上行数据;又例如,网络设备可以向终端设备发送下行数据。因此,图1中的网络设备101和终端设备102至107构成一个通信系统。
可选地,终端设备之间可以直接通信。例如可以利用D2D技术等实现终端设备之间的直接通信。如图中所示,终端设备105与106之间、终端设备105与107之间,可以利用D2D技术直接通信。终端设备106和终端设备107可以单独或同时与终端设备105通信。
终端设备105至107也可以分别与网络设备101通信。例如可以直接与网络设备101通信,如图中的终端设备105和106可以直接与网络设备101通信;也可以间接地与网络设备101通信,如图中的终端设备107经由终端设备105与网络设备101通信。
应理解,图1示例性地示出了一个网络设备和多个终端设备,以及各通信设备之间的通信链路。可选地,该通信系统100可以包括多个网络设备,并且每个网络设备的覆盖范围内可以包括其它数量的终端设备,例如更多或更少的终端设备。本申请对此不做限定。
上述各个通信设备,如图1中的网络设备101和终端设备102至107,可以配置多个天线。该多个天线可以包括至少一个用于发送信号的发射天线和至少一个用于接收信号的接收天线。另外,各通信设备还附加地包括发射机和接收机,本领域普通技术人员可以理解,它们均可包括与信号发送和接收相关的多个部件(例如处理器、调制器、复用器、解调器、解复用器或天线等)。因此,网络设备与终端设备之间可通过多天线技术通信。
可选地,该无线通信系统100还可以包括网络控制器、移动管理实体等其他网络实体,本申请实施例不限于此。
应理解,在图1所示的通信系统100中,网络设备101与终端设备102至107中的任意一个之间可以应用于以下多种可能的场景:调制与解调、编码与解码、预编码与检测接收以及信道信息的提取和压缩与信道信息的重构等。应理解,上文所列举的场景仅为示例,不应对本申请构成任何限定。本申请包含但不限于此。
具体来说,网络设备中的发射机可用于对信号进行调制,终端设备中的接收机可用于对调制后的信号进行解调;网络设备中的发射机可用于对信号进行编码,终端设备中的接收机可用于对编码后的信号进行解码;网络设备中的发射机可用于对信号进行预编码,终端设备中的接收机可用于对预编码后的信号进行检测;终端设备中的发射机可用于对信道信息进行压缩,网络设备中的接收机可用于基于压缩后的信道信息重构信道。
本申请实施例提供的通信方法中,网络设备和终端设备均可以采用神经网络来工作。网络设备和终端设备所采用的神经网络可以是基于本申请实施例提供的获取神经网络的方法所获得的。例如,将通过本申请实施例提供的获取神经网络的方法所获得的发端神经网络应用于网络设备的发射机中,将通过本申请实施例提供的获取神经网络的方法所获得的收端神经网络应用于终端设备的接收机中;和/或,将通过本申请实施例提供的获取神经网络的方法所获得的发端神经网络应用于终端设备的接收机中,通过本申请实施例提供的获取神经网络的方法所获得的收端神经网络应用于网络设备的发射机中。
由此,网络设备中的发射机与终端设备中的接收机可基于神经网络进行联合优化,终端设备中的发射机和网络设备中的接收机也可基于神经网络进行联合优化。从而可以获得通信系统性能的提升。
图2示出了分别配置了神经网络的发射机和接收机对信号的处理过程。图2以信道信息的提取和压缩与信道信息的重构为例示出了采用了神经网络的发射机和采用了神经网络的接收机对信号的处理过程。
如图2所示,用于进行信道信息的提取和压缩的发端神经网络可以包括前处理模块、信息提取模块和后处理模块。但这不应对本申请构成任何限定。用于进行信道信息的提取和压缩的发端神经网络也可以不包括前处理模块,而包括信息提取模块和后处理模块,或者,还可以不包括前处理模块和后处理模块,而包括信息提取模块。应理解,发端神经网络具体包括的模块可以根据基于不同的设计而定义,本申请对此不作限定。
用于进行信道信息的重构的收端神经网络可以包括逆前处理模块、逆信息提取模块和逆后处理模块。但这不应对本申请构成任何限定。用于进行信道信息的重构的收端神经网络也可以不包括逆前处理模块,而可以包括逆信息提取模块和逆后处理模块,或者,还可以不包括逆前处理模块和逆后处理模块,而包括逆信息提取模块。应理解,收端神经网络具体包括的模块可以基于不同的设计而定义,本申请对此不作限定。
下文列举了发端神经网络和收端神经网络的几种可能的结构。
用于进行信道信息的提取和压缩的发端神经网络的第一种可能的结构是,包括前处理模块、信息提取模块和后处理模块。该前处理模块可用于基于标准化的数据结构对输入该发端目标神经网络的原始数据进行预处理。该信息提取模块可用于从经过预处理的数据进行信息提取,以便对预处理后的数据进行压缩,以得到压缩后的数据。该后处理模块可用于基于标准化的数据结构,对压缩后的数据进行量化和比特映射,以生成空口信息。
用于进行信道信息的提取和压缩的发端神经网络的第二种可能的结构是,包括信息提取模块和后处理模块。换言之,该发端目标神经网络可以不包括前处理模块。该前处理模块可以配置在发射机中,可用于基于标准化的数据结构对输入发射机的原始数据进行预处理。经过预处理后的数据被输入至发端神经网络中。该发端神经网络中的信息提取模块可用于对经过预处理的数据进行信息提取,以便对预处理后的数据进行压缩,以得到压缩后的数据。该后处理模块可用于基于标准化的数据结构,对压缩后的数据进行量化和比特映射,以生成空口信息。
用于进行信道信息的提取和压缩的发端神经网络的第三种可能的结构是,包括信息提取模块。换言之,该发端神经网络可以不包括前处理模块和后处理模块。该前处理模块和后处理模块可以配置在发射机中。前处理模块可用于基于标准化的数据结构对输入发射机的原始数据进行预处理。经过预处理后的数据被输入至发端神经网络中。该发端神经网络中的信息提取模块用于从经过预处理的数据进行信息提取,以便对预处理后的数据进行压缩,以得到的压缩后的数据。该压缩后的数据可输入至后处理模块中,后处理模块可用于基于标准化的数据结构,对压缩后的数据进行量化和比特映射,生成空口信息。用于进行信道信息的重构的收端神经网络的第一种可能的结构是,包括逆后处理模块、逆信息提取模块和逆前处理模块。该逆后处理模块可用于基于标准化的数据结构,对输入至该收端目标神经网络的空口信息进行解析,以得到压缩后的数据。该逆信息提取模块可用于对压缩后的数据进行处理,以得到压缩前的数据。该逆前处理模块可用于对压缩前的数据进行处理,以得到原始数据。
用于进行信道信息的重构的收端神经网络的第二种可能的结构是,包括逆信息提取模块和逆后处理模块。换言之,该收端神经网络可以不包括逆前处理模块。该逆前处理模块可以配置在接收机中。该收端神经网络中的逆后处理模块可用于基于标准化的数据结构,对输入至该收端目标神经网络的空口信息进行解析,以得到压缩后的数据。该逆信息提取模块可用于对压缩后的数据进行处理,以得到压缩前的数据。该压缩前的数据可以被输入至逆前处理模块中,逆前处理模块可用于对压缩前的数据进行处理,以获取原始数据。
用于进行信道信息的重构的收端目标神经网络的第三种可能的结构是,包括逆信息提取模块。换言之,该收端神经网络可以不包括逆前处理模块和逆后处理模块。该逆前处理模块和逆后处理模块可以配置在接收机中。逆后处理模块可用于基于标准化的数据结构,对输入至该接收机的空口信息进行解析,以得到压缩后的数据。压缩后的数据可以被输入至该收端神经网络中。该收端神经网络中的逆信息提取模块可用于对压缩后的数据进行处理,以得到压缩前的数据。该压缩后的数据可基于标准化的数据结构对接收到的空口信息进行处理得到。该压缩前的数据可以被输入至逆前处理模块,该逆前处理模块可用于对压缩前的数据进行处理,以获取原始数据。
应理解,上文所列举的几种可能的结构仅为示例,不应对本申请构成任何限定。
应理解,上述前处理、信息处理和后处理都需要基于标准化的数据结构进行,与之对应,逆后处理、逆信息提取和逆前处理也都需要基于与发端相一致的标准化的数据结构进行,其目的是保证收端提供空口信息的可靠解析。
其中,逆前处理模块可视为前处理模块的逆处理模块,逆信息提取模块可视为信息提取模块的逆处理模块,逆后处理模块可视为后处理模块的逆处理模块。换言之,发射机中的各模块与接收机中的各模块的行为是互逆的。
还应理解,上文所列举的发端神经网络和收端神经网络所包括的模块仅为便于理解而命名,不应对本申请构成任何限定。例如,前处理模块也可以称为预处理模块,后处理模块也可以称为量化模块,等等。
图2是信道信息的提取与压缩和信道信息的重构的示意图。图2所示的信道信息为信道H,发射机获取到该信道H后,可以先将该信道H输入至前处理模块中,前处理模块对该信道H进行前处理,得到经过前处理后的信道特征信息V。例如,对信道H进行奇异值分解,得到特征向量,或者对信道H进行空频域变换得到角度时延谱。V可理解为经过前处理后的信道。经过前处理后的信道特征信息V被输入至信息提取模块,信息提取模块可以基于预先设计好的算法对该信道特征信息V进行信息提取,得到压缩后的信道V'。例如,基于函数fen(V,Θen)得到压缩后的信道特征信息V'。压缩后的信道特征信息V'被输入至后处理模块,后处理模块可以基于预先定义的数据结构对该压缩后的信道特征信息V'进行量化和比特映射,以生成空口信息S。
接收机接收到该空口信息S后,可以将该空口信息S输入至该接收机中的逆后处理模块。逆后处理模块可基于预先定义的数据结构对空口信息S进行处理,以恢复出压缩后的信道特征信息压缩后的信道特征信息被输入至逆信息提取模块,逆信息提取模块可以基于与发射机中信息提取模块相应的算法对该信道特征信息进行处理,以恢复出压缩前的信道特征信息例如,基于函数fde(fen(V,Θen),Θde)恢复出信道特征信息信道特征信息被输入至逆前处理模块,逆前处理模块对该信道特征信息进行处理后,便可恢复出信道应理解,由此恢复出的信道为上文输入至发射机中的信道H的估计值。如图所示,上述发端神经网络和收端神经网络对输入的数据的处理可以通过如下函数来表示:其中Θ={Θen,Θde}。
需要说明的是,上述过程中,前处理模块和逆前处理模块需要基于一致的规则来工作,信息提取模块和逆信息提取模块需要基于一致的规则来工作,后处理模块和逆后处理模块需要基于一致的规则来工作,保证发射端的神经网络和接收端的神经网络能够协同工作。这里的一致是指,二者可以基于一致的规则来设计,但并不代表双方使用相同的算法、相同的数据结构等来处理数据。基于一致的规则来工作,旨在强调双方在用于对数据进行处理时,所使用的算法、数据结构等是相对应的。
又如,发射机中的信息提取模块基于某一算法对信道特征信息V进行压缩,得到压缩后的信道特征信息V';接收机中的逆信息提取模块需要基于对应的某一算法对压缩后的信道特征信息V'进行处理,最大程度地恢复出压缩前的信道特征信息
应理解,图2所示例的信道H作为信道信息的一例,仅为便于理解而示例,不应对本申请构成任何限定。上文所列举的信道H、信道特征信息V都可以作为信道信息的一例。由于对神经网络所包含的模块的不同设计,输入至发端神经网络的信道信息可能是信道H,也可能是信道特征信息V;该发端神经网络的输出可能是压缩后的信道特征信息V',也可能是空口信息S。收端神经网络的输入可能是空口信息S,也可能是基于空口信息S恢复出的压缩后的信道特征信息从收端神经网络输出的信道信息可能是恢复出的信道特征信息也可能是恢复出的信道并且,由于收端神经网络和发端神经网络的结构并不一定完全对称,故对信道信息的定义也可能不同。比如,输入发端神经网络的信道信息可能是信道H,而由收端神经网络输出的信道信息可能是恢复出的信道特征信息
基于信道信息的不同,上文结合图2描述的函数可以作出相应的变形。例如,可以表示为,Y=f(X,Θ)=fde(fen(X,Θen),Θde)。其中,X表示输入发端神经网络的信道信息,Y表示由收端神经网络输出的信道信息。如,X可为H或V的任意一个,Y可为或的任意一个。
还应理解,上文结合图2所描述的发端神经网络是用于进行信道信息的提取和压缩的神经网络,其中所包含的模块与信道信息的提取和压缩过程相关。上文结合图2所描述的收端神经网络是用于进行信道信息的重构的神经网络,其中所包含的模块也与信道信息的重构过程相关。在用于信号的其他处理阶段,如编码与解码、星座调制与解调、预编码与检测接收等处理阶段时,发端神经网络和收端神经网络所包含的模块可能会有所不同。为了简洁,这里不一一举例说明。
在实际商用过程中,发射机和接收机可能是由不同的厂商提供的。若要达到上述要求,可能需要发射机或接收机从对端下载匹配当前场景的神经网络结构和参数信息,或者,发射机和接收机从某一网络虚拟处理节点下载匹配当前场景的神经网络结构和参数信息。比如,下载生成和解析空口信息的规则;又比如,下载发射机对信道H进行信息提取和压缩的神经网络的参数和结构描述等。这可能会带来较大的空口信令开销。
有鉴于此,本申请提供一种通信系统中的神经网络获取方法,以期减小发射机和接收机下载神经网络结构和参数信息所带来的巨大的空口开销。
为了更好地理解本申请实施例,下面对本文中涉及到的术语做简单说明。
1、神经网络(neural network,NN):作为人工智能的重要分支,是一种模仿动物神经网络行为特征进行信息处理的网络结构。神经网络的结构由大量的节点(或称神经元)相互联接构成,基于特定运算模型通过对输入信息进行学习和训练达到处理信息的目的。一个神经网络包括输入层、隐藏层及输出层,输入层负责接收输入信号,输出层负责输出神经网络的计算结果,隐藏层负责特征表达等复杂的功能,隐藏层的功能由权重矩阵和对应的激活函数来表征。
深度神经网络(deep neural network,DNN)一般为多层结构。增加神经网络的深度和宽度,可以提高他的表达能力,为复杂系统提供更强大的信息提取和抽象建模能力。
DNN可以有多种构建方式,例如可以包括但不限于,递归神经网络(recurrentneural network,RNN)、卷积神经网络(convolutional neural network,CNN)以及全连接神经网络等。
图3前馈神经网络(feedforward neural network,FNN)的示意图。如图所示,不同方框表示不同的层。比如,从左往右看第一层为输入层(input layer),第二层为隐含层(hidden layer),第三层为输出层(output layer)。DNN一般还包含多个隐含层,其作用为不同程度地提取特征信息。输出层可用于从提取的特征信息中映射出所需要的输出信息。图中每个黑色圆圈可以表示一个神经元,不同方框内的神经元表示不同层的神经元。每层的神经元连接方式和采用的激活函数将决定神经网络的表达函数。
2、卷积神经网络(CNN):一种多层的神经网络,每层有多个二维平面组成,而每个平面由多个独立神经元组成,每个平面的多个神经元共享权重,通过权重共享可以降低神经网络中的参数数目。目前,在卷积神经网络中,处理器进行卷积操作通常是将输入信号特征与权重的卷积,转换为信号矩阵与权重矩阵之间的矩阵乘运算。在具体矩阵乘运算时,对信号矩阵和权重矩阵进行分块处理,得到多个分形(fractional)信号矩阵和分形权重矩阵,然后对多个分形信号矩阵和分形权重矩阵进行矩阵乘和累加运算。
图4是CNN中隐含层的示意图。图中黑色方框为每层的通道,或者称特征地图。不同通道可以对应相同或不同的卷积核。对于CNN来说,并不是所有上下层神经元都能直接相连,而是通过所述“卷积核”作为中介。在该网络中,待处理信息通过卷积操作后仍然可以保留原先的位置关系。如图中所示,左侧第m-1层的信息经过卷积操作后,得到右侧第m层。
应理解,图4仅为便于理解而示例,关于CNN的更详细的说明可以参看现有技术。为了简洁,这里不做详述。
3、递归神经网络(RNN):具有树状阶层结构且网络节点按其顺序对输入信息进行递归的人工神经网络。在RNN中,神经元的输出可以在下一时刻直接作用到自身,即第i层神经元在m时刻的输入,除了(i-1)层神经元在该时刻的输出外,还包括其自身在(m-1)时刻的输出。
图5是RNN的示意图。图中每个黑色圆圈表示一个神经元。可以看到,隐含层2的神经元的输入除了隐含层1的神经元在该时刻的输出(如图中直线结构所示)外,还包括其自身在上一时刻的输出(如图中半圆形箭头所示)。
应理解,图5仅为便于理解而示例。关于RNN的更详细的说明可以参看现有技术。为了简洁,这里不做详述。
4、性能判断准则:在本申请实施例中,为了获取具有较优性能的目标神经网络,可以通过性能判断准则来对预先构建好的目标神经网络进行评估。
在一种可能的设计中,该性能判断准则可以包括性能指标和输出条件。对目标神经网络的评估例如可以通过标准化的性能度量函数来获得性能度量值,并将性能度量值输入至性能判断准则中,与一个或多个性能指标进行比较,以判断其是否满足输出条件。
作为示例而非限定,性能度量函数可以包括但不限于以下一项或多项:均方误差(mean square error,MSE)、归一化最小均方误差(normalized mean square error,NMSE)、平均绝对误差(mean absolute error,MAE)、最大绝对误差(也称,绝对误差界)、相关系数、交叉熵、互信息、误比特率、或误码率等。
其中,MSE、NMSE、MAE、最大绝对误差、误比特率、误码率等可用于表征差异程度,相关性系数、交叉熵、互信息等可用于表征相似程度。但本领域的技术人员可以理解,在两个值差异程度较大的情况下,二者的相似程度也就越小;在两个值差异程度较小的情况下,二者的相似程度也就越大。因此,相似程度和差异程度之间是相对应的。
性能指标可以包括一个或多个性能指标的上界和/或一个或多个性能指标的下界。性能指标例如可以通过上文性能度量函数中所列举的多项中的一项或多项来表征。对于不同的性能度量函数,可以定义不同的性能指标。
比如,对应于用于表征相似程度的性能度量函数来说,相似程度越高,性能越好。以相关系数为例,可以定义性能指标的上界为0.99999,性能指标的下界为0.9。
又比如,对应于用于表征差异程度的性能度量函数来说,差异程度越小,性能越好。以MSE为例,可以定义性能指标的上界为0.001,性能指标的下界为0.1。
应理解,性能指标是在用于判断目标神经网络是否满足输出条件而设定的指标,换言之,达到性能指标的目标神经网络在应用于发射机或接收机中后,能够到达的性能的可接受范围。例如,以系统吞吐为例,如果相似系数小于0.9,则可认为性能太差;若相关系数大于或等于0.9,则可认为性能可接受;若相关系数大于0.99999,则可认为性能没有更大的增益,或者增益很小。因此相关系数的可接受范围在[0.9,0.99999]之间。因此,对于相关系数来说,达到性能指标的下界可以是指大于或等于0.9,未超出性能指标的上界可以是指小于或等于0.99999。
又例如,以误码率为例,如果MSE大于0.1,则可认为性能太差;如果MSE小于或等于0.1,则可认为性能可接受;如果MSE小于0.001,则可认为性能没有更大的增益,因此MSE的可接受范围可以是在[0.001,0.1]之间。因此,对于MSE来说,达到性能指标的下界可以是指小于或等于0.1,未超出性能指标的上界可以是指大于或等于0.001。
由上文示例可以看到,在本申请实施例中,若性能度量函数用于表征相似程度,则由性能度量函数输出的性能度量值越高,表示相似程度越高,目标神经网络的性能也就越好,因此性能指标的下界小于上界;若性能度量函数用于表征差异程度,则由性能度量函数输出的性能度量值越低,表示差异程度越小,表示目标神经网络的性能也就越好,因此,性能指标的上界小于性能指标的下界。换言之,性能指标的上界和下界是基于性能的好与差而定义的,因此,对于不同的性能指标,其上界或下界与具体取值的大小关系并不是一成不变的。
此外,本申请实施例中,当涉及到“达到性能指标的下界”的相关描述时,可以是指相似程度大于或等于某一阈值(为便于区分和说明,例如记作第一阈值);也可以是指差异程度小于或等于某一阈值(为便于区分和说明,例如记作第二阈值)。当涉及到“未超出性能指标的上界”的相关描述时,可以是指相似程度小于或等于某一阈值(为便于区分和说明,例如记作第三阈值);也可以是指差异程度大于或等于某一阈值(为便于区分和说明,例如记作第四阈值)。其中,对于相似程度而言,所对应的第一阈值小于第三阈值;对于差异程度而言,所对应的第二阈值大于第四阈值。
性能判断准则在用于判断某一目标神经网络是否满足输出条件时,可以根据一个或多个性能指标来判断。该一个或多个性能指标例如可以包括针对一个性能度量函数给定的一个或多个性能指标,如包括性能指标的上界和/或下界;该一个或多个性能指标也可以包括针对多个不同的性能度量函数中的每个性能度量函数分别给定的一个或多个性能指标。本申请对此不作限定。
一示例,基于相关系数来确定目标神经网络是否满足输出条件。协议可以定义相关系数的上界和下界,并可定义输出条件为:性能度量值均达到性能指标的下界,且未超出性能指标的上界。如前文示例,下界为0.9,上界为0.99999。由目标神经网络与参考神经网络输出的结果被输入至性能度量函数,可以获得一个或多个性能度量值。将该一个或多个性能度量值分别与上界和下界比较,看是否都落入[0.9,0.99999]的范围内。若是,则满足输出条件;若不是,则不满足输出条件。
又一示例,仍然基于相关系数来确定目标神经网络是否满足输出条件。协议可以定义相关系数的上界和下界,并可定义输出条件为:性能度量值均达到性能指标的下界,且90%的性能度量值未超出性能指标的上界。如前文示例,下界为0.9,上界为0.99999。则可将由性能度量函数输出的一个或多个性能度量值分别与上界和下界比较,看是否都达到下界0.9,且是否有90%以上的性能度量值未超出上界0.99999。若是,则满足输出条件;若不是,则不满足输出条件。
另一示例,基于相关系数和误码率来确定目标神经网络是否满足输出条件。协议可以定义性能指标的上界包括相关系数的上界和下界,以及误码率的下界;并可定义输出条件为:性能度量值分别达到相关系数的下界和误码率的下界,且未超过相关系数的上界。如前文示例,相关系数的下界为0.9,上界为0.99999,误码率的下界为0.1。则可将由性能度量函数输出的一个或多个表征相关系数的性能度量值分别与相关系数的上界和下界比较,看是否都达到下界0.9,且都未超出上界0.99999;并将由性能度量函数输出的一个或多个表征误码率的性能度量值是否都达到下界。
此外,性能判断准则还可包括针对不同的业务优先级而设置的性能指标的上界和/或下级,以及输出条件。
例如,对于语音通话、视频通话等业务,所对应的性能指标可以较高,或输出条件较严苛;对于短信息等业务,所对应的性能指标可以较低,或输出条件较宽松。
比如,相关系数的下界为0.9相对于相关系数的下界为0.8来说,前者的性能指标较高。又如,MSE的下界为0.1相对于MSE的下界为0.01来说,后者的性能指标较高。再如,输出条件为全部的性能度量值均达到性能指标的下界相对于部分性能度量值达到性能指标的下界而言,前者较为严苛。
在对目标神经网络进行评估时,可以根据所应用的业务的优先级来采用相应的性能指标和输出条件对其进行评估。
应理解,上文结合多个性能指标和输出条件的示例,对性能判断准则做了详细说明。但应理解,这些示例仅为便于理解而示出,不应对本申请构成任何限定。
5、对偶网络(或称对偶架构):用于描述通信网络中收发两端(如基站侧和终端侧)联合优化的神经网络结构。对偶网络具体可以包括发端神经网络和收端神经网络。对偶网络包括但不限于基于自编码器(Autoencoder)结构或者自编码器结构的各种变化形式,或者以其他神经网络结构组合联合构建的收、发端神经网络。在自编码器结构下,发端神经网络为编码器神经网络(encoder neural network),收端神经网络为译码器神经网络(decoder neural network)。两者间相互约束,协同工作。
需注意,这里所述的编码器和译码器并不同于上文所述的用于信道编、解码的编码器和译码器。
在本申请实施例中,发端神经网络和收端神经网络可以是一对一、一对多、多对一的组合,以适配多种系统性能和实现复杂度的要求。相互耦合的一对神经网络,即,可协同工作的一个发端神经网络和一个收端神经网络。
下面将结合附图详细说明本申请实施例提供的获取神经网络的方法。应理解,该方法可以包括获取应用于发射机中的发端神经网络的过程和获取应用于接收机中的收端神经网络的过程。下文中结合不同的实施例来描述获取发端神经网络和收端神经网络的流程。其中,为便于区分和描述,下文中将要获取的神经网络称为目标神经网络。将应用于发射机的目标神经网络称为发端目标神经网络,将应用于接收机的目标神经网络称为收端目标神经网络。
还应理解,对发端目标神经网络和收端目标神经网络的获取例如可以是线下(offline)完成的。发端目标神经网络和收端目标神经网络例如可以是从同一个设备获取得到,也可以是从不同设备获取得到,本申请对此不作限定。用于获取目标神经网络的设备例如可以是通信设备,也可以是不同于通信设备的计算设备。本申请对此不作限定。下文中为方便说明,将用于获取目标神经网络的设备称为获取设备。
图6是本申请实施例提供的获取神经网络的方法600的示意性流程图。如图6所示,该方法600包括:步骤610至步骤630。下面详细说明方法600中的各个步骤。
在步骤610中,基于标准化的参考数据集、标准化的一个或多个参考神经网络和标准化的性能判断准则,确定构建的目标神经网络是否满足预设的输出条件。
该目标神经网络可以为某个应用的专用神经网络。该目标神经网络可应用于通信系统中对信号的各个处理阶段。例如编码与解码、星座调制与解调、预编码与检测接收、信道信息的提取和压缩与信道信息的重构。具体而言,发端神经网络可用于编码,收端神经网络可用于解码;发端神经网络可用于星座调制,收端神经网络可用于解调;发端神经网络可用于预编码,收端神经网络可用于检测接收;发端神经网络可用于进行信道信息的提取和压缩,收端可用于进行信道信息的重构。
应理解,基于本申请实施例提供的方法所获取的目标神经网络还可用作其他功能,本申请对此不作限定。
该目标神经网络可以构建在已有的神经网络结构上,例如,在CNN、RNN等基础网络结构上拓展设计;也可以采用新的网络结构设计,基于标准化的参考数据集和/或该应用相关的其他数据集对其进行训练,可以获得目标神经网络。
其中,关于神经网络结构的相关描述在上文已经结合图3至图5做了详细说明,为了简洁,这里不再重复。
为了使得神经网络的输出尽可能地接近真正想要预测的值,获取设备可以对目标神经网络进行训练。示例性地,可以通过比较当前网络的预测值和真正想要的目标值,再根据两者之间的差异情况来更新每一层神经网络的权重向量。比如,网络的预测值高了,就可以调整权重向量让它预测低一些,通过不断的调整,直到神经网络能够预测出真正想要的目标值。因此,就需要预先定义“如何比较预测值和目标值之间的差异”,也即损失函数(loss function)、代价函数(cost function)或目标函数(objective function),它们是用于衡量预测值和目标值的差异的重要方程。其中,以损失函数举例,损失函数的输出值(loss)越高表示差异越大,那么神经网络的训练就变成了尽可能缩小这个输出值的过程。
上述对目标神经网络的训练可以基于标准化的参考数据集和/或该应用相关的其他数据集来实现。
示例性地,标准化的参考数据集具体可以包括:用于训练目标神经网络的参考数据集、用于对目标神经网络进行性能评估的参考数据集等。标准化可以是指协议定义。各厂商可以基于上述方法构建目标神经网络,并基于标准化的参考数据集来评估该目标神经网络。
由于上述目标神经网络是应用在发射机或接收机中的神经网络。为了在通信系统中获得较优的性能,可以基于标准化的参考数据集、标准化的参考神经网络和标准化的性能判断准则,对该目标神经网络进行评估,以确定其是否满足输出条件。
参考数据集、参考神经网络和性能判断准则都可以是标准化的,或者说,协议预定义的。对应于不同的应用场景,协议可以预定义多套不同的标准化的配置。在基于不同的应用场景对目标神经网络进行评估时,可以采用与所应用的场景匹配的一套标准化的配置进行评估。具体来说,在不同的应用场景下,可以采用相匹配的参考数据集、参考神经网络、性能度量函数以及性能判断准则来对目标神经网络进行评估,以获取应用于不同场景的目标神经网络。
这里所说的应用场景具体可以是指基于不同的空口传输条件而区分的场景。例如,上述应用场景可以包括但不限于,室外密集城区、室外普通城区、室外乡村、室外山区、室内办公、室内厂房等的不同信道场景,单干扰源、多干扰源、强弱不同的多种干扰信号类型,中近点高信噪比、远点低信噪比的不同信噪比条件,步行低速、城区车载中速、高铁超高速等不同移动条件等。由于不同的应用场景下空口传输条件不同,且不同的应用场景对传输可靠性的要求也不同。与应用场景相匹配的标准化的配置中可以包括以下一项或多项:标准化的参考数据集、标准化的参考神经网络、标准化的数据结构、标准化的性能度量函数以及标准化的性能判断准则等。
其中,参考神经网络可以包括收端参考神经网络和/或发端参考神经网络。且,当参考神经网络包括收端参考神经网络和发端参考神经网络时,该收端参考神经网络和发端参考神经网络是一对一耦合的。
数据结构可用于生成和/或解析空口信息。更具体地说,数据结构可用于发端神经网络生成空口信息,也可用于收端神经网络解析空口信息。该数据结构也可理解为是空口信息的生成规则,或对空口信息的解读规则。
应理解,数据结构是一个上位的概括,可用于在对数据的不同处理阶段指导对数据的处理。
以上述信道信息的压缩和提取和信道信息的重构为例。发端可以基于某一数据结构(例如记为数据结构1)对输入的原始数据进行前处理,例如对输入的原始数据进行重排;并可基于另一数据结构(例如记为数据结构2)对重排后的数据进行信息提取,例如确定采用怎样的张量表达;还可基于又一数据结构(例如记为数据结构3)生成空口信息,例如确定如何进行量化和比特映射。收端可以基于与数据结构1相应的数据结构对空口信息进行解析,并可基于用于与数据结构2相应的数据结构对解析得到的数据进行处理,还可基于与数据结构3相应的数据结构,获取原始数据。
本申请对于数据结构的具体内容不作限定。
标准化的可实现能力度量值可理解为神经网络用于实现某一应用时所需要的能力参数,可用于选择匹配的神经网络和/或匹配的性能指标。这里所述的匹配的神经网络,具体可以是指,该神经网络在给定的约束下,能够应用在发射机或接收机中,所述给定的约束可以包括实现复杂度和/或空口开销。匹配的性能指标,具体可以是指,用于获取该神经网络的阶段对该神经网络进行评估所使用的性能指标。
可实现能力度量值例如可以包括但不限于以下一项或多项:空口信息的开销、神经网络实现所需的计算量、神经网络实现所存储的参数量、以及神经网络实现所需的计算精度。
示例性地,空口信息的开销例如可以指比特开销;神经网络实现所需计算量例如可以指每秒浮点计算次数(floating-point operations per second,Flops);神经网络实现所需的计算精度要求例如可以是2比特定点、或4比特定点、或8比特定点、或16比特定点、或16比特浮点、或32比特浮点、或64比特浮点等。本申请对此不作限定。
各神经网络可通过与上文所列举相应的参数来表征各自的能力。由于不同应用的实现复杂度可能不同,对神经网络能力的要求也不同。获取设备可以基于当前应用对实现复杂度的支持能力,选择匹配的神经网络。
需要说明的是,基于不同神经网络的可实现能力度量值,不同神经网络所能够达到的性能的上限和/或下限可能会有所不同。因此,同一性能指标可能具有一个或多个性能指标的阈值(如包括上界和/或下界),与一种或多种不同的能力相对应。在后续对神经网络进行评估时,可以根据所选择的可实现能力度量值,选择相应的性能指标进行评估。
应理解,与不同的应用场景匹配的标准化的配置可以是互不相同的,也可以是部分相同的。比如,与不同的应用场景匹配的标准化的配置中,可以共用同一个参考数据集,或者,共用同一个数据结构,等等。本申请对此不作限定。
下面将结合具体的实现方式来详细说明对目标神经网络的评估过程。
在一种实现方式中,各厂商可以基于标准化的参考数据集,将构建的目标神经网络与标准化的一个或多个参考神经网络级联,并对级联后的输出结果进行评估,根据标准化的性能判断准则,确定该目标神经网络是否满足输出条件。在满足输出条件的情况下,则可以执行步骤620,将该目标神经网络输出;在不满足输出条件的情况下,可以执行步骤630,对该目标神经网络进行优化,直至获得的目标神经网络满足输出条件,将其输出为止。
在另一种实现方式中,各厂商可以将取自标准化的参考数据集的同一个或多个数据输入至构建的目标神经网络以及标准化的一个或多个参考神经网络中,将目标神经网络输出的结果与参考神经网络输出的结果进行对比,根据标准化的性能判断准则,确定该目标神经网络是否满足输出条件。在满足输出条件的情况下,则可以执行步骤620,将该目标神经网络输出;在不满足输出条件的情况下,可以执行步骤630,对该目标神经网络进行优化,直至获得的目标神经网络满足输出条件,将其输出为止。
下面将结合图7至图14的具体示例来对上述两种实现方式做更详细的说明。换言之,下文示出的多个示例是对步骤610的更详细的说明。为方便理解和说明,后文中在未作出特别说明的情况下,发端神经网络可以包括前处理模块、信息提取模块和后处理模块,收端神经网络可以包括逆后处理模块、逆信息处理模块和逆前处理模块。
图7和图8是本申请实施例提供的获取神经网络的方法的示意图。图7和图8所示的获取神经网络的方法为将目标神经网络和一个标准化的参考神经网络级联,并对级联后的输出结果进行评估的示例。其中,图7中所示的目标神经网络可应用于发射机,该目标神经网络为发端参考神经网络;参考神经网络可应用于接收机,该参考神经网络为收端参考神经网络。图8中所示的目标神经网络可应用于接收机,该目标神经网络为收端目标神经网络,参考神经网络可应用于发射机,该参考神经网络为发端参考神经网络。
如图7所示,获取设备可以从参考数据集中获取一个或多个发端数据。比如,将其中的一个发端数据记为X,X被输入至发端目标神经网络。发端目标神经网络对该发端数据X进行前处理和信息提取后,可得到压缩后的数据X',发端目标神经网络可进一步根据标准化的数据结构对压缩后的数据X'进行处理,以生成空口信息S。此后,空口信息S可以被输入至收端参考神经网络中。收端神经网络根据标准化的数据结构对该空口信息S进行解析后,可恢复出压缩后的数据收端参考神经网络,可以进一步基于该压缩后的数据得到输出结果Y。
如前所述,发端目标神经网络可以应用于对信号的不同处理阶段中。以信道信息的提取和压缩与信道信息的重构为例。发端数据X例如可以是信道H。发端神经网络可以基于图2中所列举的发端神经网络的操作流程,对信道H先后进行前处理、信息提取和后处理,生成空口信息S。
收端参考神经网络可以基于接收到的空口信息S进行信道H的重构。收端参考神经网络可以基于图2中所列举的收端神经网络的操作流程,对空口信息S先后进行逆后处理、逆信息提取和逆前处理,以恢复出信道收端参考神经网络所输出的是信道H的估计值应理解,该估计值也即输出结果。
此后,获取设备可以将输出结果Y与输入的发端数据X输入至性能度量函数中,以获得性能度量值。应理解,获取设备可以将该输出结果Y与发端数据X输入至一个或多个性能度量函数中,获得一个或多个性能度量值。
还应理解,获取设备还可从参考数据集中获得的一个或多个发端数据按照上述流程来处理,可以获得多对输出结果与发端数据。每对输出结果和发端数据可以被输入至一个或多个性能度量函数中,获得一个或多个性能度量值。多对输出结果与发端数据可获得多个性能度量值。
该获取设备可以进一步根据标准化的性能判断准则,将输出的性能度量值与标准化的性能指标进行比较,再根据比较结果确定该发端目标神经网络是否满足预设的输出条件。
一示例,该输出条件可以是,性能度量值均达到性能指标的下界。该性能度量函数例如是MSE,该性能指标的下界例如可以是MSE的下界。将一对或多对输出结果与发端数据输入至性能度量函数可得到一个或多个MSE的值。例如输出结果与发端数据H输入至性能度量函数可得到二者的MSE,即MSE(H,)。获取合并可以进一步判断获得的一个或多个性能度量值是否达到标准化的MSE的下界。若都达到,则满足输出条件;若部分或全部未达到,则不满足输出条件。
应理解,若该收端参考神经网络是根据可实现能力度量值选择出来的可匹配的神经网络,则上述性能指标可基于该可实现能力度量值对应的性能指标来评估。
还应理解,如前所述,基于对神经网络所包含的模块的不同设计,发端神经网络的输入和输出以及收端神经网络的输入和输出并不一定和上文示例相同。比如,发端神经网络的输入可能是信道H,收端神经网络的输出却可能是特征向量(应理解,特征向量可以理解为上文所述信道特征信息V的一例)。这里,收端输出的特征向量是恢复得到的特征向量,例如记作但这并不影响性能判断准则的使用。由于特征向量与信道之间的关系,U=eig(H)(eig()表示用于求解特征向量的函数),可以由特征向量进一步恢复出信道或者由信道H可以进一步确定特征向量U,进而确定二者的MSE。即,MSE(H,)也可能表现为MSE(U,)。或者说,MSE(H,)与MSE(U,)之间是可替换的。下文中多处涉及到性能度量函数的描述,为了简洁,后文中省略对相同或相似情况的说明。
另一示例,该输出条件可以是,90%的性能度量值达到性能指标的下界。该性能度量函数例如是相关系数的计算函数,该性能指标的下界例如是相关系数的下界。将一对或多对输出结果与发端数据输入至性能度量函数可得到一个或多个相关系数。例如输出结果与发端数据H的相关系数可表示为Corr(H,),或Corr(U,)。Corr()表示求相关系数的函数。获取设备可以进一步判断获得的一个或多个性能度量值是否达到标准化的相关系数的下界。若90%以上的性能度量值都达到相关系数的下界,则满足输出条件;若性能度量值达到相关系数的下界的个数不满90%,则不满足输出条件。
应理解,MSE和相关系数仅为示例,本申请对于获取设备确定目标神经网络是否满足输出条件所使用的性能指标及其相关的性能度量函数均不作限定。还应理解,达到性能指标的下界可以作为目标神经网络的输出条件的一例,但不应对本申请构成任何限定。
由于上文已经结合多个示例对性能判断准则做了详细说明,这里为了简洁,不再列举更多的输出条件,并针对不同的输出条件一一举例详述。
如图8所示获取设备可以从参考数据集中获取一个或多个发端数据。比如,将其中的一个发端数据记为X,X被输入至发端参考神经网络。发端参考神经网络对该发端数据X进行前处理和信息提取后,可得到压缩后的数据X',发端参考神经网络可进一步根据标准化的数据结构对压缩后的数据X'进行处理,以生成空口信息S。此后,空口信息S可以被输入至收端目标神经网络中。收端目标神经网络可以基于标准化的数据结构对该空口信息S进行解析,恢复出压缩后的数据收端目标神经网络可以进一步基于该压缩后的数据得到输出结果Y。
仍以信道信息的提取和压缩与信道信息的重构为例。发端数据X可以是信道H。发端参考神经网络可以基于图2中所列举的发端神经网络的操作流程,对信道H先后进行前处理、信息提取和后处理,生成空口信息S。
收端目标神经网络可以基于接收到的空口信息S进行信道H的重构。收端目标神经网络可以基于图2中所列举的收端神经网络的操作流程,对空口信息线先后进行逆后处理、逆信息提取和逆前处理,以恢复出信道收端目标神经网络所输出的是信道H的估计值应理解,该估计值也即输出值。
此后,获取设备可以将输出结果Y与输入的发端数据X输入至性能度量函数中,以获得性能度量值。应理解,获取设备可以将该输出结果Y与发端数据X输入至一个或多个性能度量函数中,获得一个或多个性能度量值。
还应理解,获取设备还可从参考数据集中获得的一个或多个发端数据按照上述流程来处理,可以获得多对输出结果与发端数据。每对输出结果和发端数据可以被输入至一个或多个性能度量函数中,获得一个或多个性能度量值。多对输出结果与发端数据可获得多个性能度量值。
该获取设备可以进一步根据标准化的性能判断准则,将输出的性能度量值与标准化的性能指标进行比较,再根据比较结果确定该发端目标神经网络是否满足预设的输出条件。
由于上文已经结合多个示例对性能判断准则做了详细说明,这里为了简洁,不再列举更多的输出条件,并针对不同的输出条件一一举例详述。
图9和图10是本申请实施例提供的神经网络的获取方法的示意图。图9和图10所示的神经网络的训练方法将一个标准化的参考神经网络作为参考,对训练得到的目标神经网络进行评估的示例。其中,图9中所示的目标神经网络和参考神经网络可应用于发射机,该目标神经网络是发端目标神经网络,该参考神经网络是发端参考神经网络。图10所示的目标神经网络和参考神经网络可应用于接收机,该目标神经网络是收端目标神经网络,该参考神经网络是收端参考神经网络。
如图9所示,获取设备可以从参考数据集中获取一个或多个发端数据。每个发端数据可以被输入至发端目标神经网络和发端参考神经网络中,以获得从发端目标神经网络输出的目标空口信息和从发端参考神经网络生成的参考空口信息。
以其中的一个发端数据X为例。发端数据X被输入至发端目标神经网络和发端参考神经网络中。发端参考神经网络可以基于预先设计好的算法对该发端数据X进行前处理和信息提取,得到压缩后的数据X0',发端参考神经网络可基于标准化的数据结构对该压缩后的数据X0'进行处理,以获得由发端参考神经网络生成的参考空口信息S0。发端目标神经网络可以基于与收端神经网络相应的算法对该发端数据X进行前处理和信息提取,得到压缩后的数据X1',发端目标神经网络可以基于标准化的数据结构对该压缩后的数据X1'进行处理,以获得由发端目标神经网络生成的目标空口信息S1。
其中,用于对发端数据X进行前处理的前处理模块可以是发端参考神经网络和发端目标神经网络共用的模块,即,对发端数据X进行前处理的过程是由同一个前处理模块执行的。或者,用于对发端数据X进行前处理的前处理模块可以是分别包含在发端参考神经网络和发端目标神经网络中的模块,即,对发端数据X进行前处理的过程由发端参考神经网络和发端目标神经网络分别执行。
当然,前处理模块也可以不包含在发端参考神经网络和发端目标神经网络中,作为前处理模块单独存在于发射机中。前处理模块可将经过前处理后的数据分别输入至发端参考神经网络和发端目标神经网络。此情况下,发端数据X经由前处理模块的处理后被输入至发端目标神经网络和发端参考神经网络。
仍以信道信息的提取和压缩与信道信息的重构为例。发端数据X可以是信道H。在一种实现方式中,信道H可以被分别输入至发端参考神经网络和发端目标神经网络中,发端参考神经网络和发端目标神经网络分别可以按照如图2中所列举的发端神经网络的操作流程,对信道H先后进行前处理、信息提取和后处理,分别得到参考空口信息S0和目标空口信息S1。
此后,获取设备可以将参考空口信息S0与目标空口信息S1输入至性能度量函数中,以获得性能度量值。应理解,获取设备可以将该参考空口信息S0与目标空口信息S1输入至一个或多个性能度量函数中,获得一个或多个性能度量值。
还应理解,获取设备还可从参考数据集中获得的一个或多个发端数据按照上述流程来处理,可以获得多对参考空口信息与目标空口信息。由同一个发端数据所获得的一对参考空口信息与目标空口信息可以被输入至一个或多个性能度量函数中,获得一个或多个性能度量值。多对参考空口信息与目标空口信息可获得多个性能度量值。
该获取设备可以进一步根据标准化的性能判断准则,将输出的性能度量值与标准化的性能指标进行比较,再根据比较结果确定该发端目标神经网络是否满足预设的输出条件。
由于上文已经结合多个示例对性能判断准则做了详细说明,这里为了简洁,不再列举更多的输出条件,并针对不同的输出条件一一举例详述。
如图10所示,获取设备可以将同一个或多个空口信息输入至收端参考神经网络和收端目标神经网络。该一个或多个空口信息可以是直接从参考数据集中获取到的,也可以是将从参考数据集中获取到的发端数据输入至某一发射机之后,从该发射机获取到的空口信息。本申请对此不做限定。只要每次输入至收端参考神经网络和收端目标神经网络的空口信息是相同的空口信息即可。
在一种可能的设计中,输入至收端参考神经网络和收端目标神经网络的空口信息可以是通过如下方式获得的:将参考数据集中获取到的发端数据输入至一个发端参考神经网络中,该一个发端参考神经网络可根据预定义的数据结构对输入的发端数据进行处理,可以得到待发送给收端目标神经网络和收端参考神经网络的空口信息。
其中,发端参考神经网络输出的空口信息可以被输入至与之耦合的收端参考神经网络。换言之,本实施例中可通过相互耦合的一对发端参考神经网络和收端参考神经网络来对收端目标神经网络进行评估。
以其中的一个空口信息S为例。空口信息S可以被输入至收端目标神经网络和收端参考神经网络中。收端参考神经网络可以基于标准化的数据结构对该空口信息S进行解析,并可进一步基于预先设计好的算法对解析结果进行处理,以获得由收端参考神经网络输出的参考输出结果Y0。收端目标神经网络可以基于标准化的数据结构对空口信息S进行解析,并可进一步基于收端参考神经网络相应的算法对解析结果进行处理,以获得由收端目标神经网络输出的目标输出结果Y1。收端参考神经网络和收端目标神经网络
仍以信道信息的提取和压缩与信道信息的重构为例。输入收端目标神经网络和收端参考神经网络的空口信息均为S。收端参考神经网络在接收到空口信息S后,可以基于图2中所列举的收端神经网络的操作流程,对空口信息S先后进行逆后处理、逆信息提取、逆前处理,以获得信道H的估计值收端目标神经网络在接收到空口信息S后,可以基于图2中所列举的收端神经网络的操作流程,对空口信息S先后进行逆后处理、逆信息提取、逆前处理,以获得信道H的估计值应理解,参考神经网络输出的估计值也即参考输出结果。目标神经网络输出的估计值也即目标输出结果。
还应理解,获取设备可将一个或多个空口信息按照上述流程来处理,以获得从收端目标神经网络输出的多个目标输出结果和从参考神经网络输出的多个参考输出结果。由同一个空口信息所获得的一对目标输出结果和参考输出结果可以被输入至一个或多个性能度量函数中,获得一个或多个性能度量值。多对目标输出结果和参考输出结果可获得多个性能度量值。
该获取设备可以进一步根据标准化的性能判断准则,将输出的性能度量值与标准化的性能指标进行比较,再根据比较结果确定该发端目标神经网络是否满足预设的输出条件。
由于上文已经结合多个示例对性能判断准则做了详细说明,这里为了简洁,不再列举更多的输出条件,并针对不同的输出条件一一举例详述。
上文结合图7至图10主要描述了获取设备结合一个标准化的发端参考神经网络和/或收端参考神经网络来对目标神经网络进行评估的具体过程。但应理解,上文所列举的示例不应对本申请构成任何限定。
例如,该获取设备还可以使用两个不同的参考神经网络对某一目标神经网络进行评估。该两个参考神经网络可以基于同一个输入生成不同的两个输出结果。该两个输出结果可以分别是从获取不同的性能下限出发而设计的两个参考神经网络的输出结果,或者,该两个输出结果也可以分别是从获取性能的上限和下限出发而设计的两个参考神经网络的输出结果。因此,该两个输出结果均可用于对目标神经网络是否满足输出条件做判别。
更具体地说,若该两个输出结果分别是从获取不同的性能下限出发而设计的两个不同的参考神经网络的输出结果,该两个输出结果可以分别与发端数据输入至不同的性能度量函数中,以得到不同的性能度量值,该性能度量值可与相应的性能指标的下界比较。在该两个输出结果均超出性能指标的下界的情况下,确定该目标神经网络满足输出条件。从而可以保证该目标神经网络在使用时性能不低于下限。
若该两个输出结果分别是从获取性能的上限和下限出发而设计的两个参考神经网络的输出结果,则该两个输出结果中,从获取性能的上限出发而设计的参考神经网络的输出结果可与发端数据被输入至性能度量函数中,以得到性能度量值,该性能度量值可用于和性能指标的上界比较,从而可以避免在目标神经网络在使用时性能超出上限;从获取性能的下限出发而设计的参考神经网络的输出结果可与发端数据被输入至性能度量函数中,以得到另一性能度量值,该性能度量值可用于和性能指标的下界比较,从而可以保证该目标神经网络在使用时性能不低于下限。
下文图11至图14示出了获取设备结合多个标准化的发端参考神经网络和/或收端参考神经网络来对目标神经网络进行评估的具体过程。
图11示出了获取设备结合两个标准化的参考神经网络来判别目标神经网络是否满足输出条件的具体过程。在图11中,目标神经网络可与参考神经网络级联,目标神经网络可以用于发射机中,为发端目标神经网络;参考神经网络可以用于接收机中,为收端参考神经网络。
图11所示的两个收端参考神经网络中的一个(例如图中的收端参考神经网络1)可以是从获取某一性能(如MSE)的下限出发而设计的神经网络,另一个(例如图中的收端参考神经网络2)是从获取另一性能(如相关系数)的下限出发而设计的神经网络。由发端目标神经网络输出的空口信息S分别被输入至收端参考神经网络1和收端参考神经网络2。收端参考神经网络1和收端参考神经网络2可分别基于图2中所列举的收端神经网络的操作流程,获得输出结果,例如,由收端参考神经网络1可以得到输出结果Y01,由收端参考神经网络2可以得到输出结果Y02。基于上文所述的方法,获取设备可以将输入至发端目标神经网络的发端数据X分别与收端参考神经网络生成的输出结果Y01和Y02输入至性能度量函数中,以获得性能度量值,并进一步根据性能判断准则和性能度量值,确定该发端目标神经网络是否满足输出条件。
图11所示的性能度量函数包括MSE和相关系数。图11中由发端数据X和输出结果Y01可以得到性能度量值MSE(X,Y01);由发端数据X和输出结果Y02可以得到性能度量值相关系数(X,Y02)。获取设备进一步结合标准化的MSE的下界和相关系数的下界,确定该发端目标神经网络是否满足输出条件。
可选地,输出条件为:由收端参考神经网络1生成的输出结果Y01与发端数据的性能度量值达到MSE的下界,且,由收端参考神经网络2生成的输出结果Y02与发端数据的性能度量值达到相关系数的下界。由于输出上述两个输出结果的两个收端参考神经网络是分别是基于不同的性能下限设计而得到的,因此所获得的性能度量值可分别与不同的性能指标的下界比较。
在本实施例中,若MSE(X,Y01)达到性能指标的下界,相关系数(X,Y02)达到相关系数的下界,则该发端目标神经网络满足输出条件。
若上述条件中有一个未满足,则该目标神经网络不满足输出条件。比如,对于输出条件1,若MSE(X,Y01)未达到MSE的下界,或,相关系数(X,Y02)未达到相关系数的下界,则可判定该发端目标神经网络不满足输出条件。
应理解,上文MSE的下界和相关系数的下界可以该目标神经网络所满足的能力相匹配的下界。例如,获取设备可以根据所选择的目标神经网络所满足的可实现能力度量值选择所对应的性能指标来对该目标神经网络进行评估。
还应理解,上述两个输出结果Y01和Y02可以是由两个不同的参考神经网络对同一空口信息进行处理得到的,例如一个为高复杂深度卷积网络,另一个为低复杂轻型卷积网络,本申请对此不作限定。
应理解,用于与该发端目标神经网络级联的收端参考神经网络可以为两个,也可以为更多个。本申请对此不作限定。
例如,将更多个收端参考神经网络与该发端目标神经网络级联。这些收端参考神经网络中的一部分(例如记为收端参考神经网络集合1)可以是从获取性能的下限出发而设计的神经网络,另一部分(例如记为收端参考神经网络集合2)可以是从获取性能的上限出发而设计的神经网络。由此可以得到更多个收端神经网络的输出结果。这些输出结果也可分别与输入至发端目标神经网络的发端数据输入至性能度量函数中,以获得多个性能度量值。
此情况下,该输出条件例如可以为:由收端参考神经网络集合1输出的结果与发端数据的性能度量值均达到性能指标的下界,由收端参考神经网络集合2输出的结果与发端数据的性能度量值均未超出性能指标的上界。或者,该输出条件还可以为:由收端参考神经网络集合1输出的结果与发端数据的性能度量值均达到性能指标的下界,由收端参考神经网络集合2输出的结果与发端数据的性能度量值中90%以上的值未超出性能指标的上界,等等。为了简洁,这里不再列举。应理解,本申请对于输出条件的具体内容不做限定。
图12示出了获取设备结合两个标准化的参考神经网络来判别目标神经网络是否满足输出条件的具体过程。图12中的目标神经网络可与参考神经网络级联,目标神经网络应用于接收机中,为收端目标神经网络;参考神经网络应用于发射机,为发端参考神经网络。图12所示的两个参考神经网络中的一个(例如图中的参考神经网络1)可以是从获取某性能(如MSE)的下限出发而设置的神经网络,另一个(例如图中的参考神经网络2)是从获取另一性能(如相关系数)的下限出发而设置的神经网络。由发端参考神经网络1可以得到空口信息S01,由发端参考神经网络2可以得到空口信息S02。收端目标神经网络可以基于图2中所示的收端神经网络的操作流程,基于空口信息S01和S02分别获得输出结果Y1和Y2。基于上文所述的方法,获取设备可以将输入至发端参考神经网络的发端数据X与收端目标神经网络基于空口信息S01和S02分别得到的输出结果Y1和Y2输入性能度量函数中,以获得性能度量值,并进一步根据性能判断准则和性能度量值,确定该目标神经网络是否满足输出条件。
图12所示的性能度量函数包括MSE和相关系数。由发端数据X和输出结果Y2可以得到性能度量值相关系数(X,Y2)。获取设备进一步结合标准化的MSE的下界和相关系数的下界,确定该收端目标神经网络是否满足输出条件。由于上文已经结合性能判断准则对该判别过程做了详细说明,为了简洁,这里不再赘述。
通过性能指标的上界和下界来判别目标神经网络是否满足输出条件并不限于上文所列举的将该目标神经网络与一个参考神经网络级联的方式。训练设备还可以将同一个或多个发端数据输入至发端目标神经网络和发端参考神经网络,并将发端目标神经网络的输出结果与发端参考神经网络的输出结果进行比对,以确定该发端目标神经网络是否满足输出条件。
图13示出了获取设备结合两个标准化的参考神经网络来判别目标神经网络是否满足输出条件的具体过程。目标神经网络和参考神经网络都可应用于发射机中,分别为发端目标神经网络和发端参考神经网络。
图13所示的两个发端参考神经网络中的一个(例如图中的发端参考神经网络1)可以是从获取某一性能(如MSE)的下限出发而设置的神经网络,另一个(例如图中的发端参考神经网络2)是从获取另一性能(如相关系数)的下限出发而设置的神经网络。同一发端数据X被分别输入至发端参考神经网络1、发端参考神经网络2和发端目标神经网络。发端参考神经网络1、发端参考神经网络2和发端目标神经网络可分别对该发端数据X进行处理,例如按照图2中所列举的发端神经网络的操作流程对发端数据X进行处理,以生成不同的空口信息。由发端参考神经网络1可以生成参考空口信息S01,由发端参考神经网络2可以生成参考空口信息S02,由发端目标神经网络可以生成目标空口信息S1。基于上文所述的方法,获取设备将目标空口信息S1、参考空口信息S01和S02输入至性能度量函数中,以获得性能度量值,并可进一步根据性能判断准则和性能度量值,确定该目标神经网络是否满足输出条件。由于上文已经结合性能判断准则对该判别过程做了详细说明,为了简洁,这里不再赘述。
图14示出了获取设备结合两个标准化的参考神经网络来判别目标神经网络是否满足输出条件的具体过程。图14中的参考神经网络包括应用于发射机中的发端参考神经网络和应用于接收机中的收端参考神经网络;目标神经网络应用于接收机,为收端目标神经网络。
获取设备可将从参考数据集中获取的发端数据输入至发端参考神经网络。发端参考神经网络可基于标准化的数据接口,生成空口信息S。该空口信息S可被输入至收端目标神经网络和两个收端参考神经网络中。其中,该两个收端参考神经网络中的一个(例如图中的收端参考神经网络1)可以是从获取某一性能(如MSE)的下限出发而设计的神经网络,另一个(例如图中的收端参考神经网络2)可以是从获取另一性能(如相关系数)的下限出发而设计的神经网络。收端参考神经网络1、收端参考神经网络2和发端目标神经网络可分别基于标准化的数据结构,对该空口信息S进行解析,得到不同的输出结果。由收端参考神经网络1可以得到参考输出结果Y01,由收端参考神经网络2可以得到参考输出结果Y02,由收端目标神经网络可以得到目标输出结果Y1。基于上文所述的方法,获取设备可以将目标输出结果Y1、参考输出结果Y01和Y02输入至性能度量函数中,以获得性能度量值,并可进一步根据性能判断准则和性能度量值,确定该收端目标神经网络是否满足输出条件。由于上文已经结合性能判断准则对该判别过程做了详细说明,为了简洁,这里不再赘述。
应理解,上文仅为便于理解,结合图7至图14详细说明了上述步骤610的具体实现过程。但这些示例仅为便于理解而示出,不应对本申请构成任何限定。基于相同的构思,本领域的技术人员可以对上述步骤中的部分或全部进行等价替换或简单变形,以达到相同的效果。因此,这些等价替换或简单变形均应落入本申请的保护范围内。
还应理解,图7至图14主要以图2所示的发端神经网络和收端神经网络所包括的模块为例来描述了步骤610的具体过程。但这不应对本申请构成任何限定。在对发端神经网络和收端神经网络所包含的模块做出不同设计的情况下,发端神经网络的输入和输出可能与图中所示不同,收端神经网络的输入和输出也可能与图中所示不同。
此后,获取设备基于对目标神经网络是否满足输出条件,可以执行步骤620或步骤630中的一项。若目标神经网络满足输出条件,则可执行步骤620,输出该目标神经网络;若目标神经网络不满足输出条件,则可执行步骤630,继续对该目标神经网络进行优化。
获取设备对该目标神经网络进行优化的过程具体可以包括但不限于,调整神经网络结构设计、调整参考数据集、调整神经网络训练方法、调整代价函数、损失函数或目标函数的定义、改变神经网络的初始化方法、改变神经网络参数的约束条件、以及改变神经网络的激活函数的定义等等。
通过对上文列举的一项或多项的执行,获取设备可以获得优化的目标神经网络。获取设备可以进一步对优化的目标神经网络进行评估,以确定其是否满足输出条件。获取设备对优化的目标神经网络进行评估的具体过程可以参考上文步骤610中的相关描述,为了简洁,这里不再赘述。
基于上述技术方案,通过引入标准化的参考数据集、标准化的参考神经网络以及标准化的性能判断准则,使得获取设备可以基于已有的标准化的参考神经网络,对目标神经网络进行评估,在不满足输出条件的情况下,可对该目标神经网络进行优化,直到目标神经网络满足输出条件。从而使得通过空口来下载神经网络结构和参数信息的开销得以避免。同时还可以保证不同厂商的产品之间能够互联互通,在保证性能的前提下,还可以体现不同厂商的产品的差异化设计和竞争力,因此从整体上说,大幅提升了对偶网络实现的可行性。
应理解,上文仅为便于理解,以信道信息的提取和压缩与信道信息的重构为例对上述方法做了进一步详尽的说明。但这不应对本申请构成任何限定。在上文所列举的信息的其他处理阶段,本申请实施例所提供的获取神经网络的方法也仍然适用。为了简洁,这里不一一举例说明。
基于上文所述的方法获取的目标神经网络,可以应用于通信网络中。例如,发端目标神经网络可应用于网络设备中,收端目标神经网络可应用于终端设备中。网络设备可以包括如前文所述的发射机,终端设备可以包括如前文所述的接收机。又例如,发端目标神经网络可应用终端设备中,收端目标神经网络可应用于网络设备中。终端设备可以包括如前文所述的发射机,网络设备可以包括如前文所述的接收机。本申请对此不作限定。
由于网络设备与终端设备之间的空口传输条件因所处环境的不同而不同,在选择目标神经网络应用于网络设备和终端设备中时,可以根据当前空口传输条件来选择相匹配的场景模式。其中,空口传输条件可以包括但不限于,信道状态、干扰状态等。
网络设备和终端设备中的一个可以基于空口传输条件来确定场景模式,以便确定用于适用于当前空口传输条件的目标神经网络。
图15是本申请实施例提供的通信方法的示意性流程图。图15所示的方法700可以包括步骤710至步骤750。下面详细说明方法700中的各个步骤。
在步骤710中,终端设备发送终端设备的能力信息。相应地,网络设备接收终端设备的能力信息。
具体地,该能力信息可以用于指示可实现能力度量值。该可实现能力度量值具体可以是指终端设备可以采用的神经网络的可实现能力度量值。网络设备可以根据终端设备上报的可实现能力度量值,以及由与该终端设备之间的空口传输条件确定的场景模式,来选择相匹配的神经网络。
关于可实现能力度量值的具体内容在上文方法600中已经做了详细说明,为了简洁,这里不再赘述。
在步骤720中,网络设备基于与终端设备之间的空口传输条件,确定场景模式。
网络设备例如可以持续地或周期性地获取与终端设备之间的空口传输条件,例如通过对信道的测量、干扰的测量等来获取该空口传输信息。该周期的具体时长可以是预定义值。本申请对于网络设备获取空口传输条件的实际行为不作限定。
网络设备可以基于与终端设备之间的空口传输条件,如信道状态、干扰状态等,确定当前的场景模式。该场景模式例如可以包括但不限于:室外密集城区、室外普通城区、室外乡村、室外山区、室内办公、室内厂房等的不同信道场景,单干扰源、多干扰源、强弱不同的多种干扰信号类型,中近点高信噪比、远点低信噪比的不同信噪比条件,步行低速、城区车载中速、高铁超高速等不同移动条件等。由于不同的场景对空口传输条件可能会有不同的影响,故可以将不同的场景模式与不同的神经网络相匹配,以将与当前空口传输条件相匹配的神经网络应用到网络设备和终端设备中。在步骤730中,网络设备向终端设备发送场景模式的指示信息。相应地,终端设备接收来自网络设备的场景模式的指示信息。
网络设备在确定了场景模式之后,可以通过信令向终端设备指示该场景模式的指示信息,以便于终端设备选择与网络设备一对一耦合的神经网络来协同工作。
网络设备指示该场景模式的具体方式可以有多种。例如,可以预先定义多个指示比特与多种场景模式的对应关系,通过不同的指示比特来指示不同的场景模式。
可选地,该场景模式的指示信息携带在高层信令中。该高层信令例如为无线资源控制(radio resource control,RRC)消息或介质接入控制(medium access control,MAC)控制元素(control element,CE)。
即,该场景模式可以是静态配置,或半静态配置的。
可选地,该场景模式的指示信息携带在物理层信令中。该物理层信令例如为下行控制信息(downlink control information,DCI)。
即,该场景模式可以是动态配置的。
在步骤740中,网络设备接收来自终端设备的确认信息,该确认信息用于指示对场景模式的指示信息的成功接收。
终端设备基于对上述指示信息的成功接收,可以向网络设备发送确认信息。
例如,终端设备可以在成功接收的情况下发送该确认信息,在未成功接收的情况下不发送该确认信息。网络设备可以在发送上述场景模式的指示信息后开启计时器,该计时器的时长可以是预定义值。若在计时器超时前接收到该确认信息,则可确定终端设备成功接收到场景模式的指示信息;否则,认为该终端设备未成功接收到该场景模式的指示信息。换言之,步骤740为可选的步骤。若终端设备未成功接收到该指示信息,网络设备可能无法接收到来自终端设备的确认信息。
又例如,该确认信息可以是一个指示比特。例如“0”或“空(null)”表示未成功接收;“1”表示成功接收。
应理解,该确认信息的具体形式可以为很多种,本申请对此不做限定。
在步骤750中,网络设备采用与该场景模式、终端设备的能力信息匹配的神经网络与终端设备通信。相应地,终端设备也采用与该场景模式、该终端设备的能力信息匹配的神经网络与网络设备通信。
网络设备可以基于该确认信息,确定终端设备成功接收到上述指示信息。网络设备和终端设备自此可以采用与该场景模式、终端设备的能力信息匹配的发端神经网络和收端神经网络工作。
例如,网络设备可以采用与该场景模式、该终端设备的能力信息匹配的发端神经网络工作,终端设备可以采用与该场景模式、终端设备的能力信息匹配的收端神经网络工作;又如,网络设备可以采用与该场景模式、终端设备的能力信息匹配的收端神经网络工作,终端设备可以采用与该场景模式、终端设备的能力信息匹配的发端神经网络工作;再如,网络设备可以采用在与某一场景模式(如记作场景模式1)、终端设备的能力信息匹配的发端神经网络工作的同时,还可采用与另一场景模式(如记作场景模式2)、终端设备的能力信息匹配的收端神经网络工作,终端设备可以在采用与场景模式1、终端设备的能力信息匹配的收端神经网络工作的同时,还可采用与场景模式2、终端设备的能力信息匹配的发端神经网络工作。本申请对此不做限定。
应理解,在同一种场景模式下,可以有一个发端神经网络以及一个收端神经网络与之匹配。可以理解的是,每个发端神经网络都存在至少一个可与之协同工作的收端神经网络;每个收端神经网络都存在至少一个可与之协同工作的发端神经网络。
还应理解,发端神经网络和收端神经网络都可以是基于上文方法600中的方法获取到的。
若网络设备确定终端设备未成功接收到上述指示信息,网络设备可以重新发送该指示信息,例如可以重新执行上述流程,直到接收到该终端设备的确认信息。
还应理解,网络设备可以在发现传输空口条件发生变化时,重新确定场景模式,并在场景模式发生变化的情况下,将重新确定的场景模式指示给终端设备,以便于网络设备和终端设备基于新确定的场景模式采用相匹配的神经网络工作。即,上述步骤720至步骤750可重复执行。
基于上述方法,网络设备可以基于与终端设备之间当前的空口传输条件,选择合适的场景模式,并将该场景模式指示给终端设备,以便于网络设备和终端设备双方基于同一场景模式以及终端设备的能力信息来确定采用怎样的神经网络来工作。从而有利于获得性能的提升。
图16是本申请另一实施例提供的通信方法的示意性流程图。图16所示的方法800可以包括步骤810至步骤850。下面详细说明方法800中的各个步骤。
在步骤810中,终端设备上报终端设备的能力信息。相应地,网络设备接收终端设备的能力信息。在步骤820中,终端设备基于与网络设备之间的空口传输条件,确定场景模式。
在步骤830中,终端设备向网络设备发送场景模式的指示信息。相应地,网络设备接收终端设备的场景模式的指示信息。
在步骤840中,终端设备接收来自网络设备的确认信息,该确认信息用于指示对场景模式的指示信息的成功接收。
在步骤850中,终端设备采用与该场景模式、终端设备的能力信息匹配的神经网络与网络设备通信。相应地,网络设备采用与该场景模式、终端设备的能力信息匹配的神经网络与终端设备通信。
应理解,步骤820至步骤850的具体过程与上文方法700中的步骤720至步骤750的具体过程相似,所不同的是,在方法800中,由终端设备来根据空口传输条件确定场景模式,并向网络设备指示该场景模式。网络设备基于对该指示信息的成功接收回复确认信息。此后,网络设备和终端设备都可以采用与该场景模式、终端设备的能力信息相匹配的神经网络工作。
由于上文方法700中已经对步骤720至步骤750的具体过程做了详细说明,为了简洁,这里不做详述。
应理解,终端设备可以在发现传输空口条件发生变化时,重新确定场景模式,并在场景模式发生变化的情况下,将重新确定的场景模式指示给网络设备,以便于网络设备和终端设备基于新确定的场景模式采用相匹配的神经网络工作。即,上述步骤810至步骤840也可以重复执行。
基于上述方法,终端设备可以基于与网络设备之间当前的空口传输条件,选择合适的场景模式,并将该场景模式指示给网络设备,以便于网络设备和终端设备双方基于同一场景模式以及终端设备的能力信息来确定采用怎样的神经网络来工作。从而有利于获得性能的提升。
以上,结合图6至图16详细说明了本申请实施例提供的通信网络中的神经网络的训练方法。以下,结合图17至图20详细说明本申请实施例提供的通信网络中的神经网络的训练装置。
图17是本申请实施例提供的获取神经网络的装置1000的示意性框图。如图17所示,该训练装置1000包括处理单元1100和输入输出单元1200。其中,处理单元1100可用于基于标准化的参考数据集、一个或多个参考神经网络和性能判断准则,确定构建的目标神经网络是否满足预设的输出条件;输入输出单元1200可用于在满足所述输出条件的情况下,输出所述目标神经网络,输出的所述目标神经网络是应用于发射机的发端神经网络或应用于接收机中的收端神经网络。
应理解,该装置1000可对应于图6至图14所示实施例中的获取设备,可以包括用于执行图6至图14中的方法600实施例中获取设备执行的方法的单元。该处理单元1100可用于执行上文方法600中的步骤610和步骤620,该输入输出单元1200可用于执行上文方法600中的步骤630。
其中,处理单元1100所执行的步骤可以由一个或多个处理器执行相应的程序来实现。例如对目标神经网络的训练可以由专用于训练神经网络的处理器来实现。该处理单元1100可对应于图18中所示的处理器2010。
输入输出单元1200所执行的步骤例如可以由输入输出接口、电路等来实现。该输入输出单元1200例如可对应于图18中所示的输入输出接口2020。
在一种可能的设计中,该装置1000可以部署在芯片上。
图18是本申请实施例提供的获取神经网络的装置2000的示意性框图。如图18所示,该装置2000包括处理器2100、输入输出接口2200和存储器2030。其中,处理器2010、输入输出接口2020和存储器2030通过内部连接通路互相通信,该存储器2030用于存储指令,该处理器2010用于执行该存储器2030存储的指令,以控制该输入输出接口2020发送信号和/或接收信号。
应理解,该装置2000可以对应于图6至图14所示实施例中的获取设备,可以包括用于执行图6至图14中的方法600实施例中获取设备执行的方法的单元。可选地,该存储器2030可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据。存储器的一部分还可以包括非易失性随机存取存储器。存储器2030可以是一个单独的器件,也可以集成在处理器2010中。该处理器2010可以用于执行存储器2030中存储的指令,并且当该处理器2010执行存储器中存储的指令时,该处理器2010用于执行上述与获取设备对应的方法实施例的各个步骤和/或流程。
图19是本申请实施例提供的通信装置的示意性框图。如图19所示,该通信装置3000可以包括处理单元3100和收发单元3200。
可选地,该通信装置3000可对应于上文方法实施例中的终端设备,例如,可以为终端设备,或者配置于终端设备中的部件(如电路、芯片或芯片系统等)。
应理解,该通信装置3000可对应于根据本申请实施例的方法700或方法800中的终端设备,该通信装置3000可以包括用于执行图15中的方法700或图16中的方法800中终端设备执行的方法的单元。并且,该通信装置3000中的各单元和上述其他操作和/或功能分别为了实现图15中的方法700或图16中的方法800的相应流程。
其中,当该通信装置3000用于执行图15中的方法700时,处理单元3100可用于执行方法700中的步骤750,收发单元3200可用于执行方法700中的步骤710、步骤730至步骤750。应理解,各单元执行上述相应步骤的具体过程在上述方法实施例中已经详细说明,为了简洁,在此不再赘述。
当该通信装置3000用于执行图16中的方法800时,处理单元3100可用于执行方法800中的步骤820和步骤850,收发单元3200可用于执行方法800中的步骤810、步骤830至步骤850。应理解,各单元执行上述相应步骤的具体过程在上述方法实施例中已经详细说明,为了简洁,在此不再赘述。
还应理解,该通信装置3000为终端设备时,该通信装置3000中的收发单元3200可以通过收发器实现,例如可对应于图20中示出的通信装置4000中的收发器4020或图21中示出的终端设备5000中的收发器5020,该通信装置3000中的处理单元3100可通过至少一个处理器实现,例如可对应于图20中示出的通信装置4000中的处理器4010或图21中示出的终端设备5000中的处理器5010。
还应理解,该通信装置3000为配置于终端设备中的芯片或芯片系统时,该通信装置3000中的收发单元3200可以通过输入/输出接口、电路等实现,该通信装置3000中的处理单元3100可以通过该芯片或芯片系统上集成的处理器、微处理器或集成电路等实现。
可选地,该通信装置3000可对应于上文方法实施例中的网络设备,例如,可以为网络设备,或者配置于网络设备中的部件(如电路、芯片或芯片系统等)。
应理解,该通信装置3000可对应于根据本申请实施例的方法700或方法800中的网络设备,该通信装置3000可以包括用于执行图15中的方法700或图16中的方法800中网络设备执行的方法的单元。并且,该通信装置3000中的各单元和上述其他操作和/或功能分别为了实现图15中的方法700或图16中的方法800的相应流程。
其中,当该通信装置3000用于执行图15中的方法700时,处理单元3100可用于执行方法700中的步骤720和步骤750,收发单元3200可用于执行方法700中的步骤710步骤730至步骤750。应理解,各单元执行上述相应步骤的具体过程在上述方法实施例中已经详细说明,为了简洁,在此不再赘述。
当该通信装置3000用于执行图16中的方法800时,处理单元3100可用于执行方法800中的步骤850,收发单元3200可用于执行方法800中的步骤810、步骤830至步骤850。应理解,各单元执行上述相应步骤的具体过程在上述方法实施例中已经详细说明,为了简洁,在此不再赘述。
还应理解,该通信装置3000为网络设备时,该通信装置3000中的收发单元3200可以通过收发器实现,例如可对应于图20中示出的通信装置4000中的收发器4020或图22中示出的基站6000中的RRU 6100,该通信装置3000中的处理单元3100可通过至少一个处理器实现,例如可对应于图20中示出的通信装置4000中的处理器4010或图22中示出的基站6000中的处理单元6200或处理器6202。
还应理解,该通信装置3000为配置于网络设备中的芯片或芯片系统时,该通信装置3000中的收发单元3200可以通过输入/输出接口、电路等实现,该通信装置3000中的处理单元3100可以通过该芯片或芯片系统上集成的处理器、微处理器或集成电路等实现。
图20是本申请实施例提供的通信装置4000的另一示意性框图。如图6所示,该通信装置4000包括处理器2010、收发器4020和存储器4030。其中,处理器4010、收发器4020和存储器4030通过内部连接通路互相通信,该存储器4030用于存储指令,该处理器4010用于执行该存储器4030存储的指令,以控制该收发器4020发送信号和/或接收信号。
应理解,该通信装置4000可以对应于上述方法实施例中的终端设备,并且可以用于执行上述方法实施例中网络设备或终端设备执行的各个步骤和/或流程。可选地,该存储器4030可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据。存储器的一部分还可以包括非易失性随机存取存储器。存储器4030可以是一个单独的器件,也可以集成在处理器4010中。该处理器4010可以用于执行存储器4030中存储的指令,并且当该处理器4010执行存储器中存储的指令时,该处理器4010用于执行上述与网络设备或终端设备对应的方法实施例的各个步骤和/或流程。
可选地,该通信装置4000是前文实施例中的终端设备。
可选地,该通信装置4000是前文实施例中的网络设备。
其中,收发器4020可以包括发射机和接收机。收发器4020还可以进一步包括天线,天线的数量可以为一个或多个。该处理器4010和存储器4030与收发器4020可以是集成在不同芯片上的器件。如,处理器4010和存储器4030可以集成在基带芯片中,收发器4020可以集成在射频芯片中。该处理器4010和存储器4030与收发器4020也可以是集成在同一个芯片上的器件。本申请对此不作限定。
可选地,该通信装置4000是配置在终端设备中的部件,如电路、芯片、芯片系统等。
可选地,该通信装置4000是配置在网络设备中的部件,如电路、芯片、芯片系统等。
其中,收发器4020也可以是通信接口,如输入/输出接口、电路等。该收发器4020与处理器4010和存储器4020都可以集成在同一个芯片中,如集成在基带芯片中。
图21是本申请实施例提供的终端设备5000的结构示意图。该终端设备5000可应用于如图1所示的系统中,执行上述方法实施例中终端设备的功能。如图所示,该终端设备5000包括处理器5010和收发器5020。可选地,该终端设备5000还包括存储器5030。其中,处理器5010、收发器5020和存储器5030之间可以通过内部连接通路互相通信,传递控制和/或数据信号,该存储器5030用于存储计算机程序,该处理器5010用于从该存储器5030中调用并运行该计算机程序,以控制该收发器5020收发信号。可选地,终端设备5000还可以包括天线3040,用于将收发器5020输出的上行数据或上行控制信令通过无线信号发送出去。
上述处理器5010可以和存储器5030可以合成一个处理装置,处理器5010用于执行存储器5030中存储的程序代码来实现上述功能。具体实现时,该存储器5030也可以集成在处理器5010中,或者独立于处理器5010。该处理器5010可以与图19中的处理单元3100或图20中的处理器4010对应。
上述收发器5020可以与图19中的收发单元3200或图20中的收发器4020对应。收发器5020可以包括接收器(或称接收机、接收电路)和发射器(或称发射机、发射电路)。其中,接收器用于接收信号,发射器用于发射信号。
应理解,图21所示的终端设备5000能够实现图15或图16所示方法实施例中涉及终端设备的各个过程。终端设备5000中的各个模块的操作和/或功能,分别为了实现上述方法实施例中的相应流程。具体可参见上述方法实施例中的描述,为避免重复,此处适当省略详细描述。
上述处理器5010可以用于执行前面方法实施例中描述的由终端设备内部实现的动作,而收发器5020可以用于执行前面方法实施例中描述的终端设备向网络设备发送或从网络设备接收的动作。具体请见前面方法实施例中的描述,此处不再赘述。
可选地,上述终端设备5000还可以包括电源5050,用于给终端设备中的各种器件或电路提供电源。
除此之外,为了使得终端设备的功能更加完善,该终端设备5000还可以包括输入单元5060、显示单元5070、音频电路5080、摄像头5090和传感器5100等中的一个或多个,所述音频电路还可以包括扬声器5082、麦克风5084等。
图22是本申请实施例提供的网络设备的结构示意图,例如可以为基站的结构示意图。该基站6000可应用于如图1所示的系统中,执行上述方法实施例中网络设备的功能。如图所示,该基站6000可以包括一个或多个射频单元,如远端射频单元(remote radio unit,RRU)6100和一个或多个基带单元(BBU)(也可称为分布式单元(DU))6200。所述RRU 6100可以称为收发单元,可以与图19中的收发单元3200或图20中的收发器4020对应。可选地,该RRU 6100还可以称为收发机、收发电路、或者收发器等等,其可以包括至少一个天线6101和射频单元6102。可选地,RRU 6100可以包括接收单元和发送单元,接收单元可以对应于接收器(或称接收机、接收电路),发送单元可以对应于发射器(或称发射机、发射电路)。所述RRU6100部分主要用于射频信号的收发以及射频信号与基带信号的转换,例如用于向终端设备发送指示信息。所述BBU 6200部分主要用于进行基带处理,对基站进行控制等。所述RRU6100与BBU 6200可以是物理上设置在一起,也可以物理上分离设置的,即分布式基站。
所述BBU 6200为基站的控制中心,也可以称为处理单元,可以与图19中的处理单元3100或图20中的处理器4010对应,主要用于完成基带处理功能,如信道编码,复用,调制,扩频等等。例如所述BBU(处理单元)可以用于控制基站执行上述方法实施例中关于网络设备的操作流程,例如,生成上述指示信息等。
在一个示例中,所述BBU 6200可以由一个或多个单板构成,多个单板可以共同支持单一接入制式的无线接入网(如LTE网),也可以分别支持不同接入制式的无线接入网(如LTE网,5G网或其他网)。所述BBU 6200还包括存储器6201和处理器6202。所述存储器6201用以存储必要的指令和数据。所述处理器6202用于控制基站进行必要的动作,例如用于控制基站执行上述方法实施例中关于网络设备的操作流程。所述存储器6201和处理器6202可以服务于一个或多个单板。也就是说,可以每个单板上单独设置存储器和处理器。也可以是多个单板共用相同的存储器和处理器。此外每个单板上还可以设置有必要的电路。
应理解,图22所示的基站6000能够实现图15或图16所示方法实施例中涉及网络设备的各个过程。基站6000中的各个模块的操作和/或功能,分别为了实现上述方法实施例中的相应流程。具体可参见上述方法实施例中的描述,为避免重复,此处适当省略详细描述。
上述BBU 6200可以用于执行前面方法实施例中描述的由网络设备内部实现的动作,而RRU 6100可以用于执行前面方法实施例中描述的网络设备向终端设备发送或从终端设备接收的动作。具体请见前面方法实施例中的描述,此处不再赘述。
应理解,图22所示出的基站6000仅为网络设备的一种可能的形态,而不应对本申请构成任何限定。本申请所提供的方法可适用于其他形态的网络设备。例如,包括AAU,还可以包括CU和/或DU,或者包括BBU和自适应无线单元(adaptive radio unit,ARU),或BBU;也可以为客户终端设备(customer premises equipment,CPE),还可以为其它形态,本申请对于网络设备的具体形态不做限定。
其中,CU和/或DU可以用于执行前面方法实施例中描述的由网络设备内部实现的动作,而AAU可以用于执行前面方法实施例中描述的网络设备向终端设备发送或从终端设备接收的动作。具体请见前面方法实施例中的描述,此处不再赘述。
本申请还提供了一种处理装置,包括至少一个处理器,所述至少一个处理器用于执行存储器中存储的计算机程序,以使得所述处理装置执行上述方法实施例中获取设备所执行的方法、网络设备所执行的方法或终端设备所执行的方法。
本申请实施例还提供了一种处理装置,包括处理器和输入输出接口。所述输入输出接口与所述处理器耦合。所述输入输出接口用于输入和/或输出信息。所述信息包括指令和数据中的至少一项。所述处理器用于执行计算机程序,以使得所述处理装置执行上述方法实施例中获取设备所执行的方法、网络设备所执行的方法或终端设备所执行的方法。
本申请实施例还提供了一种处理装置,包括处理器和存储器。所述存储器用于存储计算机程序,所述处理器用于从所述存储器调用并运行所述计算机程序,以使得所述处理装置执行上述方法实施例中训练设备所执行的方法。
应理解,上述处理装置可以是一个或多个芯片。例如,该处理装置可以是现场可编程门阵列(field programmable gate array,FPGA),可以是专用集成芯片(applicationspecific integrated circuit,ASIC),还可以是系统芯片(system on chip,SoC),还可以是中央处理器(central processor unit,CPU),还可以是网络处理器(networkprocessor,NP),还可以是数字信号处理电路(digital signal processor,DSP),还可以是微控制器(micro controller unit,MCU),还可以是可编程控制器(programmable logicdevice,PLD)或其他集成芯片。
在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。结合本申请实施例所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。为避免重复,这里不再详细描述。
应注意,本申请实施例中的处理器可以是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法实施例的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。
可以理解,本申请实施例中的存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(read-only memory,ROM)、可编程只读存储器(programmable ROM,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(random access memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(static RAM,SRAM)、动态随机存取存储器(dynamic RAM,DRAM)、同步动态随机存取存储器(synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(double data rateSDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(directrambus RAM,DR RAM)。应注意,本文描述的系统和方法的存储器旨在包括但不限于这些和任意其它适合类型的存储器。
根据本申请实施例提供的方法,本申请还提供一种计算机程序产品,该计算机程序产品包括:计算机程序代码,当该计算机程序代码在计算机上运行时,使得该计算机执行图6所示实施例中获取设备执行的方法、图15或图16所示实施例中的终端设备执行的方法或网络设备执行的方法。
根据本申请实施例提供的方法,本申请还提供一种计算机可读存储介质,该计算机可读存储介质存储有程序代码,当该程序代码在计算机上运行时,使得该计算机执行图6所示实施例中获取设备执行的方法、图15或图16所示实施例中的终端设备执行的方法或网络设备执行的方法。
根据本申请实施例提供的方法,本申请还提供一种系统,其包括前述的一个或多个终端设备以及一个或多个网络设备,所述一个或多个终端设备和所述一个或多个网络设备中分别配置了通过前述获取设备获取的目标神经网络。
上述各个装置实施例中网络设备与终端设备和方法实施例中的网络设备或终端设备完全对应,由相应的模块或单元执行相应的步骤,例如通信单元(收发器)执行方法实施例中接收或发送的步骤,除发送、接收外的其它步骤可以由处理单元(处理器)执行。具体单元的功能可以参考相应的方法实施例。其中,处理器可以为一个或多个。
上述实施例中,终端设备可以作为接收设备的一例,网络设备可以作为发送设备的一例。但这不应对本申请构成任何限定。例如,发送设备和接收设备也可以均为终端设备等。本申请对于发送设备和接收设备的具体类型不作限定。
在本说明书中使用的术语“部件”、“模块”、“系统”等用于表示计算机相关的实体、硬件、固件、硬件和软件的组合、软件、或执行中的软件。例如,部件可以是但不限于,在处理器上运行的进程、处理器、对象、可执行文件、执行线程、程序和/或计算机。通过图示,在计算设备上运行的应用和计算设备都可以是部件。一个或多个部件可驻留在进程和/或执行线程中,部件可位于一个计算机上和/或分布在2个或更多个计算机之间。此外,这些部件可从在上面存储有各种数据结构的各种计算机可读介质执行。部件可例如根据具有一个或多个数据分组(例如来自与本地系统、分布式系统和/或网络间的另一部件交互的二个部件的数据,例如通过信号与其它系统交互的互联网)的信号通过本地和/或远程进程来通信。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (43)
1.一种获取神经网络的方法,其特征在于,包括:
基于标准化的参考数据集、一个或多个参考神经网络和性能判断准则,确定构建的目标神经网络是否满足预设的输出条件;
在满足所述输出条件的情况下,输出所述目标神经网络,输出的所述目标神经网络是应用于发射机的发端目标神经网络或应用于接收机中的收端目标神经网络。
2.如权利要求1所述的方法,其特征在于,所述方法还包括:
在不满足所述输出条件的情况下,继续对所述目标神经网络进行优化,直至获得的目标神经网络满足所述输出条件。
3.如权利要求1或2所述的方法,其特征在于,所述发端目标神经网络用于星座调制、信道编码、预编码、或信道信息的提取和压缩;所述收端目标神经网络用于星座解调、信道解码、检测接收、或信道信息的重构。
4.如权利要求1至3中任一项所述的方法,其特征在于,所述方法还包括:
从至少一套标准化的配置中确定适用于所述目标神经网络当前应用场景的配置;每套标准化的配置包括以下一项或多项:标准化的参考数据集、标准化的参考神经网络、标准化的数据结构、标准化的性能度量函数、标准化的性能判断准则、以及标准化的可实现能力度量值;
其中,所述参考神经网络包括应用于接收机中的收端参考神经网络和/或应用于发射机中的发端参考神经网络;所述数据结构用于生成和/或解析空口信息;所述性能度量函数用于生成性能度量值,所述性能判断准则包括性能指标和所述目标神经网络的输出条件,所述性能判断准则用于基于所述性能度量值和所述性能指标,确定所述目标神经网络是否满足所述输出条件;所述可实现能力度量值用于选择匹配的神经网络和/或匹配的性能指标。
5.如权利要求4所述的方法,其特征在于,所述目标神经网络为发端目标神经网络,所述一个或多个参考神经网络为一个或多个收端参考神经网络;以及
所述基于标准化的参考数据集、一个或多个参考神经网络和性能判断准则,确定设计得到的目标神经网络是否满足预设的输出条件,包括:
将从所述参考数据集中获取到的发端数据输入至所述发端目标神经网络中,所述发端目标神经网络用于根据预定义的数据结构对所述发端数据进行处理,以生成待发送给所述一个或多个收端参考神经网络的空口信息;
从所述一个或多个收端参考神经网络获取一个或多个输出结果,所述一个或多个输出结果由所述一个或多个收端参考神经网络分别基于接收到的所述空口信息得到;
将所述一个或多个输出结果和所述发端数据作为所述性能度量函数的输入,以得到一个或多个性能度量值;
根据所述一个或多个性能度量值,以及所述性能判断准则,确定所述目标神经网络是否满足所述输出条件。
6.如权利要求4所述的方法,其特征在于,所述目标神经网络为发端目标神经网络,所述一个或多个参考神经网络为一个或多个发端参考神经网络;以及
所述基于标准化的参考数据集、一个或多个参考神经网络和性能判断准则,确定设计得到的目标神经网络是否满足预设的输出条件,包括:
将从所述参考数据集中获取到的发端数据输入至所述发端目标神经网络中,所述发端目标神经网络用于根据预定义的数据结构对所述发端数据进行处理,以生成目标空口信息;
将所述发端数据输入至所述一个或多个发端参考神经网络中,所述一个或多个发端参考神经网络用于根据预定义的数据结构对所述发端数据进行处理,以生成一个或多个参考空口信息;
将所述一个或多个参考空口信息和所述目标空口信息作为所述性能度量函数的输入,以得到一个或多个性能度量值;
根据所述一个或多个性能度量值,以及所述性能判断准则,确定所述目标神经网络是否满足所述输出条件。
7.如权利要求4所述的方法,其特征在于,所述目标神经网络为收端目标神经网络,所述一个或多个参考神经网络为一个或多个发端参考神经网络;以及
所述基于标准化的参考数据集、一个或多个参考神经网络和性能判断准则,确定设计得到的目标神经网络是否满足预设的输出条件,包括:
将从所述参考数据集中获取到的发端数据输入至所述一个或多个发端参考神经网络中,所述一个或多个发端参考神经网络用于根据预定义的数据结构对所述发端数据进行处理,以得到待发送给所述收端目标神经网络的一个或多个空口信息;
从所述收端目标神经网络获取一个或多个输出结果,所述一个或多个输出结果是所述收端目标神经网络根据接收到的所述一个或多个空口信息分别生成的输出结果;
将所述一个或多个输出结果和所述发端数据作为所述性能度量函数的输入,以得到一个或多个性能度量值;
根据所述一个或多个性能度量值,以及所述性能判断准则,确定所述目标神经网络是否满足所述输出条件。
8.如权利要求4所述的方法,其特征在于,所述目标神经网络为收端目标神经网络,所述一个或多个参考神经网络包括一个或多个发端参考神经网络和一个或多个收端参考神经网络;以及
所述基于标准化的参考数据集、一个或多个参考神经网络和性能判断准则,确定设计得到的目标神经网络是否满足预设的输出条件,包括:
将从所述参考数据集中获取到的发端数据输入至所述一个或多个发端参考神经网络中,所述一个或多个发端参考神经网络用于根据预定义的数据结构对所述发端数据进行处理,以得到待发送给所述收端目标神经网络和所述一个或多个收端参考神经网络的一个或多个空口信息;
从所述收端目标神经网络获取一个或多个目标输出结果,所述一个或多个目标输出结果是所述收端目标神经网络根据接收到的所述一个或多个空口信息分别生成的输出结果;
从所述一个或多个收端参考神经网络获取一个或多个参考输出结果,所述一个或多个参考输出结果是由所述一个或多个收端参考神经网络分别根据接收到的所述一个或多个空口信息生成的输出结果;
将所述一个或多个目标输出结果和所述一个或多个参考输出结果作为所述性能度量函数的输入,以得到一个或多个性能度量值;
根据所述一个或多个性能度量值,以及所述性能判断准则,确定所述目标神经网络是否满足所述输出条件。
9.如权利要求4至8中任一项所述的方法,其特征在于,所述性能度量函数包括以下一项或多项:均方误差、归一化均方误差、平均绝对误差、最大绝对误差、相关系数、交叉熵、互信息、误比特率、或误帧率。
10.如权利要求4至9中任一项所述的方法,其特征在于,所述可实现能力度量值包括以下一项或多项:空口信息的开销、神经网络实现所需计算量、神经网络实现所存储的参数量、以及神经网络实现所需的计算精度。
11.如权利要求4至10中任一项所述的方法,其特征在于,所述性能指标包括一个或多个性能指标,所述性能判断准则包括基于所述性能度量值与所述一个或多个性能指标的比较,确定是否满足所述输出条件。
12.一种通信方法,其特征在于,包括:
第一设备基于与第二设备之间的空口传输条件,确定场景模式,所述场景模式用于确定适用于当前空口传输条件的神经网络,所述神经网络是从预先设计得到的多个神经网络中确定的,所述多个神经网络中的每个神经网络与一种或多种场景模式相匹配;
所述第一设备向所述第二设备发送所述场景模式的指示信息。
13.如权利要求12所述的方法,其特征在于,所述多个神经网络中的每个神经网络是基于标准化的参考数据集、标准化的参考神经网络以及标准化的性能判断准则获得的神经网络。
14.如权利要求12或13所述的方法,其特征在于,所述方法还包括:
所述第一设备接收来自所述第二设备的确认信息,所述确认信息用于指示对所述场景模式的指示信息的成功接收。
15.如权利要求12至14中任一项所述的方法,其特征在于,所述方法还包括:
所述第一设备采用与所述场景模式匹配的神经网络与所述第二设备通信。
16.如权利要求12至15中任一项所述的方法,其特征在于,所述第一设备为网络设备,所述第二设备为终端设备;或,所述第一设备为终端设备,所述第二设备为网络设备。
17.一种通信方法,其特征在于,包括:
第二设备接收来自第一设备的场景模式的指示信息,所述场景模式用于确定适用于当前空口传输条件的神经网络,所述神经网络是从预先设计得到的多个神经网络中确定的,所述多个神经网络中的每个神经网络与一种或多种场景模式相匹配;
所述第二设备根据所述场景模式的指示信息,确定所述场景模式;
所述第二设备根据所述场景模式,确定适用于所述空口传输条件的神经网络。
18.如权利要求17所述的方法,其特征在于,所述多个神经网络中的每个神经网络是基于标准化的参考数据集、标准化的参考神经网络以及标准化的性能判断准则获得的神经网络。
19.如权利要求17或18所述的方法,其特征在于,所述方法还包括:
所述第二设备向所述第一设备发送确认信息,所述确认信息用于指示对所述场景模式的指示信息的成功接收。
20.如权利要求17至19中任一项所述的方法,其特征在于,所述方法还包括:
所述第二设备采用与所述场景模式相匹配的神经网络与所述第一设备通信。
21.如权利要求17至20中任一项所述的方法,其特征在于,所述第一设备为网络设备,所述第二设备为终端设备;或,所述第一设备为终端设备,所述第二设备为网络设备。
22.一种获取神经网络的装置,其特征在于,包括:
处理单元,用于基于标准化的参考数据集、一个或多个参考神经网络和性能判断准则,确定设计得到的目标神经网络是否满足预设的输出条件;
输入输出单元,用于在满足所述输出条件的情况下,输出所述目标神经网络,输出的所述目标神经网络是应用于发射机的发端目标神经网络或应用于接收机中的收端目标神经网络。
23.如权利要求22所述的装置,其特征在于,所述处理单元还用于在不满足所述输出条件的情况下,继续对所述目标神经网络进行优化,直至获得的目标神经网络满足所述输出条件。
24.如权利要求22或23所述的装置,其特征在于,所述发端目标神经网络用于星座调制、信道编码、预编码、或信道信息的提取和压缩;所述收端目标神经网络用于星座解调、信道解码、检测接收、或信道信息的重构。
25.如权利要求22至24中任一项所述的装置,其特征在于,所述处理单元还用于从至少一套标准化的配置中确定适用于所述目标神经网络当前应用场景的配置;每套标准化的配置包括以下一项或多项:标准化的参考数据集、标准化的参考神经网络、标准化的数据结构、标准化的性能度量函数、标准化的性能判断准则、以及标准化的可实现能力度量值;
其中,所述参考神经网络包括应用于接收机中的收端参考神经网络和/或应用于发射机中的发端参考神经网络;所述数据结构用于生成和/或解析空口信息;所述性能度量函数用于生成性能度量值,所述性能判断准则包括性能指标和所述目标神经网络的输出条件,所述性能判断准则用于基于所述性能度量值和所述性能指标,确定所述目标神经网络是否满足所述输出条件;所述可实现能力度量值用于选择匹配的神经网络和/或匹配的性能指标。
26.如权利要求25所述的装置,其特征在于,所述目标神经网络为收端目标神经网络,所述一个或多个参考神经网络包括一个或多个发端参考神经网络和一个或多个收端参考神经网络;
所述输入输出单元还用于:
将从所述参考数据集中获取到的发端数据输入至所述发端目标神经网络中,所述发端目标神经网络用于根据预定义的数据结构对所述发端数据进行处理,以生成待发送给所述一个或多个收端参考神经网络的空口信息;
从所述一个或多个收端参考神经网络获取一个或多个输出结果,所述一个或多个输出结果由所述一个或多个收端参考神经网络分别基于接收到的所述空口信息得到;
将所述一个或多个输出结果和所述发端数据作为所述性能度量函数的输入,以得到一个或多个性能度量值;
所述处理单元具体用于:
根据所述一个或多个性能度量值,以及所述性能判断准则,确定所述目标神经网络是否满足所述输出条件。
27.如权利要求25所述的装置,其特征在于,所述目标神经网络为发端目标神经网络,所述一个或多个参考神经网络为一个或多个发端参考神经网络;
所述输入输出单元还用于:
将从所述参考数据集中获取到的发端数据输入至所述发端目标神经网络中,所述发端目标神经网络用于根据预定义的数据结构对所述发端数据进行处理,以生成目标空口信息;
将所述发端数据输入至所述一个或多个发端参考神经网络中,所述一个或多个发端参考神经网络用于根据预定义的数据结构对所述发端数据进行处理,以生成一个或多个参考空口信息;
将所述一个或多个参考空口信息和所述目标空口信息作为所述性能度量函数的输入,以得到一个或多个性能度量值;
所述处理单元具体用于:
根据所述一个或多个性能度量值,以及所述性能判断准则,确定所述目标神经网络是否满足所述输出条件。
28.如权利要求25所述的装置,其特征在于,所述目标神经网络为收端目标神经网络,所述一个或多个参考神经网络为一个或多个发端参考神经网络;
所述输入输出单元还用于:
将从所述参考数据集中获取到的发端数据输入至所述一个或多个发端参考神经网络中,所述一个或多个发端参考神经网络用于根据预定义的数据结构对所述发端数据进行处理,以得到待发送给所述收端目标神经网络的一个或多个空口信息;
从所述收端目标神经网络获取一个或多个输出结果,所述一个或多个输出结果是所述收端目标神经网络根据接收到的所述一个或多个空口信息分别生成的输出结果;
将所述一个或多个输出结果和所述发端数据作为所述性能度量函数的输入,以得到一个或多个性能度量值;
所述处理单元具体用于:
根据所述一个或多个性能度量值,以及所述性能判断准则,确定所述目标神经网络是否满足所述输出条件。
29.如权利要求25所述的装置,其特征在于,所述目标神经网络为收端目标神经网络,所述一个或多个参考神经网络包括一个或多个发端参考神经网络和一个或多个收端参考神经网络;
所述输入输出单元还用于:
将从所述参考数据集中获取到的发端数据输入至所述一个或多个发端参考神经网络中,所述一个或多个发端参考神经网络用于根据预定义的数据结构对所述发端数据进行处理,以得到待发送给所述收端目标神经网络和所述一个或多个收端参考神经网络的一个或多个空口信息;
从所述收端目标神经网络获取一个或多个目标输出结果,所述一个或多个目标输出结果是所述收端目标神经网络根据接收到的所述一个或多个空口信息分别生成的输出结果;
从所述一个或多个收端参考神经网络获取一个或多个参考输出结果,所述一个或多个参考输出结果是由所述一个或多个收端参考神经网络分别根据接收到的所述一个或多个空口信息生成的输出结果;
将所述一个或多个目标输出结果和所述一个或多个参考输出结果作为所述性能度量函数的输入,以得到一个或多个性能度量值;
所述处理单元具体用于:
根据所述一个或多个性能度量值,以及所述性能判断准则,确定所述目标神经网络是否满足所述输出条件。
30.如权利要求25至29中任一项所述的装置,其特征在于,所述性能度量函数包括以下一项或多项:均方误差、归一化均方误差、平均绝对误差、最大绝对误差、相关系数、交叉熵、互信息、误比特率、或误帧率。
31.如权利要求25至30中任一项所述的装置,其特征在于,所述可实现能力度量值包括以下一项或多项:空口信息的开销、神经网络实现所需计算量、神经网络实现所存储的参数量、以及神经网络实现所需的计算精度。
32.如权利要求25至31中任一项所述的装置,其特征在于,所述性能指标包括一个或多个性能指标,所述性能判断准则包括基于所述性能度量值与所述一个或多个性能指标的比较,确定是否满足所述输出条件。
33.一种通信装置,其特征在于,包括:
处理单元,用于基于与第二设备之间的空口传输条件,确定场景模式,所述场景模式用于确定适用于所述空口传输条件的神经网络,所述神经网络是从预先设计得到的多个神经网络中确定的,所述多个神经网络中的每个神经网络与一种或多种场景模式相匹配;
收发单元,用于向所述第二设备发送所述信道状态模式的指示信息。
34.如权利要求33所述的装置,其特征在于,所述多个神经网络中的每个神经网络是基于标准化的参考数据集、标准化的参考神经网络以及标准化的性能判断准则获得的神经网络。
35.如权利要求33或34所述的装置,其特征在于,所述收发单元还用于接收来自所述第二设备的确认信息,所述确认信息用于指示对所述场景模式的指示信息的成功接收。
36.如权利要求33至35中任一项所述的装置,其特征在于,所述处理单元还用于采用与所述场景模式匹配的神经网络与所述第二设备通信。
37.如权利要求33至36中任一项所述的装置,其特征在于,所述装置为网络设备,所述第二设备为终端设备;或,所述装置为终端设备,所述第二设备为网络设备。
38.一种通信装置,其特征在于,包括:
收发单元,用于接收来自第一设备的场景模式的指示信息,所述场景模式用于确定适用于当前空口传输条件的神经网络,所述神经网络是从预先设计得到的多个神经网络中确定的,所述多个神经网络中的每个神经网络与一种或多种场景模式相匹配;
处理单元,用于根据所述场景模式的指示信息,确定所述场景模式;并用于根据所述场景模式,确定适用于所述空口传输条件的神经网络。
39.如权利要求38所述的装置,其特征在于,所述多个神经网络中的每个神经网络是基于标准化的参考数据集、标准化的参考神经网络以及标准化的性能判断准则获得的神经网络。
40.如权利要求38或39所述的装置,其特征在于,所述收发单元还用于向所述第一设备发送确认信息,所述确认信息用于指示对所述场景模式的指示信息的成功接收。
41.如权利要求38至40中任一项所述的装置,其特征在于,所述处理单元还用于采用与所述场景模式相匹配的神经网络与所述第一设备通信。
42.如权利要求38至41中任一项所述的装置,其特征在于,所述装置为终端设备,所述第一设备为网络设备,或,所述装置为网络设备,所述第一设备为终端设备。
43.一种计算机可读存储介质,其特征在于,包括计算机程序,当所述计算机程序在计算机上运行时,使得所述计算机执行如权利要求1至21中任一项所述的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010615552.9A CN113873539B (zh) | 2020-06-30 | 2020-06-30 | 获取神经网络的方法和装置 |
PCT/CN2021/102079 WO2022001822A1 (zh) | 2020-06-30 | 2021-06-24 | 获取神经网络的方法和装置 |
EP21833854.9A EP4163827A4 (en) | 2020-06-30 | 2021-06-24 | METHOD AND DEVICE FOR ACQUIRING AN ARTIFICIAL NEURAL NETWORK |
US18/147,111 US20230136416A1 (en) | 2020-06-30 | 2022-12-28 | Neural network obtaining method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010615552.9A CN113873539B (zh) | 2020-06-30 | 2020-06-30 | 获取神经网络的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113873539A true CN113873539A (zh) | 2021-12-31 |
CN113873539B CN113873539B (zh) | 2024-09-20 |
Family
ID=78981477
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010615552.9A Active CN113873539B (zh) | 2020-06-30 | 2020-06-30 | 获取神经网络的方法和装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230136416A1 (zh) |
EP (1) | EP4163827A4 (zh) |
CN (1) | CN113873539B (zh) |
WO (1) | WO2022001822A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115114395A (zh) * | 2022-04-15 | 2022-09-27 | 腾讯科技(深圳)有限公司 | 内容检索及模型训练方法、装置、电子设备和存储介质 |
WO2024138384A1 (zh) * | 2022-12-27 | 2024-07-04 | Oppo广东移动通信有限公司 | 通信方案监测方法和设备 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022120625A1 (en) * | 2020-12-09 | 2022-06-16 | Qualcomm Incorporated | Communications using a neural network based at least in part on an indicated input size and/or input structure |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229647A (zh) * | 2017-08-18 | 2018-06-29 | 北京市商汤科技开发有限公司 | 神经网络结构的生成方法和装置、电子设备、存储介质 |
CN109902186A (zh) * | 2019-03-12 | 2019-06-18 | 北京百度网讯科技有限公司 | 用于生成神经网络的方法和装置 |
US20200134471A1 (en) * | 2018-10-29 | 2020-04-30 | Beijing Horizon Robotics Technology Research And Development Co., Ltd. | Method for Generating Neural Network and Electronic Device |
CN111091175A (zh) * | 2018-10-23 | 2020-05-01 | 北京嘀嘀无限科技发展有限公司 | 神经网络模型训练方法、分类方法、装置和电子设备 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11657264B2 (en) * | 2018-04-09 | 2023-05-23 | Nokia Technologies Oy | Content-specific neural network distribution |
EP3598651B1 (en) * | 2018-07-19 | 2023-08-30 | Rohde & Schwarz GmbH & Co. KG | Method and apparatus for signal matching |
WO2020026741A1 (ja) * | 2018-08-03 | 2020-02-06 | ソニー株式会社 | 情報処理方法、情報処理装置及び情報処理プログラム |
CN111340216A (zh) * | 2020-02-24 | 2020-06-26 | 上海商汤智能科技有限公司 | 网络融合方法、网络融合装置、电子设备及存储介质 |
-
2020
- 2020-06-30 CN CN202010615552.9A patent/CN113873539B/zh active Active
-
2021
- 2021-06-24 WO PCT/CN2021/102079 patent/WO2022001822A1/zh active Search and Examination
- 2021-06-24 EP EP21833854.9A patent/EP4163827A4/en active Pending
-
2022
- 2022-12-28 US US18/147,111 patent/US20230136416A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229647A (zh) * | 2017-08-18 | 2018-06-29 | 北京市商汤科技开发有限公司 | 神经网络结构的生成方法和装置、电子设备、存储介质 |
CN111091175A (zh) * | 2018-10-23 | 2020-05-01 | 北京嘀嘀无限科技发展有限公司 | 神经网络模型训练方法、分类方法、装置和电子设备 |
US20200134471A1 (en) * | 2018-10-29 | 2020-04-30 | Beijing Horizon Robotics Technology Research And Development Co., Ltd. | Method for Generating Neural Network and Electronic Device |
CN109902186A (zh) * | 2019-03-12 | 2019-06-18 | 北京百度网讯科技有限公司 | 用于生成神经网络的方法和装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115114395A (zh) * | 2022-04-15 | 2022-09-27 | 腾讯科技(深圳)有限公司 | 内容检索及模型训练方法、装置、电子设备和存储介质 |
CN115114395B (zh) * | 2022-04-15 | 2024-03-19 | 腾讯科技(深圳)有限公司 | 内容检索及模型训练方法、装置、电子设备和存储介质 |
WO2024138384A1 (zh) * | 2022-12-27 | 2024-07-04 | Oppo广东移动通信有限公司 | 通信方案监测方法和设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2022001822A1 (zh) | 2022-01-06 |
CN113873539B (zh) | 2024-09-20 |
EP4163827A1 (en) | 2023-04-12 |
US20230136416A1 (en) | 2023-05-04 |
EP4163827A4 (en) | 2023-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022012257A1 (zh) | 通信的方法及通信装置 | |
WO2022033456A1 (zh) | 一种信道状态信息测量反馈方法及相关装置 | |
CN113873539B (zh) | 获取神经网络的方法和装置 | |
WO2021217519A1 (zh) | 用于调整神经网络的方法和装置 | |
CN109873665B (zh) | 数据传输的方法和设备 | |
WO2021142605A1 (zh) | 用于信道测量的方法和装置 | |
CN116097591A (zh) | 用于信道状态信息的处理时间线考虑因素 | |
US20240030980A1 (en) | Data transmission method and apparatus | |
US11956031B2 (en) | Communication of measurement results in coordinated multipoint | |
WO2022037390A1 (zh) | 一种数据传输方法及装置 | |
CN114492784A (zh) | 神经网络的测试方法和装置 | |
CN109391432B (zh) | 参考信号配置的方法和装置 | |
WO2023006096A1 (zh) | 一种通信方法及装置 | |
US20210006316A1 (en) | Method to estimate snr for mu-mimo based on channel orthogonality | |
CN116982300A (zh) | 信号处理的方法及接收机 | |
CN112888076A (zh) | 一种调度方法及装置 | |
WO2023092310A1 (zh) | 信息处理方法、模型生成方法及设备 | |
WO2023092307A1 (zh) | 通信方法、模型训练方法和设备 | |
WO2023115254A1 (zh) | 处理数据的方法及装置 | |
US20240259072A1 (en) | Model processing method, electronic device, network device, and terminal device | |
WO2023125240A1 (zh) | 信道数据处理或反处理方法与装置、终端和网络设备 | |
CN118509014A (zh) | 一种通信的方法和通信装置 | |
Ji et al. | MuSAC: Mutualistic Sensing and Communication for Mobile Crowdsensing | |
WO2024125770A1 (en) | Transmission channel representation | |
CN116961711A (zh) | 一种通信方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |