CN117499981A - 一种无线局域网中通信的方法和装置 - Google Patents
一种无线局域网中通信的方法和装置 Download PDFInfo
- Publication number
- CN117499981A CN117499981A CN202210885655.6A CN202210885655A CN117499981A CN 117499981 A CN117499981 A CN 117499981A CN 202210885655 A CN202210885655 A CN 202210885655A CN 117499981 A CN117499981 A CN 117499981A
- Authority
- CN
- China
- Prior art keywords
- neural network
- information
- request
- site
- vendor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 155
- 238000004891 communication Methods 0.000 title claims abstract description 101
- 238000013528 artificial neural network Methods 0.000 claims abstract description 585
- 230000004044 response Effects 0.000 claims abstract description 125
- 238000004590 computer program Methods 0.000 claims description 11
- 230000005059 dormancy Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 42
- 238000003062 neural network model Methods 0.000 description 32
- 210000002569 neuron Anatomy 0.000 description 23
- 238000010586 diagram Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 17
- 238000012549 training Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 7
- 230000007958 sleep Effects 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000001537 neural effect Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000008520 organization Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- VYLDEYYOISNGST-UHFFFAOYSA-N bissulfosuccinimidyl suberate Chemical compound O=C1C(S(=O)(=O)O)CC(=O)N1OC(=O)CCCCCCC(=O)ON1C(=O)C(S(O)(=O)=O)CC1=O VYLDEYYOISNGST-UHFFFAOYSA-N 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/16—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/10—Scheduling measurement reports ; Arrangements for measurement reports
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本申请涉及通信领域,尤其涉及WLAN中通信的方法和装置,该方案可以应用于支持IEEE 802.11ax下一代Wi‑Fi协议,如802.11be,Wi‑Fi 7或EHT,再如802.11be下一代,Wi‑Fi 8等802.11系列协议的WLAN系统,还可以应用于基于UWB的无线个人局域网系统,例如802.15系列标准,或者,应用于感知系统,例如802.11bf系列标准。该方法包括:请求站点通过请求向响应站点请求神经网络的信息,进而响应站点可以根据请求向请求站点发送所请求的神经网络的信息,且神经网络的信息和厂商信息关联,如此,使得站点能够获得合适的神经网络的信息进行通信决策,保证站点的通信性能。
Description
技术领域
本申请涉及通信技术的领域,并且更具体地,涉及一种无线局域网中通信的方法和装置。
背景技术
随着无线通信迅猛发展,新型无线技术、新型终端、新型应用层出不穷,使无线网络变得空前复杂。人工智能(artificial intelligence,AI)应用在无线网络中,可以有助于更准确地预测信道、业务特征、用户行为等,在无线网络中的优势已经成为业界的共识。其中,AI可以通过神经网络(neural network,NN)应用于无线网络中,以提高无线网络的通信性能。
在无线局域网(wireless local area network,WLAN)中,由于大部分站点具有高移动性,其所在的无线局域网网络环境经常变化,例如,站点休眠一段时间,其所处的无线网络环境可能已经发生变化。又如,非接入点站点从当前接入点切换到新的接入点,其所处的无线网络环境也可能发生变化。一套神经网络很难应用到所有场景,针对变化的无线网络环境,若使用未经更新的或者其他不合适的神经网络,将会影响站点的通信决策,例如,影响站点选择不合适的信道或者传输速率等,这将会进一步影响站点的通信性能。
发明内容
本申请提供一种无线局域网中通信的方法和装置,将神经网络的信息和厂商信息相关联,使得站点能够获得合适的神经网络的信息进行通信决策,能够在变化的无线网络环境中,保证站点的通信性能。
第一方面,提供了一种无线局域网中通信的方法,该方法由站点(station,STA)执行。该站点可以是终端,也可以是配置于终端中的芯片、电路或模块,本申请对此不作限定。
作为示例,该站点可以是请求站点。
该方法包括:请求站点发送请求,该请求用于请求神经网络的信息;请求站点接收来自响应站点的响应,该响应包括请求的神经网络的信息,该神经网络的信息和该厂商信息关联。
基于上述方案,请求站点可以通过请求向响应站点请求神经网络的信息,进而响应站点可以向请求站点发送所请求的神经网络的信息,且该神经网络的信息和厂商信息关联,通过这种方式,使得站点能够获得合适的神经网络的信息进行通信决策,保证站点的通信性能。
另一方面,这种方式避免了站点从云端或服务器获取到不合适的神经网络的信息,也避免了站点花费较长时间训练神经网络,有助于减小通信时延。
此外,这种方式避免了站点不断训练神经网络,有助于减小站点的功耗,从而有助于站点节能。
示例性地,请求站点可以是接入点(access point,AP),也可以是非AP站点(non-AP STA)。
类似地,响应站点可以是非AP站点,也可以是AP。
结合第一方面,在一些实现方式中,该请求包括厂商信息,或,包括神经网络的标识信息。
基于上述方案,请求站点能够基于厂商信息或神经网络的标识信息从响应站点获得相应的神经网络的信息,具有更高的通信效率。
结合第一方面,在一些实现方式中,该响应包括厂商信息。
基于上述方案,响应站点能够向请求站点发送神经网路的信息,以及该神经网络的信息关联的厂商信息,有助于响应站点基于厂商信息进行通信决策。
可选地,响应也包括神经网络的标识信息。
在一些示例中,神经网络的信息可以包括神经网络的参数,也可以包括神经网络的结构。
在一些示例中,厂商信息包括多个厂商信息。
具体地,例如,请求可以包括多个厂商信息,该多个厂商可以包括请求站点所属的厂商,也可以包括请求站点支持的厂商。又如,响应可以包括多个厂商信息,该多个厂商可以包括响应站点所属的厂商,也可以包括响应站点支持的厂商。如此,使得支持相同神经网络的厂商的设备之间可以快速交互神经网络的信息,具有更高的通信效率。
例如,该厂商信息为设备制造商对应的厂商的信息。
换言之,请求或中可以包括请求站点的设备制造商,或者,响应中可以包括响应站点的设备制造商。
结合第一方面,在一些实现方式中,请求包括基本服务集(basic service set,BSS)的标识信息,响应中的神经网络的信息与该BSS的标识信息关联。
这样,站点可以更准确获取到目标BSS的神经网络的信息。
可选地,请求中包括的基本服务集BSS的标识信息用于标识该请求站点所属的BSS。
结合第一方面,在一些实现方式中,请求包括请求的神经网络的预设条件,请求用于请求满足预设条件的神经网络的信息。
基于上述方案,请求站点可以向响应站点发送满足预设条件的神经网络的信息,如此,使得请求站点终端能够获得更适合的神经网络的信息,有助于更好的实现通信决策。
在一些示例中,预设条件包括以下至少一个:神经网络的生成时间、神经网络的精确度、神经网络的模型大小。
本申请中,“神经网络的生成时间”与“神经网络的信息的生成时间”指示相同的含义,其可以相互替换,不予限制,“神经网络的精确度”与“神经网络的信息的精确度”指示相同的含义,其可以相互替换,不予限制。
结合第一方面,在一些实现方式中,响应包括多个神经网络的信息。
如此,请求站点可以从多个神经网络的信息中选择一个神经网络的信息。
本申请中,对于多个结构相同而参数不同的神经网络,可以理解为一个神经网络的多个信息,也可以理解为多个“神经网络的信息”,也可以理解为多个神经网络。
基于上述方案,响应站点可以向请求站点发送多个神经网络的信息,如此,使得请求站点能够选择更适合的神经网络的信息,有助于更好的实现通信决策。
在一些示例中,该响应还包括多个神经网络的属性信息,属性信息包括多个神经网络的生成时间,或,多个神经网络的精确度,或,多个神经网络的模型大小。
可选地,请求站点可以根据上述属性信息从多个神经网络的信息中选择一个神经网络的信息。
基于上述方案,属性信息包括神经网络的生成时间、精确度等,有助于请求站点选择生成时间更近、精确度更好的神经网络的信息,有助于更好的实现通信决策。
结合第一方面,在一些实现方式中,请求站点发送请求的触发条件,包括:请求站点存储的神经网络的信息超过预设时间未更新;或,请求站点存储的神经网络的精确度小于阈值;或,请求站点未存储神经网络的信息或未存储任意神经网络的信息;或,请求站点存储的与厂商信息相关的神经网络的信息超过预设时间未更新;或,请求站点未存储有与厂商信息相关的神经网络的信息。
基于上述方案,请求站点可以在上述任一种触发条件的触发下发送请求,以所需的获得神经网络的信息。
结合第一方面,在一些实现方式中,请求站点发送请求的触发条件包括:请求站点休眠后唤醒;或,请求站点的无线局域网的网络环境发生变化。
基于上述方案,请求站点可以在上述任一种触发条件的触发下发送请求,以所需的获得神经网络的信息。
第二方面,提供了一种无线局域网中通信的方法,该方法可以由站点执行,该站点可以是终端,也可以是配置于终端中的芯片、电路或模块,本申请对此不作限定。
作为示例,该站点可以是响应站点。
该方法包括:响应站点接收来自请求站点的请求,该请求用于请求神经网络的信息;响应站点根据请求向请求站点发送响应,该响应包括所请求的神经网络的信息,该神经网络的信息和厂商信息关联。
在一些示例中,神经网络的信息包括神经网络的参数和/或神经网络的结构。
在一些示例中,该厂商信息包括多个厂商信息。
例如,该厂商信息为设备制造商对应的厂商的信息。
结合第二方面,在一些实现方式中,该请求包括厂商信息,或包括神经网络的标识信息。
可选地,响应也包括神经网络的标识信息。
结合第二方面,在一些实现方式中,请求包括基本服务集BSS的标识信息,响应中的神经网络的信息与该BSS的标识信息关联。
可选地,请求包括请求的神经网络的预设条件,请求用于请求满足预设条件的神经网络的信息。
其中,该方法还可以包括:接入点根据预设条件从多个神经网络的信息中选择一个神经网络的信息。
在一些示例中,该预设条件包括以下至少一个:神经网络的生成时间、神经网络的精确度、神经网络的模型大小。
结合第二方面,在一些实现方式中,该响应包括厂商信息。
可选地,响应包括多个神经网络的信息。
在一些示例中,响应还包括或多个神经网络的属性信息,该属性信息包括多个神经网络的生成时间,或,多个神经网络的精确度,或,多个神经网络的模型大小。
应理解,上述第二方面及其各种实现方式的有益效果可以参考第一方面及第一方面的各种实现方式。
结合第二方面,在一些实现方式中,请求站点发送请求的触发条件,包括:请求站点存储的神经网络的信息超过预设时间未更新;或,请求站点存储的神经网络的精确度小于阈值;或,请求站点未存储神经网络的信息或未存储任意神经网络的信息;或,请求站点存储的与厂商信息相关的神经网络的信息超过预设时间未更新;或,请求站点未存储有与厂商信息相关的神经网络的信息。
结合第二方面,在一些实现方式中,请求站点发送请求的触发条件包括:请求站点休眠后唤醒;或,请求站点的无线局域网的网络环境发生变化。
第三方面,提供一种通信装置,所述通信装置具有实现上述第一方面和第二方面中任一可能的实现方式的方法的功能。所述功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。所述硬件或软件包括一个或多个与上述功能相对应的单元。
第四方面,提供一种通信装置,包括处理器和存储器。可选地,还可以包括收发器。其中,存储器用于存储计算机程序,处理器用于调用并运行存储器中存储的计算机程序,并控制收发器收发信号,以使通信装置执行如上述第一方面和第二方面的任一可能的实现方式中的方法。
第五方面,提供一种通信装置,包括处理器和通信接口,所述通信接口用于接收数据和/或信息,并将接收到的数据和/或信息传输至所述处理器,所述处理器处理所述数据和/或信息,以及,通信接口还用于输出经处理器处理之后的数据和/或信息,以使得如上述第一方面和第二方面的任一可能的实现方式的方法被执行。
第六方面,提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机指令,当计算机指令在计算机上运行时,使得如上述第一方面和第二方面的任一可能的实现方式中的方法被执行。
第七方面,提供一种计算机程序产品,所述计算机程序产品包括计算机程序代码,当所述计算机程序代码在计算机上运行时,使得如上述第一方面和第二方面的任一可能的实现方式中的方法被执行。
第八方面,提供一种无线通信系统,包括上述第一方面中的请求站点和第二方面中的响应站点。
附图说明
图1为本申请实施例提供的系统架构100的示意图和装置的结构的示意图。
图2是一种神经网络的结构的示意图。
图3是一个神经元根据输入计算输出的示意图。
图4示出了站点的无线网络环境发生变化的一种示意图。
图5示出了一种神经网络参数的更新方法的示意图。
图6是本申请实施例提供的一种无线局域网中通信的方法200的示意性流程图。
图7是本申请实施例提供的一种无线局域网中通信的方法300的示意性流程图。
图8是本申请实施例提供的一种无线局域网中通信的方法400的示意性流程图。
图9是本申请实施例提供的一种无线局域网中通信的方法500的示意性流程图。
图10是本申请实施例提供的一种通信装置600的示意图。
图11是本申请实施例提供的通信装置700的示意性结构图。
图12是本申请实施例提供的通信装置800的示意性结构图。
具体实施方式
下面将结合附图,对本申请中的技术方案进行描述。
本申请实施例提供的技术方案可以适用于无线局域网(wireless local areanetwork,WLAN)场景,例如,支持电气和电子工程师协会(Institute of Electrical andElectronics Engineers,IEEE)802.11相关标准,例如802.11a/b/g标准、802.11n标准、802.11ac标准、802.11ax标准、IEEE 802.11ax下一代Wi-Fi协议,如802.11be、Wi-Fi 7、极高吞吐量(extremely high throughput,EHT)、802.11ad、802.11ay或802.11bf,再如802.11be下一代、Wi-Fi 8等,还可以应用于基于超宽带(Ultra wide band,UWB)的无线个人局域网系统,例如802.15系列标准,或者,应用于感知(sensing)系统,例如802.11bf系列标准。其中,802.11bf包括低频(sub7GHz)和高频(60GHz)两个大类标准。sub7GHz的实现方式主要依托802.11ac、802.11ax、802.11be及下一代等标准,60GHz实现方式主要依托802.11ad、802.11ay及下一代等标准。
虽然本申请实施例主要以部署WLAN网络,尤其是应用IEEE 802.11系统标准的网络为例进行说明,本领域技术人员容易理解,本申请实施例涉及的各个方面可以扩展到采用各种标准或协议的其它网络,例如,高性能无线局域网(high performance radio localarea network,HIPERLAN)、无线广域网(wireless wide area network,WWAN)、无线个人区域网(wireless personal area network,WPAN)或其它现在已知或以后发展起来的网络。因此,无论使用的覆盖范围和无线接入协议如何,本申请实施例提供的各种方面可以适用于任何合适的无线网络。
本申请实施例的技术方案还可以应用于各种通信系统,例如:WLAN通信系统,无线保真(wireless fidelity,Wi-Fi)系统、长期演进(long term evolution,LTE)系统、LTE频分双工(frequency division duplex,FDD)系统、LTE时分双工(time division duplex,TDD)、通用移动通信系统(universal mobile telecommunication system,UMTS)、全球互联微波接入(worldwide interoperability for microwave access,WiMAX)通信系统、第五代(5th generation,5G)系统或新无线(new radio,NR)系统、未来第六代(6thgeneration,6G)系统、物联网(internet of things,IoT)网络或车联网(vehicle to x,V2X)等无线局域网系统。
上述适用本申请的通信系统仅是举例说明,适用本申请的通信系统不限于此,在此统一说明,以下不再赘述。
图1为本申请实施例提供的系统架构100的示意图和装置的结构的示意图。其中,图1的(a)为适用于本申请实施例的系统架构100的示例。如图1的(a)所示,该系统100中包括多个站点(station,STA),其中,站点可以是接入点(access point,AP)110和接入点AP120,也可以是接入点AP 110关联的非AP站点(non-AP STA),例如,非AP STA 111、非AP STA112、非AP STA 113,与接入点AP2关联的非AP站点,例如,非AP STA 121、非AP STA 122、非AP STA 123。其中,AP 110、非APSTA 111、非AP STA 112、非AP STA 113构成基本服务集(basic service set,BSS)1,AP 120、非AP STA 121、非AP STA 122、非AP STA 123构成BSS2。
应理解,本申请中,在没有特别说明的情况下,站点指的是广义的站点,其包括AP和非AP STA。
作为示例,图1的(a)所示的系统架构可以应用于物联网产业、车联网产业、银行业、企业办公、体育场馆展馆、音乐厅、酒店客房、宿舍、病房、教室、商超、广场、街道、生成车间和仓储等。
其中,接入点可以为终端(例如,手机)进入有线(或无线)网络的接入点,主要部署于家庭、大楼内部以及园区内部,典型覆盖半径为几十米至上百米,当然,也可以部署于户外。接入点相当于一个连接有线网和无线网的桥梁,主要作用是将各个无线网络客户端连接到一起,然后将无线网络接入以太网。
具体的,接入点可以是带有Wi-Fi芯片的终端或者网络设备,该网络设备可以为路由器、中继站、车载设备、可穿戴设备、5G网络中的网络设备以及未来6G网络中的网络设备或者公用陆地移动通信网络(public land mobile network,PLMN)中的网络设备等,本申请实施例并不限定。接入点可以为支持802.11be制式的设备。接入点也可以为支持802.11ax、802.11ac、802.11n、802.11g、802.11b、802.11a以及802.11be下一代等802.11家族的多种WLAN制式的设备。本申请中的接入点可以是高效(high efficient,HE)AP或极高吞吐量(extremely high throughput,EHT)AP,还可以是适用未来某代Wi-Fi标准的接入点。
非AP站点可以为无线通讯芯片、无线传感器或无线通信终端等,也可称为用户、用户设备(user equipment,UE)、接入终端、用户单元、用户站、移动站、移动台、远方站、远程终端、移动设备、用户终端、终端、无线通信设备、用户代理或用户装置。非AP站点可以是蜂窝电话、无绳电话、会话启动协议(session initiation protocol,SIP)电话、无线本地环路(wireless local loop,WLL)站、个人数字处理(personal digital assistant,PDA)、具有无线通信功能的手持设备、计算设备或连接到无线调制解调器的其它处理设备、车载设备、物联网设备、可穿戴设备、5G网络中的终端设备、未来6G网络中的终端设备或者PLMN中的终端设备等,本申请实施例对此并不限定。非AP站点可以支持802.11be制式。非AP站点也可以支持802.11ax、802.11ac、802.11n、802.11g、802.11b、802.11a、802.11be下一代等802.11家族的多种WLAN制式。
作为示例,本申请中的接入点或非AP站点可以是智慧城市中的传感器节点,如智能水表、智能电表、智能空气检测节点,也可以是智慧家居中的智能设备,如智能摄像头、投影仪、显示屏、电视机、音响、电冰箱、洗衣机等,也可以是娱乐终端,如虚拟现实(virtualreality,VR)和增强现实(augmented reality,AR)等可穿戴设备,也可以是智能办公中的智能设备,如打印机、投影仪、扩音器、音响等,也可以是日常生活场景中的基础设施,如自动售货机、商超的自助导航台、自助收银设备、自助点餐机等,还可以是车联网中的车联网设备、物联网中的节点、以及大型体育以及音乐场馆的设备等。
其中,接入点和非AP站点具有一定的人工智能(artificial intelligence,AI)能力,可以使用神经网络进行推理决策,非AP站点和/或接入点还可以进行神经网络的训练。
图1的(b)为本申请实施例提供的装置的结构示意图。其中,该装置可以是接入点,也可以是非AP站点,该装置的内部功能模块包括中央处理器、媒体接入控制(media accesscontrol,MAC)处理模块、收发机、天线、以及神经网络处理单元(neural networkprocessing unit,NPU)。其中,收发机中包括物理层(physical layer,PHY)处理模块,NPU包括推理模块,可选地,NPU还包括训练模块。例如,对于一些IoT终端,训练模块是可选的。其中,训练模块用于训练神经网,并输出神经网络参数,训练好的神经网络参数会反馈给推理模块。NPU可以作用到该设备的各个其他模块,包括中央处理器、MAC处理模块、收发机和天线。NPU可以作用到各个模块的决策类任务,例如,和收发机交互,决策收发机的开关用于节能,例如,与天线交互,控制天线的朝向,例如,与MAC处理模块交互,控制信道接入、信道选择和空间复用决策等。本申请的方案能够获得合适的神经网络的信息进行通信决策,该神经网络的信息可以应用于MAC处理模块的通信决策,也可以应用于收发机的通信决策,本申请对此不作限定。其中,收发机的通信决策包括PHY处理模块的通信决策。可以理解,图(b)提供的装置的示意图为一种示例,不构成对本申请装置的限定。
随着无线通信迅猛发展,新型无线技术、新型终端、新型应用层出不穷,使无线网络变得空前复杂。人工智能(artificial intelligence,AI)作为提升无线网络性能的有效工具,在无线网络中的优势已经成为业界的共识。具体来说,AI的优势作用包括以下四个方面:
1.解决没有数学模型的复杂网络问题;
2.解决搜索空间大的无线网络管理问题;
3.跨层和跨节点网络级全局优化;
4.通过AI的预测能力,主动优化无线网络参数。
AI可以应用于信道接入、速率自适应、信道聚合或者信道预测等。
传统的无线网络的操作,例如信道预测,是基于规则确定的,例如通过算法或函数,表示为f(·)来预测信道。f(·)的每一步的运算规则都是确定的,例如y=f(x),从输入x到输出y的计算是明确的规则,并应用于所有无线网络环境。引入AI之后,f(·)不再是基于规则的,而是用神经网络(neural network,NN)进行描述,例如,可以通过神经网络结构和神经网络参数描述,表述为f(θ,·),其中θ表示神经网络参数。针对实际的无线网络环境的神经网络训练自然更能满足相应的无线网络的需求,能进一步提升无线网络的性能。
下面对神经网络进行简单介绍。
神经网络是一种模拟人脑神经网络以期能够实现类人工智能的机器学习技术。神经网络可以包括3层,一个输入层、至少一个中间层(也称隐藏层)以及一个输出层,或更多层。更深一些的神经网络可能在输入层和输出层之间包含更多的隐藏层。下面以一种神经网络为例,对其进行说明。
图2是一种神经网络的结构的示意图。如图2所示,该神经网络为全连接神经网络,该神经网络包括3个层,分别是输入层、隐藏层以及输出层,其中输入层有3个神经元,隐藏层有4个神经元,输出层有2个神经元,并且每层神经元与下一层神经元全连接,神经元之间的每条连线对应一个权重,隐藏层和输出层的每个神经元还可以对应一个偏置。神经网络包括神经网络的结构和神经网络的参数。其中,神经网络的结构,是指每层包含的神经元个数以及前面的神经元的输出如何输入后面的神经元,即神经元之间的连接关系,神经网络的参数指示权重和偏置。由图2可知,每个神经元可能有多条输入连线,每个神经元根据输入计算输出。
图3是一个神经元根据输入计算输出的示意图。如图3所示,该神经元包含3个输入,1个输出,以及2个计算功能,输出的计算公式可以表示为:
输出=激活函数(输入1*权重1+输入2*权重2+输入3*权重3+偏置)……………(1-1)
符号“*”表示数学运算“乘”或“乘以”,下文不再赘述。
每个神经元可能有多条输出连线,一个神经元的输出作为下一个神经元的输入。应理解,输入层只有输出连线,输入层的每个神经元是输入神经网络的值,每个神经元的输出值直接作为所有输出连线的输入。输出层只有输入连线,采用上述公式(1-1)的计算方式计算输出。可选的,输出层可以没有激活函数的计算,也就是说前述公式(1-1)可以变换成:输出=输入1*权重1+输入2*权重2+输入3*权重3+偏置。
举例来说,k层神经网络可以表示为:
y=fk(fk-1(...(f1(w1*x+b1))))………………………………(1-2)
其中,x表示神经网络的输入,y表示神经网络的输出,wi表示第i层神经网络的权重,bi表示第i层神经网络的偏置,fi表示第i层神经网络的激活函数。i=1,2,…,k。
在无线局域网(wireless local area network,WLAN)中,由于大部分站点具有高移动性,其所在的无线局域网网络环境经常变化,例如,站点休眠一段时间,站点连接的无线网络可能已经发生变化。又如,非AP站点从当前接入点切换到新的接入点,其连接的无线网络也可能发生变化。非AP站点连接的无线网络,即非AP站点所处的无线网络环境。一套神经网络或者不合适的神经网络很难应用到所有场景,针对变化的无线网络环境,神经网络信息需要更新。
图4示出了非AP站点的无线网络环境发生变化的一种示意图。如图4所示,非AP站点1发生移动,从AP1切换至AP2,其所处的无线网络环境发生变化。由于非AP站点1使用的神经网络没有AP2所在的无线网络环境的信息,无法达到最优的通信性能,因此,需要更新神经网络,例如,更新神经网络参数或者更换神经网络。
图5示出了一种神经网络的更新方法的示意图。如图5所示,非AP STA可以通过AP向云端或服务器发送更新请求,云端或服务器获取更新的神经网络或神经网络参数,再通过AP发送给非AP STA。
然而,这种方法的前提是无线网络接入互联网。在无线网络中,很多情况下不能保证无线网络接入互联网。此外,通过云端或服务器下发神经网络参数可能会带来较大时延,进而影响站点的通信性能。另外,这种方法很难做到精细化优化和配置,例如,在云端存储的神经网络很难适配精细化的无线环境,即某个BSS。
在另一种神经网络的更新方法中,由非AP STA实时训练,不需要网络侧训练和下发。然而,实时训练会产生较大的开销,有些非AP STA本身电量不足,不便于训练,甚至有些非AP STA计算能力有限,无法训练,这种方法不能普遍适用。此外,若站点休眠后,需要一段时间才能学习到性能较好的神经网络,也就是说,这种方法将会带来较大时延,影响站点的通信性能。
有鉴于此,本申请提供一种无线局域网中通信的方法,将神经网络的信息和厂商信息相关联,使得无线局域网中的站点(该站点可以是AP,也可以是non-AP站点)能够获得合适的神经网络的信息进行通信决策,能够在变化的无线网络环境中,保证站点的通信性能。
图6是本申请实施例提供的一种无线局域网中通信的方法200的示意性流程图,该方法200可以包括以下步骤。
S210,请求站点发送请求,该请求用于请求神经网络的信息。
示例性地,请求站点可以是非接入点站点(non-AP STA),也可以是AP,本申请不做限定。
相应地,响应站点接收来自请求站点的请求。
可选的,该请求可以包括以下的一项或多项:厂商信息、神经网络的标识信息、基本服务集的标识信息、神经网络的生成时间、神经网络的精确度、神经网络的模型大小,用于获取更满足请求站点需求或者用于获取更合适的神经网络的信息。可以理解的,该请求也可以包含其他与请求神经网络的信息相关的信息,本申请实施例对此不做限定。请求站点发送请求的内容和触发条件等可以参见下述图7-图9所述实施例的描述,此处不赘述。
示例性地,响应站点可以是非AP站点,也可以是AP,本申请不做限定。
S220,响应站点根据该请求向请求站点发送响应,该响应包括所述请求的神经网络的信息,该神经网络的信息和厂商信息关联。
相应地,请求站点接收来自响应站点的响应。
可选的,该响应还可以包括一个或多个与神经网络的信息相关的以下一项或多项:厂商信息、标识信息、基本服务集的标识信息、生成时间、精确度、模型大小等,以便于请求站点根据神经网络的信息进一步确定合适的神经网络。可以理解的,该响应也可以包含其他与神经网络的信息相关的信息,本发明实施例对此不做限定。响应站点发送响应的内容可以参见下述实施例的描述,此处不赘述。
本申请提供的无线局域网中通信的方法可以适用于非AP站点和AP之间的通信,也适用于非AP站点和非AP站点之间的通信,也适用于AP和AP之间的通信,本申请不做限定。
以非AP站点和AP之间的通信为例,图7-图9示例了本申请提供的无线局域网中通信的方法200的一些具体实施例,下述实施例的相关内容均可适用于本申请的无线局域网的通信方法,此处不赘述。
图7是本申请实施例提供的一种无线局域网中通信的方法300的示意性流程图。该方法中以请求站点为非AP站点为例,方300中请求站点称为第一站点,以响应站点为接入点为例。需要说明的是,本实施方式中的举例也可应用到其他实施方式中,例如图8或者图9所示的方案。该方法300可以包括以下步骤。
S310,第一站点向接入点发送第一请求,相应地,接入点接收第一请求。
其中,第一请求用于请求神经网络的信息。
具体地,第一请求可以是模型请求(model request),用于请求第一站点所需的神经网络有关的信息。应理解,“神经网络”和“神经网络模型”这两个术语可以相互替换,其在本申请中的含义是一致的。
作为示例,第一请求可以为管理帧,例如,为探测请求(probe request)或关联请求(Association Request),第一请求还可以为控制帧,例如,为请求发送(request tosend,RTS)或块确认请求(Block AcknowledgementRequest,BlockAckReq)。第一请求还可以携带于任一报文的报文头中。此外,第一请求还可以是其他管理帧或者控制帧。本申请实施例对此不做限定。
神经网络的信息也可以称为神经网络模型的信息,或者神经网络的模型信息。本申请实施例中,第一站点所需的神经网络可以称之为第一神经网络。第一神经网络的信息可以理解为第一站点所需的神经网络的信息,也可以称之为神经网络的目标信息,或者目标神经网络信息。示例地,第一神经网络的信息可包括第一神经网络的参数和/或第一神经网络的结构。其中,第一神经网络的参数包括第一神经网络的权重和/或偏置。其中,第一神经网络的结构可以包括第一神经网络的神经元的个数、神经网络的层数、每一层神经网络的个数、隐含层的层数、神经元之间的连接关系等信息中的一项或多项。
应理解,本申请中的“第一神经网络的信息”还可以是其他形式的、与第一神经网络相关的信息,或者是其他形式的、用于体现第一神经网络的计算方式的信息,本申请对此不作限定。第一站点可以基于第一神经网络的信息得到第一神经网络进行通信决策。
其中,第一请求可以包括厂商信息,其中,“包括”可以是明示的包括,也可以是隐示的包括,例如通过第一请求中携带的其他信息与厂商信息的默认关系进行隐示的指示。示例地,厂商信息包括厂商的标识信息,厂商的标识信息可以用于区分不同的厂商。厂商的标识信息可以是厂商ID,例如,1、2、3、4、5等,也可以是厂商的名称。可选的,厂商信息也可以携带在其他交互帧/报文中,例如在第一站点发送请求前的交互信息中已包含厂商信息。
其中,第一请求中的厂商信息是第一站点关联的厂商,可以称之为第一厂商。第一厂商和第一站点所需的第一神经网络关联。
厂商也可以称为AI供应商。示例地,厂商和神经网络的关联关系至少可以包括以下几种情况。可以理解的,此处描述的厂商与神经网络的关联关系可以适用于本申请的其他实施例,其他实施例不做详细描述。
情况1、厂商对应设备制造商,神经网络为该设备制造商提供的神经网络。例如,第一厂商为设备制造商#1,第一神经网络为第一站点对应的设备制造商#1提供的神经网络。
作为示例,当厂商对应设备制造商,厂商的标识可以采用标准中的组织ID(organization identifier)进行指示。组织ID是在IEEE注册机构(IEEE RegistrationAuthority)全球唯一的身份信息,用于识别厂商。
情况2、厂商对应芯片制造商,神经网络为该芯片制造商提供的神经网络。例如,第一厂商为芯片制造商#1,第一神经网络为芯片制造商#1提供的神经网络。
情况3、厂商对应AI运营商,神经网络为该AI运营商提供的神经网络。例如,第一厂商为电信运营商,第一神经网络为该电信运营商提供的神经网络。应理解,本申请中的AI运营商泛指能够提供AI相关服务的运营商,可以是电信运营商,例如,包括中国移动、中国联通和中国电信等,也可以是其他与AI相关的运营商,如从事AI相关服务的运营商,其用于从事神经网络的互通认证等服务。
在一种实现方式中,厂商与站点的关联关系至少可以包括:厂商指的是站点所属的厂商,或,厂商指的是站点支持的厂商。示例的,厂商指的是站点所属的厂商,其中,厂商可以是指站点对应的设备制造商、芯片制造商或AI运营商。或,示例的,厂商指的是站点支持的厂商,即站点支持的神经网络对应的厂商。在一种可实现方式中,不同厂商之间可以采用相同的神经网络结构,例如,一些厂商以联盟的形式互相认证神经网络结构,这种情况下,第一请求中可以携带第一站点支持的厂商的信息。例如,第一站点为厂商#1的设备,支持厂商#1的神经网络,其同时也支持厂商#2的神经网络,那么第一请求中携带的厂商信息可以是厂商#1的标识,也可以是厂商#2,还可以同时携带厂商#1和厂商#2的标识。
可选地,第一站点可以支持的一个或多个厂商的神经网络。可选地,第一请求可以包括包括多个厂商信息,且该多个厂商信息的一个或多个与第一神经网络关联。
在一种可实现方式中,第一请求可以还包括第一神经网络的标识信息,第一神经网络的标识信息可以用于区分不同的神经网络模型,或者用于区分不同的神经网络的类型。示例地,第一神经网络的标识信息可以包括模型索引(model index)、模型标识(modelID)或模型名称等。一种实现方式中,模型索引(model index)、模型标识(model ID)或模型名称中的一个或多个可以唯一标识任一神经网络。另一种实现方式中,模型索引(modelindex)、模型标识(model ID)或模型名称中的一个或多个可以标识神经网络的类别。例如,某个厂商(vendor)有多个神经网络模型,分别用于不同的任务或功能,任务可以是速率选择、信道接入、信道状态信息压缩等。这种情况下,可以用模型索引来区分这些不同类别的神经网络模型,例如,这些神经网络的模型索引分别是1、2、3。也可以用模型名称来区分这些不同任务或功能类别的神经网络,例如,这些神经网络的模型名称分别是速率选择神经网络、信道接入神经网络、信道状态信息压缩神经网络。
可选地,第一神经网络的标识信息还可以包括第一神经网络的版本号(version),例如,对应于同一个模型索引,会有不同版本的神经网络,例如,版本1、版本2等。此时,通过模型索引和版本号可以标识神经网络。
本申请实施例中,第一站点向接入点发送第一请求的时机或者触发条件不作限定。例如,可以是第一站点移动至该接入点覆盖的BSS内,发生网络切换时,向接入点发送第一请求,也可以是第一站点结束休眠状态,向接入点发送第一请求,也可以是第一站点有新的神经网络的需求时,如需要更新的神经网络或精确度更好的神经网络等,向接入点发送第一请求,还可以是第一站点在获知接入点有新的或者更合适的神经网络时或第一站点定期,向接入点发送第一请求。
通常,若第一站点在该接入点覆盖的BSS内,第一站点发送第一请求,默认是获取该BSS对应的神经网络,此时,可以不携带BSS标识。可选的,第一站点还可以在第一请求中包括目标BSS的相关标识,以便目标BSS对应的接入点进一步确认相应的神经网络,并发送给第一站点,或者可以便于其他非目标BSS的接入点不响应或者转发目标接入点,等。
S320,接入点向第一站点发送第一响应,相应地,第一站点接收第一响应。
其中,第一响应包括第一神经网络的信息。第一厂商和第一神经网络的信息关联。
示例地,第一神经网络的信息可以包括第一神经网络的参数和/或第一神经网络的结构。
接入点可以向第一站点发送第一神经网络的部分信息,例如,第一神经网络的参数,第一站点通过第一神经网络的参数可以得到第一神经网络;接入点也可以将第一神经网络的全部信息作为一个整体,向第一站点发送第一神经网络的全部信息。
第一神经网络的信息还可以是其他形式的、与第一神经网络相关的信息,或者是其他形式的、用于体现第一神经网络的计算方式的信息,本申请对此不作限定。
其中,接入点可以根据第一请求向第一站点发送第一响应。
接入点中可存储有第一厂商的信息和第一神经网络的信息之间的对应关系。例如,接入点根据第一请求对应的第一厂商的标识信息查找该第一厂商对应神经网络,并确定第一神经网络的信息。可选的,接入点也可以根据第一请求中包括的第一厂商的标识信息和神经网络的标识信息查找该第一厂商对应神经网络。
基于上述实施例的方案,第一站点可以通过第一请求向接入点请求神经网络的信息,进而接入点可以根据第一请求查找第一站点所请求的神经网络的信息,例如,第一站点所请求的神经网络的信息为第一神经网络的信息,并向第一站点发送该第一神经网络的信息,由于该神经网络的信息和厂商信息关联,使得第一站点能够基于厂商信息从接入点获得神经网络的信息,通过这种方式,使得站点能够获得合适的神经网络的信息进行通信决策,保证站点的通信性能。
另一方面,这种方式避免了站点从云端或服务器获取到不合适的神经网络的信息,也避免了站点花费较长时间训练神经网络,有助于减小通信时延。
此外,这种方式避免了站点不断训练神经网络,有助于减小站点的功耗,从而有助于站点节能。
可选地,该方法300还包括:第一站点使用第一神经网络的信息进行通信决策。
例如,第一站点可以根据第一神经网络的参数更新第一神经网络,并使用更新后的第一神经网络的信息进行通信决策,例如,进行信道接入、速率自适应、信道聚合和信道预测等通信任务的决策。
在上述实施例的一种实施场景中,S310中的第一请求还可以包括其他信息,用于进一步请求满足这些其他信息所要求的第一神经网络的信息。这些信息也可以称为第一预设条件,或匹配条件。
其中,该第一预设条件可以是第一神经网络的信息的生成时间、第一神经网络的精确度、第一神经网络的模型大小等。
具体地,该第一预设条件可以是第一神经网络的信息的生成时间,或称为第一神经网络的生成时间,例如,第一预设条件表示第一神经网络的信息的生成时间应当在时间点#A之后;又如,第一预设条件表示第一神经网络的信息的生成时间与时间点#B之间的时间差应当小于预设值#A,这种情况下,第一请求用于请求满足该生成时间的第一神经网络的信息。
具体地,该第一预设条件可以是第一神经网络的精确度,例如,第一预设条件表示第一神经网络的精确度应当大于预设值#B,这种情况下,第一请求用于请求满足该精确度的第一神经网络的信息。
具体地,该第一预设条件可以是第一神经网络的模型大小,例如,第一预设条件表示第一神经网络的模型大小应当小于预设值#C,第一请求用于请求满足该模型大小的第一神经网络的信息。
可选地,在该实施场景中,该方法300还包括:接入点从多个神经网络的信息中选择第一神经网络的信息。
具体地,接入点可维护多个神经网络的信息。例如,接入点可存储有多个神经网络的信息、厂商信息、模型索引等之间的对应关系,另外,还可以包括生成时间、精确度、模型大小等。接入点可以从多个神经网络的信息中,选择满足第一预设条件的一个神经网络的信息,例如,选择生成时间、精确度或模型大小满足请求的一个神经网络的信息。以神经网络的信息包括神经网络的参数和/或结构为例,“一个神经网络的信息”是包括神经网络的参数和/或结构的一套信息。
在本申请中,多个神经网络的信息,可以理解为神经网络的信息的信息库或信息集。接入点从中可以选择出第一站点所需的第一神经网络的信息,即第一神经网络的目标信息。
以第一神经网络的信息包括第一神经网络的参数为例,接入点可以从多个与第一厂商(或者与第一厂商和第一神经网络的标识)对应的神经网络的参数中(也可以称之为备选参数),选择满足第一预设条件的参数作为第一站点所请求的神经网络的参数,并在第一响应中携带该参数,即第一神经网络的信息。
基于上述实施场景的方案,接入点可以向第一站点发送满足预设条件的第一神经网络的信息,如此,使得第一站点能够获得更适合的神经网络的信息,有助于更好的实现通信决策。
在上述实施例的又一种实施场景中,S320中的第一响应中的第一神经网络包括一个或多个神经网络的信息。可选的,第一响应还可以包括该一个或多个神经网络对应的属性信息,例如,生成时间、精确度、模型大小等中的一个或多个。其中,生成时间可以为绝对时间,例如,时间点#C,或,生成时间也可以是相对时间,例如,时间差值#A,其表示生成时间与时间点#D之间的时间差,时间点#D可以是收发端默认的时间参考点。
在该实施场景中,该方法300还可以包括:第一站点从多个神经网络的信息中选择一个神经网络的信息。
示例地,第一站点可以从多个神经网络的信息中,根据多个神经网络的属性信息选择满足自身需求的一个信息。例如,第一站点从多个神经网络的信息中选择生成时间或者精确度满足自身需求的信息,又如,第一站点从多个神经网络的信息中选择模型大小满足自身需求的信息。
在上述任一种实施场景中,该方法300还可以包括:接入点获取多个神经网络的信息。其中,接入点获取的多个神经网络的信息中可以包括发送给第一站点的第一神经网络的信息。
这样,接入点可以提前获取或者实时获取神经网络的信息,在第一站点向接入点请求神经网络时,可以提供满足第一站点需求的神经网络,或者给第一站点提供更合适的神经网络,为第一站点更好的通信决策提供了支持。
接入点获取多个神经网络的信息可以是在接收到第一站点的请求时获取,也可以是根据一定的预设条件获取,例如间隔一定时间,或者是有新的需求时获取,有新类型的站点加入,等,本申请实施例对此不作限定。
其中,接入点获取神经网络的信息可以通过多种方式实现,如从第二站点获取,或者从云端或服务器获取,等。具体地:
方式一、接入点从一个或多个第二站点获取神经网络的信息。
一种可实现方式中,接入点关联的一个或多个第二站点可以向接入点发送神经网络的信息。一个或多个站点可以一次或者多次向接入点发送神经网络的信息。一个或多个第二站点可以是接入点,也可以是非AP站点。
具体的,一个或多个第二站点可以在接收到接入点的第二请求后,响应于接入点的第二请求,向接入点发送第二响应,第二响应包括神经网络的信息。可选地,一个或多个第二站点也可以主动向接入点发送神经网络的信息,一个或多个第二站点还可以基于一定的时间或者预定的规则向接入点发送神经网络的信息,等。本申请发明实施例对此不作限定。接入点向一个或多个第二站点发送请求获取神经网络的信息的方法可以参考图8所示的实施方式及其相应的介绍,此处不赘述。此处,将一个或多个第二站点向接入点发送的神经网络称为“第二神经网络”。应理解,本申请实施例中的“第一”和“第二”只是表述上的区分,便于理解,没有任何技术限定。
方式二、接入点从云端或服务器获取神经网络的信息。
具体地,云端或服务器存储有神经网络的信息,如神经网络的参数、神经网络的结构等信息,对应的厂商信息,接入点可以从云端或服务器获取神经网络的信息。
基于上述方案,由于云端或服务器存储有大量的神经网络的信息,接入点可以从云端或服务器获取多个神经网络的信息,神经网络的信息比较全面,且可以避免多次获取,因此能够减小通信开销,并给不同的非AP站点或AP提供合适的神经网络。
在上述任一种方式中,该方法300还可以包括:接入点可以存储多个满足第一站点请求的神经网络的信息,也可以称之为多个备选信息。接入点可以将多个备选信息发送给第一站点以供第一站点选择,也可以从多个备选信息中选择一个神经网络的信息发送给第一站点。可选的,当满足第一站点请求的神经网络只有一个时,接入点直接发送该神经网络的信息,则无需选择。
图8是本申请实施例提供的一种无线局域网中通信的方法400的示意性流程图。其中,以请求站点为接入点为例,以响应站点为非AP站点为例,方法400中的响应站点称为第二站点。需要说明的是,本实施方式中的相关方案也可以应用到图7或者图9所示的实施方式中,且其他实施例已详细描述的相关内容,此处不赘述。该方法400可以包括以下步骤。
S410,接入点向第二站点发送第二请求,相应地,第二站点接收第二请求。
其中,第二请求用于请求神经网络的信息。
如前述实施例所述,接入点发送的第二请求可以包括厂商信息、神经网络的标识信息、基本服务集的标识信息、生成时间、精确度、模型大小等的一项或多项。可选的,接入点发送的第二请求也可以不包括上述的这些信息,以获取第二站点的全部神经网络的信息或者已协商好的神经网络的信息,等。本实施例中,将接入点向站点请求的神经网络,或站点向接入点发送的神经网络,称为第二神经网络,与第二神经网络关联的厂商称为第二厂商。
如前所述,接入点可以在收到非AP站点的神经网络请求时,向第二站点发送第二请求,也可以是基于预定的规则或其他需求,向第二站点发送第二请求,本申请实施例对此不做限定。例如,接入点向第二站点发送第二请求的触发条件至少可以包括以下情况:
情况1、若接入点存储的神经网络信息超过预定时间未更新,接入点可以向第二站点发送第二请求,以获取更新的神经网络的信息。
可选的,接入点存储的神经网络的信息可以是指存储的某个神经网络的信息,如称为第二神经网络的信息,若第二神经网络的信息长时间未更新,接入点向第二站点发送获取更新的该神经网络的信息的第二请求。一种可实现方式中,接入点向第二站点发送的第二请求携带该神经网络的标识信息,或者,接入点向第二站点发送的第二请求携带该神经网络的标识信息和对应的厂商信息。
可选的,也可以是某个厂商的神经网络的信息未更新,接入点可以向对应厂商的第二站点发送第二请求,以获取该厂商的最新的神经网络的信息。一种可实现方式中,接入点向第二站点发送的第二请求携带厂商信息。
接入点存储的神经网络的信息超过预定时间未更新,可以是基于神经网络的信息的生成时间来说超过预定时间未更新,也可以是基于接入点存储神经网络的信息的时间来说超过预定的时间未更新。
一种可实现方式中,接入点向第二站点发送获取神经网络的信息的第二请求,还可以携带神经网络的时间或者精度的要求,以便进一步获取合适的神经网络的信息。
情况2、若存储的神经网络的信息的精确度低,例如小于阈值,则接入点向所述第二站点发送第二请求,以获取更高精度的神经网络的信息。
例如,接入点发现某个厂商的神经网络的参数的精确度低于阈值,则接入点向该厂商的第二站点发送第二请求,以请求该厂商的更高精确度的神经网络的参数。
又如,接入点发现某个特定的神经网络的参数的精确度低于阈值,则接入点向第二站点发送第二请求,以请求该特定的神经网络相关的更高精确度的神经网络的参数。
情况3、在接入点未存储某个厂商的神经网络的信息时,接入点向第二站点发送第二请求,用于请求该厂商关联的神经网络的信息。
可选地,该第二请求包括该厂商的信息,用于请求该厂商的神经网络的信息。
例如,当有该厂商的非AP站点加入接入点所属的BSS中,或者,向接入点发送信息,而接入点未存储有该厂商的神经网络的信息,接入点可以向该厂商的非AP站点发送第二请求,以获取该厂商的神经网络的信息。
可选的,接入点向其所属的BSS中的全部或部分非AP站点发送第二请求,如果接收到该第二请求的非AP站点属于该厂商或者支持该厂商的神经网络或者存储有该厂商的神经网络,则会向接入点发送第二响应,该第二响应包括该厂商的神经网络的信息。如果接收到第二请求的非AP站点不属于该厂商或者不支持该厂商的神经网络或者未存储有该厂商的神经网络,则不向接入点发送第二响应。
情况4、在接入点未存储某特定神经网络的信息的情况下,接入点向第二站点发送第二请求,用于请求该神经网络的信息。
可选地,第二请求包括接入点请求的第二神经网络的标识信息。
一种可选的实现方式中,第二神经网络的标识信息可以用于标识该神经网络的类型,或用于标识该神经网络可执行的任务,等。
例如,若接入点发现其存储的神经网络的信息中缺少用于执行任务#A的神经网络,则接入点可以向第二接入点发送第二请求,请求用于执行任务#A的神经网络的信息。此时,第二请求包括用于执行任务#A的神经网络的标识信息。
情况5、在接入点未存储神经网络的信息的情况下,接入点向第二站点发送第二请求,用于请求神经网络的信息。
作为情况5的一种实现方式,第二请求用于触发第二站点上报其训练得到的神经网络的信息,第二请求可以不包括厂商信息,也可以不包括时间和/或精度要求、神经网络的标识中任一个。也就是,第二请求可以不用于请求具体哪一个神经网络的信息,第二站点可以根据第二请求上报其所训练得到的所有神经网络的信息,并在第二响应中携带厂商信息、神经网络的属性信息、神经网络的标识中的一个或多个。
例如,接入点向其所属的BSS中的全部或部分非AP站点发送第二请求,接收到该第二请求的非AP站点均向该接入点发送其训练的神经网络的信息和该神经网络对应的厂商,其中,包括第二站点向接入点发送第二响应。
例如,若第二站点属于厂商#A,该厂商#A是新的厂商,接入点没有该厂商#A的神经网络的信息,则接入点向第二站点发送第二请求,用于请求该厂商#A关联的神经网络的信息。
可选地,作为情况5的又一种实现方式,第二请求包括接入点所属的BSS的标识信息。也就是,第二请求可以用于请求在该接入点所属的BSS中生成的神经网络的信息。
具体地,第二站点可以根据第二请求,将第二站点在该接入点所属的BSS中生成的神经网络的信息发送给接入点。
作为示例,该BSS的标识信息可以是BSS ID。
这种情况下,第二响应中的神经网络的信息可以理解为是与该BSS的标识信息关联的神经网路的信息。
需要说明的是,本实施方式中关于接入点向第二站点发送第二请求的举例,也可以应用到其他实施方式中,例如图7和图9所示的实施方式中,不赘述。
S420,第二站点向接入点发送第二响应,相应地,接入点接收第二响应。
其中,该第二响应包括第二神经网络的信息,该第二神经网络的信息和厂商信息关联。
具体的,一个或多个第二站点可以在接收到接入点的第二请求后,响应于接入点的请求,向接入点发送第二响应,第二响应包括神经网络的信息。
可选地,一个或多个第二站点也可以主动向接入点发送神经网络的信息,一个或多个第二站点还可以基于一定的时间或者预定的规则向接入点发送神经网络的信息,等。例如,第二站点在训练得到第二神经网络的信息后,主动向接入点发送第二神经网络的信息,例如该第二神经网络的信息包括第二神经网络的参数。
此外,第二站点向接入点发送第二神经网络的信息的同时,还可以包括厂商信息,该厂商信息和第二神经网络关联。其中,第二厂商可以是第二站点所属的厂商,或,第二厂商是第二站点支持的厂商。可选地,第二响应中的厂商信息包括厂商的标识信息。其中,厂商信息可以包括一个或多个厂商信息。关于厂商信息、第二神经网络、以及两者的关联关系,可以参考上文S310中厂商信息、第一神经网络、及其关联关系的相关描述,在此不予赘述。
在一种实现方式中,第二站点向接入点发送的第二神经网络的信息,可用于S320的第一响应中接入点发送给第一站点的第一神经网络的信息,第二神经网络的信息可以与第一神经网络的信息相同,第二厂商信息也可与第一厂商信息相同。
示例性地,第二响应还包括第二神经网络对应的属性信息,例如,生成时间、精确度、模型大小等中的一个或多个。
示例性地,第二响应还包括第二神经网络的标识信息,用于标识某个特定的神经网络,或标识神经网络的类型。
其中,第二响应中的神经网络的信息可以是一个或多个神经网络的信息。例如,第二响应包括多个神经网络的信息以及第二站点在生成该多个神经网络的信息时所属的BSS的标识信息。可选的,接入点可以保存第二响应的所有的神经网络的信息,或者,选择保存在自身所属的BSS相关的神经网络的信息。
可选地,第二响应包括一个或多个神经网络的属性信息,例如,一个或多个神经网络的生成时间、精确度、模型大小等属性信息。
基于上述方案,接入点可以在与第二站点的信息交互中获取神经网络的信息,由于接入点与第二站点可以进行实时信息交互,因此具有更强的灵活性。
可选地,该方法400还包括:接入点存储第二神经网络的信息和厂商信息的对应关系。
具体地,接入点在获取第二神经网络的信息时,可以获取与第二神经网络的信息关联的厂商信息,接入点可以存储神经网络和厂商信息之间的对应关系。
其中,神经网络和厂商信息的对应关系又可以称为神经网络-厂商表,接入点存储神经网络和厂商信息的对应关系,也就是接入点维护神经网络-厂商表。
此外,在该神经网络-厂商表中,还可以包括上述神经网络的标识信息、属性信息等。示例的,神经网络-厂商表中,神经网络的信息可以是神经网络的参数和/或结构,或能得到神经网络的其他形式的相关信息。
基于上述实施例的方案,接入点可以从第二站点获取第二神经网络的信息,该第二神经网络的信息和厂商信息关联,使得接入点能够维护神经网络的信息和厂商信息,从而为其他非AP站点或AP获得更适合的神经网络的信息提供支持,也就是说,为站点更好的通信决策提供了支持。
图9是本申请实施例提供的一种无线局域网中通信的方法500的示意性流程图。方法500可以是基于上述方法200、方法300和方法400的一种具体实现方式,上述实施例的内容均适用于方法500,此处不赘述。其中,神经网络的信息以神经网络的参数为例进行说明。
假设AP#1、STA#1、STA#2、STA#3属于BSS#1。
S501,STA#1(第二站点的示例)、STA#2(第二站点的又一示例)训练神经网络模型#1(第二神经网络的示例)。
例如,STA#1实时训练神经网络模型#1,先后获得神经网络模型#1的参数#0、参数#1。
其中,参数#0是在BSS#0训练的,参数#1是在BSS#1训练的,BSS#0是STA#1在移入BSS#1之前所属的BSS。
STA#2实时训练神经网络模型#1,获得神经网络模型#1的参数#2。
其中,参数#2是在BSS#1训练的。
参数#0、参数#1、参数#2分别为神经网络的参数的示例。
例如,参数#0的值为weights#0,参数#1的值为weights#1,参数#2为weights#2。
此外,STA#1、STA#2的设备制造商为厂商#A(厂商的示例)。
S502,AP#1(方法300中的接入点的示例,也是方法400中的接入点的示例)向STA#1、STA#2发送请求#1(第二请求示例),用于请求神经网络模型的参数。
其中,AP#1属于BSS#1。
例如,当AP#1确定AP#1没有厂商#A的模型参数(发送请求的触发条件的一种示例),AP#1向其BSS#1内关联的属于厂商#A的STA发送请求#1。
例如,AP#1向STA#1、STA#2分别发送请求#1。
可选地,请求#1包括厂商的信息,即厂商#A,表示请求厂商#A关联的神经网络的信息。
可选地,请求#1包括AP#1所在的BSS的标识信息,即BSS#1。
S503,STA#1向AP#1发送响应#1(第二响应的示例)。
其中,响应#1包括在BSS#1中生成的神经网络模型#1的信息,即神经网络模型#1的参数#1,响应#1还包括STA#1所属的厂商的信息,即厂商#A。
示例地,响应#1还可以包括神经网络模型#1的标识,例如,神经网络模型#1的标识为模型#1。
示例地,响应#1还可以包括参数#1的生成时间(属性信息的示例)。例如,参数#1的生成时间为时间#1。
示例地,响应#1还可以包括参数#1的精确度(属性信息的又一示例)。例如,参数#1的精确度为值#1。
S504,STA#2向AP#1发送响应#2(第二响应的又一示例)。
类似地,响应#2包括在BSS#1中生成的神经网络模型#1的信息,即神经网络模型#1的参数#2,响应#2还包括STA#2所属的厂商的信息,即厂商#A。
示例地,响应#2还可以包括神经网络模型#1的标识,例如,神经网络模型#1的标识为模型#1。
示例地,响应#2还可以包括参数#2的生成时间。例如,参数#2的生成时间为时间#2。
示例地,响应#2还可以包括参数#2的精确度。例如,参数#2的精确度为值#2。
S505,AP#1存储厂商信息和神经网络模型#1的参数之间的对应关系。
例如,AP#1内存储的对应关系如表1。表1中包括神经网络参数的对应的属性信息,如生成时间和精确度等。示例的,表1中的同一模型标识可对应多个神经网络的参数。
表1
S506,STA#3(第一站点的示例)向AP#1发送请求#2(第一请求的示例),用于请求神经网络模型#1的参数。
其中,请求#2中可以包括模型#1的标识。
其中,请求#2中可以包括厂商#A的信息。
例如,STA#3的设备制造商为厂商#A(厂商的示例),因此请求#2中包括厂商#A的信息(厂商信息的示例)。
又如,STA#3的设备制造商为厂商#B,且STA#3支持厂商#A的神经网络结构,因此请求#2中包括厂商#A和厂商#B的信息。
作为一个示例,请求#2包括时间信息(第一预设条件的示例),用于指示STA#3对神经网络模型#1的参数的时间要求。
作为又一个示例,请求#2包括精确度信息(第一预设条件的又一示例),用于指示STA#3对神经网络模型#1的参数的精确度要求。
S507,AP#1确定参数(第一神经网络的参数的示例)。
AP#1根据请求#2中包括的厂商#A的信息和模型#1的标识,在表1中查找对应的参数,例如,AP#1根据厂商#A和模型#1查找到参数#1和参数#2。
对应上述一个示例,AP#1根据请求#2中的时间信息,从参数#1、参数#2中选择了满足时间要求的参数#1,此时,weights#1即为AP#1选择的参数。
对应上述又一个示例,AP#1根据请求#2中的精确度信息,从参数#1、参数#2中选择了满足精确度要求参数#2,此时,weights#2即为AP#1选择的参数。
S508,AP#1向STA#3发送响应#3(第一响应的示例)。
其中,响应#3包括AP#1选择的参数。
作为另一种具体实现方式,在方法500中的S502中的请求#1中不包括BSS#1,而响应#1中包括BSS#0、参数#0,以及BSS#1、参数#1,响应#2中包括BSS#1、参数#2。进一步,在S505中,AP根据自身所属的BSS#1选择存储参数#1和参数#2及其属性信息,而舍弃BSS#0中生成的参数#0。
作为另一种具体实现方式,在S507中,AP#1确定的参数包括多个,AP#1可以将多个参数均发送给STA#3,由STA#3选择使用哪一个进行后续决策。或者,AP#1选择其中一个发送给STA#3,例如,AP#1可以按照存储的顺序选择其中的一个参数,或者AP#1也可以随机选择一个参数。
作为再一种具体实现方式,AP#1存储厂商信息和神经网络模型#1的参数之间的对应关系可以为表2。表2中神经网络的参数对应的属性信息,如不包括时间和精确度信息。基于此,上述的神经网络的请求和响应可以不包括生成时间和精确度等。S507中,AP#1可以根据存储的顺序选择参数为weights#1,或者,AP#1从参数#1、参数#2中随机选择一个。
表2
作为再一种具体实现方式,AP#1存储厂商信息和神经网络模型#1的参数之间的对应关系可以为表3。对于同一模型标识,AP#1可只存储一个神经网络的参数。例如存储的一个神经网络的参数,可以是最新接收到的神经网络的参数,或者精确度最高的神经网络的参数,等,本发明实施例对此不做限定。
表3
应理解,表1、表2、表3中的模型#2可以是AP#1之前已经存储的其他神经网络的信息。
作为再一种具体实现方式,AP#1存储厂商信息和神经网络模型#1的参数之间的对应关系可以为表4。表4中示例了多个厂商的神经网络的信息。例如,BSS#1中还可包括其他非AP站点,如STA#4、STA#5,STA#4、STA#5关联于AP#1。S502中AP#1可以向BSS#1内关联的所有STA的部分或全部发送请求#1。在这种情况下,AP#1除了接收响应#1、响应#2,还会接收来自STA#4和STA#5的信息,其中包括STA#4和STA#5训练的神经网络模型的参数。例如STA#4的设备制造商为表4中厂商#B,STA#5的设备制造商为表4中厂商#C。
表4
示例地,厂商#B和厂商#C也支持模型#1。且STA#4训练神经网络模型#1,获得神经网络模型#1的参数#3,参数#3的值为weights#3,参数#3的生成时间为时间#3,参数#3的精确度为值#3。STA#5训练神经网络模型#1,获得神经网络模型#1的参数#4,参数#4的值为weights#4,参数#4的生成时间为时间#4,参数#4的精确度为值#4。
应理解,本申请中的weights#1、weights#2、weights#3、weights#4均表示神经网络的参数的具体取值,weights可以是神经网络的权重的具体取值,也可以是神经网络的权重和偏置的具体取值。
可以理解的,上述表1-表4是AP#1存储厂商信息和神经网络模型#1的参数之间的对应关系的一些示例,但不限于表1-表4的内容,还可以是其他,本发明实施例对此不做限定。
以上描述了本申请实施例的方法实施例,下面对相应的装置实施例进行介绍。应理解,装置实施例的描述与方法实施例的描述相互对应,因此,未详细描述的部分可以参见前面方法实施例。
图10是本申请实施例提供的一种通信装置的示意图。如图10所示,装置600可以包括收发单元610和/或处理单元620。收发单元610可以与外部进行通信,处理单元620用于进行数据/信息的处理。收发单元610还可以称为通信接口或通信单元。
在一种可能的实现方式中,该装置600可以是上文方法200中的请求站点、方法300中的第一站点或方法400中的接入点,也可以是用于实现上文方法200中的请求站点、方法300中第一站点或方法400中的接入点的功能的芯片。具体地,该装置600可实现对应于上文方法200、方法300或方法400中的请求站点执行的流程,其中,收发单元610用于执行上述方法流程中请求站点的收发相关的操作。
可选地,在该实现方式中,该装置600还包括处理单元620,处理单元620用于执行上述方法流程中请求站点的处理相关的操作。
示例性地,收发单元610,用于发送请求,该请求用于请求神经网络的信息;收发单元610,还用于接收来自响应站点的响应,该响应包括神经网络的信息,该神经网络的信息和该厂商信息关联。
其中,神经网络的信息可以包括神经网络的参数和/或神经网络的结构。
其中,厂商信息可以包括多个厂商信息。
例如,该厂商信息为设备制造商对应的厂商的信息。
在一种实现方式中,请求可以包括厂商信息或神经网络的标识信息。
可选地,请求还可以包括BSS的标识信息,响应的神经网络的信息与BSS的标识信息关联。
可选地,请求还可以包括请求的神经网络的预设条件,请求用于请求满足预设条件的神经网络的信息。作为示例,预设条件包括以下至少一个:神经网络的生成时间、神经网络的精确度、神经网络的模型大小。
在一种实现方式中,响应可以包括厂商信息或神经网络的标识信息。
可选地,响应还可以包括以下至少一项:神经网络的生成时间、神经网络的精确度和神经网络的模型大小。
可选地,响应还可以包括多个神经网络的信息。进一步地,该响应还可以包括多个神经网络的属性信息。作为示例,属性信息包括多个神经网络的生成时间,或,多个神经网络的精确度,或,多个神经网络的模型大小。
其中,处理单元620可以用于:根据属性信息从多个神经网络的信息中选择一个神经网络的信息。
在一种实现方式中,收发单元610发送请求的触发条件,包括:该装置600存储的神经网络的信息超过预设时间未更新;或,该装置600存储的神经网络的精确度小于阈值;或,该装置600未存储神经网络的信息或未存储任意神经网络的信息;或,该装置600存储的与厂商信息相关的神经网络的信息超过预设时间未更新;或,该装置600未存储有与厂商信息相关的神经网络的信息。
可选地,请求站点发送请求的触发条件包括:该装置600站点休眠后唤醒;或,请该装置600的无线局域网的网络环境发生变化。
应理解,上述内容仅作为示例性理解,该装置600还能够实现上述方法200、300或400中的其他与请求站点相关的步骤、动作或者方法,在此不再赘述。
在一种可能的实现方式中,该装置600可以是上文方法200中的响应站点、方法300中的接入点或方法400中的第二站点,也可以是用于实现上文方法200中的响应站点、方法300中接入点或方法400中的第二站点的功能的芯片。具体地,该装置600可实现对应于上文方法200、300或400中的响应站点执行的流程,其中,收发单元610用于执行上述方法流程中响应站点的收发相关的操作。
可选地,在该实现方式中,该装置600还包括处理单元620,处理单元620用于执行上述方法流程中响应站点的处理相关的操作。
示例性地,收发单元610,用于接收来自请求站点的请求,该请求用于请求神经网络的信息;收发单元610还用于根据请求向请求站点发送响应,该响应包括神经网络的信息,该神经网络的信息和该厂商信息关联。
其中,神经网络的信息可以包括神经网络的参数和/或神经网络的结构。其中,厂商信息可以包括一个或多个厂商信息。例如,该厂商信息为设备制造商对应的厂商的信息。
在一种实现方式中,请求可以包括厂商信息或神经网络的标识信息。
可选地,请求还可以包括BSS的标识信息,响应的神经网络的信息与BSS的标识信息关联。
可选地,请求还可以包括请求的神经网络的预设条件,请求用于请求满足预设条件的神经网络的信息。
作为示例,该预设条件包括以下至少一个:神经网络的生成时间、神经网络的精确度、神经网络的模型大小。
其中,处理单元620可以用于:根据预设条件从多个神经网络的信息中选择一个神经网络的信息。
在一种实现方式中,响应可以包括厂商信息或神经网络的标识信息。
可选地,响应还可以包括以下至少一项:神经网络的生成时间、神经网络的精确度和神经网络的模型大小。
可选地,响应还可以包括多个神经网络的信息。
可选地,响应还可以包括多个神经网络的属性信息。
作为示例,该属性信息包括多个神经网络的生成时间,或多个神经网络的精确度,或,多个神经网络的模型大小。
在一种实现方式中,收发单元610发送请求的触发条件,包括:该装置600存储的神经网络的信息超过预设时间未更新;或,该装置600存储的神经网络的精确度小于阈值;或,该装置600未存储神经网络的信息或未存储任意神经网络的信息;或,该装置600存储的与厂商信息相关的神经网络的信息超过预设时间未更新;或,该装置600未存储有与厂商信息相关的神经网络的信息。
在一种实现方式中,收发单元610发送请求的触发条件包括:该装置600休眠后唤醒;或,该装置600的无线局域网的网络环境发生变化。
应理解,上述内容仅作为示例性理解,该装置600还能够实现上述方法200、300或400中的其他与响应站点相关的步骤、动作或者方法,在此不再赘述。
应理解,这里的装置600以功能单元的形式体现。这里的术语“单元”可以指应用特有集成电路(application specific integrated circuit,ASIC)、电子电路、用于执行一个或多个软件或固件程序的处理器(例如共享处理器、专有处理器或组处理器等)和存储器、合并逻辑电路和/或其它支持所描述的功能的合适组件。
上述装置600具有实现上述方法200、300或400中请求站点所执行的相应步骤的功能,或者,上述装置600具有实现上述方法200、300或400中响应站点所执行的相应步骤的功能。所述功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。所述硬件或软件包括一个或多个与上述功能相对应的模块;例如收发单元可以由收发机替代(例如,收发单元中的发送单元可以由发送机替代,收发单元中的接收单元可以由接收机替代),其它单元,如处理单元等可以由处理器替代,分别执行各个方法实施例中的收发操作以及相关的处理操作。
此外,上述收发单元还可以是收发电路(例如可以包括接收电路和发送电路),处理单元可以是处理电路。在本申请的实施例,图10中的装置可以是前述实施例中的请求站点或响应站点,也可以是芯片或者芯片系统,例如:片上系统(system on chip,SoC)。其中,收发单元可以是输入输出电路、通信接口。处理单元为该芯片上集成的处理器或者微处理器或者集成电路。在此不做限定。
图11是本申请实施例提供的通信装置的又一示意性结构图。如图11所示,该通信装置700包括:至少一个处理器710和收发器720。该处理器710与存储器耦合,用于执行存储器中存储的指令,以控制收发器720发送信号和/或接收信号。可选地,该通信装置700还包括存储器730,用于存储指令。
应理解,上述处理器710和存储器730可以合成一个处理装置,处理器710用于执行存储器730中存储的程序代码来实现上述功能。具体实现时,该存储器730也可以集成在处理器710中,或者独立于处理器710。
还应理解,收发器720可以包括接收器(或者称,接收机)和发射器(或者称,发射机)。收发器720还可以进一步包括天线,天线的数量可以为一个或多个。收发器1020有可以是通信接口或者接口电路。
当该通信装置700为芯片时,该芯片包括收发单元和处理单元。其中,收发单元可以是输入输出电路或通信接口;处理单元可以为该芯片上集成的处理器或者微处理器或者集成电路。
本申请实施例还提供了一种处理装置,包括处理器和接口。所述处理器可用于执行上述方法实施例中的方法。
应理解,上述处理装置可以是一个芯片。例如,该处理装置可以是现场可编程门阵列(field programmable gate array,FPGA),可以是专用集成芯片(applicationspecific integrated circuit,ASIC),还可以是系统芯片(system on chip,SoC),还可以是中央处理器(central processor unit,CPU),还可以是网络处理器(networkprocessor,NP),还可以是数字信号处理电路(digital signal processor,DSP),还可以是微控制器(micro controller unit,MCU),还可以是可编程控制器(programmable logicdevice,PLD)或其他集成芯片。
在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。结合本申请实施例所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。为避免重复,这里不再详细描述。
图12是本申请实施例提供的通信装置的又一示意性结构图。如图12所示,该装置800包括处理电路810和收发电路820。其中,处理电路810和收发电路820通过内部连接通路互相通信,该处理电路810用于执行指令,以控制该收发电路820发送信号和/或接收信号。
可选地,该装置800还可以包括存储介质830,该存储介质830与处理电路810、收发电路820通过内部连接通路互相通信。该存储介质830用于存储指令,该处理电路810可以执行该存储介质830中存储的指令。
在一种可能的实现方式中,装置800用于实现上述方法实施例中的请求站点对应的流程。
在另一种可能的实现方式中,装置800用于实现上述方法实施例中的响应站点对应的流程。
根据本申请实施例提供的方法,本申请还提供一种计算机程序产品,该计算机程序产品包括:计算机程序代码,当该计算机程序代码在计算机上运行时,使得该计算机执行图3所示实施例中的方法。
根据本申请实施例提供的方法,本申请还提供一种计算机可读介质,该计算机可读介质存储有程序代码,当该程序代码在计算机上运行时,使得该计算机执行上述方法实施例中的方法。
根据本申请实施例提供的方法,本申请还提供一种系统,其包括前述的请求站点和响应站点。
本文中术语“……中的至少一个”或“……中的至少一项”,表示所列出的各项的全部或任意组合,例如,“A、B和C中的至少一项”,可以表示:单独存在A,单独存在B,单独存在C,同时存在A和B,同时存在B和C,同时存在A、B和C这六种情况。本文中的“至少一个”表示一个或者多个。“多个”表示两个或者两个以上。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
应理解,在本申请各实施例中,“与A相应的B”表示B与A相关联,根据A可以确定B。但还应理解,根据A确定B并不意味着仅仅根据A确定B,还可以根据A和/或其它信息确定B。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
应理解,在本申请的各种实施例中,第一、第二以及各种数字编号仅为描述方便进行的区分,并不用来限制本申请实施例的范围。例如,区分不同的信息等。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (34)
1.一种无线局域网中的通信的方法,其特征在于,包括:
请求站点发送请求,所述请求用于请求神经网络的信息;
所述请求站点接收来自所述响应站点的响应,所述响应包括所述请求的神经网络的信息,所述神经网络的信息和厂商信息关联。
2.如权利要求1所述的方法,其特征在于,所述请求包括所述厂商信息,或,所述请求包括所述神经网络的标识信息。
3.如权利要求1或2所述的方法,其特征在于,所述响应包括所述厂商信息。
4.如权利要求1-3中任一项所述的方法,其特征在于,所述厂商信息包括多个厂商信息。
5.如权利要求1-4任一项所述的方法,其特征在于,所述厂商信息是设备制造商对应的厂商的信息。
6.如权利要求1-5任一项所述的方法,其特征在于,所述响应包括所述神经网络的标识信息。
7.如权利要求1-6任一项所述的方法,其特征在于,所述神经网络的信息包括所述神经网络的参数和/或所述神经网络的结构。
8.如权利要求1-7任一项所述的方法,其特征在于,所述请求包括基本服务集BSS的标识信息,所述响应的所述神经网络的信息与所述BSS的标识信息关联。
9.如权利要求1-8中任一项所述的方法,其特征在于,所述请求包括请求的神经网络的以下至少一项条件:神经网络的生成时间、神经网络的精确度、神经网络的模型大小。
10.如权利要求1-9任一项所述的方法,其特征在于,所述响应还包括以下至少一项:所述神经网络的生成时间、所述神经网络的精确度和所述神经网络的模型大小。
11.如权利要求1至10中任一项所述的方法,其特征在于,所述响应包括多个神经网络的信息。
12.如权利要求11所述的方法,其特征在于,所述响应还包括所述多个神经网络的生成时间;或,
所述多个神经网络的精确度;或,
所述多个神经网络的模型大小。
13.如权利要求1-12任一项所述的方法,其特征在于,所述请求站点发送请求的触发条件,包括:
所述请求站点存储的神经网络的信息超过预设时间未更新;或,
所述请求站点存储的所述神经网络的精确度小于阈值;或,
所述请求站点未存储所述神经网络的信息或未存储任意神经网络的信息;或,
所述请求站点存储的与所述厂商信息相关的神经网络的信息超过预设时间未更新;或,
所述请求站点未存储有与所述厂商信息相关的所述神经网络的信息。
14.如权利要求1-13任一项所述的方法,其特征在于,所述请求站点发送请求的触发条件,包括:
所述请求站点休眠后唤醒;或,
所述请求站点的无线局域网的网络环境发生变化。
15.一种无线局域网中的通信的方法,其特征在于,包括:
响应站点接收来自请求站点的请求,所述请求用于请求神经网络的信息;
所述响应站点根据所述请求向所述请求站点发送响应,所述响应包括所述请求的神经网络的信息,所述神经网络的信息与厂商信息关联。
16.如权利要求15所述的方法,其特征在于,所述请求包括所述厂商信息,或,所述请求包括所述神经网络的标识信息。
17.如权利要求15或16所述的方法,其特征在于,所述响应包括所述厂商信息。
18.如权利要求15-17任一项所述的方法,其特征在于,所述厂商信息包括多个厂商信息。
19.如权利要求15-18任一项所述的方法,其特征在于,所述厂商信息是设备制造商对应的厂商的信息。
20.如权利要求15-19任一项所述的方法,其特征在于,所述响应包括所述神经网络的标识信息。
21.如权利要求15-20任一项所述的方法,其特征在于,所述神经网络的信息包括所述神经网络的参数和/或所述神经网络的结构。
22.如权利要求15-21任一项所述的方法,其特征在于,所述请求包括基本服务集BSS的标识信息,所述响应的所述神经网络的信息与所述BSS的标识信息关联。
23.如权利要求15-22任一项所述的方法,其特征在于,所述请求包括请求的所述神经网络的信息以下至少一项条件:神经网络的生成时间、神经网络的精确度、神经网络的模型大小。
24.如权利要求15-23中任一项所述的方法,其特征在于,所述响应还包括以下至少一项:所述神经网络的生成时间、所述神经网络的精确度和所述神经网络的模型大小。
25.如权利要求15-24任一项所述的方法,其特征在于,所述响应包括多个神经网络的信息。
26.如权利要求25所述的方法,其特征在于,所述响应还包括所述多个神经网络的生成时间;或,
所述多个神经网络的精确度;或,
所述多个神经网络的模型大小。
27.如权利要求15-26任一项所述的方法,其特征在于,所述请求站点发送所述请求的触发条件,包括:
所述请求站点存储的神经网络的信息超过预设时间未更新;或,
所述请求站点存储的所述神经网络的精确度小于阈值;或,
所述请求站点未存储所述神经网络的信息或未存储任意神经网络的信息;或
所述请求站点存储的所述厂商信息相关的神经网络的信息超过预设时间未更新;或,
所述请求站点未存储有所述厂商信息相关的所述神经网络的信息。
28.如权利要求15-27任一项所述的方法,其特征在于,所述请求站点发送所述请求的触发条件,包括:
所述请求站点休眠后唤醒;或,
所述请求站点的无线局域网的网络环境发生变化。
29.一种通信装置,其特征在于,包括:用于实现如权利要求1至14中任意一项所述的方法的单元或模块,或用于实现如权利要求15至28中任意一项所述的方法的单元或模块。
30.一种通信装置,其特征在于,包括:
存储器,用于存储计算机指令;
处理器,用于执行所述存储器中存储的计算机指令,使得所述通信装置执行如权利要求1至14中任一项所述的方法,或使得所述通信装置执行如权利要求15至28中任一项所述的方法。
31.一种芯片,其特征在于,包括:处理器和接口,用于从存储器中调用并运行所述存储器中存储的计算机程序,以执行如权利要求1至14中任一项所述的方法,或执行如权利要求15至28中任一项所述的方法。
32.一种计算机可读存储介质,其特征在于,用于存储计算机程序,所述计算机程序包括用于实现如权利要求1至14中任一项所述的方法的指令,或包括用于实现如权利要求15至28中任一项所述的方法的指令。
33.一种计算机程序产品,其特征在于,包括计算机程序代码,当所述计算机程序代码在计算机上运行时,使得计算机实现如权利要求1至14中任一项所述的方法,或实现如权利要求15至28中任一项所述的方法。
34.一种通信系统,其特征在于,包括用于实现如权利要求1至14中任一项所述的方法的请求站点,以及用于实现如权利要求15至28中任一项所述的方法响应站点。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210885655.6A CN117499981A (zh) | 2022-07-26 | 2022-07-26 | 一种无线局域网中通信的方法和装置 |
PCT/CN2023/104158 WO2024022007A1 (zh) | 2022-07-26 | 2023-06-29 | 一种无线局域网中通信的方法和装置 |
TW112127931A TW202406402A (zh) | 2022-07-26 | 2023-07-26 | 無線局域網中通信的方法和裝置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210885655.6A CN117499981A (zh) | 2022-07-26 | 2022-07-26 | 一种无线局域网中通信的方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117499981A true CN117499981A (zh) | 2024-02-02 |
Family
ID=89683501
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210885655.6A Pending CN117499981A (zh) | 2022-07-26 | 2022-07-26 | 一种无线局域网中通信的方法和装置 |
Country Status (3)
Country | Link |
---|---|
CN (1) | CN117499981A (zh) |
TW (1) | TW202406402A (zh) |
WO (1) | WO2024022007A1 (zh) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101730107B (zh) * | 2010-01-29 | 2012-07-25 | 北京新岸线无线技术有限公司 | 一种无线局域网的接入方法及系统 |
EP3683733A1 (en) * | 2019-01-10 | 2020-07-22 | Nokia Technologies Oy | A method, an apparatus and a computer program product for neural networks |
US11812338B2 (en) * | 2020-08-04 | 2023-11-07 | Qualcomm Incorporated | Selective triggering of neural network functions for positioning measurement feature processing at a user equipment |
CN114492784A (zh) * | 2020-10-27 | 2022-05-13 | 华为技术有限公司 | 神经网络的测试方法和装置 |
US11424962B2 (en) * | 2020-12-03 | 2022-08-23 | Qualcomm Incorporated | Model discovery and selection for cooperative machine learning in cellular networks |
-
2022
- 2022-07-26 CN CN202210885655.6A patent/CN117499981A/zh active Pending
-
2023
- 2023-06-29 WO PCT/CN2023/104158 patent/WO2024022007A1/zh unknown
- 2023-07-26 TW TW112127931A patent/TW202406402A/zh unknown
Also Published As
Publication number | Publication date |
---|---|
TW202406402A (zh) | 2024-02-01 |
WO2024022007A1 (zh) | 2024-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2693592C1 (ru) | Способ, устройство и компьютерное программное изделие для прокси-сеанса обнаружения услуг для беспроводной связи | |
CN105493421B (zh) | Wlan 802.11中的快速关联 | |
CN104094664B (zh) | 用于减少话务指示映射寻呼之后的冲突的系统和方法 | |
JP2023537157A (ja) | マルチリンクに適用可能なクリティカルbssパラメータ管理方法及び関連機器 | |
EP3069542A1 (en) | Server aided nan cluster merging | |
JP2011526475A (ja) | マルチレートの近接性に基づくピア発見方法及び装置 | |
US10237188B2 (en) | Regulating responses based on request addressing or request channels | |
US20230300651A1 (en) | Method for supporting wlan use experience analysis using ue wlan user data | |
WO2024012331A1 (zh) | 一种确定人工智能ai模型的方法及装置 | |
CN116097688A (zh) | 通信方法、装置及系统 | |
WO2023208451A1 (en) | Nr framework for beam prediction in the spatial domain | |
CN117499981A (zh) | 一种无线局域网中通信的方法和装置 | |
CN110996345B (zh) | 自组网中场强检测或上报方法及装置、计算设备和存储介质 | |
WO2024017301A1 (zh) | 通信方法及装置 | |
WO2024027511A1 (zh) | 信道接入方法及相关装置 | |
WO2024067248A1 (zh) | 一种获取训练数据集的方法和装置 | |
WO2024125498A1 (zh) | 模型更新方法、装置、设备及存储介质 | |
WO2023125598A1 (zh) | 一种通信方法及通信装置 | |
WO2024007335A1 (zh) | 无线通信方法、装置、设备及存储介质 | |
WO2024125510A1 (zh) | 模型优化方法、装置、设备及存储介质 | |
WO2021058107A1 (en) | Data acquisition in a communication network | |
CN116938412A (zh) | 信息交互方法及相关装置 | |
CN117279113A (zh) | 信道接入方法和相关产品 | |
KR20240123398A (ko) | 진행 중인 분산 머신-러닝 또는 연합 러닝 프로세스를 처리하기 위한 제1 노드, 제3 노드, 제5 노드, 및 그에 의해 실행되는 방법 | |
CN116939715A (zh) | 信息交互方法及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |