CN115310600A - 用于神经网络运算的用户设备和无线通信方法 - Google Patents
用于神经网络运算的用户设备和无线通信方法 Download PDFInfo
- Publication number
- CN115310600A CN115310600A CN202111665219.XA CN202111665219A CN115310600A CN 115310600 A CN115310600 A CN 115310600A CN 202111665219 A CN202111665219 A CN 202111665219A CN 115310600 A CN115310600 A CN 115310600A
- Authority
- CN
- China
- Prior art keywords
- neural network
- network operation
- data packet
- descriptor
- operation results
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/0278—Traffic management, e.g. flow control or congestion control using buffer status reports
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L1/00—Arrangements for detecting or preventing errors in the information received
- H04L1/08—Arrangements for detecting or preventing errors in the information received by repeating transmission, e.g. Verdan system
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L5/00—Arrangements affording multiple use of the transmission path
- H04L5/003—Arrangements for allocating sub-channels of the transmission path
- H04L5/0053—Allocation of signaling, i.e. of overhead other than pilot signals
- H04L5/0057—Physical resource allocation for CQI
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L69/00—Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
- H04L69/06—Notations for structuring of protocol data, e.g. abstract syntax notation one [ASN.1]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/0268—Traffic management, e.g. flow control or congestion control using specific QoS parameters for wireless networks, e.g. QoS class identifier [QCI] or guaranteed bit rate [GBR]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W72/00—Local resource management
- H04W72/12—Wireless traffic scheduling
- H04W72/1263—Mapping of traffic onto schedule, e.g. scheduled allocation or multiplexing of flows
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L1/00—Arrangements for detecting or preventing errors in the information received
- H04L1/0001—Systems modifying transmission characteristics according to link quality, e.g. power backoff
- H04L1/0015—Systems modifying transmission characteristics according to link quality, e.g. power backoff characterised by the adaptation strategy
- H04L1/0017—Systems modifying transmission characteristics according to link quality, e.g. power backoff characterised by the adaptation strategy where the mode-switching is based on Quality of Service requirement
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W72/00—Local resource management
- H04W72/20—Control channels or signalling for resource management
- H04W72/21—Control channels or signalling for resource management in the uplink direction of a wireless link, i.e. towards the network
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Neurology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Computer Security & Cryptography (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本发明提供一种用于神经网络运算的用户设备。上述用户设备可包括一处理器和一传送器。处理器执行一神经网络运算,以产生复数神经网络运算结果,其中上述复数神经网络运算结果在一数据封包中,且上述复数神经网络运算结果是上述神经网络运算的中间数据。传送器传送上述数据封包至一基地台。上述数据封包包括一描述符,且上述描述符包括对应上述复数神经网络运算结果的参数和设定。
Description
技术领域
本发明的实施例主要涉及一神经网络运算(neural network computation)的技术,特别涉及传送用户设备(user equipment,UE)所产生的神经网络运算的中间数据(intermediate data)的神经网络运算技术。
背景技术
人工神经网络(Artificial neural networks,ANNs)和神经网络(neuralnetworks,NNs)已成为重要的机器学习(machine learning)技术,以用来提供智能的解决方案在许多应用上。此外,使用在神经网络的深度结构的深度学习(Deep Learning)方法显现了很好的潜力,其可在机械学习的任务上达到很好的效能。
在现今的技术中,基于神经网络的深度学习的任务可被划分到不同网络节点(network node)中,以进行分散式程序。模型位阶(model-level)流水线(pipeline)的组成可被划分到在不同网络节点所对应的不同机器学习任务中。举例来说,一移动装置可执行一物件检测模块来检测物件,且被检测到的物件(例如:人的脸)可传送至一多路存取边缘运算(multi-access Edge Computing,MEC)节点,以进行人脸识别。
换句话说,层位阶(layer-level)流水线(pipeline)的组成可被划分给整个神经网络(或深度学习)模型中的不同神经网络(或深度学习)子模型,以使得不同神经网络(或深度学习)子模型可配置到无线装置、边缘运算(edge computing)节点和云端运算(cloudcomputing)节点中。在这样被分解成不同部分的神经网络类型中,在一运算节点被计算好的一些神经网络参数会被传送到另一运算节点,以进行下一阶段的程序。然而,在现今的无线通信方法中并未设计如何进行神经网络模型的神经网络参数或部分运算结果的传输。
发明内容
有鉴于上述现有技术的问题,本发明的实施例提供了一种用于神经网络运算的用户设备和无线通信方法。
根据本发明的一实施例提供了一种用于神经网络运算的用户设备。上述用户设备可包括一处理器和一传送器。处理器执行一神经网络运算,以产生复数神经网络运算结果,其中上述复数神经网络运算结果在一数据封包中,且上述复数神经网络运算结果是上述神经网络运算的中间数据。传送器传送上述数据封包至一基地台。上述数据封包包括一描述符,且上述描述符包括对应上述复数神经网络运算结果的参数和设定。
根据本发明一些实施例,上述数据封包还包括一封包标头和一数据负载。封包标头用以指示上述数据封包。数据负载包括上述复数神经网络运算结果。
根据本发明一些实施例,对应上述复数神经网络运算结果的上述参数和上述设定包括,一神经网络类型、上述神经网络包含的层数、上述复数神经网络运算结果的大小、上述复数神经网络运算结果对应的位阶、一序号,以及一时间戳记。
根据本发明一些实施例,一协定数据单元(Protocol Data Unit,PDU)类型设定在上述数据封包中,以指示上述数据封包是用来搭载上述复数神经网络运算结果。
根据本发明一些实施例,一服务品质(Quality of Service,QoS)类型设定在上述数据封包中,以指示上述数据封包是用来搭载具有对应服务品质特征的上述神经网络运算结果。
根据本发明一些实施例,上述数据封包中包括一服务品质流识别符(QoS FlowIdentifier,QFI)或一5G服务品质识别符(5G QoS Identifier,5QI)。
根据本发明一些实施例,上述传送器传送一排程要求至上述基地台,以进行上述神经网络运算,其中上述排程要求可包括用以指示上述排程要求为了上述神经网络运算的二进位指示、一要求类型、一要求描述符、一模型指示符,以及上述复数神经网络运算结果的大小。上述排程要求还包括一半持续性排程描述符、数据传输所需进行的次数,以及一上行链路数据封包传输的一周期。
根据本发明一些实施例,上述传送器更传送一上行链路缓冲状态报告信息给上述基地台,以进行上述神经网络运算,其中上述缓冲状态报告信息中包括一信息描述符,其中上述信息描述符包括一神经网络类型和上述复数神经网络运算结果的大小。
根据本发明一些实施例,上述传送器更传送一网络切片建立要求信息给上述基地台,以进行上述神经网络运算,其中上述网络切片建立要求信息可包括一信息描述符,其中上述信息描述符可包含一神经网络类型、上述复数神经网络运算结果的大小、传输上述复数神经网络运算结果的一平均速率,以及传输上述复数神经网络运算结果的一尖峰速率。
根据本发明一些实施例,上述传送器更传送一无线资源控制(radio resourcecontrol,RRC)连结设定信息至上述基地台,其中上述无线资源控制连结设定信息可包括,用以指示上述无线资源控制连结设定信息用于上述神经网络通信的一二进位指示符、一协定数据单元会话类型栏位,以及一描述符。
根据本发明的一实施例提供了一种用于神经网络运算的无线通信方法。上述无线通信方法可应用于一用户设备。上述无线通信方法的步骤包括:通过上述用户设备的一处理器执行一神经网络运算,以产生复数神经网络运算结果,其中上述复数神经网络运算结果在一数据封包中,且上述复数神经网络运算结果是上述神经网络运算的中间数据;以及通过上述用户设备的一传送器,传送上述数据封包至一基地台,其中上述数据封包包括一描述符,且上述描述符包括对应上述复数神经网络运算结果的参数和设定。
关于本发明其他附加的特征与优点,此领域的熟习技术人士,在不脱离本发明的构思和范围内,当可根据本公开实施方法中所公开的用于神经网络运算的用户设备和无线通信方法,做些许的变动与润饰而得到。
附图说明
图1是显示根据本发明的一实施例所述的一无线通信系统100的方框图。
图2是显示根据本发明一些实施例所述的神经网络运算的示意图。
图3是根据本发明一实施例所述的波束故障恢复(BFR)程序的示意图。
图4A是显示根据本发明一实施例所述的一神经网络类型的示意图。
图4B是显示根据本发明另一实施例所述的一神经网络类型的示意图。
图5是显示根据本发明一些实施例所述的支援神经网络通信的传输的一通信会话的流程图。
图6是显示根据本发明一些实施例所述的用于动态同意(Dynamic Grant)的神经网络通信的流程图。
图7是显示根据本发明一些实施例所述的用于半持续性排程(Semi-PersistentScheduling,SPS)的神经网络通信的流程图。
图8是显示根据本发明一些实施例所述的基地台启动(base station-initiated)的神经网络通信的流程图。
图9是根据本发明一些实施例所述的用于神经网络运算的无线通信方法的流程图。
附图标记说明:
100:无线通信系统
110:用户设备
111:处理器
112:传送器
113:接收器
114:存储器装置
120:基地台
130:核心网络
300:数据封包
302:封包标头
304:描述符
306:数据负载
400、450:神经网络类型
402、404、452、454、456、L1、L2…LM:层
L1_n1~L1_nN、L2_n1~L2_nN、LM_n1~LM_nN运算节点
x1~xn:输入数据
y1~yn:输出数据
Z1、Z2:中间数据
S502~S510、S600~S614、S700~S708、S800~S806、S910~S920:步骤
具体实施方式
本章节所叙述的是实施本发明的优选方式,目的在于说明本发明的构思而非用以限定本发明的保护范围,本发明的保护范围当视权利要求所界定者为准。
图1是显示根据本发明的一实施例所述的一无线通信系统100的方框图。根据本发明的实施例,无线通信系统100可被应用在一机器学习技术,例如:一神经网络(neuralnetwork,NN)技术。如图1所示,无线通信系统100可包括一用户设备(user equipment,UE)110、一基地台120和一核心网络130。注意地是,在图1中所示的方框图,仅为了方便说明本发明的实施例,但本发明并不以图1为限。
根据本发明的实施例,用户设备110可是一智能手机、一穿戴式装置、一平板电脑、一台式电脑、一物联网(Internet of Things,IOT)节点(例如:一网络相机或对于感测到的数据有处理功能的一无线感测器节点,但本发明并不以此为限)、一闸道器(gateway)或一边缘运算装置,但本发明并不以此为限。
如图1所示,用户设备110可包括一处理器111、一传送器112、一接收器113和一存储器装置114。注意地是,在图1中所示的用户设备110,仅为了方便说明本发明的实施例,但本发明并不以图1为限。
根据本发明的实施例,处理器111可是一中央处理单元(central processingunit,CPU)或一图形处理单元(graphics processing unit,GPU)。处理器111用以进行神经网络运算。根据本发明一实施例,处理器111可用以控制传送器112、接收器113和存储器装置114的操作。
根据本发明的实施例,传送器112可传送数据封包或信息给基地台120,且接收器113可接收来自基地台120的数据封包或信息。根据本发明一实施例,传送器112和接收器113可整合成一收发器。根据本发明的实施例,传送器112和接收器113可应用在3G、4G、5G或Wi-Fi通信,但本发明不以此为限。
根据本发明的实施例,存储器装置114可存储用户设备110的软件和固件程序码、系统数据和使用者数据等。存储器装置114可是一挥发性存储器(volatile memory)(例如:随机存取存储器(Random Access Memory,RAM)),或一非易失性存储器(Non-volatilememory)(例如:快闪存储器(flash memory)、只读存储器(Read Only Memory,ROM))、一硬盘或上述装置的组合。根据本发明的实施例,存储器装置114可存储神经网络运算对应的数据。
根据本发明的实施例,基地台120可是一进化B节点(evolved Node B,eNB)或一次世代B节点(generation Node B,gNB)。根据本发明的实施例,核心网络130可是4G核心网络或5G核心网络,但本发明不以此为限。
图2是显示根据本发明一些实施例所述的神经网络运算的示意图。如图2所示,神经网络运算包括复数层(layer)L1、L2…LM。在第L1层包括运算节点L1_n1、L1_n2…L1_nN。在第L2层包括运算节点L2_n1、L2_n2…L2_nN。在第LM层包括运算节点LM_n1、LM_n2…LM_nN。在此实施例中,输入数据x1、x2…xn被传送到第L1层的运算节点L1_n1、L1_n2…L1_nN进行神经网络运算,以取得中间数据Z1。中间数据Z1是表示第L1层的运算节点L1_n1、L1_n2…L1_nN所对应的神经网络运算结果。此外,中间数据Z1会被传送到第L2层的运算节点L2_n1、L2_n2…L2_nN进行神经网络运算,以取得中间数据Z2。中间数据Z2是表示第L2层的运算节点L2_n1、L2_n2…L2_nN所对应的神经网络运算结果。以此类推,中间数据ZM-1会被传送到第LM层的运算节点LM_n1、LM_n2…LM_nN进行神经网络运算,以取得中间数据ZM(可被视为神经网络运算的输出数据y1、y2…yn)。中间数据ZM是表示第LM层的运算节点LM_n1、LM_n2…LM_nN所对应的神经网络运算结果。根据本发明一实施例,用户设备110可处理神经网络运算其中几层的运算。举例来说,用户设备110可处理第L1层和第L2层的神经网络运算,以产生中间数据Z1和中间数据Z2(即第L1层和第L2层的神经网络运算对应的神经网络运算结果)。接着,用户设备110可按序将中间数据Z1和中间数据Z2传送给基地台120,以进行剩余的其它层所对应的神经网络运算。
图3是显示根据本发明一些实施例所述的一数据结构(data structure)中的一数据封包的示意图。根据本发明一实施例,用户设备110所产生的神经网络运算结果(例如:图2所示的中间数据Z1或中间数据Z2,但本发明不以此为限)可被搭载在数据封包300中。接着,用户设备110会将数据封包300传送给基地台120,以进行剩余的其它层所对应的神经网络运算。如图3所示,数据封包300可包括一封包标头(packet header)302、一描述符(descriptor)304和一数据负载(data payload)306。在此实施例中,封包标头302可包括一指示符(indicator),以指示数据封包300包括神经网络运算结果,例如,第L1层的运算节点L1_n1、L1_n2…L1_nN所对应的神经网络运算结果或第L2层的运算节点L2_n1、L2_n2…L2_nN所对应的神经网络运算结果。在此实施例中,描述符304可包括用户设备110所产生的神经网络运算结果所对应的参数和设定。在此实施例中,数据负载306可包括用户设备110所产生的神经网络运算结果。
在本发明一些实施例中,神经网络运算结果所对应的参数和设定可包括神经网络的类型(例如:图4A和图4B所示的神经网络类型Model 1或Model 2,但本发明不以此为限)、神经网络中所包含的层数(例如:2层,第L1层和第L2层,但本发明不以此为限)、神经网络运算结果的大小(例如:如图3所示,在数据负载306中对应第L1层的神经网络运算结果可包括6个元素(element)Z11、Z12、Z13、Z14、Z15和Z16,但本发明不以此为限)、神经网络运算结果所对应的位阶(level)(例如:第L1层或第L2层,但本发明不以此为限)、一序号(sequencenumber)(即神经网络运算结果的序号),以及一时间戳记(time stamp)(即传送此神经网络运算结果的时间点),但本发明不以此为限。
图4A是显示根据本发明一实施例所述的一神经网络类型的示意图。如图4A所示,神经网络类型400总共包括两层,层402和层404。神经网络类型400中的层402可包括复数运算节点,且神经网络类型400中的层404可包括两个运算节点。图4B是显示根据本发明另一实施例所述的一神经网络类型的示意图。如图4B所示,神经网络类型450总共包括三层,层452、层454和层456。神经网络类型450中的每一层(层452、层454和层456)可包括两个运算节点。需注意地是,图4A和图4B所示的神经网络类型仅是用来说明本发明的实施例,但本发明并不以此为限。
在本发明一些实施例中,从用户设备110传送至基地台120的数据封包(例如:数据封包300)可包括一新协定数据单元(Protocol Data Unit,PDU)类型。协定数据单元类型可用以指示数据封包是用来搭载神经网络运算结果。在本发明一些实施例中,从用户设备110传送至基地台120的数据封包(例如:数据封包300)可包括一新服务品质(Quality ofService,QoS)类型。服务品质类型可用以指示数据封包是用来搭载具有对应服务品质特征(QoS characteristics)的神经网络运算结果。
在本发明一些实施例中,用户设备110可控制对应用户设备110和基地台120间的神经网络运算的服务品质(QoS)。在此实施例中,从用户设备110传送至基地台120的数据封包(例如:数据封包300)可包括一服务品质流识别符(QoS Flow Identifier,QFI),以指示此数据封包是用来搭载神经网络运算结果。此外,在此实施例中,用户设备110可映射(map)神经网络通信的服务品质流(QoS Flow)至一数据无线承载(data radio bearer,DRB),数据无线承载可提供神经网络运算结果对应的通信品质。
在本发明一些实施例中,从用户设备110传送至基地台120的数据封包(例如:数据封包300)可包括一5G服务品质识别符(5G QoS Identifier,5QI)。5G服务品质识别符可用来指示数据封包是用来搭载神经网络运算结果。
在本发明一些实施例中,用户设备110可将包含神经网络运算结果的数据封包(例如:数据封包300)放到一特定数据缓冲(specific data buffer)(图未显示)中。
在本发明一些实施例中,用户设备110可根据用户设备110和基地台120间的神经网络通信的服务品质需求,设定服务品质排程规则(QoS scheduling policies)。
在本发明一些实施例中,用户设备110可根据用户设备110和基地台120间的神经网络通信的流量特征(traffic characteristics)和应用需求,配置排程规则。可通过考虑数据处理的神经网络处理时间来设定排程规则。根据排程规则,用户设备110的传送器112可传送一排程要求(scheduling request)至基地台120,以进行神经网络运算。根据本发明一实施例,排程要求可包括,用以指示排程要求为了神经网络运算的二进位指示(binaryindication)、一要求类型(request type)、一要求描述符(request descriptor)、模型指示符(model identifier),以及神经网络运算结果的大小。二进位指示可指示排程要求为了神经网络通信。要求类型可指示排程要求所对应的程序(例如:动态同意(DynamicGrant)或半持续性排程(Semi-Persistent Scheduling,SPS))。要求描述符可描述排程要求的特征。模型指示符可描述神经网络类型(例如:神经网络类型400和神经网络类型450,但本发明并不以此为限)。
在本发明一些实施例中,用户设备110可传送一上行链路(uplink)缓冲状态报告(buffer status report,BSR)信息给基地台120。缓冲状态报告信息可包括一指示符(identifier)可用以指示用于上行链路传输的特定数据缓冲中是否可取得一组神经网络运算结果。缓冲状态报告信息亦可包括用于神经网络运算结果的一描述符(descriptor)。上述描述符可用以指示神经网络类型(例如:神经网络类型400和神经网络类型450,但本发明并不以此为限),和指示神经网络运算结果的大小,但本发明并不以此为限。
在本发明一些实施例中,用户设备110可传送一网络切片建立要求(networkslice establishment request)信息给基地台120。网络切片建立要求信息可用以建立用于神经网络通信的一网络切片。网络切片建立要求信息可包括一指示符,以指示被要求的网络切片为了支援神经网络运算结果的通信。网络切片建立要求信息亦可包括用于神经网络运算结果的一描述符。上述描述符可用以指示神经网络类型(例如:神经网络类型400和神经网络类型450,但本发明并不以此为限)、神经网络运算结果的大小、传输神经网络运算结果的平均速率(average rate)(例如:一秒可传送几张图片,但本发明并不以此为限),以及传输神经网络运算结果的一尖峰速率(peak rate)(例如:一秒钟可被传送的图片的数量的最大值,但本发明并不以此为限),但本发明并不以此为限。
图5是显示根据本发明一些实施例所述的支援神经网络通信的传输的一通信会话(communication session)的流程图。图5所示的流程图可应用在无线通信系统100。如图5所示,用户设备110可和基地台120建立用于神经网络通信的协定数据单元(Protocol DataUnit,PDU)会话。在步骤S502,用户设备110可传送一信令信息(signaling message)(例如:一无线资源控制(radio resource control,RRC)连结设定信息)至基地台102,以启动用于神经网络通信的一PDU会话。在步骤S504,基地台120接收到信令信息后,基地台120可传送一起始用户设备信息至核心网络130。在步骤S506,核心网络130接收到起始用户设备信息后,核心网络130可传送一PDU会话资源设定要求至基地台120。在步骤S508,基地台120接收到PDU会话资源设定要求后,基地台120可传送一PDU会话资源设定回应给核心网络130。在步骤S510,支援神经网络通信的PDU会话在用户设备110和基地台120间被建立。
在此实施例中,信令信息(例如:一RRC连结设定信息)可包括一二进位指示符、一PDU会话类型栏位(field)以及一描述符。在信令信息的二进位指示符可用以指示会话要求用于神经网络通信。在信令信息的PDU会话类型栏位是用以指示神将网络类型(例如:神经网络类型400和神经网络类型450,但本发明并不以此为限)。描述符可用以描述神经网络通信的特征(例如:神经网络有几层、神经网络运算结果的大小、神经网络运算结果对应的位阶、一序号以及一时间戳记,但本发明并不以此为限)。
图6是显示根据本发明一些实施例所述的用于动态同意(Dynamic Grant)的神经网络通信的流程图。图6所示的流程图可应用于无线通信系统100。如图6所示,在步骤S600,用户设备110可传送一排程要求(或信令信息)至基地台120,以要求进行带有神经网络运算结果的数据封包的传输。在步骤S602,基地台120接收到排程要求后,基地台120可传送一同意信息(grant message),以同意来自用户设备110的要求。在步骤S604,用户设备110接收到同意信息后,用户设备110可传送数据封包至基地台120,以完成一循环(cycle)的用于动态同意的神经网络通信。
在步骤S610,当用户设备110想要传送下一个数据封包至基地台120时,用户设备110可传送一排程要求至基地台120,以要求进行带有神经网络运算结果的下一数据封包的传输。在步骤S612,基地台120接收到排程要求后,基地台120可传送一同意信息,以同意来自用户设备110的要求。在步骤S614,用户设备110接收到同意信息后,用户设备110可传送数据封包至基地台120,以完成下一循环的用于动态同意的神经网络通信。须注意地是,图6仅显示两循环,但本发明并不以此为限。
根据本发明一些实施例,在步骤S600和S610的排程要求中可包括一二进位指示、一要求类型、一要求描述符、一模型指示符和神经网络运算结果的大小。二进位指示可用以指示排程要求用于神经网络通信。要求类型可用以指示排程要求用于动态同意(DynamicGrant)。要求描述符可用以描述排程要求的特征。模型指示符可用以描述神经网络类型(例如:神经网络类型400和神经网络类型450,但本发明并不以此为限)。
图7是显示根据本发明一些实施例所述的用于半持续性排程(Semi-PersistentScheduling,SPS)的神经网络通信的流程图。图7所示的流程图可应用于无线通信系统100。如图7所示,在步骤S700,用户设备110可传送一排程要求(或信令信息)至基地台120,以要求进行带有神经网络运算结果的多个上行链路数据封包的传输。在步骤S702,基地台120接收到排程要求后,基地台120可传送一同意信息(grant message),以同意来自用户设备110的要求。在步骤S704~S708,用户设备110接收到同意信息后,用户设备110可在每一周期t周期性地传送数据封包至基地台120。
根据本发明一些实施例,在步骤S700的排程要求可用以指示数据传输的流量特征(traffic characteristics)。此外,在步骤S700的排程要求可包括一半持续性排程(SPS)描述符、数据传输所需进行的次数,以及上行链路数据封包传输的周期。此外,S700的排程要求还可包括一二进位指示、一要求类型、一要求描述符、一模型指示符和神经网络运算结果的大小。二进位指示可用以指示排程要求用于神经网络通信。要求类型可用以指示排程要求用于半持续性排程(SPS)。要求描述符可用以描述排程要求的特征。模型指示符可用以描述神经网络类型(例如:神经网络类型400和神经网络类型450,但本发明并不以此为限)。
图8是显示根据本发明一些实施例所述的基地台启动(base station-initiated)的神经网络通信的流程图。图8所示的流程图可应用于无线通信系统100。如图8所示,在步骤S800,基地台120可传送一信令信息(例如:一RRC配置)至用户设备110。在步骤S802~S806,用户设备110可传送带有神经网络运算结果的多个数据封包(或一个数据封包),以回应基地台120所传送的信令信息。
根据本发明一些实施例,在步骤S802~S806所传送的每一数据封包可包括一封包标头、一描述符和一数据负载。数据封包中的封包标头可包括一指示符,以指示数据封包包括神经网络运算结果。数据封包中的描述符可包括神经网络运算结果所对应的参数和设定。神经网络运算结果所对应的参数和设定可包括神经网络的类型、神经网络所包含的层数、神经网络运算结果的大小、神经网络运算结果所对应的层、一序号,以及一时间戳记,但本发明不以此为限。数据封包中的数据负载可包括神经网络运算结果。
图9是根据本发明一些实施例所述的用于神经网络(neural network)运算的无线通信方法的流程图。此无线通信方法可应用于无线通信100的用户设备110。如图9所示,在步骤S910,用户设备110的处理器执行一神经网络运算,以产生复数神经网络运算结果,其中上述复数神经网络运算结果可包括在一数据封包中,且上述复数神经网络运算结果是神经网络运算的中间数据(intermediate data)。在步骤S920,用户设备110的传送器可传送数据封包至基地台,其中上述数据封包可包括一描述符(descriptor),且上述描述符包括对应神经网络运算结果的参数和设定。
根据本发明一实施例,在无线通信方法中,数据封包还包括一封包标头和一数据负载。封包标头中可包括一指示符,以指示数据封包包括神经网络运算结果。数据负载中可包括神经网络运算结果。
根据本发明一实施例,在无线通信方法中,神经网络运算结果所对应的参数和设定可包括神经网络的类型、神经网络所包含的层数、神经网络运算结果的大小、神经网络运算结果所对应的位阶、一序号,以及一时间戳记。
根据本发明一实施例,在无线通信方法中,可在数据封包中设定一协定数据单元(Protocol Data Unit,PDU)类型,以指示此数据封包是用来搭载神经网络运算结果。
根据本发明一实施例,在无线通信方法中,数据封包中可设定一服务品质(Quality of Service,QoS)类型,以指示数据封包是用来搭载具有对应服务品质特征(QoScharacteristics)的神经网络运算结果。
根据本发明一实施例,在无线通信方法中,数据封包中可包含一服务品质流识别符(QoS Flow Identifier,QFI)或一5G服务品质识别符(5G QoS Identifier,5QI)。
根据本发明一实施例,在无线通信方法中,用户设备110的处理器还可映射(map)神经网络通信的服务品质流至一数据无线承载(data radio bearer,DRB),其中此数据无线承载可用以提供神经网络运算结果对应的通信品质。
根据本发明一实施例,在无线通信方法中,用户设备110的传送器还可传送一排程要求(scheduling request)至基地台120,以进行神经网络运算。在一实施例中,排程要求可包括,用以指示排程要求为了神经网络运算的二进位指示(binary indication)、一要求类型(request type)、一要求描述符(request descriptor)、模型指示符(modelidentifier),以及神经网络运算结果的大小。在另一实施例中,排程要求还可包括半持续性排程(Semi-Persistent Scheduling,SPS)描述符、数据传输所需进行的次数,以及上行链路数据封包传输的周期。
根据本发明一实施例,在无线通信方法中,用户设备110的传送器还可传送一上行链路缓冲状态报告(buffer status report,BSR)信息给基地台,以进行神经网络运算,其中缓冲状态报告信息可包括一信息描述符,其中上述信息描述符包括神经网络类型和神经网络运算结果的大小。
根据本发明一实施例,在无线通信方法中,用户设备110的传送器还可传送一网络切片建立要求(network slice establishment request)信息给基地台,以进行神经网络运算,其中上述网络切片建立要求信息可包括一信息描述符,其中上述信息描述符可包含神经网络类型、神经网络运算结果的大小、传输神经网络运算结果的平均速率(averagerate),以及传输神经网络运算结果的一尖峰速率(peak rate)。
根据本发明一实施例,在无线通信方法中,用户设备110的传送器还可传送一无线资源控制(radio resource control,RRC)连结设定信息至基地台,其中RRC连结设定信息可包括,用以指示RRC连结设定信息用于神经网络通信的一二进位指示符、一协定数据单元(Protocol Data Unit,PDU)会话类型栏位(field)以及一描述符。基地台接收到RRC连结设定信息后,基地台可建立和用户设备110间用于神经网络通信的PDU会话。
根据本发明一实施例,在无线通信方法中,用户设备110的接收器可从基地台接收一RRC配置,然后,用户设备110的传送器可传送数据封包至基地台。
根据本发明所提出的无线通信系统100和无线通信方法,将能够增进神经网络传输的效率,以及改善神经网络传输的传送效能。
本说明书中以及权利要求中的序号,例如“第一”、“第二”等等,仅为了方便说明,彼此之间并没有顺序上的先后关系。
本发明的说明书所公开的方法和演算法的步骤,可直接通过执行一处理器直接应用在硬件以及软件模块或两者的结合上。一软件模块(包括执行指令和相关数据)和其它数据可存储在数据存储器中,像是随机存取存储器(RAM)、快闪存储器(flash memory)、只读存储器(ROM)、可抹除可规化只读存储器(EPROM)、电子可抹除可规划只读存储器(EEPROM)、暂存器、硬盘、便携式硬盘、光盘只读存储器(CD-ROM)、DVD或在此领域习的技术中任何其它电脑可读取的存储媒体格式。一存储媒体可耦接至一机器装置,举例来说,像是电脑/处理器(为了说明的方便,在本说明书以处理器来表示),上述处理器可用来读取信息(像是程序码),以及写入信息至存储媒体。一存储媒体可整合一处理器。一特殊应用集成电路(ASIC)包括处理器和存储媒体。一用户设备则包括一特殊应用集成电路。换句话说,处理器和存储媒体以不直接连接用户设备的方式,包含于用户设备中。此外,在一些实施例中,任何适合电脑程序的产品包括可读取的存储媒体,其中可读取的存储媒体包括和一或多个所公开实施例相关的程序码。在一些实施例中,电脑程序的产品可包括封装材料。
以上段落使用多种层面描述。显然的,本文的启示可以多种方式实现,而在范例中公开的任何特定架构或功能仅为一代表性的状况。根据本文的启示,任何熟知此技艺的人士应理解在本文公开的各层面可独立实作或两种以上的层面可以合并实作。
虽然本公开已以实施例公开如上,然其并非用以限定本公开,任何本领域技术人员,在不脱离本公开的构思和范围内,当可作些许的变动与润饰,因此本发明的保护范围当视权利要求所界定者为准。
Claims (22)
1.一种用于神经网络运算的用户设备,包括:
一处理器,执行一神经网络运算,以产生复数神经网络运算结果,其中上述复数神经网络运算结果在一数据封包中,且上述复数神经网络运算结果是上述神经网络运算的中间数据;以及
一传送器,传送上述数据封包至一基地台;
其中上述数据封包包括一描述符,且上述描述符包括对应上述复数神经网络运算结果的参数和设定。
2.如权利要求1所述的用户设备,其中上述数据封包还包括:
一封包标头,包括一指示符,以指示上述数据封包;以及
一数据负载,包括上述复数神经网络运算结果。
3.如权利要求1所述的用户设备,其中对应上述复数神经网络运算结果的上述参数和上述设定包括,一神经网络类型、上述神经网络包含的层数、上述复数神经网络运算结果的大小、上述复数神经网络运算结果对应的位阶、一序号,以及一时间戳记。
4.如权利要求1所述的用户设备,其中一协定数据单元类型设定在上述数据封包中,以指示上述数据封包是用来搭载上述复数神经网络运算结果。
5.如权利要求1所述的用户设备,其中一服务品质类型设定在上述数据封包中,以指示上述数据封包是用来搭载具有对应服务品质特征的上述神经网络运算结果。
6.如权利要求1所述的用户设备,其中上述数据封包中包括一服务品质流识别符或一5G服务品质识别符。
7.如权利要求1所述的用户设备,其中上述传送器传送一排程要求至上述基地台,以进行上述神经网络运算,其中上述排程要求可包括用以指示上述排程要求为了上述神经网络运算的二进位指示、一要求类型、一要求描述符、一模型指示符,以及上述复数神经网络运算结果的大小。
8.如权利要求7所述的用户设备,其中上述排程要求还包括一半持续性排程描述符、数据传输所需进行的次数,以及一上行链路数据封包传输的一周期。
9.如权利要求1所述的用户设备,其中上述传送器更传送一上行链路缓冲状态报告信息给上述基地台,以进行上述神经网络运算,其中上述缓冲状态报告信息中包括一信息描述符,其中上述信息描述符包括一神经网络类型和上述复数神经网络运算结果的大小。
10.如权利要求1所述的用户设备,其中上述传送器更传送一网络切片建立要求信息给上述基地台,以进行上述神经网络运算,其中上述网络切片建立要求信息可包括一信息描述符,其中上述信息描述符可包含一神经网络类型、上述复数神经网络运算结果的大小、传输上述复数神经网络运算结果的一平均速率,以及传输上述复数神经网络运算结果的一尖峰速率。
11.如权利要求1所述的用户设备,其中上述传送器更传送一无线资源控制连结设定信息至上述基地台,其中上述无线资源控制连结设定信息可包括,用以指示上述无线资源控制连结设定信息用于上述神经网络通信的一二进位指示符、一协定数据单元会话类型栏位,以及一描述符。
12.一种用于神经网络运算的无线通信方法,其中上述无线通信方法应用于一用户设备,包括:
通过上述用户设备的一处理器执行一神经网络运算,以产生复数神经网络运算结果,其中上述复数神经网络运算结果在一数据封包中,且上述复数神经网络运算结果是上述神经网络运算的中间数据;以及
通过上述用户设备的一传送器,传送上述数据封包至一基地台;
其中上述数据封包包括一描述符,且上述描述符包括对应上述复数神经网络运算结果的参数和设定。
13.如权利要求12所述的无线通信方法,其中上述数据封包还包括:
一封包标头,包括一指示符,以指示上述数据封包;以及
一数据负载,包括上述复数神经网络运算结果。
14.如权利要求12所述的无线通信方法,其中对应上述复数神经网络运算结果的上述参数和上述设定包括,一神经网络类型、上述神经网络包含的层数、上述复数神经网络运算结果的大小、上述复数神经网络运算结果对应的位阶、一序号,以及一时间戳记。
15.如权利要求12所述的无线通信方法,其中一协定数据单元类型设定在上述数据封包中,以指示上述数据封包是用来搭载上述复数神经网络运算结果。
16.如权利要求12所述的无线通信方法,其中一服务品质类型设定在上述数据封包中,以指示上述数据封包是用来搭载具有对应服务品质特征的上述神经网络运算结果。
17.如权利要求12所述的无线通信方法,其中上述数据封包中包括一服务品质流识别符或一5G服务品质识别符。
18.如权利要求12所述的无线通信方法,还包括:
通过上述传送器传送一排程要求至上述基地台,以进行上述神经网络运算;
其中上述排程要求可包括用以指示上述排程要求为了上述神经网络运算的二进位指示、一要求类型、一要求描述符、一模型指示符,以及上述复数神经网络运算结果的大小。
19.如权利要求18所述的无线通信方法,其中上述排程要求还包括一半持续性排程描述符、数据传输所需进行的次数,以及一上行链路数据封包传输的一周期。
20.如权利要求12所述的无线通信方法,还包括:
通过上述传送器传送一上行链路缓冲状态报告信息给上述基地台,以进行上述神经网络运算;
其中上述缓冲状态报告信息中包括一信息描述符,其中上述信息描述符包括一神经网络类型和上述复数神经网络运算结果的大小。
21.如权利要求12所述的无线通信方法,还包括:
通过上述传送器传送一网络切片建立要求信息给上述基地台,以进行上述神经网络运算;
其中上述网络切片建立要求信息可包括一信息描述符,其中上述信息描述符可包含一神经网络类型、上述复数神经网络运算结果的大小、传输上述复数神经网络运算结果的一平均速率,以及传输上述复数神经网络运算结果的一尖峰速率。
22.如权利要求12所述的无线通信方法,还包括:
通过上述传送器传送一无线资源控制连结设定信息至上述基地台;
其中上述无线资源控制连结设定信息可包括,用以指示上述无线资源控制连结设定信息用于上述神经网络通信的一二进位指示符、一协定数据单元会话类型栏位,以及一描述符。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/308,256 | 2021-05-05 | ||
US17/308,256 US12041480B2 (en) | 2021-05-05 | 2021-05-05 | User equipment and wireless communication method for neural network computation |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115310600A true CN115310600A (zh) | 2022-11-08 |
Family
ID=83853145
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111665219.XA Pending CN115310600A (zh) | 2021-05-05 | 2021-12-31 | 用于神经网络运算的用户设备和无线通信方法 |
Country Status (3)
Country | Link |
---|---|
US (2) | US12041480B2 (zh) |
CN (1) | CN115310600A (zh) |
TW (1) | TWI825531B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230239239A1 (en) * | 2022-01-25 | 2023-07-27 | Qualcomm Incorporated | Upper analog media access control (mac-a) layer functions for analog transmission protocol stack |
US11870528B2 (en) * | 2022-04-20 | 2024-01-09 | Nokia Technologies Oy | Machine learning in beam selection |
WO2024172736A1 (en) * | 2023-02-16 | 2024-08-22 | Telefonaktiebolaget Lm Ericsson (Publ) | Network nodes and methods for handling signaling messages |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101473008B1 (ko) * | 2007-08-13 | 2014-12-17 | 엘지전자 주식회사 | VoIP 패킷을 전송하는 방법 |
US10402235B2 (en) | 2016-04-15 | 2019-09-03 | Nec Corporation | Fine-grain synchronization in data-parallel jobs for distributed machine learning |
AU2017300259A1 (en) | 2016-07-18 | 2019-02-14 | Nant Holdings Ip, Llc | Distributed machine learning systems, apparatus, and methods |
US10360500B2 (en) | 2017-04-20 | 2019-07-23 | Sas Institute Inc. | Two-phase distributed neural network training system |
EP3641423B1 (en) * | 2017-06-17 | 2022-04-20 | LG Electronics Inc. | Method for registering terminal in wireless communication system and apparatus therefor |
US10931602B1 (en) * | 2019-05-10 | 2021-02-23 | Innovium, Inc. | Egress-based compute architecture for network switches in distributed artificial intelligence and other applications |
CN110308987B (zh) | 2019-05-17 | 2023-08-01 | 深圳致星科技有限公司 | 一种更新容器云上分布式训练任务连接参数的方法 |
EP3757813A3 (en) * | 2019-06-18 | 2021-01-20 | Tenstorrent Inc. | Processor cores using packet identifiers for routing and computation |
EP4169333A1 (en) * | 2020-06-19 | 2023-04-26 | Telefonaktiebolaget LM Ericsson (publ) | Method and apparatus for buffer state report |
US20220182802A1 (en) * | 2020-12-03 | 2022-06-09 | Qualcomm Incorporated | Wireless signaling in federated learning for machine learning components |
-
2021
- 2021-05-05 US US17/308,256 patent/US12041480B2/en active Active
- 2021-12-20 TW TW110147648A patent/TWI825531B/zh active
- 2021-12-31 CN CN202111665219.XA patent/CN115310600A/zh active Pending
-
2024
- 2024-06-11 US US18/739,647 patent/US20240334239A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20240334239A1 (en) | 2024-10-03 |
US20220361037A1 (en) | 2022-11-10 |
TWI825531B (zh) | 2023-12-11 |
TW202244791A (zh) | 2022-11-16 |
US12041480B2 (en) | 2024-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11297525B2 (en) | Allocation of data radio bearers for quality of service flows | |
CN113630796B (zh) | 服务质量监测方法、设备及系统 | |
CN115310600A (zh) | 用于神经网络运算的用户设备和无线通信方法 | |
EP3709686B1 (en) | Data transmission control method and related product | |
CN108605266A (zh) | 无线接入控制方法、装置及系统 | |
US10425955B2 (en) | Bearer setup method and apparatus | |
CN111436030A (zh) | 数据用量上报的方法、装置及系统 | |
US20190349936A1 (en) | Service Data Transmission Method, First Communications Node, and Base Station | |
EP3962157B1 (en) | Mdbv determining methods and apparatuses | |
JP2017521937A (ja) | 端末装置およびd2dリソース管理方法 | |
CN112135329B (zh) | 参数传输方法、装置及系统 | |
CN113950029A (zh) | 一种通信方法及装置 | |
Huq et al. | On the benefits of clustered capillary networks for congestion control in machine type communications over LTE | |
CN111373834B (zh) | 用于建立数据无线承载的客户端设备、接入网设备、方法及计算机程序 | |
US20240137801A1 (en) | Adaptive forwarding handling of data packets | |
CN117632463A (zh) | 一种计算任务的分割方法及相关装置 | |
CN116489703B (zh) | 感知节点确定方法、感知节点控制方法和相关设备 | |
CN111132226B (zh) | 将服务质量流映射到无线电承载 | |
GB2624512A (en) | Methods and apparatus for handling AI/ML data | |
CN117499877A (zh) | 一种热点设备的管理方法、通信装置及通信系统 | |
WO2018086453A1 (zh) | 一种信息处理方法及装置、计算机存储介质 | |
CN104486794A (zh) | 传输语音ip报文的方法、装置及系统 | |
CN118741614A (zh) | 用于通信的方法、装置和计算机可读存储介质 | |
KR20230086726A (ko) | Prs 설정을 요청하는 방법, 통신 기기 및 저장 매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |