WO2023179448A1 - 一种信息传输方法及装置 - Google Patents

一种信息传输方法及装置 Download PDF

Info

Publication number
WO2023179448A1
WO2023179448A1 PCT/CN2023/081870 CN2023081870W WO2023179448A1 WO 2023179448 A1 WO2023179448 A1 WO 2023179448A1 CN 2023081870 W CN2023081870 W CN 2023081870W WO 2023179448 A1 WO2023179448 A1 WO 2023179448A1
Authority
WO
WIPO (PCT)
Prior art keywords
node
information
artificial intelligence
intelligence model
link
Prior art date
Application number
PCT/CN2023/081870
Other languages
English (en)
French (fr)
Inventor
陈家璇
杭海存
金黄平
吴艺群
梁璟
Original Assignee
华为技术有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 华为技术有限公司 filed Critical 华为技术有限公司
Publication of WO2023179448A1 publication Critical patent/WO2023179448A1/zh

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/145Network analysis or design involving simulating, designing, planning or modelling of a network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/16Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W16/00Network planning, e.g. coverage or traffic planning tools; Network deployment, e.g. resource partitioning or cells structures
    • H04W16/22Traffic simulation tools or models

Definitions

  • the present disclosure relates to the field of communication technology, and in particular, to an information transmission method and device.
  • the application of artificial intelligence (AI) models can significantly improve the performance of communication systems.
  • AI artificial intelligence
  • the network side/terminal side may need to download the network from a third-party entity, or the terminal side may need to interact with the model between the terminal sides. Therefore, how to interact with models is an important research topic in wireless communications.
  • the present disclosure provides an information transmission method and device to provide a description method of an AI model and reduce the overhead of the AI model.
  • this application provides an information transmission method, which is used to implement functions on the first device side.
  • the method can be applied to the first device, a chip or module in the first device, or other methods that can implement the method. equipment or modules, the embodiments of this application are not limited to the specific execution subject of the method.
  • the method can be jointly implemented by multiple functional modules on the first device side, and the method performed by each functional module is also within the protection scope of this application.
  • the first device receives N pieces of first node information from the second device; wherein, one piece of first node information is used to indicate at least one of the first artificial intelligence models.
  • N is an integer greater than 1
  • the first artificial intelligence model is determined based on the N first node information and the first link information
  • the first link information is used to indicate the M first artificial intelligence models in the first
  • M is an integer greater than or equal to N.
  • the node information of the nodes included in the artificial intelligence model and the connection relationship between the nodes can be separately configured, and the second device can only indicate the artificial intelligence model. Included node information can reduce the representation and transmission overhead of artificial intelligence models.
  • connection relationship indicated by the first link information is preset; determining the first artificial intelligence model based on the N first node information and the first link information includes: based on the N first node information The information determines the M first nodes included in the first artificial intelligence model; the first artificial intelligence model is determined based on the preset connection relationship and the M first nodes.
  • the first link information indicates the connection relationship between the M first nodes included in the first artificial intelligence model through X pieces of link attribute information, thereby realizing the description of the artificial intelligence model with as streamlined information as possible.
  • each first node in the at least one first node has a unique node identifier, that is, the first node information indicates the identifier of each first node in the at least one first node.
  • At least one of the following information of each first node is shared or the same: operator identification; operator parameter list configuration information; operator weight list configuration information; input format; or output format.
  • the operator is an operator in a preset standard operator library.
  • one or more of the following information is defined for the operator: the operator's operator identifier; the operator's parameter list, the operator's The parameter list indicates at least one parameter included in the operator and the default value of at least one parameter; the weight list of the operator indicates at least one weight corresponding to the operator and the default value of at least one weight; the parameter list Parsing method; or, parsing method of weight list.
  • second link information is received from the second device, and the second link information is used to indicate connection relationships between Q second nodes of the second artificial intelligence model.
  • the second link information is determined according to the protocol agreement, and the second link information is used to indicate the connection relationship between the Q second nodes of the second artificial intelligence model.
  • the method further includes: receiving third link information from the second device, the third link information Used to indicate the connection relationship between the M first nodes in the first artificial intelligence model and the Q second nodes in the second artificial intelligence model; according to the first artificial intelligence model, the second artificial intelligence model and the third chain The road information determines the third artificial intelligence model.
  • the third artificial intelligence model can be obtained by combining multiple artificial intelligence models, and the second device has instructed the first device to indicate some of the artificial intelligence models among the multiple artificial intelligence models, then the third artificial intelligence model can be obtained by combining multiple artificial intelligence models.
  • the second device may not need to indicate to the first device all the artificial intelligence models in the plurality of artificial intelligence models, but may only indicate another part of the artificial intelligence models in the plurality of artificial intelligence models to the first device, thereby further reducing the description of the second artificial intelligence model.
  • the overhead required by three artificial intelligence models may be performed by three artificial intelligence models.
  • this application provides an information transmission method, which is used to implement functions on the second device side.
  • the method can be applied to the second device, a chip or module in the second device, or other methods that can implement the method. equipment or modules, the embodiments of this application are not limited to the specific execution subject of the method.
  • this method can be jointly implemented by multiple functional modules on the second device side, and the method performed by each functional module is also within the protection scope of this application.
  • the second device determines N first node information according to the first artificial intelligence model, and one first node information is used to indicate at least one of the first node information in the first artificial intelligence model.
  • N first node information is used to indicate information of M first nodes in the first artificial intelligence model, N is an integer greater than 1, M is an integer greater than or equal to N; between the M first nodes The connection relationship is indicated through the first link information, and the first link information is preset.
  • N pieces of first node information are sent to the first device.
  • this application provides an information transmission method, which is used to implement functions on the second device side.
  • the method can be applied to the second device, a chip or module in the second device, or other methods that can implement the method. equipment or modules, the embodiments of this application are not limited to the specific execution subject of the method.
  • this method can be jointly implemented by multiple functional modules on the second device side, and the method performed by each functional module is also within the protection scope of this application.
  • the second device determines N first node information according to the first artificial intelligence model, and one first node information is used to indicate at least one of the first node information in the first artificial intelligence model.
  • N is an integer greater than 1; N first node information and first link information are sent to the first device; the first link information is used to indicate the relationship between M first nodes in the first artificial intelligence model The connection relationship of M is an integer greater than or equal to N.
  • the method further includes: sending P pieces of second node information and second link information to the first device, where P is an integer greater than 0; wherein, P pieces of second node information and second link information are sent to the first device.
  • the second node information is used to indicate the information of Q second nodes in the second artificial intelligence model, where Q is an integer greater than or equal to P; the second link information is used to indicate the connection relationship between the Q second nodes.
  • the method further includes: sending the first artificial intelligence model to the first device.
  • Three link information, the third link information is used to indicate the connection relationship between the M first nodes in the first artificial intelligence model and the Q second nodes in the second artificial intelligence model.
  • inventions of the present disclosure provide a communication device.
  • the communication device may be a terminal device, a module capable of implementing functions on the terminal device side, or a chip that can be disposed inside the terminal device.
  • the communication device may also be an access network device, a module that can implement functions on the access network device side, or a chip that can be disposed inside the access network device.
  • the communication device has the function of implementing the first aspect.
  • the communication device includes a module or unit or means corresponding to executing some or all of the steps involved in the first aspect.
  • the function or unit or means It can be implemented through software, or implemented through hardware, or the corresponding software implementation can be executed through hardware.
  • the communication device includes a processing unit and a communication unit, wherein the communication unit can It is used to send and receive signals to realize communication between the communication device and other devices.
  • the communication unit is used to receive information from the second device; the processing unit can be used to perform some internal operations of the communication device.
  • the functions performed by the processing unit and the communication unit may correspond to the operations related to the above-mentioned first aspect.
  • the communication device includes a processor and may also include a transceiver, the transceiver is used to send and receive signals, and the processor uses the transceiver to complete any possible method in the first aspect.
  • the communication device may further include one or more memories, the memories being used to couple with the processor, and the memories may store computer programs or instructions that implement the functions involved in the first aspect.
  • the processor can execute the computer program or instructions stored in the memory. When the computer program or instructions are executed, the communication device implements the method in any possible design or implementation of the first aspect.
  • the communication device includes a processor, and the processor can be coupled to a memory.
  • the memory may store computer programs or instructions that implement the functions involved in the first aspect.
  • the processor can execute the computer program or instructions stored in the memory. When the computer program or instructions are executed, the communication device implements the method in any possible design or implementation of the first aspect.
  • the communication device includes a processor and an interface circuit, wherein the processor is configured to communicate with other devices through the interface circuit and execute the method in any possible design or implementation of the first aspect.
  • inventions of the present disclosure provide a communication device.
  • the communication device may be an access network device, a module that can implement functions on the access network device side, or a chip that can be disposed inside the access network device.
  • the communication device may also be a terminal device, a module capable of implementing functions on the terminal device side, or a chip that can be disposed inside the terminal device.
  • the communication device has the function of implementing the second aspect or the third aspect.
  • the communication device includes a module or unit or means corresponding to performing part or all of the operations involved in the second aspect or the third aspect.
  • the module Either unit or means can be implemented by software, or implemented by hardware, or can be implemented by hardware executing corresponding software.
  • the communication device includes a processing unit and a communication unit, where the communication unit can be used to send and receive signals to achieve communication between the communication device and other devices.
  • the communication unit is used to receive signals from The information of the first device; the processing unit may be used to perform some internal operations of the communication device.
  • the functions performed by the processing unit and the communication unit may correspond to the operations related to the above-mentioned second aspect or third aspect.
  • the communication device includes a processor and an interface circuit, wherein the processor is configured to communicate with other devices through the interface circuit and execute any possible design or implementation of the second aspect or the third aspect. method within the method.
  • the above processor can be implemented by hardware or software.
  • the processor can be a logic circuit, an integrated circuit, etc.; when implemented through software, the processor can be a general-purpose processor that is implemented by reading software codes stored in a memory.
  • the above processors may be one or more, and the memories may be one or more.
  • the memory can be integrated with the processor, or the memory can be provided separately from the processor. During the specific implementation process, the memory and the processor can be integrated on the same chip, or they can be respectively provided on different chips.
  • the embodiments of the present disclosure do not limit the type of memory and the arrangement method of the memory and the processor.
  • a fourteenth aspect provides a chip.
  • the chip includes a processor and may also include a memory for executing computer programs or instructions stored in the memory, so that the chip realizes the aforementioned first aspect and any possibility of the first aspect. method in the implementation.
  • Figure 6 is a schematic structural diagram of an artificial intelligence model provided by the present disclosure.
  • Figure 7 is a schematic structural diagram of an artificial intelligence model provided by the present disclosure.
  • Figure 8 is a schematic structural diagram of an artificial intelligence model provided by the present disclosure.
  • Figure 9 is a schematic structural diagram of a communication device provided by the present disclosure.
  • Figure 10 is a schematic structural diagram of a communication device provided by the present disclosure.
  • FIG. 1 is an architectural schematic diagram of a communication system in which the present disclosure can be applied.
  • the communication system includes access network equipment and terminal equipment.
  • the terminal device can establish a connection with the access network device and communicate with the access network device.
  • terminal equipment 1 to terminal equipment 3 can send uplink data to the access network equipment, and the access network equipment can send downlink data to terminal equipment 1 to terminal equipment 3.
  • a communication system can also be formed between terminal devices.
  • terminal device 1 sends data to terminal device 2; and terminal device 2 receives the data sent by terminal device 1.
  • Figure 1 takes three terminal devices as an example. This disclosure does not limit the number of access network devices and terminal devices included in the communication system.
  • the terminal device may be a device with a wireless transceiver function or a chip that may be installed in any device.
  • Terminal equipment may also be called user equipment (UE), access terminal, subscriber unit, mobile station, mobile device, user terminal, wireless communication equipment, user agent or user device.
  • the terminal device in this disclosure can be a mobile phone (mobile phone), tablet computer (Pad), computer with wireless transceiver function, virtual reality (virtual reality, VR) terminal, augmented reality (AR) terminal, wearable device , vehicles, drones, airplanes, ships, robots, or smart home equipment, etc.
  • VR virtual reality
  • AR augmented reality
  • the device used to realize the function of the terminal may be a terminal; it may also be a device capable of supporting the terminal to realize the function, such as a chip system, a hardware circuit, a software module, or a hardware circuit plus a software module.
  • the device may be Installed in the terminal or used with the terminal.
  • the following uses the device used to implement the functions of the terminal. Taking a terminal as an example, the technical solution provided by the present disclosure is described.
  • the access network equipment can be a base station (base station), an evolved base station (evolved NodeB, eNodeB), a transmission reception point (TRP), a next generation base station (next generation NodeB, gNB) in the 5G mobile communication system, Access network equipment in the open radio access network (O-RAN), next-generation base stations in the 6th generation (6G) mobile communication system, base stations or wireless security in future mobile communication systems Access nodes, etc. in a wireless fidelity (WiFi) system; or the access network equipment can be a module or unit that completes some functions of the base station, for example, it can be a centralized unit (CU) or a distributed unit (distributed unit). unit, DU), centralized unit control plane (CU control plane, CU-CP) module, or centralized unit user plane (CU user plane, CU-UP) module.
  • This disclosure does not limit the specific technology and specific equipment form used by the access network equipment.
  • the device for realizing the function of the access network device may be the access network device; it may also be a device that can support the access network device to realize the function, such as a chip system.
  • the device can be installed in the access network equipment or used in conjunction with the access network equipment.
  • the technical solution provided by the present disclosure is described by taking the device for realizing the functions of the access network equipment as the access network equipment and taking the access network equipment as the base station as an example.
  • CU and DU can be divided according to the protocol layer of the wireless network: for example, the functions of the PDCP layer and above are set in the CU, and the functions of the protocol layers below the PDCP layer (such as the RLC layer and MAC layer, etc.) are set in the DU; for example, PDCP
  • the functions of the protocol layers above are set in the CU, and the functions of the PDCP layer and the lower protocol layers are set in the DU without restrictions.
  • DU and RU can be divided at the physical layer (PHY).
  • PHY physical layer
  • DU can implement high-level functions in the PHY layer
  • RU can implement low-level functions in the PHY layer.
  • the high-level functions in the PHY layer may include part of the functions of the PHY layer, for example, this part of the function is closer to the MAC layer
  • the lower-layer functions of the PHY layer may include another part of the function of the PHY layer, for example, this part of the function is closer to the radio frequency function.
  • any one of the above DU, CU, CU-CP, CU-UP and RU can be a software module, a hardware structure, or a software module + hardware structure, without limitation.
  • the existence forms of different entities can be different and are not limited.
  • DU, CU, CU-CP, and CU-UP are software modules
  • RU is a hardware structure.
  • each neuron performs a weighted summation operation on its input values, and the weighted summation result produces an output through a nonlinear function.
  • the weights and nonlinear functions of the weighted summation operation of neurons in the neural network can be called parameters of the neural network.
  • the connection relationship between neurons in a neural network is called the structure of the neural network, and the parameters of all neurons in a neural network constitute the parameters of the neural network.
  • the bias of the weighted summation is b .
  • the form of the activation function can be diverse.
  • w i and xi can be decimals, integers (including 0, positive integers or negative integers, etc.), or complex numbers and other possible values.
  • the above are just examples. There may be other implementations of the activation function.
  • the activation functions of different neurons in the neural network can be the same or different.
  • the word "exemplary” is used to mean an example, illustration, or illustration. Any embodiment or design described in this disclosure as "an example” is not intended to be construed as preferred or advantageous over other embodiments or designs. Rather, the use of the word example is intended to present a concept in a concrete way.
  • the interaction between the first device side and the second device side is taken as an example for description.
  • the method executed by the first device side can be applied to the first device or a chip in the first device; the method executed by the second device side can be applied to the second device or a chip in the second device.
  • the first device may be a terminal device or a module or chip in the terminal device.
  • the first device may also be an access network device or a module or chip in the access network device.
  • the second device may be a terminal device or a module or chip in the terminal device.
  • the second device may also be an access network device or a module or chip in the access network device, and the present disclosure is not limited thereto.
  • the second device Corresponding terminal equipment.
  • the second device corresponds to the access network device.
  • a standard operator library may be preset in the first device and the second device, and the standard operator library may include at least one type of operator.
  • the preset includes: stipulated in the protocol, pre-configured by the first device for the second device through signaling, reported by the first device to the second device through signaling, or configured by other devices (such as AI network elements or AI functions). network element) configured to the first device and the second device through signaling, or downloaded from a third-party website by the first device and the second device, etc., are not restricted.
  • the operators supported by the standard operator library in this disclosure may include but are not limited to at least one of the following types of operators: one-dimensional convolution (one dimensional convolution, Conv1D) operation operator, two-dimensional convolution (two dimensional convolution) , Conv2D) operation operator, three-dimensional convolution (Conv3D) operation operator, long-short term memory (LSTM) operator, recurrent neural network (RNN) operator, pool optimization operator, activation operator, local response normalization/batch normalization operator, classifier operator, fully connected (dense) operator, attention mechanism (attention) operator, summation (add) operator, splicing (concat) operator, matrix multiplication operator, tensor addition/subtraction operator, tensor logical operation operator, or tensor transformation operator.
  • one-dimensional convolution one dimensional convolution
  • Conv1D two-dimensional convolution
  • Conv2D two-dimensional convolution
  • Conv3D three-dimensional convolution
  • LSTM recurrent neural network
  • RNN
  • the operator identifier of the operator can be RNN, the operator identifier of the long short-term memory neural network operator can be LSTM, the operator identifier of the fully connected layer operator can be density, and the operator identifier of the attention mechanism operator can be attention.
  • the operator identifier of the activation operator can be activation, the operator identifier of the summation operator can be add, the operator identifier of the splicing operator can be concat, etc. We will not give examples one by one here.
  • L there are L types of operators in the operator library, which can be Bit configuration operator identifier, where L is a positive integer. For example, there are 10 operators including Conv1D, Conv2D, Conv3D, RNN, LSTM, density, attention, activation, add and concat, and their respective numbers are 0-9. Then, when configuring an operator identifier, you can Pass The bit indicates the identity of this operator. For example, when the value of the 4-bit indication is 0001, the configured operator is Conv2D.
  • each type of operator can correspond to one or more parameters.
  • the one or more parameters are shown in the form of a list, it may be called a parameter list.
  • the parameter list of an operator of a type indicates which parameters the operator includes. For an operator of this type, the parameter list of the operator can indicate the default values of these parameters. If an operator does not include parameters, then the parameter list corresponding to the operator does not include any parameters; if an operator includes parameters, then the parameter list corresponding to the operator includes at least one parameter.
  • the parameters include at least one of the following: convolution kernel size (kernel_size), convolution stride (stride) or padding method (padding), etc.; for the RNN operator, its parameters include Input sequence length (steps) and/or output indication (return_sequence), etc.; for the dense operator, its parameters include input and output dimensions and/or activation function type, etc.; for the concat operator, its parameters include the splicing dimension (axis), etc. The parameters included in other operators will not be explained one by one.
  • each type of operator can correspond to one or more weights.
  • the one or more weights are shown in the form of a list, it may be called a weight list.
  • a weight list for an operator of a type indicates which weights the operator includes.
  • the weight list of the operator can indicate the default values of these weights. If an operator does not include weights, then the weight list corresponding to the operator does not include any weight; if an operator includes weights, then the weight list corresponding to the operator includes at least one weight.
  • the Conv2D operator its weight includes the value of the convolution kernel, etc.
  • the dense operator its weight includes the matrix W and/or the bias vector b.
  • the weights included in other operators will not be explained one by one.
  • the operator's weight list can be incorporated into the operator's parameter list.
  • the weights include the matrices U, W, and V; the parameters include the input dimension and the output dimension, where the input dimension corresponds to the number of columns of the matrix U, and the output dimension corresponds to the number of rows of the matrix U and the number of columns of the matrix V. Or the number of columns of matrix W.
  • each parameter in the parameter list of each operator can correspond one-to-one with the value in the parameter list configuration information corresponding to each operator in order.
  • the parameter list of the dense operator includes two parameters: "input size” and "output size”.
  • the parameter list configuration information of this operator includes array [5, 10]. According to this parsing method: the first value in the array is the value of "input size”, and the second value is the value of "output size”. Therefore, according to this parsing method, the value of each parameter of the dense operator can be clarified. .
  • each parameter in the parameter list of each operator and the corresponding order of values in the parameter list configuration information corresponding to each operator, and this disclosure is not limited to this.
  • an operator corresponds to E parameters, and E is an integer greater than 0.
  • the number of values included in the parameter list configuration information of the operator can be less than E.
  • there is no parameter corresponding to the value in the parameter list configuration information and its value can be the default value.
  • the parameter list of the dense operator includes two parameters: "input size” and "output size”.
  • the parameter list configuration information of this operator includes an array [5]. According to this parsing method: the first value in the array is the value of "input size”. Since "output size" has no corresponding value, the value of "output size" can be the default value, for example, the default value is 8.
  • the values of which parameters are the default values can be pre-agreed or determined in other ways. This document Publicity does not limit this.
  • each weight in the weight list of each operator can correspond one-to-one in order with the value in the weight list configuration information corresponding to each operator.
  • the weight list of the RNN operator includes three weights: matrix U, matrix V, and matrix W.
  • the weight list configuration information of this operator includes the values U0, V0, and W0 in order.
  • the first value in the array is the value of "matrix U”
  • the second value is the value of "matrix V”
  • the third value is the value of "matrix W”. Therefore, according to the parsing method The value of each weight of the RNN operator can be clarified.
  • each weight in the weight list of each operator and the corresponding order of values in the weight list configuration information corresponding to each operator, and this disclosure is not limited to this.
  • S301 The second device determines N first node information according to the first artificial intelligence model.
  • the N first node information can be used to indicate the M first node information included in the first artificial intelligence model, N is an integer greater than 1, and M is greater than or equal to N.
  • the first node information is used to indicate information of S first nodes among the M first nodes, where S is an integer greater than 0.
  • the corresponding values of S may be the same or different, without limitation.
  • the first node information may indicate one or more pieces of information in Table 1:
  • the second device determines the first link information according to the first artificial intelligence model.
  • the first link information may be used to indicate connection relationships between M first nodes in the first artificial intelligence model.
  • each first node included in the first artificial intelligence model can include an input end and an output end.
  • the existence of a connection relationship between two first nodes means that the input end of one first node is connected to another There is a connection relationship between the output terminals of the first node.
  • the link attribute information indicates two first nodes that have a connection relationship, as well as the corresponding input terminals and output terminals, so that the connection relationship between the two first nodes can be clearly indicated. Further, through the X pieces of link attribute information, the connection relationship between the M first nodes can be indicated, thereby indicating the topological structure of the first artificial intelligence model.
  • connection relationship between the M first nodes in the first artificial intelligence model is preset, then the second device may not send the first link information to the first device.
  • the preset connection relationship between the M first nodes in the first artificial intelligence model is: the first nodes between the input node and the output node are all serially connected, so the first link information does not need to be sent.
  • the connection relationship indicated by the first link information may be preset.
  • the first device may connect the M first nodes according to the preset Relationships are connected to obtain the first artificial intelligence model.
  • Input nodes do not contain actual data operations, but are used to instruct the artificial intelligence model to input information.
  • the operator input corresponding to the input node does not have a corresponding weight, so the weight list configuration information does not have a corresponding value.
  • the parameter list configuration information of the input node includes the values of two parameters (input size and input type), which can be determined based on the input information of the artificial intelligence model.
  • the input channel matrix dimension can be [2, nTx, nSub], where 2 represents the real part and imaginary part of the channel, and nTx represents the data transmitted through the channel.
  • the number of signal sending ports, nSub represents the number of subbands of the channel.
  • the value of the input size parameter in the parameter list configuration information of the input node is [2,32,13], which means that the input data is 3 of the size [2,32,13] Dimension tensor; if the input data of the artificial intelligence model is 32-bit floating point type (float32) data, then the value of the input type parameter in the parameter list configuration information of the input node is float32.
  • the node information of the output node can be as shown in Table 4.
  • the output node includes 2 input terminals and 2 output terminals.
  • the 2 output terminals are output port 0 (represented by y0) and output port 1 (represented by y1); the 2 input terminals are input port 0 respectively. and input port 1.
  • the output node is connected to node 3. Specifically, the input port 0 of the output node is connected to the output port 0 of node 3. The link between these two ports is link 5; the output port 1 of the output node is connected to the output of node 3. Port 1 is connected and the link between these two ports is link 6.
  • the output node does not contain actual data operations, but is used to instruct the artificial intelligence model to output information.
  • the operator output corresponding to the output node does not have a corresponding weight, so the weight list configuration information does not have a corresponding value.
  • the parameters included in the operator corresponding to the output node can be determined based on the output information of the artificial intelligence model. For example, if the output data type of the artificial intelligence model is float32, then the value of the output type parameter in the parameter list configuration information of the output node is float32.
  • the node information of node 1 can be as shown in Table 5.
  • node 1 its corresponding operator is "conv2D", which indicates that the node is to implement a 2-dimensional convolution operation.
  • the convolution kernel of this convolution operation is a 2-dimensional matrix of (3,3), and the convolution step is (1,1), that is, the sliding step of the convolution kernel in 2 dimensions.
  • the weight list configuration information it can be determined that the weight value is ker, indicating that the specific value of the (3,3) size convolution kernel is ker. Based on the above node information, the specific operation process of node 1 can be determined.
  • the operator corresponding to node 1 is the same as the operator corresponding to node 2. If the value of the parameters included in the operator corresponding to node 1 is the same as the value of the parameters included in the operator corresponding to node 2, The values are the same and the value of the weight included in the operator corresponding to node 1 and the value of the weight included in the operator corresponding to node 2 are also the same, then node 1 and node 2 can be indicated by one node information. Specifically, Table 5 and Table 6 can be combined into Table 7 below.
  • Table 7 includes multiple node identifiers, that is, the node identifier of node 1 and the node identifier of node 2. Therefore, the overhead required to describe the nodes of the first artificial intelligence model can be further reduced.
  • the node information of node 3 can be as shown in Table 8.
  • node 3 its corresponding operator is "RNN", which indicates that the node should implement a recurrent neural network structure.
  • RNN the parameter list configuration information
  • i 0 , i 1 represents the input sequence of length 2 of the node
  • o 0 , o 1 represents the output sequence of length 2 of the node
  • s 0 and s 1 are intermediate variables in the calculation process
  • tanh() and softmax() are two nonlinear activation functions.
  • the first link information of the first artificial intelligence model shown in Figure 5 may be as shown in Table 9.
  • the first device can determine the specific information of each node in the first artificial intelligence model shown in Figure 5; further, when the first device obtains Table 9 When the first link information is shown, the first device can determine how the nodes with the connection relationship in the first artificial intelligence model shown in Figure 5 are connected. Based on the above information, the first device can determine the first artificial intelligence model, that is, restore the topological structure of the first artificial intelligence model.
  • the second device may instruct the first device to multiple artificial intelligence models, and the specific number is not limited.
  • the second device may also indicate the second artificial intelligence model to the first device.
  • the second device can send P second node information to the first device.
  • P second node information is used to indicate the information of Q second nodes
  • one second node information is used to indicate the information of at least one second node among the Q second nodes.
  • P is an integer greater than 0, and Q is An integer greater than or equal to P.
  • the second device can also send second link information to the first device, where the second link information is used to indicate the connection relationship between the Q second nodes in the second artificial intelligence model.
  • two or more artificial intelligence models can also constitute a new artificial intelligence model.
  • the second device indicates an artificial intelligence model to the first device, if the artificial intelligence model can be obtained by combining multiple artificial intelligence models, and the second device has indicated to the first device one of the multiple artificial intelligence models, part of the artificial intelligence models, then the second device does not need to instruct the first device all the artificial intelligence models in the plurality of artificial intelligence models, and may only instruct the first device another part of the artificial intelligence models in the plurality of artificial intelligence models. model, which can further reduce the overhead required to describe artificial intelligence models.
  • the third artificial intelligence model includes a first artificial intelligence model and a second artificial intelligence model.
  • the third artificial intelligence model consists of the first artificial intelligence model and the second artificial intelligence model.
  • the third artificial intelligence model also includes other models, the instructions for the other models and the instructions for the third artificial intelligence model are similar and will not be described again.
  • the following description takes the example that the third artificial intelligence model is composed of the first artificial intelligence model and the second artificial intelligence model.
  • the second device may send P second artificial intelligence models to the first device. Node information and second link information.
  • the first artificial intelligence model can be called a basic model
  • the second artificial intelligence model can be called a supplementary model. That is, the third artificial intelligence model is a supplement based on the first artificial intelligence model. obtained by the second artificial intelligence model.
  • the second device can send the third link information to the first device, and the third link information Used to indicate the connection relationship between the M first nodes in the first artificial intelligence model and the Q second nodes in the second artificial intelligence model.
  • the first artificial intelligence model and the second artificial intelligence model may be called basic models, that is, the third artificial intelligence model is composed of multiple basic models.
  • FIG. 6 is a schematic structural diagram of a first artificial intelligence model provided by the present disclosure.
  • the first artificial intelligence model includes 7 first nodes. These 7 first nodes are connected serially in order.
  • the node information of these 7 first nodes is as follows.
  • the node information of the output node can be as shown in Table 10-2.
  • the node information of node 1 can be as shown in Table 10-3.
  • the node information of node 2 can be as shown in Table 10-4.
  • node information of node 3 and node 5 can be as shown in Table 10-5.
  • the node information of node 4 can be as shown in Table 10-6.
  • node 4 its corresponding operator is "concat", which indicates that the node is to implement the splicing operation.
  • the splicing operation is performed on the first dimension of the tensor (the dimension identifier starts counting from 0).
  • the input format indicates that the node has 2 inputs and 1 output. Therefore, node 4 concatenates the two inputs along the first dimension into a longer tensor as the output of the node. For example, assuming that the input of node 4 is two tensors with dimensions [N1, N2, N3] and [N1, N4, N3], node 4 will splice them into a tensor with dimensions [N1, N2+N4, N3]. Tensor output.
  • the links between the input node and the output node in the first artificial intelligence model shown in Figure 6 are link 1 to link 6 in sequence.
  • the first link information of the first artificial intelligence model can be as shown in Table 10- 7 shown.
  • the three second nodes included in the second artificial intelligence model are connected serially in order. Specifically, the output terminal 0 of node 8 is connected to the input terminal 0 of node 9, and the link between node 8 and node 9 is a link. 7; The output terminal 0 of node 9 is connected to the input terminal 0 of node 10, and the link between node 9 and node 10 is link 8.
  • the third artificial intelligence model consists of the first artificial intelligence model and the second artificial intelligence model, specifically, as shown in Figure 8, the third artificial intelligence model includes, in addition to the first artificial intelligence model and the second artificial intelligence model, The output terminal 1 of node 2 in the first artificial intelligence model is connected to the input terminal 0 of node 8 in the second artificial intelligence model, and the link between node 2 and node 8 is link 9; node 10 in the second artificial intelligence model The output terminal 0 of is connected to the input terminal 1 of node 4 in the first artificial intelligence model, and the link between node 10 and node 4 is link 10.
  • the second link sent by the second device to the first device can be as shown in Table 11-1.
  • the third link information sent by the second device to the first device may be as shown in Table 11- 2 shown.
  • the second device can only instruct part of the artificial intelligence models that constitute the artificial intelligence model, thereby further reducing the overhead of describing the artificial intelligence model, as well as the transmission Reduce the overhead of artificial intelligence models and improve system resource utilization.
  • the access network device or the terminal device may include a hardware structure and/or a software module to implement the above in the form of a hardware structure, a software module, or a hardware structure plus a software module.
  • a hardware structure and/or a software module to implement the above in the form of a hardware structure, a software module, or a hardware structure plus a software module.
  • each functional module in various embodiments of the present application can be integrated into a processor , it can exist physically alone, or two or more modules can be integrated into one module.
  • the above integrated modules can be implemented in the form of hardware or software function modules.
  • the communication unit may also be called a transceiver device.
  • the processing unit may also be called a processing module, a processing device, or the like.
  • the device used to implement the receiving function in the communication unit 902 can be regarded as a receiving unit, and the device used to implement the sending function in the communication unit 902 can be regarded as a sending unit, that is, the communication unit 902 includes a receiving unit and a sending unit.
  • the communication unit may sometimes be implemented as a transceiver, transceiver, or transceiver circuit, etc.
  • the processing unit can sometimes be implemented as a processor, a processing board, or the like.
  • the receiving unit can sometimes be implemented as a receiver, receiver, or receiving circuit, etc.
  • the sending unit can sometimes be implemented as a transmitter, a transmitter or a transmitting circuit.
  • a communication unit configured to receive N first node information from the second device; wherein one first node information is used to indicate information of at least one first node in the first artificial intelligence model, and N is an integer greater than 1;
  • a processing unit configured to determine N first node information according to the first artificial intelligence model, one first node information is used to indicate the information of at least one first node in the first artificial intelligence model, and N is an integer greater than 1;
  • the communication unit is used to send N first node information and first link information to the first device; the first link information is used to indicate the connection relationship between the M first nodes in the first artificial intelligence model, M is An integer greater than or equal to N.
  • the communication device 1000 includes a processor 1010 and an interface circuit 1020 .
  • the processor 1010 and the interface circuit 1020 are coupled to each other.
  • the interface circuit 1020 can be a transceiver, a pin, or an input-output interface.
  • the communication device 1000 may also include a memory 1030 for storing instructions executed by the processor 1010 or input data required for the processor 1010 to run the instructions or data generated after the processor 1010 executes the instructions. Alternatively, some or all of memory 1030 may be located in processor 1010.
  • the memory in the embodiment of the present application may be random access memory, flash memory, read-only memory, programmable read-only memory, erasable programmable read-only memory, electrically erasable programmable read-only memory, register, hard disk, in a portable hard disk or any other form of storage media well known in the art.
  • embodiments of the present disclosure may be provided as methods, systems, or computer program products. Accordingly, the present disclosure may take the form of an entirely hardware embodiment, an entirely software embodiment, or an embodiment that combines software and hardware aspects. Furthermore, the present disclosure may take the form of a computer program product embodied on one or more computer-usable storage media (including, but not limited to, disk storage, optical storage, etc.) having computer-usable program code embodied therein.
  • a computer-usable storage media including, but not limited to, disk storage, optical storage, etc.
  • These computer program instructions may also be stored in a computer-readable memory that causes a computer or other programmable data processing apparatus to operate in a particular manner, such that the instructions stored in the computer-readable memory produce an article of manufacture including the instruction means, the instructions
  • the device implements the functions specified in a process or processes of the flowchart and/or a block or blocks of the block diagram.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本公开提供一种信息传输方法及装置,涉及通信技术领域,其中方法包括:第一设备通过接收来自第二设备的N个第一节点信息,从而可以根据N个第一节点信息以及第一链路信息确定第一人工智能模型,即恢复第一人工智能模型的结构。通过上述方法,第二设备在向第一设备指示人工智能模型时,节点的节点信息和节点之间的连接关系可以分别进行指示,而且如果人工智能模型中节点间连接关系均为串行结构,可以不指示第一链路信息,仅指示节点信息,从而可以降低人工智能模型的表示和传输开销。

Description

一种信息传输方法及装置
相关申请的交叉引用
本申请要求在2022年03月22日提交中国专利局、申请号为202210288551.7、申请名称为“一种信息传输方法及装置”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本公开涉及通信技术领域,尤其涉及一种信息传输方法及装置。
背景技术
在无线通信系统中,应用人工智能(artificial intelligence,AI)模型可以显著提升通信系统的性能。为了将设计的AI模型实际部署到无线通信的业务流程中,可能需要网络侧/终端侧从第三方实体下载网络,或者终端侧与终端侧间进行模型的交互。因此,在无线通信中,如何进行模型的交互是一个重要的研究课题。
发明内容
本公开提供一种信息传输方法及装置,用以提供一种AI模型的描述方法,减少AI模型的开销。
第一方面,本申请提供一种信息传输方法,该方法用于实现第一设备侧的功能,例如该方法可以应用于第一设备、第一设备中的芯片或模块、或者其他能够实现该方法的设备或模块,本申请实施例不限该方法的具体的执行主体。可选的,该方法可以由第一设备侧的多个功能模块共同实现,各功能模块执行的方法也在本申请的保护范围。以该方法应用于第一设备为例,在该方法中,第一设备接收来自第二设备的N个第一节点信息;其中,一个第一节点信息用于指示第一人工智能模型中至少一个第一节点的信息,N为大于1整数;根据N个第一节点信息以及第一链路信息确定第一人工智能模型;第一链路信息用于指示第一人工智能模型中M个第一节点之间的连接关系,M为大于或等于N的整数。
通过实施上述方法,第二设备在向第一设备指示人工智能模型时,对人工智能模型包括的节点的节点信息和节点之间的连接关系可以分别进行配置,第二设备可以仅指示人工智能模型包括的节点信息,从而可以降低人工智能模型的表示和传输开销。
在一种可能的设计中,第一链路信息指示的连接关系是预设的;根据N个第一节点信息以及第一链路信息确定第一人工智能模型,包括:根据N个第一节点信息确定第一人工智能模型包括的M个第一节点;根据预设的连接关系和M个第一节点确定第一人工智能模型。
上面的方法中,第一链路信息是预设(例如,协议约定)的时,第一设备可以根据N个第一节点信息以及预设的第一链路信息恢复第一人工智能模型,第二设备可以不向第一设备发送第一链路信息,从而进一步降低人工智能模型的表示和传输开销。
在一种可能的设计中,第一链路信息来自第二设备;根据N个第一节点信息以及第一链路信息确定第一人工智能模型,包括:根据N个第一节点信息确定第一人工智能模型包 括的M个第一节点;根据第一链路信息指示的连接关系和M个第一节点确定第一人工智能模型。通过该方法,可以灵活地配置第一人工智能模型。
在一种可能的设计中,第一链路信息指示X个链路属性信息,X为大于0整数;每个链路属性信息对应一个链路,链路属性信息指示链路属性信息对应链路的以下至少一项信息:M个第一节点中作为链路的源节点的节点;源节点中作为链路的输入端的端口(可选的,如果源节点只有一个输出端口A,该链路的输入端的端口包括该输出端口A,可以不指示该信息);M个第一节点中作为链路的目的节点的节点;或,目的节点中作为链路的输出端的端口(可选的,如果目的节点只有一个输入端口A,该链路的输出端的端口包括该输入端口A,可以不指示该信息)。
上面的方法中,第一链路信息通过X个链路属性信息指示第一人工智能模型包括的M个第一节点之间的连接关系,从而以尽量精简的信息实现人工智能模型的描述。
在一种可能的设计中,第一节点信息指示以下至少一项信息:第一节点信息所对应的至少一个第一节点的节点标识;至少一个第一节点对应的算子的算子标识;算子的参数列表配置信息,参数列表配置信息指示算子包括的至少一个参数的取值;算子的权重列表配置信息,权重列表配置信息指示算子包括的至少一个权重的取值;或,至少一个第一节点的输入格式;或,至少一个第一节点的输出格式。
通过上述方法,可以减少信令开销。例如,上述至少一个第一节点中的每个第一节点具有唯一的节点标识,即上述第一节点信息指示该至少一个第一节点中每个第一节点的标识,上述至少一个第一节点中的每个第一节点的以下至少一项信息是共享的或者相同的:算子标识;算子的参数列表配置信息;算子的权重列表配置信息;输入格式;或,输出格式。
在一种可能的设计中,算子为预设的标准算子库中的一个算子。
在一种可能的设计中,对于预设的标准算子库中的一个算子,为算子定义以下一项或多项信息:算子的算子标识;算子的参数列表,算子的参数列表指示算子包括的至少一个参数以及至少一个参数的默认取值;算子的权重列表,算子的权重列表指示算子对应的至少一个权重以及至少一个权重的默认取值;参数列表的解析方式;或,权重列表的解析方式。
在一种可能的设计中,该方法还包括:接收来自第二设备的P个第二节点信息,P为大于0整数;其中,P个第二节点信息用于指示第二人工智能模型中Q个第二节点的信息,Q为大于或等于P的整数。
在一种可能的设计中,接收来自第二设备的第二链路信息,第二链路信息用于指示第二人工智能模型的Q个第二节点之间的连接关系。
在一种可能的设计中,根据协议约定确定第二链路信息,第二链路信息用于指示第二人工智能模型的Q个第二节点之间的连接关系。在一种可能的设计中,若第三人工智能模型中包括第一人工智能模型和第二人工智能模型,该方法还包括:接收来自第二设备的第三链路信息,第三链路信息用于指示第一人工智能模型中的M个第一节点与第二人工智能模型中的Q个第二节点之间的连接关系;根据第一人工智能模型、第二人工智能模型和第三链路信息确定第三人工智能模型。
上面的方法中,如果第三人工智能模型可以由多个人工智能模型通过组合方式获得,且第二设备已经向第一设备指示了该多个人工智能模型中的一部分人工智能模型,那么第 二设备可以不需要向第一设备指示该多个人工智能模型中的所有人工智能模型,可以只向第一设备指示该多个人工智能模型中的另外一部分人工智能模型,从而可以进一步减少描述第三人工智能模型所需的开销。
第二方面,本申请提供一种信息传输方法,该方法用于实现第二设备侧的功能,例如该方法可以应用于第二设备、第二设备中的芯片或模块、或者其他能够实现该方法的设备或模块,本申请实施例不限该方法的具体的执行主体。可选的,该方法可以由第二设备侧的多个功能模块共同实现,各功能模块执行的方法也在本申请的保护范围。以该方法应用于第二设备为例,在该方法中,第二设备根据第一人工智能模型确定N个第一节点信息,一个第一节点信息用于指示第一人工智能模型中至少一个第一节点的信息,N个第一节点信息用于指示第一人工智能模型中M个第一节点的信息,N为大于1整数,M为大于或等于N的整数;M个第一节点之间的连接关系是通过第一链路信息指示的,第一链路信息是预设的。
在一种可能的设计中,向第一设备发送N个第一节点信息。
第三方面,本申请提供一种信息传输方法,该方法用于实现第二设备侧的功能,例如该方法可以应用于第二设备、第二设备中的芯片或模块、或者其他能够实现该方法的设备或模块,本申请实施例不限该方法的具体的执行主体。可选的,该方法可以由第二设备侧的多个功能模块共同实现,各功能模块执行的方法也在本申请的保护范围。以该方法应用于第二设备为例,在该方法中,第二设备根据第一人工智能模型确定N个第一节点信息,一个第一节点信息用于指示第一人工智能模型中至少一个第一节点的信息,N为大于1整数;向第一设备发送N个第一节点信息以及第一链路信息;第一链路信息用于指示第一人工智能模型中M个第一节点之间的连接关系,M为大于或等于N的整数。
关于第一链路信息和第一节点信息的介绍可以参见上述第一方面,此处不再赘述。
结合第二方面或第三方面,在一种可能的设计中,该方法还包括:向第一设备发送P个第二节点信息以及第二链路信息,P为大于0整数;其中,P个第二节点信息用于指示第二人工智能模型中Q个第二节点的信息,Q为大于或等于P的整数;第二链路信息用于指示Q个第二节点之间的连接关系。
结合第二方面或第三方面,在一种可能的设计中,该方法还包括:向第一设备发送P个第二节点信息,P为大于0整数;其中,P个第二节点信息用于指示第二人工智能模型中Q个第二节点的信息,Q为大于或等于P的整数。
结合第二方面或第三方面,在一种可能的设计中,若第三人工智能模型中包括所述第一人工智能模型和第二人工智能模型,该方法还包括:向第一设备发送第三链路信息,第三链路信息用于指示第一人工智能模型中的M个第一节点与第二人工智能模型中的Q个第二节点之间的连接关系。
第四方面,本公开实施例提供一种通信装置,所述通信装置可以为终端设备、能够实现终端设备侧功能的模块、或者能够设置于终端设备内部的芯片。所述通信装置还可以为接入网设备、能够实现接入网设备侧功能的模块、或者能够设置于接入网设备内部的芯片。所述通信装置具备实现上述第一方面的功能,比如,所述通信装置包括执行上述第一方面涉及的部分或全部步骤所对应的模块或单元或手段(means),所述功能或单元或手段可以通过软件实现,或者通过硬件实现,也可以通过硬件执行相应的软件实现。
在一种可能的设计中,所述通信装置包括处理单元和通信单元,其中,通信单元可以 用于收发信号,以实现该通信装置和其它装置之间的通信,比如,通信单元用于接收来自第二设备的信息;处理单元可以用于执行该通信装置的一些内部操作。处理单元、通信单元执行的功能可以和上述第一方面涉及的操作相对应。
在一种可能的设计中,所述通信装置包括处理器,还可以包括收发器,所述收发器用于收发信号,所述处理器利用所述收发器,以完成上述第一方面中任意可能的设计或实现方式中的方法。其中,所述通信装置还可以包括一个或多个存储器,所述存储器用于与处理器耦合,所述存储器可以保存实现上述第一方面涉及的功能的计算机程序或指令。所述处理器可执行所述存储器存储的计算机程序或指令,当所述计算机程序或指令被执行时,使得所述通信装置实现上述第一方面任意可能的设计或实现方式中的方法。
在一种可能的设计中,所述通信装置包括处理器,处理器可以用于与存储器耦合。所述存储器可以保存实现上述第一方面涉及的功能的计算机程序或指令。所述处理器可执行所述存储器存储的计算机程序或指令,当所述计算机程序或指令被执行时,使得所述通信装置实现上述第一方面任意可能的设计或实现方式中的方法。
在一种可能的设计中,所述通信装置包括处理器和接口电路,其中,处理器用于通过所述接口电路与其它装置通信,并执行上述第一方面任意可能的设计或实现方式中的方法。
第五方面,本公开实施例提供一种通信装置,所述通信装置可以为接入网设备、能够实现接入网设备侧功能的模块、或者能够设置于接入网设备内部的芯片。所述通信装置还可以为终端设备、能够实现终端设备侧功能的模块、或者能够设置于终端设备内部的芯片。所述通信装置具备实现上述第二方面或第三方面的功能,比如,所述通信装置包括执行上述第二方面或第三方面涉及部分或全部操作所对应的模块或单元或手段,所述模块或单元或手段可以通过软件实现,或者通过硬件实现,也可以通过硬件执行相应的软件实现。
在一种可能的设计中,所述通信装置包括处理单元、通信单元,其中,通信单元可以用于收发信号,以实现该通信装置和其它装置之间的通信,比如,通信单元用于接收来自第一设备的信息;处理单元可以用于执行该通信装置的一些内部操作。处理单元、通信单元执行的功能可以和上述第二方面或第三方面涉及的操作相对应。
在一种可能的设计中,所述通信装置包括处理器,还可以包括收发器,所述收发器用于收发信号,所述处理器利用所述收发器,以完成上述第二方面或第三方面中任意可能的设计或实现方式中的方法。其中,所述通信装置还可以包括一个或多个存储器,所述存储器用于与处理器耦合,所述存储器可以保存实现上述第二方面或第三方面涉及的功能的计算机程序或指令。所述处理器可执行所述存储器存储的计算机程序或指令,当所述计算机程序或指令被执行时,使得所述通信装置实现上述第二方面或第三方面任意可能的设计或实现方式中的方法。
在一种可能的设计中,所述通信装置包括处理器,处理器可以用于与存储器耦合。所述存储器可以保存实现上述第二方面或第三方面涉及的功能的计算机程序或指令。所述处理器可执行所述存储器存储的计算机程序或指令,当所述计算机程序或指令被执行时,使得所述通信装置实现上述第二方面或第三方面任意可能的设计或实现方式中的方法。
在一种可能的设计中,所述通信装置包括处理器和接口电路,其中,处理器用于通过所述接口电路与其它装置通信,并执行上述第二方面或第三方面任意可能的设计或实现方式中的方法。
可以理解地,上述处理器可以通过硬件来实现也可以通过软件来实现,当通过硬件实 现时,该处理器可以是逻辑电路、集成电路等;当通过软件来实现时,该处理器可以是一个通用处理器,通过读取存储器中存储的软件代码来实现。此外,以上处理器可以为一个或多个,存储器可以为一个或多个。存储器可以与处理器集成在一起,或者存储器与处理器分离设置。在具体实现过程中,存储器可以与处理器集成在同一块芯片上,也可以分别设置在不同的芯片上,本公开实施例对存储器的类型以及存储器与处理器的设置方式不做限定。
第六方面,本公开实施例提供一种通信系统,该通信系统包括上述第四方面所述的通信装置和上述第五方面所述的通信装置。
第七方面,本公开实施例提供一种计算机可读存储介质,所述计算机存储介质中存储有计算机可读指令,当计算机读取并执行所述计算机可读指令时,使得计算机实现上述第一方面至第三方面的任一种可能的设计中的方法。
第八方面,本公开实施例提供一种计算机程序产品,当计算机读取并执行所述计算机程序产品时,使得计算机实现上述第一方面至第三方面的任一种可能的设计中的方法。
第九方面,本公开实施例提供一种芯片,所述芯片包括处理器,所述处理器与存储器耦合,用于读取并执行所述存储器中存储的软件程序,以实现上述第一方面至第三方面的任一种可能的设计中的方法。
第十方面,提供了一种通信装置,包括处理器和接口电路,接口电路用于接收来自该通信装置之外的其它通信装置的信号并传输至该处理器或将来自该处理器的信号发送给该通信装置之外的其它通信装置,该处理器用于通过逻辑电路或执行计算机程序或指令,实现前述第一方面、以及第一方面中任意可能的实现方式中的方法。
第十一方面,提供了一种通信装置,包括处理器和接口电路,接口电路用于接收来自该通信装置之外的其它通信装置的信号并传输至该处理器或将来自该处理器的信号发送给该通信装置之外的其它通信装置,该处理器用于通过逻辑电路或执行计算机程序或指令,实现前述第二方面、以及第二方面中任意可能的实现方式中的方法,或者实现前述第三方面、以及第三方面中任意可能的实现方式中的方法。
第十二方面,提供了一种通信装置,包括处理器和存储器,所述处理器和所述存储器耦合,所述处理器用于执行所述存储器中存储的计算机程序或指令,使得所述通信装置实现前述第一方面、以及第一方面中任意可能的实现方式中的方法。
第十三方面,提供了一种通信装置,包括处理器和存储器,所述处理器和所述存储器耦合,所述处理器用于执行所述存储器中存储的计算机程序或指令,使得所述通信装置实现前述第二方面、以及第二方面中任意可能的实现方式中的方法,或者实现前述第三方面、以及第三方面中任意可能的实现方式中的方法。
第十四方面,提供一种芯片,该芯片包括处理器,还可以包括存储器,用于执行所述存储器中存储的计算机程序或指令,使得芯片实现前述第一方面、以及第一方面的任意可能的实现方式中的方法。
第十五方面,提供一种芯片,该芯片包括处理器,还可以包括存储器,用于执行所述存储器中存储的计算机程序或指令,使得芯片实现前述第二方面、以及第二方面的任意可能的实现方式中的方法,或者使得芯片系统实现前述第三方面、以及第三方面中任意可能的实现方式中的方法。
本公开的这些方面或其它方面在以下实施例的描述中会更加简明易懂。
附图说明
图1为适用于本公开的通信系统网络架构示意图;
图2为本公开提供的一种人工智能模型结构示意图;
图3为本公开提供的一种信息传输方法流程示意图;
图4为本公开提供的一种人工智能模型结构示意图;
图5为本公开提供的一种人工智能模型结构示意图;
图6为本公开提供的一种人工智能模型结构示意图;
图7为本公开提供的一种人工智能模型结构示意图;
图8为本公开提供的一种人工智能模型结构示意图;
图9为本公开提供的一种通信装置结构示意图;
图10为本公开提供的一种通信装置结构示意图。
具体实施方式
下面结合说明书附图对本公开做详细描述。
本公开的技术方案可以应用于各种通信系统,例如:长期演进(long term evolution,LTE)系统、第五代(5th generation,5G)移动通信系统、或下一代移动通信系统等,在此不做限制。其中,5G系统还可以称为新无线(new radio,NR)系统。
为便于理解本公开,首先以图1中示出的通信系统为例详细说明适用于本公开的通信系统。图1是本公开可以应用提供的通信系统的架构示意图,该通信系统中包括接入网设备和终端设备。终端设备可以与接入网设备建立连接,并和接入网设备进行通信。在该通信系统中,终端设备1~终端设备3可以发送上行数据给接入网设备,接入网设备可以向终端设备1~终端设备3发送下行数据。此外,终端设备之间也可以组成一个通信系统,例如车联网系统中,终端设备1向终端设备2发送数据;而终端设备2接收终端设备1发送的数据。图1是以3个终端设备为例,本公开对该通信系统中包括的接入网设备和终端设备的数量不做限定。
本公开中,终端设备,可以为具有无线收发功能的设备或可设置于任一设备中的芯片。终端设备也可以称为用户设备(user equipment,UE)、接入终端、用户单元、移动台、移动设备、用户终端、无线通信设备、用户代理或用户装置。本公开中的终端设备可以是手机(mobile phone)、平板电脑(Pad)、带无线收发功能的电脑、虚拟现实(virtual reality,VR)终端、增强现实(augmented reality,AR)终端、可穿戴设备、车辆、无人机、飞机、轮船、机器人、或智能家居设等。本公开中的终端设备可以广泛应用于各种场景中的通信,例如包括但不限于以下至少一个场景:设备到设备(device-to-device,D2D)、车物(vehicle to everything,V2X)、机器类通信(machine-type communication,MTC)、物联网(internet of things,IOT)、虚拟现实、增强现实、工业控制、自动驾驶、远程医疗、智能电网、智能家具、智能办公、智能穿戴、智能交通、或智慧城市等。本公开对终端所采用的具体技术和具体设备形态不做限定。
在本公开中,用于实现终端的功能的装置可以是终端;也可以是能够支持终端实现该功能的装置,例如芯片系统、硬件电路、软件模块、或硬件电路加软件模块,该装置可以被安装在终端中或可以与终端匹配使用。为了便于描述,下文以用于实现终端的功能的装 置是终端为例,描述本公开提供的技术方案。
接入网设备可以是基站(base station)、演进型基站(evolved NodeB,eNodeB)、发送接收点(transmission reception point,TRP)、5G移动通信系统中的下一代基站(next generation NodeB,gNB)、开放无线接入网(open radio access network,O-RAN)中的接入网设备、第六代(6th generation,6G)移动通信系统中的下一代基站、未来移动通信系统中的基站或无线保真(wireless fidelity,WiFi)系统中的接入节点等;或者接入网设备可以是完成基站部分功能的模块或单元,例如,可以是集中式单元(central unit,CU)、分布式单元(distributed unit,DU)、集中单元控制面(CU control plane,CU-CP)模块、或集中单元用户面(CU user plane,CU-UP)模块。本公开中对接入网设备所采用的具体技术和具体设备形态不做限定。
本公开中,用于实现接入网设备的功能的装置可以是接入网设备;也可以是能够支持接入网设备实现该功能的装置,例如芯片系统。该装置可以被安装在接入网设备中或者和接入网设备匹配使用。下述公开中,以用于实现接入网设备的功能的装置是接入网设备,以接入网设备是基站为例,描述本公开提供的技术方案。
(1)协议层结构。
接入网设备和终端之间的通信遵循一定的协议层结构。该协议层结构可以包括控制面协议层结构和用户面协议层结构。例如,控制面协议层结构可以包括无线资源控制(radio resource control,RRC)层、分组数据汇聚层协议(packet data convergence protocol,PDCP)层、无线链路控制(radio link control,RLC)层、媒体接入控制(media access control,MAC)层和物理层等协议层的功能。例如,用户面协议层结构可以包括PDCP层、RLC层、MAC层和物理层等协议层的功能,在一种可能的实现中,PDCP层之上还可以包括业务数据适配协议(service data adaptation protocol,SDAP)层。
可选的,接入网设备和终端之间的协议层结构还可以包括人工智能(artificial intelligence,AI)层,用于传输AI功能相关的数据。
(2)集中单元(central unit,CU)和分布单元(distributed unit,DU)。
接入设备可以包括CU和DU。多个DU可以由一个CU集中控制。作为示例,CU和DU之间的接口可以称为F1接口。其中,控制面(control panel,CP)接口可以为F1-C,用户面(user panel,UP)接口可以为F1-U。本公开不限制各接口的具体名称。CU和DU可以根据无线网络的协议层划分:比如,PDCP层及以上协议层的功能设置在CU,PDCP层以下协议层(例如RLC层和MAC层等)的功能设置在DU;又比如,PDCP层以上协议层的功能设置在CU,PDCP层及以下协议层的功能设置在DU,不予限制。
上述对CU和DU的处理功能按照协议层的划分仅仅是一种举例,也可以按照其他的方式进行划分。例如可以将CU或者DU划分为具有更多协议层的功能,又例如将CU或DU还可以划分为具有协议层的部分处理功能。在一种设计中,将RLC层的部分功能和RLC层以上的协议层的功能设置在CU,将RLC层的剩余功能和RLC层以下的协议层的功能设置在DU。在另一种设计中,还可以按照业务类型或者其他系统需求对CU或者DU的功能进行划分,例如按时延划分,将处理时间需要满足时延要求的功能设置在DU,不需要满足该时延要求的功能设置在CU。在另一种设计中,CU也可以具有核心网的一个或多个功能。示例性的,CU可以设置在网络侧方便集中管理。在另一种设计中,将DU的无线单元(radio unit,RU)拉远设置。可选的,RU可以具有射频功能。
可选的,DU和RU可以在物理层(physical layer,PHY)进行划分。例如,DU可以实现PHY层中的高层功能,RU可以实现PHY层中的低层功能。其中,PHY层中的高层功能可以包括PHY层的一部分功能,例如该部分功能更加靠近MAC层,PHY层中的低层功能可以包括PHY层的另一部分功能,例如该部分功能更加靠近射频功能。例如,PHY层中的高层功能可以包括添加CRC码、信道编码、速率匹配、加扰、调制、和层映射,PHY层中的低层功能可以包括预编码、资源映射、物理天线映射、和射频发送功能;或者,PHY层中的高层功能可以包括添加CRC码、信道编码、速率匹配、加扰、调制、层映射和预编码,PHY层中的低层功能可以包括资源映射、物理天线映射、和射频发送功能。
示例性的,CU的功能可以由一个实体来实现,或者也可以由不同的实体来实现。例如,可以对CU的功能进行进一步划分,即将控制面和用户面分离并通过不同实体来实现,分别为控制面CU实体(即CU-CP实体)和用户面CU实体(即CU-UP实体)。该CU-CP实体和CU-UP实体可以与DU相耦合,共同完成接入网设备的功能。
可选的,上述DU、CU、CU-CP、CU-UP和RU中的任一个可以是软件模块、硬件结构、或者软件模块+硬件结构,不予限制。其中,不同实体的存在形式可以是不同的,不予限制。例如DU、CU、CU-CP、CU-UP是软件模块,RU是硬件结构。这些模块及其执行的方法也在本公开的保护范围内。
在无线通信系统中,应用AI模型可以显著提升通信系统的性能。为了将设计的AI模型实际部署到无线通信的业务流程中,可能需要网络侧/终端侧从第三方实体下载网络,或者终端侧与终端侧间进行模型的交互。为了使模型分发在各厂家设备之间顺利运行以实现互联互通,可以定义一套通用的AI模型表达范式,使得使用不同AI框架(如Pytorch,MXNet)的设备均可以对其进行解析。同时,考虑到AI模型表达的空口传输需求,其表达范式应尽量简洁。一种可能的实现中,可以采用开放神经网络交换(open neural network exchange,ONNX)的文件格式存储AI模型。通过这种文件格式存储的AI模型,可以在不同的人工智能框架中应用。然而,ONNX文件格式的AI模型的存储开销较大,亟需一种开销较小的AI模型描述方法,以适应AI模型表达的空口传输需求。本公开中,提出了一种AI模型的描述方法,可以对人工智能模型中的节点以及节点间的连接关系分别进行描述,从而可以尽量减少描述人工智能模型所产生的开销,从而可以降低AI模型的表示和传输开销。
在描述本公开之前,先简单介绍一些关于人工智能的相关知识。人工智能,可以让机器具有类似人类的智能,例如可以让机器应用计算机的软硬件来模拟人类某些智能行为。为了实现人工智能,可以采取包括机器学习或很多其他方法。例如,机器学习包括神经网络(neural network)、期望最大化算法(expectation maximization algorithm)、支持向量机算法、提升(boosting算法)、或引导聚类(bootstrap aggregating,bagging)算法等。本公开中以神经网络为例进行描述,其它机器学习算法可以参考本公开的描述,在此不再赘述。
神经网络是机器学习方法的一种具体体现。神经网络是一种模仿动物神经网络行为特征,进行信息处理的数学模型。如图2所示,为本公开提供的一种神经网络模型示意图。图2中的神经网络是可以由输入层、隐藏层和输出层三种类型的计算层组织的网络。每层拥有一个或多个逻辑判断单元,这种逻辑判断单元称为神经元(neuron)。常见的神经网络结构有前馈神经网络(feedforward neural network,FNN)、卷积神经网络(convolutional neural networks,CNN)和循环神经网络(recurrent neural network,RNN)。图2所示即为一 种FNN网络,其特点为相邻层的神经元之间两两完全相连。这些神经网络结构都是以神经元为基础而构成的。神经网络中,每个神经元对其输入值做加权求和运算,并加权求和结果通过一个非线性函数产生输出。可以将神经网络中神经元加权求和运算的权值以及非线性函数称作神经网络的参数。一个神经网络中神经元间的连接关系称为神经网络的结构,而一个神经网络所有神经元的参数构成这个神经网络的参数。
举例来说,假设一个神经元的输入为x=[x0,…,xn],与输入对应的权值为w=[w0,…,wn],加权求和的偏置为b。激活函数的形式可以多样化。假设一个神经元的激活函数为:y=f(z)=max(0,z),则该神经元的输出为:再例如一个神经元的激活函数为:y=f(z)=z,则该神经元的输出为:b、wi、xi可以为小数、整数(包括0、正整数或负整数等)、或复数等各种可能的取值。以上只是示例,激活函数还可能存在其他实现方式,神经网络中不同神经元的激活函数可以相同,也可以不同。
在本公开的各个实施例中,如果没有特殊说明以及逻辑冲突,不同的实施例之间的术语和/或描述具有一致性、且可以相互引用,不同的实施例中的技术特征根据其内在的逻辑关系可以组合形成新的实施例。
可以理解的是,在本公开中涉及的各种数字编号仅为描述方便进行的区分,并不用来限制本公开的范围。上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定。
本公开中的“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。本公开中所涉及的多个,是指两个或两个以上。
在本公开的描述中,“第一”、“第二”等词汇,仅用于区分描述的目的,而不能理解为指示或暗示相对重要性,也不能理解为指示或暗示顺序。
另外,在本公开中,“示例的”一词用于表示作例子、例证或说明。本公开中被描述为“示例”的任何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。确切而言,使用示例的一词旨在以具体方式呈现概念。
本公开描述的网络架构以及业务场景是为了更加清楚的说明本公开的技术方案,并不构成对于本公开提供的技术方案的限定。本领域普通技术人员可知,随着网络架构的演变和新业务场景的出现,本公开提供的技术方案对于类似的技术问题,同样适用。
本公开中部分场景以NR网络的场景为例进行说明,应当指出的是,本公开中的方案还可以应用于其他无线通信网络中,相应的名称也可以用其他无线通信网络中的对应功能的名称进行替代。
本公开中,以第一设备侧与第二设备侧之间交互为例进行说明。其中,第一设备侧执行的方法,可以应用于第一设备或者第一设备中的芯片;第二设备侧执行的方法,可以应用于第二设备或者第二设备中的芯片。第一设备可以为终端设备或者终端设备中的模块或芯片,第一设备还可以为接入网设备或者接入网设备中的模块或芯片等;第二设备可以为终端设备或者终端设备中的模块或芯片,第二设备还可以为接入网设备或者接入网设备中的模块或芯片等,本公开对此并不限定。其中,当第一设备对应接入网设备时,第二设备 对应终端设备。当第一设备对应终端设备时,第二设备对应接入网设备。
一个人工智能模型包括多个节点,一个人工智能模型包括的节点,可以分为输入节点(input)、输出节点(output)以及运算节点。输入节点和输出节点可以看做一类特殊的运算节点,即实现了单位映射运算。对除了输入节点和输出节点之外的运算节点而言,一个节点可以包括一个算子,一个算子指示一种数学运算。例如,一个节点包括二维卷积算子,则表示该节点可以实现二维卷积运算。
本公开中,为了减少描述人工智能模型中节点产生的开销,可以在第一设备与第二设备中预设一个标准算子库,该标准算子库中可以包括至少一种类型的算子。其中,该预设包括:由协议约定、由第一设备通过信令预先为第二设备配置、由第一设备通过信令上报给第二设备、由其他设备(例如AI网元或实现AI功能的网元)通过信令配置给第一设备和第二设备、或由第一设备和第二设备从第三方网站下载等,不予限制。当第二设备提供节点信息,以描述一个人工智能模型中的节点包括哪些算子时,可以用这些算子在标准算子库中的标识进行表示,这样就不需要额外描述这些算子的具体内容。第一设备可以结合第二设备指示的节点信息以及标准算子库确定人工智能模型中的节点包括哪些算子。
本公开中的标准算子库支持的算子,可以包括但不限于以下至少一种类型的算子:一维卷积(one dimensional convolution,Conv1D)操作算子,二维卷积(two dimensional convolution,Conv2D)操作算子,三维卷积(three dimensional convolution,Conv3D)操作算子,长短期记忆(long-short term memory,LSTM)算子,循环神经网络(recurrent neural network,RNN)算子,池化算子,激活算子、局部响应归一化/批规范化算子,分类器算子,全连接(dense)算子,注意力机制(attention)算子,求和(add)算子,拼接(concat)算子,矩阵乘算子,张量加/减算子,张量逻辑运算算子,或张量变换算子。
上述算子的具体功能以及对应的数学函数的表达式,本公开在此并不限定,在此不再逐一列举。在实际应用中,还可以根据自身需求在标准算子库中添加自定义的算子,本公开对此并不限定。
本公开中,可以为标准算子库中的每一个算子,定义以下一项或多项信息:
算子标识或编号;
算子的参数(列表);
算子的权重(列表);
参数列表的解析方式;
权重列表的解析方式。
其中,标准算子库中的每一类型的算子可以对应一个唯一的名称或编号,一个算子的名称或编号可以作为该算子的算子标识。例如,一维卷积操作算子的算子标识可以为Conv1D,二维卷积操作算子的算子标识可以为Conv2D,三维卷积操作算子的算子标识可以为Conv3D,循环神经网络算子的算子标识可以为RNN,长短期记忆神经网络算子的算子标识可以为LSTM,全连接层算子的算子标识可以为dense,注意力机制算子的算子标识可以为attention,激活算子的算子标识可以为activation,求和算子的算子标识可以为add,拼接算子的算子标识可以为concat等,在此不再逐一举例。
假设算子库中共有L种算子类型,可通过比特配置算子标识,其中,L为正整数。例如有Conv1D、Conv2D、Conv3D、RNN、LSTM、dense、attention、activation、add和concat共10种算子,他们各自的编号分别为0-9。则,配置一个算子标识时,可通 过比特指示该算子的标识。例如,该4比特指示的值为0001时,所配置的算子为Conv2D。
本公开中,每一种类型的算子可以对应一个或多个参数。该一个或多个参数以列表的形式示出时,可以称为参数列表。一种类型的算子的参数列表可以指示该算子包括哪些参数。针对该种类型的一个算子,该算子的参数列表可以指示这些参数的默认取值。如果一个算子不包括参数,那么该算子对应的参数列表不包括任何参数;如果一个算子包括参数,那么该算子对应的参数列表包括至少一个参数。例如,对于Conv1D或Conv2D或Conv3D算子,其参数包括以下至少一项:卷积核大小(kernel_size),卷积步幅(stride)或填充方式(padding)等;对于RNN算子,其参数包括输入序列长度(steps)和/或输出指示(return_sequence)等;对于dense算子,其参数包括输入输出维度和/或激活函数类型等;对于concat算子,其参数包括拼接维度(axis)等。其他算子包括的参数不再逐一举例说明。
本公开中,每一种类型的算子可以对应一个或多个权重。该一个或多个权重以列表的形式示出时,可以称为权重列表。一种类型的算子的权重列表可以指示该算子包括哪些权重。针对该种类型的一个算子,该算子的权重列表可以指示这些权重的默认取值。如果一个算子不包括权重,那么该算子对应的权重列表不包括任何权重;如果一个算子包括权重,那么该算子对应的权重列表包括至少一个权重。例如,对于Conv2D算子,其权重包括卷积核的取值等;对于dense算子,其权重包括矩阵W和/或偏置向量b。其他算子包括的权重不再逐一举例说明。可选地,算子的权重列表可以并入算子的参数列表中。
本公开中,根据一个算子的参数的取值及权重的取值,可确定该算子的具体函数表达式,即可以确定一个具体的运算。例如,对于dense算子,其权重包括矩阵W和偏置向量b,向量b的维度与矩阵W的行数相同;其参数包括输入维度、输出维度和激活函数,其中,输入维度对应矩阵W的列数,输出维度对应矩阵W的行数,激活函数为σ()。根据参数列表及权重列表中参数及权重的值,可以确定dense算子对应的运算为y=σ(W*x+b),其中x为输入,y为输出。对于激活函数σ(),常用形式有tanh,softmax等。其中tanh(z)=(ez-e-z)/(ez+e-z),用于将实数输入z映射到[-1,1]间的实数,e表示自然常数;softmax用于把K维的实数向量X映射为K维的实数向量Y,其中Y的第i个元素的其中Xj表示输入X的第j个元素,Yi的取值在[0,1]区间内。
对于RNN算子,权重包括矩阵U,W,和V;参数包括输入维度、和输出维度,其中,输入维度对应矩阵U的列数,输出维度对应矩阵U的行数以及矩阵V的列数、或矩阵W的列数。根据参数列表及权重列表中参数的取值及权重的取值,可以确定RNN算子对应的运算为yt=softmax(V*st),其中st=tanh(U*xt+W*st-1),其中xt为输入序列的第t个元素,st为第t次迭代的中间计算结果,yt为第t次迭代的输出。
本公开中,当第二设备向第一设备指示一个节点的节点信息时,该节点信息中可以包括对应算子的参数列表配置信息,参数列表配置信息包括该对应算子的参数的取值。参数列表的解析方式可以指示每个算子的参数列表中每一个参数与该算子对应的参数列表配置信息中参数的取值的对应关系。其中,算子的参数列表配置信息还可以称为算子的一个或多个参数的配置信息。
一种可能的解析方式中,每个算子的参数列表中的每一个参数,可以与每个算子对应的参数列表配置信息中的取值按照顺序一一对应。举例来说,假设dense算子的参数列表包括两个参数:“输入大小”和“输出大小”。该算子的参数列表配置信息包括数组[5,10]。 按照该解析方式:该数组中第一个值为“输入大小”的取值,第二个值为“输出大小”的值,因此该根据解析方式可以明确dense算子的每个参数的取值。
以上只是示例,每个算子的参数列表中每一个参数,与每个算子对应的参数列表配置信息中的取值的对应顺序,还可能存在其他实现方式,本公开对此并不限定。
假设在参数列表中,一个算子对应E个参数,E为大于0的整数,该算子的参数列表配置信息包括的取值数量可以小于E。在该情况下,没有与参数列表配置信息中的取值对应的参数,其取值可以为默认值。举例来说,假设dense算子的参数列表包括两个参数:“输入大小”和“输出大小”。该算子的参数列表配置信息包括数组[5]。按照该解析方式:该数组中第一个值为“输入大小”的取值,由于“输出大小”没有对应的值,因此“输出大小”的取值可以为默认值,例如默认值为8。
一个算子参数列表配置信息包括的取值数量,小于该算子的参数列表中包括的参数数量时,哪些参数的取值为默认值,可以为预先约定的,也可以通过其他方式确定,本公开对此并不限定。
本公开中,当第二设备向第一设备指示一个节点的节点信息时,该节点信息中可以包括对应算子的权重列表配置信息,权重列表配置信息包括该算子的权重的取值。权重列表的解析方式可以指示每个算子的权重列表中每一个权重与该算子对应的权重列表配置信息中权重的取值的对应关系。其中,算子的权重列表配置信息还可以称为算子的一个或多个权重的配置信息。
一种可能的解析方式中,每个算子的权重列表中每一个权重,可以与每个算子对应的权重列表配置信息中的取值按照顺序一一对应。举例来说,假设RNN算子的权重列表包括三个权重:矩阵U、矩阵V、矩阵W。该算子的权重列表配置信息包括的取值依次为U0,V0,W0。按照该解析方式:该数组中第一个值为“矩阵U”的取值,第二个值为“矩阵V”的值,第三个值为“矩阵W”的值,因此该根据解析方式可以明确RNN算子的每个权重的取值。
以上只是示例,每个算子的权重列表中每一个权重,与每个算子对应的权重列表配置信息中的取值的对应顺序,还可能存在其他实现方式,本公开对此并不限定。
假设在权重列表中,一个算子对应F个权重,F为大于0的整数,该算子的权重列表配置信息包括的取值数量可以小于F。在该情况下,没有与权重列表配置信息中的取值对应的权重,其取值可以为默认值。举例来说,RNN算子的权重列表配置信息包括的取值依次为U0,V0。按照该解析方式:该数组中第一个值为“矩阵U”的取值,第二个值为“矩阵V”的值,由于“矩阵W”没有对应的值,因此“矩阵W”的取值可以为默认值。
一个算子权重列表配置信息包括的取值数量,小于该算子的权重列表中包括的权重数量时,哪些权重的取值为默认值,可以为预先约定的,也可以通过其他方式确定,本公开对此并不限定。
通过预设标准算子库,当第二设备向第一设备指示人工智能模型中的节点对应的算子时,不需要额外描述这些算子的具体内容,只需要指示这些算子在标准算子库中的算子名称、对应的参数以及对应的权重等信息,从而可以减少描述人工智能模型的开销。
下面以第一设备与第二设备之间交互为例,描述本公开提供的方法。如图3所示,为本公开提供的一种信息传输方法流程示意图,该方法包括:
S301:第二设备根据第一人工智能模型确定N个第一节点信息。
其中,第一人工智能模型包括M个第一节点,M为大于1整数。一个人工智能模型中,除了输入节点和输出节点之外,其余每个节点包括输入端和输出端。一个节点的输入端可以和另一个节点的输出端存在连接关系。一个节点可以包括一个或多个输入端和一个或多个输出端,因此一个节点可以与多个节点存在连接关系。当一个节点的输入端与另一个节点的输出端存在连接关系时,即一个节点的输出作为另一个节点的输入时,可以认为该节点的输入端与另一个节点的输出端之间存在一条链路(link)。该链路是一个虚拟概念,并不代表存在一个物理链路将这两个节点连接起来。
结合图论的知识可知,对于一个人工智能模型,通过指示该人工智能模型中每个节点以及节点间的连续关系,就可以指示出该人工智能模型的结构。为此,本公开中,如果第二设备需要向第一设备指示第一人工智能模型,第二设备可以向第一设备指示第一人工智能模型包括的M个第一节点,和/或,M个第一节点之间的连接关系。
结合上面的描述,本公开中,N个第一节点信息可以用于指示第一人工智能模型包括的M个第一节点的信息,N为大于1整数,M大于或等于N。对于N个第一节点信息中的每个第一节点信息,该第一节点信息用于指示M个第一节点中的S个第一节点的信息,S为大于0整数。对于不同的第一节点信息,其对应的S的取值可以相同,也可以不同,不予限制。
其中,S大于1时,即一个第一节点信息用于指示多个第一节点的信息时,表示这多个第一节点之间,除了节点标识不同之外,其他信息可以都相同。通过这种方法,可以通过一个节点信息,指示多个节点,可以进一步减少描述人工智能模型的开销。
一种可能的实现方式中,如表1所示,第一节点信息可以指示表1中的一项或多项信息:
表1:第一节点信息

进一步可选的,第二设备根据第一人工智能模型确定第一链路(link)信息。第一链路信息可以用于指示第一人工智能模型中M个第一节点之间的连接关系。
其中,如果第一人工智能模型中M个第一节点之间的连接关系是预设的,那么第二设备可以不指示第一链路信息。例如,第一人工智能模型中M个第一节点之间的预设的连接关系为:输入节点与输出节点之间的第一节点都是串行连接,那么第二设备可以不指示第一链路信息。可选地,第二设备不指示第一链路信息的一种实现方式为:第二设备不确定第一链路信息,也不指示第一链路信息。可选地,第二设备不指示第一链路信息的另一种实现方式为:第二设备确定第一链路信息供第二设备内部使用,但是第二设备不向第一设备指示第一链路信息。
一种可能的实现方式中,本公开中,第一人工智能模型包括的M个第一节点之间,可以包括X个链路,X为大于0整数。第一链路信息可以指示X个链路属性信息。每个链路属性信息对应一个链路,举例来说,如表2所示,链路属性信息可以指示表2中的一项或多项信息:
表2:链路属性信息
通过前面的描述可知,第一人工智能模型中包括的每个第一节点,可以包括输入端和输出端,两个第一节点之间存在连接关系是指一个第一节点的输入端与另一个第一节点的输出端之间存在连接关系。本公开中,通过链路属性信息指示存在连接关系的两个第一节点,以及相应的输入端和输出端,从而可以明确指示出两个第一节点之间的连接关系。进一步的,通过X个链路属性信息,可以指示出M个第一节点之间的连接关系,从而指示出第一人工智能模型的拓扑结构。
S302:第二设备向第一设备发送N个第一节点信息;相应的,第一设备接收来自第二设备的N个第一节点信息。
可选地,第二设备还可以向第一设备发送第一链路信息。
一种可能的实现方式中,如果第一人工智能模型中M个第一节点之间的连接关系是预设的,那么第二设备可以不向第一设备发送第一链路信息。例如,第一人工智能模型中M个第一节点之间的预设的连接关系为:输入节点与输出节点之间的第一节点都是串行连接,那么可以不发送第一链路信息。
举例来说,如图4所示,为本公开提供的一种人工智能模型结构示意图。图4中,该人工智能模型包括5个节点,这5个节点之间串行连接,即每个节点的输入端最多与一个节点连接,每个节点的输出端最多与一个节点连接。如图4所示,这5个节点的连接顺序为输入节点、节点1、节点2、节点3、输出节点。在该情况下,第二设备可以不发送第一链路信息,第一设备在没有接收到第一链路信息的情况下,默认这5个节点之间串行连接,即按照图4所示的方式连接。
通过这种方法,当第一人工智能模型中的节点之间的连接关系是预设的时,第二设备不发送第一链路信息,可以进一步减少描述第一人工智能模型所需的开销,从而减小向第一设备传输第一人工智能模型所需的开销,提高资源利用率。
S303:第一设备根据N个第一节点信息以及第一链路信息确定第一人工智能模型。
本公开中,第一设备根据N个第一节点信息可以确定第一人工智能模型包括的M个第一节点。具体的,第一设备可以确定以下至少一项:这M个第一节点中每个第一节点的节点标识、每个第一节点对应的算子的算子标识、每个第一节点对应的算子包括的参数以及参数的取值、每个第一节点对应的算子包括的权重以及权重的取值、每个第一节点的输入端的个数、或每个第一节点的输出端的个数等信息,从而确定该每个第一节点的具体运算公式。
进一步的,第一设备根据第一链路信息可以确定M个第一节点之间的连接关系,从而确定第一人工智能模型的拓扑结构。具体的,第一设备根据第一链路信息包括的X个链路属性信息,可以确定X个链路,即可以确定M个第一节点中哪些第一节点存在连接关系。对于X个链路中的任意一个链路,第一设备可以确定该链路的链路属性信息确定M个第一节点中作为源节点的第一节点以及作为目的节点的第一节点,还可以确定源节点的哪一个输出端与目的节点的哪一个输入端连接。通过第一链路信息,第一设备从而可以确定第一人工智能模型的拓扑结构。
进一步的,第一设备从而可以根据第一链路信息指示的连接关系和M个第一节点确定第一人工智能模型。举例来说,第一设备可以将M个第一节点按照第一链路信息指示的连接关系进行连接,获得第一人工智能模型。
需要说明的是,如果第二设备没有发送第一链路信息,则第一链路信息指示的连接关系可以是预设的,此时第一设备可以将M个第一节点按照预设的连接关系进行连接,获得第一人工智能模型。
结合前面的描述,举例来说,如图5所示,为本公开提供的一种第一人工智能模型结构示意图。该第一人工智能模型包括5个第一节点,分别为输入节点,节点1,节点2,节点3以及输出节点,对应的节点标识分别为0,1,2,3,-1。
举例来说,输入节点的节点信息可以如表3所示。
表3:输入节点的节点信息
结合表3,输入节点包括2个输入端和2个输出端,2个输入端分别为输入端口0(用x0表示)和输入端口1(用x1表示);2个输出端分别为输出端口0和输出端口1。输入节点分别与节点1、节点2连接。具体的,输入节点的输出端口0与节点1的输入端口0连接,这两个端口之间的链路为链路1;输入节点的输出端口1与节点1的输入端口0连接,这两个端口之间的链路为链路2。
输入节点不包含实际的数据运算,而是用于指示人工智能模型输入信息。输入节点对应的算子input没有相应的权重,因此权重列表配置信息没有相应的取值。输入节点的参数列表配置信息中包括两个参数(输入大小和输入类型)的取值,可以根据人工智能模型的输入信息确定。例如,对用于信道状态信息反馈的人工智能模型,其输入的信道矩阵维度可为[2,nTx,nSub],其中2代表信道的实部、虚部2部分,nTx表示通过该信道传输的信号的发送端口数,nSub表示信道的子带数。因此,当nTx=32,nSub=13时,输入节点的参数列表配置信息中的输入大小参数的取值为[2,32,13],代表输入数据为[2,32,13]大小的3维张量;如果人工智能模型的输入数据为32位浮点类型(float32)的数据,那么输入节点的参数列表配置信息中输入类型参数取值为float32。
例如,输出节点的节点信息可以如表4所示。
表4:输出节点的节点信息
结合表4,输出节点包括2个输入端和2个输出端,2个输出端分别为输出端口0(用y0表示)和输出端口1(用y1表示);2个输入端分别为输入端口0和输入端口1。输出节点与节点3连接,具体的,输出节点的输入端口0与节点3的输出端口0连接,这两个端口之间的链路为链路5;输出节点的输出端口1与节点3的输出端口1连接,这两个端口之间的链路为链路6。
输出节点不包含实际的数据运算,而是用于指示人工智能模型输出信息。输出节点对应的算子output没有相应的权重,因此权重列表配置信息没有相应的取值。输出节点对应的算子包括的参数可以根据人工智能模型的输出信息确定,例如人工智能模型的输出数据的类型为float32,那么输出节点的参数列表配置信息中输出类型参数取值为float32。
例如,节点1的节点信息可以如表5所示。
表5:节点1的节点信息
结合表5,节点1包括1个输入端和1个输出端。节点1分别与输入节点、节点3连接,节点1与输入节点的具体连接关系可以参考前面的描述,节点1的输出端口0与节点3的输入端口0连接,这两个端口之间的链路为链路3。
对于节点1,其对应的算子为“conv2D”,表示指示该节点要实现2维卷积操作。根据参数列表配置信息可以确定,该卷积操作的卷积核为(3,3)的2维矩阵,卷积步幅为(1,1),即在2个维度上卷积核的滑动步幅均为1;填充方式padding=‘same’,表示该卷积操作的输出大小与输入大小相同。根据权重列表配置信息可以确定,权重取值为ker,指示该(3,3)大小的卷积核的具体取值为ker。基于上述节点信息即可确定节点1的具体运算过程。
例如,节点2的节点信息可以如表6所示。
表6:节点2的节点信息
结合表6,节点2包括1个输入端和1个输出端。节点2分别与输入节点、节点3连接,节点2与输入节点的具体连接关系可以参考前面的描述,节点2的输出端口0与节点3的输入端口1连接,这两个端口之间的链路为链路4。
对于节点2的其它信息,可以参考节点1中的描述,在此不再赘述。
需要说明的是,上面的例子中,节点1对应的算子和节点2对应的算子相同,如果节点1对应的算子包括的参数的取值和节点2对应的算子包括的参数的取值相同且节点1对应的算子包括的权重的取值和节点2对应的算子包括的权重的取值也相同,则节点1和节点2可以通过一个节点信息指示,具体的,表5和表6可以合并为如下的表7。
表7:节点1和节点2的节点信息
表7中,包括了多个节点标识,即包括了节点1的节点标识和节点2的节点标识,因此可以进一步减少描述第一人工智能模型的节点所需的开销。
例如,节点3的节点信息可以如表8所示。
表8:节点3的节点信息
结合表8,节点3包括2个输入端和2个输出端。节点3分别与输出节点、节点1、节点2连接,具体连接关系可以参考前面的描述。
对于节点3,其对应的算子为“RNN”,表示指示该节点要实现循环神经网络结构。根据参数列表配置信息可以确定,该节点要处理长度为steps=2的一个输入序列;参数return_sequence=true,表示该节点的输出为与输入等长的序列,即长度为2的序列。而权重具体取值为U,W,V;举例来说,基于上述参数,该节点3对应的RNN算子满足以下公式:
s0=tanh(U*i0)
o0=softmax(V*s0)
s1=tanh(U*i1+W*s0)
o1=softmax(V*s1)
其中,i0,i1表示该节点的长度为2的输入序列,o0,o1表示该节点长度为2的输出序列, s0,s1是为计算过程中的中间变量,tanh()和softmax()是两个非线性激活函数。
进一步的,例如,图5所示的第一人工智能模型的第一链路信息可以如表9所示。
表9:第一链路信息
当第一设备获得表3至表8所示的节点信息时,第一设备可以确定图5所示的第一人工智能模型中每个节点的具体信息;进一步的,当第一设备获得表9所示的第一链路信息时,第一设备可以确定图5所示的第一人工智能模型中,具有连接关系的节点之间具体是如何连接的。第一设备根据上述信息,从而可以确定第一人工智能模型,即恢复第一人工智能模型的拓扑结构。
本公开中,第二设备可以向第一设备指示多个人工智能模型,具体数量并不限定。举例来说,第二设备还可以向第一设备指示第二人工智能模型。具体的,假设第二人工智能模型包括Q个第二节点,第二设备可以向第一设备发送P个第二节点信息。其中,P个第二节点信息用于指示Q个第二节点的信息,一个第二节点信息用于指示Q个第二节点中的至少一个第二节点的信息,P为大于0整数,Q为大于或等于P的整数。
进一步可选的,第二设备还可以向第一设备发送第二链路信息,第二链路信息用于指示第二人工智能模型中Q个第二节点之间的连接关系。
第二节点信息以及第二链路信息的具体实现方式,可以分别参考前面关于第一节点信息以及第一链路信息的描述,在此不再赘述。
本公开中,两个或两个以上的人工智能模型还可以构成一个新的人工智能模型。第二设备在向第一设备指示一个人工智能模型时,如果该人工智能模型可以由多个人工智能模型通过组合方式获得,且第二设备已经向第一设备指示了该多个人工智能模型中的一部分人工智能模型,那么第二设备可以不需要向第一设备指示该多个人工智能模型中的所有人工智能模型,可以只向第一设备指示该多个人工智能模型中的另外一部分人工智能模型,从而可以进一步减少描述人工智能模型所需的开销。
举例来说,假设第三人工智能模型中包括第一人工智能模型和第二人工智能模型。例如,第三人工智能模型由第一人工智能模型和第二人工智能模型构成。可选地,假设第三人工智能模型中还包括其他模型,对该其他模型的指示以及对第三人工智能模型的指示是类似的,不再赘述。以下以第三人工智能模型由第一人工智能模型和第二人工智能模型构成为例进行说明。
第一种实现方式中,如果第二设备已经向第一设备指示第一人工智能模型,还没有向第一设备指示第二人工智能模型,那么第二设备可以向第一设备发送P个第二节点信息以及第二链路信息。
其中,P个第二节点信息用于指示第二人工智能模型包括的Q个第二节点的信息,第二链路信息用于指示第一人工智能模型中M个第一节点与第二人工智能模型中Q个第二节点之间的连接关系。
进一步可选的,第二链路信息还可以用于指示第二人工智能模型中Q个第二节点之间的连接关系。
可选地,在该实现方式中,第一人工智能模型可以称为基本模型,第二人工智能模型可以称为补充模型,即第三人工智能模型是在第一人工智能模型的基础上,补充了第二人工智能模型获得的。
第二种实现方式中,如果第二设备已经向第一设备指示第一人工智能模型以及第二人工智能模型,那么第二设备可以向第一设备发送第三链路信息,第三链路信息用于指示第一人工智能模型中的M个第一节点与第二人工智能模型中的Q个第二节点之间的连接关系。
可选地,在该实现方式中,第一人工智能模型和第二人工智能模型可以称为基本模型,即第三人工智能模型是由多个基本模型构成的。
结合前面的描述,如图6所示,为本公开提供的一种第一人工智能模型结构示意图。
该第一人工智能模型包括7个第一节点,这7个第一节点按照顺序依次串行连接,这7个第一节点的节点信息分别如下所示。
其中,输入节点的节点信息可以如表10-1所示。
表10-1:输入节点的节点信息

例如,输出节点的节点信息可以如表10-2所示。
表10-2:输出节点的节点信息
例如,节点1的节点信息可以如表10-3所示。
表10-3:节点1的节点信息
对于节点1,其对应的算子为“dense”,表示指示该节点要实现全连接操作。根据参数列表配置信息可以确定,该dense操作将输入映射为长度为13的张量,且偏置向量为0,激活函数为线性激活函数。根据权重列表配置信息可以确定,映射矩阵取值为D,因此,该节点的输出可表示为y=D*x,其中x表示该节点的输入。
例如,节点2的节点信息可以如表10-4所示。
表10-4:节点2的节点信息
例如,节点3以及节点5的节点信息可以如表10-5所示。
表10-5:节点3以及节点5的节点信息
例如,节点4的节点信息可以如表10-6所示。
表10-6:节点4的节点信息
对于节点4,其对应的算子为“concat”,表示指示该节点要实现拼接操作。根据参数列表配置信息可以确定,该拼接操作在张量的第1个维度上执行(维度标识从0开始计数)。输入格式表示该节点有2个输入,1个输出。因此节点4将2个输入延第1个维度拼接为1个更长的张量,作为该节点的输出。例如,假设节点4的输入为维度是[N1,N2,N3]和[N1,N4,N3]的两个张量,则节点4将其拼接为维度是[N1,N2+N4,N3]的张量输出。
进一步的,图6所示的第一人工智能模型中输入节点至输出节点之间的链路依次为链路1至链路6,第一人工智能模型的第一链路信息可以如表10-7所示。
表10-7:第一链路信息

如图7所示,为本公开提供的一种第二人工智能模型结构示意图。
该第二人工智能模型包括3个第二节点,这3个第二节点的节点标识分别为8、9以及10,这3个第二节点的节点信息分别如下所示。
表11-1:节点信息
第二人工智能模型包括的3个第二节点按照顺序依次串行连接,具体的,节点8的输出端0与节点9的输入端0连接,节点8与节点9之间的链路为链路7;节点9的输出端0与节点10的输入端0连接,节点9与节点10之间的链路为链路8。
如果第三人工智能模型由第一人工智能模型和第二人工智能模型构成,具体的,如图8所示,第三人工智能模型除了包括第一人工智能模型和第二人工智能模型之外,第一人工智能模型中节点2的输出端1与第二人工智能模型中节点8的输入端0连接,节点2与节点8之间的链路为链路9;第二人工智能模型中节点10的输出端0与第一人工智能模型中节点4的输入端1连接,节点10与节点4之间的链路为链路10。
在第一种实现方式中,如果第二设备已经向第一设备指示第一人工智能模型,还没有向第一设备指示第二人工智能模型,那么第二设备向第一设备发送的第二链路信息可以如表11-1所示。
表11-2:第二链路信息
在第一种实现方式中,如果第二设备已经向第一设备指示第一人工智能模型以及第二人工智能模型,那么第二设备向第一设备发送的第三链路信息可以如表11-2所示。
表11-3:第三链路信息
通过上面的方法,当一个人工智能模型可以由多个人工智能模型组合构成时,第二设备可以只指示构成该人工智能模型的部分人工智能模型,从而进一步降低描述人工智能模型的开销,以及传输人工智能模型的开销,提高系统资源利用率。
上述本申请提供的实施例中,分别从各个设备之间交互的角度对本申请实施例提供的方法进行了介绍。为了实现上述本申请实施例提供的方法中的各功能,接入网设备或终端设备可以包括硬件结构和/或软件模块,以硬件结构、软件模块、或硬件结构加软件模块的形式来实现上述各功能。上述各功能中的某个功能以硬件结构、软件模块、还是硬件结构加软件模块的方式来执行,取决于技术方案的特定应用和设计约束条件。
本申请实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。另外,在本申请各个实施例中的各功能模块可以集成在一个处理器 中,也可以是单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
与上述构思相同,如图9所示,本申请实施例还提供一种通信装置用于实现上述方法中第一设备或者第二设备的功能。例如,该装置可以为软件模块或者芯片系统。本申请实施例中,芯片系统可以由芯片构成,也可以包含芯片和其他分立器件。该通信装置900可以包括:处理单元901和通信单元902。
本申请实施例中,通信单元也可以称为收发单元,可以包括发送单元和/或接收单元,分别用于执行上文方法实施例中第一设备或者第二设备发送和接收的步骤。
以下,结合图9至图10详细说明本申请实施例提供的通信装置。应理解,装置实施例的描述与方法实施例的描述相互对应,因此,未详细描述的内容可以参见上文方法实施例,为了简洁,这里不再赘述。
通信单元也可以称为收发装置。处理单元也可以称为处理模块、或处理装置等。可选的,可以将通信单元902中用于实现接收功能的器件视为接收单元,将通信单元902中用于实现发送功能的器件视为发送单元,即通信单元902包括接收单元和发送单元。通信单元有时可以实现为收发机、收发器、或收发电路等。处理单元有时可以实现为处理器、或处理单板等。接收单元有时可以实现为接收机、接收器、或接收电路等。发送单元有时可以实现为发射机、发射器或者发射电路等。
通信装置900执行上面实施例中图3所示的流程中第一设备的功能时:
通信单元,用于接收来自第二设备的N个第一节点信息;其中,一个第一节点信息用于指示第一人工智能模型中至少一个第一节点的信息,N为大于1整数;
处理单元,用于根据N个第一节点信息以及第一链路信息确定第一人工智能模型;第一链路信息用于指示第一人工智能模型中M个第一节点之间的连接关系,M为大于或等于N的整数。
通信装置900执行上面实施例中图3所示的流程中第二设备的功能时:
处理单元,用于根据第一人工智能模型确定N个第一节点信息,一个第一节点信息用于指示第一人工智能模型中至少一个第一节点的信息,N为大于1整数;
通信单元,用于向第一设备发送N个第一节点信息以及第一链路信息;第一链路信息用于指示第一人工智能模型中M个第一节点之间的连接关系,M为大于或等于N的整数。
通信装置900执行上面实施例中图3所示的流程中第二设备的功能时:
处理单元,用于根据第一人工智能模型确定N个第一节点信息,一个所述第一节点信息用于指示所述第一人工智能模型中至少一个第一节点的信息,所述N个第一节点信息用于指示所述第一人工智能模型中M个第一节点的信息,N为大于1整数,M为大于或等于N的整数;所述M个第一节点之间的连接关系是通过第一链路信息指示的,所述第一链路信息指示的连接关系是预设的;
通信单元,用于向第一设备发送N个第一节点信息。
以上只是示例,处理单元901和通信单元902还可以执行其他功能,更详细的描述可以参考图3所示的方法实施例中相关描述,这里不加赘述。
如图10所示为本申请实施例提供的通信装置1000,图10所示的装置可以为图9所示的装置的一种硬件电路的实现方式。该通信装置可适用于前面所示出的流程图中,执行上述方法实施例中第一设备或者第二设备的功能。为了便于说明,图10仅示出了该通信装 置的主要部件。
如图10所示,通信装置1000包括处理器1010和接口电路1020。处理器1010和接口电路1020之间相互耦合。可以理解的是,接口电路1020可以为收发器、管脚或输入输出接口。可选的,通信装置1000还可以包括存储器1030,用于存储处理器1010执行的指令或存储处理器1010运行指令所需要的输入数据或存储处理器1010运行指令后产生的数据。可选地,存储器1030的部分或全部可以位于处理器1010中。
当通信装置1000用于实现图3所示的方法时,处理器1010用于实现上述处理单元901的功能,接口电路1020用于实现上述通信单元902的功能。
可以理解的是,本申请的实施例中的处理器可以是中央处理单元,还可以是其它通用处理器、数字信号处理器、专用集成电路或者其它可编程逻辑器件、晶体管逻辑器件,硬件部件或者其任意组合。通用处理器可以是微处理器,也可以是任何常规的处理器。
本申请的实施例中的存储器可以是随机存取存储器、闪存、只读存储器、可编程只读存储器、可擦除可编程只读存储器、电可擦除可编程只读存储器、寄存器、硬盘、移动硬盘或者本领域熟知的任何其它形式的存储介质中。
本领域内的技术人员应明白,本公开的实施例可提供为方法、系统、或计算机程序产品。因此,本公开可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本公开可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、光学存储器等)上实施的计算机程序产品的形式。
本公开是参照根据本公开的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
显然,本领域的技术人员可以对本公开进行各种改动和变型而不脱离本公开的范围。这样,倘若本公开的这些修改和变型属于本公开权利要求及其等同技术的范围之内,则本公开也意图包含这些改动和变型在内。

Claims (21)

  1. 一种信息传输方法,其特征在于,所述方法应用于第一设备侧,包括:
    接收来自第二设备的N个第一节点信息;其中,一个第一节点信息用于指示第一人工智能模型中至少一个第一节点的信息,N为大于1整数;
    根据所述N个第一节点信息以及第一链路信息确定所述第一人工智能模型;所述第一链路信息用于指示所述第一人工智能模型中M个第一节点之间的连接关系,M为大于或等于N的整数。
  2. 根据权利要求1所述的方法,其特征在于,所述第一链路信息指示的连接关系是预设的;
    所述根据所述N个第一节点信息以及第一链路信息确定所述第一人工智能模型,包括:
    根据所述N个第一节点信息确定所述第一人工智能模型包括的所述M个第一节点;
    根据预设的连接关系和所述M个第一节点确定所述第一人工智能模型。
  3. 根据权利要求1所述的方法,其特征在于,所述第一链路信息来自所述第二设备;
    所述根据所述N个第一节点信息以及第一链路信息确定所述第一人工智能模型,包括:
    根据所述N个第一节点信息确定所述第一人工智能模型包括的所述M个第一节点;
    根据所述第一链路信息指示的连接关系和所述M个第一节点确定所述第一人工智能模型。
  4. 根据权利要求1至3任一所述的方法,其特征在于,
    所述第一链路信息指示X个链路属性信息,X为大于0整数;每个所述链路属性信息对应一个链路,所述链路属性信息指示所述链路属性信息对应链路的以下至少一项信息:
    所述M个第一节点中作为所述链路的源节点的节点;
    所述源节点中作为所述链路的输入端的端口;
    所述M个第一节点中作为所述链路的目的节点的节点;或,
    所述目的节点中作为所述链路的输出端的端口。
  5. 根据权利要求1至4任一所述的方法,其特征在于,所述第一节点信息指示以下至少一项信息:
    所述第一节点信息所对应的至少一个第一节点的节点标识;
    所述至少一个第一节点的输入格式;或,
    所述至少一个第一节点的输出格式。
  6. 根据权利要求1至5任一所述的方法,其特征在于,所述方法还包括:
    接收来自所述第二设备的P个第二节点信息,P为大于0整数;
    其中,所述P个第二节点信息用于指示第二人工智能模型中Q个第二节点的信息,Q为大于或等于P的整数。
  7. 根据权利要求6所述的方法,其特征在于,接收来自所述第二设备的第二链路信息,所述第二链路信息用于指示所述第二人工智能模型的所述Q个第二节点之间的连接关系。
  8. 根据权利要求6或7所述的方法,其特征在于,若第三人工智能模型中包括所述第一人工智能模型和第二人工智能模型,所述方法还包括:
    接收来自所述第二设备的第三链路信息,所述第三链路信息用于指示所述第一人工智能模型中的所述M个第一节点与所述第二人工智能模型中的所述Q个第二节点之间的连 接关系;
    根据所述第一人工智能模型、所述第二人工智能模型和所述第三链路信息确定所述第三人工智能模型。
  9. 一种信息传输方法,其特征在于,所述方法应用于第二设备侧,包括:
    根据第一人工智能模型确定N个第一节点信息,一个所述第一节点信息用于指示所述第一人工智能模型中至少一个第一节点的信息,所述N个第一节点信息用于指示所述第一人工智能模型中M个第一节点的信息,N为大于1整数,M为大于或等于N的整数;
    所述M个第一节点之间的连接关系是通过第一链路信息指示的,所述第一链路信息是预设的。
  10. 一种信息传输方法,其特征在于,所述方法应用于第二设备侧,包括:
    根据第一人工智能模型确定N个第一节点信息,一个所述第一节点信息用于指示所述第一人工智能模型中至少一个第一节点的信息,N为大于1整数;
    向第一设备发送所述N个第一节点信息以及第一链路信息;所述第一链路信息用于指示所述第一人工智能模型中M个第一节点之间的连接关系,M为大于或等于N的整数。
  11. 根据权利要求9至10任一所述的方法,其特征在于,
    所述第一链路信息指示X个链路属性信息,X为大于0整数;每个所述链路属性信息对应一个链路,所述链路属性信息指示所述链路属性信息对应链路的以下至少一项信息:
    所述M个第一节点中作为所述链路的源节点的节点;
    所述源节点中作为所述链路的输入端的端口;
    所述M个第一节点中作为所述链路的目的节点的节点;
    所述目的节点中作为所述链路的输出端的端口。
  12. 根据权利要求9至11任一所述的方法,其特征在于,所述第一节点信息指示以下至少一项信息:
    所述第一节点信息指示的至少一个第一节点的节点标识;
    所述至少一个第一节点的输入格式;或,
    所述至少一个第一节点的输出格式。
  13. 根据权利要求9至12任一所述的方法,其特征在于,所述方法还包括:
    向所述第一设备发送P个第二节点信息以及第二链路信息,P为大于0整数;
    其中,所述P个第二节点信息用于指示所述第二人工智能模型中Q个第二节点的信息,Q为大于或等于P的整数;所述第二链路信息用于指示所述Q个第二节点之间的连接关系。
  14. 根据权利要求13所述的方法,其特征在于,若第三人工智能模型中包括所述第一人工智能模型和第二人工智能模型,所述方法还包括:
    向所述第一设备发送第三链路信息,所述第三链路信息用于指示所述第一人工智能模型中的所述M个第一节点与所述第二人工智能模型中的所述Q个第二节点之间的连接关系。
  15. 一种通信装置,其特征在于,包括处理器和存储器,所述处理器和所述存储器耦合,所述处理器用于执行如权利要求1-8中任一项所述的方法。
  16. 一种通信装置,其特征在于,包括用于实现权利要求1-8中任一项所述的方法的单元。
  17. 一种通信装置,其特征在于,包括处理器和存储器,所述处理器和所述存储器耦合, 所述处理器用于执行如权利要求9-14中任一项所述的方法。
  18. 一种通信装置,其特征在于,包括用于实现权利要求9-14中任一项所述的方法的单元。
  19. 一种计算机可读存储介质,其特征在于,所述存储介质中存储有计算机程序或指令,当所述计算机程序或指令在计算机上运行时,实现如权利要求1-14中任一项所述的方法。
  20. 一种计算机程序产品,其特征在于,包括计算机程序或指令,当所述计算机程序或指令在计算机上运行时,实现如权利要求1-14中任一项所述的方法。
  21. 一种通信系统,其特征在于,包括权利要求15-16中任一项所述的通信装置,和权利要求17-18中任一项所述的通信装置。
PCT/CN2023/081870 2022-03-22 2023-03-16 一种信息传输方法及装置 WO2023179448A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202210288551.7A CN116827804A (zh) 2022-03-22 2022-03-22 一种信息传输方法及装置
CN202210288551.7 2022-03-22

Publications (1)

Publication Number Publication Date
WO2023179448A1 true WO2023179448A1 (zh) 2023-09-28

Family

ID=88099867

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2023/081870 WO2023179448A1 (zh) 2022-03-22 2023-03-16 一种信息传输方法及装置

Country Status (2)

Country Link
CN (1) CN116827804A (zh)
WO (1) WO2023179448A1 (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210125028A1 (en) * 2018-06-19 2021-04-29 Samsung Electronics Co,. Ltd. Electronic apparatus and method of controlling thereof
CN113435605A (zh) * 2021-06-25 2021-09-24 烽火通信科技股份有限公司 一种基于网络数据池的ai动态注入的控制方法和装置
WO2022013095A1 (en) * 2020-07-13 2022-01-20 Telefonaktiebolaget Lm Ericsson (Publ) Managing a wireless device that is operable to connect to a communication network
WO2022041285A1 (zh) * 2020-08-31 2022-03-03 华为技术有限公司 一种模型数据传输方法及通信装置
CN114143799A (zh) * 2020-09-03 2022-03-04 华为技术有限公司 通信方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210125028A1 (en) * 2018-06-19 2021-04-29 Samsung Electronics Co,. Ltd. Electronic apparatus and method of controlling thereof
WO2022013095A1 (en) * 2020-07-13 2022-01-20 Telefonaktiebolaget Lm Ericsson (Publ) Managing a wireless device that is operable to connect to a communication network
WO2022041285A1 (zh) * 2020-08-31 2022-03-03 华为技术有限公司 一种模型数据传输方法及通信装置
CN114143799A (zh) * 2020-09-03 2022-03-04 华为技术有限公司 通信方法及装置
CN113435605A (zh) * 2021-06-25 2021-09-24 烽火通信科技股份有限公司 一种基于网络数据池的ai动态注入的控制方法和装置

Also Published As

Publication number Publication date
CN116827804A (zh) 2023-09-29

Similar Documents

Publication Publication Date Title
CN113747462A (zh) 一种信息处理方法及相关设备
Ayoub et al. Implementation of SCHC in NS-3 and Comparison with 6LoWPAN
WO2023179448A1 (zh) 一种信息传输方法及装置
US11341057B2 (en) Configurable logic block networks and managing coherent memory in the same
WO2023040971A1 (zh) 一种人工智能模型下载方法、装置及系统
WO2023098860A1 (zh) 通信方法和通信装置
WO2023036268A1 (zh) 一种通信方法及装置
WO2023143121A1 (zh) 一种数据处理方法及其相关装置
US20220007382A1 (en) Model-assisted deep reinforcement learning based scheduling in wireless networks
CN113055313B (zh) 网口扩展的方法、装置、电子设备及存储介质
CN111930471B (zh) 一种基于gpu的并行仿真评估选择方法
WO2022262687A1 (zh) 一种数据处理方法及装置
WO2024067245A1 (zh) 模型匹配的方法和通信装置
WO2023231881A1 (zh) 一种模型应用方法及装置
WO2022257662A1 (zh) 一种应用人工智能的通信方法及通信装置
US20240054324A1 (en) Distributed learning method and apparatus
Ren et al. Air–ground integrated artificial intelligence of things with cognition-enhanced interference management
WO2024087573A1 (zh) 一种联邦学习方法及装置
WO2024036631A1 (zh) 一种信息反馈方法、装置、设备及存储介质
WO2023185890A1 (zh) 一种数据处理方法及相关装置
WO2024061125A1 (zh) 一种通信方法及装置
WO2023179458A1 (zh) 通信方法和通信装置
WO2022237865A1 (zh) 一种数据处理方法及装置
WO2024051789A1 (zh) 一种波束管理方法
WO2023160459A1 (zh) 一种人工智能算法模型获取方法及装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23773696

Country of ref document: EP

Kind code of ref document: A1