WO2021205959A1 - 情報処理装置、サーバー、情報処理システム及び情報処理方法 - Google Patents

情報処理装置、サーバー、情報処理システム及び情報処理方法 Download PDF

Info

Publication number
WO2021205959A1
WO2021205959A1 PCT/JP2021/013920 JP2021013920W WO2021205959A1 WO 2021205959 A1 WO2021205959 A1 WO 2021205959A1 JP 2021013920 W JP2021013920 W JP 2021013920W WO 2021205959 A1 WO2021205959 A1 WO 2021205959A1
Authority
WO
WIPO (PCT)
Prior art keywords
information processing
server
processing device
learning
model
Prior art date
Application number
PCT/JP2021/013920
Other languages
English (en)
French (fr)
Inventor
幸暉 堀田
竹識 板垣
哲士 梅田
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to EP21784520.5A priority Critical patent/EP4132109A4/en
Priority to US17/907,735 priority patent/US20230130153A1/en
Publication of WO2021205959A1 publication Critical patent/WO2021205959A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/02Arrangements for optimising operational condition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W40/00Communication routing or communication path finding
    • H04W40/02Communication route or path selection, e.g. power-based or shortest path routing
    • H04W40/18Communication route or path selection, e.g. power-based or shortest path routing based on predicted events
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/02Protecting privacy or anonymity, e.g. protecting personally identifiable information [PII]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/04Arrangements for maintaining operational condition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W40/00Communication routing or communication path finding
    • H04W40/02Communication route or path selection, e.g. power-based or shortest path routing
    • H04W40/12Communication route or path selection, e.g. power-based or shortest path routing based on transmission quality or channel quality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W40/00Communication routing or communication path finding
    • H04W40/02Communication route or path selection, e.g. power-based or shortest path routing
    • H04W40/20Communication route or path selection, e.g. power-based or shortest path routing based on geographic position or location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B17/00Monitoring; Testing
    • H04B17/30Monitoring; Testing of propagation channels
    • H04B17/391Modelling the propagation channel
    • H04B17/3913Predictive models, e.g. based on neural network models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W24/00Supervisory, monitoring or testing arrangements
    • H04W24/10Scheduling measurement reports ; Arrangements for measurement reports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W48/00Access restriction; Network selection; Access point selection
    • H04W48/18Selecting a network or a communication service

Definitions

  • This technology relates to information processing devices, servers, information processing systems, and information processing methods that predict the wireless environment by machine learning.
  • the communication bearer means a series of stepwise or logical paths for transferring the user's normal information.
  • each communication bearer is given a priority.
  • a method of measuring the throughput of a communication bearer in use and switching to another communication bearer based on the measurement result see, for example, Patent Document 1).
  • the purpose of this technology is to improve the prediction accuracy of the wireless environment, and to strengthen the sharing model when predicting the wireless environment by machine learning, safely and efficiently in terms of personal information protection.
  • the purpose of the present invention is to provide an information processing device, a server, an information processing system, and an information processing method.
  • the information processing device related to this technology is Learn a model to predict the wireless environment, Upload the learning result to the server and
  • the server includes an arithmetic processing unit that predicts a wireless environment using a shared model obtained by aggregating one or more learning results.
  • the prediction target of the wireless environment may be at least one of the deterioration of the communication state of the connected communication path and the poor characteristics of the unconnected communication path.
  • the arithmetic processing unit may be configured to switch the communication path to be connected based on the prediction result of the wireless environment.
  • the switching of the wireless path by the arithmetic processing unit may be switching between communication paths having different communication methods.
  • the wireless path switching by the arithmetic processing unit may be switching between different communication paths of the same communication method.
  • the arithmetic processing unit may be configured to switch the communication path at a specific timing.
  • the timing for switching the communication path may be at least one of the timing when the communication volume of the application falls below the threshold value, the user is not using the information processing device, or the timing according to the user's attribute.
  • the arithmetic processing unit may be configured to predict information on the relationship between the time and position and the wireless environment.
  • the shared model is classified by cluster based on user attributes.
  • the arithmetic processing unit may be configured to predict the wireless environment using a synthetic model that synthesizes the learning result and the shared model acquired from the server.
  • a server based on another perspective of this technology.
  • a shared model is generated by aggregating one or more learning results of one or more information processing devices of a model that predicts a wireless environment. It includes an arithmetic processing unit that distributes the shared model to the one or more information processing devices.
  • the server It consists of multiple server devices that have a hierarchical relationship with each other.
  • the server device of the higher layer may be configured to aggregate the shared models created by the server device of the lower layer to create the shared model of the upper layer.
  • An information processing system based on another viewpoint of this technology is Learn a model to predict the wireless environment, Upload the learning result to the server and One or more information processing devices including a first arithmetic processing unit that predicts a wireless environment using a shared model obtained by aggregating one or more learning results in the server.
  • a shared model is generated by aggregating one or more learning results on the one or more information processing devices. It includes a server having a second arithmetic processing unit that distributes the shared model to the one or more information processing devices.
  • the information processing method based on another viewpoint of this technology is A model that predicts the wireless environment is learned by one or more information processing devices, and the learning result is uploaded to the server.
  • the server one or more learning results uploaded from the one or more information processing devices are aggregated to create a shared model, which is distributed to the one or more information processing devices.
  • the wireless environment is predicted by using the shared model with one or more information processing devices.
  • FIG. 1 shows the structure of the information processing system of 1st Embodiment which concerns on this technology, and the basic flow of the associative learning.
  • It is a sequence diagram about learning participation of a model.
  • FIG. 1 is a diagram showing a configuration of the information processing system 100 and a basic flow of associative learning.
  • the information processing system 100 collects one or more information processing devices 10 such as a smartphone that performs learning 2 of the model (central model) 1 and learning results (local model) 3 by one or more information processing devices 10.
  • a server that creates a shared model 5, which is a model with improved sophistication, by performing aggregation 4 with the learning results of another information processing device 10'and reflecting the results in the central model 1 as many times as necessary. 20 and.
  • the learning result uploaded from the information processing device 10 to the server 20 is uploaded as difference data with respect to the weight value of each node or the weight value of each node of the model at the time of distribution from the server 20 to the information processing device 10. Will be done.
  • the upload capacity can be reduced.
  • the difference data is uploaded, the raw data does not go out of the information processing apparatus 10, which is useful from the viewpoint of personal information protection.
  • the reduction of the upload capacity is suitable for learning a large amount of data, and the update cycle of the shared model 5 can be increased, so that the highly sophisticated shared model 5 can be efficiently obtained.
  • the shared model 5 obtained on the server 20 as described above is distributed to the information processing device 10.
  • the acquired shared model 5 is used to predict the wireless environment 6, for example, the communication state of the connected wireless path deteriorates, or the communication characteristics of the unconnected wireless path deteriorate. do. Further, when the communication state of the wireless path being connected is predicted to deteriorate, the information processing device 10 may switch the wireless path to be connected between wireless paths having different communication methods, or another wireless path having the same communication method. Switch between wireless paths.
  • FIG. 2 is a block diagram showing the configuration of the information processing device 10.
  • the information processing device 10 has a plurality of communication bearers, and communicates between a communication unit 12 having a communication path control unit 11 that controls to appropriately switch between communication bearers to be used, and a communication bearer that is currently connected or can be connected to the communication unit 12.
  • It has a learning / prediction unit 13 that learns a model for predicting deterioration of a state and predicts deterioration of a communication state of a communication bearer using a shared model created by the server 20 based on the learning result of the model. ..
  • the learning / prediction unit 13 is composed of a CPU (Central Processing Unit), which is a first arithmetic processing unit, and a memory for storing programs and data to be executed by the CPU.
  • CPU Central Processing Unit
  • the learning / prediction unit 13 includes a learning participation management unit 131, a learning unit 132, a data storage unit 133, a learning result upload unit 134, a shared model download unit 135, and a prediction unit 136.
  • the learning participation management unit 131 instructs the server 20 to participate in model learning, acquires the model for which learning is permitted from the server 20, and manages the learning execution timing in the information processing device 10.
  • the learning unit 132 learns the acquired model. This model learning is performed using data such as communication parameters indicating the communication status for each communication bearer, which are stored in advance in the data storage unit 133.
  • the learning result uploading unit uploads the learning result (local model information) of the model to the server 20.
  • the shared model download unit 135 downloads the shared model from the server 20 through an inquiry to the server 20 whether or not the shared model can be downloaded.
  • the prediction unit 136 predicts the deterioration of the communication state of the communication path being used or available by the information processing apparatus 10 by using the downloaded shared model.
  • the communication parameters used in learning will be described.
  • the following communication parameters can be mentioned, for example.
  • -Identifiers such as wireless LAN networks and access points such as BSSID (Basic Service Set Identifier) and SSID (Service Set Identifier)
  • BSSID Basic Service Set Identifier
  • SSID Service Set Identifier
  • CCA busy time the length of time that the wireless device determines that it is busy by carrier sense
  • Contention Time the length of the transmission waiting time required for packet transmission by CSMA / CA
  • Radio On Time (the length of time that the radio is in operation)
  • Tx Time the length of time that the radio is transmitting packets)
  • Rx Time the length of time that the radio is receiving packets)
  • a plurality of these parameters may be combined and processed by calculation.
  • the parameters indicating the communication congestion status include RTT (Round Trip Time) for the gateway of the connected access point, average throughput, TCP error rate, number of users connected to the access point, CCA Busy Time of the connected access point, and giving up transmission. There is information such as the number of packets discarded, the number of packets staying in the transmission buffer, and information on whether or not the number of packets exceeds a certain threshold.
  • the following data that affect communication may be used.
  • the model used for learning may be a simple regression analysis or the like, in addition to a neural network such as CNN (Convolutional Neural Network) or LSTM (Long Short-Term Memory).
  • CNN Convolutional Neural Network
  • LSTM Long Short-Term Memory
  • FIG. 3 is a block diagram showing a configuration related to federated learning of the server 20.
  • the server 20 has a learning participation instruction unit 21, a learning result aggregation unit 22, and a shared model distribution unit 23.
  • the learning participation instruction unit 21 determines whether or not the information processing device 10 that has issued the learning participation request can participate in learning, and notifies the information processing device 10 that permits learning participation of the learning participation request.
  • the learning result aggregation unit 22 combines the learning results (local model information) uploaded from the plurality of information processing devices 10 by averaging or the like, or repeats the combination to create a shared model.
  • the shared model distribution unit 23 distributes the shared model in response to a download request for the shared model from the information processing device 10.
  • the learning participation instruction unit 21, the learning result aggregation unit 22, and the shared model distribution unit 23 are composed of a CPU (Central Processing Unit), which is a second arithmetic processing unit, and a memory for storing programs and data to be executed by the CPU. NS.
  • CPU Central Processing Unit
  • FIG. 4 is a sequence diagram of the first download method of the model.
  • the learning participation management unit 131 sends the identifier of the model held in the self-information processing device 10 and the hash value indicating the generation information of this model to the server 20.
  • the learning participation instruction unit 21 of the server 20 receives the hash value of the corresponding model held in the server 20 and the hash value notified from the information processing device 10 for the model specified by the identifier received from the information processing device 10. To compare. When both hash values are different, the learning participation instruction unit 21 determines that the model held in the server 20 is newer, and outputs a signaling that permits the download of this model, such as an HTTP Response code 200, to the information processing device 10. Respond to.
  • a signaling that permits the download of this model, such as an HTTP Response code 200
  • the learning participation instruction unit 21 of the server 20 responds to the information processing device 10 with a signaling indicating that the download of this model is impossible, for example, an HTTP Response code 400.
  • the learning participation management unit 131 of the information processing device 10 receives the notification permitting the download, the learning participation management unit 131 requests the server 20 to download the model.
  • the learning participation instruction unit 21 in the server 20 downloads this model to the information processing device 10 in response to this request.
  • FIG. 5 is a sequence diagram of the second download method of the model.
  • the learning participation instruction unit 21 in the server 20 manages the version information represented by the update date and time of each model as generation information, and notifies each information processing device 10 of the version information of the model at regular time intervals. do.
  • the learning participation management unit 131 in the information processing device 10 compares the version information notified from the server 20 with the version information of the model it has, and if the version information notified from the server 20 is newer, the server Request 20 to download the model.
  • the learning participation instruction unit 21 in the server 20 downloads this model to the information processing device 10 in response to this request.
  • the model acquired from the server 20 is not continuously trained for a predetermined time, the model may be automatically deleted from the information processing device 10.
  • FIG. 6 is a sequence diagram relating to learning participation of the model
  • FIG. 7 is a flowchart of learning participation management by the learning participation management unit 131 in the information processing device 10
  • FIG. 8 is a flowchart of the learning participation instruction unit 21 in the server 20.
  • the model is downloaded to the information processing apparatus 10 as described above, and the timing at which the learning of the model is actually performed is controlled by the server 20. That is, when the learning participation management unit 131 in the information processing device 10 becomes an environment in which the information processing device 10 can satisfactorily execute information processing for learning (YES in FIG. 7, step S1), the learning participation management unit 131 learns from the server 20. A participation availability notification is transmitted (FIG. 7, step S2).
  • the environment in which the information processing device 10 can satisfactorily execute information processing for learning is, for example, when charging, using a non-charged communication bearer, or when user processing is not being executed (for example, the display is turned off). When it is in a suspended state), etc. It is desirable that this environment can be arbitrarily configured by the user using the graphical user interface.
  • the information included in the above learning participation notification includes, for example, the charging status (charging rate, etc.), the recently participated learning time, the amount of learning data in the information processing device 10, the country code, the ZIP code, the cluster identifier, and the model.
  • Equipment information such as name can be mentioned.
  • the learning participation instruction unit 21 in the server 20 receives the learning participation availability notification from the information processing device 1 (FIG. 8, step S3), based on the information included in the learning participation availability notification, for example, as follows.
  • the information processing device 10 to be participated in the learning is selected (FIG. 8, step S4).
  • the learning participation instruction unit 21 specifies that the charging state (charging rate, etc.) is equal to or higher than the threshold value, the latest learning time is the latest or oldest, the learning data amount is the largest, the one belongs to a specific country, and the like.
  • the model name of the above is selected as the information processing apparatus 10 to participate in the learning.
  • the learning participation instruction unit 21 in the server 20 transmits a learning participation request notification to the information processing device 10 that has decided to participate in learning (FIG. 8, step S5).
  • the learning participation management unit 131 in the information processing device 10 receives the learning participation request notification (YES in FIG. 7, step S6), the learning participation management unit 131 instructs the learning unit 132 to execute learning (FIG. 7, step S7). As a result, the learning unit 132 starts learning the model.
  • the learning participation instruction unit 21 in the server 20 transmits a learning participation prohibition notification to the information processing device 10 that has decided not to participate in learning (FIG. 8, step S8).
  • the learning participation management unit 131 in the information processing device 10 receives the learning participation non-commission notification (NO in FIG. 7, step S6), it does nothing.
  • the weight value (difference data) of each node of the model is the number of data used for learning and the model to be learned. It is transmitted to the server 20 by the learning result uploading unit 134 together with the identifier and the generation information such as the hash value or the version information.
  • the server 20 creates a shared model in which the learning results received from the information processing device 10 are averaged with other learning results by the learning result aggregation unit 22 in the server 20.
  • the learning result aggregation unit 22 in the server 20 is based on generation information such as the hash value or version information of the model to be learned transmitted from the information processing device 10 together with the learning result, and the learning result is useful for creating a shared model. Determine if it is data. For example, it is examined whether or not the model generation information transmitted from the information processing apparatus 10 together with the learning result is the same as the model generation information currently possessed by the server 20. Here, if they are not the same, the learning result uploaded from the information processing device 10 is the learning result of a model of a generation older than the model currently possessed by the server 20, so that the learning result is uploaded from the information processing device 10. The learning result is discarded.
  • the learning result aggregation unit 22 creates a shared model by averaging the learning results transmitted from the information processing device 10 with other learning results as useful data for creating the shared model.
  • Federated Averaging and Federated Learning Matching Algorithm can be used as the method of aggregating the learning results, but other methods may be used.
  • the learning result aggregation unit 22 in the server 20 may adjust the weighting for reflecting each learning result in the shared model based on the amount of learning data. More specifically, for example, as the amount of training data increases, there is a method such as increasing the weighting for reflecting the learning result in the shared model.
  • a model created based on the result of aggregating more learning results in this way is defined as a more sophisticated next-generation shared model.
  • FIG. 9 and 10 are flowcharts relating to model distribution from the server 20 to the information processing device 10, FIG. 9 shows processing of the shared model download unit 135 in the information processing device 10, and FIG. 10 shows distribution of the shared model in the server 20. It is a flowchart which shows each process of a part 23.
  • the shared model distribution unit 23 in the server 20 distributes a model in which a predetermined number of rounds (for example, 100 rounds) have been learned, a specific learning accuracy (for example, Precision 95% or more), or both are guaranteed. Set as a possible shared model.
  • the shared model download unit 135 in the information processing device 10 inquires of the server 20 at regular time intervals (for example, once a week) whether or not there is a shared model newer than the shared model of the information processing device 10 (FIG. 9). , Step S11).
  • This inquiry includes generation information such as a hash value or version information of a shared model of the information processing apparatus 10.
  • the shared model distribution unit 23 in the server 20 receives the above inquiry from the information processing device 10 (FIG. 10, step S12), the generation information of the shared model in the server 20 and the information processing device 10 included in the inquiry. By comparing with the generation information of the shared model in the server 20, it is examined whether or not there is a newer shared model in the server 20 than the shared model in the information processing apparatus 10. If a new generation shared model exists in the server 20 (YES in FIG. 10, step S13), a shared model download request is sent to the information processing device 10 (FIG. 10, step S14). If the corresponding shared model does not exist, it ends without doing anything.
  • the shared model download unit 135 in the information processing device 10 receives the shared model download request from the server 20 (YES in step S15 in FIG. 9,), the shared model download unit 135 sends a download request for the shared model to the server 20 (FIG. 9, YES in step S15). Step S16).
  • the shared model distribution unit 23 in the server 20 downloads the corresponding shared model to the information processing device 10 in response to the download request (FIGS. 10, steps S17, S18).
  • the downloaded shared model is encrypted with the private key of the server 20 and decrypted with the public key installed in the information processing device 10.
  • the decoded shared model is overwritten and saved with respect to the existing shared model in the information processing apparatus 10.
  • FIG. 11 is a diagram showing mainly a process of switching communication bearers in the information processing device 10.
  • FIG. 12 is a flowchart of an operation of estimating a communication path in which the communication state has deteriorated by using the shared model.
  • the shared model downloaded by the shared model download unit 135 in the information processing device 10 is installed in the prediction unit 136.
  • a plurality of shared models can be installed in the prediction unit 136, and a plurality of inferences can be executed using the plurality of shared models. For example, a model that predicts the degree of deterioration of IEEE 802.11 communication and a model that predicts access point congestion can execute inference at the same time.
  • the prediction unit 136 acquires and shares various data such as communication parameters related to each communication bearer of the communication unit 12, information on the internal sensor 31 and the external sensor 32, and other information on applications that affect communication (step S21). Input to the model (step S22) and calculate the output score of the shared model (step S23).
  • the prediction unit 136 informs the communication path control unit 11. On the other hand, it is determined to issue a communication bearer switching request (step S25).
  • a communication path switching request instructing switching to a communication bearer other than IEEE 802.11 is sent to the communication path control unit 11 in the communication unit 12.
  • the communication path control unit 11 in the communication unit 12 switches the communication path used by the information processing device 10 according to the communication path switching request.
  • the communication route control unit 11 is configured to switch the communication route at a specific timing.
  • the timing for switching the communication path is selected so as to avoid as much as possible the timing at which communication that should ensure continuity is likely to occur. For example, when the communication volume of the application falls below the threshold value, when the user is not using the information processing device 10 (for example, when the display is turned off and is in the suspended state), the user's attribute (communication). This includes the timing when it is statistically known that the amount of communication will decrease depending on the contract plan, place of residence, gender, age, occupation, nationality, etc.).
  • the user's information is obtained by learning the shared model for predicting the communication path in which the communication state is deteriorated by the information processing device 10 of each user by the associative learning.
  • the model can be strengthened safely and efficiently without outputting sensitive information such as user's personal information and information about the information processing device 10 as learning data to the outside of the processing device 10. Further, since the learning result obtained by each information processing device 10 is uploaded to the server 20 as difference data with the weight value of the node of the original model to be learned, the raw data is updated to the server 20. Personal information can be protected and the update capacity can be reduced.
  • the learning / prediction unit 13 does not necessarily have to exist in the information processing device 10, for example, an edge server or a cloud server is provided with the learning / prediction unit 13.
  • the information processing device 10 may be configured to take in data necessary for learning such as communication parameters and transmit the learning result and the prediction result to the information processing device 10.
  • ⁇ Second embodiment> after connecting to an IEEE 802.11 access point, the communication state may deteriorate due to the user moving away from the access point or the radio wave propagation environment around the access point deteriorating.
  • the shared model distributed learning by Federated Learning can also be used to predict the communication deterioration of the access point after connection.
  • the communication parameters collected by the communication unit after connecting to IEEE 802.11 are input to the shared model, and if the value output from the shared model is equal to or greater than the threshold value, the communication path is switched from IEEE 802.11 to another communication bearer. A request is sent to the communication path control unit in the communication unit, and the communication bearer is switched.
  • the communication state may deteriorate due to the user moving away from the access point or the radio wave propagation environment around the access point deteriorating.
  • the shared model distributed learning by Federated Learning can also be used to predict the communication deterioration of the access point after connection due to the difference in user behavior.
  • the output of the sensor related to the user's personal information for example, the output of the acceleration sensor, the position information, the output of the pedometer, the heart rate, the blood pressure information, etc. does not go out of the information processing device 10. It is also desirable from.
  • the communication parameters collected by the communication unit after connecting to IEEE 802.11 are input to the shared model, and if the value output from the shared model is equal to or greater than the threshold value, the communication path is switched from IEEE 802.11 to another communication bearer. A request is sent to the communication path control unit in the communication unit, and the communication bearer is switched.
  • ⁇ Modification example 1> The communication bearer switching policy differs depending on the user. Therefore, the switching policy can be classified into several patterns. However, it was difficult to express the switching timing of these users' preferences with a single model.
  • a shared model for each cluster classified by user characteristics such as gender and age is prepared in the server 20, and the information processing apparatus 10 acquires a shared model suitable for the user characteristics from the server 20. It can be solved by learning. More specifically, for example, when the information processing apparatus 10 sends the learning participation availability notification to the server 20, the server 20 is notified of the identifier of the cluster that matches the characteristics of the user. As a result, the shared model associated with the identifier is downloaded from the server 20 to the information processing device 10, and learning is performed by the learning unit 132 of the information processing device 10.
  • the shared model is clustered based on the characteristics of the user has been described, but the shared model may be clustered depending on the network carrier used, its plan, and the like.
  • the learning unit 132 in the information processing device 10 is given to the shared model acquired from the server 20 by the shared model download unit 135. It synthesizes with the local model learned by the above and stored in the data storage unit 133.
  • a method of synthesis there is a method of synthesizing the weight of the shared model and the weight of the local model at a specific ratio.
  • the weight of the shared model is w_central
  • the weight of the local model is w_user
  • the degree of fusion is ⁇
  • the shared model and the local model may be used together, and the respective results may be combined to derive the inference result.
  • the output of the local model is y_user
  • the output of the shared model is y_central
  • the degree of fusion is ⁇
  • This modification relates to a technique for predicting the relationship between the position information and the time and the communication state of each base station such as a cellular base station or a carrier Wi-Fi base station.
  • a model in which position information and time are input is used as the model for each base station, and cellular information (number of Component Carriers, average rate (MCS)), and cellular information (MCS: Modulation and Coding Scheme) are used as communication parameters of training data.
  • LTE / HSPA + / GSM LTE / HSPA + / GSM
  • signal strength LTE / HSPA + / GSM
  • number of MIMO layers number of communication allocation hours
  • actual number of resource blocks received / transmitted packet counter value
  • number of successful transmissions number of successful receptions
  • number of frame retransmissions MAC
  • RLC Number number of interface errors
  • throughput PHY / IP
  • TCP error rate TCP error rate
  • RTT for a specific host
  • the correct answer label 1 is given to the learning data indicating the deterioration of the communication state
  • the correct answer label 0 is given to the learning data not representing the deterioration of the communication state.
  • the learning result is given a cell ID.
  • the learning results uploaded from each information processing device 10 are aggregated for each cell ID, and a cell ID sharing model is created.
  • the shared model created in this way is stored in the server 20 or the base station, and information processing is performed from the server 20 or the base station in response to a request for specifying the cell ID from the shared model download unit 135 of the information processing apparatus 10. It is distributed to the device 10.
  • the prediction unit 136 in the information processing apparatus 10 comprehensively inputs the position information and the time to the shared model for each base station, and predicts the relationship between the position information and the time and the communication deterioration state of the base station. Is output. This makes it possible to identify the position and time of a base station where deterioration of the communication state is expected without actually measuring the radio wave environment and communication quality using a probe. In addition, by using distributed learning by Federated Learning, it is possible to obtain a shared model with high prediction accuracy for each base station.
  • ⁇ Modification example 4> This technique can also be applied to predict the behavioral state of the user of the information processing device 10.
  • Federated Learning is about a shared model that inputs sensor information and wireless environment such as cellular and acquireable IEEE 802.11-related statistical information, and outputs user status (stopped / moving) and position information. Distributed learning is performed by. The user's status may be labeled by the user answering a question on the user's face or determined from other information.
  • sensor information and wireless environment information for example, suggesting the use of advertisements and coupon tickets of nearby stores to users, or nearby Services such as providing information on vacant seats in the toilets and timetables for nearby transportation facilities will be provided.
  • the server 20 may be composed of a plurality of servers having a hierarchical relationship with each other.
  • the higher-level server may be configured to aggregate the shared models created by the lower-level servers and create them as a higher-level shared model.
  • a server 20 is installed for each country, region, and city, and the server 20 at the city level collects learning results uploaded from a plurality of information processing devices 10 in units of cities, wards, and wards.
  • a town / village level shared model is generated, and the learning aggregation result is uploaded to a server 20 at a higher level, for example, a region level.
  • the regional level server 20 further aggregates the learning aggregation results of a plurality of municipalities uploaded from the server 20 of each municipality to generate a regional level shared model, and higher than that, for example, the national level.
  • the learning aggregation result is uploaded to the server 20.
  • the country-level server 20 further aggregates the aggregated results of the plurality of region-level learning to generate a country-level shared model.
  • the server 20 in each layer responds to the information processing device 10 with a shared model at a level managed by itself in response to a download request from the information processing device 10.
  • a shared model that reflects regional characteristics can be obtained.
  • the present technology can have the following configurations.
  • the prediction target of the wireless environment is at least one of the deterioration of the communication state of the communication path to which the prediction target of the wireless environment is connected or the poor characteristics of the unconnected communication path.
  • Information processing device (3) The information processing device according to (1) or (2) above.
  • the arithmetic processing unit is an information processing device configured to switch a communication path to be connected based on a prediction result of a wireless environment. (4) The information processing device of (3) above.
  • An information processing device in which switching of wireless paths by the arithmetic processing unit is switching between communication paths having different communication methods (5) The information processing device according to (3) above.
  • the arithmetic processing unit is an information processing device configured to switch a communication path at a specific timing.
  • the timing for switching the communication path is at least one of the timing when the communication volume of the application falls below the threshold value, the user is not using the information processing device, or the timing according to the user's attribute.
  • the arithmetic processing unit is an information processing device configured to predict information on the relationship between time and position and a wireless environment. (9) The information processing device according to any one of (1) to (8) above. An information processing device in which the shared model is classified for each cluster based on user attributes. (10) The information processing device according to any one of (1) to (9) above.
  • the arithmetic processing unit is an information processing device configured to predict a wireless environment using a synthetic model that synthesizes the learning result and a shared model acquired from the server. (11)
  • a shared model is generated by aggregating one or more learning results of one or more information processing devices of a model for predicting a wireless environment.
  • a server including an arithmetic processing unit that distributes the shared model to the one or more information processing devices.
  • the server of (11) above It consists of multiple server devices that have a hierarchical relationship with each other.
  • the higher-level server device is a server configured to aggregate the shared models created by the lower-level server devices to create a higher-level shared model.
  • (13) Learn a model that predicts the wireless environment, Upload the learning result to the server and
  • One or more information processing devices including a first arithmetic processing unit that predicts a wireless environment using a shared model obtained by aggregating one or more learning results in the server.
  • a shared model is generated by aggregating one or more learning results on the one or more information processing devices.
  • An information processing system including a server having a second arithmetic processing unit that distributes the shared model to the one or more information processing devices.
  • the information processing system according to (13) above An information processing system in which the prediction target of the wireless environment is at least one of the deterioration of the communication state of the connected communication path and the poor characteristics of the unconnected communication path.
  • the first arithmetic processing unit is an information processing system configured to switch a communication path to be connected based on a prediction result of a wireless environment.
  • the information processing system according to (15) above An information processing system in which the switching of wireless paths is switching between communication paths having different communication methods.
  • the information processing system according to (15) above. An information processing system in which the switching of wireless paths is switching between different communication paths of the same communication method.
  • the first arithmetic processing unit is an information processing system configured to switch a communication path at a specific timing.
  • the timing for switching the communication path is at least one of the timing when the communication volume of the application falls below the threshold value, the user is not using the information processing device, or the timing according to the user's attribute.
  • the first arithmetic processing unit is an information processing system configured to predict information on the relationship between time and position and a wireless environment.
  • (21) The information processing system according to any one of (13) to (20) above.
  • (22) The information processing system according to any one of (13) to (21) above.
  • the first arithmetic processing unit is an information processing system configured to predict a wireless environment using a synthetic model that synthesizes the learning result and a shared model acquired from the server.
  • the model for predicting the wireless environment is learned by one or more information processing devices, and the learning result is uploaded to the server.
  • one or more learning results uploaded from the one or more information processing devices are aggregated to create a shared model, which is distributed to the one or more information processing devices.
  • An information processing method in which the prediction target of the wireless environment is at least one of the deterioration of the communication state of the connected communication path and the poor characteristics of the unconnected communication path.
  • the information processing device is an information processing method that switches a communication path to be connected based on a prediction result of a wireless environment.
  • the information processing method according to (25) above. An information processing method in which the switching of wireless paths is switching between communication paths having different communication methods.
  • the information processing method according to (25) above. An information processing method in which the switching of radio paths is switching between different communication paths of the same communication method.
  • the information processing method according to (25) above. The information processing device is an information processing method that switches a communication path at a specific timing.
  • the timing for switching the communication path is at least one of the following: when the communication volume of the application falls below the threshold value, when the user is not using the information processing device, or at least according to the user's attributes.
  • the information processing device is an information processing method that predicts information on the relationship between time and position and a wireless environment.
  • the information processing device is an information processing method that predicts a wireless environment by using a synthetic model that synthesizes the learning result and a shared model acquired from the server.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

【課題】無線環境の予測を機械学習により行う場合の共有モデルの強化を個人情報保護の面で安全かつ効率的に行うこと。 【解決手段】この情報処理システムは、無線環境を予測するモデルを学習し、前記学習の結果をサーバーにアップロードし、前記サーバーにおいて1以上の学習結果を集約して得られた共有モデルを用いて無線環境を予測する第1の演算処理部を具備する1以上の情報処理装置と、前記1以上の情報処理装置上での1以上の学習結果を集約して共有モデルを生成し、前記共有モデルを前記1以上の情報処理装置に配布する第2の演算処理部を有するサーバーとを具備する。

Description

情報処理装置、サーバー、情報処理システム及び情報処理方法
 本技術は、機械学習により無線環境を予測する情報処理装置、サーバー、情報処理システム及び情報処理方法に関する。
 近年、スマートフォンなどの情報端末としては、複数の通信ベアラが搭載されたものが主流となっている。ここで、通信ベアラとは、ユーザーの通常情報を転送するための一連の歩率的あるいは論理的なパスを意味する。概して、各通信ベアラには優先度が与えられている。また、利用中の通信ベアラのスループットを測定し、測定結果に基づいて別の通信ベアラに切り替える方法が知られている(例えば特許文献1参照)。
特開2010‐135951号公報
 現状、例えば、通信経路毎の通信品質の悪化などの無線環境の予測の精度は不十分である。このため、例えば、通信状態が悪化した無線環境を使用し続けることなどによるユーザー満足度の低下を招いていた。
 本技術の目的は、無線環境の予測精度の向上を図ることができ、無線環境の予測を機械学習により行う場合の共有モデルの強化を個人情報保護の面で安全かつ効率的に行うことのできる情報処理装置、サーバー、情報処理システム及び情報処理方法を提供することにある。
 上記の課題を解決するために、本技術にかかる情報処理装置は、
 無線環境を予測するモデルを学習し、
 前記学習の結果をサーバーにアップロードし、
 前記サーバーにおいて1以上の学習結果を集約して得られた共有モデルを用いて無線環境を予測する演算処理部を具備する。
 前記無線環境の予測対象が接続中の通信経路の通信状態が悪化すること、または、未接続の通信経路の特性が良くないこと、の少なくとも一方であってよい。
 前記演算処理部は、無線環境の予測結果に基づいて接続する通信経路を切り替えるように構成されてもよい。
 前記演算処理部により無線経路の切り替えは、通信方式の異なる通信経路間での切り替えであってよい。
 前記演算処理部により無線経路の切り替えは、同じ通信方式の別の通信経路間での切り替えであってもよい。
 前記演算処理部は、通信経路を特定のタイミングで切り替えるように構成されたものであってよい。
 通信経路を切り替えるタイミングは、アプリケーションの通信量が閾値以下になったとき、ユーザーが情報処理装置を使用していないとき、またはユーザーの属性に応じたタイミングの少なくともいずれかであってよい。
 前記演算処理部は、時刻及び位置と無線環境との関係の情報を予測するように構成されてもよい。
 前記共有モデルが、ユーザーの属性に基づくクラスタ毎に分類されたものである。
 前記演算処理部は、前記学習の結果と前記サーバーより取得した共有モデルを合成した合成モデルを用いて無線環境を予測するように構成されたものであってよい。
 本技術の別の観点に基づくサーバーは。
 無線環境を予測するモデルの、1以上の情報処理装置上での1以上の学習結果を集約して共有モデルを生成し、
 前記共有モデルを前記1以上の情報処理装置に配布する演算処理部
 を具備する。
 前記サーバーは、
 互いに階層関係を有する複数のサーバー装置で構成され、
 前記複数のサーバー装置のうち、より上位階層のサーバー装置は、下位階層のサーバー装置で作成された共有モデルを集約して上位階層の共有モデルを作成するように構成されてもよい。
 本技術の別の観点に基づく情報処理システムは、
 無線環境を予測するモデルを学習し、
 前記学習の結果をサーバーにアップロードし、
 前記サーバーにおいて1以上の学習結果を集約して得られた共有モデルを用いて無線環境を予測する第1の演算処理部を具備する1以上の情報処理装置と、
 前記1以上の情報処理装置上での1以上の学習結果を集約して共有モデルを生成し、
 前記共有モデルを前記1以上の情報処理装置に配布する第2の演算処理部を有するサーバーと
 を具備する。
 本技術の別の観点に基づく情報処理方法は、
 1以上の情報処理装置にて、無線環境を予測するモデルを学習して前記学習の結果をサーバーにアップロードし、
 前記サーバーにおいて、前記1以上の情報処理装置よりアップロードされた1以上の学習結果を集約して共有モデルを作成して、前記1以上の情報処理装置に配布し、
 1以上の情報処理装置にて、前記共有モデルを用いて無線環境を予測する。
本技術に係る第1の実施形態の情報処理システムの構成および連合学習の基本的な流れを示す図である。 図1の情報処理システムにおける情報処理装置の構成を示すブロック図である。 図1の情報処理システムにおけるサーバーの連合学習に係る構成を示すブロック図である。 モデルの第1のダウンロード方法のシーケンス図である。 モデルの第2のダウンロード方法のシーケンス図である。 モデルの学習参加に関するシーケンス図である。 情報処理装置内の学習参加管理部による学習参加管理のフローチャートである。 サーバー内の学習参加指示部のフローチャートである。 情報処理装置内の共有モデルダウンロード部の処理のフローチャートである。 サーバー内の共有モデル配布部の処理のフローチャートである。 情報処理装置内の主に通信ベアラの切り替えの処理を示す図である。 共有モデルを用いて通信状態が悪化した通信経路を推定する動作のフローチャートである。
 以下、本技術に係る実施形態を、図面を参照しながら説明する。
<本実施形態の概要>
 スマートフォンをはじめとする、複数の通信ベアラ(4G、5G(Sub6、mmW)、IEEE802.11無線LAN、Bluetooth(登録商標)PAN、ZigBee(登録商標)等)を搭載している製品は、概してベアラごとの優先度が決まっている。この優先度は通信品質に応じて変動することがあるが、通信品質の推定や、その判断手法は現状十分なものとはいえない。例えば、ユーザーは通信ベアラの選択が適切に行われないことによって、ウェブブラウジングなどが快適に行えないというケースが生じていた。
 その解決方法として、機械学習を用いて通信ベアラの近未来の品質を予測し、その予測結果に応じて通信ベアラを切り替える方法などが検討されている。この方法では、機械学習を実施するために各ユーザーのスマートフォンなどの情報処理装置や開発機から学習のためのデータを収集し、学習を行うサーバーにアップロードすることが行われる。しかし、個人情報保護の観点により、ユーザーから収集できるデータには制約がある。より具体的には、学習データとして有効な、例えばユーザー位置、使用アプリケーション、ユーザー行動履歴、センサー情報などをサーバーに転送することには懸念がある。このため、通信品質のより良いベアラへの切り替えに好適な共有モデルの構築には限界があるとされていた。
 本技術にかかる第1の実施形態として、通信状態の劣化を判断する共有モデルの作成に連合学習(Federated Learning)を用いた情報処理システム100について説明する。
 図1は、この情報処理システム100の構成および連合学習の基本的な流れを示す図である。この情報処理システム100は、モデル(セントラルモデル)1の学習2を行う例えばスマートフォンなどの1以上の情報処理装置10と、1以上の情報処理装置10による学習の結果(ローカルモデル)3の収集、他の情報処理装置10´による学習の結果との集約4を行い、その結果をセントラルモデル1に反映することを適宜回数繰り返すことによって、洗練度を上げたモデルである共有モデル5を作成するサーバー20と、を有する。
 ここで、情報処理装置10からサーバー20にアップロードされる学習結果は、各ノードの重み値、またはサーバー20から情報処理装置10へ配布された時点のモデルの各ノードの重み値に対する差分データとしてアップロードされる。これにより、アップロード容量を低減できる。また、差分データをアップロードする場合には、生データが情報処理装置10の外に出ないので、個人情報保護の観点からも有用である。また、アップロード容量の低減により、大量データの学習に好適であり、共有モデル5の更新サイクルを増やすことができるので、洗練度の高い共有モデル5を効率的に得ることができる。
 上記のようにしてサーバー20において得られた共有モデル5は、情報処理装置10に配布される。情報処理装置10では、取得した共有モデル5を用いて無線環境の予測6、例えば接続中の無線経路の通信状態が悪化すること、あるいは未接続の無線経路の通信特性が低下することなどを予測する。また、情報処理装置10は、接続中の無線経路の通信状態が悪化することが予測される場合、接続する無線経路を、例えば通信方式の異なる無線経路間で切り替えたり、同じ通信方式の別の無線経路間で切り替える。
<本実施形態の詳細>
 以下、本技術にかかる第1の実施形態を、さらに詳細に説明する。
(情報処理装置10の構成)
 図2は情報処理装置10の構成を示すブロック図である。
 情報処理装置10は、複数の通信ベアラを備え、利用する通信ベアラを適宜切り替える制御を行う通信経路制御部11を有する通信部12と、通信部12において現在接続中あるいは接続可能な通信ベアラの通信状態の劣化を予測するためのモデルの学習を行い、モデルの学習結果に基づいてサーバー20で作成された共有モデルを用いて通信ベアラの通信状態の劣化予測を行う学習・予測部13とを有する。学習・予測部13は、第1の演算処理部であるCPU(Central Processing Unit)と、CPUに実行させるプログラムやデータを格納するメモリなどで構成される。
 学習・予測部13は、学習参加管理部131、学習部132、データ保存部133、学習結果アップロード部134、共有モデルダウンロード部135及び予測部136を有する。
 学習参加管理部131は、サーバー20に対するモデル学習の参加指示、学習が許可されたモデルのサーバー20からの取得、情報処理装置10での学習実行タイミングの管理などを行う。
 学習部132は、取得したモデルの学習を行う。このモデル学習は、データ保存部133に前もって保存された例えば通信ベアラ毎の通信状況を示す通信パラメータなどのデータを用いて行われる。
 学習結果アップロード部は、モデルの学習の結果(ローカルモデルの情報)をサーバー20にアップロードする。
 共有モデルダウンロード部135は、サーバー20に対する共有モデルのダウンロード可否の問い合わせを通じてサーバー20から共有モデルをダウンロードする。
 予測部136は、ダウンロードした共有モデルを用いて情報処理装置10が利用中あるいは利用可能な通信経路の通信状態の劣化を予測する。
 (通信パラメータ)
 学習で用いられる通信パラメータについて説明する。
 例えば通信ベアラがIEEE802.11である場合には例えば次のような通信パラメータが挙げられる。
 ・BSSID(Basic Service Set Identifier)、SSID(Service Set Identifier)など、無線LANネットワークやアクセスポイントなどの識別子
 ・CCA busy time(無線機がキャリアセンスでビジーと判定した時間長)
 ・Contention Time(CSMA/CAによるパケット送信にかかった送信待ち時間の時間長)
 ・Radio On Time(無線機が稼働中である時間長)
 ・Tx Time(無線機がパケット送信中である時間長)
 ・Rx Time(無線機がパケット受信中である時間長)
 ・スキャンによって検出されたアクセスポイント数
 ・その他の通信悪化状況を示すパラメータ
 ・通信混雑状況を示すパラメータ
 これらのパラメータを複数組み合わせて演算により加工されたものが用いられても良い。
 通信混雑状況を示すパラメータには、接続アクセスポイントのゲートウェイに対するRTT(Round Trip Time)、平均スループット、TCPエラー率、アクセスポイントに接続しているユーザー数、接続アクセスポイントのCCA Busy Time、送信を諦めて破棄したパケット数、送信バッファに滞留中のパケット数がある閾値を超えているかどうかの情報、などがある。
 さらに、上記の通信パラメータのほか、通信に影響する次のようなデータが用いられてもよい。
 ・周りのBluetoothデバイスの数
 ・自情報処理装置から見えるセルの数
 ・使用しているアプリケーション
 ・アクティビティ状態
 ・音楽再生中の有無
 ・モーションセンサやGPSによって得られるユーザーの動き、位置情報
 ・アクセスポイントの位置情報、接続時刻
 上記のパラメータに基づいて、通信混雑が発生していないアクセスポイントを推定するモデルを学習する場合、混雑しているアクセスポイントに対して正解ラベル1を付与し、混雑していないアクセスポイントに対して正解ラベル0を付与して学習を実行すればよい。
 学習に用いるモデルには、CNN(Convolutional Neural Network)、LSTM(Long Short-Term Memory)などのニューラルネットワークのほかに、単純な回帰分析などでもよい。
(サーバー20の構成)
 図3はサーバー20の連合学習に係る構成を示すブロック図である。
 同図に示すように、サーバー20は、学習参加指示部21、学習結果集約部22、共有モデル配布部23を有する。
 学習参加指示部21は、学習参加要求を出した情報処理装置10の学習参加の可否を判定し、学習参加を許可する情報処理装置10に学習参加依頼を通知する。
 学習結果集約部22は、複数の情報処理装置10からアップロードされた学習結果(ローカルモデルの情報)を平均化などによって結合し、あるいは結合を繰り返し、共有モデルを作成する。
 共有モデル配布部23は、情報処理装置10からの共有モデルのダウンロード要求に応じてその共有モデルを配布する。
 学習参加指示部21、学習結果集約部22及び共有モデル配布部23は、第2の演算処理部であるCPU(Central Processing Unit)と、CPUに実行させるプログラムやデータを格納するメモリなどで構成される。
(動作)
 次に、本情報処理システム100の以下の動作を説明する。
 1.モデルのダウンロード
 2.学習参加
 3.学習結果のアップロード
 4.情報処理装置10への共有モデル配布
 5.共有モデルを用いた推論
(1.モデルのダウンロード)
 図4は、モデルの第1のダウンロード方法のシーケンス図である。
 学習参加管理部131は、自情報処理装置10に保持されているモデルの識別子と、このモデルの世代情報を示すハッシュ値をサーバー20に送付する。サーバー20の学習参加指示部21は、情報処理装置10から受け取った識別子によって指定されるモデルについて、サーバー20に保持されている該当するモデルのハッシュ値と情報処理装置10から通知されたハッシュ値とを比較する。学習参加指示部21は、両ハッシュ値が異なる場合、サーバー20に保持されているモデルの方が新しいことを判断し、当モデルのダウンロードを許可するシグナリング例えばHTTP Responseコード200などを情報処理装置10に応答する。両ハッシュ値が同じである場合、サーバー20の学習参加指示部21は、当モデルのダウンロードが不可であることを示すシグナリング例えばHTTP Responseコード400などを情報処理装置10に応答する。情報処理装置10の学習参加管理部131は、ダウンロードを許可する通知を受けた場合には、サーバー20に当モデルのダウンロードを要求する。サーバー20内の学習参加指示部21は、この要求に応じて、当モデルを情報処理装置10にダウンロードする。
 図5は、モデルの第2のダウンロード方法のシーケンス図である。
 サーバー20内の学習参加指示部21は、個々のモデルの更新日時などによって表されるバージョン情報を世代情報として管理し、一定時間間隔で各情報処理装置10に対してそのモデルのバージョン情報を通知する。情報処理装置10内の学習参加管理部131は、サーバー20より通知されたバージョン情報と自身がもつモデルのバージョン情報とを比較し、サーバー20から通知されたバージョン情報の方が新しければ、サーバー20に当該モデルのダウンロードを要求する。サーバー20内の学習参加指示部21は、この要求に応じて、当モデルを情報処理装置10にダウンロードする。
 なお、サーバー20より取得したモデルに対して、決められた時間連続して学習が実行されなかった場合、そのモデルは情報処理装置10から自動的に削除されるようにしてもよい。
(2.学習参加)
 図6はモデルの学習参加に関するシーケンス図、図7は情報処理装置10内の学習参加管理部131による学習参加管理のフローチャート、図8はサーバー20内の学習参加指示部21のフローチャートである。
 上記のようにして情報処理装置10にモデルがダウンロードされるが、そのモデルの学習が実際に行われるタイミングはサーバー20によって制御される。
 すなわち、情報処理装置10内の学習参加管理部131は、情報処理装置10が学習のための情報処理を良好に実行できる環境になったとき(図7、ステップS1のYES)、サーバー20に学習参加可能通知を送信する(図7、ステップS2)。
 情報処理装置10が学習のための情報処理を良好に実行できる環境とは、例えば、充電中、無課金の通信ベアラを使用中、ユーザー処理が実行中でないとき(例えば、ディスプレイがオフになっており、サスペンド状態にあるとき)、などが挙げられる。この環境はユーザーがグラフィカルユーザインタフェースを使って任意に設定できることが望ましい。
 上記の学習参加可能通知に含まれる情報としては、例えば、充電状態(充電率など)、最近参加した学習時刻、情報処理装置10内の学習データ量、国コード、ZIPコード、クラスタの識別子、モデル名などの機器情報などが挙げられる。
 サーバー20内の学習参加指示部21は、情報処理装置1からの学習参加可能通知を受信すると(図8、ステップS3)、この学習参加可能通知に含まれる情報に基づき、例えば次のようにして学習に参加させる情報処理装置10を選択する(図8、ステップS4)。例えば、学習参加指示部21は、充電状態(充電率など)が閾値以上であるもの、直近の学習時刻が最も新しいまたは古いもの、学習データ量が最大のもの、特定の国に属するもの、特定のモデル名のものなどを、学習に参加させる情報処理装置10として選択する。
 サーバー20内の学習参加指示部21は、学習に参加させることを決定した情報処理装置10に学習参加依頼通知を送信する(図8、ステップS5)。
 情報処理装置10内の学習参加管理部131は、この学習参加依頼通知を受けたとき(図7、ステップS6のYES)、学習部132に学習実行を指示する(図7、ステップS7)。これにより学習部132においてモデルの学習が開始される。
 サーバー20内の学習参加指示部21は、学習に参加させないことを決定した情報処理装置10に対しては学習参加不可通知を送信する(図8、ステップS8)。情報処理装置10内の学習参加管理部131は、この学習参加不可通知を受けた場合には(図7、ステップS6のNO)何もしない。
(3.学習結果のアップロード)
 情報処理装置10内の学習部132によってモデルの学習が行われた後、その学習結果であるモデルの各ノードの重みの値(差分データ)が、学習に用いたデータ数、学習対象のモデルの識別子、及びハッシュ値あるいはバージョン情報などの世代情報とともに学習結果アップロード部134によってサーバー20に送信される。サーバー20は情報処理装置10から受信した学習結果を、サーバー20内の学習結果集約部22によって他の学習結果と平均化するなどして集約した共有モデルを作成する。
 サーバー20内の学習結果集約部22は情報処理装置10から学習結果とともに送信されてきた学習対象のモデルのハッシュ値あるいはバージョン情報などの世代情報に基づき、その学習結果が共有モデルの作成に有用なデータであるかどうかを判断する。例えば、情報処理装置10から学習結果とともに送信されてきたモデルの世代情報が、現在サーバー20がもつモデルの世代情報と同一であるか否かを調べる。ここで、同一ではない場合、情報処理装置10からアップロードされた学習結果は現在サーバー20がもつモデルよりも世代の古い世代のモデルの学習結果ということになるので、情報処理装置10からアップロードされた学習結果は破棄される。また、情報処理装置10から学習結果とともに送信されてきたモデルの世代情報が、現在サーバー20がもつモデルの世代情報と同一であるなら、情報処理装置10からアップロードされた学習結果は現在サーバー20がもつモデルに対する学習結果ということになる。この場合、学習結果集約部22は情報処理装置10から送信されてきた学習結果を共有モデルの作成に有用なデータとして、他の学習結果と平均化するなどして共有モデルを作成する。
 学習結果の集約方法には例えばFederated AveragingやFederated Learning Matching Algorithmなどを用いることができるが、それ以外の方法を用いてもよい。さらに、サーバー20内の学習結果集約部22は、学習データ量に基づいて、各学習結果を共有モデルに反映させる重み付けを調整してもよい。より具体的には、たとえば学習データ量が多いほど、学習結果を共有モデルに反映させる重み付けを大きくするなどの方法がある。このようにより多くの学習結果を集約した結果に基づいて作成されたモデルは、より洗練度を上げた次世代の共有モデルとして定義される。
(4.情報処理装置10への共有モデル配布)
 図9及び図10は、サーバー20から情報処理装置10へのモデル配布に関するフローチャートであり、図9は情報処理装置10内の共有モデルダウンロード部135の処理、図10はサーバー20内の共有モデル配布部23の処理をそれぞれ示すフローチャートである。
 サーバー20内の共有モデル配布部23は、所定数のラウンド(例えば100ラウンドなど)の学習を終了したモデルあるいは特定の学習精度(例えばPrecision95%以上など)、あるいはその両方が担保されたモデルを配布可能な共有モデルとして設定する。
 情報処理装置10内の共有モデルダウンロード部135は、例えば一定時間間隔(例えば1週間に一度など)でサーバー20に、情報処理装置10がもつ共有モデルよりも新しい共有モデルの有無を問い合わせる(図9、ステップS11)。この問い合わせには、情報処理装置10がもつ共有モデルのハッシュ値あるいはバージョン情報などの世代情報が含まれる。
 サーバー20内の共有モデル配布部23は、情報処理装置10からの上記の問い合わせを受信すると(図10、ステップS12)、サーバー20内の共有モデルの世代情報と、問い合わせに含まれる情報処理装置10内の共有モデルの世代情報とを比較することによって、サーバー20内に情報処理装置10内の共有モデルよりも世代の新しい共有モデルが存在するかどうかを調べる。世代の新しい共有モデルがサーバー20内に存在するならば(図10、ステップS13のYES)、情報処理装置10に共有モデルダウンロード依頼を送付する(図10、ステップS14)。該当する共有モデルが存在しない場合には、何もしないで終了する。
 情報処理装置10内の共有モデルダウンロード部135は、サーバー20より共有モデルダウンロード依頼を受信すると(図9、ステップS15のYES)、サーバー20に、その共有モデルのダウンロード要求を送付する(図9、ステップS16)。サーバー20内の共有モデル配布部23は、このダウンロード要求に応じて該当する共有モデルを情報処理装置10にダウンロードする(図10、ステップS17、S18)。この際、ダウンロードされる共有モデルは、サーバー20の秘密鍵で暗号化され、情報処理装置10にインストールされている公開鍵で復号化される。復号化された共有モデルは、情報処理装置10内の既存の共有モデルに対して上書き保存される。
(5.共有モデルを用いた推定)
 図11は、情報処理装置10内の主に通信ベアラの切り替えの処理を示す図である。図12は、共有モデルを用いて通信状態が悪化した通信経路を推定する動作のフローチャートである。
 情報処理装置10内の共有モデルダウンロード部135によってダウンロードされた共有モデルは、予測部136にインストールされる。予測部136には複数の共有モデルのインストールが可能とされ、複数の共有モデルを用いて複数の推論を実行することが可能である。例えば、IEEE802.11通信の悪化度を予測するモデルや、アクセスポイントの混雑を予測するモデルが同時に推論を実行することなどが可能である。
 予測部136は、通信部12の各通信ベアラに関する通信パラメータや、内部センサー31及び外部センサー32の情報、その他、通信に影響するアプリケーションに関する情報などの各種データを取得して(ステップS21)、共有モデルに入力し(ステップS22)、共有モデルの出力のスコアを計算する(ステップS23)。ここで、IEEE802.11通信の悪化度を予測する共有モデルの出力を例とすると、予測部136は当該モデルの出力のスコアが閾値を超える場合(ステップS24のYES)、通信経路制御部11に対して通信ベアラの切り替え要求を出すことを判断する(ステップS25)。例えば、IEEE802.11以外の通信ベアラへの切り替えを指示する通信経路切替要求を通信部12内の通信経路制御部11に出す。通信部12内の通信経路制御部11は、この通信経路切替要求に従って、情報処理装置10が利用する通信経路を切り替える。
 通信経路制御部11は、通信経路を特定のタイミングで切り替えるように構成される。通信経路を切り替えるタイミングとしては、連続性が担保されるべき通信が行われる可能性が高いタイミングを可及的に避けるようにして選定される。例えば、アプリケーションの通信量が閾値以下になったとき、ユーザーが情報処理装置10を使用していないとき(例えば、ディスプレイがオフになっており、サスペンド状態にあるとき)、ユーザーの属性(通信の契約プラン、居住地、性別、年齢、職業、国籍など)に応じて通信量が低下することが統計的に分かっているタイミングなどが挙げられる。
 以上のように、本実施形態によれば、通信状態が悪化している通信経路などを予測する共有モデルの学習を、連合学習によって各々のユーザーの情報処理装置10で行うことによって、ユーザーの情報処理装置10の外に学習データとしてユーザーの個人情報や情報処理装置10に関する情報などの機微情報を出すことなく、安全かつ効率的にモデル強化を行うことができる。また、各々の情報処理装置10によって得られた学習結果は、学習対象である元のモデルのノードの重みの値との差分データとしてサーバー20にアップロードされるので、生データがサーバー20にアップデートされることがなく、個人情報を保護できるとともにアップデート容量を抑えることができる。
 なお、以上説明した情報処理装置10において、学習・予測部13は、必ずしも情報処理装置10内に存在している必要はなく、例えは、エッジサーバーやクラウドサーバーに
学習・予測部13をもたせ、情報処理装置10から通信パラメータなど、学習に必要なデータを取り込んで、学習結果や予測結果を情報処理装置10に送信するような構成としてもよい。
<第2の実施形態>
 一般的に、IEEE802.11のアクセスポイントに接続したあとにユーザーがそのアクセスポイントから遠ざかったり、アクセスポイント周辺の電波伝搬環境が悪化したりすることによって、通信状態が悪化することがある。このように接続後のアクセスポイントの通信悪化の予測にも、Federated Learningにより分散学習された共有モデルを利用することができる。この場合、モデルの学習に用いられる情報処理装置10の位置情報やアクセスポイント毎の識別子(BSSID)などが情報処理装置10の外部に出ないという個人情報保護の観点からも望ましい。
 本実施形態では、正解ラベル付きの学習データの通信パラメータとして、接続後のBSSID、SSID、送信を諦めて破棄したパケット数、送信成功パケット数、再送パケット数、受信成功パケット数、CCA Busy Time、Tx Time、Rx Time、Radio On Time、Contention Time、Channel Widthなどがモデルにn秒毎に入力される。これらn秒毎に入力される正解ラベル付きの学習データのうち、切断直前n秒前や通信状態が悪化した学習データには正解を意味する正解ラベル1が付与され、それ以外の学習データには不正解を意味する正解ラベル0が付与される。それ以外は上記第1の実施形態と同じ流れで処理が行われる。例えば、IEEE802.11に接続後に通信部によって収集される通信パラメータは共有モデルに入力され、共有モデルから出力される値が閾値以上であれば、通信経路をIEEE802.11からその他の通信ベアラに切り替える要求が通信部内の通信路制御部に出されて、通信ベアラの切り替えが実行される。
<第3の実施形態>
 一般的に、IEEE802.11のアクセスポイントに接続したあとにユーザーがそのアクセスポイントから遠ざかったり、アクセスポイント周辺の電波伝搬環境が悪化したりすることによって、通信状態が悪化することがある。このようにユーザーの行動の違いによる接続後のアクセスポイントの通信悪化の予測にも、Federated Learningにより分散学習された共有モデルを利用することができる。この場合、ユーザーの個人情報に関連するセンサーの出力、例えば加速度センサーの出力、位置情報、歩数計の出力、心拍数、血圧情報などが情報処理装置10の外部に出ないという個人情報保護の観点からも望ましい。
 本実施形態では、正解ラベル付きの学習データの通信パラメータとして、加速度センサーの出力、位置情報、歩数計の出力、心拍数、血圧情報、照度センサーの出力、気圧センサーの出力などが共有モデルにn秒毎に入力される。これらn秒毎に入力される正解ラベル付きの学習データのうち、切断直前n秒前や通信状態が悪化した学習データには正解を意味する正解ラベル1が付与され、それ以外の学習データには不正解を意味する正解ラベル0が付与される。それ以外は上記第1の実施形態と同じ流れで処理が行われる。例えば、IEEE802.11に接続後に通信部によって収集される通信パラメータは共有モデルに入力され、共有モデルから出力される値が閾値以上であれば、通信経路をIEEE802.11からその他の通信ベアラに切り替える要求が通信部内の通信路制御部に出されて、通信ベアラの切り替えが実行される。
<変形例1>
 通信ベアラの切り替えポリシはユーザーによって異なる。このため、切り替えポリシはいくつかのパターンに分類し得る。しかし単一のモデルではこれらのユーザーの好みの切り替えタイミングを表現することは困難であった。
 この課題は、例えばユーザーの特性、例えば性別、年齢などによって分類されるクラスタ毎の共有モデルをサーバー20に用意し、情報処理装置10がユーザーの特性に見合った共有モデルをサーバー20から取得し、学習することによって解決し得る。より詳細には、例えば、情報処理装置10からサーバー20への学習参加可能通知の送付の際に、ユーザーの特性に見合ったクラスタの識別子をサーバー20に通知する。これによりサーバー20からその識別子に対応付けられた共有モデルが情報処理装置10にダウンロードされて、情報処理装置10の学習部132での学習が行われる。
 上記では、ユーザーの特性に基づいて共有モデルがクラスタ化される場合を説明したが、使用しているネットワークキャリアやそのプラン等によって共有モデルがクラスタ化されてもよい。
<変形例2>
 この変形例2では、共有モデルに情報処理装置10のユーザーや環境に応じた特性を付与するために、共有モデルダウンロード部135によってサーバー20より取得した共有モデルに情報処理装置10内の学習部132により学習されてデータ保存部133に保存されたローカルのモデルとを合成する。合成の方法として、共有モデルの重みとローカルのモデルの重みを特定の割合で合成するなどがある。例えば、共有モデルの重みを
w_central、ローカルのモデルの重みをw_user、融合度をαとすると、最終的に予測部136によって使用されるモデルの重みwは、
 w=αw_user+(1-α) w_central (0<α<1)
となる。
 変数αを変更することで、ローカルのモデルに近い挙動から共有モデルに等しい挙動までの間で変化させることができる。この変数αは、ユーザーによって設定されてもよいし、システムの状況に応じて自動で変更されてもよい。
 また、共有モデルとローカルのモデルを併用し、それぞれの結果を合成して推論結果を導出するようにしてもよい。例えば、ローカルのモデルの出力をy_user、共有モデルの出力をy_central、融合度をαとすると、最終的に予測部136が使用するモデルの出力yは、
 y=αy_user+(1-α) y_central (0<α<1)
となる。
<変形例3>
 本変形例は、位置情報及び時刻と、セルラー基地局、キャリアWi-Fi基地局などの基地局毎の通信状態との関係を予測する技術に関するものである。
 この場合、基地局毎のモデルには、位置情報と時刻を入力とするモデルが用いられ、学習データの通信パラメータには、セルラー情報(Component Carrier数、平均レート(MCS: Modulation and Coding Scheme)、Capability(LTE/HSPA+/GSM)、信号強度、MIMOレイヤー数、通信割り当て時間数、実際のリソースブロック数、受信/送信パケットカウンタ値、送信成功数、受信成功数、フレーム再送数(MAC)、RLC数、インターフェースエラー回数、スループット(PHY/IP))や、TCPのエラー率、特定ホストに対するRTT、アプリケーションに表示される通信エラーやブラウザなどの通信滞留状態、などが用いられる。このような学習データのうち、通信状態の劣化を表す学習データに対して正解ラベル1が与えられ、通信状態の劣化を表さない学習データに対しては正解ラベル0が与えられる。
 あるセル内に存在する情報処理装置10がそのセル内で学習した結果をサーバー20にアップロードする際には、その学習結果にセルIDを付与して行われる。これによりサーバー20の集約部においては、各情報処理装置10よりアップロードされた学習結果がセルID毎に集約されてセルIDの共有モデルが作成される。このようにして作成された共有モデルは、サーバー20あるいは基地局に保存され、情報処理装置10の共有モデルダウンロード部135からのセルIDを指定した要求に応じて、サーバー20あるいは基地局から情報処理装置10に配布される。
 情報処理装置10内の予測部136では、当該基地局毎の共有モデルに対して位置情報と時刻が網羅的に入力され、位置情報及び時刻と、基地局の通信悪化状態との関係の予測結果が出力される。これにより、プローブを使って電波環境や通信品質を実測することなく、通信状態の劣化が予想される基地局の位置と時間を特定することができる。また、Federated Learningによる分散学習を用いることで、基地局毎に予測精度の高い共有モデルを得ることができ。
<変形例4>
 本技術は、情報処理装置10のユーザーの行動状態の予測にも応用することができる。
 本変形例4では、センサー情報と、セルラーや取得可能なIEEE802.11関連統計情報などの無線環境を入力とし、ユーザーの状態(停止/移動中)や位置情報を出力とする共有モデルについてFederated Learningによる分散学習が行われる。ユーザーの状態は、ユーザーがユーザインフェース上で質問に対して回答することでラベル付けしたり、他の情報から割り出してもよい。センサー情報や無線環境の情報を入力して共有モデルから出力されたユーザーの状態や位置情報の予測結果に対応して、ユーザーに例えば、近くの店舗の広告やクーポン券利用を提案したり、近くのトイレの空席情報、近くの交通機関などの時刻表などを提供するなどのサービスが行われる。
<変形例5>
 サーバー20は互いに階層関係を有する複数台のサーバーで構成されてもよい。この場合、より上位階層のサーバーは、下位階層のサーバーで作成された共有モデルを集約して上位階層の共有モデルとして作成するように構成してもよい。例えば、国、地域、市区町村毎にサーバー20を設置し、市区町村レベルのサーバー20は市区町村の単位で複数の情報処理装置10からアップロードされた学習結果を集約して、市区町村レベルの共有モデルを生成し、それより上位、例えば地域レベルのサーバー20に学習の集約結果をアップロードする。地域レベルのサーバー20は、各市区町村のサーバー20よりアップロードされた複数の市区町村レベルの学習集約結果をさらに集約して、地域レベルの共有モデルを生成し、それより上位、例えば国レベルのサーバー20に学習の集約結果をアップロードする。最終的に、国レベルのサーバー20は、複数の地域レベルの学習の集約結果をさらに集約して、国レベルの共有モデルを生成する。
 各階層のサーバー20は、情報処理装置10からのダウンロード要求に応じて、自らが管理するレベルの共有モデルを情報処理装置10に応答する。これにより、地域性を反映した共有モデルが得られる。
 なお、本技術は以下のような構成もとることができる。
(1)無線環境を予測するモデルを学習し、
 前記学習の結果をサーバーにアップロードし、
 前記サーバーにおいて1以上の学習結果を集約して得られた共有モデルを用いて無線環境を予測する演算処理部
 を具備する情報処理装置。
(2)上記(1)の情報処理装置であって、
 前記無線環境の予測対象が、前記無線環境の予測対象が接続中の通信経路の通信状態が悪化すること、または、未接続の通信経路の特性が良くないこと、の少なくとも一方である、
 情報処理装置。
(3)上記(1)または(2)の情報処理装置であって、
 前記演算処理部は、無線環境の予測結果に基づいて接続する通信経路を切り替えるように構成される
 情報処理装置。
(4)上記(3)の情報処理装置であって、
 前記演算処理部により無線経路の切り替えが、通信方式の異なる通信経路間での切り替えである
 情報処理装置。
(5)上記(3)の情報処理装置であって、
 前記演算処理部により無線経路の切り替えが、同じ通信方式の別の通信経路間での切り替えである
 情報処理装置。
(6)上記(3)の情報処理装置であって、
 前記演算処理部は、通信経路を特定のタイミングで切り替えるように構成される
 情報処理装置。
(7)上記(6)の情報処理装置であって、
 通信経路を切り替えるタイミングは、アプリケーションの通信量が閾値以下になったとき、ユーザーが情報処理装置を使用していないとき、またはユーザーの属性に応じたタイミングの少なくともいずれかである
 情報処理装置。
(8)上記(1)の情報処理装置であって、
 前記演算処理部は、時刻及び位置と無線環境との関係の情報を予測するように構成される情報処理装置。
(9)上記(1)から(8)のいずれかの情報処理装置であって、
 前記共有モデルが、ユーザーの属性に基づくクラスタ毎に分類されたものである
 情報処理装置。
(10)上記(1)から(9)のいずれかの情報処理装置であって、
 前記演算処理部は、前記学習の結果と前記サーバーより取得した共有モデルを合成した合成モデルを用いて無線環境を予測するように構成される
 情報処理装置。
(11)無線環境を予測するモデルの、1以上の情報処理装置上での1以上の学習結果を集約して共有モデルを生成し、
 前記共有モデルを前記1以上の情報処理装置に配布する演算処理部
 を具備する
 サーバー。
(12)上記(11)のサーバーであって、
 互いに階層関係を有する複数のサーバー装置で構成され、
 前記複数のサーバー装置のうち、より上位階層のサーバー装置は、下位階層のサーバー装置で作成された共有モデルを集約して上位階層の共有モデルを作成するように構成される
 サーバー。
(13)無線環境を予測するモデルを学習し、
 前記学習の結果をサーバーにアップロードし、
 前記サーバーにおいて1以上の学習結果を集約して得られた共有モデルを用いて無線環境を予測する第1の演算処理部を具備する1以上の情報処理装置と、
 前記1以上の情報処理装置上での1以上の学習結果を集約して共有モデルを生成し、
 前記共有モデルを前記1以上の情報処理装置に配布する第2の演算処理部を有するサーバーと
 を具備する情報処理システム。
(14)上記(13)の情報処理システムであって、
 前記無線環境の予測対象が接続中の通信経路の通信状態が悪化すること、または、未接続の通信経路の特性が良くないこと、の少なくとも一方である
 情報処理システム。
(15)上記(13)または(14)の情報処理システムであって、
 前記第1の演算処理部は、無線環境の予測結果に基づいて接続する通信経路を切り替えるように構成される
 情報処理システム。
(16)上記(15)の情報処理システムであって、
 前記無線経路の切り替えが、通信方式の異なる通信経路間での切り替えである
 情報処理システム。
(17)上記(15)の情報処理システムであって、
 前記無線経路の切り替えが、同じ通信方式の別の通信経路間での切り替えである
 情報処理システム。
(18)上記(15)の情報処理システムであって、
 前記第1の演算処理部は、通信経路を特定のタイミングで切り替えるように構成される
 情報処理システム。
(19)上記(15)の情報処理システムであって、
 通信経路を切り替えるタイミングは、アプリケーションの通信量が閾値以下になったとき、ユーザーが情報処理装置を使用していないとき、またはユーザーの属性に応じたタイミングの少なくともいずれかである
 情報処理システム。
(20)上記(13)の情報処理システムであって、
 前記第1の演算処理部は、時刻及び位置と無線環境との関係の情報を予測するように構成される情報処理システム。
(21)上記(13)から(20)のいずれかの情報処理システムであって、
 前記共有モデルが、ユーザーの属性に基づくクラスタ毎に分類されたものである
 情報処理システム。
(22)上記(13)から(21)のいずれかの情報処理システムであって、
 前記第1の演算処理部は、前記学習の結果と前記サーバーより取得した共有モデルを合成した合成モデルを用いて無線環境を予測するように構成される
 情報処理システム。
(23)1以上の情報処理装置にて、無線環境を予測するモデルを学習して前記学習の結果をサーバーにアップロードし、
 前記サーバーにおいて、前記1以上の情報処理装置よりアップロードされた1以上の学習結果を集約して共有モデルを作成して、前記1以上の情報処理装置に配布し、
 1以上の情報処理装置にて、前記共有モデルを用いて無線環境を予測する
 情報処理方法。
(24)上記(23)の情報処理方法であって、
 前記無線環境の予測対象が接続中の通信経路の通信状態が悪化すること、または、未接続の通信経路の特性が良くないこと、の少なくとも一方、である
 情報処理方法。
(25)上記(23)または(24)の情報処理方法であって、
 前記情報処理装置は、無線環境の予測結果に基づいて接続する通信経路を切り替える
 情報処理方法。
(26)上記(25)の情報処理方法であって、
 前記無線経路の切り替えが、通信方式の異なる通信経路間での切り替えである
 情報処理方法。
(27)上記(25)の情報処理方法であって、
 前記無線経路の切り替えが、同じ通信方式の別の通信経路間での切り替えである
 情報処理方法。
(28)上記(25)の情報処理方法であって、
 前記情報処理装置は、通信経路を特定のタイミングで切り替える
 情報処理方法。
(29)上記(25)の情報処理方法であって、
 通信経路を切り替えるタイミングは、アプリケーションの通信量が閾値以下になったとき、ユーザーが情報処理装置を使用していないとき、またはユーザーの属性に応じたタイミングの少なくともいずれかである
 情報処理方法。
(30)上記(23)の情報処理方法であって、
 前記情報処理装置は、時刻及び位置と無線環境との関係の情報を予測する、情報処理方法。
(31)上記(23)から(30)のいずれかの情報処理方法であって、
 前記共有モデルが、ユーザーの属性に基づくクラスタ毎に分類されたものである
 情報処理方法。
(32)上記(23)から(31)のいずれかの情報処理方法であって、
 前記情報処理装置は、前記学習の結果と前記サーバーより取得した共有モデルを合成した合成モデルを用いて無線環境を予測する
 情報処理方法。
 10…情報処理装置
 11…通信経路制御部
 12…通信部
 13…学習・予測部
 20…サーバー
 21…学習参加指示部
 22…学習結果集約部
 23…共有モデル配布部
 100…情報処理システム
 131…学習参加管理部
 132…学習部
 133…データ保存部
 134…学習結果アップロード部
 135…共有モデルダウンロード部
 136…予測部

Claims (14)

  1.  無線環境を予測するモデルを学習し、
     前記学習の結果をサーバーにアップロードし、
     前記サーバーにおいて1以上の学習結果を集約して得られた共有モデルを用いて無線環境を予測する演算処理部
     を具備する情報処理装置。
  2.  請求項1に記載の情報処理装置であって、
     前記無線環境の予測対象が接続中の通信経路の通信状態が悪化すること、または、未接続の通信経路の特性が良くないこと、の少なくとも一方である
     情報処理装置。
  3.  請求項2に記載の情報処理装置であって、
     前記演算処理部は、無線環境の予測結果に基づいて接続する通信経路を切り替えるように構成される
     情報処理装置。
  4.  請求項3に記載の情報処理装置であって、
     前記無線経路の切り替えが、通信方式の異なる通信経路間での切り替えである
     情報処理装置。
  5.  請求項3に記載の情報処理装置であって、
     前記無線経路の切り替えが、同じ通信方式の別の通信経路間での切り替えである
     情報処理装置。
  6.  請求項3に記載の情報処理装置であって、
     前記演算処理部は、通信経路を特定のタイミングで切り替えるように構成される
     情報処理装置。
  7.  請求項6に記載の情報処理装置であって、
     通信経路を切り替えるタイミングは、アプリケーションの通信量が閾値以下になったとき、ユーザーが情報処理装置を使用していないとき、またはユーザーの属性に応じたタイミングの少なくともいずれかである
     情報処理装置。
  8.  請求項1に記載の情報処理装置であって、
     前記演算処理部は、時刻及び位置と無線環境との関係の情報を予測するように構成される情報処理装置。
  9.  請求項1に記載の情報処理装置であって、
     前記共有モデルが、ユーザーの属性に基づくクラスタ毎に分類されたものである
     情報処理装置。
  10.  請求項1に記載の情報処理装置であって、
     前記演算処理部は、前記学習の結果と前記サーバーより取得した共有モデルを合成した合成モデルを用いて無線環境を予測するように構成される
     情報処理装置。
  11.  無線環境を予測するモデルの、1以上の情報処理装置上での1以上の学習結果を集約して共有モデルを生成し、
     前記共有モデルを前記1以上の情報処理装置に配布する演算処理部
     を具備する
     サーバー。
  12.  請求項11に記載のサーバーであって、
     互いに階層関係を有する複数のサーバー装置で構成され、
     前記複数のサーバー装置のうち、より上位階層のサーバー装置は、下位階層のサーバー装置で作成された共有モデルを集約して上位階層の共有モデルを作成するように構成される
     サーバー。
  13.  無線環境を予測するモデルを学習し、
     前記学習の結果をサーバーにアップロードし、
     前記サーバーにおいて1以上の学習結果を集約して得られた共有モデルを用いて無線環境を予測する第1の演算処理部を具備する1以上の情報処理装置と、
     前記1以上の情報処理装置上での1以上の学習結果を集約して共有モデルを生成し、
     前記共有モデルを前記1以上の情報処理装置に配布する第2の演算処理部を有するサーバーと
     を具備する情報処理システム。
  14.  1以上の情報処理装置にて、無線環境を予測するモデルを学習して前記学習の結果をサーバーにアップロードし、
     前記サーバーにおいて、前記1以上の情報処理装置よりアップロードされた1以上の学習結果を集約して共有モデルを作成して、前記1以上の情報処理装置に配布し、
     1以上の情報処理装置にて、前記共有モデルを用いて無線環境を予測する
     情報処理方法。
PCT/JP2021/013920 2020-04-10 2021-03-31 情報処理装置、サーバー、情報処理システム及び情報処理方法 WO2021205959A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP21784520.5A EP4132109A4 (en) 2020-04-10 2021-03-31 INFORMATION PROCESSING DEVICE, SERVER, INFORMATION PROCESSING SYSTEM AND INFORMATION PROCESSING METHOD
US17/907,735 US20230130153A1 (en) 2020-04-10 2021-03-31 Information processing apparatus, server, information processing system, and information processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-071258 2020-04-10
JP2020071258 2020-04-10

Publications (1)

Publication Number Publication Date
WO2021205959A1 true WO2021205959A1 (ja) 2021-10-14

Family

ID=78023386

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/013920 WO2021205959A1 (ja) 2020-04-10 2021-03-31 情報処理装置、サーバー、情報処理システム及び情報処理方法

Country Status (3)

Country Link
US (1) US20230130153A1 (ja)
EP (1) EP4132109A4 (ja)
WO (1) WO2021205959A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023074689A1 (ja) * 2021-10-29 2023-05-04 株式会社Preferred Networks 計算機システム
WO2023152879A1 (ja) * 2022-02-10 2023-08-17 日本電信電話株式会社 モデル設定装置、モデル設定システム、モデル設定方法、及びモデル設定プログラム
WO2023152877A1 (ja) * 2022-02-10 2023-08-17 日本電信電話株式会社 通信品質予測装置、通信品質予測システム、通信品質予測方法、及び通信品質予測プログラム
WO2023188259A1 (ja) * 2022-03-31 2023-10-05 日本電信電話株式会社 秘密グローバルモデル計算装置、秘密グローバルモデル計算システム構成方法、プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005033707A (ja) * 2003-07-11 2005-02-03 Nec Corp 携帯可能な通信端末を用いた通信方法および通信システム
JP2005236632A (ja) * 2004-02-19 2005-09-02 Oki Electric Ind Co Ltd 無線ネットワーク装置、無線ネットワークシステム及び経路選択方法
JP2010135951A (ja) 2008-12-03 2010-06-17 Nec Corp 通信端末および通信システムならびにそのベアラ切り替え方法
JP2013211616A (ja) * 2012-03-30 2013-10-10 Sony Corp 端末装置、端末制御方法、プログラム、および情報処理システム
JP2016529826A (ja) * 2013-08-09 2016-09-23 クゥアルコム・インコーポレイテッドQualcomm Incorporated ディスジョイントベアラルーティング

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006116766A1 (en) * 2005-04-27 2006-11-02 The Regents Of The University Of California Physics-based statistical model and simulation method of rf propagation in urban environments
US20230068386A1 (en) * 2020-02-03 2023-03-02 Intel Corporation Systems and methods for distributed learning for wireless edge dynamics

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005033707A (ja) * 2003-07-11 2005-02-03 Nec Corp 携帯可能な通信端末を用いた通信方法および通信システム
JP2005236632A (ja) * 2004-02-19 2005-09-02 Oki Electric Ind Co Ltd 無線ネットワーク装置、無線ネットワークシステム及び経路選択方法
JP2010135951A (ja) 2008-12-03 2010-06-17 Nec Corp 通信端末および通信システムならびにそのベアラ切り替え方法
JP2013211616A (ja) * 2012-03-30 2013-10-10 Sony Corp 端末装置、端末制御方法、プログラム、および情報処理システム
JP2016529826A (ja) * 2013-08-09 2016-09-23 クゥアルコム・インコーポレイテッドQualcomm Incorporated ディスジョイントベアラルーティング

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4132109A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023074689A1 (ja) * 2021-10-29 2023-05-04 株式会社Preferred Networks 計算機システム
WO2023152879A1 (ja) * 2022-02-10 2023-08-17 日本電信電話株式会社 モデル設定装置、モデル設定システム、モデル設定方法、及びモデル設定プログラム
WO2023152877A1 (ja) * 2022-02-10 2023-08-17 日本電信電話株式会社 通信品質予測装置、通信品質予測システム、通信品質予測方法、及び通信品質予測プログラム
WO2023188259A1 (ja) * 2022-03-31 2023-10-05 日本電信電話株式会社 秘密グローバルモデル計算装置、秘密グローバルモデル計算システム構成方法、プログラム

Also Published As

Publication number Publication date
US20230130153A1 (en) 2023-04-27
EP4132109A1 (en) 2023-02-08
EP4132109A4 (en) 2023-08-16

Similar Documents

Publication Publication Date Title
WO2021205959A1 (ja) 情報処理装置、サーバー、情報処理システム及び情報処理方法
KR101943530B1 (ko) 이동성 관리를 위한 가상 서빙 게이트웨이를 배치하기 위한 시스템 및 방법
EP3117585B1 (en) Distribution of popular content between user nodes of a social network community via direct proximity-based communication
US10492049B2 (en) Core network selection function in a radio access network for machine-to-machine (M2M) communications
US11477644B2 (en) Network application programming interface guided service placement
US20220230062A1 (en) Dynamic network configuration
US20220174485A1 (en) Network application programming interface service for application guidance and control
Maity et al. Mobiplace: Mobility-aware controller placement in software-defined vehicular networks
WO2021028063A1 (en) Predicting congestion levels in a communications network
Ravi et al. Stochastic performance modeling and analysis of multi service provisioning with software defined vehicular networks
Malazi et al. Distributed service placement and workload orchestration in a multi-access edge computing environment
CN112470445B (zh) 用于边缘计算拓扑信息开放的方法和设备
Siahpoosh et al. A study on the impact of mobility on caching in non-standalone 5G vehicular networks
Lee et al. User-centric offloading to WLAN in WLAN/3G vehicular networks
Shah et al. Toward network slicing enabled edge computing: A cloud-native approach for slice mobility
US20230421472A1 (en) Systems and methods for monitoring performance of a network slice and mitigating load on the network slice
US11622322B1 (en) Systems and methods for providing satellite backhaul management over terrestrial fiber
JP5378268B2 (ja) 無線基地局、無線通信システム、無線基地局のトラヒックレベル決定方法
US20140181282A1 (en) System and method for managing network information
Ramya et al. Proficient algorithms for enhancing topology control for dynamic clusters in MANET
WO2024148578A1 (zh) 模型训练方法及装置
US20240291765A1 (en) Systems and methods for host responsiveness monitoring for low-latency, low-loss, scalable-throughput services
EP3994854B1 (en) Dynamic network resource availability for planned events
US20240172109A1 (en) Call performance optimization
US11616711B1 (en) Systems and methods for enabling a network repository function to return a non-empty discovery response

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21784520

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021784520

Country of ref document: EP

Effective date: 20221102

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP