JP7527535B1 - Method, system and storage medium for predicting evolution of multi-value chains - Google Patents

Method, system and storage medium for predicting evolution of multi-value chains Download PDF

Info

Publication number
JP7527535B1
JP7527535B1 JP2024076248A JP2024076248A JP7527535B1 JP 7527535 B1 JP7527535 B1 JP 7527535B1 JP 2024076248 A JP2024076248 A JP 2024076248A JP 2024076248 A JP2024076248 A JP 2024076248A JP 7527535 B1 JP7527535 B1 JP 7527535B1
Authority
JP
Japan
Prior art keywords
client
node
clients
time
distributed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2024076248A
Other languages
Japanese (ja)
Inventor
唐小川
李瑩瑩
李冬芬
鐘豪
劉明哲
戴可人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Univeristy of Technology
Original Assignee
Chengdu Univeristy of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Univeristy of Technology filed Critical Chengdu Univeristy of Technology
Application granted granted Critical
Publication of JP7527535B1 publication Critical patent/JP7527535B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/098Distributed learning, e.g. federated learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0637Strategic management or analysis, e.g. setting a goal or target of an organisation; Planning actions based on goals; Analysis or evaluation of effectiveness of goals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Development Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本発明は、マルチバリューチェーン進化の予測方法、システムおよび記憶媒体を提供し、人工知能の分野に関し、バリューチェーン中の各主体(例えば各クライアント)がローカルなオリジナルデータを共有しない前提下で、クライアンのトローカルなオリジナルデータに基づいて、サーバーは分散連携時系列グラフニューラルネットワークモデル訓練に参加する各クライアントと相互に作用し、分散連携時系列グラフニューラルネットワークモデルを訓練し、クライアントは該モデルに基づいて各主体の状態および各主体間の関係を動的に予測する。【選択図】図2The present invention provides a method, system and storage medium for predicting the evolution of multi-value chains, which relates to the field of artificial intelligence, and under the premise that each entity (e.g. each client) in the value chain does not share local original data, based on the client's local original data, the server interacts with each client participating in the distributed collaboration time series graph neural network model training, trains a distributed collaboration time series graph neural network model, and the client dynamically predicts the state of each entity and the relationship between each entity based on the model.

Description

本発明は、人工知能の分野に属し、具体的に、マルチバリューチェーン進化の予測方法、
システムおよび記憶媒体に関する。
The present invention belongs to the field of artificial intelligence, specifically, a method for predicting the evolution of multi-value chains;
This invention relates to a system and a storage medium.

機械ハードウェアの性能の大幅な向上により、ニューラルネットワークに基づく深層学習
手法は、知的推薦やネットワーク性能予測などの分野で大きな成功を収めているが、既存
の予測手法は動的な時間遅延を考慮することはほとんどなく、ニューラルネットワークの
トポロジーを考慮して予測を行うことがほとんどであり、時間と共に変化する情報を出力
することができない。
社会の各主体が、データコンプライアンス、商業秘密、情報セキュリティ、ビジネス競争
などの問題に関心を寄せる中、マルチバリューチェーンの上流・下流に位置する各会社・
企業・個人は、自社のオリジナルデータを開示したがらず、その結果、上流・中流・下流
のデータ共有度が低く、大量のデータが十分に活用されず、マルチバリューチェーンに位
置する会社・企業・個人は、他の主体間の関係を理解することが難しい。そのため、各主
体のオリジナルデータを取得することなく、いかに各主体間の関係を予測するかが、バリ
ューチェーンに関わる企業にとって喫緊の課題となっている。
Due to the significant improvement in the performance of machine hardware, deep learning methods based on neural networks have achieved great success in fields such as intelligent recommendation and network performance prediction. However, existing prediction methods rarely take dynamic time delays into account, and mostly make predictions by considering the topology of the neural network, and are unable to output information that changes over time.
As various stakeholders in society become concerned with issues such as data compliance, trade secrets, information security, and business competition, companies and
Companies and individuals are reluctant to disclose their own original data, resulting in low data sharing in the upstream, midstream, and downstream, and underutilization of large amounts of data, making it difficult for companies, businesses, and individuals in multi-value chains to understand the relationships between other entities. Therefore, how to predict the relationships between each entity without obtaining the original data of each entity has become an urgent issue for companies involved in the value chain.

本発明は、上記従来技術の問題点に鑑みてなされたものであり、バリューチェーン中の各
主体(例えば各クライアント)がローカルなオリジナルデータを共有しない前提下で、各
主体の状態および各主体間の関係を動的に予測することができるマルチバリューチェーン
進化の予測方法、システムおよび記憶媒体を提供する。
本発明は以下の解決策を提供する。
一実施例では、本発明は、以下のことを含むマルチバリューチェーン進化の予測方法を提
供し、分散連携時系列グラフニューラルネットワークモデル訓練に参加するクライアント
中の各クライアントについて、前記各クライアントは、歴史時点における前記各クライア
ントの分散時系列グラフデータおよび前記各クライアントの隣接するクライアントが位置
するノードの特徴ベクトルに基づいて、前記各クライアントが位置するノードの特徴ベク
トルを生成し、前記特徴ベクトルは前記各クライアントが位置するノードと前記各クライ
アントの隣接するクライアントが位置するノード間のエッジの情報を特徴付けるために使
用され、各クライアントの分散時系列グラフデータは、前記クライアントが位置するノー
ドのノード情報および前記各クライアントが位置するノードと前記各クライアントの隣接
するクライアントが位置するノード間のエッジの情報を含み、前記各クライアントは、前
記各クライアントが位置するノードの特徴ベクトルに基づいて、前記各クライアントの分
散連携時系列グラフニューラルネットワークモデルのローカルネットワークパラメータを
生成し、前記ローカルネットワークパラメータをサーバーに送信し、さらに、前記サーバ
ーは、各クライアントから送信された前記ローカルネットワークパラメータに基づいて、
前記分散連携時系列グラフニューラルネットワークモデルのグローバルネットワークパラ
メータを取得し、前記グローバルネットワークパラメータを前記各クライアントにブロー
ドキャストし、最後に、前記各クライアントは、前記グローバルネットワークパラメータ
を用いて前記各クライアントの分散連携時系列グラフニューラルネットワークモデルのネ
ットワークパラメータを更新し、現在時点での前記各クライアントの分散時系列グラフデ
ータを更新後の分散連携時系列グラフニューラルネットワークモデルに入力し、前記各ク
ライアントが位置するノードと前記各クライアントの隣接するクライアントが位置するノ
ード間のエッジの予測値を出力する。
本発明によって提供されるマルチバリューチェーン進化の予測方法では、分散連携時系列
グラフニューラルネットワークモデル訓練に参加する各クライアントは自体とその隣接す
るクライアントが位置するノード(1つのクライアントの隣接するクライアントが位置す
るノードは該クライアントの隣接ノードとも呼ばれる場合がある)間のエッジの情報のみ
を取得し、サーバーは全てのクライアントが位置するノードの情報のみを取得し、クライ
アントがローカルなオリジナルデータ(すなわちクライアントのローカルに生成された分
散時系列グラフデータ)を共有しない場合、各クライアントはサーバーと相互に作用し、
各クライアントに適用可能なグローバルな分散連携時系列グラフニューラルネットワーク
モデルを訓練し、さらにマルチバリューチェーン中の各クライアントが位置するノードと
その隣接するクライアントが位置するノード間のエッジの予測を動的に完了し、エッジの
予測結果に基づいて、各主体の状態および各主体間の関係を動的に予測する。
別の実施例では、上記分散連携時系列グラフニューラルネットワークのローカルネットワ
ークパラメータは、ローカル重み、ローカル特徴変換行列およびローカル損失を含み、分
散連携時系列グラフニューラルネットワークのグローバルネットワークパラメータは、グ
ローバル重み、グローバル特徴変換行列およびグローバル損失を含む。
別の実施例では、上記分散連携時系列グラフニューラルネットワークモデルは特徴学習ネ
ットワークおよびラベル予測ネットワークを含み、ここで、前記特徴学習ネットワークは
、歴史時点での前記各クライアントの分散時系列グラフデータおよび前記各クライアント
の隣接するクライアントが位置するノードの特徴ベクトルに基づいて前記各クライアント
が位置するノードの特徴ベクトルを出力するために使用され、前記ラベル予測ネットワー
クは、前記各クライアントが位置するノードの特徴ベクトルに基づいて、前記各クライア
ントが位置するノードと前記各クライアントの隣接するクライアントが位置するノードの
エッジの予測値を出力するために使用され、前記特徴学習ネットワークはメッセージパッ
シング層からなり、前記ラベル予測ネットワークは完全接続層からなる。
別の実施例では、前記各クライアントiが位置するノードの特徴ベクトルは、
を満たし、ここで、

時点における前記クライアント
に対応する特徴学習ネットワークの第l層から出力された前記クライアント
が位置するノードの特徴ベクトルを示し、
はt時点における前記クライアント
の隣接するクライアント
に対応する特徴学習ネットワークの第
層から出力された前記隣接するクライアントjが位置するノードの特徴ベクトルを示し、

時点における前記クライアント
に対応する特徴学習ネットワークの第
層から出力された前記クライアント
が位置するノードの特徴ベクトルを示し、
は集約演算を示し、
は線形演算を示し、
はローカル特徴変換行列を示す。
別の実施例では、前記各クライアントiが位置するノードの特徴ベクトルは、
を満たし、ここで、

時点における前記クライアント
に対応する特徴学習ネットワークの第l層から出力された前記クライアント
が位置するノードの特徴ベクトルを示し、

時点における前記クライアント
の隣接するクライアント
に対応する特徴学習ネットワークの第
層から出力された前記隣接するクライアント
が位置するノードの特徴ベクトルを示し、

時点における前記クライアント
に対応する特徴学習ネットワークの第
層から出力された前記クライアント
が位置するノードの特徴ベクトルを示し、
は集約演算を示し、
は線形演算を示し、
はローカル特徴変換行列を示し、
は前記クライアント
が位置するノードと前記クライアント
の隣接するクライアント
が位置するノード間の相関係数を示す。
別の実施例では、上記各クライアントは、前記各クライアントが位置するノードの特徴ベ
クトルに基づいて、前記各クライアントの分散連携時系列グラフニューラルネットワーク
モデルのローカルネットワークパラメータを生成することは、前記各クライアントは、前
記各クライアントが位置するノードの特徴ベクトルを前記各クライアントに対応するラベ
ル予測ネットワークに入力し、前記各クライアントが位置するノードと前記各クライアン
トの隣接するクライアントが位置するノード間のエッジの予測値を生成すること、前記各
クライアントは、前記各クライアントが位置するノードと前記各クライアントの隣接する
クライアントが位置するノード間のエッジの予測値および前記エッジの真の値に基づいて
、前記分散連携時系列グラフニューラルネットワークモデルのローカル損失を決定するこ
と、および前記各クライアントは前記ローカル損失に基づいて逆伝播を実行し、前記各ク
ライアントの分散連携時系列グラフニューラルネットワークモデルのローカルネットワー
クパラメータを生成すること、を含む。
別の実施例では、本発明によって提供されるマルチバリューチェーン進化の予測方法は、
前記各クライアントが前記サーバーに前記分散連携時系列グラフニューラルネットワーク
モデルのローカル損失を送信し、その後、前記サーバーが前記各クライアントから送信さ
れたローカル損失に基づいて、前記分散連携時系列グラフニューラルネットワークモデル
のグローバル損失を決定することをさらに含む。これに基づいて、上記サーバーは、各ク
ライアントから送信された前記ローカルネットワークパラメータに基づいて、前記分散連
携時系列グラフニューラルネットワークモデルのグローバルネットワークパラメータを取
得することは、前記サーバーは各クライアントから送信された前記ローカルネットワーク
パラメータおよび前記グローバル損失に基づいて逆伝播を実行し、前記分散連携時系列グ
ラフニューラルネットワークモデルのグローバルネットワークパラメータを取得すること
を含む。
一実施例では、本発明は、クライアント装置を提供し、該クライアント装置は、サーバー
と相互に作用し、上記マルチバリューチェーン進化の予測方法の任意の実施例における各
クライアントによって実行される動作を実現する。
一実施例では、本発明は、複数のクライアント中の各クライアントと相互に作用し、上記
マルチバリューチェーン進化の予測方法の任意の実施例におけるサーバーによって実行さ
れる動作を実現するために使用されるサーバーを提供する。
一実施例では、本発明は、マルチバリューチェーン進化の予測システムを提供し、サーバ
ーと複数のクライアントを備え、前記複数のクライアントは分散連携時系列グラフニュー
ラルネットワークモデルの訓練に参加し、前記サーバーは前記複数のクライアント中の各
クライアントと相互に作用し、上記マルチバリューチェーン進化の予測方法のいずれか1
つを実行することにより、前記分散連携時系列グラフニューラルネットワークモデルを訓
練し、前記分散連携時系列グラフニューラルネットワークモデルに基づいてマルチバリュ
ーチェーン中の各クライアントが位置するノードと他のクライアントが位置するノード間
のエッジを予測する。
一実施例では、本発明はコンピュータ可読記憶媒体を提供し、前記コンピュータ可読記憶
媒体にコンピュータプログラム命令が記憶されており、前記コンピュータプログラム命令
がマルチコアプロセッサによって実行されると、前記マルチコアプロセッサに上記マルチ
バリューチェーン進化の予測方法を実行させる。
The present invention has been made in consideration of the problems with the conventional technology described above, and provides a method, system, and storage medium for predicting the evolution of a multi-value chain, which can dynamically predict the state of each entity in the value chain and the relationships between the entities, under the premise that each entity (e.g., each client) does not share local original data.
The present invention provides the following solutions:
In one embodiment, the present invention provides a method for predicting the evolution of a multi-value chain, including: for each client among clients participating in training a distributed collaborative time series graph neural network model, each of the clients generates a feature vector of a node where each of the clients is located based on the distributed time series graph data of each of the clients at a historical time point and a feature vector of a node where an adjacent client of each of the clients is located, the feature vector is used to characterize information of an edge between the node where each of the clients is located and a node where an adjacent client of each of the clients is located, the distributed time series graph data of each of the clients includes node information of the node where each of the clients is located and information of an edge between the node where each of the clients is located and a node where an adjacent client of each of the clients is located, each of the clients generates local network parameters of the distributed collaborative time series graph neural network model of each of the clients based on the feature vector of the node where each of the clients is located, and transmits the local network parameters to a server; and further, the server performs a process based on the local network parameters transmitted from each of the clients:
Global network parameters of the distributed collaborative time-series graph neural network model are obtained, and the global network parameters are broadcast to each of the clients. Finally, each of the clients updates network parameters of the distributed collaborative time-series graph neural network model of each of the clients using the global network parameters, inputs the distributed time-series graph data of each of the clients at the current time point into the updated distributed collaborative time-series graph neural network model, and outputs a predicted value of an edge between a node where each of the clients is located and a node where an adjacent client of each of the clients is located.
In the method for predicting the evolution of multi-value chains provided by the present invention, each client participating in the training of a distributed collaborative time series graph neural network model only obtains edge information between itself and the node where its adjacent clients are located (the node where the adjacent client of one client is located may also be called the adjacent node of the client), and the server only obtains information of the nodes where all clients are located. When the client does not share local original data (i.e., the distributed time series graph data generated locally by the client), each client interacts with the server;
A global distributed collaborative time series graph neural network model applicable to each client is trained, and further a prediction of edges between the node where each client in the multi-value chain is located and the node where its adjacent client is located is dynamically completed. Based on the edge prediction result, the state of each entity and the relationship between each entity are dynamically predicted.
In another embodiment, the local network parameters of the distributed collaborative time-series graph neural network include local weights, a local feature transformation matrix, and a local loss, and the global network parameters of the distributed collaborative time-series graph neural network include global weights, a global feature transformation matrix, and a global loss.
In another embodiment, the distributed federated time series graph neural network model includes a feature learning network and a label prediction network, where the feature learning network is used to output a feature vector of a node on which each of the clients is located based on the distributed time series graph data of each of the clients at a historical point in time and the feature vector of a node on which an adjacent client of each of the clients is located, the label prediction network is used to output a predicted value of an edge between the node on which each of the clients is located and a node on which an adjacent client of each of the clients is located based on the feature vector of the node on which each of the clients is located, the feature learning network is composed of a message passing layer, and the label prediction network is composed of a fully connected layer.
In another embodiment, the feature vector of the node in which each client i is located is
where
teeth
The client at the time
The client output from the l-th layer of the feature learning network corresponding to
denotes the feature vector of the node in which
is the client at time t
Neighboring clients of
The first feature learning network corresponding to
Denote the feature vector of the node in which the neighboring client j is located, output from the layer;
teeth
The client at the time
The first feature learning network corresponding to
The client output from the layer
denotes the feature vector of the node in which
indicates an aggregation operation,
denotes a linear operation,
denotes the local feature transformation matrix.
In another embodiment, the feature vector of the node in which each client i is located is
where
teeth
The client at the time
The client output from the l-th layer of the feature learning network corresponding to
denotes the feature vector of the node in which
teeth
The client at the time
Neighboring clients of
The first feature learning network corresponding to
The adjacent clients output from the layer
denotes the feature vector of the node in which
teeth
The client at the time
The first feature learning network corresponding to
The client output from the layer
denotes the feature vector of the node in which
indicates an aggregation operation,
denotes linear operation,
denotes the local feature transformation matrix,
The client
The node where the client is located and the
Neighboring clients of
indicates the correlation coefficient between the nodes where
In another embodiment, the generating of local network parameters of the distributed federated time-series graph neural network model of each of the clients based on a feature vector of a node where the client is located includes: each of the clients inputting the feature vector of the node where the client is located to a label prediction network corresponding to the client, and generating a predicted value of an edge between the node where the client is located and a node where an adjacent client of the client is located; each of the clients determining a local loss of the distributed federated time-series graph neural network model based on the predicted value of the edge between the node where the client is located and a node where an adjacent client of the client is located and a true value of the edge; and each of the clients performing back-propagation based on the local loss to generate local network parameters of the distributed federated time-series graph neural network model of each of the clients.
In another embodiment, the method for predicting the evolution of a multi-value chain provided by the present invention includes:
The method further includes each of the clients sending a local loss of the distributed federated time-series graph neural network model to the server, and then the server determining a global loss of the distributed federated time-series graph neural network model based on the local loss sent from each of the clients, whereby the server obtains a global network parameter of the distributed federated time-series graph neural network model based on the local network parameter sent from each of the clients, and the server performs back-propagation based on the local network parameters and the global loss sent from each of the clients to obtain a global network parameter of the distributed federated time-series graph neural network model.
In one embodiment, the present invention provides a client device, which interacts with a server to implement the operations performed by each client in any embodiment of the above multi-value chain evolution forecasting method.
In one embodiment, the present invention provides a server that interacts with each client among the plurality of clients and is used to realize the operations performed by the server in any embodiment of the above method for predicting the evolution of a multi-value chain.
In one embodiment, the present invention provides a system for predicting the evolution of a multi-value chain, comprising a server and a plurality of clients, the plurality of clients participating in training a distributed collaborative time series graph neural network model, the server interacting with each of the plurality of clients, and performing any one of the above-mentioned methods for predicting the evolution of a multi-value chain.
The distributed and linked time-series graph neural network model is trained by executing the above-mentioned process, and edges between a node where each client in a multi-value chain is located and a node where another client is located are predicted based on the distributed and linked time-series graph neural network model.
In one embodiment, the present invention provides a computer-readable storage medium having computer program instructions stored thereon, the computer program instructions, when executed by a multi-core processor, causing the multi-core processor to perform the above-described method for predicting the evolution of multi-value chains.

本発明によって提供されるシステムアーキテクチャの概略図である。1 is a schematic diagram of a system architecture provided by the present invention; 本発明によって提供される分散連携時系列グラフニューラルネットワークのアーキテクチャの概略図である。FIG. 1 is a schematic diagram of the architecture of a distributed, collaborative time-series graph neural network provided by the present invention.

本出願の実施形態を明確に説明するために、まず後続の実施形態において出現され得るい
くつかの概念を導入する。
オリジナルデータとは、マルチバリューチェーンの各主体が特定期間に取得した、特徴と
サンプルを含む実際のデータであり、前記オリジナルデータは、当業者によって規定され
た規則及び方法によって収集され、前記オリジナルデータはテンソルまたはテーブルの形
式でクライアントの前記オリジナルデータを記録するものであり、特徴およびサンプルを
含み、例えば、特徴1は自動車販売量であり、サンプルは異なるクライアントのそれぞれ
に対応する1月の自動車販売量データ、2月の自動車販売量データ、3月の自動車販売量
データ、……を含み、特徴2は自動車在庫量であり、サンプルは異なるクライアントのそ
れぞれに対応する1月の自動車在庫量データ、2月の自動車在庫量データ、3月の自動車
在庫量データ、……を含み、特徴3は付属品販売量であり、サンプルは、異なるクライア
ントのそれぞれに対応する1月の付属品販売量データ、2月の付属品販売量データ、3月
の付属品販売量データ、……を含み、特徴4は付属品在庫量、……であるといった具合で
ある。
本発明で言及される特徴およびサンプルは、上記のものに限定されるものではなく、特徴
は、各クライアントにおいて実際に収集または記録されたデータの一部または全部の特徴
であってもよく、サンプルは、各クライアントにおいて実際に収集または記録されたデー
タの一部または全部であってもよいことは、当業者には明らかであろう。また、入力可能
なデータの異なるクライアントのオリジナルデータの特徴、寸法、種類等は異なっていて
もよく、異なるグループ間のオリジナルデータの特徴、寸法、種類等も異なっていてもよ
く、クライアントは、月単位でオリジナルデータを収集してもよく、週単位でオリジナル
データを収集してもよく、リアルタイムでオリジナルデータを収集又は記録してもよく、
実際のニーズに応じて当業者が任意に設定することができる。
メタデータは、情報リソースやデータなどのオブジェクトを記述するデータであり、その
使用目的は、リソースの識別、リソースの評価、リソースの使用状況の変化の追跡、大量
のネットワークデータのシンプルで効率的な管理の実現、情報リソースの効果的な発見、
検索、統合された組織化、およびリソースの使用の効果的な管理の実現である。したがっ
て、メタデータは一般に利用可能なデータである。メタデータには、入力データの特徴、
サイズ、寸法、属性、生成時間、タイプ、形状、クライアントフラグ、変数名、寸法など
が含まれる。メタデータは、他のデータを記述するデータであり、または特定のリソース
に関する情報を提供するために使用される構造化データであり、各クライアントの入力デ
ータまたはオリジナルデータに基づいてクライアントまたはサーバー側によって生成され
得る。なお、本発明のメタデータとは、クライアントのオリジナルデータを記述するデー
タ、すなわち、オリジナルデータの属性または特徴を記述するためのデータを指すことを
理解されたい。
グラフニューラルネットワーク(Graph Neural Network、GNN)
は、グラフデータ(グラフデータはグラフ構造特徴を有するデータである)を処理するた
めのニューラルネットワークであり、グラフデータから学習し、グラフデータ中の特徴お
よびパターンを抽出および発見し、集束、分類、予測、分割、生成などのグラフ学習タス
クのニーズを満たすことができる。本発明では、各クライアント間は相互に作用し、グラ
フ構造データの特性を持ついくつかのデータを生成することができ、ここで、各クライア
ント中の各クライアントは1つのノード(またはグラフノードとも呼ばれる)に対応し、
クライアントに対応するノードはグラフ(Graph)を構成する。
本発明が提案するマルチバリューチェーン進化の予測方法によれば、クライアントは、オ
リジナルデータを共有することなく、メタデータのみを共有し、これにより、企業のデー
タプライバシーとセキュリティが保護され、オリジナルデータを共有することなく、マル
チバリューチェーン内の企業間で安全に特定のコラボレーションを実施することが可能と
なる。
本発明は分散連携時系列グラフニューラルネットワーク(モデル)を提供し、「サーバー
—マルチクライアント」の分散アーキテクチャを採用し、サーバーは主にパラメー
タを管理し、クライアントを調整して分散連携時系列グラフニューラルネットワークを形
成し、分散連携時系列グラフニューラルネットワークを採用することにより、各クライア
ントに対応する分散連携時系列グラフニューラルネットワークは、分散連携時系列グラフ
ニューラルネットワーク全体の構成要素であり、各クライアントのローカル訓練によって
取得された該分散連携時系列グラフニューラルネットワークのパラメータは異なる。
選択可能に、各クライアントのローカルな分散連携時系列グラフニューラルネットワーク
は同種または異種であってもよく、すなわち、各クライアントのローカルな分散連携時系
列グラフニューラルネットワークの構造は同じであっても異なってもよい。
なお、分散連携時系列グラフニューラルネットワークは、各時点におけるグラフに対応し
、図中のノードはクライアントまたは会社を指し、クライアントは会社に対応し、図中の
ノードとノード間のエッジは、協力関係、取引関係、需給関係などを含むクライアントと
クライアント間の関係または会社と会社間の関係を示し、時間の変化に伴い、グラフ内の
トポロジー関係も変化し、グラフ内のエッジも変化する。本発明は、会社が自らのオリジ
ナルデータを共有することなく、グラフの将来のエッジに関する予測や、会社が滅亡する
か否かの予測を行うことができる連携時系列グラフニューラルネットワークを構築する。
以下、添付図面を参照し、実施形態と併せて本発明を詳細に説明する。
まず、図1を参照すると、本開示による例示的な実施態様が使用され得るシステムアーキ
テクチャ100を模式的に示す概略図である。
図1は、本開示の実施形態によるシステムアーキテクチャ100の例を示す概略図である
。なお、図1は、マルチバリューチェーン進化の予測方法および装置アーキテクチャのハ
ードウェア動作環境のアーキテクチャ概略図とも呼ばれることに留意されたい。本発明の
実施形態は、PC、ポータブルコンピュータなどの端末装置であり得るクライアント装置
に基づくものである。
図1に示すシステムアーキテクチャは、「サーバー-マルチクライアント」の分散アーキ
テクチャであってもよく、図1には、一方のクライアントのみが図示される。図1に示す
ように、「サーバー—マルチクライアント」の分散アーキテクチャにおいて、クラ
イアントは、オリジナルデータを用いてクライアントのローカルに現在ノードと接続エッ
ジを特徴付けるサブモデル(すなわちローカルの分散連携時系列グラフニューラルネット
ワークモデル)を訓練するために使用される。
好ましくは、各クライアントはオリジナルデータモジュール、ローカルパラメータモジュ
ール、データ収集モジュール、データラベリングモジュール、メッセージパッシングモジ
ュール、ローカル訓練モジュールおよびブロックチェーンを備える。ここで、オリジナル
データモジュールは、クライアントのオリジナルデータを記憶するために使用され、デー
タ収集モジュールは、クライアントのオリジナルデータを収集および記録するために使用
され、ローカルパラメータモジュールは、クライアントのローカルな分散連携時系列グラ
フニューラルネットワークの全てのパラメータを記憶するために使用され、データラベリ
ングモジュールは、分散連携時系列グラフニューラルネットワークを訓練するためにデー
タをラベリングし、メッセージパッシングモジュールは、クライアントとサーバーの通信
モジュール複数並行通信および情報アップロードをサポート(すなわちメッセージをブロ
ックチェーンにアップロード)するために使用され、ローカル訓練モジュールは、クライ
アントが分散連携時系列グラフニューラルネットワークを訓練するために使用され、ブロ
ックチェーンは、サーバーとクライアントの全ての通信、情報漏洩のトレーサビリティお
よび否認防止を記録するために使用される。サーバーは、分散連携時系列グラフニューラ
ルネットワークのグローバルパラメータを管理するために使用される。
好ましくは、サーバーは、メタデータモジュール、パラメータデータベースモジュール、
パラメータ管理モジュール、通信モジュールおよびグローバル訓練モジュールおよびブロ
ックチェーンを備える。ここで、メタデータモジュールはメタデータを管理および記憶す
るために使用され、パラメータデータベースモジュールは分散連携時系列グラフニューラ
ルネットワークの全てのパラメータを記憶するために使用され、パラメータ管理モジュー
ルは分散連携時系列グラフニューラルネットワークのパラメータを管理および更新し、通
信モジュールはサーバーとマルチクライアントのメッセージパッシングモジュールの複数
並行通信および情報アップロードをサポートするために使用され、グローバル訓練モジュ
ールは複数のクライアントから送信されたデータを融合するために使用され、ブロックチ
ェーンはサーバーとクライアントの全ての通信、情報漏洩のトレーサビリティおよび否認
防止を記録するために使用される。本発明の一実施例では、各分散連携時系列グラフニュ
ーラルネットワークはクライアントのローカルに訓練を実行し、サーバーは主にパラメー
タ処理を行い(すなわち各クライアントの訓練によって得られた分散連携時系列グラフニ
ューラルネットワークのパラメータを処理する)、前記処理は平均化を含む(すなわち、
サーバーは各クライアントから得られた分散連携時系列グラフニューラルネットワークの
パラメータを平均化演算を行う)。さらに、本発明の別の実施例では、各分散連携時系列
グラフニューラルネットワークはクライアントのローカルに訓練を行い、得られた分散連
携時系列グラフニューラルネットワークのローカルネットワークパラメータをサーバーに
送信し、さらにサーバーがニューラルネットワークを用いて受信したローカルネットワー
クパラメータを処理し、前記処理はニューラルネットワークによるパラメータフィッティ
ングおよび/または予測を含む。
クライアントとサーバーのハードウェア部分は、プロセッサ、例えばCPU、ネットワー
クインタフェース、ユーザインタフェース、メモリ、通信バスから構成される。ここで、
通信バスは、各異なる構成要素間の接続通信を実現するために使用される。ユーザインタ
フェースはディスプレイ(Display)、入力ユニット、例えばキーボード(Key
board)を含み、選択可能に、ユーザインタフェースは標準的な有線インタフェース
、無線インタフェースを含み得る。ネットワークインタフェースは、選択可能に標準的な
有線インタフェース、無線インタフェース(例えばWI-FIインタフェース、ブルート
ゥースインタフェース、5Gインタフェース)を含み得る。メモリは、高速RAMメモリ
、または安定したメモリ(non-volatile memory)、例えばディスク
メモリであってもよい。メモリは選択可能に前記プロセッサとは独立した記憶装置であっ
てもよい。
図1に示されるサーバーおよびクライアントの構造は、サーバーまたはクライアントを限
定するものではなく、サーバーとクライアントは図示された構成要素よりも多いまたは少
ない構成要素、または特定の構成要素の組み合わせ、または構成要素の異なる配置から構
成されてもよいことが当業者には理解され得る。
図2に示すように、コンピュータ記憶媒体としてのメモリは、オペレーティングシステム
のプログラム、ネットワーク通信モジュールのプログラム、ユーザインタフェースモジュ
ールのプログラムおよび連携時系列グラフニューラルネットワークのプログラムを含み得
る。マルチバリューチェーン中の複数のクライアントについて、各クライアントにノード
が設定され、ノードとクライアントは1対1で対応する。ここで、オペレーティングシス
テムは、クライアント装置のハードウェアおよびソフトウエアリソースのプログラムを管
理および制御して、分散連携時系列グラフニューラルネットワークプログラムおよび他の
ソフトウエアまたはプログラムの動作をサポートするために使用される。分散連携時系列
グラフニューラルネットワークは、ノードが一定であると仮定する場合、各時点における
グラフのトポロジー構造に対応し、グラフのエッジは時間の変化に伴って変化する。図1
に示すサーバーにおいて、通信モジュールは主にサーバーとクライアントA、クライアン
トB、クライアントC、クライアントD、クライアントEなどのマルチクライアント間の
要求、データなどを送受信するために使用され、マルチクライアント中のメッセージパッ
シングモジュールは主に各クライアントとサーバー間の要求、データなどを送受信するた
めに使用され、ここで、クライアントはより多くまたはより少ない数であってもよい。好
ましくは、通信モジュールとメッセージパッシングモジュールはそれぞれのネットワーク
インタフェースを介してデータ通信を行い、プロセッサはメモリに記憶された分散連携時
系列グラフニューラルネットワークプログラムを呼び出し、本発明の実施例によって提供
されるマルチバリューチェーン進化の予測方法を実行するために使用され得る。
本発明の実施例によって提供されるマルチバリューチェーン進化の予測方法は以下のS1
01~S104を含む。
S101、クライアントは分散連携時系列グラフニューラルネットワークモデルを確立す
る。
分散連携時系列グラフニューラルネットワークモデルは、特徴学習ネットワークおよびラ
ベル予測ネットワークを含む。特徴学習ネットワークは主にメッセージパッシング層を含
み、クライアントはその隣接するクライアントのメッセージを受信し、メッセージパッシ
ング層を介してグラフ畳み込み(graph convolution)、グラフ注目度
(graph attention)、グラフ変換(graph transforme
r)などの操作が実現される。ラベル予測ネットワークは、完全接続層からなり、ノード
間のエッジを予測するために使用される。
本発明はサーバー-マルチクライアント構造の分散連携時系列グラフニューラルネットワ
ークのアーキテクチャを提供し、1つのサーバー

個のクライアント
からなり、企業は1つのクライアントに対応し、各クライアントに1つのノード
を確立し、マルチバリューチェーン中のクライアントに対応するノードは1つのメッシュ
構造の時系列グラフデータ
を形成し、マルチバリューチェーンのうち分散連携グラフニューラルネットワークの訓練
に参加する各クライアントは、すべて1つの分散連携時系列グラフニューラルネットワー
クを確立する。本発明では、互いに矛盾しない限り、時系列グラフデータ
は図
と略称し、複数の時点における時系列グラフデータからなる集合体は多時間グラフデータ
と称し、グラフ
はネットワーク空間全体に存在するか、または論理的に存在し、各クライアント
はグラフ
中の1つのノード
に対応する。
本発明では分散連携時系列グラフニューラルネットワークが採用され、各クライアントに
よって確立された分散連携時系列グラフニューラルネットワークは分散連携時系列グラフ
ニューラルネットワーク全体の構成要素であり、各クライアントのローカル訓練によって
取得された分散連携時系列グラフニューラルネットワークのパラメータは異なり、完全な
分散時系列グラフデータはネットワーク内のどの主体にも知られることはなく、どの主体
に任意のクライアントまたはサーバーが含まれる。ここで、各クライアント
は該クライアント
の隣接するクライアント
のみがサーバーと通信することを許与し、
は自然数であるか、または
は正の整数であり、
はクライアントまたはノードのシリアル番号を示し、
は0~
間の値を取り、
は隣接するクライアントまたは隣接するクライアントが位置するノード(または隣接ノー
ドとも呼ばれる)のシリアル番号を示し、
は0~
間の値を取る。一実施例では、本発明中の隣接するクライアントまたは隣接ノードとは、
一次の隣接するクライアントまたは一次隣接ノードを指す。別の実施例では、本発明中の
隣接ノードは一次隣接ノードおよび/または二次隣接ノードを含む。別の実施例では、本
発明中の隣接ノードは一次隣接ノードおよび/または二次隣接ノードおよび/または他の
高次隣接ノードを含む。任意のノード
について、グラフ上の隣接リスト
は第1特徴、すなわちグラフの構造関係を構成する。
選択可能な実施例では、サーバーはクライアントに分散連携時系列グラフニューラルネッ
トワークの確立要求を送信し、要求メッセージは訓練に必要なデータソースの要求を含む
。好ましくは、これらのデータはメタデータ、例えば価値流れ、需要流れ、ビジネス流れ
などに関する記述情報である。クライアント
が参加する意思がある場合、サーバーは要求を受信することを示すメッセージをフィード
バックする。別の選択可能な実施例では、クライアント
は、グラフニューラルネットワーク訓練への参加要求メッセージをサーバーに能動的に送
信することができ、サーバーは、クライアント
の参加に同意するか否かを選択し、クライアント
の参加に同意する場合、クライアント
は分散連携時系列グラフニューラルネットワークモデルを確立する。
本発明では、クライアントに対応する分散連携時系列グラフニューラルネットワークモデ
ルのローカルパラメータ(ローカルネットワークパラメータ)は、ローカル特徴変化行列
、ローカル重みおよびローカル損失を含み、分散連携時系列グラフニューラルネットワー
クモデルのグローバルパラメータ(グローバルネットワークパラメータ)は少なくともグ
ローバル重み、グローバル特徴変換行列およびグローバル損失を含む。
分散連携時系列グラフニューラルネットワークモデルについて、
時点におけるモデルのグローバル損失関数は
と表され、ローカル損失関数は
と表され、
時点におけるモデルのグローバル損失関数は
と表され、ローカル損失関数は
と表されてもよい。すなわち、
時点における分散連携時系列グラフニューラルネットワークモデルのグローバル損失は
であり、ローカル損失は
であり、
時点におけるモデルのグローバル損失は
であり、ローカル損失関数は
である。
図2に示すように、ノードA、ノードB、ノードC、ノードD、ノードEはそれぞれクラ
イアントA、クライアントB、クライアントC、クライアントD、クライアントEに対応
し、クライアントAの
時点におけるローカルネットワークパラメータは少なくともクライアントAの隣の破線枠
内のローカル特徴変換行列
、ローカル重み
およびローカル損失
を含み、本発明では、ローカル損失
はクライアントAに対応する分散連携時系列グラフニューラルネットワークモデルの損失
を示し、該損失はモデルの損失関数によって計算され、クライアントAの
時点におけるローカルネットワークパラメータは少なくともクライアントAの隣の破線枠
内のローカル特徴変換行列
、ローカル重み
およびローカル損失
を含み、これに対応して、ノードB、ノードC、ノードD、ノードEなどの他の各ノード
は、いずれも対応時点におけるそれぞれに対応するローカルネットワークパラメータ(図
示せず)を含む。
時点において、サーバー中のグローバルネットワークパラメータは少なくともグローバル
特徴変換行列
、グローバル重み
およびグローバル損失
を含み、
時点において、サーバー中のグローバル特徴変換行列
、グローバル重み
およびグローバル損失
を含み、ここで、
は時点、時間またはタイミングを示す。図2を参照すると、ノードBはサーバー、ノード
A和ノードCの3つのみと通信可能であり、ノードDはサーバー、ノードA、ノードC和
ノードEの4つのみと通信可能であり、同様に、他のノードについては、本明細書および
後述において説明を省略する。
S102、分散連携時系列グラフニューラルネットワークモデルを訓練するためのデータ
を取得する。
サーバーは、クライアント
が分散連携時系列グラフニューラルネットワークの訓練に参加することに同意すると、サ
ーバーはクライアント
に同意トークンを送信し、前記同意トークンは、クライアント
がグラフニューラルネットワークの訓練に参加するために使用される。選択可能な実施例
では、クライアント
は、関連データを有する隣接のクライアントがモデリングし、すなわち、マルチバリュー
チェーンの分散連携時系列グラフニューラルネットワークモデルを訓練するように招待し
、参加する意思のある隣接リスト
を決定し、ここで、前記隣接リストはクライアント
自体を除外し、
はクライアントのシリアル番号であり、
は自然数であるか、または
は正の整数である。
なお、各クライアントは、該クライアントが位置するノードのノード情報および該クライ
アントが位置するノードと該クライアントの隣接するクライアントが位置するノード間の
エッジの情報を取得することができ、このように、該クライアントの分散時系列グラフデ
ータが形成されることを理解されたい。すなわち、各クライアントの分散時系列グラフデ
ータは、各クライアントが位置するノードのノード情報および各クライアントが位置する
ノードと該各クライアントの隣接するクライアントが位置するノード間のエッジの情報を
含む。
選択可能に、分散時系列グラフデータ中のクライアントが位置するノードのノード情報は
、ノードの識別情報または他の情報を含み得、例えばノードの識別情報はノードのシリア
ル番号、名称などであってもよい。異なる応用シナリオでは、ノード情報の具体的な内容
は異なる場合がある。クライアントが位置するノードと該クライアントの隣接するクライ
アントが位置するノード間のエッジの情報は、エッジの識別情報または他の情報を含み得
、例えばエッジの識別情報は、エッジの名称または番号などであってもよい。同様に、異
なる応用シナリオでは、エッジの情報の具体的な内容は異なる場合がある。
全てのクライアントの分散時系列グラフデータを論理的に集約して、全体の分散時系列グ
ラフデータ
を形成することができ、ここで、
は時点、時間またはタイミングを示し、
はノードの集合を示し、各ノード
は1つのクライアント、すなわち1つの企業を示し、
はt時点のエッジの集合を示し、各エッジ
は1つのラベルベクトル
(エッジのラベルベクトルはエッジのラベルとも呼ばれる)に対応し、
は、ノード

間に協力関係、需要流れ、ビジネス流れ、価値流れがあるか否かを示す。
なお、上記全体の
は論理的な分散時系列グラフデータであり、サーバーは完全な分散時系列グラフデータ
を認識しておらず、サーバーはノード集合
を取得することができるが、エッジの集合
、エッジのラベルベクトル
を取得することができない。
以上の内容に基づいて、本発明では、分散連携時系列グラフニューラルネットワークモデ
ル中の特徴学習ネットワークは、歴史時点における各クライアントの分散時系列グラフデ
ータおよび各クライアントの隣接するクライアントが位置するノードの特徴ベクトルに基
づいて、各クライアントが位置するノードの特徴ベクトルを出力するために使用される。
分散連携時系列グラフニューラルネットワークモデル中のラベル予測ネットワークは、各
クライアントが位置するノードの特徴ベクトルに基づいて、各クライアントが位置するノ
ードと各クライアントの隣接するクライアントが位置するノードのエッジの予測値を出力
するために使用される。
各クライアントとサーバーの機能は以下のとおりであり:
各クライアント
はグラフ
中の該クライアント
に対応するノード
の関連計算、
を処理するために使用され、前記関連計算は、以下を含み:
1)ノード
の特徴ベクトルを計算し、ノード
とその隣接ノード
の接続エッジの重み
を予測し、ここで、
はノード
のシリアル番号を示し、
は隣接ノード
のシリアル番号を示す。
2)ノードの特徴ベクトルを送信および/または受信し、例えば、クライアント
の隣接するクライアントにクライアント
が位置するノードの特徴ベクトルを送信するか、またはその隣接するクライアントから隣
接するクライアントが位置するノードの特徴ベクトルを受信する。
3)ローカル損失に基づいて誤差逆伝播を実行する(逆伝播は本分野における先行技術で
ある)。
クライアント
はその隣接するクライアントが位置するノード
を取得することができるし、クライアント
が位置するノードとその隣接するクライアントが位置するノード間のエッジ
、およびエッジのラベル
を取得することができる。好ましくは、ノード
と隣接ノード
のエッジは
時点の重み
はエッジのラベル
である。
サーバーの機能は、各クライアントの損失を収集し、グローバル損失を計算し(すなわち
、各クライアントから分散連携時系列グラフニューラルネットワークモデルのローカル損
失を受信する)、またAdamアルゴリズムを用いてグローバルパラメータを更新し、全
てのクライアント側の逆伝播を開始するという分散連携時系列グラフニューラルネットワ
ークモデルの訓練過程の全体を調整することを担当する。図2に示すように、サーバーは
サードパーティサーバーであってもよく、サーバーは1つまたは複数であってもよく、関
連機能は分散サーバークラスタによって実装され得る。
一実施態様では、サーバー上にニューラルネットワークが存在する場合もある。
一実施例では、サーバー上のニューラルネットワークは、クライアントのニューラルネッ
トワークと異なり、好ましくは、サーバー上のニューラルネットワークは、リカレントニ
ューラルネットワーク(RNN)、LSTM(Long Short Term Mem
ory、すなわち長期短期記憶ネットワーク、特殊なリカレントニューラルネットワーク
の一種)、グラフニューラルネットワーク(GNN)、グラフ注目度(GAT)またはグ
ラフ変換(Graph Transformer)などのニューラルネットワークの任意
の1つまたは複数の組み合わせによって実行されてもよい。いくつかの実施形態では、サ
ーバーが現在時点パラメータ(グローバルネットワークパラメータ)を生成するとき、歴
史時点におけるサーバー中のパラメータデータを考慮に入れ、生成された現在時点におけ
るパラメータを全てのクライアントまたは指定クライアントにブロードキャストすること
ができる。
別の実施例では、サーバー上のニューラルネットワークはクライアントのニューラルネッ
トワークと類似し、分散ニューラルネットワークの一部であり、サーバーは分散ニューラ
ルネットワークの1つのノードに対応する。
別の実施態様では、サーバー上にニューラルネットワークが存在せず、各時点で全てのク
ライアントによってアップロードされたデータを単純に処理するだけである。プライバシ
ー保護の目的のため、サードパーティサーバーはグラフ
のグローバルトポロジー構造情報を知らなく、すなわち、グラフのノード
を知ることができるが、グラフのエッジ
を知ることができないため、各ノードのプライバシー保護が達成される。
S103、各クライアントはサーバーと相互に作用して分散連携時系列グラフニューラル
ネットワークモデルを訓練する。
(1)クライアントは特徴学習ネットワークに基づいてノードの特徴ベクトルを更新する
クライアントがノードの特徴ベクトルを更新する過程は、分散連携時系列グラフニューラ
ルネットワークモデル訓練に参加するクライアント中の各クライアントについて、各クラ
イアントは歴史時点(例えば0~
時点)における各クライアントの分散時系列グラフデータおよび各クライアントの隣接す
るクライアントが位置するノードの特徴ベクトルに基づいて、各クライアントが位置する
ノードの特徴ベクトルを生成することを含む。ここで、ノードの特徴ベクトルは、各クラ
イアントが位置するノードと各クライアントの隣接するクライアントが位置するノード間
のエッジの情報を特徴付けるために使用される。
まず、特徴学習ネットワークに基づいて、それぞれ各時点のグラフスナップショットを用
いてノード特徴学習を行い、各時点のグラフスナップショットとはある時点の分散時系列
グラフデータを指し、次に多時間グラフデータを用いてノード特徴の時間的進化特性を学
習し、学習により得られたノードの特徴ベクトルはグラフのエッジを予測するために使用
される。なお、特徴学習ネットワークは複数の層(または特徴学習層)を含み、例えば
個の層を含み、ここで、最初の
層はクライアントのローカルな分散時系列グラフデータ(すなわちクライアントのローカ
ルなオリジナルデータ)に基づいてクライアントが位置するノードの特徴ベクトルを生成
するために使用され、残りの層は前
層から得られた特徴ベクトルを更新するために使用される。
具体的に、分散連携時系列グラフニューラルネットワークモデル訓練に参加する複数のク
ライアントのうちシリアル番号
のクライアント(クライアントiまたはクライアント
の値が
を取る)を例にすると、クライアント
は複数のクライアント中の任意のクライアントである。クライアント
はさらに該クライアント
の隣接するクライアント
から隣接するクライアント
によって生成された特徴ベクトルを受信し、例えば、
はインターネットを介してクライアント
に要求を送信して
が位置するノードの特徴ベクトルを取得し、
は全ての隣接するクライアント
が位置するノードの特徴ベクトルを受信する。
例示的に、分散連携時系列グラフニューラルネットワークモデルを訓練する過程中、第
ラウンドの反復において、
時点における分散連携時系列グラフニューラルネットワークの第
層について、クライアント
はクライアント
が位置するノードの特徴ベクトルを更新するための一種の更新規則は(すなわちクライア
ント
が位置するノードの特徴ベクトルは):
を満たし、ここで、

時点におけるクライアント
に対応する特徴学習ネットワークの第
層から出力されたクライアント
が位置するノードの特徴ベクトルを示し、

時点におけるクライアント
の隣接するクライアント
に対応する特徴学習ネットワークの第
層から出力された隣接するクライアント
が位置するノードの特徴ベクトルを示し(
はクライアント
がクライアント
から受信される)、

時点におけるクライアント
に対応する特徴学習ネットワークの第
層から出力されたクライアント
が位置するノードの特徴ベクトルを示し、
は集約演算を示し、
は線形演算を示し、
はローカル特徴変換行列を示す。
選択可能に、
集約方法は、合計、平均化、最大化などのいずれか1つまたはそれらの組み合わせを含む

クライアントiは、
時点のグローバル特徴変換行列
を取得する要求をサーバーに送信する。ここで、サーバーは、
時点のグローバル特徴変換行列
、すなわち重み行列による多時間グラフニューラルネットワーク学習のタイミング効果を
計算する。
を用いて
を線形変換してクライアント
が位置するノードの第
層における最終的な特徴ベクトル
を取得する。
以上のステップを繰り返して、特徴学習ネットワーク中の各層のノードの特徴ベクトルを
計算する。
時点における分散連携時系列グラフニューラルネットワークの第
層について、クライアント
はクライアント
が位置するノードの特徴ベクトルを更新する別の更新規則は(すなわちクライアント
が位置するノードの特徴ベクトルは):
を満たし、ここで、

時点におけるクライアント
に対応する特徴学習ネットワークの第
層から出力されたクライアント
が位置するノードの特徴ベクトルを示し、

時点におけるクライアント
の隣接するクライアント
に対応する特徴学習ネットワークの第
層から出力された所邻クライアントjが位置するノードの特徴ベクトルを示し、

時点におけるクライアント
に対応する特徴学習ネットワークの第
層から出力されたクライアント
が位置するノードの特徴ベクトルを示し、
は集約演算を示し、
は線形演算を示し、
はローカル特徴変換行列を示し、
はクライアント
が位置するノードとクライアント
の隣接するクライアント
が位置するノード間の相関係数を示す。
なお、分散連携時系列グラフニューラルネットワークの訓練過程中、インターネットを介
してメッセージパッシングおよび逆伝播を実行し、通信量が大きく、時間がかかる。グラ
フ内のノードは次数を持ち、ノードの次数は1つのノードに接続されたエッジの数を示す
が、場合によって、グラフ内のノードの次数間に大きな差があり、例えばスケールフリー
ネットワークノードの次数は指数分布を持ち、少数のノードの次数が非常に大きく、大部
分のノードの次数が非常に小さい。ノードのメッセージ送信/受信数はノードの次数に比
例し、次数の大きいノードは分散連携時系列グラフニューラルネットワークモデル全体の
性能ボトルネックとなる。この問題に対処するために、クライアントは、隣接するクライ
アントが位置するノードの特徴ベクトルを集約する際に、クライアント
は各隣接ノード
の相関係数
を学習し、特徴ベクトルを集約する際に相関係数を結合して集約を行う。
一実施態様では、最終的なグローバル損失関数において
を正則化することにより、ほとんどの隣接ノードの相関係数は0になり、少数の隣接する
ノードの相関係数の絶対値は0よりはるかに大きくなる傾向がある。
好ましくは、正則化方法は
正則化である。
または
正則化である。
正則化により、大部分の隣接ノードの相関係数は0になり、少数の隣接ノードの相関係数
の絶対値は0よりもはるかに大きく、このように、隣接ノードの特徴ベクトルを集約する
際に、クライアントは隣接ノードを選択することができ、クライアントは全ての隣接ノー
ドの特徴ベクトルを集約することではなく、関連性の最も高い一部の隣接ノードの特徴ベ
クトルを集約し、すなわち、隣接ノード集合
を関連性の最も高い
個の隣接を更新し、少数の重要な隣接ノードを保持し、重要でない隣接ノードを除去する
ことができ、分散連携時系列グラフニューラルネットワーク訓練過程中に順伝播と逆伝播
によって生成される通信メッセージの数を低減し、通信効率を大幅に改善することができ
る。
選択可能に、本実施例では、複数のクライアント中の各クライアントは隣接ノードを選択
することができ、または複数のクライアント中の一部のクライアントは隣接ノードを選択
することができ、本発明の実施例では限定されない。
一実施例では、サーバーは順伝播完了までの各クライアントの応答時間を記録し、全ての
クライアントを応答時間に従って降順に並べ、応答時間の最も長い
個のノードを正則化するために選択し、応答時間の最も長い
個のクライアントに通知して隣接数を減らしてもよい。
(2)クライアントは、分散連携時系列グラフニューラルネットワークモデルのローカルネ
ットワークパラメータを生成する。
各クライアントは、各クライアントが位置するノードの特徴ベクトルに基づいて、各クラ
イアントの分散連携時系列グラフニューラルネットワークモデルのローカルネットワーク
パラメータを生成し、ローカルネットワークパラメータをサーバーに送信する。
上記各クライアントは、各クライアントが位置するノードの特徴ベクトルに基づいて、各
クライアントの分散連携時系列グラフニューラルネットワークモデルのローカルネットワ
ークパラメータを生成する具体的な過程は、各クライアントは各クライアントが位置する
ノードの特徴ベクトルを各クライアントに対応するラベル予測ネットワークに入力し、各
クライアントが位置するノードと各クライアントの隣接するクライアントが位置するノー
ド間のエッジの予測値を生成し、各クライアントは各クライアントが位置するノードと各
クライアントの隣接するクライアントが位置するノード間のエッジの予測値および該エッ
ジの真の値に基づいて、分散連携時系列グラフニューラルネットワークモデルのローカル
損失を決定し、および各クライアントはローカル損失に基づいて逆伝播を実行し、各クラ
イアントの分散連携時系列グラフニューラルネットワークモデルのローカルネットワーク
パラメータを生成することを含む。
上記クライアント
を例にとって説明すると、クライアント
はラベル予測ネットワークの完全接続層を用いてクライアント
が位置するノードとクライアント
に隣接するクライアント
が位置するノード間のエッジ
のラベルの予測値を計算する(すなわちエッジ
のラベルベクトルを予測する)。具体的に、特徴学習ネットワークから出力されたクライ
アント
が位置するノードの特徴ベクトルをラベル予測ネットワークに入力し、クライアント
が位置するノードとクライアント
の隣接するクライアント
が位置するノードのエッジの予測値を出力する。クライアント
はサーバーからエッジ予測完全接続層のグローバル重み
を取得し、グローバル重み
に基づいてエッジ
のラベルの予測値を計算し、好ましくは、エッジ
のラベルの予測値をラベルベクトル
とし、ラベルベクトル
は次式によって決定され:
ここで、
は、クライアント
が位置するノードとクライアント
が位置するノード間の距離を示す距離関数である。選択可能に、距離関数は余弦距離、ユ
ークリッド距離またはマハラノビス距離を採用してもよい。
さらに、クライアントiは、下記ローカル損失関数(ローカルエッジ損失関数とも呼ばれ
る)に従ってクライアントiに対応する分散連携時系列グラフニューラルネットワークモ
デルのローカル損失(ローカルエッジ損失とも呼ばれる)を決定し、該ローカル損失関数
は:
であり、ここで、
はローカル損失を示し、
はエッジ
のラベルの真の値を示し、
はエッジ
のラベルの予測値を示す。
最後に、クライアント
はローカルネットワークパラメータおよびローカル損失
をサーバーに送信する。
(3)サーバーはグローバルネットワークパラメータを更新する
サーバーは、各クライアントから送信されたローカルネットワークパラメータに基づいて
、分散連携時系列グラフニューラルネットワークモデルのグローバルネットワークパラメ
ータを取得し、グローバルネットワークパラメータを各クライアントにブロードキャスト
する。
サーバーは、
時点のグローバル重み行列
時点のグローバル重み行列
を計算するために使用され、選択可能に、RNN、GRU、LSTMまたはTransf
ormerを用いてグローバル重み行列
を計算してもよい。選択可能に、サーバーはインターネットを介して
を全てのクライアントにブロードキャストし、クライアントがグローバルネットワークパ
ラメータを受信する待ち時間を短縮する。
まず、サーバーは、各クライアントから送信されたローカル損失に基づいて、分散連携時
系列グラフニューラルネットワークモデルのグローバル損失を決定し、該グローバル損失
は各クライアントのローカル損失と正則化項の合計であり、すなわち、
ここで、
は各クライアントのローカル損失の合計であり、
は正則化項である。
次に、サーバーは、各クライアントから送信されたローカルネットワークパラメータおよ
びグローバル損失に基づいて逆伝播を実行し、分散連携時系列グラフニューラルネットワ
ークモデルのグローバルネットワークパラメータを取得する。具体的に、サーバーは、A
damアルゴリズムを用いて分散連携時系列グラフニューラルネットワークモデルのパラ
メータを最適化し、サーバーはグローバルネットワークパラメータを更新し:

および
はグローバルネットワークパラメータの数を示す。
一実施例では、サーバーは、グローバルネットワークパラメータをクライアントにブロー
ドキャストして全てのクライアントの逆伝播を開始する。
別の実施例では、サーバーは、グローバルネットワークパラメータをクライアントにブロ
ードキャストした後、クライアントは逆伝播を開始するかどうかを決定する。クライアン
トは、ローカルネットワークパラメータの更新、および上記相関係数行列
の更新を担当する。
本発明の実施例では、各クライアントは、サーバーによってブロードキャストされたグロ
ーバルネットワークパラメータを用いて各クライアントの分散連携時系列グラフニューラ
ルネットワークモデルのネットワークパラメータを更新する。
選択可能に、本発明の実施例では、1つのブロックチェーンを確立し、クライアント-ク
ライアント、サーバー-クライアント間のノードの特徴ベクトル、パラメータおよび勾配
などの通信トラフィックをブロックチェーンに預け、否認を防止し、サーバーとクライア
ントのプライバシー侵害行為の監査をサポートしてもよい。
S104、クライアントはエッジのラベルを予測する。
本発明の実施例では、上記S101~S103により分散連携時系列グラフニューラルネ
ットワークモデルの訓練を完了した後、各クライアントは現在時点における各クライアン
トの分散時系列グラフデータを更新後の分散連携時系列グラフニューラルネットワークモ
デルに入力し、各クライアントが位置するノードと各クライアントの隣接するクライアン
トが位置するノード間のエッジの予測値を出力する。
一実施例では、
時点におけるエッジ
のラベルを予測するために、0~
時点の分散時系列グラフデータ
を用いて上記S101~S103の分散連携時系列グラフニューラルネットワークモデル
を訓練し、分散連携時系列グラフニューラルネットワークモデルに
時点の分散時系列グラフデータ、すなわち
を入力することをクライアントに通知し、なお、
はクライアントの分散時系列グラフデータから予測すべきエッジ
の情報を除去し、最終的にエッジ
のラベルの予測値を出力することを表す。
同様に、
時点のエッジ
のラベルを予測するために、0~
時点の分散グラフデータ
を用いて分散連携時系列グラフニューラルネットワークモデルを訓練し、
時点の分散時系列グラフデータ、すなわち
を入力することをクライアントに通知し、最終的にエッジ
のラベルの予測値を出力する。
要約すると、本発明によって提供されるマルチバリューチェーン進化の予測方法において
、分散連携時系列グラフニューラルネットワークモデル訓練に参加する各クライアントは
自体およびその隣接するクライアントが位置するノード間のエッジの情報のみを取得する
ことができ、サーバーは全てのクライアントが位置するノードの情報のみを取得すること
ができ、クライアントがローカルなオリジナルデータ(すなわちクライアントのローカル
に生成された分散時系列グラフデータ、分散時系列グラフデータはノードの情報およびエ
ッジの情報を含む)を共有しない場合、各クライアントはサーバーと相互に作用して各ク
ライアントに適用可能なグローバルな分散連携時系列グラフニューラルネットワークモデ
ルを訓練し、さらにマルチバリューチェーン中の各クライアントが位置するノードとその
隣接するクライアントが位置するノード間のエッジを動的に予測する。
本発明の実施例では、分散連携時系列グラフニューラルネットワークモデルに基づいてマ
ルチバリューチェーン中の各クライアントが位置するノード間のエッジの予測結果を得た
後、エッジの予測結果に基づいて各主体の状態および各主体間の関係を動的に予測するこ
とができる。
一実施例では、上記方法により、エッジの予測結果に基づいて企業間の将来の価値流れ、
需要流れ、ビジネス流れ、技術流れなどのネットワークトラフィックを動的に予測するこ
とができ、例えば、製品の販売量を予測する。マルチバリューチェーンデジタルエコシス
テムにおいて、企業の売上を予測する場合、企業内部データだけでは正確な予測結果が得
られず、該企業のバリューチェーンの上流および下流にある関連企業のデータを総合的に
活用する必要があり、例えば小売店、流通業者、製造工場などのクライアントはローカル
データ(販売量に関するデータ)を分散連携時系列グラフニューラルネットワークモデル
に入力し、特徴学習ネットワークを介してノードの特徴ベクトルを予測し、ラベル予測ネ
ットワークを介して製品販売量の予測値を得る(すなわち、モデル予測のエッジの予測値
は製品販売量の予測値である)。このことから分かるように、各クライアントのローカル
なプライバシーデータに基づいて分散連携時系列グラフニューラルネットワークモデルを
確立し、製品販売量を予測し、目標企業バリューチェーンの上流および下流にある関連企
業のデータを総合的に利用して分散訓練することにより、より正確な販売量予測を実現す
る。
別の実施例では、上記方法によれば、エッジの予測結果に基づいて各主体間の関係および
各主体の状態を動的に予測し、すなわち、マルチバリューチェーン上の企業ノードの進化
状態を予測することも可能である。例えば、任意のノード
について、ノード
に接続されたあるエッジの予測値が
となるか、または
に向かって連続的に変化する傾向があると予測されると、ノード
と該エッジの他端のノード間は協力関係ではないことを意味する。例えば、任意のノード
について、ノード
に接続された全てのエッジの予測値がすべて
となるか、または
に向かって連続的に変化する傾向があると予測されると、
の進化状態は「滅亡」であり、すなわち、対応するクライアント
の進化状態は「滅亡」である。
To clearly describe the embodiments of the present application, we first introduce some concepts that may appear in subsequent embodiments.
Original data refers to actual data, including features and samples, obtained by each entity in a multi-value chain in a specific period of time, where the original data is collected according to rules and methods defined by those skilled in the art, and the original data records the original data of clients in the form of tensors or tables, and includes features and samples, for example, feature 1 is automobile sales volume, and the samples include January automobile sales volume data, February automobile sales volume data, March automobile sales volume data, ... corresponding to each of different clients; feature 2 is automobile inventory volume, and the samples include January automobile inventory volume data, February automobile inventory volume data, March automobile inventory volume data, ... corresponding to each of different clients; feature 3 is accessory sales volume, and the samples include January accessory sales volume data, February accessory sales volume data, March accessory sales volume data, ... corresponding to each of different clients; feature 4 is accessory inventory volume, ... and so on.
It will be clear to those skilled in the art that the features and samples referred to in the present invention are not limited to those mentioned above, and the features may be part or all of the features of the data actually collected or recorded by each client, and the samples may be part or all of the data actually collected or recorded by each client. In addition, the features, dimensions, types, etc. of the original data of different clients of the data that can be input may be different, and the features, dimensions, types, etc. of the original data between different groups may also be different, and the client may collect original data on a monthly basis, may collect original data on a weekly basis, or may collect or record original data in real time.
Those skilled in the art can arbitrarily set this according to actual needs.
Metadata is data that describes objects such as information resources and data. Its uses include identifying resources, evaluating resources, tracking changes in resource usage, achieving simple and efficient management of large amounts of network data, and effectively discovering information resources.
The objective of metadata is to enable searching, unifying organization, and effectively managing the use of resources. Therefore, metadata is publicly available data. Metadata includes information about the characteristics of the input data,
It includes size, dimensions, attributes, creation time, type, shape, client flags, variable names, dimensions, etc. Metadata is data describing other data or structured data used to provide information about a particular resource, and can be generated by the client or server side based on each client's input data or original data. It should be understood that the metadata of the present invention refers to data describing the client's original data, i.e., data for describing the attributes or characteristics of the original data.
Graph Neural Network (GNN)
is a neural network for processing graph data (graph data is data with graph structure characteristics), which can learn from graph data, extract and discover features and patterns in graph data, and meet the needs of graph learning tasks such as convergence, classification, prediction, partitioning, generation, etc. In the present invention, the clients interact with each other and generate some data with the characteristics of graph structure data, where each client in the clients corresponds to a node (also called a graph node);
The nodes corresponding to the clients form a graph.
According to the method for predicting the evolution of a multi-value chain proposed by the present invention, clients share only metadata without sharing original data, thereby protecting the data privacy and security of enterprises and enabling specific collaboration to be safely carried out between enterprises in the multi-value chain without sharing original data.
The present invention provides a distributed and coordinated time series graph neural network (model), and
—A "multi-client" distributed architecture is adopted, in which the server mainly manages parameters and adjusts clients to form a distributed linked time series graph neural network. By adopting the distributed linked time series graph neural network, the distributed linked time series graph neural network corresponding to each client is a component of the entire distributed linked time series graph neural network, and the parameters of the distributed linked time series graph neural network obtained by local training of each client are different.
Optionally, each client's local distributed collaborative time series graph neural network may be homogeneous or heterogeneous, i.e., the structure of each client's local distributed collaborative time series graph neural network may be the same or different.
In addition, the distributed linked time series graph neural network corresponds to a graph at each time point, the nodes in the diagram refer to clients or companies, and the clients correspond to companies, the edges between the nodes in the diagram indicate the relationships between clients or between companies, including cooperation relationships, trading relationships, supply and demand relationships, etc., and as time changes, the topological relationships in the graph also change, and the edges in the graph also change. The present invention builds a linked time series graph neural network that allows companies to predict future edges of the graph and predict whether they will go bankrupt without sharing their own original data.
The present invention will now be described in detail with reference to the accompanying drawings in conjunction with embodiments.
Referring initially to FIG. 1, a schematic diagram illustrates a system architecture 100 in which exemplary embodiments according to the present disclosure may be used.
Fig. 1 is a schematic diagram showing an example of a system architecture 100 according to an embodiment of the present disclosure. It should be noted that Fig. 1 is also referred to as an architecture schematic diagram of the hardware operating environment of the multi-value chain evolution forecasting method and device architecture. The embodiment of the present invention is based on a client device, which may be a terminal device such as a PC, a portable computer, etc.
The system architecture shown in Fig. 1 may be a "server-multi-client" distributed architecture, and only one client is illustrated in Fig. 1. As shown in Fig. 1, in the "server-multi-client" distributed architecture, the client is used to train a sub-model (i.e., a local distributed federated time-series graph neural network model) that characterizes the current nodes and connection edges locally on the client using the original data.
Preferably, each client comprises an original data module, a local parameter module, a data collection module, a data labeling module, a message passing module, a local training module and a blockchain, where the original data module is used to store the original data of the client, the data collection module is used to collect and record the original data of the client, the local parameter module is used to store all parameters of the local distributed federated time series graph neural network of the client, the data labeling module is used to label data to train the distributed federated time series graph neural network, the message passing module is used to support the client-server communication module multiple parallel communication and information upload (i.e. upload messages to the blockchain), the local training module is used by the client to train the distributed federated time series graph neural network, and the blockchain is used to record all communication between the server and the client, traceability of information leakage and non-repudiation. The server is used to manage the global parameters of the distributed federated time series graph neural network.
Preferably, the server comprises a metadata module, a parameter database module,
The system includes a parameter management module, a communication module, a global training module, and a blockchain, where the metadata module is used to manage and store metadata, the parameter database module is used to store all parameters of the distributed federated time series graph neural network, the parameter management module manages and updates the parameters of the distributed federated time series graph neural network, the communication module is used to support multiple parallel communications and information uploads between the server and the multi-client message passing module, the global training module is used to fuse data sent from multiple clients, and the blockchain is used to record all communications between the server and the clients, traceability of information leakage, and non-repudiation. In one embodiment of the present invention, each distributed federated time series graph neural network performs training locally on the client, and the server mainly performs parameter processing (i.e., processes the parameters of the distributed federated time series graph neural network obtained by training of each client), and the processing includes averaging (i.e.,
The server averages the parameters of the distributed and federated time series graph neural networks obtained from each client.) In another embodiment of the present invention, each distributed and federated time series graph neural network is trained locally on the client, and the obtained local network parameters of the distributed and federated time series graph neural network are sent to the server, and the server processes the received local network parameters using a neural network, the processing including parameter fitting and/or prediction by the neural network.
The hardware parts of the client and server are composed of a processor, e.g., a CPU, a network interface, a user interface, a memory, and a communication bus.
The communication bus is used to realize the connection communication between the different components. The user interface includes a display, an input unit, e.g., a keyboard,
The user interface may include a standard wired interface, a wireless interface, and optionally the network interface may include a standard wired interface, a wireless interface (e.g., a WI-FI interface, a Bluetooth interface, a 5G interface). The memory may be a high-speed RAM memory, or a non-volatile memory, such as a disk memory. The memory may optionally be a storage device independent of the processor.
It will be appreciated by those skilled in the art that the structure of the servers and clients shown in FIG. 1 is not intended to limit the servers or clients, and that the servers and clients may be comprised of more or fewer components than those shown, or a combination of the specified components, or a different arrangement of the components.
As shown in FIG. 2, the memory as a computer storage medium may include an operating system program, a network communication module program, a user interface module program, and a federated time series graph neural network program. For multiple clients in the multi-value chain, a node is set for each client, and the node and the client have a one-to-one correspondence. Here, the operating system is used to manage and control the programs of the hardware and software resources of the client device to support the operation of the distributed federated time series graph neural network program and other software or programs. The distributed federated time series graph neural network corresponds to the topological structure of the graph at each time point when it is assumed that the nodes are constant, and the edges of the graph change with the change in time. FIG.
In the server shown in FIG. 1, the communication module is mainly used for transmitting and receiving requests, data, etc. between the server and multiple clients such as client A, client B, client C, client D, and client E, and the message passing module in the multiple clients is mainly used for transmitting and receiving requests, data, etc. between each client and the server, where the number of clients may be more or less. Preferably, the communication module and the message passing module perform data communication via their respective network interfaces, and the processor can be used to call a distributed collaborative time series graph neural network program stored in the memory and execute the method for predicting the evolution of multi-value chains provided by the embodiment of the present invention.
The method for predicting the evolution of a multi-value chain provided by an embodiment of the present invention is as follows:
Includes 01 to S104.
S101, a client establishes a distributed collaborative time series graph neural network model.
The distributed federated time-series graph neural network model includes a feature learning network and a label prediction network. The feature learning network mainly includes a message passing layer, in which a client receives messages from its neighboring clients, and performs graph convolution, graph attention, graph transformation, etc. through the message passing layer.
The label prediction network consists of a fully connected layer and is used to predict edges between nodes.
The present invention provides a distributed and linked time series graph neural network architecture with a server-multi-client structure, and
and
clients
Each company corresponds to one client, and each client has one node.
,The nodes corresponding to the clients in the multi-value chain are connected to one mesh structure time series graph data.
In the multi-value chain, each client participating in the training of the distributed federation graph neural network establishes a distributed federation time series graph neural network. In the present invention, the time series graph data
Figure
A collection of time-series graph data at multiple points in time is called multi-time graph data, and a graph
exists in the entire network space, or logically, and each client
is a graph
One node in
Corresponds to.
In the present invention, a distributed and linked time series graph neural network is adopted, and the distributed and linked time series graph neural network established by each client is a component of the entire distributed and linked time series graph neural network, and the parameters of the distributed and linked time series graph neural network obtained by the local training of each client are different, and the complete distributed time series graph data is not known to any entity in the network, and any entity includes any client or server. Here, each client
is the client
Neighboring clients of
only allow communication with the server,
is a natural number, or
is a positive integer,
indicates the serial number of the client or node,
is 0~
Take the value between
denotes the serial number of the neighboring client or the node on which the neighboring client is located (also called the neighboring node),
is 0~
In one embodiment, the neighboring client or neighbor node in the present invention can take a value between:
It refers to a first-order neighboring client or a first-order neighboring node. In another embodiment, the neighboring node in the present invention includes a first-order neighboring node and/or a second-order neighboring node. In another embodiment, the neighboring node in the present invention includes a first-order neighboring node and/or a second-order neighboring node and/or other higher-order neighboring node. Any node
For the adjacency list on the graph
constitutes the first feature, i.e. the structural relationship of the graph.
In an alternative embodiment, the server sends a request to the client to establish a distributed federated time series graph neural network, the request message including a request for data sources required for training. Preferably, these data are metadata, e.g., descriptive information about value flows, demand flows, business flows, etc. The client
If the client is willing to participate, the server will feed back a message indicating that it will receive the request.
can actively send a request message to the server to participate in graph neural network training, and the server can
Choose whether or not you agree to participate in the
If the client agrees to participate in
Establish a distributed collaborative time series graph neural network model.
In the present invention, the local parameters (local network parameters) of the distributed linked time-series graph neural network model corresponding to the client include a local feature change matrix, a local weight and a local loss, and the global parameters (global network parameters) of the distributed linked time-series graph neural network model include at least a global weight, a global feature transformation matrix and a global loss.
About distributed and linked time series graph neural network model,
The global loss function of the model at time is
and the local loss function is
It is expressed as
The global loss function of the model at time is
and the local loss function is
That is,
The global loss of the distributed time series graph neural network model at time is
and the local loss is
and
The global loss of the model at time
and the local loss function is
It is.
As shown in FIG. 2, nodes A, B, C, D, and E correspond to clients A, B, C, D, and E, respectively.
The local network parameters at time are at least the local feature transformation matrix
, local weights
and local losses
In the present invention, the local loss
indicates the loss of the distributed, linked time-series graph neural network model corresponding to client A, and the loss is calculated by the loss function of the model.
The local network parameters at time are at least the local feature transformation matrix
, local weights
and local losses
, and correspondingly, each of the other nodes, such as node B, node C, node D, node E, etc., includes a corresponding local network parameter (not shown) at a corresponding time.
At this point, the global network parameters in the server are at least the global feature transformation matrix
, global weight
and Global Loss
Including,
At this point, the global feature transformation matrix in the server
, global weight
and Global Loss
where
indicates a point in time, time, or timing. Referring to Fig. 2, node B can communicate with only three nodes, namely, the server, node A, and node C, and node D can communicate with only four nodes, namely, the server, node A, node C, and node E. Similarly, the description of other nodes will be omitted in this specification and later.
S102, data for training the distributed linked time series graph neural network model is acquired.
The server is the client
When a client agrees to participate in training a distributed federated time-series graph neural network, the server
a consent token to the client,
is used to participate in training the graph neural network. In an alternative embodiment, the client
The neighbor list is a list of neighbors who are willing to participate in the modeling of neighbors with related data, i.e., to train a distributed federated time series graph neural network model of a multi-value chain.
where the neighbor list is determined by the client
Excluding itself,
is the client's serial number,
is a natural number, or
is a positive integer.
It should be understood that each client can obtain node information of the node where the client is located and edge information between the node where the client is located and the node where the adjacent client of the client is located, and thus the distributed time series graph data of the client is formed. That is, the distributed time series graph data of each client includes node information of the node where the client is located and edge information between the node where the client is located and the node where the adjacent client of the client is located.
Optionally, the node information of the node where the client is located in the distributed time series graph data may include node identification information or other information, for example, the node identification information may be a node serial number, name, etc. In different application scenarios, the specific content of the node information may be different. The edge information between the node where the client is located and the node where the client's adjacent client is located may include edge identification information or other information, for example, the edge identification information may be an edge name or number, etc. Similarly, in different application scenarios, the specific content of the edge information may be different.
Logically aggregate the distributed time series graph data of all clients to generate the entire distributed time series graph data
where:
indicates a point in time, time or timing,
denotes a set of nodes, and each node
indicates one client, i.e. one company,
denotes the set of edges at time t, and each edge
is a label vector
(the edge label vector is also called the edge label),
is a node
and
It indicates whether there is cooperation, demand flow, business flow, and value flow between them.
In addition, the above
is a logical distributed time series graph data, and the server is a complete distributed time series graph data
The server does not know about the node set.
However, the set of edges
, the edge label vector
It is not possible to obtain
Based on the above, in the present invention, the feature learning network in the distributed linked time series graph neural network model is used to output the feature vector of the node where each client is located based on the distributed time series graph data of each client at a historical point in time and the feature vector of the node where each client's adjacent clients are located.
The label prediction network in the distributed collaborative time-series graph neural network model is used to output predicted values of edges between the node in which each client is located and the nodes in which each client's adjacent clients are located, based on the feature vector of the node in which each client is located.
The functions of each client and server are as follows:
Each client
is a graph
The client in
The node corresponding to
Related calculations of,
and the associated calculations include:
1) Node
Calculate the feature vector of node
and its adjacent nodes
Weight of the connecting edge of
where:
is a node
Indicates the serial number of
is the adjacent node
Indicates the serial number of the
2) Send and/or receive feature vectors of nodes, e.g., a client
Client to client adjacent to
The client transmits the feature vector of the node where the client is located, or receives the feature vector of the node where the neighboring client is located from the neighboring client.
3) Perform backpropagation based on the local loss (backpropagation is prior art in the field).
client
is the node where the neighboring client is located.
You can get the client
The edge between the node where the client is located and the node where the client is located
, and the edge labels
Preferably, the node
and adjacent nodes
The edge of
Time point weighting
is the edge label
It is.
The function of the server is to coordinate the entire training process of the distributed federated time-series graph neural network model, including collecting the losses of each client, calculating the global loss (i.e., receiving the local losses of the distributed federated time-series graph neural network model from each client), updating the global parameters using the Adam algorithm, and initiating backpropagation on all client sides. As shown in FIG. 2, the server may be a third-party server, the server may be one or more, and the related functions may be implemented by a distributed server cluster.
In one embodiment, the neural network may reside on a server.
In one embodiment, the neural network on the server is different from the neural network on the client, and preferably the neural network on the server is a Recurrent Neural Network (RNN), a Long Short Term Memory (LSTM), or a similar network.
The network may be implemented by any one or more combinations of neural networks such as a long short-term memory network (LOSM), a type of special recurrent neural network, a graph neural network (GNN), a graph attention network (GAT), or a graph transformer. In some embodiments, when the server generates the current time parameters (global network parameters), it can take into account the parameter data in the server at the historical time, and broadcast the generated current time parameters to all clients or designated clients.
In another embodiment, the neural network on the server is similar to the neural network on the client and is part of a distributed neural network, with the server corresponding to one node of the distributed neural network.
In another embodiment, there is no neural network on the server, but simply processes the data uploaded by all clients at each point in time. For privacy purposes, the third-party server does not
Without knowing the global topology structure information of the graph, i.e.,
However, we can know the edges of the graph.
Since the nodes cannot know the identity of the node, the privacy of each node is protected.
S103, each client interacts with the server to train a distributed collaborative time series graph neural network model.
(1) The client updates the feature vector of the node based on the feature learning network. The process of updating the feature vector of the node by the client is as follows: For each client participating in the distributed federated time series graph neural network model training, each client updates the feature vector of the node based on the feature learning network.
generating a feature vector of a node where each client is located based on the distributed time series graph data of each client at a time instant (a point in time) and a feature vector of a node where an adjacent client of each client is located, where the feature vector of the node is used to characterize information of an edge between the node where each client is located and a node where an adjacent client of each client is located.
First, based on the feature learning network, node feature learning is performed using graph snapshots at each time point, where the graph snapshots at each time point refer to distributed time series graph data at a certain time point, and then the multi-time graph data is used to learn the temporal evolution characteristics of the node features, and the feature vectors of the nodes obtained by learning are used to predict the edges of the graph. Note that the feature learning network includes multiple layers (or feature learning layers), for example:
layers, where the first
The layer is used to generate a feature vector of the node where the client is located based on the client's local distributed time series graph data (i.e., the client's local original data), and the remaining layers are ...
It is used to update the feature vector obtained from the layer.
Specifically, the serial numbers of multiple clients participating in the distributed collaborative time series graph neural network model training
Client (Client i or Client
The value of
For example, the client
is an arbitrary client among multiple clients.
The client further
Neighboring clients of
From adjacent clients
Receive the feature vector generated by, e.g.,
via the Internet
Send a request to
Obtain the feature vector of the node where
is all neighboring clients
The feature vector of the node in which is located is received.
For example, during the process of training a distributed time series graph neural network model,
In the repetition of the round,
The first distributed and connected time series graph neural network at
About the layer, client
is a client
A kind of update rule for updating the feature vector of the node where is located is (i.e., the client
The feature vector of the node where is located is:
where
teeth
Client at the time
The first feature learning network corresponding to
Clients output from layers
denotes the feature vector of the node in which
teeth
Client at the time
Neighboring clients of
The first feature learning network corresponding to
Neighboring clients output from the layer
indicates the feature vector of the node where
is a client
is a client
received from
teeth
Client at the time
The first feature learning network corresponding to
Clients output from layers
denotes the feature vector of the node in which
indicates an aggregation operation,
denotes linear operation,
denotes the local feature transformation matrix.
Selectable,
Aggregation methods include any one or combination of summing, averaging, maximizing, etc.
Client i:
Global feature transformation matrix for time points
Send a request to the server to get
Global feature transformation matrix for time points
, i.e., we calculate the timing effect of multi-temporal graph neural network training with weight matrices.
Using
Linearly transform the client
The node where
The final feature vector in the layer
Get the.
By repeating the above steps, the feature vectors of the nodes in each layer in the feature learning network are calculated.
The first distributed and connected time series graph neural network at
About the layer, client
is a client
Another update rule for updating the feature vector of the node where is located is (i.e., the client
The feature vector of the node where is located is:
where
teeth
Client at the time
The first feature learning network corresponding to
Clients output from layers
denotes the feature vector of the node in which
teeth
Client at the time
Neighboring clients of
The first feature learning network corresponding to
The output from the layer is the feature vector of the node where client j is located,
teeth
Client at the time
The first feature learning network corresponding to
Clients output from layers
denotes the feature vector of the node in which
indicates an aggregation operation,
denotes linear operation,
denotes the local feature transformation matrix,
is a client
The node and client where
Neighboring clients of
indicates the correlation coefficient between the nodes where
In addition, during the training process of the distributed and linked time series graph neural network, message passing and back propagation are performed via the Internet, which requires a large amount of communication and takes a long time. Nodes in a graph have degrees, and the degree of a node indicates the number of edges connected to a node. In some cases, there is a large difference between the degrees of nodes in a graph, for example, the degrees of nodes in a scale-free network have an exponential distribution, with a small number of nodes having very large degrees and most of the nodes having very small degrees. The number of messages sent/received by a node is proportional to the degree of the node, and a node with a large degree becomes the performance bottleneck of the entire distributed and linked time series graph neural network model. To address this issue, a client may use the feature vectors of the nodes where neighboring clients are located to aggregate the feature vectors of the nodes.
is each adjacent node
Correlation coefficient of
The method learns the correlation coefficients and combines them to aggregate feature vectors.
In one embodiment, the final global loss function
By regularizing , the correlation coefficients of most neighboring nodes tend to be zero, while the absolute values of the correlation coefficients of a few neighboring nodes tend to be much larger than zero.
Preferably, the regularization method is
This is regularization.
or
This is regularization.
Through regularization, the correlation coefficients of most adjacent nodes are zero, and the absolute values of the correlation coefficients of a small number of adjacent nodes are much larger than zero. Thus, when aggregating the feature vectors of adjacent nodes, the client can select adjacent nodes, and the client does not aggregate the feature vectors of all adjacent nodes, but rather aggregates the feature vectors of some of the most relevant adjacent nodes, i.e., the adjacent node set
Most relevant
It is possible to update neighbors, retain a small number of important neighbors, and remove unimportant neighbors, thereby reducing the number of communication messages generated by forward propagation and backward propagation during the training process of the distributed linked time series graph neural network, and greatly improving communication efficiency.
Optionally, in this embodiment, each client among the multiple clients can select an adjacent node, or some clients among the multiple clients can select an adjacent node, which is not limited in this embodiment of the present invention.
In one embodiment, the server records the response time of each client until the forward propagation is complete, sorts all clients in descending order according to their response time, and selects the client with the longest response time.
Select nodes for regularization, with the longest response time.
This client may be notified to reduce the number of neighbors.
(2) The client generates local network parameters of a distributed, collaborative time-series graph neural network model.
Each client generates local network parameters of its distributed, linked time-series graph neural network model based on the feature vector of the node where the client is located, and transmits the local network parameters to the server.
A specific process of each client generating local network parameters of the distributed-linked time-series graph neural network model for each client based on the feature vector of the node where each client is located includes: each client inputs the feature vector of the node where each client is located into a label prediction network corresponding to each client, generates a predicted value of the edge between the node where each client is located and the node where each client's adjacent client is located; each client determines a local loss of the distributed-linked time-series graph neural network model based on the predicted value of the edge between the node where each client is located and the node where each client's adjacent client is located and the true value of the edge; and each client performs back propagation based on the local loss to generate local network parameters of the distributed-linked time-series graph neural network model for each client.
The above clients
For example, the client
The label prediction network uses a fully connected layer to predict the client
The node and client where
Clients adjacent to
The edge between the nodes where
Calculate the predicted value of the label of (i.e. edge
(Predict the label vector of the client output from the feature learning network.)
The feature vector of the node where is located is input to the label prediction network, and the client
The node and client where
Neighboring clients of
The client outputs the predicted edge of the node where
is the global weight of the edge prediction fully connected layer from the server.
and obtain the global weight
Based on the edge
Calculate the predicted value of the label of edge
The predicted values of the labels are expressed as a label vector
Let,
is determined by the following formula:
here,
The client
The node and client where
is a distance function indicating the distance between the nodes where are located. Optionally, the distance function may adopt the cosine distance, the Euclidean distance or the Mahalanobis distance.
In addition, the client i determines a local loss (also referred to as a local edge loss) of the distributed federated time-series graph neural network model corresponding to the client i according to the following local loss function (also referred to as a local edge loss function), where the local loss function is:
where:
denotes the local loss,
Edge
indicates the true value of the label,
Edge
The predicted value of the label is shown.
Finally, the client
are the local network parameters and the local loss
to the server.
(3) The server updates the global network parameters. The server obtains the global network parameters of the distributed federated time-series graph neural network model based on the local network parameters sent by each client, and broadcasts the global network parameters to each client.
The server
Global weight matrix for time points
Global weight matrix for time points
is used to calculate the RNN, GRU, LSTM or Transf
Global weight matrix using ORMER
Optionally, the server may be configured to calculate the
to all clients, reducing the latency for clients to receive the global network parameters.
First, the server determines a global loss of the distributed federated time-series graph neural network model based on the local losses sent by each client, and the global loss is the sum of the local losses of each client and a regularization term, i.e.,
here,
is the sum of the local losses of each client,
is the regularization term.
Then, the server performs backpropagation based on the local network parameters and the global loss sent by each client to obtain the global network parameters of the distributed federated time-series graph neural network model.
The dam algorithm is used to optimize the parameters of the distributed, linked time series graph neural network model, and the server updates the global network parameters:
,
and
denotes the number of global network parameters.
In one embodiment, the server broadcasts global network parameters to the clients to initiate backpropagation for all clients.
In another embodiment, the server broadcasts the global network parameters to the clients, and the clients then decide whether to start backpropagation. The clients update the local network parameters and the correlation coefficient matrix
Responsible for updating.
In an embodiment of the present invention, each client updates the network parameters of its distributed, collaborative time-series graph neural network model using the global network parameters broadcast by the server.
Optionally, in an embodiment of the present invention, a blockchain may be established, and communication traffic such as feature vectors, parameters, and gradients of nodes between client-client and server-client may be deposited in the blockchain to prevent repudiation and support auditing of privacy violations of the server and client.
S104, the client predicts the labels of the edges.
In an embodiment of the present invention, after completing the training of the distributed-linked time-series graph neural network model by the above S101 to S103, each client inputs the distributed time-series graph data of each client at the current time point into the updated distributed-linked time-series graph neural network model, and outputs a predicted value of the edge between the node where each client is located and the node where each client's adjacent client is located.
In one embodiment,
Edge at a time
To predict the label of
Time series graph data distribution
The distributed and linked time series graph neural network model of S101 to S103 is trained using the above, and the distributed and linked time series graph neural network model is
Distributed time series graph data, i.e.
Inform the client that they will enter the following information.
is the edge to be predicted from the distributed time series graph data of the client.
Finally, the edge
It represents outputting the predicted value of the label.
Similarly,
Edge of Time
To predict the label of
Dispersion graph data of time
We train a distributed,connected time series graph neural network model using
Distributed time series graph data, i.e.
The client is notified that it will enter the
Output the predicted value of the label.
In summary, in the method for predicting the evolution of a multi-value chain provided by the present invention, each client participating in the training of the distributed federated time series graph neural network model can only obtain edge information between the nodes where the client and its adjacent clients are located, and the server can only obtain information of the nodes where all clients are located, and if the client does not share local original data (i.e., the distributed time series graph data generated locally by the client, the distributed time series graph data includes node information and edge information), each client interacts with the server to train a global distributed federated time series graph neural network model applicable to each client, and further dynamically predicts the edges between the nodes where each client is located in the multi-value chain and the nodes where its adjacent clients are located.
In an embodiment of the present invention, after obtaining prediction results of edges between nodes where each client in a multi-value chain is located based on a distributed collaborative time series graph neural network model, the state of each entity and the relationship between each entity can be dynamically predicted based on the edge prediction results.
In one embodiment, the method predicts future value flows between companies based on the edge prediction results.
Network traffic such as demand flow, business flow, and technology flow can be dynamically predicted, for example, product sales volume. In a multi-value chain digital ecosystem, when predicting the sales of an enterprise, accurate prediction results cannot be obtained only with the enterprise's internal data, and it is necessary to comprehensively utilize the data of related enterprises upstream and downstream of the enterprise's value chain. For example, clients such as retailers, distributors, and manufacturing plants input local data (data related to sales volume) into a distributed federation time series graph neural network model, predict the feature vector of the node through the feature learning network, and obtain the predicted value of product sales volume through the label prediction network (i.e., the predicted value of the edge of the model prediction is the predicted value of product sales volume). As can be seen, a distributed federation time series graph neural network model is established based on the local privacy data of each client to predict product sales volume, and the data of related enterprises upstream and downstream of the target enterprise's value chain is comprehensively utilized for distributed training to achieve more accurate sales volume prediction.
In another embodiment, the method can dynamically predict the relationship between each entity and the state of each entity based on the edge prediction result, that is, predict the evolution state of the enterprise node on the multi-value chain. For example,
About the node
If the predicted value of an edge connected to
or
If it is predicted that the trend will change continuously towards
This means that there is no cooperative relationship between any node and the other end of the edge. For example,
About the node
The predicted values of all edges connected to
or
is predicted to have a continuous tendency to change toward
The evolutionary state of is "extinct", i.e., the corresponding client
The evolutionary state of is "extinction".

Claims (9)

分散連携時系列グラフニューラルネットワークモデル訓練に参加するクライアント中の各
クライアントについて、前記各クライアントは、歴史時点における前記各クライアントの
分散時系列グラフデータおよび前記各クライアントの隣接するクライアントが位置するノ
ードの特徴ベクトルに基づいて、前記各クライアントが位置するノードの特徴ベクトルを
生成し、前記特徴ベクトルは前記各クライアントが位置するノードと前記各クライアント
の隣接するクライアントが位置するノード間のエッジの情報を特徴付けるために使用され
、各クライアントの分散時系列グラフデータは、前記各クライアントが位置するノードの
ノード情報および前記各クライアントが位置するノードと前記各クライアントの隣接する
クライアントが位置するノード間のエッジの情報を含むこと、
前記各クライアントは、前記各クライアントが位置するノードの特徴ベクトルに基づいて
、前記各クライアントの分散連携時系列グラフニューラルネットワークモデルのローカル
ネットワークパラメータを生成し、前記ローカルネットワークパラメータをサーバーに送
信すること、
前記サーバーは、各クライアントから送信された前記ローカルネットワークパラメータに
基づいて、前記分散連携時系列グラフニューラルネットワークモデルのグローバルネット
ワークパラメータを取得し、前記グローバルネットワークパラメータを前記各クライアン
トにブロードキャストすること、
前記各クライアントは、前記グローバルネットワークパラメータを用いて前記各クライア
ントの分散連携時系列グラフニューラルネットワークモデルのネットワークパラメータを
更新し、現在時点での前記各クライアントの分散時系列グラフデータを更新後の分散連携
時系列グラフニューラルネットワークモデルに入力し、前記各クライアントが位置するノ
ードと前記各クライアントの隣接するクライアントが位置するノード間のエッジの予測値
を出力すること、を含む、ことを特徴とするマルチバリューチェーン進化の予測方法。
For each of the clients participating in the training of the distributed federated time series graph neural network model, the client generates a feature vector of the node where the client is located based on the distributed time series graph data of the client at the historical time point and the feature vector of the node where the adjacent client of the client is located, the feature vector is used to characterize information of the edge between the node where the client is located and the node where the adjacent client of the client is located, the distributed time series graph data of the client includes node information of the node where the client is located and information of the edge between the node where the client is located and the node where the adjacent client of the client is located;
Each of the clients generates local network parameters of the distributed collaborative time-series graph neural network model of each of the clients based on the feature vector of the node where the each of the clients is located, and transmits the local network parameters to a server;
The server obtains global network parameters of the distributed federated time-series graph neural network model based on the local network parameters transmitted from each client, and broadcasts the global network parameters to each client;
each of the clients updates a network parameter of the distributed collaborative time series graph neural network model of the each of the clients using the global network parameter, inputs the distributed time series graph data of the each of the clients at a current time point into the updated distributed collaborative time series graph neural network model, and outputs a predicted value of an edge between a node where the each of the clients is located and a node where an adjacent client of the each of the clients is located.
前記ローカルネットワークパラメータは少なくとも、ローカル重み、ローカル特徴変換行
列およびローカル損失を含み、
前記グローバルネットワークパラメータは少なくとも、グローバル重み、グローバル特徴
変換行列およびグローバル損失を含む、ことを特徴とする請求項1に記載の方法。
The local network parameters include at least a local weight, a local feature transformation matrix, and a local loss;
The method of claim 1 , wherein the global network parameters include at least a global weight, a global feature transformation matrix, and a global loss.
前記分散連携時系列グラフニューラルネットワークモデルは特徴学習ネットワークおよび
ラベル予測ネットワークを含み、
ここで、前記特徴学習ネットワークは、歴史時点での前記各クライアントの分散時系列グ
ラフデータおよび前記各クライアントの隣接するクライアントが位置するノードの特徴ベ
クトルに基づいて、前記各クライアントが位置するノードの特徴ベクトルを出力するため
に使用され、前記ラベル予測ネットワークは、前記各クライアントが位置するノードの特
徴ベクトルに基づいて、前記各クライアントが位置するノードと前記各クライアントの隣
接するクライアントが位置するノードのエッジの予測値を出力するために使用され、前記
特徴学習ネットワークはメッセージパッシング層からなり、前記ラベル予測ネットワーク
は完全接続層からなる、ことを特徴とする請求項1または2に記載の方法。
The distributed federated time series graph neural network model includes a feature learning network and a label prediction network,
The method according to claim 1 or 2, wherein the feature learning network is used to output a feature vector of a node in which each of the clients is located based on the distributed time series graph data of each of the clients at a historical point in time and the feature vector of a node in which an adjacent client of each of the clients is located, and the label prediction network is used to output a predicted value of an edge between the node in which each of the clients is located and a node in which an adjacent client of each of the clients is located based on the feature vector of the node in which each of the clients is located, the feature learning network being composed of a message passing layer, and the label prediction network being composed of a fully connected layer.
前記各クライアントがクライアント
である場合、前記クライアント
が位置するノードの特徴ベクトルは、
を満たし、ここで、

時点における前記クライアント
に対応する特徴学習ネットワークの第
層から出力された前記クライアントiが位置するノードの特徴ベクトルを示し、

時点における前記クライアント
の隣接するクライアント
に対応する特徴学習ネットワークの第
層から出力された前記隣接するクライアント
が位置するノードの特徴ベクトルを示し、

時点における前記クライアント
に対応する特徴学習ネットワークの第
層から出力された前記クライアント
が位置するノードの特徴ベクトルを示し、
は集約演算を示し、
は線形演算を示し、
はローカル特徴変換行列を示す、ことを特徴とする請求項3に記載の方法。
Each of the clients is a client
If so, the client
The feature vector of the node where is located is
where
teeth
The client at the time
The first feature learning network corresponding to
Denote the feature vector of the node where the client i is located, output from the layer,
teeth
The client at the time
Neighboring clients of
The first feature learning network corresponding to
The adjacent clients output from the layer
denotes the feature vector of the node in which
teeth
The client at the time
The first feature learning network corresponding to
The client output from the layer
denotes the feature vector of the node in which
indicates an aggregation operation,
denotes linear operation,
4. The method of claim 3, wherein: denotes a local feature transformation matrix.
前記各クライアント
が位置するノードの特徴ベクトルは、
を示し、ここで、

時点における前記クライアント
に対応する特徴学習ネットワークの第
層から出力された前記クライアント
が位置するノードの特徴ベクトルを示し、

時点における前記クライアント
の隣接するクライアント
に対応する特徴学習ネットワークの第
層から出力された前記隣接するクライアント
が位置するノードの特徴ベクトルを示し、

時点における前記クライアント
に対応する特徴学習ネットワークの第
層から出力された前記クライアント
が位置するノードの特徴ベクトルを示し、
は集約演算を示し、
は線形演算を示し、
はローカル特徴変換行列を示し、
は前記クライアント
が位置するノードと前記クライアント
の隣接するクライアント
が位置するノード間の相関係数を示す、ことを特徴とする請求項3に記載の方法。
Each of the above clients
The feature vector of the node where is located is
where:
teeth
The client at the time
The first feature learning network corresponding to
The client output from the layer
denotes the feature vector of the node in which
teeth
The client at the time
Neighboring clients of
The first feature learning network corresponding to
The adjacent clients output from the layer
denotes the feature vector of the node in which
teeth
The client at the time
The first feature learning network corresponding to
The client output from the layer
denotes the feature vector of the node in which
indicates an aggregation operation,
denotes linear operation,
denotes the local feature transformation matrix,
The client
The node where the client is located and the
Neighboring clients of
4. The method of claim 3, wherein: t denotes a correlation coefficient between the nodes in which t is located.
前記各クライアントは、前記各クライアントが位置するノードの特徴ベクトルに基づいて
、前記各クライアントの分散連携時系列グラフニューラルネットワークモデルのローカル
ネットワークパラメータを生成することは、
前記各クライアントは、前記各クライアントが位置するノードの特徴ベクトルを前記各ク
ライアントに対応するラベル予測ネットワークに入力し、前記各クライアントが位置する
ノードと前記各クライアントの隣接するクライアントが位置するノード間のエッジの予測
値を生成すること、
前記各クライアントは、前記各クライアントが位置するノードと前記各クライアントの隣
接するクライアントが位置するノード間のエッジの予測値および前記エッジの真の値に基
づいて、前記分散連携時系列グラフニューラルネットワークモデルのローカル損失を決定
すること、
前記各クライアントは、前記ローカル損失に基づいて逆伝播を実行し、前記各クライアン
トの分散連携時系列グラフニューラルネットワークモデルのローカルネットワークパラメ
ータを生成すること、を含む、ことを特徴とする請求項3に記載の方法。
Each of the clients generates local network parameters of the distributed collaborative time-series graph neural network model of the each of the clients based on the feature vector of the node in which the each of the clients is located.
Each of the clients inputs a feature vector of the node in which the client is located into a label prediction network corresponding to the client, and generates a predicted value of an edge between the node in which the client is located and a node in which an adjacent client of the client is located;
Each of the clients determines a local loss of the distributed federated time-series graph neural network model based on a predicted value of an edge between a node where the each client is located and a node where an adjacent client of the each client is located and a true value of the edge;
4. The method of claim 3, further comprising: each of the clients performing backpropagation based on the local loss to generate local network parameters of the distributed federated time-series graph neural network model of the each of the clients.
前記方法は、
前記各クライアントが前記サーバーに前記分散連携時系列グラフニューラルネットワーク
モデルのローカル損失を送信すること、
前記サーバーが各クライアントから送信されたローカル損失に基づいて、前記分散連携時
系列グラフニューラルネットワークモデルのグローバル損失を決定すること、をさらに含
み、
前記サーバーが各クライアントから送信された前記ローカルネットワークパラメータに基
づいて、前記分散連携時系列グラフニューラルネットワークモデルのグローバルネットワ
ークパラメータを取得することは、
前記サーバーが各クライアントから送信された前記ローカルネットワークパラメータおよ
び前記グローバル損失に基づいて逆伝播を実行し、前記分散連携時系列グラフニューラル
ネットワークモデルのグローバルネットワークパラメータを取得すること、を含む、こと
を特徴とする請求項1または2に記載の方法。
The method comprises:
each of the clients sending a local loss of the distributed federated time-series graph neural network model to the server;
The server determines a global loss of the distributed federated time-series graph neural network model based on the local losses sent from each client;
The server obtains global network parameters of the distributed federated time-series graph neural network model based on the local network parameters transmitted from each client,
3. The method of claim 1, further comprising: performing backpropagation on the local network parameters and the global loss sent from each client to obtain global network parameters of the distributed federated time-series graph neural network model.
サーバーと複数のクライアントを備え、前記複数のクライアントは分散連携時系列グラフ
ニューラルネットワークモデルの訓練に参加し、前記サーバーは前記複数のクライアント
中の各クライアントと相互に作用して、請求項7に記載の方法を実行することにより、前
記分散連携時系列グラフニューラルネットワークモデルを訓練し、前記分散連携時系列グ
ラフニューラルネットワークモデルに基づいて、マルチバリューチェーン中の各クライア
ントが位置するノードと前記各クライアントの隣接するクライアントが位置するノード間
のエッジを予測する、ことを特徴とするマルチバリューチェーン進化の予測システム。
A system for predicting the evolution of a multi-value chain, comprising: a server and a plurality of clients, the plurality of clients participating in training a distributed-linked time-series graph neural network model, the server interacting with each of the plurality of clients to train the distributed-linked time-series graph neural network model by executing the method of claim 7, and predicting edges between a node in which each client in a multi-value chain is located and a node in which an adjacent client of each of the clients is located based on the distributed-linked time-series graph neural network model.
コンピュータプログラム命令が記憶されており、前記コンピュータプログラム命令がマル
チコアプロセッサによって実行されると、前記マルチコアプロセッサに請求項7に記載の
方法を実行させる、ことを特徴とするコンピュータ可読記憶媒体。
10. A computer readable storage medium having stored thereon computer program instructions which, when executed by a multi-core processor, cause the multi-core processor to perform the method of claim 7.
JP2024076248A 2023-05-22 2024-05-09 Method, system and storage medium for predicting evolution of multi-value chains Active JP7527535B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202310580677.6 2023-05-22
CN202310580677.6A CN116542323A (en) 2023-05-22 2023-05-22 Training prediction method, system and storage medium for multivalent value chain evolution

Publications (1)

Publication Number Publication Date
JP7527535B1 true JP7527535B1 (en) 2024-08-05

Family

ID=87455927

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2024076248A Active JP7527535B1 (en) 2023-05-22 2024-05-09 Method, system and storage medium for predicting evolution of multi-value chains

Country Status (2)

Country Link
JP (1) JP7527535B1 (en)
CN (1) CN116542323A (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117688425B (en) * 2023-12-07 2024-07-16 重庆大学 Multi-task graph classification model construction method and system for Non-IID graph data
CN118313413B (en) * 2024-06-11 2024-08-13 烟台大学 Heterogeneous graph neural network-based Internet of things link prediction method and system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015194863A (en) 2014-03-31 2015-11-05 株式会社日立ソリューションズ西日本 Value chain analysis device and method
JP6748250B1 (en) 2019-03-07 2020-08-26 株式会社三井住友銀行 Value Chain Rating System, Method and Program
CN113420232A (en) 2021-06-02 2021-09-21 杭州电子科技大学 Privacy protection-oriented graph neural network federal recommendation method
WO2022057694A1 (en) 2020-09-16 2022-03-24 International Business Machines Corporation Semantic learning in federated learning system
WO2022133330A1 (en) 2020-12-18 2022-06-23 Strong Force Vcn Portfolio 2019, Llc Robot fleet management and additive manufacturing for value chain networks

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015194863A (en) 2014-03-31 2015-11-05 株式会社日立ソリューションズ西日本 Value chain analysis device and method
JP6748250B1 (en) 2019-03-07 2020-08-26 株式会社三井住友銀行 Value Chain Rating System, Method and Program
WO2022057694A1 (en) 2020-09-16 2022-03-24 International Business Machines Corporation Semantic learning in federated learning system
WO2022133330A1 (en) 2020-12-18 2022-06-23 Strong Force Vcn Portfolio 2019, Llc Robot fleet management and additive manufacturing for value chain networks
CN113420232A (en) 2021-06-02 2021-09-21 杭州电子科技大学 Privacy protection-oriented graph neural network federal recommendation method

Also Published As

Publication number Publication date
CN116542323A (en) 2023-08-04

Similar Documents

Publication Publication Date Title
JP7527535B1 (en) Method, system and storage medium for predicting evolution of multi-value chains
Kang et al. Incentive mechanism for reliable federated learning: A joint optimization approach to combining reputation and contract theory
Wang et al. Multi-agent imitation learning for pervasive edge computing: A decentralized computation offloading algorithm
Guo et al. TFL-DT: A trust evaluation scheme for federated learning in digital twin for mobile networks
Jiang et al. Scalable mobile crowdsensing via peer-to-peer data sharing
Yu et al. A survey of multi-agent trust management systems
Yu et al. LayerChain: A hierarchical edge-cloud blockchain for large-scale low-delay industrial Internet of Things applications
Wu et al. Multi-agent DRL for joint completion delay and energy consumption with queuing theory in MEC-based IIoT
CN113435472A (en) Vehicle-mounted computing power network user demand prediction method, system, device and medium
Tos et al. Dynamic replication strategies in data grid systems: a survey
Liao et al. Accurate sub-swarms particle swarm optimization algorithm for service composition
Song et al. Blockchain-based flexible double-chain architecture and performance optimization for better sustainability in agriculture
CN111324429B (en) Micro-service combination scheduling method based on multi-generation ancestry reference distance
Huang et al. Collective reinforcement learning based resource allocation for digital twin service in 6G networks
Yang et al. Distributed maritime transport communication system with reliability and safety based on blockchain and edge computing
Muccini et al. Leveraging machine learning techniques for architecting self-adaptive iot systems
Dangi et al. 5G network traffic control: a temporal analysis and forecasting of cumulative network activity using machine learning and deep learning technologies
Huang et al. Reinforcement learning for cost-effective IoT service caching at the edge
Cakir et al. Ai in energy digital twining: A reinforcement learning-based adaptive digital twin model for green cities
Hsieh et al. Deep reinforcement learning-based task assignment for cooperative mobile edge computing
Wang et al. Joint admission control and resource allocation of virtual network embedding via hierarchical deep reinforcement learning
Jitani et al. Structure-aware reinforcement learning for node-overload protection in mobile edge computing
CN111487873A (en) Energy internet energy dispersion cooperative control method
CN114385359B (en) Cloud edge task time sequence cooperation method for Internet of things
Liu et al. Enhancing tit-for-tat for incentive in BitTorrent networks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240509

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20240509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240612

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240618

R150 Certificate of patent or registration of utility model

Ref document number: 7527535

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150