JP2020144614A - Task decentralization processing system - Google Patents

Task decentralization processing system Download PDF

Info

Publication number
JP2020144614A
JP2020144614A JP2019040944A JP2019040944A JP2020144614A JP 2020144614 A JP2020144614 A JP 2020144614A JP 2019040944 A JP2019040944 A JP 2019040944A JP 2019040944 A JP2019040944 A JP 2019040944A JP 2020144614 A JP2020144614 A JP 2020144614A
Authority
JP
Japan
Prior art keywords
task
processing
management server
processing system
present
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019040944A
Other languages
Japanese (ja)
Inventor
悠莉 石田
Yuri Ishida
悠莉 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Visual Network System Pte Ltd
Original Assignee
Visual Network System Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Visual Network System Pte Ltd filed Critical Visual Network System Pte Ltd
Priority to JP2019040944A priority Critical patent/JP2020144614A/en
Publication of JP2020144614A publication Critical patent/JP2020144614A/en
Pending legal-status Critical Current

Links

Abstract

To reduce the processing load of a task with a large amount of information.SOLUTION: The present invention is a system in which task decentralization processing is performed between a management server and a plurality of processing devices. The management server divides an acquired task and sends divided tasks to the processing devices according to a predetermined condition. Each of the processing devices processes the acquired task. In the task division, at least the size thereof is determined according to a processing terminal in which processing is scheduled.SELECTED DRAWING: Figure 1

Description

本発明はタスク分散処理システムに関する。 The present invention relates to a task distributed processing system.

近年、ビットコイン(登録商標)等の暗号通貨(Crypt Currency)の取引のためにP2P型のシステムが利用されている(例えば、特許文献1参照)。 In recent years, a P2P type system has been used for trading cryptocurrencies such as Bitcoin (registered trademark) (see, for example, Patent Document 1).

特に、最近では、ブロックチェーンネットワークにおけるマイニングのプール管理者を報酬の受領者とし、参加するマイナーに同じブロックをマイニングさせ、マイニングに成功した際にプール管理者に支払われた報酬をマイニングの仕事量に応じて、参加者で分配する仕組みも提案されている。 In particular, recently, the pool manager of mining in the blockchain network is the recipient of the reward, the participating miners are made to mine the same block, and the reward paid to the pool manager when the mining is successful is the amount of mining work. A mechanism for distributing among participants has also been proposed.

特許第6326173号公報Japanese Patent No. 6326173

上記のようなブロックチェーンネットワークの維持に必要な計算量(例えば、GPUによるハッシュパワー)は、膨大な計算を行う能力があるにもかかわらず、マイニングしか行っていないことから、効率的に稼働しているとは言えない。 The amount of calculation required to maintain the blockchain network as described above (for example, hash power by GPU) operates efficiently because it only performs mining despite its ability to perform enormous calculations. I can't say that.

そこで、本発明は、ブロックチェーンネットワークを維持するリソースの効率的な稼働を行うことを目的とする。 Therefore, an object of the present invention is to efficiently operate the resources for maintaining the blockchain network.

自動運転車で使用されるような最近のディーニューラルネットワークでは、膨大な量のコンピューティング能力が要求される。特に、最近のニューラルネットワークに必要なコンピューティング能力とトレーニングに必要なデータセットサイズを考慮に入れると、所謂スーパーコンピューターであっても十分でないのが現状である。 Modern de-neural networks, such as those used in self-driving cars, require enormous amounts of computing power. In particular, considering the computing power required for recent neural networks and the dataset size required for training, the current situation is that even a so-called supercomputer is not sufficient.

例えば、自動運転車のように、安全が極めて重要で、検出精度要件がインターネット業界よりもはるかに高いシステムでは、天候条件、視野、路面の状態にかかわらず、不具合なく動作することが求められる。このレベルの認識精度を達成するため、発生しうる運転操作、天候、状況の条件すべての実例などからなるサンプルデータセットで、ニューラルネットワークをトレーニングする必要がある。本発明はかかる状況に鑑み、発案されたものである。 For example, systems where safety is extremely important and detection accuracy requirements are much higher than in the Internet industry, such as self-driving cars, are required to operate without problems regardless of weather conditions, field of view, or road surface conditions. To achieve this level of recognition accuracy, it is necessary to train the neural network with a sample dataset consisting of examples of all possible driving operations, weather, and situational conditions. The present invention has been invented in view of such circumstances.

即ち、本発明によれば
管理サーバと複数の処理装置とをタスク分散処理システムであって、
管理サーバは、取得したタスクを分割し、所定の条件に従って、前記処理装置に送信し、
前記処理装置の夫々は、取得した前記タスクを処理する、
タスク分散処理システムが得られる。
That is, according to the present invention, the management server and the plurality of processing devices are task distribution processing systems.
The management server divides the acquired task and sends it to the processing device according to a predetermined condition.
Each of the processing devices processes the acquired task.
A task distributed processing system is obtained.

本発明によれば、ブロックチェーンネットワークを維持するリソースの効率的な稼働を行うことができる。 According to the present invention, it is possible to efficiently operate the resources for maintaining the blockchain network.

本発明の実施の形態によるシステムの構成例を示す図である。It is a figure which shows the structural example of the system by embodiment of this invention. 図1の管理サーバのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware configuration of the management server of FIG. 図1のユーザ端末のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware configuration of the user terminal of FIG. 本実施の形態によるシステムの処理の流れを示す図である。It is a figure which shows the flow of processing of the system by this embodiment. 本実施の形態にタスクブロックのデータイメージ図である。It is a data image diagram of a task block in this embodiment. 図5のタスクブロックの構造例を示すテーブルである。It is a table which shows the structural example of the task block of FIG.

本発明の実施形態の内容を列記して説明する。本発明の実施の形態によるコンテンツ・プラットフォームシステムは、以下のような構成を備える。
[項目1]
管理サーバと複数の処理装置とをタスク分散処理システムであって、
管理サーバは、取得したタスクを分割し、所定の条件に従って、前記処理装置に送信し、
前記処理装置の夫々は、取得した前記タスクを処理する、
タスク分散処理システム。
[項目2]
項目1に記載のタスク分散処理システムであって、
前記タスクの分割は、処理が予定されている前記処理端末に応じて、少なくともそのサイズが決定される、
タスク分散処理システム。
The contents of the embodiments of the present invention will be described in a list. The content platform system according to the embodiment of the present invention has the following configuration.
[Item 1]
The management server and multiple processing devices are task distribution processing systems.
The management server divides the acquired task and sends it to the processing device according to a predetermined condition.
Each of the processing devices processes the acquired task.
Task distributed processing system.
[Item 2]
The task distribution processing system according to item 1.
The task division is at least sized according to the processing terminal scheduled to be processed.
Task distributed processing system.

<実施の形態の詳細>
以下、本発明の実施の形態による分散型機械学習システム(以下「システム」という)について、図面を参照しながら説明する。
<Details of the embodiment>
Hereinafter, a distributed machine learning system (hereinafter referred to as “system”) according to an embodiment of the present invention will be described with reference to the drawings.

<概要>
本発明の実施の形態によるシステムは、機械学習等のアルゴリズムの計算(例えば、教師データを読み込みアルゴリズムを最適化させる処理等)をマイニングプールを構成する複数の計算機によって生み出される計算能力を利用又は兼用することによって効率的に行うものである。
<Overview>
The system according to the embodiment of the present invention utilizes or combines the computing power generated by a plurality of computers constituting the mining pool for the calculation of algorithms such as machine learning (for example, the process of reading teacher data and optimizing the algorithm). It is done efficiently by doing.

<構成>
図1に示されるように、本システム100は、管理サーバ1と、ユーザ端末2(2a〜2d)と、プール管理サーバ3(3a〜3c)とがネットワーク(インターネット等であり、ブロックチェーンネットワークを含む)50を介して接続される。
<Composition>
As shown in FIG. 1, in this system 100, the management server 1, the user terminals 2 (2a to 2d), and the pool management server 3 (3a to 3c) are connected to a network (Internet or the like, and a blockchain network). Included) Connected via 50.

本実施の形態において、少なくとも管理サーバ1及びプール管理サーバ3は、ブロックチェーンネットワークにおいて共同管理される台帳(ブロックチェーン)にアクセス・参照・追加可能に接続されている。 In the present embodiment, at least the management server 1 and the pool management server 3 are connected to the ledger (blockchain) jointly managed in the blockchain network so that they can be accessed, referenced, and added.

なお、後述するように、本実施の形態によるユーザ端末2は、例えば、自動車2a、鉄道2b、工場内のロボット2c、バス2d等、自動制御し得る対象であればどのようなものであってもよい。 As will be described later, the user terminal 2 according to the present embodiment is any object that can be automatically controlled, such as an automobile 2a, a railway 2b, a robot 2c in a factory, a bus 2d, and the like. May be good.

<ハードウェア構成>
図2及び図3に示されるように、本実施の形態による管理サーバ1とユーザ端末2とは、以下のようなハードウェア構成を有する。なお、以下の構成は一例であり、これ以外の構成を有していても良い。また、各機能ブロックは、それぞれの端末内に存在していてもよいし、クラウドサービス等を通じて利用可能されている等、論理的に構成されていてもよい。
<Hardware configuration>
As shown in FIGS. 2 and 3, the management server 1 and the user terminal 2 according to the present embodiment have the following hardware configurations. The following configuration is an example, and may have other configurations. Further, each functional block may exist in each terminal, or may be logically configured such as being available through a cloud service or the like.

<管理サーバ1>
図2に示されるように、管理サーバ1は、ユーザ端末2とプール管理端末3と通信を介して情報処理を実行することにより、システムの一部を構成する。管理サーバ1は、例えばワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或いはクラウド・コンピューティングによって論理的に実現されてもよい。
<Management server 1>
As shown in FIG. 2, the management server 1 constitutes a part of the system by executing information processing via communication between the user terminal 2 and the pool management terminal 3. The management server 1 may be a general-purpose computer such as a workstation or a personal computer, or may be logically realized by cloud computing.

管理サーバ1は、少なくとも、プロセッサ10、メモリ11、ストレージ12、送受信部13、入出力部14等を備え、これらはバス15を通じて相互に電気的に接続される。 The management server 1 includes at least a processor 10, a memory 11, a storage 12, a transmission / reception unit 13, an input / output unit 14, and the like, and these are electrically connected to each other through a bus 15.

プロセッサ10は、管理サーバ1全体の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行に必要な情報処理等を行う演算装置である。例えばプロセッサ10はCPU(Central Processing Unit)であり、ストレージ12に格納されメモリ11に展開されたプログラム等を実行して各情報処理を実施する。 The processor 10 is an arithmetic unit that controls the operation of the entire management server 1, controls the transmission and reception of data between each element, and performs information processing and the like necessary for executing an application. For example, the processor 10 is a CPU (Central Processing Unit), and executes each information processing by executing a program or the like stored in the storage 12 and expanded in the memory 11.

メモリ11は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ11は、プロセッサ10のワークエリア等として使用され、また、管理サーバ1の起動時に実行されるBIOS(Basic Input / Output System)、及び各種設定情報等を格納する。 The memory 11 includes a main storage composed of a volatile storage device such as a DRAM (Dynamic Random Access Memory) and an auxiliary storage composed of a non-volatile storage device such as a flash memory or an HDD (Hard Disk Drive). .. The memory 11 is used as a work area or the like of the processor 10, and also stores a BIOS (Basic Input / Output System) executed when the management server 1 is started, various setting information, and the like.

ストレージ12は、アプリケーション・プログラム、及びブロックチェーンネットワークに対する認証プログラムや機械学習に利用されるアルゴリズム等の各種プログラムを格納する。各処理に用いられるデータを格納したデータベースがストレージ22に構築されていてもよい。 The storage 12 stores various programs such as application programs, authentication programs for blockchain networks, and algorithms used for machine learning. A database storing data used for each process may be built in the storage 22.

送受信部13は、管理サーバ1をネットワーク3に接続する。なお、送受信部13は、Bluetooth(登録商標)及びBLE(Bluetooth Low Energy)の近距離通信インタフェースを備えていてもよい。 The transmission / reception unit 13 connects the management server 1 to the network 3. The transmission / reception unit 13 may be provided with a short-range communication interface of Bluetooth (registered trademark) and BLE (Bluetooth Low Energy).

入出力部14は、必要に応じて使用するキーボード・マウス類等の情報入力機器、及びディスプレイ等の出力機器である。 The input / output unit 14 is an information input device such as a keyboard and a mouse, and an output device such as a display, which are used as needed.

バス15は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各種制御信号を伝達する。 The bus 15 is commonly connected to each of the above elements and transmits, for example, an address signal, a data signal, and various control signals.

<ユーザ端末2a及び2b>
図3に示されるように、ユーザ端末2は、上述した自動車2a、鉄道2b、工場内のロボット2c、バス2d内に備え付けられる又は一体に構成される端末である。ユーザ端末2は、管理サーバ1と通信を介して情報処理を実行することにより、システムの一部を構成する。ユーザ端末2は、例えば自動車の制御システムを制御する端末がその機能を発揮するように構成されていてもよい。
<User terminals 2a and 2b>
As shown in FIG. 3, the user terminal 2 is a terminal installed or integrally configured in the above-mentioned automobile 2a, railway 2b, robot 2c in a factory, and bus 2d. The user terminal 2 constitutes a part of the system by executing information processing via communication with the management server 1. The user terminal 2 may be configured such that, for example, a terminal that controls a control system of an automobile exerts its function.

図視されるように、ユーザ端末2は、少なくとも、プロセッサ20、メモリ21、ストレージ22、送受信部23、入出力部24等を備え、これらはバス25を通じて相互に電気的に接続される。これらの機能は、自動車等の制御システムと共用であってもよい。 As shown, the user terminal 2 includes at least a processor 20, a memory 21, a storage 22, a transmission / reception unit 23, an input / output unit 24, and the like, which are electrically connected to each other through a bus 25. These functions may be shared with a control system such as an automobile.

上述した管理サーバ1と同様に、プロセッサ20は、ユーザ端末2全体の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行に必要な情報処理等を行う演算装置である。例えばプロセッサ20はCPU(Central Processing Unit)であり、ストレージ22に格納されメモリ21に展開されたプログラム等を実行して各情報処理を実施する。 Similar to the management server 1 described above, the processor 20 is an arithmetic unit that controls the operation of the entire user terminal 2, controls the transmission and reception of data between each element, and performs information processing and the like necessary for executing an application. For example, the processor 20 is a CPU (Central Processing Unit), and executes each information processing by executing a program or the like stored in the storage 22 and expanded in the memory 21.

メモリ21は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ21は、プロセッサ20のワークエリア等として使用され、また、ユーザ端末2の起動時に実行されるBIOS(Basic Input / Output System)、及び各種設定情報等を格納する。 The memory 21 includes a main storage composed of a volatile storage device such as a DRAM (Dynamic Random Access Memory) and an auxiliary storage composed of a non-volatile storage device such as a flash memory or an HDD (Hard Disk Drive). .. The memory 21 is used as a work area or the like of the processor 20, and also stores a BIOS (Basic Input / Output System) executed when the user terminal 2 is started, various setting information, and the like.

ストレージ22は、アプリケーション・プログラム、及びブロックチェーンネットワークに対する認証プログラムや、自動車等の制御のためのアルゴリズム等の各種プログラムを格納する。各処理に用いられるデータを格納したデータベースがストレージ22に構築されていてもよい。 The storage 22 stores various programs such as an application program, an authentication program for a blockchain network, and an algorithm for controlling an automobile or the like. A database storing data used for each process may be built in the storage 22.

送受信部23は、ユーザ端末2をネットワーク3に接続する。なお、送受信部23は、Bluetooth(登録商標)及びBLE(Bluetooth Low Energy)の近距離通信インタフェースを備えていてもよい。 The transmission / reception unit 23 connects the user terminal 2 to the network 3. The transmission / reception unit 23 may be provided with a short-range communication interface of Bluetooth (registered trademark) and BLE (Bluetooth Low Energy).

入出力部24は、必要に応じて使用するキーボード・マウス類等の情報入力機器、及びディスプレイ等の出力機器である。 The input / output unit 24 is an information input device such as a keyboard and a mouse, and an output device such as a display, which are used as needed.

バス25は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各種制御信号を伝達する。 The bus 25 is commonly connected to each of the above elements and transmits, for example, an address signal, a data signal, and various control signals.

<処理の流れ>
続いて、図4を参照して、図1に示される各要素の動作とやりとりされる情報について説明する。
<Processing flow>
Subsequently, with reference to FIG. 4, the information exchanged with the operation of each element shown in FIG. 1 will be described.

図4に示されるように、ユーザ端末2(自動車2a)は、自身の走行データを教師データとして管理サーバ1に送信する(SQ101)。走行データは、例えば、自動車自体の挙動・制御データや自動車に取り付けられたセンサから取得されたデータ(車外の映像等)が含まれるがこれに限られない。 As shown in FIG. 4, the user terminal 2 (automobile 2a) transmits its own driving data as teacher data to the management server 1 (SQ101). The driving data includes, but is not limited to, for example, behavior / control data of the automobile itself and data acquired from a sensor attached to the automobile (such as an image outside the automobile).

自動車2aは、所定のアルゴリズムによって、「認知」、「判断」、「操作」の3つの処理を連動して行っている。例えば、衝突予防システム、先行車両との車間を調整するシステム、車線からの逸脱を防止するシステムなどが挙げられるが、周囲の自動車や周囲の状況に応じて適切な判断を行い、目的地まで移動する高度なものも含まれる。アルゴリズムは、管理サーバ1から提供され、常に更新されることによって最新の状態に維持される。 The automobile 2a performs three processes of "cognition", "judgment", and "operation" in conjunction with each other by a predetermined algorithm. For example, there are a collision prevention system, a system that adjusts the distance to the preceding vehicle, a system that prevents deviation from the lane, etc., but it makes an appropriate judgment according to the surrounding vehicles and surrounding conditions and moves to the destination. Also includes advanced ones. The algorithm is provided by the management server 1 and is kept up to date by being constantly updated.

管理サーバ1は、ユーザ端末2から得た教師データに基づいてアルゴリズム(例えば、ニューラルネットワークのパラメータ等)を更新し最適化する。しかしながら、上述したように教師データの特徴量の抽出からアルゴリズムを最適化するまでの処理には膨大な計算量を有することが多く、ユーザ端末2の台数が増えることによりその計算不可も指数関数的に上昇する。 The management server 1 updates and optimizes an algorithm (for example, neural network parameters, etc.) based on the teacher data obtained from the user terminal 2. However, as described above, the process from the extraction of the feature amount of the teacher data to the optimization of the algorithm often has a huge amount of calculation, and as the number of user terminals 2 increases, the calculation impossible becomes exponential. Ascend to.

そこで、管理サーバ1は、提供された教師データからアルゴリズムを最適化するためのタスクを分割する(SQ102)。当該タスクは、単に教師データ単体としてもよいし、教師データに一次加工を施したものとしてもよいし、読み込まれれば即計算を開始できるようにバッチ化されたものであってもよい。分割の方法は種々の方法を採用することができる。 Therefore, the management server 1 divides the task for optimizing the algorithm from the provided teacher data (SQ102). The task may be simply the teacher data alone, the teacher data may be subjected to primary processing, or may be batched so that the calculation can be started immediately after being read. Various methods can be adopted as the method of division.

管理サーバ1は、当該タスクをプール管理サーバ3にブロードキャストし、タスクを処理させる(SQ103)。本実施の形態においては、タスクが団渇されており、且つ、処理端末のスペックや状態に応じてそのサイズも最適なものとされている。本実施の形態によるタスクは、あたかもブロックチェーンネットワークにおけるハッシュ値(ナンス:nonce)の探索と同様の計算をマイニングプールに行わせているものである。この結果、アルゴリズムの更新(最適化)を最も早く行った者に所定の報酬が付与される。即ち、本発明による分散型機械学習システムは、ブロックチェーンにおけるマイニングの作業を機械学習アルゴリズムの更新作業に置き換えて構成されているものである。 The management server 1 broadcasts the task to the pool management server 3 to process the task (SQ103). In the present embodiment, the tasks are exhausted, and the size is optimized according to the specifications and the state of the processing terminal. The task according to the present embodiment causes the mining pool to perform the same calculation as the search for the hash value (nonce) in the blockchain network. As a result, a predetermined reward is given to the person who updates (optimizes) the algorithm earliest. That is, the distributed machine learning system according to the present invention is configured by replacing the mining work in the blockchain with the update work of the machine learning algorithm.

図5は、本発明をブロックチェーンネットワークに載せた場合のブロックの情報である。ブロックチェーン上にタスク情報が載せられており、当該タスクを処理した処理端末の情報等も記録されることとなる。ここで、各タスクは、それぞれ提供された由来となるユーザ端末が紐づけられている。 FIG. 5 shows block information when the present invention is mounted on a blockchain network. Task information is posted on the blockchain, and information of the processing terminal that processed the task is also recorded. Here, each task is associated with a user terminal from which it is provided.

また、図6に示されるように、各タスクの構造は、例えば、データ全体のサイズ(block size)、ヘッダー情報(Header)、タスクの数(task counter)、処理されるべきタスクの情報(task)を少なくとも含んでいる。 Further, as shown in FIG. 6, the structure of each task includes, for example, the size of the entire data (block size), header information (Header), the number of tasks (task counter), and information on the tasks to be processed (task). ) Is included.

ブロー管理サーバ3は、プールに接続している処理端末(ブロックチェーンネットワークにおける「マイナー:miner」)に当該タスクの実行を割り当て、計算を行わせる(SQ104)。割り当てはランダムであってもよいし、接続されている処理端末の端から順番に割り当ててもよい。 The blow management server 3 assigns the processing terminal (“miner” in the blockchain network) connected to the pool to execute the task and causes the calculation to be performed (SQ104). The allocation may be random, or may be allocated in order from the end of the connected processing terminal.

いずれかの処理端末がアルゴリズムの更新に成功した場合、当該結果情報は、プール管理サーバ3を経由して管理サーバ1に送信される(SQ105)。管理サーバ1は、結果情報に基づいてアルゴリズムを更新し(SQ106)、ユーザ端末2に提供する(SQ107)。 If any of the processing terminals succeeds in updating the algorithm, the result information is transmitted to the management server 1 via the pool management server 3 (SQ105). The management server 1 updates the algorithm based on the result information (SQ106) and provides it to the user terminal 2 (SQ107).

以上説明したシステムによれば、さまざまなユーザ端末から得られた教師データに基づいて効率的に機械学習を行うことが可能となる。 According to the system described above, it is possible to efficiently perform machine learning based on teacher data obtained from various user terminals.

上述したシステムの処理対象は教師データであったが、その他、装置を使った処理であればどのようなタスクであってもよい。 The processing target of the system described above is the teacher data, but any other task may be used as long as it is processing using the device.

また、複数主のタスクを組み合わせて、実際の処理を行う装置に合わせたサイズや内訳のカスタマイズを行うこととしてもよい。この場合、予め、管理サーバ側において、接続される各装置の処理容量に関する情報を予め(又は要求に応じて)取得することとすればよい。 In addition, a plurality of main tasks may be combined to customize the size and breakdown according to the device that performs the actual processing. In this case, the management server side may acquire information on the processing capacity of each connected device in advance (or in response to a request).

上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。 The above-described embodiment is merely an example for facilitating the understanding of the present invention, and is not intended to limit the interpretation of the present invention. It goes without saying that the present invention can be modified and improved without deviating from the gist thereof, and the present invention includes an equivalent thereof.

1 管理サーバ(学習管理端末)
2、2a〜2d ユーザ端末(教師データ供給端末)
3、3a〜3c プール管理端末(処理プール管理端末)
30 処理プール
50 ネットワーク
100 システム(分散型機械学習システム)
1 Management server (learning management terminal)
2,2a-2d user terminal (teacher data supply terminal)
3, 3a to 3c pool management terminal (processing pool management terminal)
30 processing pool 50 network 100 system (distributed machine learning system)

Claims (2)

管理サーバと複数の処理装置とをタスク分散処理システムであって、
管理サーバは、取得したタスクを分割し、所定の条件に従って、前記処理装置に送信し、
前記処理装置の夫々は、取得した前記タスクを処理する、
タスク分散処理システム。
The management server and multiple processing devices are task distribution processing systems.
The management server divides the acquired task and sends it to the processing device according to a predetermined condition.
Each of the processing devices processes the acquired task.
Task distributed processing system.
請求項1に記載のタスク分散処理システムであって、
前記タスクの分割は、処理が予定されている前記処理端末に応じて、少なくともそのサイズが決定される、
タスク分散処理システム。

The task distributed processing system according to claim 1.
The task division is at least sized according to the processing terminal scheduled to be processed.
Task distributed processing system.

JP2019040944A 2019-03-06 2019-03-06 Task decentralization processing system Pending JP2020144614A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019040944A JP2020144614A (en) 2019-03-06 2019-03-06 Task decentralization processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019040944A JP2020144614A (en) 2019-03-06 2019-03-06 Task decentralization processing system

Publications (1)

Publication Number Publication Date
JP2020144614A true JP2020144614A (en) 2020-09-10

Family

ID=72354248

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019040944A Pending JP2020144614A (en) 2019-03-06 2019-03-06 Task decentralization processing system

Country Status (1)

Country Link
JP (1) JP2020144614A (en)

Similar Documents

Publication Publication Date Title
WO2019075284A3 (en) Predicting performance of content and electronic messages among a system of networked computing devices
EP3377432B1 (en) A method and an apparatus for determining an allocation decision for at least one elevator
US20230122720A1 (en) Systems and method for management of computing nodes
US10884839B2 (en) Processing system for performing predictive error resolution and dynamic system configuration control
CN111861310B (en) Distribution method, device, server and storage medium for freight order
CN104102693A (en) Object processing method and device
US20210303371A1 (en) Container framework for user-defined functions
JP6615946B1 (en) Distributed machine learning system
US9146678B2 (en) High throughput hardware acceleration using pre-staging buffers
CN106250061A (en) File download processing method and processing device
US20190147401A1 (en) System and method for automated package delivery to dynamic locations
KR102320317B1 (en) Method for selecting predict-based migration candidate and target on cloud edge
US10901864B2 (en) Light-weight mirror container
US10801850B2 (en) Arrival predictions based on destination specific model
JP2020144614A (en) Task decentralization processing system
US20230394812A1 (en) Classification parallelization architecture
US11367052B2 (en) Systems and methods for task assistance
JP2020030852A (en) Distributed machine learning system
US10176144B2 (en) Piggybacking target buffer address for next RDMA operation in current acknowledgement message
JP2019079350A (en) Information provision system
CN109254857B (en) Method, device, equipment and medium for adjusting shared memory
JP2022023414A (en) Processing unit management system and processing space management system
KR102411173B1 (en) Method and apparatus for assigning multiple tasks
Punia et al. An Improved Scheduling Algorithm for Grey Wolf Fitness Task Enrichment with Cloud
KR102183274B1 (en) System and method for distributed processing, and apparatus applied to the same