JPWO2012133366A1 - Parallel processing apparatus and parallel processing system - Google Patents
Parallel processing apparatus and parallel processing system Download PDFInfo
- Publication number
- JPWO2012133366A1 JPWO2012133366A1 JP2013507583A JP2013507583A JPWO2012133366A1 JP WO2012133366 A1 JPWO2012133366 A1 JP WO2012133366A1 JP 2013507583 A JP2013507583 A JP 2013507583A JP 2013507583 A JP2013507583 A JP 2013507583A JP WO2012133366 A1 JPWO2012133366 A1 JP WO2012133366A1
- Authority
- JP
- Japan
- Prior art keywords
- parallel processing
- cpu
- memory
- data
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/505—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Hardware Redundancy (AREA)
Abstract
アクセスの一時的な集中により応答が遅くなることを防止する並列処理装置などを提供する。ネットワークに接続される並列処理装置であって、複数のCPUと、前記ネットワークからデータを受信する手段と、前記受信したデータに関連するタスクを前記複数のCPUのうち待ち状態にあるCPUに振り分ける手段と、を備えたことを特徴とする並列処理装置である。A parallel processing device that prevents a response from being delayed due to temporary concentration of access is provided. A parallel processing apparatus connected to a network, wherein a plurality of CPUs, means for receiving data from the network, and means for allocating tasks related to the received data to waiting CPUs among the plurality of CPUs And a parallel processing device.
Description
本発明は、並列処理装置及び並列処理システムに関する。 The present invention relates to a parallel processing device and a parallel processing system.
従来、ランダムに生じる所定の処理をネットワーク上で集中的に処理するシステムとして、乗車媒体には識別情報のみを記憶し、入場処理、出場処理などに必要な情報である乗車情報などは識別情報と関連付けして上位サーバにて一元管理する駅務システムが提案された(特許文献1参照)。 Conventionally, as a system that intensively processes predetermined processes that occur randomly on the network, only the identification information is stored in the boarding medium, and the boarding information that is necessary for the entrance process, the exit process, etc. is the identification information. A station affairs system that is associated and managed centrally by a host server has been proposed (see Patent Document 1).
しかしながら、上記従来のようなシステムでは、アクセスの一時的な集中によりサーバの応答が遅くなることがあり、いつもの速さで改札機を通過したのにゲートが閉まったり、それほど時間を要しないと思って行った株の売買注文がなかなか処理されなかったりなどして、ユーザの思惑通りに処理が進行しないという問題があった。 However, in the conventional system, the server response may be delayed due to temporary concentration of access. If the gate is closed after passing through the ticket gate at the usual speed, it will not take much time. There was a problem that the processing did not proceed as expected by the user because the stock buying and selling order that had been thought was not processed easily.
そこで、本発明は、アクセスの一時的な集中により応答が遅くなることを防止する並列処理装置及び並列処理システムを提供することを目的とする。 Accordingly, an object of the present invention is to provide a parallel processing device and a parallel processing system that prevent a response from being delayed due to temporary concentration of access.
本発明によれば、上記課題は、次の手段により解決される。 According to the present invention, the above problem is solved by the following means.
本発明は、ネットワークに接続される並列処理装置であって、複数のCPUと、前記ネットワークからデータを受信する手段と、前記受信したデータに関連するタスクを前記複数のCPUのうち待ち状態にあるCPUに振り分ける手段と、を備えたことを特徴とする並列処理装置である。 The present invention is a parallel processing apparatus connected to a network, wherein a plurality of CPUs, a means for receiving data from the network, and a task related to the received data are in a waiting state among the plurality of CPUs. And a means for distributing to a CPU.
また、本発明は、メモリと、前記メモリのアドレス空間上の領域を、前記タスクを振り分ける度に、前記タスクを振り分けるCPUに対して割り当てる手段と、を備えたことを特徴とする上記の並列処理装置である。 The present invention further includes a memory and means for assigning an area in the address space of the memory to a CPU that assigns the task each time the task is assigned. Device.
また、本発明は、前記複数のCPUと前記メモリとを接続するバスと、前記メモリに一のCPUが接続されるように前記バスの接続及び切り離しを行う手段と、を備えたことを特徴とする上記の並列処理装置である。 Further, the present invention is characterized by comprising a bus for connecting the plurality of CPUs and the memory, and means for connecting and disconnecting the bus so that one CPU is connected to the memory. The parallel processing device described above.
また、本発明は、前記メモリ上のデータが書き換えられた場合に、この書き換えられたデータを前記ネットワークに接続された他の並列処理装置に対して送信する手段を備えたことを特徴とする上記の並列処理装置である。 In addition, the present invention is characterized by comprising means for transmitting, when data on the memory is rewritten, the rewritten data to another parallel processing device connected to the network. This is a parallel processing device.
また、本発明は、前記ネットワークを介して駅に設置された改札機に接続されることを特徴とする上記の並列処理装置である。 Further, the present invention is the parallel processing apparatus described above, wherein the parallel processing apparatus is connected to a ticket gate installed at a station via the network.
また、本発明は、前記ネットワークを介して株式売買端末に接続されることを特徴とする上記の並列処理装置である。 The present invention is the parallel processing apparatus described above, wherein the parallel processing apparatus is connected to a stock trading terminal via the network.
また、本発明は、上記の並列処理装置と複数の端末装置とがネットワークで接続されることを特徴とする並列処理システムである。 The present invention is also a parallel processing system in which the parallel processing device and a plurality of terminal devices are connected by a network.
本発明によれば、アクセスの一時的な集中により応答が遅くなることを防止する並列処理装置及び並列処理システムを提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the parallel processing apparatus and parallel processing system which prevent that a response becomes slow by temporary concentration of access can be provided.
以下に、添付した図面を参照しつつ、本発明を実施するための形態について説明する。 EMBODIMENT OF THE INVENTION Below, the form for implementing this invention is demonstrated, referring attached drawing.
図1は、本発明の実施形態に係る並列処理システムを示す図である。 FIG. 1 is a diagram showing a parallel processing system according to an embodiment of the present invention.
図1に示すように、本発明の実施形態に係る並列処理システム1は、複数の並列処理装置10と、複数の端末装置20と、がネットワーク30で接続されたコンピュータシステムである。
As shown in FIG. 1, a
本発明の実施形態に係る並列処理システム1では、地理や商圏などに基づいて区分けされたエリア1a、1b、1c、1dごとに並列処理装置10と複数の端末装置20とが配置されている。
In the
各エリアの並列処理装置10は、ネットワーク30に接続されたすべての端末装置20に関してトランザクションを処理することもできるが、本発明の実施形態では、各エリアの並列処理装置10が、災害時や故障などによる他は、自己のエリアに属する端末装置20に関するトランザクションを処理するものとする。
The
[並列処理装置]
図2は、本発明の実施形態に係る並列処理装置の構成例を示す図である。[Parallel processing device]
FIG. 2 is a diagram illustrating a configuration example of the parallel processing device according to the embodiment of the present invention.
図2に示すように、本発明の実施形態に係る並列処理装置10は、複数のCPU(P1)〜(P3)と、制御部11と、バススイッチ部12と、メモリ13と、がバスで接続されたコンピュータである。なお、バスはデータバスやアドレスバスなどで構成されるが、図2では、本発明の理解を容易にするため、これらのバスを適宜簡略化して記載している。
As shown in FIG. 2, the
制御部11は、ネットワーク30に接続され、ネットワーク30からデータを受信する。また、制御部11は、受信したデータに関連するタスクを複数のCPU(P1)〜(P3)のうち待ち状態にあるCPUに振り分ける。また、制御部11は、メモリ13のアドレス空間上の領域を、待ち状態にあるCPUにタスクを振り分ける度に、このタスクを振り分けるCPUに対して割り当てる。
The
複数のCPU(P1)〜(P3)や制御部11は、バススイッチ部12を介してメモリ13にアクセスする。バススイッチ部12は、複数のCPU(P1)〜(P3)のうちの一のCPUまたは制御部11がメモリ13に接続されるようにバスの接続及び切り離しを行う。
The plurality of CPUs (P1) to (P3) and the
バススイッチ部12は、メモリ13上のデータを監視しており、これらが書き換えられた場合、書き換えられたデータをネットワーク30に接続された他のエリアに属する並列処理装置10に対して送信する。これにより複数の並列処理装置10間でメモリ13上のデータが同期され、データの冗長性が確保される。
The
端末装置20としては、例えば、駅に設置された改札機や株式売買端末などを用いることができる。
As the
[テーブル]
図3は、本発明の実施形態で用いられるテーブルの構成例を示す図である。[table]
FIG. 3 is a diagram showing a configuration example of a table used in the embodiment of the present invention.
図3に示すように、本発明の実施形態では、制御部11に記憶されるデータ管理テーブル(a)及びCPU管理テーブル(b)と、バススイッチ部12に記憶されるアドレス変換管理テーブル(c)と、が用いられる。
As shown in FIG. 3, in the embodiment of the present invention, a data management table (a) and a CPU management table (b) stored in the
(データ管理テーブル)
データ管理テーブルは、「user」フィールドと、「terminal」フィールドと、「address」フィールドと、「date_and_time」フィールドと、を有している。(Data management table)
The data management table has a “user” field, a “terminal” field, an “address” field, and a “date_and_time” field.
「user」フィールド
「user」フィールドには、ユーザIDが記憶される。非接触IDカードのカードIDや、株の売買で用いるユーザ名などは、ユーザIDの一例である。“User” field The “user” field stores a user ID. The card ID of the non-contact ID card, the user name used for stock trading, etc. are examples of the user ID.
「terminal」フィールド
「terminal」フィールドには、端末装置を識別する端末IDが記憶される。“Terminal” field In the “terminal” field, a terminal ID for identifying a terminal device is stored.
「address」フィールド
「address」フィールドには、アドレス空間におけるメモリアドレスの上位nビット(本実施形態では8ビット)が記憶される。“Address” field The “address” field stores the upper n bits (8 bits in this embodiment) of the memory address in the address space.
「date_and_time」フィールド
「date_and_time」フィールドには、日時を示すデータが記憶される。“Date_and_time” field The “date_and_time” field stores data indicating the date and time.
(CPU管理テーブル)
CPU管理テーブルは、「cpu」フィールドと、「user」フィールドと、を有している。(CPU management table)
The CPU management table has a “cpu” field and a “user” field.
「cpu」フィールド
「cpu」フィールドには、CPUを識別するCPUIDが記憶される。“Cpu” field The “cpu” field stores a CPU ID for identifying a CPU.
「user」フィールド
「user」フィールドには、ユーザIDが記憶される。“User” field The “user” field stores a user ID.
(アドレス変換管理テーブル)
アドレス変換管理テーブルは、「cpu」フィールドと、「address」フィールドと、を有している。(Address translation management table)
The address conversion management table has a “cpu” field and an “address” field.
「cpu」フィールド
「cpu」フィールドには、CPUを識別するCPUIDが記憶される。“Cpu” field The “cpu” field stores a CPU ID for identifying a CPU.
「address」フィールド
「address」フィールドには、アドレス空間におけるメモリアドレスの上位nビット(本実施形態では8ビット)が記憶される。“Address” field The “address” field stores the upper n bits (8 bits in this embodiment) of the memory address in the address space.
[動作例]
図4は、本発明の実施形態に係る並列処理装置の動作例を示す図である。[Operation example]
FIG. 4 is a diagram illustrating an operation example of the parallel processing device according to the embodiment of the present invention.
(ステップS1)
まず、制御部11が、端末装置20からユーザIDと端末IDとを受信する。なお、端末装置20は、非接触ICカード(図示せず)からの読み取りやユーザからの入力などによりユーザIDを取得する。(Step S1)
First, the
(ステップS2)
次に、制御部11が、図3(a)のデータ管理テーブルにおける「user」フィールドと「terminal」フィールドとに受信したユーザIDと端末IDとをそれぞれ記憶する。(Step S2)
Next, the
(ステップS3)
次に、制御部11が、図3(b)のCPU管理テーブルにアクセスして「user」フィールドに何も記憶されていないレコードを特定し、この特定したレコードの「cpu」フィールドに記憶されているCPUIDを取得する。これにより、受信したユーザIDに関連するタスクが待ち状態にあるCPUに対して振り分けられる。なお、ここでは、CPUIDとして、CPU(P2)を識別するP2が取得されるものとする。(Step S3)
Next, the
(ステップS4)
次に、制御部11が、受信したユーザIDのためにアドレス空間上の領域を確保する。より具体的に説明すると、制御部11は、確保するアドレス空間におけるメモリアドレスの上位nビット(例えば、AAAAAAAA)を決定し、これを図3(a)のデータ管理テーブルにおける「address」フィールドに記憶する。これにより、決定した上位nビット(例えば、AAAAAAAA)をメモリアドレスとするアドレス空間上の領域(例えば、AAAAAAAA00000000〜AAAAAAAA11111111)が受信したユーザIDのために確保される。なお、「A」は0又は1である。(Step S4)
Next, the
(ステップS5)
次に、制御部11が、バススイッチ部12を介してメモリ13にアクセスし、ステップS4で決定した上位nビット(例えば、AAAAAAAA)で示されるアドレス空間の所定領域(例えば、先頭領域AAAAAAAA00000000)に、CPU(P2)に対する命令を書きこむ。(Step S5)
Next, the
(ステップS6)
次に、制御部11が、バススイッチ部12にアクセスし、CPUIDの「P2」と、ステップS4で決定したメモリアドレスの上位nビット(例えば、AAAAAAAA)とを、図3(c)のアドレス変換管理テーブルにおける「cpu」フィールドと「address」フィールドとにそれぞれ記憶する。これにより、アドレス空間上の領域が、タスクを振り分ける度に、タスクを振り分けるCPUに対して割り当てられる。(Step S6)
Next, the
(ステップS7)
次に、制御部11が、CPU(P2)に対して、開始命令を出力する。(Step S7)
Next, the
(ステップS8)
次に、CPU(P2)が、バススイッチ部12を介してメモリ13にアクセスし、CPU(P2)に割り当てられたアドレス空間の所定領域(例えば、先頭領域AAAAAAAA00000000)から命令を読み出す。(Step S8)
Next, the CPU (P2) accesses the
より具体的に説明すると、本発明の実施形態では、XXXXXXXX000000000〜XXXXXXXX11111111のアドレス空間がCPU(P2)に固定的に割り当てられており、CPU(P2)は、メモリ13にアクセスするに当たり、バススイッチ部12に対して、XXXXXXXX000000000〜XXXXXXXX11111111の範囲にあるメモリアドレスを出力する。なお、「X」は0又は1である。
More specifically, in the embodiment of the present invention, the address space from XXXXXXXXX000000000000 to XXXXXXXXX11111111 is fixedly assigned to the CPU (P2), and the CPU (P2) accesses the
バススイッチ部12は、CPU(P2)からのアクセスがあると、メモリ13に接続されるCPUをCPU(P2)に切り替えるが、この際、図3(c)のアドレス変換管理テーブルにおいて、「cpu」フィールドに「P2」が格納されているレコードを特定し、特定したレコードの「address」フィールドからメモリアドレスの上位nビット(例えば、AAAAAAAA)アドレスを取得する。
When there is an access from the CPU (P2), the
そして、バススイッチ部12は、CPU(P2)から出力されたXXXXXXXX000000000〜XXXXXXXX11111111の範囲にあるメモリアドレスの上位nビット(XXXXXXXX)を図3(c)のアドレス変換管理テーブルから取得したメモリアドレスの上位nビット(例えば、AAAAAAAA)で書き換える。
Then, the
このようにして、CPU(P2)は、受信したユーザIDのために確保されたアドレス空間上の領域(例えば、AAAAAAAA00000000〜AAAAAAAA11111111)にアクセス可能となる。 In this way, the CPU (P2) can access the area in the address space reserved for the received user ID (for example, AAAAAAAA00000000-AAAAAAAAA11111111).
(ステップS9)
次に、CPU(P2)が、メモリ13から読み出した命令に基づく処理を行い、その結果をバススイッチ部12を介してメモリ13に書きこむ。(Step S9)
Next, the CPU (P2) performs a process based on the instruction read from the
(ステップS10)
次に、バススイッチ部12が、データが書き込まれたアドレス空間上の領域のメモリアドレス(例えば、AAAAAAAA00000000〜AAAAAAAA11111111)を制御部11に対して出力する。(Step S10)
Next, the
(ステップS11)
次に、制御部11が、バススイッチ部12を介してメモリ13にアクセスし、出力されたメモリアドレスを有するアドレス空間上の領域(例えば、AAAAAAAA00000000〜AAAAAAAA11111111)からデータを読み出す。(Step S11)
Next, the
(ステップS12)
次に、制御部11が、データが書きこまれたアドレス空間の上位nビット(例えばAAAAAAAA)が記憶されているレコードを図3(a)のデータ管理テーブルにおいて特定し、特定したレコードの「user」フィールドに記憶されているユーザIDと、ステップS11で読み出したデータとを、他のエリアに属する並列処理装置10に対して送信する。(Step S12)
Next, the
これにより、メモリ13上のデータが書き換えられた場合に、この書き換えられたデータがネットワーク30に接続された他の並列処理装置10に対して送信され、複数の並列処理装置10間でメモリ13上のデータを同期することが可能となる。
As a result, when the data on the
なお、他のエリアに属する並列処理装置10は、端末装置20からデータを受信した場合と同様の方法により、受信したユーザIDとデータとを自己が備えるメモリ13に書き込むタスクを複数のCPUのうち待ち状態にあるCPUに対して振り分ける。この場合、他の並列処理装置10においては、データを送信した並列処理装置10が端末装置とみなされる。
Note that the
(ステップS13)
次に、CPU(P2)が、制御部11に対して、処理完了通知を出力する。(Step S13)
Next, the CPU (P2) outputs a processing completion notification to the
(ステップS14)
次に、制御部11が、図3(b)のCPU管理テーブルにアクセスし、「cpu」フィールドにCPUID「P2」が記憶されているレコードを特定し、この特定したレコードの「user」フィールドに記憶されているユーザIDを削除する。(Step S14)
Next, the
(ステップS15)
次に、制御部11が、図3(a)のデータ管理テーブルにアクセスし、「cpu」フィールドにCPUID「P2」が記憶されているレコードを特定し、この特定したレコードの「terminal」フィールドと「address」フィールドとに記憶されている端末IDとメモリアドレスの上位nビット(例えば、AAAAAAAA)とを取得するとともに、特定したレコードの「date_and_time」フィールドにステップS15を実行している際の日時を示すデータを記憶する。(Step S15)
Next, the
(ステップS16)
次に、制御部11が、バススイッチ部12を介してメモリ13にアクセスし、ステップS15で取得した上位nビット(例えば、AAAAAAAA)で示されるアドレス空間上の領域からデータを読み出す。(Step S16)
Next, the
(ステップS17)
次に、制御部11が、ステップS15で取得した端末IDに基づいて、端末装置20に対し、ステップS16で読み出したデータを送信する。(Step S17)
Next, the
制御部11は、図3(a)のデータ管理テーブルの「date_and_time」フィールドに記憶されているデータを所定の時間間隔で読み出し、読み出したデータが示す日時が読み出しを行った際の日時よりも所定の時間以上前である場合は、当該読み出したデータが記憶されているレコードを削除する。これにより、一定時間が経過しても応答がないユーザID(タイムアウトしたユーザID)に関して、アドレス空間が開放される。
The
なお、上記の説明では、制御部11により同期に関する処理とタイムアウトに関する処理を行うものとしたが、これらの処理は、制御部11とは別個の手段により行うこともできる。この場合の別個の手段は、ハードウェア又ソフトウェアにより構成することができる。
In the above description, the
なお、上記した実施形態ではバススイッチ部12を介してメモリ13にアクセスする形態の一例について説明したが、メモリ13へのアクセスはキャッシュメモリを介して行うようにしてもよい。
In the above-described embodiment, an example in which the
次に、図5を参照しつつ、本発明の実施例1による処理と比較例1、2の処理とを比較する。 Next, referring to FIG. 5, the processing according to the first embodiment of the present invention and the processing according to the first and second comparative examples are compared.
図5は、本発明の実施例1による処理と比較例1、2の処理とを比較する図であり、(a)は、本発明の実施例1に係る処理を示す図であり、(b)は、比較例1に係る処理を示す図であり、(c)は比較例2に係る処理を示す図である。 FIG. 5 is a diagram comparing the process according to the first embodiment of the present invention with the processes according to the first and second comparative examples. FIG. 5A is a diagram illustrating the process according to the first embodiment of the present invention. ) Is a diagram illustrating a process according to Comparative Example 1, and (c) is a diagram illustrating a process according to Comparative Example 2. FIG.
本発明の実施例1では、1つのトランザクションが4つのタスクにより構成され、各タスクが複数のCPUのうち待ち状態にあるCPUにより処理されるものとする。 In the first embodiment of the present invention, one transaction is composed of four tasks, and each task is processed by a CPU in a waiting state among a plurality of CPUs.
本発明の実施例1によれば、例えば図5(a)に示すように、待ち状態のCPUによって各タスクが順次処理されるため(図5に示す例では、CPU(P1)、CPU(P3)、CPU(P2)、CPU(P1)により順次処理される)、1つのトランザクションがほとんど待たされることなく完了する。 According to the first embodiment of the present invention, for example, as shown in FIG. 5A, each task is sequentially processed by a waiting CPU (in the example shown in FIG. 5, CPU (P1), CPU (P3) ), CPU (P2) and CPU (P1) are sequentially processed), and one transaction is completed almost without waiting.
[比較例1]
比較例1は、本発明の実施例1と同様に、1つのトランザクションが4つのタスクにより構成されるものとする。ただし、比較例1では、本発明の実施例1とは異なり、1つのCPU(P)で複数のトランザクションによりタイムシェアリングされるものとする。[Comparative Example 1]
In the first comparative example, as in the first embodiment of the present invention, one transaction is assumed to be composed of four tasks. However, in the first comparative example, unlike the first embodiment of the present invention, it is assumed that one CPU (P) performs time sharing by a plurality of transactions.
比較例1によれば、例えば図5(b)に示すように、1つのCPU(P)が複数のトランザクションによってタイムシェアリングされることとなるため、1つのタスクの処理が完了してから次のタスクの処理が開始されるまでにある程度の時間を要してしまい、トランザクションがなかなか完了しない。 According to Comparative Example 1, for example, as shown in FIG. 5B, one CPU (P) is time-shared by a plurality of transactions. A certain amount of time is required until the processing of the task is started, and the transaction is not easily completed.
[比較例2]
比較例2は、本発明の実施例1と同様に、1つのトランザクションが4つのタスクにより構成されるものとする。ただし、比較例2では、本発明の実施例1とは異なり、1つのトランザクションによって1つのCPU(P)が専有されるものとする。[Comparative Example 2]
In Comparative Example 2, as in Example 1 of the present invention, one transaction is assumed to be composed of four tasks. However, in the second comparative example, unlike the first embodiment of the present invention, one CPU (P) is exclusively used by one transaction.
比較例2によれば、例えば図5(c)に示すように、他のトランザクションに関する全てのタスクが完了するまでCPUに空きが生じないため、トランザクションがなかなか完了しない。 According to the second comparative example, as shown in FIG. 5C, for example, the CPU is not empty until all tasks related to other transactions are completed, so the transaction is not easily completed.
以上、本発明の実施形態及び実施例について説明したが、これらの説明は、本発明の一例に関するものであり、本発明は、これらの説明によって何ら限定されるものではない。 As mentioned above, although embodiment and the Example of this invention were described, these description is related to an example of this invention, and this invention is not limited at all by these description.
1 並列処理システム
1a、1b、1c、1d 地理や商圏などに基づいて区分けされたエリア
10 並列処理装置
11 制御部
12 バススイッチ部
13 メモリ
20 端末装置
30 ネットワーク
P1、P2、P3 CPUDESCRIPTION OF
Claims (7)
複数のCPUと、
前記ネットワークからデータを受信する手段と、
前記受信したデータに関連するタスクを前記複数のCPUのうち待ち状態にあるCPUに振り分ける手段と、
を備えたことを特徴とする並列処理装置。A parallel processing device connected to a network,
Multiple CPUs;
Means for receiving data from the network;
Means for distributing a task related to the received data to a CPU in a waiting state among the plurality of CPUs;
A parallel processing apparatus comprising:
前記メモリのアドレス空間上の領域を、前記タスクを振り分ける度に、前記タスクを振り分けるCPUに対して割り当てる手段と、
を備えたことを特徴とする請求項1に記載の並列処理装置。Memory,
Means for allocating an area on the address space of the memory to a CPU for distributing the task each time the task is distributed;
The parallel processing apparatus according to claim 1, further comprising:
前記メモリに一のCPUが接続されるように前記バスの接続及び切り離しを行う手段と、
を備えたことを特徴とする請求項2に記載の並列処理装置。A bus connecting the plurality of CPUs and the memory;
Means for connecting and disconnecting the bus so that one CPU is connected to the memory;
The parallel processing apparatus according to claim 2, further comprising:
The parallel processing system according to claim 1, wherein the parallel processing device according to claim 1 and a plurality of terminal devices are connected via a network.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011071395 | 2011-03-29 | ||
JP2011071395 | 2011-03-29 | ||
PCT/JP2012/057858 WO2012133366A1 (en) | 2011-03-29 | 2012-03-27 | Parallel processing device and parallel processing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2012133366A1 true JPWO2012133366A1 (en) | 2014-07-28 |
Family
ID=46931083
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013507583A Pending JPWO2012133366A1 (en) | 2011-03-29 | 2012-03-27 | Parallel processing apparatus and parallel processing system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2012133366A1 (en) |
WO (1) | WO2012133366A1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0254362A (en) * | 1988-08-19 | 1990-02-23 | Toshiba Corp | Parallel process computer |
WO2003083693A1 (en) * | 2002-04-03 | 2003-10-09 | Fujitsu Limited | Task scheduler in distributed processing system |
JP2006350622A (en) * | 2005-06-15 | 2006-12-28 | Seiko Epson Corp | Multiprocessor system |
-
2012
- 2012-03-27 JP JP2013507583A patent/JPWO2012133366A1/en active Pending
- 2012-03-27 WO PCT/JP2012/057858 patent/WO2012133366A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0254362A (en) * | 1988-08-19 | 1990-02-23 | Toshiba Corp | Parallel process computer |
WO2003083693A1 (en) * | 2002-04-03 | 2003-10-09 | Fujitsu Limited | Task scheduler in distributed processing system |
JP2006350622A (en) * | 2005-06-15 | 2006-12-28 | Seiko Epson Corp | Multiprocessor system |
Also Published As
Publication number | Publication date |
---|---|
WO2012133366A1 (en) | 2012-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1128406C (en) | Interrupt architecture for non-uniform memory access (NUMA) data processing system | |
CN100517287C (en) | Sharined physical device among multiple clients | |
CN100478893C (en) | Dynamic cluster code management method and system | |
CN106104502B (en) | System, method and medium for storage system affairs | |
US20050216696A1 (en) | Multi-processor system and memory accessing method | |
KR19980063551A (en) | Signal Processing Units and Software | |
US20140244949A1 (en) | Asynchronous Data Mirroring in Memory Controller | |
CN103955441A (en) | Equipment management system, equipment management method and IO (Input/Output) expansion interface | |
US20090006702A1 (en) | Sharing universal serial bus isochronous bandwidth between multiple virtual machines | |
US10331581B2 (en) | Virtual channel and resource assignment | |
US10248354B2 (en) | Hypervisor enabling secure communication between virtual machines by managing exchanging access to read buffer and write buffer with a queuing buffer | |
CN113535087A (en) | Data processing method, server and storage system in data migration process | |
CN115543894B (en) | Storage system, data processing method and device, storage medium and electronic equipment | |
CN103488606A (en) | Node controller based request response method and device | |
JP2015191604A (en) | Control device, control program, and control method | |
US20130144842A1 (en) | Failover and resume when using ordered sequences in a multi-instance database environment | |
JP4789269B2 (en) | Vector processing apparatus and vector processing method | |
WO2012133366A1 (en) | Parallel processing device and parallel processing system | |
CN106161487A (en) | The information processing method of server | |
CN114090249A (en) | Resource allocation method, device, electronic equipment and storage medium | |
CN110096355B (en) | Shared resource allocation method, device and equipment | |
TW473668B (en) | Dynamic I/O allocation in a partitioned computer system | |
JPWO2010119932A1 (en) | Multiprocessor system, memory management method and communication program in multiprocessor system | |
CN105760319A (en) | Data successfully sent confirmation method and device | |
CN114860349B (en) | Data loading method, device, equipment and medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140625 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20141016 |