JP2003218896A - データ転送方法及び装置 - Google Patents
データ転送方法及び装置Info
- Publication number
- JP2003218896A JP2003218896A JP2002009101A JP2002009101A JP2003218896A JP 2003218896 A JP2003218896 A JP 2003218896A JP 2002009101 A JP2002009101 A JP 2002009101A JP 2002009101 A JP2002009101 A JP 2002009101A JP 2003218896 A JP2003218896 A JP 2003218896A
- Authority
- JP
- Japan
- Prior art keywords
- sub
- processor
- processors
- data
- main processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Small-Scale Networks (AREA)
Abstract
データ転送する方法及びこの方法を用いた装置に関し、
安価なプロセッサを使用しても、データ転送に要する時
間を大幅に削減できるようにする。 【解決手段】メインプロセッサ1が、複数のサブプロセ
ッサ3_1〜3_nの接続可能数からパラレル設定可能なノー
ド2_1, 2_21〜2_2p-1のポート数pを決定し、該ポート数
pに対応した最小ホップ数のマルチキャストツリーを選
択し、該マルチキャストツリーに沿って各サブプロセッ
サ3_1〜3_nに所定のデータを転送する。
Description
び装置に関し、特に伝送装置等のプロセッサのファーム
ウェアおよびデータを旧版から新版へ更新する際のソフ
トウェア・ダウンロード方法及びこれを用いた装置に関
するものである。
は、各地域に分散するプロセッサに対してファームウェ
アを旧版から新版へ更新する際、監視端末からの遠隔操
作によるダウンロード機能が要求されている。このた
め、各プロセッサに不揮発性の読み書き可能なメモリデ
バイスを持たせ、これにファームウェア・プログラムや
データベース等を書き込むようなソフトウェア・ダウン
ロード機能が提供されている。
ード対象のファームウェア数およびファームウェアのプ
ログラムサイズも増加する傾向にあるため、旧版から新
版への更新を円滑に実行し、装置の立ち上げ時間を短縮
する必要がある。
を用いた装置としてのマルチプロセッサシステムを概念
的に示したものである。この例において、メインプロセ
ッサ1は、n個のサブプロセッサ3_1〜3_n(以下、符号
「3」で総称することがある。)に、片方向設定ノード
としてのリピータハブ5_1, 5_21〜5_2p-1(以下、符号
「5」で総称することがある。)を介して例えば100BASE
-FXにより接続されている。
数pを有するリピータハブ5_1からp-1個のリピータハブ
5に接続され、そして、これらのリピータハブ5は、さら
にそれぞれp−1個のサブプロセッサに接続されており、
以ってリピータハブ5は全体でn個のサブプロセッサ3に
接続されている。
ロセッサ3の運用状態を、自局に内蔵するデータベース
から参照し、接続されている監視端末4からのダウンロ
ード要求コマンドを受けて、運用中または運用予定のサ
ブプロセッサ3へダウンロードを行う。
サシステムにおけるデータ転送のシーケンスが示されて
いる。なお、この図では、サブプロセッサ3_1及び3_2の
みを例示し、また図15に示したリピータハブ5は説明の
便宜上省略されている。まず、メインプロセッサ1は、
監視端末4からファイル転送要求S20またはダウンロード
要求S21を受けると、内蔵しているメモリデバイス6のRA
Mディスクに対してデータ書込S22を行う。
ィスクはデータ読出S23をメインプロセッサ1に対して行
うと共に、データ書込S24をメモリデバイス6のフラッシ
ュメモリに対して行い、さらにRAMディスクからFTPデー
タ転送S25を例えばサブプロセッサ3_1にまず行う。そし
て、このFTPデータ転送の完了通知S26を同様にしてサブ
プロセッサ3_1に送る。
ッシュメモリに対してデータ書込S27を行うと、フラッ
シュメモリからサムチェックS28がCPUに返される。これ
と共に、フラッシュメモリはFTPデータ転送の結果がOK
である通知S29をメインプロセッサ1に対して行う。
デバイス6は、別のサブプロセッサ3_2に対しても、FTP
データ転送S30を行い、FTPデータ転送完了通知S31をサ
ブプロセッサ3_2のCPUに送ると、サブプロセッサ3_2のC
PUはそのフラッシュメモリに対してデータ書込S32を行
うと共に、上記と同様にサムチェックS33をCPUに返し、
このFTPデータ転送の結果通知S34をサブプロセッサ3_2
のCPUからメインプロセッサ1に送る。
て、メインプロセッサ1からサブプロセッサ3へポイント
−ポイントでデータ転送している。一方、データをダウ
ンロード(転送)する際、ブロードキャスト(UDP)送信
により複数のサブプロセッサに同時にダウンロードを行
う方法があるが、この方法では、UDPのプロトコルでは
送達確認ができないため、結局、アプリケーションレベ
ルでの送達確認の処理が必要となり、またUDPではパケ
ットの特性上、TCPに比べて信頼性が低いから使用する
ことはできない。
でデータ転送することになる。
ロセッサから複数のサブプロセッサへポイント−ポイン
トでデータ転送しているが、この場合にメインプロセッ
サのCPUの処理能力が高く、LAN回線の転送レートも非常
に高い場合は問題ないが、安価なメインプロセッサを使
用してコスト削減するような場合には、サブプロセッサ
の数が多い程全てのサブプロセッサに対してのダウンロ
ードが終了するまでに膨大な時間を要してしまう。
台のサブプロセッサに対してダウンロードする場合、1
サブプロセッサあたり約20秒かかり、全サブプロセッサ
の転送には、単純計算で58分(約1時間)が必要となる。
このようにダウンロードに膨大な時間がかかるため、顧
客へのサービス提供が遅れ、ビジネスチャンスを逸して
しまうという問題があった。
数のサブプロセッサへデータ転送する方法及びこの方法
を用いた装置において、安価なプロセッサを使用して
も、データ転送に要する時間を大幅に削減できるように
することを目的とする。
め、本発明では、メインプロセッサから、パラレル設定
可能なノードを介して複数のサブプロセッサにデータを
転送する方法であって、該メインプロセッサが、該サブ
プロセッサの接続可能数から該ノードのポート数を決定
し、該ポート数に対応した最小ホップ数のマルチキャス
トツリーを選択し、該マルチキャストツリーに沿って各
サブプロセッサに所定のデータを転送することを特徴と
した方法が提供される。
パラレル設定可能なノードと、該ノードを介して該メイ
ンプロセッサに接続される複数のサブプロセッサと、を
備え、該メインプロセッサが、該サブプロセッサの接続
可能数から該ノードのポート数を決定し、該ポート数に
対応した最小ホップ数のマルチキャストツリーを選択
し、該マルチキャストツリーに沿って各サブプロセッサ
に所定のデータを転送することを特徴としたデータ転送
装置が提供される。
小ホップ数を与える複数のマルチキャストツリーを予め
記憶しており、該ポート数により決定される最大サブプ
ロセッサ数を有する一つの該マルチキャストツリーを選
択し、該マルチキャストツリーをさらに、該ホップ数で
グループ化し、各グループ内のパスを決定することがで
きる。
をNとし、該ポート数をpとすると、該最大サブプロセッ
サ数Nmaxが、(p-1)2で2n(nは自然数)に一番近い数で
あり、該グループ数Ngrが(log2Nmax)+1であり、各グル
ープ内のサブプロセッサ数Nsubが2**(log2Nmax-グルー
プ番号)(**はべき乗を示す)であればよい。
ループ毎にサブプロセッサのアクセス順序を決めてお
き、該ノードを経由したメインプロセッサ−サブプロセ
ッサ間及びサブプロセッサ同士間のパスを決定すること
ができる。さらに、上記のノードとしてスイッチングハ
ブを用いることができる。
方法を実現する装置としてのマルチプロセッサシステム
の概念構成が示されている。この図1の概念構成は、図1
5に示した従来例の概念構成と比較すると分かるよう
に、リピータハブ5_1, 5_21〜5_2p-1の代わりに、それ
ぞれノードとしてのスイッチングハブ2_1, 2_21〜2_2p-
1(以下、符号「2」で総称することがある。)を用いて
いる点が異なっている。
トア・フォワード専用方式のパラレル設定可能なノード
であるため、複数のポート間で転送を行う場合に互いに
影響されることがないという特徴があり、メインプロセ
ッサ1からサブプロセッサ3への転送を、スイッチングハ
ブ経由でパラレル処理することにより、データ転送時間
を短縮するものである。
め、図2に示すマルチプロセッサシステムでは、ポート
数p=5のスイッチングハブ2_1の1つのポートをメインプ
ロセッサ1に接続し、同じくポート数p=5のスイッチング
ハブ2_21〜2_24の各1つのポートをそのスイッチングハ
ブ2_1の残りのp-1個のポートに接続する。
りの4個のポートには、それぞれ4台のサブプロセッサ3_
1〜3_4, 3_5〜3_8, 3_9〜3_12,及び3_13〜3_16がそれぞ
れ接続され、最終的に5個のスイッチングハブを用いて1
6台のサブプロセッサを接続している。
ある、メインプロセッサ1が、サブプロセッサ3の接続可
能数からノード(スイッチングハブ)2のポート数を決
定し、該ポート数に対応した最小ホップ数のマルチキャ
ストツリーを選択し、このマルチキャストツリーに沿っ
て各サブプロセッサ3に所定のデータを転送することに
ついて、以下に図を参照して説明する。
テムから、データ転送を実際に行うためのマルチキャス
トツリーがどのように選択されるかを説明する。メイン
プロセッサ1は、図3のフローチャートに示すように、監
視端末4からのダウンロードコマンド(COPY-MEMコマン
ド)などのソフトウエアダウンロ−ド指示を受けると
(ステップS1)、メインプロセッサ1内のデータベース
を検索する(ステップS2)。
種々の数のサブプロセッサから成るマルチキャストツリ
ーが予め格納されており、以下のステップS3〜S5によ
り、これらのマルチキャストの最も好ましいものが選択
されることになる。なお、図中の数字はデータ転送のホ
ップ数を示している。
数の算出(ステップS3) 図4(1)〜(3)…に示す各マルチキャストツリーは、サブ
プロセッサ数2n(nは自然数)に応じて全てのツリー構
造の中でそれぞれ最もホップ数(グループ数)が少なく
好ましいもの(ダウンロード時間が少ないもの)として
選択されたものである。
セッサ数が8台(n=3)の場合には4つのグループに分け、
第1のグループは4台で構成し、このグループ内では2回
のデータ転送で済み、第2のグループでは1回のデータ転
送で済む。また第3及び第4のグループではメインプロセ
ッサ1から直接それぞれ1回のデータ転送が行われるだけ
である。
数、すなわちホップ数は“4”となる。同様にして、同
図(2)に示すようにサブプロセッサ数が16台(n=4)の場合
には、5つのグループに分け、第1のグループは3回のデ
ータ転送で済み、第2のグループは2回のデータ転送で済
み、そして第3のグループは1回のデータ転送で済む。第
4及び第5のグループは同図(1)の場合と同様にメインプ
ロセッサ1から直接それぞれ1回データ転送を受けるだけ
である。
ッサ数が32台(n=5)の場合には、6つのグループに分け、
第1のグループは4回のデータ転送で済み、第2のグルー
プは3回のデータ転送、第3のグループは2回のデータ転
送、第4のグループは1回のデータ転送で済む事になる。
第5及び第6のグループは上記と同様にそれぞれ1回ずつ
である。なお、最後のグループにおいては、常にデータ
転送回数及びサブプロセッサの数は固定値“1”であ
る。
応している。このようなマルチキャストツリーをどのよ
うに選択するかを示したものが図5のフローチャートで
ある。まず、メインプロセッサ1は局データより、接続
可能なサブプロセッサ数Nを検索する(ステップS11)。
なお、図4に示したマルチキャストツリーを構成するサ
ブプロセッサ数Nmaxが2nであり、実際にメインプロセッ
サ1が接続可能なサブプロセッサ3の台数Nとは異なる場
合が当然存在する。これについては後述する。
期値=1に設定し(ステップS12)、ステップS13でN>(p
−1)2であるか否を判定し、“yes”の場合にはポート数
pを“1”だけインクリメント(ステップS14)するが、
“no”の場合には、N=(p−1) 2であることが判明したの
で、この時のポート数pを(p−1)2に代入して一番近い最
大サブプロセッサ数Nmax=2nを検索する(ステップS1
5)。
いては、図示の例の如く、N=16の場合には、(p−1)2
=(5−1)2=16で、ポート数P=5となり、この場合一番近い
最大サブプロセッサ数Nmax=2nは16で最初に設定したサ
ブプロセッサ数Nと一致する。一方、N=196の場合に
は、(p−1)2=(15−1)2=196で、p=15となるので、この場
合のサブプロセッサ数Nmax=2nは128<Nmax<256である
が、より多い方として最大値=256が必要であり、最初に
設定したサブプロセッサ数Nより大きな値(小さくなる
ことはない。)になる。
axが求められると、これに該当するマルチキャストツリ
ーを図4に示した種々のマルチキャストツリーの中から
選択する。すなわち、サブプロセッサ数=8の場合には、
Nmax=8のツリーを選択し(ステップS16)、サブプロセ
ッサ数=16の場合にはNmax=16のマルチキャストツリーを
選択し(ステップS17)、サブプロセッサ数=32の場合に
はNmax=32のマルチキャストツリーを選択し、同様にし
てサブプロセッサ数が2nの場合には、Nmax=2nのマルチ
キャストツリーを選択することになる(ステップS1
8)。
ャストツリーにおいて、上記のNmaxの値からグループ数
Ngr及び各グループのプロセッサ数Nsubを図示の算出式
により求めることができる。この結果、例えばサブプロ
セッサ数=8の場合にはグループ数Ngr=4となり、この各
グループのサブプロセッサ数はNsub=4, 2, 1, 1とな
り、図4(1)に示したサブプロセッサ数Nmax=8の場合と一
致することが分かる。なお、いずれのグループにおいて
も、最後のグループについては常に“1”が固定値とし
て与えられるのでグループ数=ホップ数となる。
数、及び各グループのサブプロセッサ数の算出を行った
後、今度は図6に示すグループ化を行う。ここでは、上
記のようにマルチキャストホップ数でグループ化された
サブプロセッサを算出したグループ数Ngrと各グループ
内のサブプロセッサ数Nsubが既に算出されているので、
選択したマルチキャストツリーのプロセッサ数Nmaxの値
に従い、各グループ毎にサブプロセッサを点線で示すよ
うにサブプロセッサ3_1〜3_16までシーケンシャルにこ
のサブプロセッサ番号を割り当てて行く。
対応する図4(2)においては、16台のサブプロセッサがホ
ップ毎に数字で示されているだけであるが、図6では、
これらの各グループの各サブプロセッサが、図2に例示
したマルチプロセッサシステムにおけるサブプロセッサ
のどこに該当するのかをハントしながら決定している。
に示すサブプロセッサとの対応関係を決めた後、今度は
どのような順序でデータ転送(ソフトウエアダウンロー
ド)を行うかを決める必要があり、図7はこのような場
合のパス接続の概念を示したものである。
セッサ1からスイッチングハブ2_1及び2_21を経由してサ
ブプロセッサ3_1にデータ転送を行う。これが第1ホップ
である。データ転送を受けたサブプロセッサ3_1は、ス
イッチングハブ2_21を経由してサブプロセッサ3_2に対
してデータ転送を行う。これと同時に、メインプロセッ
サ1はスイッチングハブ2_1及び2_23を経由してサブプロ
セッサ3_9にデータ転送を行う。これが第2ホップであ
り、2台のサブプロセッサに同時にデータ転送が行われ
る。
プロセッサ3_2が、スイッチングハブ2_21を経由してサ
ブプロセッサ3_3に対しデータ転送を行い、これと同時
にサブプロセッサ3_1がスイッチングハブ2_21, 2_1,及
び2_22を経由してサブプロセッサ3_6に対してデータ転
送を行う。さらに、サブプロセッサ3_9はスイッチング
ハブ2_23を経由してサブプロセッサ3_10にデータ転送を
行い、さらにメインプロセッサ1はスイッチングハブ2_1
及び2_24を経由してサブプロセッサ3_13にデータ転送を
行う。従って、第3ホップでは4台のサブプロセッサに同
時にデータ転送が行われる。
からスイッチングハブ2_21を経由してサブプロセッサ3_
4にデータ転送が行われ、サブプロセッサ3_2からスイッ
チングハブ2_21, 2_1,及び2_22を経由してサブプロセッ
サ3_5にデータ転送が行われ、サブプロセッサ3_6からス
イッチングハブ2_22を経由してサブプロセッサ3_7にデ
ータ転送が行われ、サブプロセッサ3_1からスイッチン
グハブ2_21, 2_1,及び2_22を経由してサブプロセッサ3_
8にデータ転送が行われる。さらに、サブプロセッサ3_1
0からスイッチングハブ2_23を経由してサブプロセッサ3
_11にデータ転送が行われ、サブプロセッサ3_9からスイ
ッチングハブ2_23を経由してサブプロセッサ3_12へデー
タ転送が行われる。そして、サブプロセッサ3_13からス
イッチングハブ2_24を経由してサブプロセッサ3_14にデ
ータ転送が行われ、さらにメインプロセッサ1からスイ
ッチングハブ2_1及び2_24を経由してサブプロセッサ3_1
5へデータ転送が行われる。従って第4ホップでは8台の
サブプロセッサにデータ転送が同時に行われることにな
る。
ンプロセッサ1からスイッチングハブ2_1及び2_24を経由
してサブプロセッサ3_16にデータ転送が行われる。この
ようにして、全てのデータ転送が5回で終了することに
なる。このようにデータ転送の手順が決まった後、メイ
ンプロセッサ1はデータの転送(ダウンロード)を実行
する(ステップS6)。
り、メインプロセッサの処理能力が高くなくても、各サ
ブプロセッサにこの処理を分散させ、本発明によるパス
接続を使用すれば従来の方法及び装置より転送方法を格
段に高速化させることが可能となる。
プロセッサ1が各サブプロセッサ3に対してパス接続を行
った後、データの転送をする際のフォーマットを示した
ものである。この転送データはメインプロセッサからサ
ブプロセッサへの転送データまたはサブプロセッサから
サブプロセッサへの転送データのいずれも配信するもの
であり、両者の区別は、フォーマットの番号“0”に記
載されている“NotificationCode”(通知情報種別)に
より判別が可能になっている。その他、“Sequence I
D”(シーケンスNO.;01h〜64h)、“FromCPU”(送信
元プロセッサ;0001h〜00B0h:Subプロセッサ00FEh:メ
インプロセッサ)、“To CPU”(送信先プロセッサ;00
01h〜00B0h:Subプロセッサ00FEh:メインプロセッ
サ)、“User Information”(ユーザー判別情報)、
“Frame Page”(フレームページ番号)、“Total Fram
e Page”(総フレームページ数)、そして“data”(デ
ータ部;パス情報他、各種データ転送)で構成されてい
る。
現する装置としてのマルチプロセッサシステムにおける
メインプロセッサ1とサブプロセッサ3のソフトウエア構
成例を示したものである。まずメインプロセッサ1にお
いては、CPY-MEMコマンド処理構造11として、CPY-MEMコ
マンド処理部12と構成計算部13とグループ作成部14とパ
ス作成部15とサブプロセッサ通信部16と送信データ作成
部17とデータ送信部18とを有しており、グループ作成部
14及びサブプロセッサ通信部16はパス/マップデータ19
を保有し、パス作成部15はグループデータ20を保有し、
そして送信データ作成部17及びデータ送信部18は送信デ
ータ21を保有している。
ンド処理構造31として、CPY-MEMコマンド処理部32とメ
イン/サブプロセッサ通信部33とデータ送信部34とデー
タ受信部35とを有し、プロセッサ通信部33はパス/マッ
プデータ36及びグループデータ37を保有し、データ送信
部34は送信データ38を保有し、そしてデータ受信部35は
受信データ39を保有している。
はパス/マップデータ19及び36に予め格納されている。
また、コマンド処理部12及び32は点線で示すように上記
の全てのデータの処理に関っている。図10は、メインプ
ロセッサ1が各サブプロセッサ3にデータ転送を行う時の
シーケンス例を示したものである。この転送シーケンス
は、図16に示した従来例の転送シーケンスにおいて、メ
インプロセッサ1のメモリデバイス6から各サブプロセッ
サ3へFTPデータ転送を行うステップS41及びFTPデータ転
送完了通知ステップS42の代わりに、例えばサブプロセ
ッサ3_1からサブプロセッサ3_2に対してFTPデータ転送
(ステップS30)を行い、且つFTPデータ転送完了通知
(ステップS31)を行う点が異なっている。
ッサから全てのサブプロセッサに対してダウンロードを
行っていたが、本発明ではサブプロセッサから受信した
グループデータ及びパスデータに従って該当するサブプ
ロセッサにダウンロードを実施するようにしている点が
異なっている。但し、ダウンロード処理結果については
従来通りメインプロセッサに通知を返信する(ステップ
S29, S34)。
合のデータ転送を扱った実施例を示している。この実施
例においても、まず図11に示すように、メインプロセッ
サ1内のデータベースを基に、図3のステップS3、すなわ
ち図5に示したツリー選択及びグループ数及び各グルー
プのサブプロセッサ数の算出を行う。
プ化を、図6と同様に実施する。そして、図13に示すよ
うにパスツリーを図3のステップS5、すなわち図7と同様
に実施してパス接続を行う。図14には、メインプロセッ
サ1からサブプロセッサ3へ、及びサブプロセッサ3から
サブプロセッサ3へのデータの送受信タイミングが示さ
れている。すなわち各サブプロセッサ3は図13に示した
パスに従い、受信したデータをさらに次のサブプロセッ
サへ転送する。このように受信と送信を繰り返すが、末
端のサブプロセッサについては受信のみで送信を行わな
い場合がある。
有率はおよそ26%となり、大きく負荷分散されることが
分かる。また、この例では、サブプロセッサ3_1の負荷
が一番高くなっており、定常的に他のタスク処理などに
より、付加が非常に高いことが事前に判明している場合
は、上記のステップS3〜S5のデータ転送を実施した後
に、休んでいるサブプロセッサへその役割を交換する処
理を行うこともできる(パスの入れ換え)ため、性能の
最適化を事前に予測する措置を講じることが可能とな
る。
ル設定可能なノードを介して複数のサブプロセッサにデ
ータを転送する方法であって、該メインプロセッサが、
該サブプロセッサの接続可能数から該ノードのポート数
を決定し、該ポート数に対応した最小ホップ数のマルチ
キャストツリーを選択し、該マルチキャストツリーに沿
って各サブプロセッサに所定のデータを転送することを
特徴とした方法。
セッサが、最小ホップ数を与える複数のマルチキャスト
ツリーを予め記憶しており、該ポート数により決定され
る最大サブプロセッサ数を有する一つの該マルチキャス
トツリーを選択し、該マルチキャストツリーをさらに、
該ホップ数でグループ化し、各グループ内のパスを決定
することを特徴とした方法。
ッサの接続可能数をNとし、該ポート数をpとすると、該
最大サブプロセッサ数Nmaxが(p-1)2で与えられる2n(n
は自然数)に一番近い最大数であり、該グループ化の数
Ngrが(log2Nmax)+1であり、各グループ内のサブプロセ
ッサ数Nsubが2**(log2Nmax-グループ番号)(**はべき乗
を示す)であることを特徴とした方法。
いて、該メインプロセッサが、各グループ毎にサブプロ
セッサのアクセス順序を決めておき、該ノードを経由し
たメインプロセッサ−サブプロセッサ間及びサブプロセ
ッサ同士間のパスを決定することを特徴とした方法。
いて、該ノードが、スイッチングハブであることを特徴
とした方法。 (付記6)メインプロセッサと、パラレル設定可能なノ
ードと、該ノードを介して該メインプロセッサに接続さ
れる複数のサブプロセッサと、を備え、該メインプロセ
ッサが、該サブプロセッサの接続可能数から該ノードの
ポート数を決定し、該ポート数に対応した最小ホップ数
のマルチキャストツリーを選択し、該マルチキャストツ
リーに沿って各サブプロセッサに所定のデータを転送す
ることを特徴としたデータ転送装置。
セッサが、最小ホップ数を与える複数のマルチキャスト
ツリーを予め記憶しており、該ポート数により決定され
る最大サブプロセッサ数を有する一つの該マルチキャス
トツリーを選択し、該マルチキャストツリーをさらに、
該ホップ数でグループ化し、各グループ内のパスを決定
することを特徴としたデータ転送装置。
ッサの接続可能数をNとし、該ポート数をpとすると、該
最大サブプロセッサ数Nmaxが(p-1)2で与えられる2n(n
は自然数)に一番近い最大数であり、該グループ化の数
Ngrが(log2Nmax)+1であり、各グループ内のサブプロセ
ッサ数Nsubが2**(log2Nmax-グループ番号)(**はべき乗
を示す)であることを特徴としたデータ転送装置。
いて、該メインプロセッサが、各グループ毎にサブプロ
セッサのアクセス順序を決めておき、該ノードを経由し
たメインプロセッサ−サブプロセッサ間及びサブプロセ
ッサ同士間のパスを決定することを特徴としたデータ転
送装置。
おいて、該ノードが、スイッチングハブであることを特
徴としたデータ転送装置。
送方法及び装置によれば、メインプロセッサが、複数の
サブプロセッサの接続可能数からパラレル設定可能なノ
ードのポート数を決定し、該ポート数に対応した最小ホ
ップ数のマルチキャストツリーを選択し、該マルチキャ
ストツリーに沿って各サブプロセッサに所定のデータを
転送するように構成したので、以下のような効果が得ら
れる。
よりデータをダウンロードする時間を、大幅に短縮する
ことができる。これは、サブプロセッサの数が多くなれ
ばなるほど効果を発揮する。従来例と本発明を比べると
下記のようになり(ホップ数で示す)、その効果が大き
いことが分かる。 ・サブプロサセッサ数=16個→従来例=16ホップ、 本発
明=5ホップ→3.2倍 ・サブプロサセッサ数=32個→従来例=32ホップ、 本発
明=7ホップ→4.5倍 ・サブプロサセッサ数=64個→従来例=64ホップ、 本発
明=9ホップ→7.1倍 ・サブプロサセッサ数=n 個→〜以降、上記の如く指数
関数的に処理能力が向上する。
示したブロック図である。
ッサを用いた場合のマルチプロセッサシステムを示した
ブロック図である。
作を示したフローチャート図である。
マルチキャストツリーの一般化概念を示したブロック図
である。
ツリー選択及びグループ数算出を行う場合の概念を示し
たフローチャート図である。
グループ化の概念を示した図である。
パス接続の概念を示した図である。
るメインプロセッサとサブプロセッサ間のデータ転送時
のフォーマットを示した図である。
れるメインプロセッサとサブプロセッサのソフトウエア
構成例を示したブロック図である。
データ転送シーケンス例を示した図である。
64台のサブプロセッサを用いた場合のグループ数の算出
例を示した図である。
化を示した図である。
た例を示した図である。
信/受信タイミングを示した図である。
る。
る。
Claims (3)
- 【請求項1】メインプロセッサから、パラレル設定可能
なノードを介して複数のサブプロセッサにデータを転送
する方法であって、 該メインプロセッサが、該サブプロセッサの接続可能数
から該ノードのポート数を決定し、該ポート数に対応し
た最小ホップ数のマルチキャストツリーを選択し、該マ
ルチキャストツリーに沿って各サブプロセッサに所定の
データを転送することを特徴とした方法。 - 【請求項2】請求項1において、 該メインプロセッサが、最小ホップ数を与える複数のマ
ルチキャストツリーを予め記憶しており、該ポート数に
より決定される最大サブプロセッサ数を有する一つの該
マルチキャストツリーを選択し、該マルチキャストツリ
ーをさらに、該ホップ数でグループ化し、各グループ内
のパスを決定することを特徴とした方法。 - 【請求項3】メインプロセッサと、 パラレル設定可能なノードと、 該ノードを介して該メインプロセッサに接続される複数
のサブプロセッサと、を備え、 該メインプロセッサが、該サブプロセッサの接続可能数
から該ノードのポート数を決定し、該ポート数に対応し
た最小ホップ数のマルチキャストツリーを選択し、該マ
ルチキャストツリーに沿って各サブプロセッサに所定の
データを転送することを特徴としたデータ転送装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002009101A JP3986316B2 (ja) | 2002-01-17 | 2002-01-17 | データ転送方法及び装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002009101A JP3986316B2 (ja) | 2002-01-17 | 2002-01-17 | データ転送方法及び装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003218896A true JP2003218896A (ja) | 2003-07-31 |
JP3986316B2 JP3986316B2 (ja) | 2007-10-03 |
Family
ID=27647190
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002009101A Expired - Fee Related JP3986316B2 (ja) | 2002-01-17 | 2002-01-17 | データ転送方法及び装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3986316B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009296595A (ja) * | 2008-06-06 | 2009-12-17 | Fisher Rosemount Syst Inc | 階層同期トポロジ内で情報を同期化する方法、装置、製造品、及びデータネットワーク |
JP2020126487A (ja) * | 2019-02-05 | 2020-08-20 | 富士通株式会社 | 並列処理装置、データ転送先決定方法およびデータ転送先決定プログラム |
-
2002
- 2002-01-17 JP JP2002009101A patent/JP3986316B2/ja not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009296595A (ja) * | 2008-06-06 | 2009-12-17 | Fisher Rosemount Syst Inc | 階層同期トポロジ内で情報を同期化する方法、装置、製造品、及びデータネットワーク |
JP2020126487A (ja) * | 2019-02-05 | 2020-08-20 | 富士通株式会社 | 並列処理装置、データ転送先決定方法およびデータ転送先決定プログラム |
JP7180424B2 (ja) | 2019-02-05 | 2022-11-30 | 富士通株式会社 | 並列処理装置、データ転送先決定方法およびデータ転送先決定プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP3986316B2 (ja) | 2007-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5304194B2 (ja) | バリア同期装置、バリア同期システム及びバリア同期装置の制御方法 | |
JP2505064B2 (ja) | 経路選択方法 | |
US20020040389A1 (en) | System and method for remotely-managed content distribution network | |
CN103368840A (zh) | 减少多宿主网络连接内的边界网关协议会话的流量损失 | |
JP4763405B2 (ja) | データ・フロー・アプリケーションのためのネットワーク・オン・チップ半自動通信アーキテクチャ | |
CN109358971B (zh) | 动态网络环境中快速且负载均衡的服务功能链部署方法 | |
US10826823B2 (en) | Centralized label-based software defined network | |
US20100287306A1 (en) | Computer supporting remote scan | |
US20060206699A1 (en) | Network boot system | |
JP6272190B2 (ja) | 計算機システム、計算機、負荷分散方法及びそのプログラム | |
EP1182847A1 (en) | Communication control device and control method | |
JP2012009996A (ja) | 情報処理システム、中継装置、および情報処理方法 | |
US20050254429A1 (en) | Management node deice, node device, network configuration management system, network configuration management method, node device control method, management node device control method | |
CN103914556A (zh) | 大规模图数据处理方法 | |
EP1641198B1 (en) | Method for routing traffic using traffic weighting factors | |
CN105229975A (zh) | 基于应用提供的传输元数据的网络传输调整 | |
US20030131225A1 (en) | Fast booting of plex array | |
US7600214B2 (en) | Use of metadata for seamless updates | |
US20080147881A1 (en) | System and method for placing computation inside a network | |
US8996427B2 (en) | Method for a system that solves multimedia resource discovery and retrieval problem sets | |
JP2003218896A (ja) | データ転送方法及び装置 | |
CN112055347A (zh) | 一种多网关协同工作方法及系统 | |
CN1695363B (zh) | 为分组处理确定时钟信号的方法和系统 | |
US20160247086A1 (en) | Method for a system that discovers, locates, indexes, ranks, and clusters multimedia service providers using hierarchical communication topologies | |
CN113347099A (zh) | 一种分布式网络流量转发方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040825 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060623 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060704 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061128 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070710 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070710 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100720 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100720 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110720 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110720 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120720 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120720 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130720 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |