JPH0450780B2 - - Google Patents

Info

Publication number
JPH0450780B2
JPH0450780B2 JP23471086A JP23471086A JPH0450780B2 JP H0450780 B2 JPH0450780 B2 JP H0450780B2 JP 23471086 A JP23471086 A JP 23471086A JP 23471086 A JP23471086 A JP 23471086A JP H0450780 B2 JPH0450780 B2 JP H0450780B2
Authority
JP
Japan
Prior art keywords
route
node
network
message
nodes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP23471086A
Other languages
Japanese (ja)
Other versions
JPS62109451A (en
Inventor
Uiriamu Buraisu Junia Furanku
Aren Ueingaaten Robaato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JPS62109451A publication Critical patent/JPS62109451A/en
Publication of JPH0450780B2 publication Critical patent/JPH0450780B2/ja
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06F15/161Computing infrastructure, e.g. computer clusters, blade chassis or hardware partitioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06F15/163Interprocessor communication
    • G06F15/173Interprocessor communication using an interconnection network, e.g. matrix, shuffle, pyramid, star, snowflake
    • G06F15/17356Indirect interconnection networks
    • G06F15/17368Indirect interconnection networks non hierarchical topologies
    • G06F15/17381Two dimensional, e.g. mesh, torus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/02Topology update or discovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/28Routing or path finding of packets in data switching networks using route fault recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L45/00Routing or path finding of packets in data switching networks
    • H04L45/42Centralised routing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q3/00Selecting arrangements
    • H04Q3/64Distributing or queueing
    • H04Q3/66Traffic distributors
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C29/00Checking stores for correct operation ; Subsequent repair; Testing stores during standby or offline operation
    • G11C29/006Checking stores for correct operation ; Subsequent repair; Testing stores during standby or offline operation at wafer scale level, i.e. wafer scale integration [WSI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Computer And Data Communications (AREA)

Description

【発明の詳細な説明】[Detailed description of the invention]

A 産業上の利用分野 本考案は、通信ネツトワークに関し、さらに詳
しくは、ネツトワークでメツセージのとるパス
(path)、またはルートが動的に計算される、す
なわち、ネツトワークの2つのユーザーの間で通
信セツシヨンが確立される度に、パスが新規に決
定されるネツトワークに関する。 B 従来技術およびその問題点 通信ネツトワークとは、コンピユータ、通信制
御装置、関連の周辺装置、および、ネツトワーク
の中の遠隔地の「エンド・ユーザー」による情報
通信の確立・維持を可能にするリンクの配置をい
う。ここで、エンド・ユーザーとは、端末装置
(以下、端末ともいう)を扱う人間、ホスト・コ
ンピユータ上で走るアプリケーシヨン・プログラ
ム、または、インテリジエント装置制御装置(す
なわち、ワークステーシヨン、パーソナル・コン
ピユータ、表示制御装置、等)の何れであつても
よい。第1図は、小さな通信ネツトワーク10を
示している。そこでは、2つのIBM(登録商標)
システム370ホスト・コンピユータ12,14お
よび3つのIBM3725通信制御装置16,18,
20が相互接続されており、図のように接続され
た5つの端末22,24,26,28,30をサ
ポートしている。通信リンク32,34,36,
38,40,44は、コンピユータ12,14お
よび通信制御装置16,18,20を、図のよう
に相互接続している。 第1図の例えば端末30とホスト・コンピユー
タ12の間の通信は、いくつかの異なるパスを通
すことが可能である。ネツトワークにおける通信
を視覚化するために、規則が採用されており、そ
れによれば、ネツトワーク内のコンピユータと通
信制御装置はまとめてノードと呼ばれ、ノード間
の接続はリンクと呼ばれる。エンド・ユーザー装
置は、デイスプレイであり、プリンタであれ、ま
とめて端末と呼ばれる。第2図は、第1図のネツ
トワーク10の、ノード・リンク図であり、第2
図における同様の要素には、第1図と同じ参照番
号(ただしプライム符号付)をつけている。図に
は端末が示されていないが、これは、本発明の関
係する通信の確立・制御処理に、端末は直接関係
しないからである。 第1図の端末30のエンド・ユーザーとホス
ト・コンピユータ12のアプリケーシヨン・プロ
グラムとの間の会話(セツシヨンと呼ばれる)
は、ノード12,18、すなわち、第2図の1
2′,18′間の通信を意味する。このようなセツ
シヨンでは、いくつかの異なるパスが可能であ
る。例えば、単純にリンク34′を経由する通信
であつてもよいし、リンク32′,40′、ノード
16′を含むパスであつてもよい。または、リン
ク32′,36′,38′およびノード16′,1
4′を含むパスであつてもよい。選択の幅は、ネ
ツトワークのサイズと複雑さに応じて増加する。 ネツトワークが完全に接続されている極めて限
られた環境を除き、(一方のエンド・ユーザーを
サポートする)基点ノードで入力された情報は、
1つ以上の中間ノードを経て、(他方のエンド・
ユーザーをサポートする)宛先ノードに到達す
る。1つのノードが別のノードに向けて送信する
情報は、ノードを相互接続するリンクを経なけれ
ばならない。あるネツトワークでは、特定の通信
セツシヨンの際に、2つのエンド・ユーザー間で
伝送される全情報が、同じパス(その場合、ルー
トと呼ばれる)を通過する。ルートを生成する機
構(以後、ルート機構と呼ぶ)は、特定のネツト
ワーク・アーキテクチヤに依存する。 ほとんどのネツトワーク・ルーテイング機構で
は、各(基点、中間または宛先)ノードのルーテ
イング・テーブルを用いて、メツセージを次のノ
ードに送る。ルーテイング機構は様々であるが、
いくつかは、ルーテイング・テーブルの索引(ル
ート識別子、もしくは、ソースまたは宛先ノード
の識別子の組合せの何れか一方)を用いて、どの
外向きリンク、したがつて次はどの隣接するネツ
トワーク・ノードにメツセージを送るかを指定す
る。当然、メツセージが宛先ノードに到着する
と、該メツセージが別の中間ノードに送られるこ
とはない。その代り、エンド・ユーザーによる処
理が行われる。 各ネツトワーク・ノードのルーテイング・テー
ブルは、静的または動的に確立することができ
る。静的な場合、ルーテイングの諸定義は、ネツ
トワーク操作が始動されたときに固定される。静
的機構は、本発明に関係しないので、議論を省
く。 動的ルーテイングでは、特定の通信セツシヨン
の際に使用可能な、ソース・ノードから宛先ノー
ドに至るエンド・ツー・エンドのルートを動的に
作成するルート作成技術が用いられている。この
エンド・ツー・エンドのルートは、該ルートを用
いる全セツシヨンが終了するまで、定義されたま
まで、かつアクテイブであり続ける。その後、該
ルートを取り除きネツトワーク資源、例えばルー
テイング・テーブル・エントリを解放して、他の
動的に生成されるルートに用いることが可能であ
る。 ネツトワーク内で動的ルートを生成するにはい
くつかの方法を用いることができる。1つの方法
は、ネツトワークの物理的ノードとリンク全部
の、連結性、状況、および動的にルートを築くた
めの物理的特性を含むアイデンテイテイを内容と
するトポロジー・データ・ベースを用いる。この
方法によれば、記憶された状況に基づいて適当な
ノードとリンクが選択されるとともに、ルートで
用いるノードとリンクのリストを内容とするメツ
セージ(以後、ルート・セツトアツプ・メツセー
ジと呼ぶ)が生成される。ルート・セツトアツ
プ・メツセージは、該リストの各ノードを通過
し、各ノードがそのルーテイング・テーブル中に
エントリを築けるようにする。その結果、該ルー
トに割り当てられたセツシヨンのための、次に続
くメツセージは、ルート・セツトアツプで識別さ
れた同じ物理的ノードを通過できる。順方向およ
び逆方向ポインタは、どちらもノードのルーテイ
ング・テーブルに置かれる。 通信ネツトワークにおけるルーテイングは、
()IBM Systems Journal,Vol.22,No.4
(1983)の“SNA Routing:Past,Present,
and Possible Future”、()IEEE
Transactions on Communications,Vol.COM
−29,No.4(1981)の“Routing and Flow
Control in TYMNET”、および()IEEE
Transactions on Communications,Vol.COM
−28,No.5、(1980)の“The New Routing
Algorithm for the ARPANET”において議論
されている。 明らかに重要なことは、トポロジー・データ・
ベースが通信用に使用可能なノードとリンクに関
する現在の情報を持つことである。さもなけれ
ば、使用不能のノードまたはリンクを含むルート
を生成する試みがなされるかもしれず、そうする
と、使用可能なルートが現実に見つかるまでに、
ルート生成を数回試みなければならないという事
態も生じ得る。これは、ネツトワーク資源の不必
要な浪費を意味する。オペレータによるマニユア
ル入力の他に、隣接するノードによる状況変化の
同報通信(ブロードキヤスト)によつて、ネツト
ワークのノードおよびリンク(以後、ネツトワー
ク要素と呼ぶ)の初期状況、障害および再活動化
の報告がなされてきた。前記(),()の論文
では、このような同報通信による更新方法が記さ
れている。同報通信による状況更新は、オペレー
タの介在を必要としないという利点をもつ。しか
しながら、これには、特に大きく、複雑なネツト
ワークにおいて、ネツトワークのオーバーヘツ
ド・トラフイツクが著しく増加するという問題が
ある。ある状態では、このオーバーヘツドを減ら
すために、ネツトワーク状況のむしろ完全ではな
い知識を受諾するのが好ましい。実際、そのよう
なネツトワークでは、システム中に広まる同報通
信メツセージ、さもなければネツトワーク中で永
久に反響するメツセージを「殺す」何らかの機構
を持つ必要がある。典型的な機構には、カツトオ
フ時間の統合が含まれる。なお、該カツトオフ時
間の後、メツセージはネツトワークから放棄され
るのである。しかしながら、このような制限機構
をもつてしても、状況更新メツセージは、ネツト
ワークのメツセージ処理能力全体の大きな部分を
占めるので、ユーザー・メツセージの使用できる
容量が少なくなつてしまう。 したがつて、明らかに、従来のトポロジー・デ
ータ・ベース更新のためのスキームに比べて、ネ
ツトワークのメツセージ処理能力に対する要求が
著しく減るような、動的ルーテイング環境におけ
る、トポロジー・データ・ベースの更新方法が必
要とされる。 C 問題点を解決するための手段 本発明は、メツセージ送受信ノードおよび前記
ノードを相互接続する通信リンクからなる複数の
ネツトワーク要素を含むデータ伝送ネツトワーク
において、ノード間の通信パスを確立するととも
に、ネツトワーク要素の可用性に関するデータを
集めるための方法であつて、 (a) 通信パスの確立を試みるノードのそれぞれに
関連する記憶要素において、潜在的に通信に使
用可能なネツトワーク要素に関するデータを記
憶し、 (b) 前記記憶されたデータを用いて、起点となる
ノードを前記ネツトワークの別のノードと相互
接続する選択された要素からなる通信パスを選
択し、 (c) 前記パスの確立を試み、 (d) 選択された要素がすべて通信に使用可能であ
れば、前記パスを確立し、 (e) 前記パスにおけるネツトワーク要素の不可用
性が前記パスの確立を試みる際または確立後に
前記パスに含まれるノードにおいて検出された
ことに応答して、該ノードにおいて該要素の不
可用性に関するデータを生成し、前記パスに含
まれるネツトワーク要素を介して前記起点ノー
ドに送つてその記憶要素に記憶し、後の通信パ
スの選択の際に用いる ことを特徴とする。 その結果、本発明は、障害の生じた要素の使用
に関係する特定の要素にだけ、該要素の状況を知
らせるので、複雑な通信ネツトワークの場合で
も、全体の状況メツセージ・トラフイツクを大幅
に減らすことができる。 D 実施例 概 要 本発明のフイードバツク機構は、トポロジー・
データ・ベースに対してネツトワークのノードと
リンクの状況を動的に知らせるのに用いることの
できる方法および装置を提供する。その結果、物
理的なルート要素の状況を知つて、効率よくルー
ト・セツトアツプ・メツセージを生成することが
できる。以下の記述は、例えばノードとしては
IBMシステム370コンピユータおよびIBM3725通
信制御装置、そして、ネツトワーク相互接続用に
は適当な通信リンクからなるIBM SNAネツトワ
ークに適用できる。しかしながら、原理とプロト
コルは、十分一般的に提示されているので、ルー
ト生成用の1以上のトポロジー・データ・ベー
ス、および、通信セツシヨン確立・維持用の各ノ
ードのローカル・ルーテイング・テーブルに依存
する動的ルーテイングを有するどんな通信ネツト
ワークにも適用できる。 好ましい実施例では、各トポロジー・データ・
ベースは、最初に、すべてのノードとリンク、お
よび、それらの隣接するノードとの替在的連結性
に関する情報を与えられる。この情報は、対話的
に、または一括(バツチ)定義によつて、従来の
入力ステートメントを経て入力される。リンクと
ノードのステートメントは、ライン(リンク)伝
送速度、ノード・バツフア・サイズ、要素データ
伝送機密保護(セキユリテイ)のような定められ
た特性を指定する。これらは、エンド・ユーザー
によつて、ルートを要求するのに用いられる。該
特性は、後で、操作、定義および状態の規則にお
いて、説明される。さらに、トポロジー・デー
タ・ベースの中の各ネツトワーク要素は、最初、
「仮活動的」つまり使用可能のマークをつけられ
る。この初期状況は、対応する要素の現実の状況
と無関係であるが、ルート選択技術による、ルー
ト・セツトアツプ試行のための要素の選択、およ
び本発明のフイードバツク機構を用いた、要素の
現実の活動的(オペレイテイブ)または非活動的
状況の動的な確認が可能になる。該情報は、ルー
ト要求を受けとつたときに、走査と比較に使える
よう、従来式に記憶される。 この情報は、(1)ルート、(2)リンク、(3)ノードの
ために入力される。したがつて、(バツチ式とは
反対の)対話式入力方法を仮定した場合、ルー
ト・ステートメントは、通信が許される2つのノ
ード間のルートを定義する情報の入力に用いられ
る。該ステートメントは、順序正しくそのルート
のリンクとノードを、そしてそのルートのための
識別子(ID)を、指定する。通信し得るノード
の対毎に、それらのノード間の区別できるルート
と同じ数のルート・ステートメントが入力され得
る。第3図は、第2図のノード16′,14′間の
潜在的なルートのためのトロポロジー・データ・
ベース・エントリを示す。この場合、50,5
2,54という3つのルートが存在し得る。第4
図は、ルート・ステートメント58の形式を示
す。リンク・ネームおよびノード・ネーム60
は、基点ノードから始まつて宛先ノードに至るま
で、メツセージがそのルートを通過する順番に配
置される。ステートメント・タイプ62は、該ス
テートメントをルート・ステートメントであると
識別する。 第5図と第6図は、それぞれリンク・ステート
メント64とノード・ステートメント66を示
す。要素を識別するとともに、前述した特性のた
めのデータを含む。様々なフイールド68,70
が示されている。ステートメント・タイプ72,
74は、該ステートメントを、それぞれ、リン
ク・ステートメントまたはノード・ステートメン
トであると識別する。ルート、リンクおよびノー
ド・ステートメントを経て入力される情報は、ル
ート要求を受けとつたとき、走査と比較に使える
よう、従来式に記憶される。その結果、まず指定
されたエンド・ノード間で識別されたすべてのル
ートが探索され、次に、選択されたルートにおけ
る要素の特性を突き合わせて、指定された特性に
対して最良のものを発見する。このようにして、
最良のルートが選択される。 エンド・ユーザーが別のエンド・ユーザーとの
通信を望むと、基点ノードに常駐する制御プログ
ラムに対して、セツシヨンの要求がなされる。該
セツシヨン要求は、エンド・ユーザーをサポート
するソースおよび宛先ノードのネームと、サービ
ス・クラスのネームを含む。サービス・クラスと
は、ルートの前記特性のセツトを選択するため
の、慣用的な速記ある。好ましい実施例では、セ
ツシヨン要求の情報は、メツセージ(以後、ルー
ト要求メツセージと呼ぶ)の形で、ルートの選択
のために、最も近い使用可能なトポロジー・デー
タ・ベースに送られる。第7図は、ルート要求メ
ツセージ76を示す。これは、該メツセージをル
ート要求であると識別する要求コード78、基点
ノード・ネーム79、宛先ノード・ネーム80、
およびサービス・クラス・ネーム82からなる。 ルート要求メツセージを受け取ると、トポロジ
ー・データ・ベースは、含まれる要素が指定され
たサービス・クラスで識別される特性に従う潜在
的なルートを選択する。全く同一の要素のセツト
を持つルートが、既に同じ特性で用いられている
場合、該セツシヨンは既に生成されているルート
に割り当てられる。ルートが生成されていなかつ
た場合、トポロジー・データ・ベースが走査さ
れ、要求される特性に対する現実の要素の特性の
突合せに基づいて、ソースおよび宛先ノード間の
最良のルートが選択される。このプロセスでは、
活動的だと仮定されている。または知られている
ノードとリンクだけが選択され得る。選択された
ルートは、該ルートの一意的な識別子(ルート
ID)とともに、該ルートを構成するノードとリ
ンクのリストを含むメツセージ(以後、ルート・
セツトアツプ・メツセージと呼ぶ)の形で、記述
される。第8図は、ルート・セツトアツプ・メツ
セージ84を示す。要求コード86は、該メツセ
ージがルート・セツトアツプ・メツセージである
と識別する。ルートID87はルートを識別する。
ノード・ネームおよびリンク・ネーム88は上記
第4図のルート・ステートメント58の場合のよ
うに、メツセージが該ルートを伝わる順序で現れ
る。 ルート要素は、最初、活動的だと仮定される。
なぜなら、トポロジー・データ・ベースが活動化
されたとき、各ネツトワーク要素の状況は未知だ
からである。オペレータの入力、他のデータ・ベ
ースとの交換、または各ネツトワーク要素への問
いにより、トポロジー・データ・ベースで定義さ
れた各要素の状況を最初に獲得するのではなく、
本発明の好ましい実施例のようにして、セツシヨ
ンが要求される際に、状況を知るのである。 ルート・セツトアツプ・メツセージがネツトワ
ークを通過する際に、各活動ノードは、両方向の
通信用に、従来式でルーテイング・テーブル・エ
ントリを生成する。すなわち、ルート・セツトア
ツプ・メツセージが処理されるとき、ルーテイン
グ・テーブルにエントリが作られる。その内容
は、ルートID(基点および宛先のノード・ネーム
またはアドレスを含む)と、外向きリンク・アド
レスである。公知のように、このようにすること
により、以後、該メツセージに伴うルートIDを
経て、メツセージの迅速なルーテイングが可能に
なる。この情報を持つてメツセージが到着する
と、簡単にテーブルが走査され、メツセージの送
付に十分な外向きリンク・アドレスが生じる。 他の実施例では、ルートIDは縮小されて、各
ノードにおける単一のローカル・パス識別子
(LPID)となつている。LPIDは、ルート・セツ
トアツプ・メツセージが到着する際にそのルート
に割り当てられる。零から始まる順番に選ばれる
番号であつてもよい。LPIDは、テーブルに入力
されるとともに、前のノードに送り返され、その
ノードのルーテイング・テーブルに入力される。
本実施例の各ルーテイング・テーブルは、それの
割り当てるLPIDは、次のノードへの外向きリン
クと、そのルートの次のノードによつて割り当て
られるLPIDを有する。本実施例中のノードにメ
ツセージが到着すると、該ノード用のLPIDがヘ
ツダから引き出され、該セツシヨンのためのテー
ブル・エントリの配置に用いられる。続いて、テ
ーブルに配置されている次のノードのLPIDは、
入力されるLPIDと交換される。次に、該メツセ
ージは、割り当てられた外向きリンク等を経て、
次のノードに送られる。第9図は、LPID法を用
い、仮説的ルートのための単方向エントリ88を
含むルーテイング・テーブル90を示す。図示の
ように、1つのエントリについて、3つの要素、
すなわち、LPID94、外向きリンクID96、お
よび、次のノードのためのLPID98がある。 ルート・セツトアツプ・メツセージから、ルー
テイング・テーブル・エントリに必要な情報が引
き出された後、該メツセージは次の要素等に送ら
れ、該ルートに必要なすべてのテーブル・エント
リが生成される。もし、エンド・ツー・エンド・
ルートにおけるすべてのノードとリンクがアクテ
イブならば、ルート・セツトアツプは成功であ
り、エンド・ツー・エンド・ルートが生成され
る。 通過される各ノードの各ルーテイング・テーブ
ル・エントリは、活動的のマークをつけられる。
もし、リンクまたはノード自身の一方が非活動的
であるために、ルート・セツトアツプ・メツセー
ジを次のノードへ送れないノードがあると、該非
活動的またはノードを識別するルート障害メツセ
ージが発生され、かつルート基点に戻され、さら
にトポロジー・データ・ベースに送られる。該ト
ポロジー・データ・ベースにおいて、該非活動的
状況はマークされる。そして、その要素は、状況
が変化するまで、続くルート・セツトアツプ・メ
ツセージでは用いられない。 ルート・セツトアツプにおいて識別された各ノ
ードを通つてルート障害メツセージが戻る際、該
ルートの状況は非活動的のマークをつけられるけ
れども、各ノードのルーテイング・テーブル・エ
ントリは不変である。これらのテーブル・エント
リは、障害の生じた要素が再活動化されたとき
に、エンド・ノード(そして、そのトポロジー・
データ・ベース)へのフイードバツク機構のため
に用いられる。ルート障害メツセージは、障害の
生じたルート・セツトアツプ・メツセージから、
セツト・アツプされたノード・ルーテイング・テ
ーブル・エントリを追うことによつて、伝送され
る。第10図は、LPID準拠ネツトワークのため
のルート障害メツセージ100を示す。これに
は、該メツセージがルート障害メツセージである
と識別する要求コード102、障害を検出するノ
ードのノードID104、障害発生要素ID106、
および次のLPID108が含まれている。 ルート障害を知らせたノード(「隣接ノード」)
によつて、非活動的要素がその後活動的になつた
ことが検出されると、ルート要素活動メツセージ
が生成されて、基点ノード、さらにトポロジー・
データ・ベースへ送られる。すると、トポロジ
ー・データ・ベースは、その要素の状況エントリ
を「活動的」にリセツトする。その結果、該要素
は、その後のルート・セツトアツプ試行のために
使用可能となる。ルート要素活動メツセージは、
要求コードによつてルート要素活動メツセージで
あると識別される点を除き、ルート障害メツセー
ジ100(第10図)と同じである。 1つ以上のルートが、非活動的要素の使用を試
みた場合、1セツト以上のルーテイング・テーブ
ル・エントリが隣接ノードで生成される。そし
て、生成されたエントリのセツトと同じ数だけ、
ルート要素活動メツセージが生成され、かつ、対
応する基点ノードに送り返され、該要素のための
トポロジー・データ・ベース・エントリを「活動
的」にリセツトする。 このような通知の流れは、ルート障害メツセー
ジの場合と同様の方法で、障害の生じたルート・
セツトアツプ・メツセージから、セツトアツプさ
れたノード・ルーテイング・テーブル・エントリ
を追うことによつて、ルート基点ノードに至る。 エンド・ツー・エンド・ルートの確立が成功
し、該ルートのリンクまたはノードで障害が生じ
た後も、同じ処理が用いられる。同じルート障害
メツセージが、この場合は両方のエンド・ノー
ド、つまり、起点ノードと宛先ノードに戻され、
各エンド・ノードのトポロジー・データ・ベース
に送られる。ルート障害メツセージは、障害の生
じた要素を識別する。そして、最初の、ルートを
セツト・アツプする障害の場合のように、該メツ
セージがエンド・ノードに戻る際、エンド・ノー
ドに至るルート・セグメントのルーテイング・テ
ーブル・エントリは不変である。前の場合のよう
に、障害の生じた要素が活動的になると、ノー
ド・ルーテイング・テーブル・エントリが、ルー
ト要素活動メツセージ(障害点を巡つて、各方向
に1つ)によつて、エンド・ノードへ戻るルート
を追うのに用いられる。該メツセージは、トポロ
ジー・データ・ベースに送られて、該ネツトワー
ク要素の活動的状況が示される。 どちらの場合でも、ルート要素活動メツセージ
がトポロジー・データ・ベースへ流れる際、ルー
テイング・テーブル・エントリは、該ルートに沿
うノードから除かれ、あたかも、エンド・ツー・
エンド・ルートが、該ルートを用いる全セツシヨ
ンの終了後に普通に抹消されつつあるかのよう
に、ルーテイング・テーブルのスペースを回復す
る。 以下でさらに詳細に述べるように、フイードバ
ツク機構は、ルートに沿う単一点、多重点どちら
の障害に直面しても機能する。 好ましい実施例のフイードバツク機構の基本要
素は、規則、定義、状態およびプロトコルのセツ
トにより記述可能であり、これらは、ここで述べ
る動的ルーテイングを有するどんな通信ネツトワ
ークにも適用可能である。プロトコルは、4つの
操作ケースについて述べる。 操作、定義、および状態の規則 1 トポロジー・データ・ベース 1以上のトポロジー・データ・ベースが存在
し、その内容は、ネツトワークのノード、連結
性、および状況データであつて、これらは、通信
ネツトワークを通るエンド・ツー・エンド・ルー
トの選択に用いることができる。 各ルート要素(つまり、各ネツトワーク・ノー
ドと各リンク。ノードは、ソース、宛先、中間ノ
ードのホストまたは通信プロセツサの何れであつ
てもよい。リンクは、テレプロセシング・リン
ク、チヤネル・コネクシヨン、ローカル・テレプ
ロセシング・ループ、ローカル・エリア・ネツト
ワーク、フアイバ光学ライン、または、2つのホ
ストもしくは通信プロセツサ・ノードを接続でき
る他の任意の媒体であつてもよい。)について、
表のようなパラメータのセツトが存在する。
A. INDUSTRIAL APPLICATIONS The present invention relates to communication networks, and more particularly, to networks in which the path or route taken by a message is dynamically calculated, i.e., between two users of the network. It relates to a network in which a new path is determined each time a communication session is established. B. Prior Art and its Problems A communication network is a network that enables computers, communication control devices, related peripheral devices, and "end users" at remote locations within the network to establish and maintain information communications. Refers to the arrangement of links. Here, an end user is a person who handles a terminal device (hereinafter also referred to as a terminal), an application program running on a host computer, or an intelligent device controller (i.e., a workstation, a personal computer, display control device, etc.). FIG. 1 shows a small communications network 10. FIG. There, two IBM®
System 370 host computers 12, 14 and three IBM 3725 communication controllers 16, 18,
20 are interconnected to support five terminals 22, 24, 26, 28, 30 connected as shown. Communication links 32, 34, 36,
38, 40, 44 interconnect the computers 12, 14 and the communication control devices 16, 18, 20 as shown. Communication between, for example, terminal 30 and host computer 12 in FIG. 1 can take several different paths. In order to visualize communications in a network, a convention has been adopted according to which computers and communication controllers in a network are collectively called nodes, and connections between nodes are called links. End user devices, whether displays or printers, are collectively referred to as terminals. FIG. 2 is a node-link diagram of the network 10 in FIG.
Similar elements in the figures have the same reference numerals (but with primes) as in FIG. 1. Although the terminal is not shown in the figure, this is because the terminal is not directly involved in the communication establishment and control processing related to the present invention. A conversation (referred to as a session) between an end user at terminal 30 of FIG. 1 and an application program on host computer 12.
are nodes 12 and 18, i.e. 1 in FIG.
It means communication between 2' and 18'. Several different paths are possible for such a session. For example, communication may simply be via link 34', or may be a path including links 32', 40', and node 16'. or links 32', 36', 38' and nodes 16', 1
It may be a path including 4'. The range of choices increases with the size and complexity of the network. Except in very limited environments where the network is fully connected, the information entered at the base node (supporting one end user)
via one or more intermediate nodes (at the other end)
support the user) to reach the destination node. Information sent by one node to another must pass through the links that interconnect the nodes. In some networks, all information transmitted between two end users during a particular communication session traverses the same path (in that case called a route). The mechanism for generating routes (hereinafter referred to as the route mechanism) depends on the particular network architecture. Most network routing mechanisms use a routing table at each (source, intermediate, or destination) node to route messages to the next node. Although there are various routing mechanisms,
Some use a routing table index (either a route identifier or a combination of source or destination node identifiers) to determine which outbound link and therefore which neighboring network node should be next. Specify whether to send a message. Naturally, once a message arrives at the destination node, it is not sent to another intermediate node. Instead, processing is done by the end user. The routing table for each network node can be established statically or dynamically. In the static case, the routing definitions are fixed when the network operation is started. Static mechanisms are not relevant to the present invention and will not be discussed. Dynamic routing uses route creation techniques to dynamically create an end-to-end route from a source node to a destination node that can be used during a particular communication session. This end-to-end route remains defined and active until all sessions using it are completed. The route can then be removed, freeing network resources, such as routing table entries, to be used for other dynamically generated routes. Several methods can be used to generate dynamic routes within a network. One method uses a topology database containing the identities of all the physical nodes and links of the network, including connectivity, status, and physical characteristics for dynamically building routes. According to this method, appropriate nodes and links are selected based on the memorized situation, and a message containing a list of nodes and links to be used in the route (hereinafter referred to as a route setup message) is generated. be done. The route setup message passes through each node in the list, allowing each node to build an entry in its routing table. As a result, subsequent messages for sessions assigned to the route can pass through the same physical node identified in the route setup. Both forward and backward pointers are placed in the node's routing table. Routing in communication networks is
()IBM Systems Journal, Vol.22, No.4
(1983) “SNA Routing: Past, Present,
and Possible Future”, () IEEE
Transactions on Communications, Vol.COM
−29, No. 4 (1981) “Routing and Flow
Control in TYMNET”, and () IEEE
Transactions on Communications, Vol.COM
−28, No. 5, (1980) “The New Routing
``Algorithm for the ARPANET''.Clearly important is the
The base has current information about available nodes and links for communication. Otherwise, an attempt may be made to generate a route that includes unavailable nodes or links, and then by the time a usable route is actually found,
A situation may arise in which route generation must be attempted several times. This represents an unnecessary waste of network resources. In addition to manual input by operators, the initial status, failure, and reactivation of network nodes and links (hereinafter referred to as network elements) can be determined by broadcasting status changes by neighboring nodes. There have been reports of. The above-mentioned papers () and () describe an update method using such broadcast communication. Status updates via broadcast communication have the advantage of not requiring operator intervention. However, this has the problem of significantly increasing network overhead traffic, especially in large and complex networks. In some situations, it is preferable to accept a rather less complete knowledge of the network situation in order to reduce this overhead. In fact, in such networks it is necessary to have some mechanism for ``killing'' broadcast messages that are disseminated throughout the system or otherwise echo forever within the network. Typical mechanisms include integration of cutoff times. Note that after the cutoff time, the message is discarded from the network. However, even with such a limiting mechanism, status update messages occupy a large portion of the overall message processing capacity of the network, reducing the available capacity for user messages. Therefore, it is clear that updating topology databases in a dynamic routing environment places significantly less demand on the message processing capacity of the network than traditional schemes for updating topology databases. A method is needed. C. Means for Solving the Problems The present invention provides for establishing communication paths between nodes in a data transmission network including a plurality of network elements consisting of message sending/receiving nodes and communication links interconnecting said nodes. A method for collecting data regarding the availability of network elements, comprising: (a) storing data about network elements potentially available for communication in a storage element associated with each node attempting to establish a communication path; (b) using the stored data to select a communication path of selected elements interconnecting the originating node with another node of the network; and (c) establishing the path. (d) if all selected elements are available for communication, establish said path; and (e) if unavailability of a network element in said path causes said path to be established during or after establishment of said path. generating data regarding the unavailability of the element at the node in response to the detection at the node included in the path, and transmitting the data via the network elements included in the path to the origin node and storing it in its storage element. It is characterized in that it is used when selecting a communication path later. As a result, the present invention significantly reduces overall status message traffic even in complex communication networks, since only the specific elements involved in the use of the failed element are informed of the status of that element. be able to. D Overview of Embodiments The feedback mechanism of the present invention is based on topology.
A method and apparatus are provided that can be used to dynamically inform a database of the status of network nodes and links. As a result, it is possible to know the status of the physical route elements and efficiently generate route setup messages. For example, the following description as a node is
It is applicable to an IBM SNA network consisting of an IBM System 370 computer and an IBM 3725 communications controller, and appropriate communications links for network interconnection. However, the principles and protocols are presented generally enough to rely on one or more topology databases for route generation and on each node's local routing table for establishing and maintaining communication sessions. It can be applied to any communication network with dynamic routing. In the preferred embodiment, each topology data
The base is first given information about all nodes and links and their alternating connectivity with neighboring nodes. This information is entered via traditional input statements, either interactively or by batch definition. Link and node statements specify defined characteristics such as line (link) transmission speed, node buffer size, and component data transmission security. These are used by end users to request routes. The properties will be explained later in the rules for operation, definitions, and status. Additionally, each network element in the topology database is initially
It can be marked as ``tentatively active,'' or available for use. This initial situation is independent of the actual situation of the corresponding element, but the selection of the element for a route setup attempt by route selection techniques, and the actual active state of the element using the feedback mechanism of the present invention. (operational) or inactive status. The information is conventionally stored for scanning and comparison when a route request is received. This information is entered for (1) routes, (2) links, and (3) nodes. Thus, assuming an interactive input method (as opposed to batch), route statements are used to enter information that defines the route between two nodes that are allowed to communicate. The statement specifies the root links and nodes in order and an identifier (ID) for the root. For each pair of nodes that may communicate, as many route statements may be entered as there are distinct routes between those nodes. FIG. 3 shows the topology data for potential routes between nodes 16' and 14' in FIG.
Indicates base entry. In this case, 50,5
There can be three routes: 2,54. Fourth
The figure shows the format of root statement 58. Link name and node name60
are arranged in the order that a message traverses the route, starting from the origin node and ending at the destination node. Statement type 62 identifies the statement as a root statement. Figures 5 and 6 illustrate link statements 64 and node statements 66, respectively. It identifies the element and contains data for the characteristics described above. Various fields 68, 70
It is shown. statement type 72,
74 identifies the statement as a link statement or a node statement, respectively. Information entered via route, link, and node statements is conventionally stored for use in scanning and comparison when a route request is received. As a result, all identified routes between the specified end nodes are first explored, and then the characteristics of the elements in the selected routes are matched to find the best one for the specified characteristics. . In this way,
The best route is selected. When an end user desires to communicate with another end user, a request for a session is made to a control program residing at the base node. The session request includes the names of the source and destination nodes supporting the end user and the name of the class of service. A service class is a conventional shorthand for selecting a set of such characteristics for a route. In the preferred embodiment, the session request information is sent in the form of a message (hereinafter referred to as a route request message) to the nearest available topology database for route selection. FIG. 7 shows a route request message 76. This includes a request code 78 that identifies the message as a route request, a base node name 79, a destination node name 80,
and service class name 82. Upon receiving a route request message, the topology database selects potential routes whose included elements conform to the characteristics identified in the specified service class. If a route with exactly the same set of elements is already used with the same characteristics, the session is assigned to the already created route. If a route has not been generated, the topology database is scanned and the best route between the source and destination nodes is selected based on matching the characteristics of the actual elements to the requested characteristics. In this process,
assumed to be active. Or only known nodes and links may be selected. The selected route is marked with a unique identifier for the route (root
A message containing a list of nodes and links that make up the route (hereinafter referred to as route ID) as well as a list of nodes and links that make up the route
It is written in the form of a setup message (called a setup message). FIG. 8 shows a route setup message 84. Request code 86 identifies the message as a root setup message. Route ID 87 identifies the route.
Node and link names 88 appear in the order in which the message traverses the route, as in route statement 58 of FIG. 4 above. The root element is initially assumed to be active.
This is because the status of each network element is unknown when the topology database is activated. Rather than initially obtaining the status of each element defined in the topology database through operator input, exchange with other databases, or interrogation of each network element.
As in the preferred embodiment of the present invention, the situation is known when a session is requested. As route setup messages traverse the network, each active node conventionally generates routing table entries for communication in both directions. That is, when a route setup message is processed, an entry is made in the routing table. Its contents are the route ID (including the origin and destination node names or addresses) and the outgoing link address. As is known, this allows rapid routing of the message thereafter via the route ID accompanying the message. When a message arrives with this information, a table is simply scanned to generate enough outbound link addresses to send the message. In other embodiments, the root ID is reduced to a single local path identifier (LPID) at each node. An LPID is assigned to a route when a route setup message arrives. The numbers may be sequentially selected starting from zero. The LPID is entered into the table and sent back to the previous node to be entered into that node's routing table.
Each routing table in this embodiment has an LPID assigned to it by the outgoing link to the next node and the next node of its route. When a message arrives at a node in this embodiment, the LPID for that node is retrieved from the header and used to place a table entry for the session. Subsequently, the LPID of the next node placed in the table is
Replaced with the input LPID. Next, the message passes through the assigned outbound link, etc.
Sent to next node. FIG. 9 shows a routing table 90 containing unidirectional entries 88 for hypothetical routes using the LPID method. As shown, for one entry, three elements,
That is, there is an LPID 94, an outbound link ID 96, and an LPID 98 for the next node. After the information needed for the routing table entry is extracted from the route setup message, the message is passed on to the next element, etc. to generate all the table entries needed for the route. If end-to-end
If all nodes and links in the route are active, the route setup is successful and an end-to-end route is generated. Each routing table entry for each node that is traversed is marked active.
If a node cannot send a root setup message to the next node because either the link or the node itself is inactive, a root failure message is generated that identifies the inactive or node; and It is sent back to the root origin and then to the topology database. In the topology database, the inactive status is marked. The element is then not used in subsequent route setup messages until the situation changes. As route failure messages return through each node identified in route setup, the status of the route is marked inactive, but each node's routing table entry remains unchanged. These table entries are used by end nodes (and their topology) when the failed element is reactivated.
used for feedback mechanism to databases). Root failure messages are traced from the root setup message that caused the failure.
It is transmitted by tracking the node routing table entries that are set up. FIG. 10 shows a route failure message 100 for an LPID compliant network. This includes a request code 102 that identifies the message as a root fault message, a node ID 104 of the node that detects the fault, a fault occurrence element ID 106,
and the following LPID 108 are included. The node that signaled the route failure (the "adjacent node")
detects that an inactive element has subsequently become active, a root element activity message is generated and sent to the base node and then to the topology.
Sent to the database. The topology database then resets the element's status entry to "active." As a result, the element is available for subsequent root setup attempts. The root element activity message is
It is the same as root failure message 100 (FIG. 10) except that it is identified as a root element activity message by the request code. If one or more routes attempt to use an inactive element, one or more sets of routing table entries are created at neighboring nodes. and as many entries as the set of generated entries.
A root element activity message is generated and sent back to the corresponding base node to reset the topology database entry for the element to "active". Such a notification flow is similar to that for route failure messages, when the failed route
From the setup message, the root base node is reached by following the setup node routing table entries. The same process is used after an end-to-end route is successfully established and a link or node of the route fails. The same route failure message is returned to both end nodes in this case, i.e., the origin node and the destination node,
Sent to each end node's topology database. The root failure message identifies the failed element. Then, as in the case of the initial route setup failure, when the message returns to the end node, the routing table entries for the route segments leading to the end node remain unchanged. As in the previous case, when a failed element becomes active, a node routing table entry is sent to the end by a root element active message (one in each direction around the point of failure). Used to trace the route back to a node. The message is sent to a topology database indicating the active status of the network element. In either case, as the root element activity message flows to the topology database, the routing table entries are removed from the nodes along the route, as if the end-to-end
The end route regains space in the routing table as if it were being killed normally after all sessions using the route are finished. As discussed in more detail below, the feedback mechanism works in the face of failures at either single points or multiple points along the route. The basic elements of the preferred embodiment feedback mechanism can be described by a set of rules, definitions, states and protocols that are applicable to any communications network with dynamic routing as described herein. The protocol describes four operational cases. RULES OF OPERATION, DEFINITION, AND STATE 1 Topology Databases There are one or more topology databases, the contents of which are network nodes, connectivity, and status data that are It can be used to select an end-to-end route through a workpiece. Each root element (that is, each network node and each link; a node can be a source, a destination, an intermediate node host, or a communication processor; a link can be a teleprocessing link, a channel connection, a local - may be a teleprocessing loop, local area network, fiber optic line, or any other medium capable of connecting two hosts or communication processor nodes);
There is a set of parameters as shown in the table.

【表】 ワー
機密保 (仮活動的)

[Table] War
Confidentiality (tentative)
protection

【表】 非活動的

リンク・
信頼性 未知/
アドレス
機密保 (仮活動的)

これらの特性は、よく知られているものであ
る。 様々な方法を用いて、トポロジー・データ・ベ
ースに、エントリと、要素の知識を作成すること
ができる。その中には、オペレータの入力、シス
テム生成プロセス、要素活動化における自動要素
識別等が含まれる。 2 ルート選択アルゴリズム ルート(つまり、機密保護、最小遅れ、最大バ
ンド幅等)の選択に用いられるアルゴリズムは、
選択されたルートのリストおよび上記要素状況に
忠実であるならば、ネツトワークにおける本発明
の操作性に影響を与えない。 3 ルート要求機構 ユーザーが、ネツトワークを通り、ソース・ノ
ードから宛先ノードに至るエンド・ツー・エン
ド・ルートを要求できるような機構が提供されて
いる。このような要求は、望まれる特性(機密保
護、最小遅れ等)に関する指示を伴つて、トポロ
ジー・データ・ベースへ送られる。該要求は、ト
ポロジー・データ・ベースにおけるルート選択プ
ロセスを初期設定し、ルート・セツトアツプ・メ
ツセージを生成する。 4 ルート・セツトアツプ・メツセージ これは、ソース・ノードから宛先ノードに至る
エンド・ツー・エンド・ルートを生成するのに選
択されたノードとリンクのリストを内容とするメ
ツセージである。ルート・セツトアツプ・メツセ
ージは、ソースから宛先へ、該メツセージで指定
される順序でリンクとノードを交互に経て、ネツ
トワークを通過する。該メツセージが提案された
ルートを通過すると、通過した各ノードでルーテ
イング・テーブルが生成され、その中で、エント
リによつて、順方向および逆方向の隣接ノードと
の接続が指示される。ルート・セツトアツプに対
する回答は、ルート・セツトアツプ回答メツセー
ジまたはルート障害メツセージのどちらかであ
る。 5 ルート・セツトアツプ回答メツセージ このメツセージは、ルート生成に成功した場合
に、宛先から発せられて、ソースへ帰る。 6 ルート障害メツセージ このメツセージは、障害の生じたルート・セツ
トアツプ試行のため、および、既に生成に成功し
たルートにおける要素の障害のために、戻され
る。ルート・セツトアツプ試行の障害の場合に
は、ネツトワーク・ノードがルート・セツトアツ
プ・メツセージを隣りに送り続けられなくなつた
ときに、該ノードが、ルート障害メツセージを生
成する。第10図に示されるこのメツセージは、
ソースに戻され、さらにトポロジー・データ・ベ
ースに送られる。このルート障害メツセージは、
どのノードが非活動的ネツトワーク資源を検出し
たかを指示する。トポロジー・データ・ベース
は、非活動的要素の状況を記録し、後になつてル
ート要素活動メツセージによつて該要素が活動的
になつたことを知らされるまで、他のルート・セ
ツトアツプ試行にはこの要素を再使用しない。確
立済ルート上の要素の障害の場合には、同じルー
ト障害メツセージが生成されるとともに、同じ目
的で、ただしこの場合は関係する両方のエンド・
ノードに対して、該メツセージが送られる。 7 ルート要素活動メツセージ このメツセージは、非活動的要素の再活動化を
ノードが検出するときに、該ノードによつて生成
される。該ルート要素活動メツセージが生成され
て送られるのは、要素が非活動的から活動的に変
化する前に、ルート・セツトアツプ・メツセージ
が流れていた場合である。ルート要素活動メツセ
ージは、以前のルート・セツトアツプ・メツセー
ジからルーテイング・テーブル・エントリを用い
て、ネツトワークを通過し、起点ノードへ帰る。 8 ルート抹消メツセージ このメツセージは、ルートがもはや必要とされ
ないことを知らせるために、該ルートで送られ
る。該メツセージは、特定のエンド・ツー・エン
ド・ルートに割り当てられた全セツシヨンが終了
すると、ルート・エンド・ポイント(ソースまた
は宛先ノード)により生成される。ルート抹消メ
ツセージがネツトワークを通過する際、そのパス
の各ノードは、該特定ルートに割り当てられたル
ーテイング・テーブル・エントリを解放するとと
もに、抹消されつつあるルートで、該メツセージ
を送る。ルート抹消メツセージは、トポロジー・
データ・ベースにおける要素の状況に何の影響も
与えない。なぜなら、このメツセージは、アクテ
イブなルートだけで発せられ、要素の状況は、現
在の活動状態から変化しないためである。 9 資源状態 各要素(ノード、リンク)は、3つの状態をと
り得る。すなわち、未知−仮活動的(UNK)、
活動的(OP)または非活動的である。要素がOP
またはUNK状態にある場合に、該要素はルート
選択の目的に利用できる。INOP状態にあるとき
は、UNKまたはOPのマークがつけられるまで、
該要素をルート選択に用いることはできない。 a 未知−仮活動的状態のセツテイング 1 トポロジー・データ・ベースが活動化された
とき、または、新しい要素が既存のトポロジ
ー・データ・ベースに付加されたとき、全要素
はUNKだと考えられる。 2 同じINOPルート上にあるが、トポロジー・
データ・ベースに対してより近い別の要素に障
害が生じると、INOP状態の要素がUNKに変
化する。このようにして、第2の故障停止によ
つてルート要素活動の知らせがトポロジー・デ
ータ・ベースに到着できないために、要素が無
限にINOPに留まることのないよう、保証して
いる。 b 活動的状態のセツテイング 1 ルート・セツトアツプ・回答メツセージが受
信されると、要素はUNKからのOPに変化す
る。 2 ルート・セツトアツプ要求の成功を妨げる要
素が活動的になると、要素はINOPからOPに
変化し、ルート要素活動メツセージが発生され
る。 c 非活動的状態のセツテイング 1 ルート・セツトアツプ試行の結果、ルート障
害が生じた場合、ルート・セツトアツプが前進
できず、非活動的だと識別された要求の状態
は、INOPに変化する。 2 アクテイブ・ルートでのルート障害の通知
は、識別された障害要求の状態をINOPに変化
させる。 10 ノード・ルーテイング・テーブル 各ネツトワーク・ノードは、ネツトワークを通
るメツセージの経路指定に用いられるノード・ル
ーテイング・テーブルを含む。ノード・ルーテイ
ング・テーブルは、ルートが要求するとおりに、
ルート・セツトアツプ機構を用いて、動的に作成
される。各エントリは、エントリの状況または状
態の他に、各方向のメツセージの旅の「次の行
程」に関連する外向き待ち行列を指す順方向、お
よび逆方向のポインタからなる。ノードがそのル
ートのソースまたは宛先ノードである場合は、こ
れもテーブル・エントリ中に示される。 各ノード・ルーテイング・テーブル・エントリ
の取り得る状態は、OPまたはINOPの2つであ
る。OP状態がセツトされるのは、ルートが生成
されたときである。INOP状態がセツトされるの
は、次の条件に従うときである。 a ルート・セツトアツプ試行から、ルートに障
害通知が戻つてくる。 b アクテイブ・ルートで、ルート障害通知が受
信される。 ルーテイング・テーブル中の状態エントリは、
オペレータによつて、情報目的(例えば、オペレ
ータの照合)用に使うことができる。また、該エ
ントリは、ノードによつて、ルート障害メツセー
ジを広めて戻らせる確立済ルート上の、メツセー
ジのカツト・オフに使うこともできる。このよう
にして、貴重なリンク時間が解放される。 11 プロトコル 本発明の好ましい実施例のフイードバツク機構
は、特定のプロトコルを統合し、トポロジー・デ
ータ・ベースに対して、ネツトワーク内の動的に
生成されるルート上の資源状況に関する適当な通
知を行うことを保証する。これらのプロトコル
を、クリテイカルなネツトワーク事象をカバーす
る以下の4つのケースを用いて記述する。 1 障害の生じた要素(以前使われていたルート
の中の1つ)が再活動化されたときの、トポロ
ジー・データ・ベースへの通知。 2 アクテイブ、または保留アクテイブ・ルート
上で、2つの要素に障害が生じる、二重障害の
ケース。 3 ルート・セツトアツプ試行の際の、非活動的
要素の発見。 4 ルート・セツトアツプ・メツセージが障害の
生じているリンクを過ぎた後だが、該障害の生
じているリンクを通つてルート・セツトアツプ
回答が戻つてしまう前の、保留アクテイブ・ル
ートにおける要素の障害。 ケース1:ルート障害および続く回復後の通知 第11図に記されたネツトワーク110におお
いて、ノードAとEの間のセツシヨンのために、
ルートA−L1−B−L2−C−L3−D−L4
−Eが生成済みであると仮定する。ノードA,
B,C,D,Eにおいて、ルート・テーブル・エ
ントリの状態はOPである。このルートを構成す
るルート要素を選択するのに、ノードAにおい
て、トポロジー・データ・ベース112が利用さ
れたこと、および、データ・ベース中の全ネツト
ワーク要素の状態はOPであることを仮定する。
リンクL2の障害を仮定し、かつ、ノードBとA
での処理を考えるとき、操作規則は次のとおりに
なる。なお、ノードCとEでの処理も同様にな
る。 a L2の障害が、ノードBとCとの両方によつ
て検出される。 b この例では、ノードBがルート障害メツセー
ジを生成してノードAへ送る。該メツセージは
さらにトポロジー・データ・ベースに送られ
る。 c ルート障害通知がネツトワークを通過してノ
ードAへ至る際、障害の生じた要素から遠ざか
る方向(つまり、BからAへ)の各ノードにお
ける、該ルートのためのルーテイング・テーブ
ル・エントリは、INOPのマークをつけられる
けれども、ノード・ルーテイング・テーブル中
に残る。 d ルート障害通知を受けて、Aのトポロジー・
データ・ベースは、リンクL2にINOPのマー
クをつける。その結果、L2を通る別のルー
ト・セツトアツプ試行が初期設定されることは
なくなる。 e リンクL2が活動的になると、ノードBはそ
のルーテイング・テーブルを探索する。そし
て、INOPのマークがつけられ、かつ、以前L
2を外向きパスを利用していたエントリを見つ
ける。続いて、ノードBは、そのようなエント
リのそれぞれに対応するルートのために、ルー
ト要素活動メツセージを生成する。この例で
は、ルート要素活動メツセージが、L2は今
OPであることを示すとともに、該ルートに沿
つてノードAへ伝送される。該パスの各ノード
は、このルート要素活動メツセージを送ると、
そのノード・ルーテイング・テーブルから該ル
ートのエントリを抹消する。 f ルート要素活動メツセージは、ノードAに到
着すると、さらにノードAをサポートするトポ
ロジー・データ・ベースに送られる。すると、
該トポロジー・データ・ベースは、L2の要素
状況を更新してOPとする。その結果、新たな
ルート・セツトアツプ試行のために、L2を用
いることが可能になる。 ノードDを含んでノードCからノードEへ至
り、ノードAのトポロジー・データ・ベースと異
なるならば、さらにノードEをサポートするトポ
ロジー・データ・ベースに至る反対方向において
も、同様の処理が行われる。 ケース2:二重障害のケース 第11図に記されているのと同じネツトワーク
を考えるものとする。ここでも、AからEへL
1,L2,L3,L4を用いる各ノードを通るル
ートが生成済みであると仮定する。そして、ま
ず、リンクL3に障害が生じ、続いて、リンクL
2に障害が生じる場合を考える。すると、次のよ
うなことが起こる。 a ノードCがL3の障害を検出する。ノードC
は、そのノード・ルーテイング・テーブルを走
査し、L3の外向きリンクを持つエントリを見
つけると、ルート障害通知を逆方向に(つま
り、ノードBへ)送る。ノードC,BおよびA
の中のルーテイング・テーブル・エントリは、
ルーテイング・テーブル中に残るけれども、
INOPのマークをつけられる。ノードAでは、
ルート障害メツセージがトポロジー・データ・
ベースに与えられる。そこでは、L3のための
要素エントリがINOPのマークをつけられる。
ノードDがL3の障害を検出する、ノードEの
方向の処理も、同様に行われる。 b ノードBは、L2の障害を検出し、そのノー
ド・ルーテイング・テーブルを走査する。続い
て、L2に障害が生じたと識別するルート障害
を、既に非活動的になつているルートを用いて
Aへ送る。ノードAは、この通知をトポロジ
ー・データ・ベースに送る。ノードA,Bのル
ーテイング・テーブル・エントリは、とちらも
INOP状態のままである。 c トポロジー・データ・ベースが、異なる要素
の障害であるけれども、同じルートについての
この第2のルート障害通知を受け取ると、トポ
ロジー・データ・ベースを走査する。そして、
L3が別のルートに存在するので、L3が
INOPであるとわかる場合を除いて、最初に障
害の生じた要素L3にUNKのマークをつける
とともに、新たに障害の生じた要素L2に
INOPのマークをつける。ここで、L2または
L3が活動的になる時間の扱いをめぐつて、い
くつかの状態が起こり得る。各状態を、下に記
述する。 1 L3が非活動的であるまま、L2が活動的に
なると仮定する。L2が活動的になると、ノー
ドBは、ケース1で記述した方法を用いて、ト
ポロジー・データ・ベースにAL2が今使用可
能であることを知らせる。BおよびAのルーテ
イング・テーブル・エントリは抹消される。続
いて、トポロジー・データ・ベースは、L2に
OPのマークをつける。(セツシヨンが該ルート
の使用を望むと仮定すると、)ルート確立のた
めにルート・セツトアツプ要求を送ることは可
能であるけれども、L3のリンクで失敗するこ
とになる。部分的に作成されたルート・セグメ
ントは残り、L3が再び活動的になるのを待
つ。 2 L3が活動的になるが、L2は活動的になら
ないと仮定する。この場合、L2が非活動的で
あり、基点ノードAへ至るパスをブロツクする
ので、トポロジー・データ・ベースは通知を受
け取らない。しかしながら、これによつて問題
が生じることはない。なぜなら、トポロジー・
データ・ベースは、いずれにせよ、L2の障害
発生後、L3が活動的だ(つまり、UNK)と
仮定していたからである。 3 L2が活動的になるのに続き、L3が活動的
になると仮定する。この場合は、上記項目2,
1と同様に扱われる。ただし、L3が活動的な
ので、ルート・セツトアツプが成功する点が異
なる。ノードD,Eの観点から見たこの二重障
害の処理は、方向が反対である点を除き、ノー
ドB,Aの場合と同様である。障害に向かう方
向に流れるトラフイツクのために、ノードD,
Eのノード・ルーテイング・テーブル・エント
リは、INOPのマークをつけられる。 注意:両方向において、ルーテイング・テーブ
ル・エントリがINOPになると、該エントリはテ
ーブルから抹消される。この場合、該ノードは、
各サイドの障害により、ルート沿いのある地点で
独立してしまう。そして、ルーテイング・テーブ
ル・エントリは、後のルート要素活動通知のため
に必要とはされない。この場合、ノードCは、そ
のルーテイング・テーブル・エントリを抹消し、
ノードB,Dだけが、ルート要素活動メツセージ
をルートの端末に伝送する。 ケース3: ルート・セツトアツプ試行の際の、
非活動的要素の発見 このケースは、ケース1の処理と同様である。
ただし、ルート障害通知が既存のルート上で発せ
られるのではなく、障害通知がルート・セツトア
ツプ障害通知の一部になる点が異なる。ケース1
のように、ルート・セツトアツプ試行を止めたト
ポロジー・データ・ベース中の要素は、INOPの
マークをつけられる。非活動的要素が活動的にな
ると、ケース1の項目e,fで記述したのと同じ
処理が行われる。 ケース4: ルート・セツトアツプ・メツセージ
が、丁度障害の生じた要素を通過した後の、資
源の障害 このケースは、ケース1と同様である。ただ
し、障害通知が保留アクテイブ・ノード・ルーテ
イング・テーブル・エントリのためであり(なぜ
なら、ルート・セツトアツプ回答は未到着であ
る)、完全に活動化されたエントリのためではな
い点が異なる。障害を検出する隣接ノードのため
の処理は同じである。障害の生じた要素が活動的
になつたことの通知は、ケース1の項目e,fに
述べたようにして発せられる。 上記プロトコルは、前に述べたように、事実上
どの動的ルーテイング・ネツトワークでも実現可
能であり、本発明の好ましい実施例の原則の効果
をもたらすことができる。さらに、希望に応じて
付加的な標準手段を加えることができる。例とし
て、メツセージ・コードの実現、ルーテイング・
テーブル・エントリの値のためのオペレータ状況
照合コマンド、等を挙げることができる。 ネツトワーク・ノードにおける充満ルーテイン
グ・テーブルの処理 ネツトワーク操作の際、1以上のネツトワー
ク・ノードのルーテイング・テーブルが容量一杯
まで充てんされ、その結果、状態が緩和されるま
で、それらのノードではもうルーテイング・エン
トリを作れなくなる可能性がある。そのような緩
和をもたらす普通の方法は、セツシヨンが終わる
こと、そしてもはや使用されないルートをネツト
ワークから抹消することである。自動的にトポロ
ジー・データ・ベースを介入させて、ある資源の
再活動化または回復を待つルート・セグメントを
抹消すること、もしくは、ネツトワーク・オペレ
ータを介して、トポロジー・データ・ベースに対
し、そのような介入の実行を要求することも望ま
しい。 したがつて、本発明の実施例には、トポロジ
ー・データ・ベースに対し、ネツトワーク・ノー
ドにおけるルーテイング・テーブルの「充満(フ
ル)」状態の発生を通知することが含まれる。ネ
ツトワーク・ノードは、充満ルーテイング・テー
ブル状態を示すメツセージを制御ノードに送る。
そして、該制御ノードは、該メツセージを該ノー
ドのトポロジー・データ・ベースに渡す。該トポ
ロジー・データ・ベースは、影響を受けたノード
を含む未決定のルート要求の取消し、または、ネ
ツトワーク・オペレータによりマニユアルで介入
してもらつて判断を下すことの要求、のどちらか
を行う。これは、トポロジー・データ・ベースの
初期セツテイングに依存する。前者の場合に、た
とえオペレータの判断が全く不要であつても、ネ
ツトワーク・オペレータに対して通知を与えて差
し支えない。 トポロジー・データ・ベース自身またはネツト
ワーク・オペレータが、ネツトワークから保留ル
ート要求を取り除く判断をすると、トポロジー・
データ・ベースは、適当なルート抹消要求を確立
済のルート・セグメントに沿つて送り、該ルー
ト・セグメントの中のノードのルーテイング・テ
ーブルから、該エントリを抹消する。 ネツトワークからのノードの除去 ネツトワーク・オペレータは、一時的または永
久に、リンクまたはノードをネツトワークから取
り除く決断をすることができる。そのようなリン
クまたはノード資源は、現在アクテイブであつて
もよいし、再活動化もしくは以前の障害からの回
復を待つている最中であつてもよい。したがつ
て、トポロジー・データ・ベースに対するオペレ
ータ・コマンドには、ネツトワークから資源の表
示を取り除くことが含まれ得る。 資源がアクテイブならば、その資源に依存する
ユーザー・セツシヨンは、中止されたり、あるい
は普通に終了することを許されたりする。その
後、該資源を含むルートは、トポロジー・デー
タ・ベースからのルート抹消要求によつて、普通
に抹消される。資源をネツトワークから取り除く
コマンドを受け取つた後、トポロジー・データ・
ベースは、新たなルート・セツトアツプ要求にお
いて該資源を用いることを中止する。 リンクまたはノード資源が、ネツトワークから
取り除かれるときに、再活動化または回復を待つ
ているならば、該資源に依存する保留ルート要求
は取り消される。資源をネツトワークから取り除
くコマンドを受け取つた後、トポロジー・デー
タ・ベースは、取り除かれる資源を含むすべての
保留ルート要求に対して、ルート抹消要求を発す
るとともに、該資源を用いる新たなルートの確立
を試みなくなる。 E 発明の効果 以上の説明に示されるように、本発明によれ
ば、ネツトワーク・トポロジー・データ・ベース
に対して、様々な通信ネツトワーク要素間の替在
的な通信の可用性を知らせるシステムであつて、
従来の方策に比べてネツトワーク・トラフイツク
を大幅に減らすものを提供することができる。ネ
ツトワークにおける状況メツセージの著しい増殖
が、本発明を適用することにより、大幅に減少す
る。そして、最小限だが十分にクラスのノードに
必要な可用性の情報が与えられ、効率よくセツシ
ヨン・ルートを生成することができる。ネツトワ
ーク資源の不必要な利用は、最小限に抑えられ
る。
[Table] Inactive

Link·
Reliability unknown/
address
Confidentiality (tentative)
protection
These properties are well known. Entries and knowledge of elements can be created in the topology database using a variety of methods. These include operator input, system generation processes, automatic element identification during element activation, etc. 2 Route Selection Algorithms The algorithms used to select routes (i.e. security, minimum delay, maximum bandwidth, etc.) are:
Adherence to the list of routes selected and the element conditions described above will not affect the operability of the invention in the network. 3. Route Request Mechanism A mechanism is provided that allows a user to request an end-to-end route through the network from a source node to a destination node. Such requests are sent to the topology database with instructions regarding desired characteristics (security, minimum delay, etc.). The request initializes the route selection process in the topology database and generates a route setup message. 4 Route Setup Message This is a message containing a list of nodes and links selected to create an end-to-end route from a source node to a destination node. A route setup message traverses the network from source to destination, alternating between links and nodes in the order specified in the message. As the message traverses the proposed route, a routing table is generated at each node traversed, in which entries indicate connections to forward and reverse neighboring nodes. The answer to a route setup is either a route setup answer message or a route failure message. 5 Route Setup Reply Message This message is issued from the destination and returns to the source when route generation is successful. 6 Route Failure Message This message is returned for a failed route setup attempt and for failure of an element in a route that has already been successfully created. In the case of a failure of a route setup attempt, a network node generates a route failure message when it is no longer able to continue sending route setup messages to its neighbors. This message, shown in Figure 10, is
It is sent back to the source and then to the topology database. This route failure message is
Indicates which node detected the inactive network resource. The topology database records the status of an inactive element and prevents it from responding to other root setup attempts until it is later informed by a root element activity message that the element has become active. Do not reuse this element. In case of failure of an element on an established route, the same route failure message is generated and sent for the same purpose, but in this case to both ends involved.
The message is sent to the node. 7 Root Element Activity Message This message is generated by a node when it detects the reactivation of an inactive element. The root element activity message is generated and sent if a root setup message was flowing before the element changed from inactive to active. Root element activity messages use routing table entries from previous root setup messages to traverse the network and return to the origin node. 8 Route Delete Message This message is sent on a route to notify that the route is no longer needed. The message is generated by a route end point (source or destination node) upon completion of all sessions assigned to a particular end-to-end route. As a route deletion message traverses the network, each node along the path releases the routing table entry assigned to the particular route and sends the message on the route that is being deleted. The root deletion message is
It has no effect on the status of the element in the database. This is because this message is emitted only on the active route and the status of the element does not change from its current active state. 9 Resource status Each element (node, link) can have three statuses. i.e., unknown-tentative (UNK);
Active (OP) or inactive. element is OP
or UNK state, the element can be used for route selection purposes. When in INOP state, until marked UNK or OP,
The element cannot be used for route selection. Setting the Unknown-Temporary Active State 1 When a topology database is activated or a new element is added to an existing topology database, all elements are considered UNK. 2 On the same INOP root, but with different topology
An element in the INOP state changes to UNK if another element closer to the database fails. In this way, it is ensured that an element does not remain in INOP indefinitely due to a second fault outage preventing notification of root element activity from reaching the topology database. b Active Setting 1 When a Root Setup Answer message is received, the element changes to OP from UNK. 2. When an element that prevents the root setup request from succeeding becomes active, the element changes from INOP to OP and a root element activity message is generated. c. Setting Inactive State 1 If a route setup attempt results in a route failure, the state of the request identified as inactive changes to INOP if the route setup cannot proceed. 2. Notification of a route failure on an active route changes the status of the identified failure request to INOP. 10 Node Routing Table Each network node contains a node routing table that is used to route messages through the network. The node routing table is configured as required by the route.
Created dynamically using the root setup mechanism. Each entry consists of forward and backward pointers to outbound queues associated with the "next leg" of the message's journey in each direction, as well as the status or state of the entry. If a node is the source or destination node for that route, this is also indicated in the table entry. There are two possible states for each node routing table entry: OP or INOP. The OP state is set when the route is created. The INOP state is set when the following conditions are met: a Failure notifications come back to the root from the root setup attempt. b. A route failure notification is received on the active route. The state entry in the routing table is
Can be used by the operator for informational purposes (eg operator verification). The entry can also be used by nodes to cut off messages on established routes that cause route failure messages to be disseminated back. In this way, valuable link time is freed up. 11 Protocols The feedback mechanism of the preferred embodiment of the present invention integrates specific protocols to provide appropriate notification to the topology database regarding the status of resources on dynamically generated routes within the network. I guarantee that. These protocols are described using the following four cases that cover critical network events. 1 Notification to the topology database when a failed element (one of the previously used routes) is reactivated. 2 A double failure case where two elements fail on an active or pending active route. 3. Discovery of inactive elements during route setup attempts. 4. Failure of an element in the pending active route after the route setup message has passed the failed link but before the route setup reply has returned through the failed link. Case 1: Route Failure and Subsequent Post-Recovery Notification In the network 110 depicted in FIG. 11, for a session between nodes A and E,
Route A-L1-B-L2-C-L3-D-L4
-Assume that E has been generated. Node A,
In B, C, D, and E, the state of the route table entry is OP. Assume that the topology database 112 was used at node A to select the root elements that make up this route, and that the state of all network elements in the database is OP. .
Assuming a failure of link L2, and nodes B and A
When considering the processing in , the operating rules are as follows. Note that the processing at nodes C and E is also similar. a L2 failure is detected by both nodes B and C. b In this example, node B generates and sends a route failure message to node A. The message is further sent to the topology database. c. As a route failure notification traverses the network to node A, the routing table entry for that route at each node in the direction away from the failed element (i.e. from B to A) is: Although marked INOP, it remains in the node routing table. d After receiving the route failure notification, A's topology
The database marks link L2 as INOP. As a result, another route setup attempt through L2 will not be initialized. e When link L2 becomes active, Node B searches its routing table. and is marked INOP and previously L
2. Find the entry that used the outward path. Subsequently, Node B generates a root element activity message for the root corresponding to each such entry. In this example, the root element activity message is
It indicates that it is OP and is transmitted along the route to node A. When each node on the path sends this root element activity message,
Delete the entry for the route from the node routing table. f When the root element activity message arrives at node A, it is further sent to the topology database supporting node A. Then,
The topology database updates the L2 element status to OP. As a result, L2 can be used for new route setup attempts. Similar processing is performed in the opposite direction from node C to node E, including node D, and further to the topology database supporting node E if it is different from the topology database of node A. . Case 2: Double Failure Case Consider the same network as depicted in Figure 11. Again, from A to E to L
It is assumed that a route passing through each node using 1, L2, L3, and L4 has been generated. Then, first, a failure occurs in link L3, and then link L
Consider the case where a failure occurs in 2. Then the following happens: a Node C detects an L3 failure. Node C
scans its node routing table and, if it finds an entry with an L3 outbound link, sends a route failure notification in the opposite direction (ie, to Node B). Nodes C, B and A
The routing table entries in
Although it remains in the routing table,
It can be marked as INOP. At node A,
Root failure messages are sent to topology data
given to the base. There, the element entry for L3 is marked INOP.
Processing in the direction of node E, where node D detects a failure in L3, is performed in a similar manner. b Node B detects the L2 failure and scans its node routing table. It then sends a route failure identifying that L2 has failed to A using the already inactive route. Node A sends this notification to the topology database. The routing table entries for nodes A and B are both
Remains in INOP state. c. Scan the topology database when the topology database receives this second route failure notification for the same route, albeit for a different element failure. and,
Since L3 exists in another route, L3
Unless it turns out to be an INOP, mark the first failed element L3 as UNK, and mark the newly failed element L2.
Mark it as INOP. Here, several situations may arise regarding the treatment of the time when L2 or L3 becomes active. Each state is described below. 1 Assume that L2 becomes active while L3 remains inactive. Once L2 becomes active, Node B uses the method described in Case 1 to inform the topology database that AL2 is now available. The routing table entries for B and A are deleted. Subsequently, the topology database is transferred to L2.
Mark as OP. Although it is possible to send a route setup request for route establishment (assuming the session wishes to use the route), it will fail on the L3 link. The partially created root segment remains and waits for L3 to become active again. 2 Assume that L3 becomes active but L2 does not. In this case, the topology database receives no notification because L2 is inactive and blocks the path to base node A. However, this does not cause any problems. Because the topology
This is because the database assumed that L3 was active (ie, UNK) after the L2 failure anyway. 3 Assume that L2 becomes active, followed by L3. In this case, item 2 above,
It is treated the same as 1. However, the difference is that since L3 is active, root setup is successful. The handling of this double failure from the point of view of nodes D and E is similar to that of nodes B and A, except that the directions are opposite. Because of the traffic flowing in the direction towards the fault, node D,
E's node routing table entry is marked INOP. Note: In both directions, when a routing table entry becomes INOP, it is removed from the table. In this case, the node is
Obstacles on each side cause them to become independent at certain points along the route. Routing table entries are then not needed for later root element activity notifications. In this case, node C deletes its routing table entry and
Only nodes B and D transmit root element activity messages to the terminals of the root. Case 3: When attempting to set up a route,
Finding Inactive Elements This case is similar to the processing of case 1.
The difference, however, is that instead of route failure notification being issued on the existing route, the failure notification becomes part of the route setup failure notification. Case 1
Elements in the topology database that stop a route setup attempt are marked INOP, such as . When an inactive element becomes active, the same processing as described for items e and f in case 1 is performed. Case 4: Resource failure after route setup message passes through just failed element This case is similar to case 1. The difference is that the failure notification is for a pending active node routing table entry (because the route setup reply has not arrived) and not for a fully activated entry. The process for neighboring nodes detecting a failure is the same. Notification that the failed element has become active is issued as described in Case 1, items e and f. The above protocol, as previously stated, can be implemented in virtually any dynamic routing network and can effectuate the principles of the preferred embodiment of the present invention. Furthermore, additional standard measures can be added if desired. Examples include message code realization, routing
Operator status matching commands for values of table entries, etc. can be mentioned. Processing Filled Routing Tables at Network Nodes During a network operation, the routing tables of one or more network nodes are filled to capacity, and as a result, the routing tables on those nodes are no longer available until the condition is alleviated. Routing entries may not be created. The usual way to bring about such mitigation is for sessions to terminate and for routes that are no longer used to be purged from the network. Automatically intervene with the topology database to kill a root segment awaiting reactivation or recovery of some resource, or request that the topology database, through the network operator, It is also desirable to require the implementation of such interventions. Accordingly, embodiments of the present invention include notifying a topology database of the occurrence of a "full" condition of a routing table at a network node. The network node sends a message to the control node indicating the full routing table status.
The control node then passes the message to its topology database. The topology database either cancels pending route requests involving the affected nodes or requests manual intervention by the network operator to make a decision. This depends on the initial setting of the topology database. In the former case, the network operator may be notified even if the operator's judgment is not required at all. When the topology database itself or the network operator decides to remove a pending route request from the network, the topology
The database sends appropriate route deletion requests along the established route segments to delete the entries from the routing tables of the nodes in the route segments. Removing a Node from a Network A network operator may decide to remove a link or node from a network, either temporarily or permanently. Such link or node resources may be currently active or may be awaiting reactivation or recovery from a previous failure. Therefore, operator commands to the topology database may include removing representations of resources from the network. If a resource is active, user sessions that depend on that resource are aborted or allowed to terminate normally. Thereafter, the route containing the resource is deleted normally by a route deletion request from the topology database. After receiving a command to remove a resource from the network, the topology data
The base ceases to use the resource in new route setup requests. When a link or node resource is removed from the network, pending route requests that depend on it are canceled if it is awaiting reactivation or recovery. After receiving a command to remove a resource from the network, the topology database issues a route deletion request for all pending route requests that include the resource being removed and requests the establishment of a new route using the resource. No more trying. E. Effects of the Invention As shown in the above description, the present invention provides a system for informing a network topology database of the availability of alternative communications between various communication network elements. It's hot,
It can provide a significant reduction in network traffic compared to traditional solutions. The significant proliferation of status messages in the network is significantly reduced by applying the present invention. Then, minimal but sufficient availability information is given to the nodes of the class, and session routes can be generated efficiently. Unnecessary use of network resources is minimized.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、簡単なメツシユ・タイプの通信ネツ
トワークの説明図である。第2図は、第1図に示
すネツトワークの概要を表現する図である。第3
図は、トポロジー・データ・ベース・ルート・テ
ーブルの概要を表現する図である。第4図は、ル
ート・ステートメントの概要を表現する図であ
る。第5図は、リンク・ステートメントの概要を
表現する図である。第6図は、ノード・ステート
メントの概要を表現する図である。第7図は、ル
ート要求メツセージの概要を表現する図である。
第8図は、ルート・セツトアツプ・メツセージの
概要を表現する図である。第9図は、ルーテイン
グ・テーブルの概要を表現する図である。第10
図は、本発明によるルート障害メツセージの概要
を表現する図である。第11図は、トポロジー・
データ・ベースを伴うネツトワークの概要を表現
する図である。
FIG. 1 is an explanatory diagram of a simple mesh type communication network. FIG. 2 is a diagram representing an overview of the network shown in FIG. 1. Third
The figure is a diagram representing an overview of the topology database route table. FIG. 4 is a diagram representing an outline of the root statement. FIG. 5 is a diagram representing an outline of a link statement. FIG. 6 is a diagram representing an outline of a node statement. FIG. 7 is a diagram representing an outline of a route request message.
FIG. 8 is a diagram representing an outline of the route setup message. FIG. 9 is a diagram representing an overview of the routing table. 10th
The figure is a diagram representing an overview of a route failure message according to the present invention. Figure 11 shows the topology
1 is a diagram representing an overview of a network involving a database; FIG.

Claims (1)

【特許請求の範囲】 1 メツセージ送受信ノードおよび前記ノードを
相互接続する通信リンクからなる複数のネツトワ
ーク要素を含むデータ伝送ネツトワークにおい
て、ノード間の通信パスを確立するとともに、ネ
ツトワーク要素の可用性に関するデータを集める
ための方法であつて、 (a) 通信パスの確立を試みるノードのそれぞれに
関連する記憶要素において、潜在的に通信に使
用可能なネツトワーク要素に関するデータを記
憶し、 (b) 前記記憶されたデータを用いて、起点となる
ノードを前記ネツトワークの別のノードと相互
接続する選択された要素からなる通信パスを選
択し、 (c) 前記パスの確立を試み、 (d) 選択された要素がすべて通信に使用可能であ
れば、前記パスを確立し、 (e) 前記パスにおけるネツトワーク要素の不可用
性が前記パスの確立を試みる際または確立後に
前記パスに含まれるノードにおいて検出された
ことに応答して、該ノードにおいて該要素の不
可用性に関するデータを生成し、前記パスに含
まれるネツトワーク要素を介して前記起点ノー
ドに送つてその記憶要素に記憶し、後の通信パ
スの選択の際に用いる ことを特徴とするデータ伝送ネツトワークの通信
パス確立・不可用性データ収集方法。
[Scope of Claims] 1. In a data transmission network including a plurality of network elements consisting of message sending/receiving nodes and communication links interconnecting the nodes, a method for establishing communication paths between the nodes and regarding the availability of the network elements. A method for collecting data comprising: (a) storing data about network elements potentially available for communication in a storage element associated with each of the nodes attempting to establish a communication path; and (b) comprising: selecting, using the stored data, a communication path of selected elements interconnecting the originating node with another node of the network; (c) attempting to establish said path; and (d) selecting. (e) if the unavailability of a network element in the path is detected at a node included in the path during or after the establishment of the path; In response to this, data regarding the unavailability of the element is generated at the node and sent to the origin node via the network elements included in the path to be stored in its storage element, and to be stored in its storage element for subsequent communication paths. A communication path establishment/unavailability data collection method for a data transmission network, characterized in that it is used when selecting a data transmission network.
JP61234710A 1985-11-04 1986-10-03 Fixing method of communication pass of data transmission network Granted JPS62109451A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US79505385A 1985-11-04 1985-11-04
US795053 1985-11-04

Publications (2)

Publication Number Publication Date
JPS62109451A JPS62109451A (en) 1987-05-20
JPH0450780B2 true JPH0450780B2 (en) 1992-08-17

Family

ID=25164530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61234710A Granted JPS62109451A (en) 1985-11-04 1986-10-03 Fixing method of communication pass of data transmission network

Country Status (4)

Country Link
US (1) US4825206A (en)
EP (1) EP0221360B1 (en)
JP (1) JPS62109451A (en)
DE (1) DE3687400T2 (en)

Families Citing this family (164)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5088032A (en) * 1988-01-29 1992-02-11 Cisco Systems, Inc. Method and apparatus for routing communications among computer networks
NL8801320A (en) * 1988-05-20 1989-12-18 Ppg Hellige Bv SYSTEM MESSAGE PROCESSING UNIT IN A DATA PROCESSING SYSTEM.
ATE91576T1 (en) * 1988-05-28 1993-07-15 Alcatel Nv TRANSMISSION SYSTEMS AND SWITCHING ELEMENT FOR USE THEREIN.
US5105424A (en) * 1988-06-02 1992-04-14 California Institute Of Technology Inter-computer message routing system with each computer having separate routinng automata for each dimension of the network
CA1335836C (en) * 1988-07-07 1995-06-06 Ichiro Iida Adaptive routing system
GB8817288D0 (en) * 1988-07-20 1988-08-24 Racal Milgo Ltd Methods of & networks for information communication
US5084870A (en) * 1988-07-25 1992-01-28 Digital Equipment Corporation Network topology control method and apparatus
DE3825265A1 (en) * 1988-07-26 1990-02-01 Deutsche Bundespost METHOD FOR OBTAINING NETWORK KNOWLEDGE OF A DIGITAL TRANSMISSION NETWORK
JPH02149040A (en) * 1988-11-30 1990-06-07 Toshiba Corp Data transmitting system
US5276440A (en) * 1989-02-16 1994-01-04 International Business Machines Corporation Network device information exchange
CH677300A5 (en) * 1989-03-21 1991-04-30 Asea Brown Boveri
US5032833A (en) * 1989-04-27 1991-07-16 Schlumberger Industries, Inc. Adaptive network routing for power line communications
US5175765A (en) * 1989-05-09 1992-12-29 Digital Equipment Corporation Robust data broadcast over a distributed network with malicious failures
US5455865A (en) * 1989-05-09 1995-10-03 Digital Equipment Corporation Robust packet routing over a distributed network containing malicious failures
US5086428A (en) * 1989-06-09 1992-02-04 Digital Equipment Corporation Reliable broadcast of information in a wide area network
US5138615A (en) * 1989-06-22 1992-08-11 Digital Equipment Corporation Reconfiguration system and method for high-speed mesh connected local area network
US5181017A (en) * 1989-07-27 1993-01-19 Ibm Corporation Adaptive routing in a parallel computing system
EP0423053B1 (en) * 1989-10-13 1996-03-13 International Business Machines Corporation Method of using cached partial trees in computing a path in a data communication network
US5016243A (en) * 1989-11-06 1991-05-14 At&T Bell Laboratories Automatic fault recovery in a packet network
US4974224A (en) * 1989-11-07 1990-11-27 Harris Corporation Distributed split flow routing mechanism for multi-node packet switching communication network
AU650242B2 (en) * 1989-11-28 1994-06-16 International Business Machines Corporation Methods and apparatus for dynamically managing input/output (I/O) connectivity
US5014262A (en) * 1990-01-02 1991-05-07 At&T Bell Laboratories Apparatus and method for detecting and eliminating call looping in a node-by-node routing network
JPH05505709A (en) * 1990-03-05 1993-08-19 マサチユセツツ・インスチチユート・オブ・テクノロジー Switched network with extended and/or distributed logical clusters for message routing
US5128926A (en) * 1990-03-21 1992-07-07 Digital Equipment Corporation Updating link state information in networks
US5093824A (en) * 1990-03-27 1992-03-03 Bell Communications Research, Inc. Distributed protocol for improving the survivability of telecommunications trunk networks
US5058105A (en) * 1990-04-04 1991-10-15 At&T Bell Laboratories Network alternate routing arrangement
US5228038A (en) * 1990-04-16 1993-07-13 Motorola Inc. Communication system network that includes a BIM status update method
JP3159979B2 (en) * 1990-05-01 2001-04-23 株式会社日立製作所 Network management display processing system and method
US5077730A (en) * 1990-08-02 1991-12-31 Arrowood Andrew H Method of auditing primary and secondary node communication sessions
US5243592A (en) * 1990-10-15 1993-09-07 Digital Equipment Corporation Method and apparatus for distance vector routing on datagram point-to-point links
US5303238A (en) * 1990-12-11 1994-04-12 International Business Machines Corporation Network communications intermediate interface
JP3043439B2 (en) * 1990-12-28 2000-05-22 富士通株式会社 Network storage method in data processing device
US5182744A (en) * 1991-01-03 1993-01-26 At&T Bell Laboratories Telecommunications network restoration architecture
WO1992016066A1 (en) * 1991-02-28 1992-09-17 Stratacom, Inc. Method and apparatus for routing cell messages using delay
US5307484A (en) * 1991-03-06 1994-04-26 Chrysler Corporation Relational data base repository system for managing functional and physical data structures of nodes and links of multiple computer networks
US5321812A (en) * 1991-04-29 1994-06-14 International Business Machines Corp. Loop detection and dissolution in a focal point network
US5421024A (en) * 1991-04-30 1995-05-30 Hewlett-Packard Company Detection of a relative location of a network device using a multicast packet processed only by hubs
FR2676558B1 (en) * 1991-05-15 1993-07-23 Opticable METHOD FOR AUTOMATICALLY DETERMINING THE CONFIGURATION OF A NETWORK.
JPH0752437B2 (en) * 1991-08-07 1995-06-05 インターナショナル・ビジネス・マシーンズ・コーポレイション Multi-node network to track message progress
US5751722A (en) * 1992-02-10 1998-05-12 Canon Kabushiki Kaisha Method of displaying a frozen image when transmission of image information is suspended in a multimedia system
US5416781A (en) * 1992-03-17 1995-05-16 Johnson Service Company Integrated services digital network based facility management system
US5265092A (en) * 1992-03-18 1993-11-23 Digital Equipment Corporation Synchronization mechanism for link state packet routing
CA2094410C (en) * 1992-06-18 1998-05-05 Joshua Seth Auerbach Distributed management communications network
GB2268374A (en) * 1992-06-23 1994-01-05 Ibm Network addressing
US5539881A (en) * 1992-12-14 1996-07-23 At&T Corp. Network element including automatic network element identity information registration apparatus and method
US5335229A (en) * 1992-12-14 1994-08-02 At&T Bell Laboratories Logical integration of multiple network elements in a telecommunications management network
US5455956A (en) * 1992-12-30 1995-10-03 Alcatel Network Systems Connection tree rearrangement method and system for rearrangebly-blocked DSM networks
US5406643A (en) * 1993-02-11 1995-04-11 Motorola, Inc. Method and apparatus for selecting between a plurality of communication paths
US5485578A (en) * 1993-03-08 1996-01-16 Apple Computer, Inc. Topology discovery in a multiple-ring network
JP2693907B2 (en) * 1993-12-27 1997-12-24 日本電気株式会社 Static routing method
DE4404827C2 (en) * 1994-02-16 1997-04-17 Kommunikations Elektronik System for recognizing the functionality of a digital telecommunications network
FI98772C (en) * 1994-02-28 1997-08-11 Nokia Telecommunications Oy Procedure for route switching on a packet data connection
US5502816A (en) * 1994-03-25 1996-03-26 At&T Corp. Method of routing a request for a virtual circuit based on information from concurrent requests
US6061505A (en) * 1994-07-22 2000-05-09 Nortel Networks Corporation Apparatus and method for providing topology information about a network
US5513171A (en) * 1994-07-26 1996-04-30 At&T Corp. Arrangement for dynamically deriving a telephone network management database from telephone network data
CN1132001A (en) * 1994-07-29 1996-09-25 摩托罗拉公司 Method and system for minimizing redundant topology updates using black-out timer
SE503219C2 (en) * 1994-09-05 1996-04-22 Ericsson Telefon Ab L M Device and process for process-based message management in a communication system
FR2726419B1 (en) 1994-10-28 1996-12-13 Telecommunications Sa METHOD FOR DECENTRALIZED MANAGEMENT OF THE COMMUNICATION ROUTING OF A PACKET SWITCHER NETWORK
US5592610A (en) * 1994-12-21 1997-01-07 Intel Corporation Method and apparatus for enhancing the fault-tolerance of a network
US5654958A (en) * 1995-06-05 1997-08-05 Motorola, Inc. System and method for learning and dynamic routing of data in a mobile communication network
US5987521A (en) 1995-07-10 1999-11-16 International Business Machines Corporation Management of path routing in packet communications networks
WO1997005725A1 (en) * 1995-07-28 1997-02-13 British Telecommunications Public Limited Company Packet routing
US5943242A (en) 1995-11-17 1999-08-24 Pact Gmbh Dynamically reconfigurable data processing system
US5793362A (en) * 1995-12-04 1998-08-11 Cabletron Systems, Inc. Configurations tracking system using transition manager to evaluate votes to determine possible connections between ports in a communications network in accordance with transition tables
US5761502A (en) * 1995-12-29 1998-06-02 Mci Corporation System and method for managing a telecommunications network by associating and correlating network events
US7266725B2 (en) 2001-09-03 2007-09-04 Pact Xpp Technologies Ag Method for debugging reconfigurable architectures
US5991821A (en) * 1996-04-30 1999-11-23 International Business Machines Corporation Method for serializing actions of independent process groups
US5832196A (en) * 1996-06-28 1998-11-03 Mci Communications Corporation Dynamic restoration process for a telecommunications network
US5987011A (en) * 1996-08-30 1999-11-16 Chai-Keong Toh Routing method for Ad-Hoc mobile networks
US6101549A (en) * 1996-09-27 2000-08-08 Intel Corporation Proxy-based reservation of network resources
US6016307A (en) 1996-10-31 2000-01-18 Connect One, Inc. Multi-protocol telecommunications routing optimization
US6473404B1 (en) * 1998-11-24 2002-10-29 Connect One, Inc. Multi-protocol telecommunications routing optimization
US5991264A (en) * 1996-11-26 1999-11-23 Mci Communications Corporation Method and apparatus for isolating network failures by applying alarms to failure spans
DE19651075A1 (en) 1996-12-09 1998-06-10 Pact Inf Tech Gmbh Unit for processing numerical and logical operations, for use in processors (CPU's), multi-computer systems, data flow processors (DFP's), digital signal processors (DSP's) or the like
US6338106B1 (en) 1996-12-20 2002-01-08 Pact Gmbh I/O and memory bus system for DFPS and units with two or multi-dimensional programmable cell architectures
DE19654593A1 (en) * 1996-12-20 1998-07-02 Pact Inf Tech Gmbh Reconfiguration procedure for programmable blocks at runtime
DE19654595A1 (en) 1996-12-20 1998-07-02 Pact Inf Tech Gmbh I0 and memory bus system for DFPs as well as building blocks with two- or multi-dimensional programmable cell structures
DE19654846A1 (en) * 1996-12-27 1998-07-09 Pact Inf Tech Gmbh Process for the independent dynamic reloading of data flow processors (DFPs) as well as modules with two- or multi-dimensional programmable cell structures (FPGAs, DPGAs, etc.)
US6275975B1 (en) 1997-01-16 2001-08-14 Advanced Micro Devices, Inc. Scalable mesh architecture with reconfigurable paths for an on-chip data transfer network incorporating a network configuration manager
US6247161B1 (en) 1997-01-16 2001-06-12 Advanced Micro Devices, Inc. Dynamically configured on-chip communications paths based on statistical analysis
DE19704044A1 (en) * 1997-02-04 1998-08-13 Pact Inf Tech Gmbh Address generation with systems having programmable modules
US6542998B1 (en) 1997-02-08 2003-04-01 Pact Gmbh Method of self-synchronization of configurable elements of a programmable module
DE19704728A1 (en) * 1997-02-08 1998-08-13 Pact Inf Tech Gmbh Method for self-synchronization of configurable elements of a programmable module
DE19704742A1 (en) 1997-02-11 1998-09-24 Pact Inf Tech Gmbh Internal bus system for DFPs, as well as modules with two- or multi-dimensional programmable cell structures, for coping with large amounts of data with high networking effort
WO1998041041A1 (en) 1997-03-12 1998-09-17 Alcatel Network Systems, Inc. Telecommunications network distributed restoration method and system
US6411598B1 (en) 1997-03-12 2002-06-25 Mci Communications Corporation Signal conversion for fault isolation
US6496476B1 (en) 1997-03-12 2002-12-17 Worldcom, Inc. System and method for restricted reuse of intact portions of failed paths
US5889774A (en) * 1997-03-14 1999-03-30 Efusion, Inc. Method and apparatus for selecting an internet/PSTN changeover server for a packet based phone call
US6041049A (en) * 1997-05-06 2000-03-21 International Business Machines Corporation Method and apparatus for determining a routing table for each node in a distributed nodal system
US6108699A (en) * 1997-06-27 2000-08-22 Sun Microsystems, Inc. System and method for modifying membership in a clustered distributed computer system and updating system configuration
US6061723A (en) * 1997-10-08 2000-05-09 Hewlett-Packard Company Network management event correlation in environments containing inoperative network elements
US8686549B2 (en) 2001-09-03 2014-04-01 Martin Vorbach Reconfigurable elements
DE19861088A1 (en) 1997-12-22 2000-02-10 Pact Inf Tech Gmbh Repairing integrated circuits by replacing subassemblies with substitutes
DE19807872A1 (en) 1998-02-25 1999-08-26 Pact Inf Tech Gmbh Method of managing configuration data in data flow processors
US6678726B1 (en) * 1998-04-02 2004-01-13 Microsoft Corporation Method and apparatus for automatically determining topology information for a computer within a message queuing network
US6304556B1 (en) 1998-08-24 2001-10-16 Cornell Research Foundation, Inc. Routing and mobility management protocols for ad-hoc networks
US6404733B1 (en) 1998-09-08 2002-06-11 Mci Worldcom, Inc. Method of exercising a distributed restoration process in an operational telecommunications network
US6456589B1 (en) 1998-09-08 2002-09-24 Worldcom, Inc. Method of coordinating the respective operations of different restoration processes
US6418117B1 (en) 1998-09-08 2002-07-09 Mci Worldcom, Inc. Out of band messaging in a DRA network
US6337846B1 (en) 1998-09-08 2002-01-08 Mci Worldcom, Inc. Quantification of the quality of spare links in a telecommunications network
US7058024B1 (en) * 1999-02-03 2006-06-06 Lucent Technologies, Inc. Automatic telecommunications link identification system
US8230411B1 (en) 1999-06-10 2012-07-24 Martin Vorbach Method for interleaving a program over a plurality of cells
US6813240B1 (en) 1999-06-11 2004-11-02 Mci, Inc. Method of identifying low quality links in a telecommunications network
US6392990B1 (en) 1999-07-23 2002-05-21 Glenayre Electronics, Inc. Method for implementing interface redundancy in a computer network
US7298693B1 (en) * 1999-10-21 2007-11-20 Tellabs Operations, Inc. Reverse notification tree for data networks
US7315510B1 (en) * 1999-10-21 2008-01-01 Tellabs Operations, Inc. Method and apparatus for detecting MPLS network failures
AU1340201A (en) * 1999-10-21 2001-04-30 Tellabs Operations, Inc. Reverse notification tree for data networks
US6728779B1 (en) * 1999-12-01 2004-04-27 Lucent Technologies Inc. Method and apparatus for exchanging routing information in a packet-based data network
IT1316315B1 (en) * 2000-02-01 2003-04-10 Cit Alcatel METHOD TO IDENTIFY THE CURRENT ROUTE OF THE CIRCUITS IN MS-SPRINGS RINGS FOR TELECOMMUNICATIONS
FR2807541B1 (en) * 2000-04-10 2003-10-03 France Telecom INFORMATION SYSTEM FOR CONSTRUCTION, MANAGEMENT AND SUPERVISION IN A TRANSPORT NETWORK OF A BEAM HAVING RESOURCES BETWEEN TWO NODES AND NODE OF ACCESS TO A TRANSPORT NETWORK
US6829651B1 (en) * 2000-04-11 2004-12-07 International Business Machines Corporation Local MAC address learning in layer 2 frame forwarding
US6810008B2 (en) * 2000-05-05 2004-10-26 Park Technologies, Llc Immediate rerouting in data networks
EP1342158B1 (en) 2000-06-13 2010-08-04 Richter, Thomas Pipeline configuration unit protocols and communication
US6606630B1 (en) * 2000-08-21 2003-08-12 Hewlett-Packard Development Company, L.P. Data structure and method for tracking network topology in a fiber channel port driver
US8058899B2 (en) 2000-10-06 2011-11-15 Martin Vorbach Logic cell array and bus system
US7035227B2 (en) * 2000-10-10 2006-04-25 The Regents Of The University Of California On-demand loop-free multipath routing (ROAM)
US9037807B2 (en) 2001-03-05 2015-05-19 Pact Xpp Technologies Ag Processor arrangement on a chip including data processing, memory, and interface elements
US7844796B2 (en) 2001-03-05 2010-11-30 Martin Vorbach Data processing device and method
WO2005045692A2 (en) 2003-08-28 2005-05-19 Pact Xpp Technologies Ag Data processing device and method
US7444531B2 (en) 2001-03-05 2008-10-28 Pact Xpp Technologies Ag Methods and devices for treating and processing data
US7428209B1 (en) * 2001-06-12 2008-09-23 Roberts Lawrence G Network failure recovery mechanism
WO2002103532A2 (en) 2001-06-20 2002-12-27 Pact Xpp Technologies Ag Data processing method
US6965929B2 (en) * 2001-06-29 2005-11-15 Intel Corporation Configuring a network device
US20030023706A1 (en) * 2001-07-14 2003-01-30 Zimmel Sheri L. Apparatus and method for optimizing telecommunications network design using weighted span classification and rerouting rings that fail to pass a cost therehold
US20030051007A1 (en) * 2001-07-14 2003-03-13 Zimmel Sheri L. Apparatus and method for optimizing telecommunication network design using weighted span classification for low degree of separation demands
US20030055918A1 (en) * 2001-07-14 2003-03-20 Zimmel Sheri L. Apparatus and method for optimizing telecommunication network design using weighted span classification for high degree of separation demands
US20030035379A1 (en) * 2001-07-14 2003-02-20 Zimmel Sheri L. Apparatus and method for optimizing telecommunication network design using weighted span classification
US20030046378A1 (en) * 2001-07-14 2003-03-06 Zimmel Sheri L. Apparatus and method for existing network configuration
US7996827B2 (en) 2001-08-16 2011-08-09 Martin Vorbach Method for the translation of programs for reconfigurable architectures
US7434191B2 (en) 2001-09-03 2008-10-07 Pact Xpp Technologies Ag Router
US8686475B2 (en) 2001-09-19 2014-04-01 Pact Xpp Technologies Ag Reconfigurable elements
US20030064718A1 (en) * 2001-09-28 2003-04-03 Haines Robert E. Selective communication in a wireless network based on peer-to-peer signal quality
US6826162B2 (en) * 2001-09-28 2004-11-30 Hewlett-Packard Development Company, L.P. Locating and mapping wireless network devices via wireless gateways
US7421466B2 (en) * 2001-10-29 2008-09-02 Hewlett-Packard Development Company, L.P. Dynamic mapping of wireless network devices
AU2003208266A1 (en) 2002-01-19 2003-07-30 Pact Xpp Technologies Ag Reconfigurable processor
JP2003304573A (en) * 2002-02-08 2003-10-24 Ntt Docomo Inc Communication system, communication device, and communication method
ATE402446T1 (en) 2002-02-18 2008-08-15 Pact Xpp Technologies Ag BUS SYSTEMS AND RECONFIGURATION PROCEDURES
US8914590B2 (en) 2002-08-07 2014-12-16 Pact Xpp Technologies Ag Data processing method and device
US7302692B2 (en) 2002-05-31 2007-11-27 International Business Machines Corporation Locally providing globally consistent information to communications layers
US7539198B1 (en) * 2002-06-26 2009-05-26 Cisco Technology, Inc. System and method to provide node-to-node connectivity in a communications network
US7747730B1 (en) 2002-06-28 2010-06-29 Netfuel, Inc. Managing computer network resources
AU2003286131A1 (en) 2002-08-07 2004-03-19 Pact Xpp Technologies Ag Method and device for processing data
US7657861B2 (en) 2002-08-07 2010-02-02 Pact Xpp Technologies Ag Method and device for processing data
US7394284B2 (en) 2002-09-06 2008-07-01 Pact Xpp Technologies Ag Reconfigurable sequencer structure
EP1398907B1 (en) 2002-09-10 2010-12-08 Siemens Aktiengesellschaft Method of control of transmission resource in a packetized network when topology changes occur
WO2004032428A2 (en) * 2002-09-30 2004-04-15 Siemens Aktiengesellschaft Method for partially maintaining packet sequences in connectionless packet switching with alternative routing
US7468969B2 (en) * 2003-11-07 2008-12-23 Interdigital Technology Corporation Apparatus and methods for central control of mesh networks
US20050152283A1 (en) * 2004-01-08 2005-07-14 David Ritzenthaler Wireless device discovery
ITMI20040293A1 (en) * 2004-02-20 2004-05-20 Marconi Comm Spa PROTECTION SYSTEMS FOR COMMUNICATION NETWORKS
US20050198351A1 (en) * 2004-02-20 2005-09-08 Microsoft Corporation Content-based routing
US7558215B2 (en) * 2004-09-24 2009-07-07 Alcatel-Lucent Usa Inc. Method for optimizing the frequency of network topology parameter updates
US7492716B1 (en) * 2005-10-26 2009-02-17 Sanmina-Sci Method for efficiently retrieving topology-specific data for point-to-point networks
WO2007082730A1 (en) 2006-01-18 2007-07-26 Pact Xpp Technologies Ag Hardware definition method
CN101340356B (en) 2007-07-05 2012-07-11 华为技术有限公司 Method for forwarding information and information forwarding apparatus
EP2259510A1 (en) * 2009-06-05 2010-12-08 Net Transmit & Receive, S.L. A method for establishing a data session between a first endpoint and a second endpoint
US20110143768A1 (en) * 2009-12-14 2011-06-16 Lane Sean L Methods and apparatus related to region-specific mobile device and infrastructure detection, analysis and display
CN102771092B (en) * 2010-02-25 2015-02-11 三菱电机株式会社 Communications device and address learning method
US8402306B1 (en) * 2010-05-14 2013-03-19 Symantec Corporation Systems and methods for managing applications
US9074463B2 (en) * 2010-12-30 2015-07-07 Baker Hughes Incorporated Method and devices for terminating communication between a node and a carrier
US10003536B2 (en) 2013-07-25 2018-06-19 Grigore Raileanu System and method for managing bandwidth usage rates in a packet-switched network
US11088937B1 (en) * 2014-05-08 2021-08-10 Google Llc System and method for synchronized route update
US10924408B2 (en) 2014-11-07 2021-02-16 Noction, Inc. System and method for optimizing traffic in packet-switched networks with internet exchanges
US9769070B2 (en) 2015-01-28 2017-09-19 Maxim Basunov System and method of providing a platform for optimizing traffic through a computer network with distributed routing domains interconnected through data center interconnect links
EP3704593A1 (en) * 2017-11-03 2020-09-09 Coherent Logix, Inc. Memory network processor

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2208159B2 (en) * 1972-02-22 1976-06-24 Licentia Patent-Verwaltungs-Gmbh, 6000 Frankfurt MESSAGE TRANSMISSION SYSTEM FOR A MULTIPLE RICHED NETWORK
GB1441452A (en) * 1973-04-19 1976-06-30 Plessey Co Ltd Digital switching networks
SE381548B (en) * 1974-12-20 1975-12-08 Ellemtel Utvecklings Ab DEVICE FOR CONTROLLING THE SELECTION IRON
IT1108325B (en) * 1978-04-10 1985-12-09 Cselt Centro Studi Lab Telecom ROAD PROCEDURE AND DEVICE FOR A PACKAGE SWITCHING COMMUNICATION NETWORK
US4399531A (en) * 1980-09-29 1983-08-16 Rockwell International Corporation Distributed digital data communications network
FR2497040B1 (en) * 1980-12-24 1988-03-18 Duquesne Jean PACKET TELECOMMUNICATIONS NETWORK
US4551833A (en) * 1983-08-10 1985-11-05 At&T Bell Laboratories Distributed monitoring of packet transmission delay
US4550397A (en) * 1983-12-16 1985-10-29 At&T Bell Laboratories Alternate paths in a self-routing packet switching network
US4661947A (en) * 1984-09-26 1987-04-28 American Telephone And Telegraph Company At&T Bell Laboratories Self-routing packet switching network with intrastage packet communication
US4644532A (en) * 1985-06-10 1987-02-17 International Business Machines Corporation Automatic update of topology in a hybrid network

Also Published As

Publication number Publication date
DE3687400T2 (en) 1993-07-15
EP0221360A3 (en) 1989-06-21
DE3687400D1 (en) 1993-02-11
JPS62109451A (en) 1987-05-20
EP0221360B1 (en) 1992-12-30
US4825206A (en) 1989-04-25
EP0221360A2 (en) 1987-05-13

Similar Documents

Publication Publication Date Title
JPH0450780B2 (en)
JP3388512B2 (en) Managing routing in packet communication networks
JP2502453B2 (en) Communication network
US5964837A (en) Computer network management using dynamic switching between event-driven and polling type of monitoring from manager station
EP0348331B1 (en) Method of efficiently updating the topology databases of the nodes in a data communications network
US5630184A (en) Method of deleting and adding nodes in a spanning tree network by collating replies from other nodes
AU659546B2 (en) Distributed management communications network
US5734824A (en) Apparatus and method for discovering a topology for local area networks connected via transparent bridges
KR100445374B1 (en) Topology propagation in a distributed computing environment with no topology message traffic in steady state
JPH0685521B2 (en) Computer network management method
EP0975121A2 (en) Database for executing policies for controlling devices on a network
JP2505063B2 (en) Method and system for establishing and managing virtual chains
US6061807A (en) Methods systems and computer products for error recovery of endpoint nodes
GB2285727A (en) Resolving conflicting topology network information in data communications networks
JPS61284144A (en) Topology data base maintenance for network
JP2503186B2 (en) Communication network system
US6067573A (en) Technique for reducing the flow of topology information in a computer network to only nodes that require the information
JPH09293059A (en) Decentralized system and its operation management method
EP0426599A2 (en) Method of clustering nodes in a distributed computer network
CN104221339A (en) Communication system, communication apparatus, control apparatus, communication apparatus control method and program
JPH11154955A (en) Management system and management method for network performance information
JPH0589007A (en) Device and method of reconstituting network
KR19990053166A (en) Multipoint Communication System and Multicast Path Failure Control and Path Relocation Method
JP3407541B2 (en) Network dynamic configuration change method
CN115934006A (en) IO access point and data processing task management method, device, equipment and medium

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term