JPH08137778A - Server client system - Google Patents

Server client system

Info

Publication number
JPH08137778A
JPH08137778A JP6273870A JP27387094A JPH08137778A JP H08137778 A JPH08137778 A JP H08137778A JP 6273870 A JP6273870 A JP 6273870A JP 27387094 A JP27387094 A JP 27387094A JP H08137778 A JPH08137778 A JP H08137778A
Authority
JP
Japan
Prior art keywords
server
address
client
node
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP6273870A
Other languages
Japanese (ja)
Inventor
Miyoko Kawaguchi
美代子 川口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP6273870A priority Critical patent/JPH08137778A/en
Publication of JPH08137778A publication Critical patent/JPH08137778A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Multi Processors (AREA)
  • Computer And Data Communications (AREA)

Abstract

PURPOSE: To realize complete position transmission and to prevent the congestion of entrance processes owing to the deviation of the definition of a client node by distributing the address of the entrance process in the middle wear of a client node from a middle wear-side. CONSTITUTION: The client node 1 is provided with a means 3 broadcasting the request message of the entrance process address to a connected network, an acquirement processing means 4 acquiring the entrance process address corresponding to the request message existing on the network and an address definition means 41 storing the acquired entrance process address. A server node 2 is provided with a means for taking in the message from the network, an allocation decision means 52 obtaining the entrance process address fitted to the request by calculation and a notice means 51 returning the entrance process address to the network.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ネットワークに複数の
クライアントとサーバが接続されたサーバクライアント
システムに関するものである。ここで、クライアントと
は、必要な仕事をサーバに対して要求する計算機プログ
ラムであり、サーバとは、要求された仕事を実行する計
算機プログラムである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a server client system in which a plurality of clients and servers are connected to a network. Here, the client is a computer program that requests the server for the necessary work, and the server is a computer program that executes the requested work.

【0002】[0002]

【従来の技術】ネットワークで接続された分散環境で、
位置透過なクライアント・サーバ環境を提供するソフト
ウェア(以下、「ミドルウェア」という。)がある。こ
こで、位置透過とは、クライアントが仕事を実行するサ
ーバのアドレスを知らなくともネットワークに対して仕
事の実行を要求することができることを言う。
2. Description of the Related Art In a distributed environment connected by a network,
There is software (hereinafter referred to as "middleware") that provides a location-transparent client / server environment. Here, the position transparency means that the client can request the network to execute the job without knowing the address of the server executing the job.

【0003】このようなミドルウェアにおいては、クラ
イアントはサービス名又はサーバ名などの親しみ易い名
前で通信相手のサーバを特定する。このようなサーバや
サービスの位置透過性を実現する方法としては、幾つか
の方法が実現されているが、その基本は、決まったアド
レスのディレクトリサービス等のシステムの入口プロセ
スを用いている。つまり、ディレクトリサービスのアド
レスは決めておかなければならない。
In such middleware, a client specifies a server of a communication partner by a friendly name such as a service name or a server name. Although several methods have been realized as methods for realizing such location transparency of servers and services, the basic method is to use an entrance process of a system such as a directory service with a fixed address. In other words, the address of the directory service must be decided.

【0004】システムの入口プロセス(以下、単に「入
口プロセス」という。)は、そのインプリメントによっ
て、サーバプロセス自身であったりするが、もし、入口
プロセスがシステムに一つしか存在しないとすると、入
口プロセス自身の処理が重い、あるいは、クライアント
からの要求が多い場合には、入口プロセスによる輻輳が
発生する。また、入口プロセス又は通信経路等の故障に
よりシステム全体が大きな影響を受ける。
The system's entrance process (hereinafter, simply referred to as "entrance process") may be the server process itself depending on its implementation. However, if there is only one entrance process in the system, the entrance process is present. When its own processing is heavy or there are many requests from clients, congestion occurs due to the ingress process. Moreover, the entire system is greatly affected by a failure of an entrance process or a communication path.

【0005】これに対処するため、入口プロセスを複数
配置できるミドルウェアも存在する。しかしながら、こ
れらのミドルウェアでは、クライアントノードで、ネッ
トワーク上のある一つの入口プロセスのアドレスをファ
イル等に静的に定義し、(つまり、入口プロセスについ
ては位置透過ではない。)クライアントノード上の定義
を適当に分散することで、ある入口プロセスとの通信不
能状態がシステム全体に影響することと、入口プロセス
による輻輳を防止している。
In order to deal with this, there is middleware in which a plurality of ingress processes can be arranged. However, in these middlewares, the client node statically defines the address of one ingress process on the network in a file etc. (that is, the ingress process is not position transparent). Proper distribution prevents the inability to communicate with a certain ingress process from affecting the entire system and prevents congestion by the ingress process.

【0006】ここで、従来のクライアントサーバシステ
ムの例として、タキシード(TUXEDO) (商標名)につい
て図19を用いて説明する。タキシードは、以下の管理
プロセス群と管理情報及びユーザが記述したサーバプロ
セスによってクライアントにサービスを提供するトラン
ザクションプロセシングモニタである。図において、N
Wはネットワーク、CNはクライアントノード、SNは
サーバノードである。
Here, as an example of a conventional client server system, a tuxedo (TUXEDO) (trademark) will be described with reference to FIG. The tuxedo is a transaction processing monitor that provides a service to a client by the following management process group and management information and a server process described by a user. In the figure, N
W is a network, CN is a client node, and SN is a server node.

【0007】以下にタキシードを構成する管理プロセス
を示す。 WSC:クライアントの動作するワークステーションに
存在し、クライアントからの要求をサーバマシン上のW
SLに投げる。WSCが要求を投げるWSLのアドレス
は事前に定義している。 WSL:サーバマシン上に存在する。WSCからの要求
に対して、接続を確立するWSHのアドレスを返答す
る。
The management process that constitutes the tuxedo is shown below. WSC: It exists on the workstation where the client operates, and the request from the client is sent to the W on the server machine.
Throw to SL. The address of the WSL to which the WSC throws the request is predefined. WSL: Exists on the server machine. In response to the request from the WSC, the address of the WSH that establishes the connection is returned.

【0008】WSH:サーバマシン上に存在する。管理
情報を参照して、WSCからの要求を適切なサーバプロ
セスに投げる。適切なサーバプロセスが自分と同じサー
バマシン内に存在しない場合は、BRIDGEプロセス
を経由して別サーバマシン上のサーバプロセスへ投げ
る。 BRIDGE:WSHが、自ノード上のサーバが提供し
ていないサービス要求を受け取った、あるいは、自ノー
ドの該当サーバが混んでいる等の理由で、別ノード上の
サーバに要求を転送する際、ネットワーク通信を代行す
るプロセス。
WSH: Exists on the server machine. It refers to the management information and throws the request from the WSC to the appropriate server process. If the appropriate server process does not exist in the same server machine as itself, it is thrown to the server process on another server machine via the BRIDGE process. BRIDGE: When WSH transfers a request to a server on another node because it receives a service request not provided by the server on its own node, or when the corresponding server on its own node is busy, The process of acting for communication.

【0009】DBBL:マスタマシン(タキシードシス
テムを構成するマシン群の中で、タキシードシステムの
管理保守操作を行うマシンのこと。)に存在し、ネット
ワーク上のすべてのBBLを監視する。各ノードの故障
検出や、各ノードのBBの最新状態の収集と配付を行
う。また、タキシードシステムの管理者にマシンコンソ
ールをインターフェースとしてタキシードシステムの管
理・保守機能を提供する。
DBBL: It exists in a master machine (a machine that performs management and maintenance operations of the tuxedo system among machines that compose the tuxedo system), and monitors all BBLs on the network. The failure of each node is detected, and the latest state of the BB of each node is collected and distributed. It also provides the administrator of the tuxedo system with the management and maintenance functions of the tuxedo system using the machine console as an interface.

【0010】BBL:各ノード毎に存在しノード上のB
Bの管理を行う。また、自ノード上のサーバプロセス及
びタキシード管理プロセスの故障検出を行う。 BB:タキシードの管理プロセスがサービスを適切なサ
ーバに要求するための情報やタキシードの管理者がシス
テムを監視するための統計情報等を格納した共用メモ
リ。例えば、サーバとサービスの配置情報、サーバ及び
サービスの負荷情報等を格納している。
BBL: B existing on each node and on the node
Manage B. It also detects failures in the server process and tuxedo management process on the local node. BB: A shared memory that stores information for the tuxedo management process to request a service from an appropriate server and statistical information for the tuxedo manager to monitor the system. For example, the storage information of the server and the service, the load information of the server and the service, and the like are stored.

【0011】図19に示したタキシードシステムでの要
求の流れについて以下に説明する。なお、以下の説明の
符号と図面の符号は一致させてある。 利用者がクライアント(WS)からサービスAを要
求する。 クライアント上のWSCが自分の通信相手として定
義しているWSLに向かってサービスAを要求する。
A request flow in the tuxedo system shown in FIG. 19 will be described below. Note that the reference numerals in the following description and the reference numerals in the drawings match. The user requests service A from the client (WS). The WSC on the client requests service A to the WSL defined as its communication partner.

【0012】 WSLは、クライアントとの接続を確
立する適当なWSHを選択しそのアドレスを返答する。 WSCから要求を受け取ったWSHは、自ノード上
のBBに記述されているサーバとサービスの配置情報を
参照して、サービスAを提供しているサーバを探す。
The WSL selects an appropriate WSH that establishes a connection with the client and replies with its address. Upon receiving the request from the WSC, the WSH refers to the server and service placement information described in the BB on its own node to search for the server providing the service A.

【0013】 この場合、自ノード上にサービスAを
提供しているサーバが存在しないので、自ノードのBR
IDGEにサーバノードSN2 への要求の転送を依頼す
る。 自ノードのWSHから指示されたサーバノードSN
2 のBRIDGEへ要求を転送する。 要求元BRIDGEの指示されたサーバVにサービ
スAを要求する。
In this case, since there is no server providing the service A on the own node, the BR of the own node is
Request the IDGE to transfer the request to the server node SN 2 . Server node SN instructed by WSH of own node
Forward the request to the BRIDGE of 2 . The service A is requested to the server V designated by the request source BRIDGE.

【0014】その後、サーバVがサービスAの要求を処
理し、その結果は要求と逆経路で利用者に通知される。
After that, the server V processes the request of the service A, and the result is notified to the user by the route reverse to the request.

【0015】[0015]

【発明が解決しようとする課題】以上説明した入口プロ
セスを複数配置する方法は、以下の問題点を有してい
る。 1.少なくともディレクトリサービスのアドレスは決め
ておかなければならないため、完全な位置透過を実現す
ることができない。
The method of arranging a plurality of inlet processes described above has the following problems. 1. Since at least the address of the directory service must be decided, perfect location transparency cannot be realized.

【0016】2.何らかの原因で通信できない入口プロ
セスの定義を持つクライアントノードは、その入口プロ
セスとの通信が回復するまで、新たなサービス要求を実
行できない。 3.また、入口プロセスの存在するプロセッサの負荷分
散がクライアントノードの定義に依存する。一般的にク
ライアントノードは多数あり、その場所も物理的に離れ
ており、管理者が異なることが多い。このような環境に
おいて各クライアントノードの定義のバランスをとるの
は困難である。システムが大規模になるにつれて、その
状況は深刻になる。
2. A client node that has an entry process definition that cannot communicate for some reason cannot execute a new service request until communication with the entry process is restored. 3. Moreover, the load distribution of the processor in which the entrance process exists depends on the definition of the client node. Generally, there are many client nodes, their locations are physically separated, and the administrators are often different. In such an environment, it is difficult to balance the definition of each client node. As the system gets larger, the situation gets worse.

【0017】本発明は、クライアントノードのミドルウ
ェアの入口プロセスのアドレスを、ミドルウェア側から
配付することにより、完全な位置透過を実現することを
目的とする。さらに、本発明は、クライアントノードの
ミドルウェアの入口プロセスのアドレスを、ミドルウェ
ア側から配付することにより、クライアントノードの定
義の偏りによる入口プロセスの輻輳を防止することを目
的とする。
An object of the present invention is to realize complete position transparency by distributing the address of the middleware entry process of the client node from the middleware side. Another object of the present invention is to prevent the congestion of the ingress process due to the bias of the definition of the client node by distributing the address of the ingress process of the middleware of the client node from the middleware side.

【0018】[0018]

【課題を解決するための手段】以下、図1及び図2を用
いて本発明の上記目的を達成するための手段を説明す
る。なお、以下の各図において、実線の枠で囲ったもの
はプロセスを表し、破線の枠で囲ったものはデータを示
す。図2は、クライアントサーバシステムの全体を示す
ものである。図において、ネットワークNSに複数のク
ライアントノードCN1 〜CN4 、複数のサーバノード
SN1 ,SN2 が接続される。このシステムにおいて
は、1つのサーバが1群のクライアントを管理し、全体
のクライアントサーバシステムに対して複数のサブシス
テムSS1 ,SS2 を構成する。
Means for achieving the above object of the present invention will be described below with reference to FIGS. 1 and 2. In each of the following figures, a solid line frame represents a process, and a broken line frame represents data. FIG. 2 shows the whole client-server system. In the figure, a plurality of client nodes CN 1 to CN 4 and a plurality of server nodes SN 1 and SN 2 are connected to a network NS. In this system, one server manages a group of clients, and a plurality of subsystems SS 1 and SS 2 are configured for the entire client server system.

【0019】サーバノードSNはサーバ部プロセス2と
ノード情報収集手段7を有する。クライアントノードC
Nはクライアント部プロセス1を有する。これらのサー
バ部ノードのうち、入口プロセスアドレスを決定するサ
ーバとしては、いずれか一つのサーバがマスタとなり、
他のサーバがレプリカとなる。図1は、図2のシステム
におけるアドレス割当クライアント部1とアドレス割当
サーバ部2の詳細を示すものである。なお、図示された
サーバ部2は、クライアントから要求された仕事を実行
するサーバではなく、その入口プロセスアドレスをクラ
イアントに対して教えるためのサーバである。
The server node SN has a server part process 2 and node information collecting means 7. Client node C
N has a client part process 1. Of these server part nodes, as a server that determines the entrance process address, one of the servers becomes the master,
Another server becomes a replica. FIG. 1 shows details of the address allocation client unit 1 and the address allocation server unit 2 in the system of FIG. The illustrated server unit 2 is not a server that executes the work requested by the client, but a server that teaches the ingress process address to the client.

【0020】アドレス割当クライアント部1は、入口プ
ロセスアドレス獲得手段3及び入口プロセスアドレス変
更手段4を具備する。入口プロセスアドレス変更手段4
は、アドレス定義41を有する。入口プロセスアドレス
獲得手段3は、クライアントノードで入口プロセスアド
レスを獲得するためのプログラムインターフェース及び
コマンドインターフェースを提供し、入口プロセスアド
レス獲得プロトコルを使って入口プロセスのアドレスを
獲得する。獲得されたアドレスは、入口プロセスアドレ
ス変更手段4によって、クライアントノードに反映され
る。
The address allocation client unit 1 comprises an entrance process address acquisition means 3 and an entrance process address change means 4. Entrance process address changing means 4
Has an address definition 41. The ingress process address acquisition means 3 provides a program interface and a command interface for acquiring an ingress process address in a client node, and acquires an address of an ingress process using an ingress process address acquisition protocol. The acquired address is reflected in the client node by the entrance process address changing means 4.

【0021】本手段の動作契機には、クライアントノー
ドのセットアップ時、クライアント −サーバ間通信が何らかの故障により不能になった場
合、あるいはクライアント −サーバ間の通信が何らかの理由でレスポンスが著しく
低下した場合がある。 入口プロセスアドレス変更手段4は、もらったアドレス
によりクライアントノード上で入口プロセスのアドレス
を静的及び動的に変更する手段である。
The operation timing of this means may be that the client-server communication is disabled due to some failure at the time of setting up the client node, or the response between the client-server communication is significantly reduced for some reason. is there. The ingress process address changing means 4 is a means for statically and dynamically changing the address of the ingress process on the client node according to the received address.

【0022】アドレス割当サーバ部2は、入口プロセス
アドレス割当手段5、サーバ部保守手段6、管理情報8
を具備する。入口プロセスアドレス割当手段5は、主に
入口プロセスのアドレスを通知するためのデータベー
ス、アルゴリズム、及びデータベースの構築ツール群で
あり、入口プロセスアドレス通知手段51、入口プロセ
ス割当決定手段52、及びシステム状態管理手段53を
含む。
The address allocation server unit 2 includes an entrance process address allocation unit 5, a server unit maintenance unit 6, and management information 8.
It is equipped with. The entrance process address assigning unit 5 is a group of tools for constructing a database, an algorithm, and a database for notifying the entrance process address, and includes an entrance process address notifying unit 51, an entrance process assignment determining unit 52, and a system state management. Means 53 are included.

【0023】入口プロセスアドレス通知手段51は、入
口プロセスアドレス定義獲得プロトコルを使って、適切
な入口プロセスのアドレスを通知する。通知する契機
は、入口プロセスアドレス獲得手段3からの依頼と、例
えば、入口プロセスによる輻輳が発生した、新しいネッ
トワークインターフェースが追加されインターフェース
が増えた、サーバプロセスが増えた、移動した等のサー
バノードの状態の変化が発生し、入口プロセスアドレス
割当決定手段52によってアドレス通知の必要があると
判断した場合である。
The entrance process address notifying means 51 notifies the address of an appropriate entrance process using the entrance process address definition acquisition protocol. The trigger of the notification is the request from the ingress process address acquisition unit 3 and the server node such as congestion caused by the ingress process, a new network interface added and the number of interfaces increased, the number of server processes increased, and the server node moved. This is a case where a state change occurs and the entrance process address allocation determining unit 52 determines that address notification is necessary.

【0024】入口プロセスアドレス割当決定手段52
は、サーバノードの状態、サーバノード、クライアント
ノードの関係とから、クライアントノードが使用する入
口プロセスの位置を決定する。プロセス割当決定の契機
は、入口プロセスアドレス獲得手段3からの依頼と、サ
ーバノードの状態及びサーバノードとクライアントノー
ドの関係が変化したときである。
Entrance process address allocation determining means 52
Determines the position of the entrance process used by the client node from the state of the server node and the relationship between the server node and the client node. The process allocation decision is triggered when the request from the entrance process address acquisition unit 3 and the state of the server node and the relationship between the server node and the client node change.

【0025】システム状態管理手段53は、システム全
体の状況を示すための管理情報8を保守する。この情報
としては、システム構成情報、クライアント情報、サブ
システム情報、システム状態情報がある。これらの情報
は、インターフェースをクライアントに割り当てる判断
材料として使用される。上記管理情報の内容は図17に
示すとおりであり、システム状態情報は、システム内の
ノード、インターフェースの負荷又は状態に関するマク
ロな情報で、インターフェースの割当を決めるときのデ
ータとなる。また、サブシステム情報は、どの計算機が
どのサブシステムに属しているか、サブシステム内のノ
ード又はインターフェースの負荷・状態など、サブシス
テムの構成情報、自サーバ部の構成情報を含む。
The system status management means 53 maintains management information 8 for indicating the status of the entire system. This information includes system configuration information, client information, subsystem information, and system status information. These pieces of information are used as a judgment factor for assigning the interface to the client. The contents of the management information are as shown in FIG. 17, and the system status information is macro information about the load or status of the nodes and interfaces in the system, and serves as data for determining interface allocation. The subsystem information also includes subsystem configuration information such as which computer belongs to which subsystem, the load / state of a node or interface in the subsystem, and the configuration information of its own server unit.

【0026】サーバ部保守手段6について説明すると、
サーバ部2は、負荷分散、高可用性のため、システム内
に複数のインスタンスが存在可能である。サーバ部保守
手段6は、その複数のインスタンス間で、相互に監視
し、サーバ部Cのクラッシュ検出、リカバリを行う。ま
た、各インスタンスはシステムのサブセット(サブシス
テム)を割り当てられ、それぞれにサーバ部保守プロト
コルを使って情報収集をする。サーバ部保守手段6は、
このサブシステムの情報を相互に交換する手段を提供す
る。この交換によって得られた情報を元に、システム状
態情報管理手段53がシステム状態情報を保守する。
Explaining the server maintenance means 6,
The server unit 2 can have a plurality of instances in the system for load balancing and high availability. The server unit maintenance means 6 mutually monitors the plurality of instances to detect the crash of the server unit C and perform recovery. Also, each instance is assigned a subset (subsystem) of the system, and collects information by using the server part maintenance protocol. The server maintenance means 6 is
It provides a means to exchange information in this subsystem with each other. The system state information management means 53 maintains the system state information based on the information obtained by this exchange.

【0027】ノード情報収集手段7は、ネットワークに
接続された1つの計算機であるノードに閉じた情報を収
集し、そのノードが属するサブシステムを管理するサー
バ部に収集した情報を、ノード情報通知プロトコルを使
って通知する。
The node information collecting means 7 collects information closed in a node, which is one computer connected to the network, and collects the information collected in the server unit that manages the subsystem to which the node belongs to the node information notification protocol. To notify.

【0028】[0028]

【作用】クライアントノードCNのセットアップ時にク
ライアント部1の入口プロセスアドレス獲得手段3が提
供するコマンド/プログラムインターフェースを介して
サーバ部2の入口プロセスアドレス割当手段5に、入口
プロセスアドレス通知要求が送られる。
When the client node CN is set up, the entrance process address notification request is sent to the entrance process address assigning means 5 of the server unit 2 via the command / program interface provided by the entrance process address acquiring means 3 of the client unit 1.

【0029】クライアントノードCNからのアドレス通
知要求を受け取ったサーバ部2は、入口プロセスアドレ
ス割当決定手段52を使って、適切な入口プロセスのア
ドレスを決定し、クライアントに通知する。サーバ部2
からの通知を受け取ったクライアント部1は、入口プロ
セスアドレス割当手段5を使って、入口プロセスアドレ
ス変更手段4により、通知された入口プロセスのアドレ
スを自分のアドレス定義41に反映する。
Upon receiving the address notification request from the client node CN, the server unit 2 uses the entrance process address assignment determining means 52 to determine the address of the appropriate entrance process and notifies the client of the address. Server part 2
The client unit 1 that has received the notification from the above uses the entrance process address assigning unit 5 and causes the entrance process address changing unit 4 to reflect the notified entrance process address in its own address definition 41.

【0030】本発明では、サーバ部2のアドレスをクラ
イアントノードCNで定義する必要がない。つまり、サ
ーバに関しての位置透過を実現している。これは、クラ
イアントが最初にサーバに要求を出す時にブロードキャ
ストを使い、これを受け取ったマスタのサーバ部が返信
として次から使用するサーバ部のアドレスを入れて送り
返す。これにより、サーバ部の位置透過を提供すること
ができる。
In the present invention, it is not necessary to define the address of the server unit 2 in the client node CN. In other words, position transparency regarding the server is realized. This is done by using a broadcast when the client first makes a request to the server, and the server section of the master that receives the request sends it back with the address of the server section to be used next. Thereby, it is possible to provide the position transparency of the server unit.

【0031】[0031]

【実施例】本発明のクライアントサーバシステムの実施
例について、図3〜図17を用いて説明する。なお、図
3、図4において、実線太線矢印はデータを参照するこ
とを示し、破線矢印はデータを更新することを示す。図
3は、クライアント部のプロセス構造を示し、図4は、
サーバ部プロセスの構造を示す。図5〜17は図3及び
図4の回路の動作を説明するフローチャートである。
EXAMPLE An example of the client server system of the present invention will be described with reference to FIGS. 3 and 4, a solid thick line arrow indicates that data is referred to, and a broken line arrow indicates that data is updated. 3 shows the process structure of the client unit, and FIG. 4 shows
The structure of a server process is shown. 5 to 17 are flowcharts for explaining the operation of the circuits of FIGS.

【0032】図3において、11はクライアント部プロ
セス、16はアドレスセットアップコマンドプロセス、
17はクライアントのセットアップ情報を示す。クライ
アント部プロセス11は、メッセージ受信スレッド1
2、アドレス反映処理スレッド13、アドレス獲得処理
スレッド14、及びサーバ部のアドレス情報15を有す
る。
In FIG. 3, 11 is a client part process, 16 is an address setup command process,
Reference numeral 17 indicates client setup information. The client part process 11 uses the message receiving thread 1
2, the address reflection processing thread 13, the address acquisition processing thread 14, and the address information 15 of the server unit.

【0033】図4は、サーバノードの一部を示し、21
はサーバ部プロセス21、31はノード情報収集プロセ
ス31を示す。サーバプロセス21は、割当計算スレッ
ド22、状態監視スレッド23、状態管理スレッド2
4、システム状態情報25、システム構成情報26、サ
ブシステム情報27、クライアント情報28を具備す
る。状態監視スレッド23と状態管理スレッド24は、
図1の保守手段6を構成する。各管理情報25〜28の
内容は前述の図18に示すとおりである。
FIG. 4 shows a part of the server node 21.
Indicates server part processes 21 and 31, and node information collection process 31. The server process 21 includes an allocation calculation thread 22, a state monitoring thread 23, and a state management thread 2.
4, system status information 25, system configuration information 26, subsystem information 27, and client information 28. The state monitoring thread 23 and the state management thread 24 are
The maintenance means 6 of FIG. 1 is configured. The contents of the management information 25 to 28 are as shown in FIG.

【0034】ノード情報収集プロセス31は、制御スレ
ッド32、情報収集スレッド33、ノード内負荷情報3
4、通知先サーバアドレス情報35を有する。クライア
ント部プロセス11のセットアップ時の動作を図5〜図
7を用いて説明する。図5は、クライアント部プロセス
11の動作を示す。ステップS51で、アドレス獲得処
理スレッド14により、サーバ部のアドレス情報15を
参照して、要求しようとする仕事を実行するサーバのア
ドレスを知っているか否かの判断をする。クライアント
部は最初はアドレスを知らないのであるから、ステップ
S52へ進み、入口プロセスのアドレス通知をネットワ
ークNWにブロードキャストする。
The node information collecting process 31 includes a control thread 32, an information collecting thread 33, and in-node load information 3.
4. Has notification destination server address information 35. The operation at the time of setting up the client process 11 will be described with reference to FIGS. FIG. 5 shows the operation of the client part process 11. In step S51, the address acquisition processing thread 14 refers to the address information 15 of the server unit and determines whether or not the address of the server that executes the requested work is known. Since the client unit does not know the address at first, the process proceeds to step S52, and the address notification of the entrance process is broadcast to the network NW.

【0035】なお、以後の処理が済んでいったん入口プ
ロセスアドレスを得ると、それはサーバ部のアドレス情
報15に記録されることとなるから、その後にセットア
ップする時は、ステップS51からステップS53に進
んで、当該サーバのアドレスを指定して、入口プロセス
のアドレス通知を依頼する。図6はサーバ部プロセス2
1の割当計算スレッド22の動作を示す。ネットワーク
上に存在する依頼を取り込むと、ステップS61で、そ
の依頼がブロードキャストによる依頼であるか否かを判
定する。Noであれば、ステップS63へ進むが、Ye
sであれば、ステップS62で自分がマスタであるか否
かを判定する。Noであれば、処理を終了する。Yes
であれば、ステップS63へ進む。
Note that once the subsequent process is completed and the entrance process address is obtained, it will be recorded in the address information 15 of the server section. Therefore, when setting up thereafter, the process proceeds from step S51 to step S53. , Specify the address of the server and request the address notification of the entrance process. FIG. 6 shows the server process 2
The operation of the allocation calculation thread 22 of No. 1 is shown. When a request existing on the network is fetched, it is determined in step S61 whether the request is a broadcast request. If No, the process proceeds to step S63, but Ye
If s, it is determined in step S62 whether or not the user is the master. If No, the process ends. Yes
If so, the process proceeds to step S63.

【0036】ステップS63では、システム状態情報2
5を参照して、入口の割当を計算する。また、計算の結
果によりクライアント情報28を更新する。ステップS
64では、状態管理スレッド24により、割り当てられ
たサーバの負荷が高いか否かが判定される。負荷が高く
なければステップS67へ進み、高ければステップS6
5へ進む。
In step S63, the system state information 2
5. Calculate entrance allocation with reference to FIG. Further, the client information 28 is updated according to the calculation result. Step S
At 64, the state management thread 24 determines whether the load on the assigned server is high. If the load is not high, the process proceeds to step S67, and if the load is high, the process is step S6.
Go to 5.

【0037】ステップS65では、システム状態情報2
5を参照して、サーバの割当を計算する。そして、その
結果によりクライアント情報28を更新する。また、ス
テップS66では、図7のレプリカのサーバ部へクライ
アントのアドレスを通知する。通知を受けたレプリカの
サーバ部は、図7のステップS71において、自分のク
ライアント情報28のアドレステーブルを更新する。
In step S65, the system state information 2
5, the server allocation is calculated. Then, the client information 28 is updated according to the result. Further, in step S66, the server address of the replica of FIG. 7 is notified of the client address. The replica server unit that has received the notification updates the address table of its own client information 28 in step S71 of FIG.

【0038】図6に戻ると、ステップS67で要求を出
したクライアントへ入口プロセスアドレスと、次回から
のサーバアドレスを返信する。図5のクライアント部で
は、ステップS54でアドレス獲得処理スレッド14に
よりサーバ部のアドレス情報15を更新し、アドレス反
映処理スレッド13よりクライアントのセットアップ情
報17を更新する。また、ステップS54は、後述の図
13のステップS134からの通知によっても動作す
る。
Returning to FIG. 6, the ingress process address and the server address from the next time are returned to the client which issued the request in step S67. In the client unit of FIG. 5, the address acquisition processing thread 14 updates the address information 15 of the server unit and the address reflection processing thread 13 updates the client setup information 17 in step S54. Further, step S54 also operates by the notification from step S134 of FIG. 13 described later.

【0039】次に、図8、図9を用いてサーバ部の起動
動作を説明する。図8は、ノード情報収集プロセス31
の制御スレッド32の動作を説明する。本フローは、ノ
ードブート時のコマンドによる起動、又はrexec等
がその動作の契機となる。ステップS81で、制御表の
作成及びスレッドの作成といったプロセスの初期化を行
う。ステップS82では、後述の図14のステップS1
47におけるサーバ部の起動要求のメッセージの到着を
待つ。メッセージが到着するとステップS83にてサー
バ部を起動する。ステップS84で、新たに起こしたサ
ーバのアドレスを作成依頼元に通知し、ステップS82
に戻り、再度メッセージの到着を待つ。
Next, the starting operation of the server unit will be described with reference to FIGS. FIG. 8 shows the node information collection process 31.
The operation of the control thread 32 will be described. In this flow, the operation is triggered by activation by a command at the time of node booting, rexec, or the like. In step S81, process initialization such as control table creation and thread creation is performed. In step S82, step S1 in FIG.
It waits for the arrival of the message for requesting activation of the server unit at 47. When the message arrives, the server unit is activated in step S83. In step S84, the address of the newly awakened server is notified to the creation request source, and step S82
Return to and wait for the message to arrive again.

【0040】図9は、サーバ部プロセス21の割当計算
スレッド22の動作を示す。最初に、ステップS91
で、制御表の作成及びスレッドの作成といったプロセス
の初期化を行う。ステップS92では、マスタのコール
ドスタートであるか否かが判定される。Noの場合は、
ステップS97へ進む。Yesの場合は、ステップS9
3へ進み、マスタの版数を初期化し、全ノードに対して
サーバ部アドレス設定依頼を行う。
FIG. 9 shows the operation of the allocation calculation thread 22 of the server process 21. First, step S91
Then, process initialization such as control table creation and thread creation is performed. In step S92, it is determined whether or not the master is cold started. If No,
It proceeds to step S97. In the case of Yes, step S9
3, the master version number is initialized, and server part address setting requests are issued to all nodes.

【0041】ステップS94では、レプリカ作成の定義
があるか否かが判定され、なければステップS96でサ
ービスを開始する。あれば、ステップS95で、当該ノ
ード情報収集プロセスにレプリカの起動を依頼して、ス
テップS96へ進む。ステップS97では、起動依頼元
からのシステム状態情報などの通知を待ち、通知がある
とステップS98へ進む。
In step S94, it is determined whether or not there is a replica creation definition. If not, the service is started in step S96. If so, in step S95, the node information collection process is requested to start a replica, and the process proceeds to step S96. In step S97, the system waits for a notification of system status information from the activation request source, and when the notification is received, the process proceeds to step S98.

【0042】ステップS98では、その通知がマスタの
再起動であるか否かが判定される。Noであれば、ステ
ップS96へ進み。Yesであれば、ステップS99で
版数を更新し、全サーバ部へ通知をする。そして、ステ
ップS96へ進み、サービスを開始する。ステップS9
6のサービスについては、後述の図13において説明す
る。
In step S98, it is determined whether the notification is a restart of the master. If No, the process proceeds to step S96. If Yes, the version number is updated in step S99, and all server units are notified. Then, the process proceeds to step S96 to start the service. Step S9
The service No. 6 will be described later with reference to FIG.

【0043】図10、図11は、ノード情報の収集動作
を説明する。図10は、ノード情報収集プロセス31の
情報収集スレッド33の動作を説明する。ステップS1
01では、一定時間の経過を待ち、一定時間ごとにステ
ップS102へ進む。ステップS102では、ノード内
のアプリケーションサービスの負荷情報をミドルウェア
のシステム情報通知機能インターフェースを使って獲得
する。これは、ミドルウェア依存の処理である。ステッ
プS103では、ノード内のプロセッサの負荷情報を獲
得する。これは、OS依存の処理である。
10 and 11 explain the operation of collecting node information. FIG. 10 illustrates the operation of the information collection thread 33 of the node information collection process 31. Step S1
In 01, the process waits for the elapse of a certain time, and the process proceeds to step S102 every certain time. In step S102, the load information of the application service in the node is acquired using the system information notification function interface of the middleware. This is a middleware-dependent process. In step S103, the load information of the processor in the node is acquired. This is an OS-dependent process.

【0044】ステップS104では、負荷状況の変化が
しきい値を超えたか否か、又はアイムアライブ(I'm ali
ve) を通知する時刻であるか否かを判定する。Noであ
れば、ステップS101へ戻り、再度一定時間の経過を
待つ。Yesであれば、ステップS105で、状況に応
じて、アイムアライブ又はアイムアライブ+負荷の変化
を管理している後述の図11のサーバ部に通知を行う。
In step S104, it is determined whether or not the change in the load condition exceeds the threshold value, or I'm alive (I'm ali
It is determined whether it is time to notify ve). If No, the process returns to step S101 and waits again for a certain period of time. If Yes, in step S105, the server unit of FIG. 11 (which will be described later) that manages the alive or the alive + change in load is notified according to the situation.

【0045】図11は、サーバ部の状態情報管理スレッ
ド24の動作を説明する。ステップS111では、メッ
セージの到着を待ち、図9のステップS105における
通知があると、ステップS112へ進む。ステップS1
12では、当該ノードのサブシステム情報27のアイム
アライブ情報を更新する。ステップS113では、負荷
の変化があったか否かを判定する。Noであれば、ステ
ップS111へ戻り、メッセージの到着を待つ。Yes
であれば、ステップS114で、当該ノードの負荷情報
をシステム状態情報25に反映する。そして、ステップ
S111へ戻る。
FIG. 11 illustrates the operation of the status information management thread 24 of the server section. In step S111, the arrival of the message is waited, and when the notification in step S105 of FIG. 9 is received, the process proceeds to step S112. Step S1
At 12, the aim-alive information in the subsystem information 27 of the node is updated. In step S113, it is determined whether the load has changed. If No, the process returns to step S111 to wait for the arrival of a message. Yes
If so, the load information of the node is reflected in the system state information 25 in step S114. Then, the process returns to step S111.

【0046】図12〜日16は、ノードの状態変化時の
動作を説明する。図12は、サーバ部プロセス21の状
態監視スレッド23の動作を説明する。ステップS12
1では、一定時間の経過を待ち、一定時間ごとにステッ
プS122へ進む。ステップS122では、管理してい
る複数のサブシステムのうち、負荷がしきい値時間超え
た状態がしきい値時間を超えたノードがあるか否か、又
はアイムアライブ通知がしきい値時間来ないノードがあ
るか否かが判定される。
12 to 16 explain the operation when the state of the node changes. FIG. 12 illustrates the operation of the status monitoring thread 23 of the server process 21. Step S12
In 1, the process waits for a certain period of time, and the process proceeds to step S122 every certain period of time. In step S122, it is determined whether or not there is a node whose load exceeds the threshold time for a plurality of subsystems being managed, or whether an im-alive notification does not arrive for the threshold time. It is determined whether there is a node.

【0047】Noであれば、ステップS124へ進み、
Yesであれば、ステップS123へ進む。ステップS
123では、後述の図12のサーバ部の割当計算スレッ
ドへアドレス割当の変更を依頼する。ステップS124
では、情報収集プロセスを再起動する。ステップS12
5では、再起動の失敗の有無を判定する。Noであれ
ば、ステップS127へ進む。Yesであれば、ノード
クラッシュと判断して、ステップS126でノード情報
を削除し、ステップS127へ進む。
If No, the process proceeds to step S124
If Yes, the process proceeds to step S123. Step S
At 123, the allocation calculation thread of the server unit of FIG. 12 described later is requested to change the address allocation. Step S124
Now, restart the information gathering process. Step S12
At 5, it is determined whether or not the restart has failed. If No, the process proceeds to step S127. If Yes, it is determined that the node has crashed, the node information is deleted in step S126, and the process proceeds to step S127.

【0048】ステップS127では、管理しているサブ
システムの状態の変化がしきい値を超えた、又はアイム
アライブを通知する時刻であるか否かが判定される。N
oであれば、ステップS121へ戻る。Yesであれ
ば、ステップS128で、状況に応じてアイムアライ
ブ、又はアイムアライブ+状態の変化を他の全てのサー
バ部に通知をする。この通知により、後述の図14の動
作が開始される。
In step S127, it is determined whether or not the change in the status of the managed subsystem exceeds a threshold value or it is time to notify the im-alive. N
If it is o, the process returns to step S121. If Yes, in step S128, all other server units are notified of the alive or the alive + state change according to the situation. By this notification, the operation of FIG. 14 described later is started.

【0049】図13は、サーバ部プロセス21の割当計
算スレッド22の動作を説明する。ステップS131で
は、前述の図11のステップS123における依頼のメ
ッセージ、又は図9のステップS96からのメッセージ
の到着を待つ。依頼が到着すると、ステップS132
で、そのメッセージが自分のクライアントと関連するノ
ードについての通知であるか否かが判定される。Noで
あれば、ステップS131へ戻り、再度メッセージの到
着を待つ。Yesであれば、ステップS133へ進む。
FIG. 13 illustrates the operation of the allocation calculation thread 22 of the server process 21. In step S131, the arrival of the request message in step S123 of FIG. 11 or the message from step S96 of FIG. 9 is waited for. When the request arrives, step S132
Then, it is determined whether the message is a notification about a node associated with his client. If No, the process returns to step S131 to wait for the arrival of a message again. If Yes, the process proceeds to step S133.

【0050】ステップS133では、システム状態情報
25を参照して、関連する全クライアントについて入口
の割当を計算し、その結果によりクライアント情報28
を更新する。ステップS134では、関連する全クライ
アントへ新しい入口アドレスを通知する。この通知は、
クライアント部プロセスにおける図5のステップS54
へ進む。その後、ステップS131へ戻り、メッセージ
の到着を待つ。
In step S133, referring to the system state information 25, the entrance allocation is calculated for all the related clients, and the client information 28 is calculated according to the result.
To update. In step S134, all the related clients are notified of the new entrance address. This notification is
Step S54 of FIG. 5 in the client part process
Go to. Then, it returns to step S131 and waits for the arrival of a message.

【0051】図14は、サーバ部プロセス21の状態管
理スレッド24の動作を説明する。ステップS141で
は、図12のステップS128からのメッセージを待
つ。メッセージが到着すると、ステップS142でシス
テム全体の状態を更新し、ステップS143で各サーバ
部のアイムアライブ時間の更新をする。ステップS14
4では、クラッシュしたサーバ部があるか否かが判定さ
れ、Noであれば、ステップS141へ戻り、Yesで
あれば、ステップS145へ進み、自分がマスタである
か否かが判定される。Yesであれば、ステップS14
7へ進む。Noであれば、ステップS146で、自分は
次のマスタでかつ現在のマスタがクラッシュしているか
否かが判定される。Noであれば、ステップS141へ
戻る。Yesであれば、ステップS148へ進む。
FIG. 14 illustrates the operation of the state management thread 24 of the server process 21. In step S141, the message from step S128 in FIG. 12 is waited for. When the message arrives, the state of the entire system is updated in step S142, and the IMMALIVE time of each server unit is updated in step S143. Step S14
In 4, it is determined whether or not there is a crashed server unit. If No, the process returns to step S141, and if Yes, the process proceeds to step S145 to determine whether or not the user is the master. If Yes, step S14
Proceed to 7. If No, it is determined in step S146 whether or not the user is the next master and the current master has crashed. If No, the process returns to step S141. If Yes, the process proceeds to step S148.

【0052】ステップS147では、図8のステップS
82及び図9のステップS97へメッセージを通知し、
クラッシュしたレプリカを再起動し、ステップS149
へ進む。ステップS148でも同様にして、クラッシュ
したマスタを再起動し、ステップS149へ進む。ステ
ップS149では、レプリカ又はマスタが再起動したか
否かが判定され、Yesであれば、ステップS141へ
戻る。Noであれば、ステップS140へ進み、サブシ
ステムの再構成とレプリカ間の順位の作成を行う。ステ
ップS141では、後述の図14の各サーバ部の割当計
算スレッドへサブシステムと順位の変更を依頼し、ステ
ップS141へ戻る。
In step S147, step S of FIG.
82 and step S97 of FIG. 9 to notify the message,
Restart the crashed replica, step S149
Go to. Similarly, in step S148, the crashed master is restarted, and the process proceeds to step S149. In step S149, it is determined whether or not the replica or master is restarted. If Yes, the process returns to step S141. If No, the process proceeds to step S140 to reconfigure the subsystem and create the order between replicas. In step S141, the allocation calculation thread of each server unit, which will be described later with reference to FIG. 14, is requested to change the subsystem and rank, and the process returns to step S141.

【0053】図15は、サーバ部プロセス21の割当計
算スレッド22の動作を説明する。前述の図14のステ
ップS151からの依頼を受けると、ステップS155
において、後述の図16のステップS161へ、新しく
組み込むノードに自アドレスを通知し、図14のステッ
プS141へ戻る。図16は、ノード情報収集プロセス
31の制御スレッド32の動作を説明する。
FIG. 15 illustrates the operation of the allocation calculation thread 22 of the server process 21. Upon receiving the request from step S151 in FIG. 14 described above, step S155
In step S161 of FIG. 16, which will be described later, the newly incorporated node is notified of its own address, and the process returns to step S141 of FIG. FIG. 16 describes the operation of the control thread 32 of the node information collection process 31.

【0054】前述の図15のステップS155からの通
知により、ステップS161では、通知先サーバアドレ
ス情報35に対して、情報の通知先サーバ部のアドレス
を変更する。その後、図14のステップS141へ戻
る。図18に、本発明を前述の従来例の説明において説
明したタキシードシステムに適用した場合の構成を示
す。図18において、前述の従来例の図19と同一の機
能を有する部分には、同一の参照符号を付して、重複す
る説明を省略する。
In response to the notification from step S155 in FIG. 15 described above, in step S161, the notification destination server address information 35 is changed to the address of the notification destination server unit. Then, it returns to step S141 of FIG. FIG. 18 shows the configuration when the present invention is applied to the tuxedo system described in the above description of the conventional example. 18, parts having the same functions as those in FIG. 19 of the above-mentioned conventional example are designated by the same reference numerals, and duplicated description will be omitted.

【0055】本実施例においては、各クライアントノー
ドCN1 〜CN4 にクライアント部プロセス11が設け
られる。1つのサーバノードSN1 には、サーバ部プロ
セス21と、ノード情報収集プロセス31が配置され、
他のサーバノードSN2 にはノード情報収集プロセス3
1だけが配置される。図18のクライアント部プロセス
11、サーバ部プロセス21、ノード情報収集プロセス
31の動作は既に説明してあるので、ここでの説明は省
略する。
In this embodiment, the client part process 11 is provided in each of the client nodes CN 1 to CN 4 . A server part process 21 and a node information collecting process 31 are arranged in one server node SN 1 .
Node information collection process 3 is performed on the other server node SN 2.
Only 1 is placed. The operations of the client unit process 11, the server unit process 21, and the node information collecting process 31 of FIG. 18 have already been described, and thus the description thereof is omitted here.

【0056】このように、タキシードシステムに本発明
を適用した場合にも、クライアントノードのミドルウェ
アの入口プロセスのアドレスを、ミドルウェア側から配
付することにより、完全な位置透過を実現することがで
きる。さらに、クライアントノードの定義の偏りによる
入口プロセスの輻輳を防止することができる。
As described above, even when the present invention is applied to the tuxedo system, complete position transparency can be realized by distributing the address of the middleware entry process of the client node from the middleware side. Further, it is possible to prevent the congestion of the ingress process due to the bias of the definition of the client node.

【0057】[0057]

【発明の効果】本発明によれば、以下の効果を得ること
ができる。クライアントノードのミドルウェアの入口プ
ロセスのアドレスを、ミドルウェア側から配付すること
により、完全な位置透過を実現することができる。入口
プロセス自身及び、入口プロセスのノードの故障や負荷
の状況に応じて、自動的にクライアントノードの定義を
変更することができる。
According to the present invention, the following effects can be obtained. By distributing the address of the entry process of the middleware of the client node from the middleware side, complete position transparency can be realized. The definition of the client node can be automatically changed according to the failure or load status of the entrance process itself and the node of the entrance process.

【0058】クライアントノードのミドルウェアの入口
プロセスのアドレスをミドルウェア側から配付すること
により、従来、発生しがちであったクライアントノード
の定義の偏りによる入口プロセスの輻輳を防止すること
ができる。システム管理者がクライアントノード間で入
口プロセスのアドレスに関して調整する必要がなく、シ
ステム管理者の負担を軽くできると同時に、クライアン
トノード間の定義調整ミスによる性能低下やシステム停
止の可能性が低くなり、システムの安定稼働に寄与する
ことができる。
By distributing the address of the middleware entry process of the client node from the middleware side, it is possible to prevent the congestion of the entry process due to the bias of the definition of the client node which has been apt to occur conventionally. Since the system administrator does not need to adjust the address of the ingress process between client nodes, the burden on the system administrator can be lightened, and at the same time the possibility of performance degradation and system outage due to definition adjustment errors between client nodes is reduced It can contribute to stable operation of the system.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の論理構造を示す概念図。FIG. 1 is a conceptual diagram showing a logical structure of the present invention.

【図2】本発明のクライアントサーバシステムの全体を
示すブロック図。
FIG. 2 is a block diagram showing the entire client-server system of the present invention.

【図3】本発明の実施例のクライアント部を示すブロッ
ク図。
FIG. 3 is a block diagram showing a client unit according to the embodiment of this invention.

【図4】本発明の実施例のサーバ部を示すブロック図。FIG. 4 is a block diagram showing a server unit according to the embodiment of this invention.

【図5】本発明の実施例のクライアント部プロセスのセ
ットアップ動作を説明するフローチャート(その1)。
FIG. 5 is a flowchart (No. 1) explaining the setup operation of the client unit process according to the embodiment of this invention.

【図6】本発明の実施例のクライアント部プロセスのセ
ットアップ動作を説明するフローチャート(その2)。
FIG. 6 is a flowchart (part 2) explaining the setup operation of the client process according to the embodiment of this invention.

【図7】本発明の実施例のクライアント部プロセスのセ
ットアップ動作を説明するフローチャート(その3)。
FIG. 7 is a flowchart (No. 3) explaining the setup operation of the client process according to the embodiment of this invention.

【図8】本発明の実施例のサーバ部プロセスの起動動作
を説明するフローチャート(その1)。
FIG. 8 is a flowchart (part 1) explaining the startup operation of the server process according to the embodiment of this invention.

【図9】本発明の実施例のサーバ部プロセスの起動動作
を説明するフローチャート(その2)。
FIG. 9 is a flowchart (No. 2) for explaining the startup operation of the server process according to the embodiment of this invention.

【図10】本発明の実施例のノード情報の収集動作を説
明するフローチャート(その1)。
FIG. 10 is a flowchart (part 1) explaining the operation of collecting node information according to the embodiment of this invention.

【図11】本発明の実施例のノード情報の収集動作を説
明するフローチャート(その2)。
FIG. 11 is a flowchart (part 2) explaining the operation of collecting node information according to the embodiment of this invention.

【図12】本発明の実施例のノードの状態変化時の動作
を説明するフローチャート(その1)。
FIG. 12 is a flowchart (No. 1) for explaining the operation when the state of the node changes according to the embodiment of this invention.

【図13】本発明の実施例のノードの状態変化時の動作
を説明するフローチャート(その2)。
FIG. 13 is a flowchart (part 2) explaining the operation when the state of the node changes according to the embodiment of this invention.

【図14】本発明の実施例のノードの状態変化時の動作
を説明するフローチャート(その3)。
FIG. 14 is a flowchart (No. 3) explaining the operation when the state of the node according to the exemplary embodiment of the present invention changes.

【図15】本発明の実施例のノードの状態変化時の動作
を説明するフローチャート(その4)。
FIG. 15 is a flowchart (No. 4) explaining the operation when the state of the node according to the exemplary embodiment of the present invention changes.

【図16】本発明の実施例のノードの状態変化時の動作
を説明するフローチャート(その5)。
FIG. 16 is a flowchart (No. 5) explaining the operation when the state of the node according to the exemplary embodiment of the present invention changes.

【図17】本発明の実施例における管理情報の内容を説
明するための図表。
FIG. 17 is a diagram for explaining the contents of management information in the embodiment of the present invention.

【図18】タキシードシステムに本発明を適用したシス
テムのブロック図。
FIG. 18 is a block diagram of a system in which the present invention is applied to a tuxedo system.

【図19】従来のタキシードシステムを示すブロック
図。
FIG. 19 is a block diagram showing a conventional tuxedo system.

【符号の説明】[Explanation of symbols]

NW…ネットワーク CN…クライアントノード SN…サーバノード SS…サブシステム 1…アドレス割当クライアント部 2…アドレス割当サーバ部 3…入口プロセスアドレス獲得手段 4…入口プロセスアドレス変更手段 41…アドレス定義 5…入口プロセスアドレス割当手段 51…入口プロセスアドレス通知手段 52…入口プロセスアドレス割当決定手段 53…システム状態管理手段 6…サーバ部保守手段 7…ノード情報収集手段 8…管理情報 11…クライアント部プロセス 12…メッセージ受信スレッド 13…アドレス反映処理スレッド 14…アドレス獲得処理スレッド 15…サーバ部のアドレス情報 16…アドレスセットアップコマンドプロセス 17…クライアントのセットアップ情報 21…サーバ部プロセス 22…割当計算スレッド 23…状態監視スレッド 24…状態管理スレッド 25…システム状態情報 26…システム構成情報 27…サブシステム情報 28…クライアント情報 31…ノード情報収集プロセス 32…制御スレッド 33…情報収集スレッド 34…ノード内負荷情報 35…通知先サーバアドレス情報 NW ... Network CN ... Client node SN ... Server node SS ... Subsystem 1 ... Address assignment client unit 2 ... Address assignment server unit 3 ... Ingress process address acquisition unit 4 ... Ingress process address changing unit 41 ... Address definition 5 ... Ingress process address Assigning means 51 ... Ingress process address notifying means 52 ... Ingress process address allocation determining means 53 ... System state managing means 6 ... Server part maintaining means 7 ... Node information collecting means 8 ... Management information 11 ... Client part process 12 ... Message receiving thread 13 Address reflection processing thread 14 Address acquisition processing thread 15 Address information of server section 16 Address setup command process 17 Client setup information 21 Server section process 22 Computational thread 23 ... Status monitoring thread 24 ... Status management thread 25 ... System status information 26 ... System configuration information 27 ... Subsystem information 28 ... Client information 31 ... Node information collecting process 32 ... Control thread 33 ... Information collecting thread 34 ... In node Load information 35 ... Notification destination server address information

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 入口プロセスアドレスの要求メッセージ
を接続されたネットワークに対してブロードキャストす
る手段、前記ネットワーク上に存在する前記要求メッセ
ージに対応する入口プロセスアドレスを獲得する獲得処
理手段、及び獲得した入口プロセスアドレスを記憶する
アドレス定義を具備することを特徴とするクライアン
ト。
1. A means for broadcasting a request message of an ingress process address to a connected network, an acquisition processing means for acquiring an ingress process address corresponding to the request message existing on the network, and an acquired ingress process. A client comprising an address definition for storing an address.
【請求項2】 ネットワークからメッセージを取り入れ
る手段、そのメッセージが入口プロセスアドレス要求で
ある場合、その要求に適合する入口プロセスアドレスを
得る獲得手段、及びその入口プロセスアドレスを前記ネ
ットワークに返す通知手段を具備することを特徴とする
サーバ。
2. A means for receiving a message from a network, a means for obtaining an ingress process address matching the request when the message is an ingress process address request, and a notification means for returning the ingress process address to the network. A server characterized by:
【請求項3】 請求項1記載のクライアント及び請求項
2記載のサーバをネットワーク上に接続してなるサーバ
クライアントシステム。
3. A server client system in which the client according to claim 1 and the server according to claim 2 are connected on a network.
【請求項4】 ネットワークからメッセージを取り入れ
る手段、システム状態を監視する手段、前記取り入れた
メッセージが入口プロセスアドレス要求である場合、そ
の要求に適合する入口プロセスアドレスを計算により
得、さらに、前記監視手段により得たシステム状態情報
に応じて入口プロセスアドレスを変更する獲得手段、及
びその入口プロセスアドレスを前記ネットワークに返す
通知手段を具備することを特徴とするサーバ。
4. A means for receiving a message from a network, a means for monitoring a system state, and when the received message is an ingress process address request, an ingress process address matching the request is obtained by calculation, and the monitoring means is further provided. A server comprising: an acquisition means for changing the ingress process address according to the system status information obtained by the above, and a notification means for returning the ingress process address to the network.
【請求項5】 請求項1記載のクライアント及び請求項
4記載のサーバをネットワーク上に接続してなるサーバ
クライアントシステム。
5. A server client system in which the client according to claim 1 and the server according to claim 4 are connected on a network.
JP6273870A 1994-11-08 1994-11-08 Server client system Withdrawn JPH08137778A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6273870A JPH08137778A (en) 1994-11-08 1994-11-08 Server client system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6273870A JPH08137778A (en) 1994-11-08 1994-11-08 Server client system

Publications (1)

Publication Number Publication Date
JPH08137778A true JPH08137778A (en) 1996-05-31

Family

ID=17533719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6273870A Withdrawn JPH08137778A (en) 1994-11-08 1994-11-08 Server client system

Country Status (1)

Country Link
JP (1) JPH08137778A (en)

Similar Documents

Publication Publication Date Title
US6839752B1 (en) Group data sharing during membership change in clustered computer system
EP1770508B1 (en) Blade-based distributed computing system
US8140640B2 (en) Distributed services architecture through use of a dynamic service point map
US7185096B2 (en) System and method for cluster-sensitive sticky load balancing
JP4039195B2 (en) Network system
RU2585981C2 (en) Large-scale data storage system
JP4349871B2 (en) File sharing apparatus and data migration method between file sharing apparatuses
US6430622B1 (en) Methods, systems and computer program products for automated movement of IP addresses within a cluster
US6249883B1 (en) System and method for monitoring domain controllers
CN100544342C (en) Storage system
JP4307673B2 (en) Method and apparatus for configuring and managing a multi-cluster computer system
US8769132B2 (en) Flexible failover policies in high availability computing systems
US20110178985A1 (en) Master monitoring mechanism for a geographical distributed database
CN111371857A (en) Load balancing access to replicated databases
JP2004519024A (en) System and method for managing a cluster containing multiple nodes
CN100359508C (en) Merge protocol for schooling computer system
JP2003022209A (en) Distributed server system
TW200805941A (en) High-availability network systems
CN111615066A (en) Distributed micro-service registration and calling method based on broadcast
JPH08212095A (en) Client server control system
JP4132738B2 (en) A computerized method of determining application server availability
US5758052A (en) Network management method using redundant distributed control processors
JP2002009791A (en) Dhcp server system for dynamically assigning ip address and dhcp server for dynamically assigning ip address
JPH09293059A (en) Decentralized system and its operation management method
US20240028611A1 (en) Granular Replica Healing for Distributed Databases

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20020115