KR100323255B1 - 업무인계시스템 - Google Patents

업무인계시스템 Download PDF

Info

Publication number
KR100323255B1
KR100323255B1 KR1019980701217A KR19980701217A KR100323255B1 KR 100323255 B1 KR100323255 B1 KR 100323255B1 KR 1019980701217 A KR1019980701217 A KR 1019980701217A KR 19980701217 A KR19980701217 A KR 19980701217A KR 100323255 B1 KR100323255 B1 KR 100323255B1
Authority
KR
South Korea
Prior art keywords
task
processing
cluster
processing apparatus
load
Prior art date
Application number
KR1019980701217A
Other languages
English (en)
Other versions
KR19990043986A (ko
Inventor
도시미치 유게
도시히로 아메미야
사토시 마츠모토
야스히로 스즈키
Original Assignee
아끼구사 나오유끼
후지쯔 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아끼구사 나오유끼, 후지쯔 가부시끼가이샤 filed Critical 아끼구사 나오유끼
Publication of KR19990043986A publication Critical patent/KR19990043986A/ko
Application granted granted Critical
Publication of KR100323255B1 publication Critical patent/KR100323255B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2035Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant without idle spare hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/203Failover techniques using migration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2046Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant where the redundant components share persistent storage

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Hardware Redundancy (AREA)
  • Multi Processors (AREA)

Abstract

본 발명은 업무 인계 시스템에 관한 것으로, 장해 발생 클러스터의 업무를 상시 대기의 클러스터에 인계하는 동시에 부하 분할의 클러스터의 업무마다의 부하 분할을 변경하고, 장해 발생시의 처리를 간단하고 또한 클러스터의 효율적인 운용을 실행하는 동시에 클러스터의 자유로운 배치를 실현하는 것을 목적으로 하고 있다. 그리고, 테이블에 따라서 업무 단위로 상시 대기의 현용 시스템, 상시 대기의 대기 시스템, 및 부하 분할중의 1개 또는 복수로 운용하는 복수의 클러스터와, 복수중 어느 하나의 클러스터에서의 장해 발생시에 테이블을 참조하여, 장해 발생 클러스터의 업무가 상시 대기의 현용 시스템일 때 그 업무의 상시 대기 시스템의 클러스터가 인계, 또는 부하 분할일 때에 그 업무의 부하 분할의 다른 클러스터에 인계하는 수단을 각 클러스터에 구비하도록 구성된다.

Description

업무 인계 시스템{JOB TAKING-OVER SYSTEM}
신뢰성이 요구되는 시스템에 있어서는, 시스템을 이중화하는 것이 행해지고 있었다. 즉, 처리 장치를 2개 준비하고, 제1 처리 장치를 현용(現用) 처리 장치로서 사용하며, 다른 하나의 제2 처리 장치에 현용 처리 장치에 장해가 발생했을 경우에 그 처리를 바로 인계할 수 있도록 미리 그 처리에 필요한 프로그램이나 데이타를 판독해 두고, 제1 처리 장치의 장해 발생을 위해 대기하는 형태이다. 이와 같은 형태를 상시 대기 방식이라고 부르고 있다.
또한, 트랜잭션 처리 등에 있어서는, 트랜잭션 1개에 대해서는 단시간에 처리를 행할 수 있지만, 동시에 다량의 트랜잭션이 발생했을 경우에는 1개 처리 장치로는 실시간에 처리를 행할 수 없다. 그래서, 처리의 부하를 분할시키기 위해서, 발생한 트랜잭션을 복수의 처리 장치에 분배하여 처리를 행하는 부하 분할이라는 형태가 있다. 이 부하 분할의 형태에 있어서는, 1개 처리 장치에 장해가 발생했을 경우에는 단지, 그 장해가 발생한 처리 장치에만, 발생한 트랜잭션을 분배하지 않도록 하고 있다.
상기 상시 대기 방식이나 부하 분할 형태의 시스템을 구축하기 위해서는 큰프로그램이 필요하였다.
또한, 근래, 처리 장치가 염가로 된 것, 다수의 업무 처리를 행할 필요성 때문에 대형 범용기를 2, 3대 사용하는 운용에서 보다 많은 처리 장치수를 사용한 운용이 요망되고 있다. 예컨대, 클러스터라고 불리는 독립 케이스에 수납되어 있는 처리 장치를 복수개 접속하여 사용하는 형태가 많아지고 있다. (1개의 클러스터에는 복수의 CPU를 구비하는 경우도 있다.) 이러한 복수 클러스터의 보급에 따라, 어느 하나의 클러스터의 장해 발생시에 처리 인계를 효율적으로 실현하는 것이 요망되고 있다.
본 발명은 상시 대기 방식의 형태나 부하 분할의 형태로 복수의 처리 장치에 의해 업무 처리를 효율적으로 행하게 하는 시스템에 관한 것이다.
본 발명의 다른 목적, 특징 및 이점은 첨부의 도면을 참조하면서 이하의 상세한 설명을 읽음으로써 더욱 명료해질 것이다.
도 1은 본 발명의 시스템 구성도.
도 2는 본 발명의 실시예에 따른 시스템의 하드웨어 구성을 나타내는 블록도.
도 3은 도 2에 도시된 시스템의 동작 설명도.
도 4A, 도 4B, 도 4C는 도 2에 도시된 시스템에서의 처리에 이용되는 각 클러스터의 운용 상태 관리 테이블의 예를 나타내는 도면.
도 5A, 도 5B는 도 2에 도시된 시스템에서의 처리에 이용되는 글로벌 처리표의 예를 나타내는 도면.
도 6은 도 2에 도시된 시스템에서의 처리에 이용되는 분할 테이블의 예를 나타내는 도면.
본 발명은 이들 문제를 해결하는 개량된 유용한 업무 인계 시스템을 제공하는 것을 총괄적인 목적으로 하고 있다.
본 발명의 보다 상세한 목적은 상시 대기 방식의 형태나 부하 분할의 형태로 복수의 처리 장치에 의해 업무 처리의 실행을 행하는 시스템에서 특히 많은 프로그래밍을 필요로 하지 않고 장해 발생시의 효율적인 인계가 가능한 업무 인계 시스템을 제공하는 것이다.
상술한 목적을 달성하기 위해서, 본 발명은 복수의 처리 장치에 의해 업무 에 관한 처리를 상시 대기 방식 형태로써 행하는 시스템에서 각 처리 장치가 업무에 관하여 현용 시스템인지 대기 시스템인지를 나타내는 테이블을 기억하는 기억 수단과, 업무에 관하여 현용 시스템인 처리 장치의 장해 발생시에 상기 장해가 발생한 처리 장치에서의 업무에 관한 처리를 상기 기억부내의 테이블을 참조하여 해당 업무의 대기 시스템으로 되는 처리 장치에 인계하는 수단을 구비한 업무 인계 시스템으로 된다.
이러한 시스템에 의하면, 상시 대기 방식의 형태로써 어떤 업무를 복수의 처리 장치에서 행하는 시스템에서 각 처리 장치가 업무에 관하여 현용 시스템인지 대기 시스템인지를 나타내는 테이블을 직접 참조함으로써 장해 발생에 관한 현용 시스템의 처리 장치에서의 업무 처리를 대기 시스템의 처리 장치에 인계하도록 하고 있기 때문에, 인계받을 처리 장치를 특정하기 위한 알고리즘이 간단해지고, 특히 큰 프로그램의 구축을 필요로 하지 않고 효율적으로 업무 인계가 행해진다.
또한, 상기의 과제를 해결하기 위해서, 본 발명은 복수의 처리 장치에 의해 업무 처리를 부하 분할의 형태로써 행하는 시스템에서 각 처리 장치가 해당 업무 처리를 분할하는 비율을 나타내는 테이블을 기억하는 기억 수단과, 처리 장치의 장해 발생시에 상기 기억 수단에 기억된 테이블을 참조하여 상기 장해가 발생한 처리 장치에 분할된 비율의 업무를 다른 처리 장치에 인계하는 수단을 구비한 업무 인계 시스템이 된다.
이러한 시스템에 의하면, 부하 분할의 형태로써 어떤 업무를 복수의 처리 장치에서 행하는 시스템에서 각 처리 장치가 해당 업무 처리를 분할하는 비율을 나타내는 테이블을 직접 참조함으로써 장해 발생에 관한 처리 장치에 분할된 비율의 업무 처리를 다른 처리 장치에 인계하도록 하고 있기 때문에, 인계에 관한 처리가 간단해지고, 특히 큰 프로그램의 구축을 필요로 하지 않고서 효율적으로 업무 인계가행해진다.
또, 상기 과제를 해결하기 위해서, 본 발명은 복수의 처리 장치에 의해 복수의 업무 처리를 상시 대기 방식의 형태 및 부하 분할의 형태로써 행하는 시스템에 서 상시 대기 방식의 형태로써 처리해야 할 업무와 부하 분할의 형태로써 처리해야 할 업무의 각 처리 장치에 대한 할당의 유무를 나타내는 동시에, 상시 대기 방식의 형태로써 처리해야 할 업무가 할당되는 경우에 그 업무에 관하여 현용 시스템인지 대기 시스템인지를 나타내는 테이블을 기억하는 기억 수단과, 상기 복수의 처리 장치중 어느 하나에서의 장해 발생시에 상기 기억 수단에 기억된 테이블을 참조하여, 상기 장해가 발생한 처리 장치에 할당된 업무중 상시 대기 방식의 형태로써 처리해야 할 업무 처리를 해당 업무에 관하여 대기 시스템인 처리 장치에 인계하고, 부하 분할의 형태로써 처리해야 할 업무 처리를 해당 업무가 할당된 다른 처리 장치로 하여금 인계받게 하는 수단을 구비한 업무 인계 시스템이 된다.
이러한 시스템에 의하면, 상시 대기 방식의 형태 및 부하 분할의 형태가 혼재하여 복수의 업무를 복수의 처리 장치에서 행하는 시스템에서 상시 대기 방식의 형태로써 처리해야 할 업무와 부하 분할의 형태로써 처리해야 할 업무의 각 처리 장치에 대한 할당 유무를 나타내는 동시에, 상시 대기 방식의 형태로써 처리해야 할 업무가 할당되는 경우에 그 업무에 관하여 현용 시스템인지 대기 시스템인지를 나타내는 테이블을 직접 참조함으로써 장해 발생에 관한 처리 장치에서의 업무 처리를 다른 처리 장치에 인계하도록 하고 있기 때문에, 업무 인계에 관한 처리가 간단해지고, 특히 큰 프로그램의 구축을 필요로 하지 않고서 효율적으로 업무 인계가행해진다.
우선, 도 1을 참조하여 본 발명의 실시예에 따른 시스템의 원리에 대해서 설명한다.
도 1에서, 각 클러스터 1, 2, 3(이하, 각각을 적당히 단지 클러스터(11)라 함)는 전술한 바와 같이 독립 케이스에 수납되어 있는 처리 장치로서 각종 업무 처리를 행한다. 여기서, 클러스터(11)는 업무 인계 수단(12) 및 각종 업무(13,14)등으로 구성되는 것이다.
업무 인계 수단(12)은 다른 클러스터(11)에 장해가 발생했을 때에 그 업무를 인계하는 것이다. 업무(13,14)는 복수의 단말에 각종 업무를 제공하는 것이다.
운용 상태 관리 테이블(21)은 클러스터의 운용 상태를 관리하는 것이다. 글로벌 처리 테이블(22)은 업무를 인계받을 때 사용하는 자원 획득이나 인계 처리 등을 행하기 위한 것이다. 분할 테이블(23)은 부하 분할일 때의 업무 단위의 클러스터로의 부하 분할 비율을 설정하는 것이다.
다음에, 동작을 설명한다.
클러스터(11)내의 업무 인계 수단(12)이 다른 복수의 클러스터(11)중 어느 하나의 장해 발생시에 운용 상태 관리 테이블(21)을 참조하여 장해 발생 클러스터의 상시 대기 방식의 현용 시스템 업무에 대해서, 현용 클러스터가 그 업무의 상시 대기의 대기 시스템 클러스터였다고 판명했을 때에 글로벌 처리표(22)를 바탕으로 해당 업무를 인계받거나, 또는 부하 분할의 업무에 대해서, 현용 클러스터가 그 업무의 부하 분할 클러스터라고 판명되었을 때에 글로벌 처리 테이블(22)을 바탕으로 해당 업무를 인계받도록 하고 있다.
이 때, 복수의 클러스터(11)중 어느 하나의 장해 발생시에, 운용 상태 관리 테이블(21)을 참조하여 장해 발생 클러스터(11)의 업무가 상시 대기의 현용 시스템일 때에 그 업무의 상시 대기 시스템의 클러스터(11)중 최초에 인계 처리를 개시한 클러스터(11) 또는 우선 순위가 가장 높은 클러스터(11)만이 업무를 인계받도록 할 수 있다.
또한, 복수의 클러스터(11)중 어느 하나의 장해 발생시에, 운용 상태 관리 테이블(21)을 참조하여 장해 발생 클러스터의 업무가 부하 분할일 때에 그 업무의 부하 분할의 다른 클러스터(11)중 최초에 인계 처리를 개시한 클러스터(11) 또는 우선 순위가 가장 높은 클러스터(11)가 인계 처리를 행하게 할 수 있다.
또한, 인계 처리로서, 부하 분할의 클러스터(11) 또는 클러스터(11)내의 업무 태스크의 다중도를 변경하는 처리를 포함할 수 있다.
또한, 인계 처리로서, 부하 분할의 각 클러스터(11)의 부하 분할 비율을 분할 테이블(23)을 토대로 변경하도록 하고 있다.
따라서, 상시 대기 방식 및 부하 분할이 혼재하는 시스템에 있어서, 장해 발생시에 테이블을 참조하여 장해 발생한 클러스터(11)의 업무를 상시 대기의 클러스터(11)가 빠른 것이 유리하게 인계받는 동시에 부하 분할의 클러스터(11) 업무마다의 부하 분할을 동적 변경함으로써, 장해 발생시의 처리를 간단하게 또한 클러스터(11)의 효율적인 운용을 실현하는 동시에 클러스터의 자유로운 배치를 실현할 수 있게 된다.
다음에, 도 1 및 도 2에서 도 6을 참조하여 본 발명의 실시예에 따른 시스템의 구성 및 그 동작을 순차적으로 상세히 설명한다.
도 2는 본 발명의 실시예에 따른 시스템의 하드웨어 구성을 나타내는 구성도를 도시한다.
도 2에서, 복수의 클러스터 1, 2, 3(처리 장치)이 버스에 접속되어 있다. 각 클러스터 1, 2, 3은 외부 기억 장치로서의 시스템 메모리 유닛(System StorageUnit: SSU)(100)과 디스크 장치(120)를 공유하고 있다. 각 클러스터 1, 2, 3은 버스를 통해 통신 제어 장치(150)와 접속되어 있고, 이 통신 제어 장치(150)가 소정의 통신 회선을 통해, 각 클러스터 1, 2, 3과 단말 장치(200)사이의 여러가지 업무에 관한 통신 제어를 행한다.
각 클러스터 1, 2, 3은 각각 도 1에 도시된 클러스터 1, 2, 3에 대응하고 있고, 상기 통신 제어 장치(150) 및 회선을 통해 복수의 단말 장치(200)에 각종 업무에 관한 서비스를 제공 등을 행하는 것으로, 전술한 바와 같이, 도 1에 도시된 바와 같은 업무 인계 수단(12), 및 각종 업무(13,14) 등으로 구성된다. 또한, 도 1에 도시된 운용 상태 테이블(21), 글로벌 처리 테이블(22) 및 분할 테이블(23)은 디스크 장치(120)에 격납되고, 각 클러스터 1, 2, 3이 디스크 장치(140)에 격납된 각 테이블을 공통적으로 이용할 수 있도록 되어 있다. 또, 각 클러스터 1, 2, 3에서, 특히, 고속 테이블 참조 처리를 요하는 경우에는 상기 각 테이블(21,22,23)은 시스템 메모리 유닛(100)에 격납된다.
각 클러스터 1, 2, 3이 갖는 업무 인계 수단(12)은 다른 클러스터에서 장해가 발생했을 때에 그 업무를 인계받기 위한 기능이다(도 3 참조). 또한, 각 클러스터 1, 2, 3에는 도 1에 도시된 바와 같이 업무(13,14)가 할당되어 있고, 복수의 단말 장치(200)에 대하여 각종 업무(13,14)에 관한 서비스가 각 클러스터로부터 제공되도록 되어 있다. 이 업무(13,14)는 은행에서의 업무를 예로 들면, 예컨대, 계정계의 예금 업무, 환업무, 또는 융자 업무 등이다. 이 실시예에서는 업무(13)는 상시 대기 방식의 형태로써 처리되는 업무 A이고, 업무(14)는 부하 분할의 형태로써처리되는 업무 B이다. 또, 클러스터 1이 상시 대기 방식의 형태로써 처리해야 할 업무 A에 대한 현용 시스템으로 결정되고, 다른 클러스터 2, 3이 해당 업무 A에 대한 대기 시스템으로 결정되어 있다(도 1 참조). 또한, 업무 B에 대해서는 각 클러스터 1, 2, 3이 부하 분할의 형태로써 그 업무를 행하도록 결정되어 있다(도 1 참조).
운용 상태 관리 테이블(21)은 각 클러스터의 운용 상태를 관리하는 것으로, 업무 단위로 상시 대기의 현용 시스템, 상시 대기의 대기 시스템, 부하 분할의 현용 시스템, 및 글로벌 처리표(인계용)를 관련지어 설정한 것이다(도 4A, 도 4B, 도 4C 참조).
글로벌 처리 테이블(22)은 업무가 사용하는 자원, 실행 처리 등을 설정한 것이다(도 5A, 도 5B 참조).
분할 테이블(23)은 부하 분할일 때의 업무 단위의 클러스터로의 부하 분할 비율을 설정하는 것이다(도 6 참조).
다음에, 도 3에 도시된 순서에 따라서, 상기 시스템의 동작을 도 4A 내지 도 6을 이용하여 상세히 설명한다.
도 3은 동작 설명도를 나타낸다. 도 3의 클러스터 1, 2, 3은 도 1 및 도 2의 클러스터 1, 2, 3에 대응한다.
각 클러스터 1, 2, 3은 주기적으로 전문(電文)을 교환하여 그 응답의 유무를 서로 감시하고 있다. 도 2에 도시된 바와 같이, 예컨대, 클러스터 1이 어떠한 장해에 의해 다운(동작을 정지)되었을(S1) 경우, 다른 클러스터 2, 3은 다음과 같은 동작을 행한다.
다른 클러스터 2, 3은 각각의 타이밍으로 클러스터 1에 전문을 송신하고나서, 소정 시간 경과(타임 오버)하여도 그 응답이 없는 것을 검출하면(S2, S22), 클러스터 1에 어떠한 장해가 발생한 것을 인식한다(S3,S23). 이하, 클러스터 2 및 클러스터 3은 동일한 업무의 인계에 관한 처리를 실행하기 위해서, 예컨대, 클러스터 2에서의 처리를 설명한다.
클러스터 2는 클러스터 1에서 장해가 발생한 것을 인식하면(S3), 도 4A에 도시된 바와 같은 그 다운된 클러스터 1의 운용 상태 관리 테이블(21)을 참조하여 그 클러스터 1에 할당된 업무를 추출한다(S4). 그리고, 그 추출된 업무가 종료하고 있는지의 여부를 판별한다(S5). YES인 경우에는 종료한다. NO인 경우(아직 종료하고 있지 않은 업무인 경우)에는 다음 단계 S6으로 진행한다.
추출된 업무가 아직 종료하지 않는 경우(S5에서 N0), 또, 클러스터 1의 운용 상태 관리 테이블(21)(도 4A 참조)을 참조하여 그 업무가 부하 분할의 형태로써 처리되어야 되는지의 여부가 판별된다(S6). YES인 경우에는 부하 분할의 형태로써 처리해야 할 업무라고 판명되었기 때문에 단계 Sl2로 진행하고, 부하 분할의 형태로써 처리해야 할 업무의 인계 처리를 실행한다. 한편, NO인 경우에는, 상시 대기의 형태로써 처리해야 할 업무라고 판명되었기 때문에, 단계 S7로 진행한다.
단계 S7에서는, 또, 클러스터 1의 운용 상태 관리 테이블을 참조하여, 클러스터 1이 그 업무의 현용 시스템으로서 결정되고 있는지의 여부가 판정된다. 클러스터 1이 그 업무의 대기 시스템으로서 결정되고 있는 경우(S7, N0), 그 업무에 대해서는 인계받을 필요가 없기 때문에, 단계 S4로 되돌아가서, 또, 장해가 발생한 클러스터 1에 할당되어 있는 업무의 추출을 행하고, 상기와 동일한 순서로의 처리를 행한다.
한편, 장해가 발생한 클러스터 1이 그 업무의 현용 시스템으로서 결정되어 있는 경우(S7, YES), 클러스터 2는 도 4B에 도시된 클러스터 2의 운용 상태 관리 테이블(21)을 참조하여, 현용 클러스터(클러스터 2)가 상기 장해 발생의 클러스터 1이 현용 시스템으로서 결정된 그 업무의 대기 시스템으로서 결정되어 있는지의 여부를 판정한다(S70). 그리고, 그 업무의 대기 시스템으로서 결정되어 있지 않으면, 클러스터 2는 그 업무에 대해서 인계받을 필요가 없기 때문에, 단계 S4로 되돌아가서, 또, 장해가 발생한 클러스터 1에 할당되어 있는 업무의 추출을 행하고, 상기와 동일한 순서로의 처리를 행한다.
한편, 클러스터 2가 그 업무에 관하여 대기 시스템으로서 결정되어 있던 경우(S70, YES), 단계 S8 내지 단계 S11의 순서에 따라서 업무의 인계 처리를 행한다.
우선, 단계 S8에서 배타성의 획득 요구가 제시된다. 단계 S9에서 그 배타성의 획득 요구에 대하여 배타성을 취할 수 있는지의 여부가 판별된다. YES인 경우에는 OS의 제어표가 재기록되어 배타성의 취득이 이루어진다. 여기서는 배타성을 취할 수 있는 클러스터는 가장 빠르게 배타성을 획득하는 클러스터(클러스터 2 또는 클러스터 3)로서, 가장 부하가 낮은 클러스터이다. 이 가장 부하가 낮은 클러스터만이 다운된 클러스터의 업무 인계 처리를 행하게 된다. 또, 배타성의 취득이 이루어지지 않은 경우, 그 업무의 인계를 행할 필요는 없고, 단계 S4로 되돌아가고, 또, 장해가 발생한 클러스터 1에 할당되어 있는 업무의 추출을 행하고, 상기와 동일한 순서로의 처리를 행한다.
상기와 같이 하여, 예컨대, 클러스터 2가 배타성을 획득하면, 단계 S10으로 제어표의 재기록을 행한다. 이것은 도 4B에 도시된 클러스터 2의 운용 상태 관리 테이블(21)의 해당하는 업무의 상태가 예컨대 "대기 시스템"에서 "인계중", 또 인계 처리가 종료된 시점에서 " 현용 시스템"에 재기록된다.
또, 단계 S11에서 도 5A에 도시된 글로벌 처리표에 따라서 자원의 획득이 행해진다. 이것은 해당하는 도 4A에 도시된 글로벌 처리표(상시 대기)(22)에 따라서 인계 처리로서 자원의 획득(필요한 데이타 베이스 자원, 네트워크 자원, 각종 테이블, 하드 자원 등을 획득) 및 처리(트랜잭션 복구, 기동 통지, 비교(태스크 다중도)의 변환(부하 분할), 전문 분할 비율(부하: 부하 분할) 등의 처리)가 행해진다.
상기한 바와 같이 하여, 인계 처리가 종료되면, 클러스터 2는 클러스터 1로부터 인계받은 업무에 대해서 실제의 운용을 계속한다(S15).
이상의 단계 S1 내지 S11, 및 단계 S15에 의해, 클러스터 1이 다운되었을 때에 운용 상태 관리 테이블(21)을 참조하여 행해지는 인계 처리 개시의 가장 빠른(배타성을 취득한) 클러스터 2가 클러스터 1을 실행하고 있던 상시 대기 방식의 형태로 처리해야 할 업무(업무 A)를 인계받는다.
한편, 상술한 바와 같이 추출한 업무가 부하 분할의 형태로 행해야 되는 것이라고 판정되면(S6, YES), 처리는 단계 S12로 이행되어 제어표의 재기록이 행해진다. 이것은 다운된 클러스터 1의 실행하고 있던 업무와 같은 클러스터 2의 업무가 부하 분할이라고 판명되었기 때문에, 나머지 클러스터(11)에서 업무을 행하도록 운용 상태 관리 테이블(21)을 재기록한다(부하 분할의 해당하는 업무 상태를 예컨대 "현용 시스템"에서 "인계중", 또 인계 처리가 종료한 시점에서 "현용 시스템"으로 재기록한다).
그 후, 단계 S13에서 글로벌 처리표에 따라 자원의 획득이 행해진다. 즉, 상기한 바와 같이 운용 상태 관리 테이블(21)의 해당하는 업무의 상태가 "현용 시스템"으로 재기록 된 후, 도 5A에 나타내는 글로벌 처리표(부하 분할)(22)에 따라 인계 처리로서 자원의 획득(필요한 데이타 베이스 자원, 네트워크 자원, 각종 테이블, 하드 자원 등을 획득)이 행해진다.
단계 S14에서는 도 6에 도시된 분할 테이블(23)의 갱신이 행해지는 동시에, 도 5B에 나타내는 글로벌 처리표상에서 미처리된 클러스터 1의 전문 처리가 행해진다. 즉, 이 경우, 다운된 클러스터 1의 업무가 부하 분할의 형태로써 처리되어야 되는 것이었기 때문에, 클러스터 2는 다운된 클러스터 1의 부하 분할 비율을 다른 클러스터 3으로 재분할하기 위해 현용 클러스터의 해당 업무에 대한 부하 분할 비율을 결정한다. 그리고, 분할 테이블(23)의 부하 분할의 형태로 행해야 되는 업무 B의 해당 클러스터 2에 대한 부하 분할 비율을 갱신한다. 또, 클러스터 3에서도 동일한 순서에 따라 분할 테이블(23)의 해당 업무 B의 클러스터 3에 대한 부하 분할 비율의 갱신도 행해진다(도 6 참조). 또한, 도 5B의 글로벌 처리표(22)로써 관리되는 다운된 클러스터 1의 미처리 전문의 처리가 복구 처리로 실행된다. 또, 복구 처리된 전문은 글로벌 처리표(22)에서 처리 종료의 전문으로서 관리된다.
이후, 클러스터 2 및 클러스터 3이 새로운 부하 분할 비율로 갱신된 분할 테이블(23)에 따라서 업무 B에 대한 처리를 부하 분할의 형태로써 실행한다(S15).
이상의 단계 Sl 내지 단계 S5, 또 단계 S6에서의 YES의 판단으로부터 단계 S12 내지 단계 S15에서의 처리에 의해 클러스터 1이 다운되었을 때에 클러스터 2, 3이 운용 상태 관리 테이블(21)을 참조하여 클러스터 1이 실행하고 있는 업무(업무 B)가 부하 분할의 형태로써 처리해야 할 것이라고 판정했을 경우, 다운된 클러스터(1)에 대한 해당 업무의 부하 분할 비율이 다른 클러스터 2, 3에 분할되도록 분할 테이블(23)이 갱신된다. 그리고, 그 갱신된 분할 테이블(23)에 따른 부하 비율로 그 업무의 인계가 행해지는 동시에 미처리 업무는 별도로 복구된다.
이들에 의해, 운용 상태 관리 테이블(21), 글로벌 처리표(22) 및 분할 테이블(23)에 미리 부하 분할의 업무 단위로 설정하는 것 만으로, 어느 하나의 클러스터가 다운되었을 때에 업무 단위로 부하 분할의 업무 인계를 자동적으로 행할 수 있게 된다.
상술한 바와 같은 단계 Sl 내지 단계 S15의 전체 처리에 의해 상시 대기 방식의 형태 또는 부하 분할의 형태로 실행하는 업무가 혼재하여도, 운용 상태 관리 테이블(21), 글로벌 처리표(22) 및 분할 테이블(23)에 미리 업무 단위로 상시 대기 방식의 형태에서의 현용 시스템/대기 시스템, 부하 분할의 정보를 설정하는 것 만으로, 클러스터(11)가 다운되어도 자동적으로 해당하는 다른 클러스터로써 업무를 인계받을 수 있게 된다.
이하, 상기 처리예에 이용된 각 테이블에 대해서 더욱 상세히 설명한다.
도 4A, 도 4B, 도 4C는 상기 시스템에서의 처리에 이용되는 각 클러스터의 운용 상태 관리 테이블의 예를 나타낸다.
도 4A는 클러스터 1의 운용 상태 관리 테이블예를 나타낸다. 클러스터 1의 운용 상태 관리 테이블(21)은 예컨대 표 1과 같이 업무에 대응시켜 설정한다.
번 호 업 무 종 별 현용/대기 글로벌 처리표
1 업 무 A HS 현용 글로벌 처리표(인계용)
2 업 무 B LS 현용 글로벌 처리표(인계용)
(HS: 상시 대기 방식 LS: 부하 분할)
여기서, 번호는 순차적인 번호로서, 예컨대 32까지 등록할 수 있다. 업무는 클러스터 1에서 실행하는 업무로서, 예컨대 계정계의 예금 업무, 환업무, 융자 업무 등이고, 업무 단위로 종별, 현용/대기 등을 설정하기 위한 것이다. 현용/대기는 클러스터 1에서 업무가 현용이나 대기중 어느 하나를 설정하기 위한 것이다(또한, 대기의 경우에는, 현용의 클러스터가 다운될 때에는 현용으로 변경된다). 글로벌 처리표는 업무를 인계받을 때에 필요한 자원의 획득이나 처리를 지정한 것이다.
도 4B는 클러스터 2의 운용 상태 관리 테이블예를 나타낸다. 클러스터 2의 운용 상태 관리 테이블(21)은 예컨대, 표 2와 같이 업무에 대응시켜 설정한다.
번 호 업 무 종 별 현용/대기 글로벌 처리표
1 업 무 A HS 대기 글로벌 처리표(인계용)
2 업 무 B LS 현용 글로벌 처리표(인계용)
(HS: 상시 대기 방식 LS: 부하 분할)
도 4C는 클러스터 3의 운용 상태 관리 테이블예를 나타낸다. 클러스터 3의 운용 상태 관리 테이블(21)은 예컨대 표 3과 같이 업무에 대응시켜 설정한다.
번 호 업 무 종 별 현용/대기 글로벌 처리표
1 업 무 A HS 대기 글로벌 처리표(인계용)
2 업 무 B LS 현용 글로벌 처리표(인계용)
HS: 상시 대기 방식 LS: 부하 분할
이상의 도 4A, 도 4B, 도 4C에 도시된 바와 같이 클러스터 1, 2, 3의 운용 상태 관리 테이블(21)을 설정함으로써, 도 1, 도 2에 도시된 클러스터 1, 2, 3내의 업무 A, 업무 B에 대해서 기재한 바와 같은 상태(상시 대기의 현용/대기, 부하 분할의 현용)로 각 클러스터의 업무가 운용되며, 어느 하나의 클러스터에 장해 발생시에 기술한 도 3의 순서에 따라 업무 단위로 상시 대기의 대기 시스템의 클러스터 또는 부하 분할의 현용 클러스터가 각각 업무를 인계받도록 자동적으로 동작시킬 수 있게 된다.
도 5A, 도 5B는 상기 시스템에 이용되는 글로벌 처리표의 예를 나타낸다.
도 5A는 글로벌 처리표(상시 대기)의 예를 나타낸다. 이 글로벌 처리표(상시 대기)(22)는 표 4와 같이 자원의 확보 및 처리를 행한다.
내 용 설 명
자 원 확 보 데이타 베이스
네트워크 자원
각종 테이블
하드웨어 자원
자 원 처 리 트랜잭션 복구
기동 통지
비율(태스크 다중도)의 변경
전문 분할 비율(부하:부하 분할)
여기서, 자원의 확보로서, 데이타 베이스에 대해서는 해당 데이타 베이스에 관한 정보를 확보하여 해당 데이타 베이스를 업무로부터 액세스할 수 있도록 하는 것이다. 네트워크 자원의 확보는 네트워크에 관한 자원(예컨대 어드레스 등)을 확보하여, 서로 통신 가능하게 하는 것이다. 각종 테이블의 확보는 각종 테이블의 영역을 확보하거나 그 내용을 설정하는 것이다. 하드 자원은 업무에 사용하는 자원(예컨대 프린터 장치나 메모리 등)을 확보하는 것이다. 또한, 처리로써, 트랜잭션 복구는 예컨대 도 5B에 나타내는 글로벌 처리표(부하 분할)(22)상에서 다운된 클러스터의 미처리 전문의 처리를 행하여 복구하는 것이다. 기동 통지는 업무를 인계받은 클러스터가 업무의 운용을 재개하고, 그 취지의 기동 통지를 행하는 것이다. 비율(태스크 다중도)의 변경(부하 분할)은 복수의 클러스터가 어떤 업무에 대해서 부하 분할하여 실행하고 있는 부하 분할의 상태일 때에 클러스터내의 태스크 다중도를 변경하는 것이다(또한, 태스크 다중도 대신에 클러스터의 다중도를 변경시키도록 하여도 좋다). 전문 분할 비율(부하; 부하 분할)은 복수의 클러스터가 어떤 업무에 대해서 부하 분할하여 실행하고 있는 부하 분할의 상태일 때에 분할하는 전문의 비율을 변경(부하 비율을 변경)하는 것이다.
이상과 같이, 글로벌 처리표(22)를 설치하여 자원의 확보 및 처리를 설정함으로써 상시 대기 방식의 대기 시스템의 클러스터가 업무를 인계받을 때에 자동적으로 업무 처리에 필요한 자원을 획득 및 인계를 위한 처리를 실행할 수 있게 된다.
도 5B는 글로벌 처리표(부하 분할)의 예를 나타낸다. 이것은 부하 분할의 상태를 기초로 클러스터 1, 2, 3이 전문을 수신하고, 그 처리 상태를 격납한 것이다. 미처리 전문에 대해서는 업무의 인계와 처리중의 트랜잭션 복구에 의해 클러스터가 처리를 행한다.
도 6은 본 발명의 분할 테이블예를 나타낸다. 이 분할 테이블(23)은 부하 분할로 클러스터가 업무를 실행하고 있는 상태이고, 어떤 클러스터가 다운되었을 때에 다른 클러스터에 부하를 분할하는 비율을 변경하기 위한 것이다. 예컨대, 부하 분할로 업무 B를 표 5와 같은 비율로 각각 부하 분할하고 있던 경우, 클러스터 1이 다운되면, 표 6과 같은 비율로 각각의 부하 분할의 비율을 자동적으로 변경하기 위한 것이다.
업 무 명 클러스터 1 클러스터 2 클러스터 3
업 무 B 3 3 4
업 무 명 클러스터 1 클러스터 2 클러스터 3
업 무 B - 5 5
이상 설명한 바와 같이, 본 발명에 따르면, 대기 및 부하 분할이 혼재하는 시스템에서 장해 발생시에 테이블을 참조하여 장해가 발생한 클러스터의 업무를 상시 대기의 클러스터가 빠른 것이 우선해서 인계받는 동시에 부하 분할의 클러스터 업무마다의 부하 분할을 동적 변경하거나 하는 구성을 채용하고 있기 때문에, 장해 발생시의 처리의 설계를 간단하게 또한 클러스터가 효율적인 운용을 행할 수 있는 동시에 클러스터를 자유롭게 배치할 수 있다.
본 발명은 구체적으로 개시된 실시예에 한정되는 것이 아니라, 청구된 본 발명의 범위에서 일탈하지 않고, 여러가지 변형예나 실시예를 생각할 수 있다.

Claims (6)

  1. 복수의 처리 장치에 의해 복수의 업무 처리를 상시 대기 방식의 형태 및 부하 분할의 형태로써 행하는 업무 인계 시스템으로서,
    상시 대기 방식의 형태로써 처리해야 할 업무와 부하 분할의 형태로써 처리해야 할 업무의 각 처리 장치에 대한 할당의 유무를 나타내는 동시에, 상시 대기 방식의 형태로써 처리해야 할 업무가 할당되는 경우에 그 업무에 관하여 현용 시스템인지 대기 시스템인지를 나타내는 테이블을 기억하는 기억 수단과;
    상기 복수의 처리 장치중 어느 하나에서의 장해 발생시에, 상기 기억 수단에 기억된 테이블을 참조하여, 상기 장해가 발생한 처리 장치에 할당된, 상시 대기 방식의 형태로써 처리해야 할 업무 처리를 상기 업무에 관하여 대기 시스템인 처리 장치에 인계하고, 부하 분할의 형태로써 처리해야 할 업무 처리를 상기 업무가 할당된 다른 처리 장치에 인계하는 수단을 구비한 것을 특징으로 하는 업무 인계 시스템.
  2. 제1항에 있어서, 각 처리 장치는,
    다른 처리 장치에서의 장해 발생을 검출하는 장해 발생 검출 수단(S2, S3)과;
    기억 수단에 기억된 테이블을 참조하여, 상기 처리 장치가 장해를 발생시킨 상기 처리 장치의 업무에 관하여 대기 시스템으로서 결정되어 있는지의 여부를 판정하는 판정 수단과;
    장해가 발생한 상기 처리 장치의 업무 처리를 대기 방식의 처리 장치에 업무 인계하는 수단을 구비한 것을 특징으로 하는 업무 인계 시스템.
  3. 제1항에 있어서, 각 처리 장치는,
    다른 처리 장치에서의 장해 발생을 검출하는 장해 발생 검출 수단과;
    상기 기억 수단에 기억된 테이블을 참조하여, 상기 처리 장치가 장해를 발생시킨 상기 처리 장치의 업무에 관한 부하 분할의 형태로써 처리를 행할 것인지의 여부를 판정하는 판정 수단과;
    상기 처리 장치가 상기 업무에 대해서 부하 분할의 형태로써 처리를 행할 것이라고 판정되었을 때, 장해가 발생한 상기 처리 장치의 업무 처리를 인계하는 수단을 구비한 것을 특징으로 하는 업무 인계 시스템.
  4. 제2항에 있어서, 처음에 인계 처리를 개시하는 처리 장치 또는 최고 우선 순위를 갖는 처리 장치가 장해가 발생한 상기 처리 장치의 업무 처리를 인계받도록 한 것을 특징으로 하는 업무 인계 시스템.
  5. 제1항에 있어서, 부하 분할 형태로써 업무 처리를 행하는 처리 장치에서 부하 분할율을 변경하는 처리를 포함하는 것을 특징으로 하는 업무 인계 시스템.
  6. 복수의 처리 장치에 의해 복수의 업무 처리를 상시 대기 방식의 형태 및 부하 분할의 형태로써 행하는 업무 인계 시스템용 프로그램 기억 기록 매체로서,
    상기 복수의 처리 장치중 어느 하나에서의 장해 발생시에, 상시 대기 방식의 형태로써 처리해야 할 업무와 부하 분할의 형태로써 처리해야 할 업무의 각 처리 장치에 대한 할당의 유무를 나타내는 동시에, 상시 대기 방식의 형태로써 처리해야 할 업무가 할당되는 경우에 그 업무에 관하여 현용 시스템인지 대기 시스템인지를 나타내는 테이블을 기억하는 테이블을 참조하여, 상기 장해가 발생한 처리 장치에 할당된, 상시 대기 방식의 형태로써 처리해야 할 업무 처리를 상기 업무에 관하여 대기 시스템인 처리 장치에 인계하고, 부하 분할의 형태로써 처리해야 할 업무 처리를 상기 업무가 할당된 다른 처리 장치에 인계하는 수단을 구비하는 것을 특징으로 하는 프로그램 기억 기록 매체.
KR1019980701217A 1996-06-20 1997-06-19 업무인계시스템 KR100323255B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP96-159787 1996-06-20
JP15978796 1996-06-20
PCT/JP1997/002109 WO1997049034A1 (fr) 1996-06-20 1997-06-19 Systeme de prise en charge de taches

Publications (2)

Publication Number Publication Date
KR19990043986A KR19990043986A (ko) 1999-06-25
KR100323255B1 true KR100323255B1 (ko) 2002-03-08

Family

ID=15701267

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019980701217A KR100323255B1 (ko) 1996-06-20 1997-06-19 업무인계시스템

Country Status (6)

Country Link
US (1) US6219801B1 (ko)
JP (1) JP3197279B2 (ko)
KR (1) KR100323255B1 (ko)
DE (1) DE19780639C2 (ko)
GB (1) GB2319369B (ko)
WO (1) WO1997049034A1 (ko)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19780639C2 (de) 1996-06-20 2003-12-04 Fujitsu Ltd Arbeitsübernahmesystem
US6523130B1 (en) * 1999-03-11 2003-02-18 Microsoft Corporation Storage system having error detection and recovery
US6442713B1 (en) * 1999-03-30 2002-08-27 International Business Machines Corporation Cluster node distress signal
US6446218B1 (en) 1999-06-30 2002-09-03 B-Hub, Inc. Techniques for maintaining fault tolerance for software programs in a clustered computer system
US6574477B1 (en) * 1999-10-06 2003-06-03 Lucent Technologies Inc. Dynamic load balancing during message processing in a wireless communication service network
US7213167B1 (en) * 2000-01-18 2007-05-01 Verso Technologies, Inc. Redundant state machines in network elements
JP4155399B2 (ja) * 2003-03-28 2008-09-24 株式会社日立製作所 コンピュータ処理方法及びその実施システム並びにその処理プログラム
CN1292346C (zh) * 2003-09-12 2006-12-27 国际商业机器公司 用于在分布式计算体系结构中执行作业的系统和方法
US7302608B1 (en) * 2004-03-31 2007-11-27 Google Inc. Systems and methods for automatic repair and replacement of networked machines
JP5691248B2 (ja) * 2010-05-28 2015-04-01 富士通株式会社 タスク引継プログラム、処理装置及びコンピュータ・システム
JP5278471B2 (ja) * 2011-03-09 2013-09-04 日本電気株式会社 クラスタシステム
JP5533789B2 (ja) 2011-06-14 2014-06-25 株式会社デンソー 車載電子制御装置
CN107851055B (zh) * 2015-07-30 2021-06-29 三菱电机株式会社 程序执行装置、程序执行系统以及程序执行方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0744413A (ja) * 1993-07-29 1995-02-14 Toshiba Corp コンピュータバックアップシステム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS589460B2 (ja) 1978-11-09 1983-02-21 富士通株式会社 複合デ−タ処理ユニツト・デ−タ処理装置
US5774642A (en) * 1990-08-09 1998-06-30 Bull S.A. Architecture for dynamic service processor exchange providing multitasking environment where multiple processors have access to a system configuration table
JPH04271454A (ja) * 1991-02-27 1992-09-28 Toshiba Corp 疎結合計算機システム
JPH07334468A (ja) 1994-06-07 1995-12-22 Toshiba Corp 負荷分散方式
JP3345626B2 (ja) * 1994-09-29 2002-11-18 富士通株式会社 マルチプロセッサシステムにおけるプロセッサ異常対策装置およびマルチプロセッサシステムにおけるプロセッサ異常対策方法
US5802265A (en) * 1995-12-01 1998-09-01 Stratus Computer, Inc. Transparent fault tolerant computer system
DE19780639C2 (de) 1996-06-20 2003-12-04 Fujitsu Ltd Arbeitsübernahmesystem

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0744413A (ja) * 1993-07-29 1995-02-14 Toshiba Corp コンピュータバックアップシステム

Also Published As

Publication number Publication date
JP3197279B2 (ja) 2001-08-13
KR19990043986A (ko) 1999-06-25
WO1997049034A1 (fr) 1997-12-24
DE19780639C2 (de) 2003-12-04
GB9803343D0 (en) 1998-04-15
GB2319369B (en) 2000-10-25
DE19780639T1 (de) 1998-07-02
GB2319369A (en) 1998-05-20
US6219801B1 (en) 2001-04-17

Similar Documents

Publication Publication Date Title
JP5102901B2 (ja) データセンタにわたる複数データサーバ間のデータ完全性を保持する方法およびシステム
EP3694148A1 (en) Configuration modification method for storage cluster, storage cluster and computer system
US7185096B2 (en) System and method for cluster-sensitive sticky load balancing
US6832298B2 (en) Server system operation control method
US6859889B2 (en) Backup system and method for distributed systems
US8032786B2 (en) Information-processing equipment and system therefor with switching control for switchover operation
KR100323255B1 (ko) 업무인계시스템
US5964838A (en) Method for sequential and consistent startup and/or reload of multiple processor nodes in a multiple node cluster
CN110807064B (zh) Rac分布式数据库集群系统中的数据恢复装置
US20070180288A1 (en) Method, system and program for securing redundancy in parallel computing sytem
US20060089975A1 (en) Online system recovery system, method and program
CN100444140C (zh) 多重连接管理装置及管理方法
JP2002287999A (ja) サーバの二重化方法、二重化サーバシステム、および二重化データベースサーバ
EP1569084B1 (en) Information processing system and information processing method
US9148430B2 (en) Method of managing usage rights in a share group of servers
US9207990B2 (en) Method and system for migrating critical resources within computer systems
JPH07168778A (ja) ネットワーク装置およびマルチプロセッサ装置
JP2001022599A (ja) フォールトトレラント・システム,フォールトトレラント処理方法およびフォールトトレラント制御用プログラム記録媒体
CN108984602B (zh) 一种数据库控制方法和数据库系统
CN115438021A (zh) 一种数据库服务器的资源配置方法及装置
CN100334554C (zh) 全分布处理系统中的备份和负荷控制方法
US11550270B2 (en) Redundant automation system, method for creating the automation system, computer program and computer readable medium
JPH05314085A (ja) 複数計算機間の相互稼動待機方式
JPH10289215A (ja) アプリケーションプログラム単位の現用予備切り替え機能を有するコンピュータシステム及びプログラムを記録した機械読み取り可能な記録媒体
JP3709050B2 (ja) データ更新システム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130111

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20140107

Year of fee payment: 13

LAPS Lapse due to unpaid annual fee