KR20070092906A - 네트워크 내 컴퓨터 시스템의 데이터 관리 장치 및 방법 - Google Patents

네트워크 내 컴퓨터 시스템의 데이터 관리 장치 및 방법 Download PDF

Info

Publication number
KR20070092906A
KR20070092906A KR1020060022339A KR20060022339A KR20070092906A KR 20070092906 A KR20070092906 A KR 20070092906A KR 1020060022339 A KR1020060022339 A KR 1020060022339A KR 20060022339 A KR20060022339 A KR 20060022339A KR 20070092906 A KR20070092906 A KR 20070092906A
Authority
KR
South Korea
Prior art keywords
selection value
image file
data
network
storage area
Prior art date
Application number
KR1020060022339A
Other languages
English (en)
Other versions
KR100791293B1 (ko
Inventor
반민호
이상문
양우진
이창성
박두식
신순철
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020060022339A priority Critical patent/KR100791293B1/ko
Priority to US11/703,137 priority patent/US20070226538A1/en
Publication of KR20070092906A publication Critical patent/KR20070092906A/ko
Application granted granted Critical
Publication of KR100791293B1 publication Critical patent/KR100791293B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1458Management of the backup or restore process
    • G06F11/1464Management of the backup or restore process for networked environments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1458Management of the backup or restore process
    • G06F11/1461Backup scheduling policy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L61/00Network arrangements, protocols or services for addressing or naming
    • H04L61/50Address allocation
    • H04L61/5007Internet protocol [IP] addresses
    • H04L61/5014Internet protocol [IP] addresses using dynamic host configuration protocol [DHCP] or bootstrap protocol [BOOTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1029Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers using data related to the state of servers by a load balancer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1031Controlling of the operation of servers by a load balancer, e.g. adding or removing servers that serve requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1034Reaction to server failures by a load balancer

Abstract

네트워크 내 컴퓨터 시스템의 데이터 관리 장치 및 방법이 제공된다. 본 발명의 실시예에 따른 데이터 관리 장치는 네트워크를 통해 연결되는 복수의 분산 클러스터 기반의 기기들에 대한 관리 항목을 포함하는 사용자 인터페이스를 디스플레이하는 디스플레이부, 사용자의 선택값을 입력받는 입력부 및 상기 입력받은 선택값에 따른 관리 항목에 해당하는 기기의 관리를 수행하는 제어부를 포함한다.
분산 클러스터(cluster), 이미지 파일(image file), PXE(Pre-boot eXecution Environment), 백업(backup), 복구(recovery)

Description

네트워크 내 컴퓨터 시스템의 데이터 관리 장치 및 방법{Apparatus and method for managing computer system data in network}
도 1은 본 발명의 일 실시예에 따른 데이터 관리 시스템의 구성을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 데이터 관리 장치의 구성을 도시한 블록도이다.
도 3a 및 도 3b는 본 발명의 일 실시예에 따른 데이터 관리 장치에서 제공되는 사용자 인터페이스를 예시한 예시도이다.
도 4는 본 발명의 일 실시예에 따른 노드의 구성을 도시한 블록도이다.
도 5는 본 발명의 일 실시예에 따른 데이터 관리 방법 중 백업 과정을 도시한 개념도이다.
도 6은 본 발명의 일 실시예에 따른 데이터 관리 방법 중 복구 과정을 도시한 개념도이다.
<도면의 주요 부분에 대한 부호의 설명>
10: 백업용 저장 장치 20: 데이터 관리 장치
40, 41, 42: 노드 210: 디스플레이부
220: 입력부 230: 제1 저장부
240: 제2 저장부 250: 감지부
260: 제1 송신부 270: 제1 수신부
310, 320: 사용자 인터페이스 410: 제2 저장부
420: 제2 제어부 430: 제2 수신부
440: 제2 송신부
본 발명은 데이터 관리 장치 및 방법에 관한 것으로, 보다 상세하게는 분산 클러스터 환경에서 컴퓨터 시스템의 데이터를 보다 효율적으로 관리할 수 있는 데이터 관리 장치 및 방법에 관한 것이다.
컴퓨터 네트워크 및 월드 와이드 웹(World Wide Web)의 발전으로 인터넷 사용자 및 웹서버의 숫자는 기하급수적으로 증가하고 있다. 그러나 컴퓨터 네트워크 기술의 발달에도 불구하고 웹서버에 접속하는 사용자 수가 많아짐에 따라 웹서버에 병목현상이 발생하고 있다. 예를 들어 동일 시간대에 한 웹서버에 접속하는 사용자 수가 많게 되면 웹서버는 과부하로 인하여 작동을 멈추거나 속도가 느려진다.
이러한 문제를 해결하기 위해서 웹서버에 클러스터 개념을 도입하기에 이르렀다. 여기서 클러스터(cluster)란, 여러 대의 컴퓨터를 네트워크를 통해 연결하여 하나의 단일 컴퓨터처럼 동작하도록 제작한 컴퓨터를 의미하는 것으로, 사용 목적에 따라 크게 과학 계산용 클러스터(Scientific Computing Cluster)와 부하분산 클 러스터(Load Balancing Cluster)로 분류된다.
과학 계산용 클러스터(Scientific Computing Cluster)는 일반 범용 컴퓨터로 계산하기 어려운 대규모 연산을 계산하는데 사용되고 있다. 예를 들면, 기상 예측, 핵폭발 시뮬레이션, 유체역학, 분자 역학 시뮬레이션 및 3D 애니메이션 및 영화의 특수효과 등의 분야에 사용된다. 이에 비해 부하분산 클러스터(Load Balancing Cluster)는 주로 웹서버로 사용된다. 부하분산 클러스터는 단일 서버를 사용할 때 발생할 수 있는 부하를 다른 노드로 분산시켜 웹서버의 과부하를 해결할 수 있는 방법을 제공한다.
이러한 클러스터 시스템 운영 중에는 클러스터 노드에 운영체제를 재설치해야하는 경우가 빈번하게 발생한다. 예를 들면, 특정 클러스터 노드에 장애가 발생하거나, 용도 변경을 해야하는 경우, 해당 클러스터 노드에 운영체제를 재설치할 필요가 있는데, 이와 같은 경우, 관리자는 운영체제를 재설치할 클러스터 노드의 위치로 이동하여 해당 클러스터 노드를 중지시킨 다음, 운영체제를 새로 설치해야한다. 그런데 대규모의 클러스터 시스템의 경우, 관리자가 장애가 발생한 클러스터 노드를 찾기란 쉽지 않으며, 운영체제를 재설치해야 할 때마다 장애가 발생한 클러스터 노드로 관리자가 직접 이동하는 것은 시스템 관리 효율을 저하시키는 원인이 된다.
한편, 클러스터 시스템은 범용 시스템이 아니기 때문에 특정한 응용 분야에 적합하게 시스템을 구성한 후, 모든 관련 정보 예를 들면, 운영체제 및 설정 데이터 등을 백업할 필요가 있다. 이와 같이 시스템 관련 정보를 백업해 놓으면, 추후 시스템에 장애가 발생하는 경우, 백업되어 있는 데이터를 이용하여 시스템을 복구할 수 있으나, 현재 상태 그대로 시스템을 복구시킬 수 없다는 문제가 있다. 또한, 종래에는 시스템 관련 정보를 백업하기 위해서는 각 클러스터 노드마다 디스크(disk) 내의 모든 데이터를 복사해야 하므로, 불필요한 시간 낭비가 발생한다는 문제가 있다.
때문에 클러스터 시스템에서 컴퓨터의 데이터 관리를 보다 효율적으로 할 수 있는 데이터 관리 장치 및 방법을 제공할 필요가 있다.
본 발명은 상기한 문제점을 개선하기 위해 안출된 것으로, 분산 클러스터 환경에서 데이터를 보다 효율적으로 관리할 수 있는 데이터 관리 장치 및 방법을 제공하는데 목적이 있다.
그러나 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 목적을 달성하기 위하여 본 발명의 실시예에 따른 데이터 관리 장치는, 네트워크를 통해 연결되는 복수의 분산 클러스터 기반의 기기들에 대한 관리 항목을 포함하는 사용자 인터페이스를 디스플레이하는 디스플레이부, 사용자의 선택값을 입력받는 입력부 및 상기 입력받은 선택값에 따른 관리 항목에 해당하는 기기의 관리를 수행하는 제어부를 포함한다.
상기 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 데이터 관리 장치는, 분산 클러스터 기반의 네트워크에서 서버로부터 사용자의 선택값을 수신하는 수신부, 상기 수신된 선택값에 따라 이미지 파일을 생성하는 제어부 및 상기 이미지 파일을 상기 서버로 전송하는 송신부를 포함한다.
상기 목적을 달성하기 위하여 본 발명의 실시예에 따른 데이터 관리 방법은, 네트워크를 통해 연결되는 복수의 분산 클러스터 기반의 기기들에 대한 관리 항목을 포함하는 사용자 인터페이스를 디스플레이하는 단계, 사용자의 선택값을 입력받는 단계 및 상기 입력받은 선택값에 따른 관리 항목에 해당하는 기기의 관리를 수행하는 단계를 포함한다.
상기 목적을 달성하기 위하여 본 발명의 실시예에 따른 데이터 관리 방법은, 분산 클러스터 기반의 네트워크에서 서버로부터 선택값을 수신하는 단계, 상기 수신된 선택값에 따라 이미지 파일을 생성하는 단계 및 상기 이미지 파일을 상기 서버로 전송하는 단계를 포함한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있으며, 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다.
그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하, 첨부된 블록도 또는 처리 흐름도에 대한 도면들을 참고하여 본 발명의 실시예에 따른 네트워크 내 컴퓨터 시스템의 데이터 관리 장치 및 방법에 대해 설명하도록 한다. 이 때, 처리 흐름도 도면들의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다.
이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다.
이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑제되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행 하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
도 1은 본 발명의 일 실시예에 따른 데이터 관리 시스템을 예시한 예시도이다.
본 발명의 일 실시예에 따른 원격 데이터 관리 시스템은 부하분산 클러스터(Load Balancing Cluster)로서, 부하분산 서버 역할을 하는 데이터 관리 장치(20), 데이터 관리 장치(20)와 함께 클러스터를 구성하는 다수의 노드(40, 41, 42) 및 백업용 저장 장치(10)를 포함하여 구성된다.
부하분산 클러스터는 구현 방법에 따라 DR(Direct Routing) 방식 및 NAT(Network Address Translation) 방식으로 구현될 수 있다. DR 방식이란, 외부 클라이언트의 요청을 부하분산 서버가 다른 노드에 분배하고, 요청을 할당받은 노드가 외부 클라이언트에게 직접 응답을 하는 방법을 말한다. NAT 방식은 DR 방식과 유사하나, 외부 클라이언트의 요청을 할당받은 노드가 요청에 대한 응답을 부하분산 서버를 통해 외부 클라이언트로 보내는 점이 다르다. 이외에도 부하분산 클러스터는 NAT 방식과 DR 방식이 혼합된 형태로 구현될 수도 있다.
본 발명의 일 실시예에 따른 데이터 관리 장치(20) 및 노드(40, 41, 42)는 PXE(Pre-boot eXecution Environment)를 제공하는 것이 바람직하다. 여기서 PXE(Pre-boot eXecution Environment)란, 클라이언트/서버 인터페이스의 산업계 표준으로서, 원격지에 있는 관리자가 네트워크에 접속된 클라이언트를 구성하고, 부팅시킬 수 있도록 해주는 프로토콜을 말한다. PXE 코드는, 클라이언트가 서버와 통신할 수 있도록 해주는 부트 디스크 상에 포함되어 네트워크를 통해 클라이언트로 전달된다.
본 발명의 일 실시예에 따른 데이터 관리 장치(20)는 관리자로부터 네트워크 상의 특정 노드(40, 41, 42)에 대한 선택값, 선택된 노드(40, 41, 42)의 데이터 저장 영역 중 특정 데이터 저장 영역에 대한 선택값 및 제어 명령에 대한 선택값 중 적어도 하나의 선택값을 입력받기 위한 사용자 인터페이스를 제공한다. 여기서, 제어 명령으로는 백업, 설치 및 복구 등을 예로 들 수 있다.
또한, 데이터 관리 장치(20)는 장애가 발생한 노드(40, 41, 42)를 복구하는데 필요한 이미지 파일을 네트워크 상의 노드(40, 41, 42)로부터 수신하여 저장한다. 또한, 데이터 관리 장치(20)는 저장되어 있는 이미지 파일(image file)을 주기적으로 백업용 저장 장치(10)에 저장한다. 데이터 관리 장치(20)에 대한 보다 구체적인 설명은 도 2를 참조하여 후술하기로 한다.
노드(40, 41, 42)는 데이터 관리 장치(20)에 의해 네트워크를 통해 부팅된다. 네트워크를 통해 부팅된 노드(40, 41, 42)는 자신의 데이터 저장 영역에 대한 정보를 데이터 관리 장치(20)로 제공하고, 데이터 관리 장치(20)에서 제공된 선택 값에 따라 특정 데이터 저장 영역의 데이터를 데이터 관리 장치(20)에 백업한다. 또한, 네트워크를 통해 부팅된 노드(40, 41, 42)는 특정 데이터 저장 영역을 복구하기 위한 데이터를 데이터 관리 장치(20)로부터 수신하여, 수신된 데이터를 기반으로 하여 해당 데이터 저장 영역을 복구한다. 노드(40, 41, 42)에 대한 보다 구체적인 설명은 도 4를 참조하여 후술하기로 한다.
백업용 저장 장치(10)는 데이터 관리 장치(20)의 각종 설정 정보를 저장한다. 설정 정보는 데이터 관리 장치(20)에 의해 주기적으로 갱신된다. 또한, 백업용 저장 장치(10)는 데이터 관리 장치(20)에서 제공된 이미지 파일을 저장한다. 이로써, 데이터 관리 장치(20)에 장애가 발생한 경우, 백업용 저장 장치(10)는 데이터 관리 장치(20)를 복구하는데 필요한 이미지 파일을 데이터 관리 장치(20)로 제공한다.
다음으로, 도 2를 참조하여 본 발명의 일 실시예에 따른 데이터 관리 장치(20)에 대해서 설명하기로 한다. 여기서, 도 2는 본 발명의 일 실시예에 따른 데이터 관리 장치(20)의 구성을 도시한 블록도이다.
도 2에 도시된 데이터 관리 장치(20)는 디스플레이부(210), 입력부(220), 제1 송신부(260), 제1 수신부(270), 제1 저장부(230), 제1 제어부(240) 및 감지부(250)를 포함하여 구성된다.
디스플레이부(210)는 명령 처리 결과를 가시적인 형태로 디스플레이하는 역할을 한다. 예를 들면, 디스플레이부(210)는 관리자로부터 네트워크 상의 특정 노드, 특정 노드의 데이터 저장 영역 중 특정 데이터 저장 영역 및 제어 명령 중 적 어도 하나를 선택받기 위한 사용자 인터페이스를 디스플레이한다. 사용자 인터페이스에 대해서는 도 3a 및 도 3b를 참조하여 설명하기로 한다.
도 3a 및 도 3b는 본 발명의 일 실시예에 따른 데이터 관리 장치(20)에서 제공되는 사용자 인터페이스(310, 320)를 예시한 예시도이다.
도 3a는, 네트워크 상의 노드들에 대한 식별 정보를 제공하는 사용자 인터페이스(310)를 예시한 것이다. 도 3a와 같은 사용자 인터페이스(310)에서 관리자는 원격으로 관리하고자 하는 노드를 선택할 수 있다.
도 3a에 도시된 바와 같은 사용자 인터페이스(310)에서 특정 노드에 대한 선택이 이루어지면, 관리자에 의해 선택된 노드는 네트워크를 통해 부팅된 후, 자신의 데이터 저장 영역에 대한 정보 예를 들면, 파티션 정보, 각 파티션에 저장되어 있는 데이터의 종류에 대한 정보를 데이터 관리 장치(20)로 제공한다. 예를 들어, 도 3a와 같이 제1 노드(40)가 선택된 경우, 제1 노드(40)는 네트워크를 통해 부팅된 후, 제2 저장부(도면 4의 도면부호 410 참조)가 몇 개의 데이터 저장 영역으로 분할되어 있는지, 각 데이터 저장 영역에 저장되어 있는 데이터는 무엇인지 등에 대한 정보를 데이터 관리 장치(20)로 제공한다.
한편, 데이터 관리 장치(20)는 노드에서 제공된 데이터 저장 영역에 대한 정보를 사용자 인터페이스를 통해 관리자에게 제공한다. 도 3b는 네트워크를 통해 부팅된 노드로부터 수신된 정보를 포함하는 사용자 인터페이스(320)를 예시한 것이다. 도 3b는 정보를 제공한 노드의 데이터 저장 영역이 제1 영역, 제2 영역 및 제3 영역으로 분할되어 있으며, 제1 영역에는 운영체제가 저장되어 있고, 제2 영역 및 제3 영역에는 각각 사용자 데이터가 저장되어 있음을 알 수 있다. 이외에도 사용자 인터페이스(320)는 각 데이터 저장 영역을 선택할 수 있는 체크 박스 및 선택된 데이터 저장 영역에 대하여 수행될 수 있는 제어 명령 아이콘 등을 포함할 수 있다.
다시 도 2를 참조하면, 입력부(220)는 관리자 선택값을 입력받는다. 예를 들면, 입력부(220)는 특정 노드에 대한 선택값, 특정 노드의 다수의 데이터 저장 영역 중 특정 데이터 저장 영역에 대한 선택값 및 제어 명령에 대한 선택값 등을 입력받는다. 입력부(220)를 통해 입력된 선택값은 후술될 제1 제어부(240)로 제공된다.
제1 송신부(260)는 네트워크 상의 노드 및 백업용 저장 장치(10)로 데이터를 송신하는 역할을 한다. 예를 들면, 제1 송신부(260)는 입력부(220)를 통해 제공된 선택값 예를 들면, 데이터 저장 영역에 대한 선택값 및 제어 명령에 대한 선택값을 해당 노드로 송신하는 역할을 한다. 또한, 제1 송신부(260)는 관리자에 의해 선택된 노드의 데이터 저장 영역 중 특정 데이터 저장 영역을 복구하는데 필요한 이미지 파일을 해당 노드로 송신하는 역할을 한다. 또한, 제1 송신부(260)는 데이터 관리 장치(20)에 저장되어 있는 이미지 파일을 백업용 저장 장치(10)로 전송하는 역할을 한다.
제1 제어부(240)는 데이터 관리 장치(20) 내의 구성 요소를 연결하고 관리하는 역할을 한다. 예를 들면, 제1 제어부(240)는 입력부(220)를 통해 제공된 입력값을 판별한 결과에 따라 데이터 관리 장치(20) 내의 구성 요소들을 제어한다. 좀 더 구체적으로, 특정 노드를 네트워크를 통해 부팅하는 값이 입력된 경우, 제1 제어부 (240)는 선택된 노드에 대한 네트워크 정보 예를 들면, 선택된 노드가 데이터 관리 장치(20)에 액세스하기 위한 IP 주소, 클러스터 내의 서브넷 마스크, 부트 파일이 존재하는 데이터 관리 장치(20)의 부트 디렉토리 경로 및 커널 이미지의 이름 등의 정보를 제1 송신부(260)를 통해 해당 노드로 제공한다.
여기서, 데이터 관리 장치(20)는, 선택된 노드가 데이터 관리 장치(20)에 액세스하기 위한 IP 주소를 생성하기 위하여 DHCP(Dynamic Host Configuration Protocol)를 이용할 수 있다. 여기서 DHCP란, 네트워크 관리자들이 조직 내의 네트워크 상에서 IP 주소를 중앙에서 관리하고 할당해줄 수 있도록 해주는 프로토콜을 말한다. 인터넷의 TCP/IP 프로토콜에서는, 각 컴퓨터들이 고유한 IP 주소를 가져야만 인터넷에 접속할 수 있다. 조직에서 컴퓨터 사용자들이 인터넷에 접속할 때, IP 주소는 각 컴퓨터에 반드시 할당되어야만 한다. DHCP를 사용하지 않는 경우에는, 각 컴퓨터마다 IP 주소가 수작업으로 입력되어야만 하며, 만약 컴퓨터들이 네트워크의 다른 부분에 속한 장소로 이동되면 새로운 IP 주소를 입력해야 한다. DHCP는 네트워크 관리자가 중앙에서 IP 주소를 관리하고 할당하며, 컴퓨터가 네트워크의 다른 장소에 접속되었을 때 자동으로 새로운 IP 주소를 보내줄 수 있게 해준다. DHCP는 주어진 IP 주소가 일정한 시간 동안만 그 컴퓨터에 유효하도록 하는 ]임대] 개념을 사용한다. 임대시간은 사용자가 특정한 장소에서 얼마나 오랫동안 인터넷 접속이 필요할 것인지에 따라 달라질 수 있다. DHCP는 사용 가능한 IP 주소의 개수보다 더 많은 컴퓨터가 있는 경우에도 IP 주소의 임대시간을 짧게 함으로써 네트워크를 동적으로 재구성할 수 있다.
이와 같이, 네트워크 정보를 송신한 후, 해당 노드로부터 TFTP(Trivial File Transfer Protocol) 요청을 수신하는 경우, 제1 제어부(240)는 해당 노드가 부팅되는데 필요한 파일을 제공한 후, 커널 제어권을 노드에 부여한다. 이로써, 커널 제어권을 받은 노드가 장치를 점검하고, 주변기기를 초기화할 수 있도록 한다.
이 후, 해당 노드로부터 데이터 관리 장치(20)의 파일 시스템을 사용하기 위한 요청을 수신하는 경우, 제1 제어부(240)는 IP 주소, 서브넷 마스크, NFS(Network File System)를 사용하여 마운트될 노드의 루트 디렉토리 위치, 게이트웨이 주소, 노드의 호스트 이름을 제공하여, 정보를 받은 노드가 네트워크를 확립시킬 수 있도록 한다.
이 후, 데이터 관리 장치(20)의 루트 파일 시스템이 마운트(mount)되면, 제1 제어부(240)는 NFS를 통해 해당 노드가 부팅하는데 필요한 파일 시스템을 해당 노드로 제공한다.
제1 수신부(270)는 네트워크를 통해 부팅된 노드로부터 제공되는 데이터 예를 들면, 데이터 저장 영역에 대한 정보 및 각 데이터 저장 영역에 저장되어 있는 데이터의 종류에 대한 정보 등을 수신한다. 또한, 제1 수신부(270)는 데이터 관리 장치(20)에 장애가 발생하는 경우, 백업용 저장 장치(10)로부터 데이터 관리 장치(20)를 복구하는데 필요한 이미지 파일을 수신하는 역할을 한다.
제1 저장부(230)는 장애가 발생한 노드를 복구할 수 있는 이미지 파일(image file)을 저장한다. 이러한 제1 저장부(230)는 캐쉬(Cache), 롬(Read Only Memory; ROM), 피롬(Programable ROM: PROM), 이피롬(Erasable Programmable ROM; EPROM), 이이피롬(Electrically Erasable Programmable ROM; EEPROM) 및 플래쉬 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(Hard Disk Drive; HDD)와 같은 저장 매체 중 적어도 하나로 구현될 수 있으나 이에 한정되지는 않는다.
감지부(250)는 데이터 관리 장치(20)의 상태를 주기적으로 체크하여, 설정 정보가 변경된 경우, 변경된 정보를 백업용 저장 장치(10)에 저장한다. 또한, 감지부(250)는 데이터 관리 장치(20)의 장애 발생 여부를 주기적으로 체크하여, 제1 저장부(230)에 저장되어 있는 이미지 파일을 백업용 저장 장치(10)에 저장한다. 이로써, 데이터 관리 장치(20)에 장애가 발생한 경우, 감지부(250)는 복구에 필요한 이미지 파일을 백업용 저장 장치(10)로부터 수신하여, 장애를 복구한다.
다음으로, 도 4를 참조하여 본 발명의 일 실시예에 따른 노드에 대해서 설명하기로 한다. 여기서, 도 4는 본 발명의 일 실시예에 따른 노드의 구성을 도시한 블록도이다.
도 4에 도시된 노드는 제2 저장부(410), 제2 수신부(430), 제2 송신부(440) 및 제2 제어부(420)를 포함하여 구성된다.
제2 저장부(410)는 노드가 부팅되는데 필요한 운영체제 및 각종 사용자 데이터를 저장한다. 이러한 제2 저장부(410)는 하드디스크 드라이브(Hard Disk Drive; HDD)와 같은 저장 매체로 구현될 수 있다. 하드디스크 드라이브는 논리적으로 복수의 데이터 저장 영역으로 분할될 수 있으며, 분할된 각 데이터 저장 영역에는 용도에 따라 운영체제 및 사용자 데이터 등이 각각 저장될 수 있다.
제2 수신부(430)는 데이터 관리 장치(20)로부터 네트워크 정보, 노드가 네트워크를 통해 부팅되는데 필요한 파일 및 관리자의 선택값 등을 수신한다.
제2 제어부(420)는 노드 내의 구성요소들을 연결하고 관리한다. 예를 들면, 제2 제어부(420)는 노드가 네트워크를 통해 부팅되는 경우, 데이터 관리 장치(20)의 제1 저장부(230)를 마운트(mount)한다. 이 때, 제2 제어부(420)는 NFS(Network File System)를 통해 데이터 관리 장치(20)의 제1 저장부(230)를 마운트할 수 있다.
여기서, NFS(Network File System)란, 원격 컴퓨터에 있는 파일을 로컬 컴퓨터에 있는 것처럼 검색, 저장 및 수정할 수 있도록 하는 클라이언트/서버형 프로그램을 말한다. 클러스터에서 NFS를 사용하는 경우, 계정 관리를 쉽게 할 수 있으며, 많은 양의 디스크 공간을 필요로 하는 데이터를 한 노드에 저장하여 관리할 수 있다는 장점이 있다. NFS는 클라이언트/서버 모델을 기반으로 하고 있기 때문에 서버는 서비스할 디렉토리를 제공하며, 클라이언트는 서버에서 제공한 디렉토리를 마운트하여 사용하게 된다. 서버에서 제공하는 디렉토리는 노드의 어느 위치에라도 마운트될 수 있으며, NFS 서비스를 받는 모든 노드는 서버의 디렉토리 내에 있는 파일에 접근할 수 있기 때문에 쉽게 파일을 관리할 수 있다.
이와 같이 데이터 관리 장치(20)의 제1 저장부(230)를 마운트한 후, 제2 제어부(420)는 제2 저장부(410)에 대한 정보 예를 들면, 데이터 저장 영역에 대한 정보 및 각 데이터 저장 영역에 저장되어 있는 데이터의 종류에 관한 정보 등을 데이터 관리 장치(20)로 제공한다.
이 후, 데이터 관리 장치(20)로부터 제2 저장부(410)의 데이터 저장 영역 및 제어 명령에 대한 선택값을 수신하는 경우, 제2 제어부(420)는 선택값에 대응하는 데이터 저장 영역에 대하여 이미지 파일을 생성한다.
제2 송신부(440)는 제2 제어부(420)에 의해 생성된 이미지 파일을 데이터 관리 장치(20)로 전송하는 역할을 한다.
도 2 및 도 4에서 ]~부]라는 용어, 즉 ]~모듈] 또는 ]~테이블] 등은 소프트웨어, FPGA(Field Programmable Gate Array) 또는 주문형 반도체(Application Specific Integrated Circuit, ASIC)와 같은 하드웨어 구성요소를 의미하며, 모듈은 어떤 기능들을 수행한다. 그렇지만 모듈은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. 모듈은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 모듈은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 모듈들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 모듈들로 결합되거나 추가적인 구성요소들과 모듈들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 모듈들은 디바이스 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.
도 5는 본 발명의 일 실시예에 따른 데이터 관리 방법 중 관리자의 선택값에 따라 데이터를 백업하는 과정을 도시한 개념도이다.
먼저, 데이터 관리 장치(20)는 도 3a와 같이, 네트워크 상의 노드들에 대한 정보를 포함하는 사용자 인터페이스를 디스플레이부(210)를 통해 디스플레이한다(S510).
도 3a와 같은 사용자 인터페이스에서 관리자는 네트워크를 통해 부팅시키고자 하는 노드를 선택할 수 있다(S515).
선택이 이루어지면, 데이터 관리 장치(20)는 관리자에 의해 선택된 노드를 네트워크를 통해 부팅시킨다. 예를 들어, 도 3a와 같이 제1 노드(40)가 선택된 경우, 데이터 관리 장치(20)는 제1 노드(40)에 대한 네트워크 정보 예를 들면, 제1 노드(40)가 데이터 관리 장치(20)에 액세스하기 위한 IP 주소, 클러스터 내의 서브넷 마스크, 부트 파일이 존재하는 데이터 관리 장치(20)의 부트 디렉토리 경로 및 커널 이미지의 이름 등과 같은 정보를 해당 노드로 제공한다(S520).
제1 노드(40)는 데이터 관리 장치(20)로부터 받은 네트워크 정보를 사용하여 네트워크를 설정하게 된다. 네트워크가 설정되면, 제1 노드(40)는 부팅에 필요한 파일을 다운받기 위하여 TFTP 요청을 데이터 관리 장치(20)로 전송한다.
한편, 제1 노드(40)로부터 TFTP 요청을 받은 데이터 관리 장치(20)는 부팅에 필요한 파일을 제1 노드(40)로 전달한 후, 커널 제어권을 노드에 부여한다.
커널 제어권을 받은 제1 노드(40)는 장치를 점검하고 주변기기를 초기화한 후, 데이터 관리 장치(20)로 데이터 관리 장치(20)의 파일 시스템을 요청한다.
데이터 관리 장치(20)는 제1 노드(40)의 요청에 따라 IP 주소, 서브넷 마스 크, NFS를 사용하여 마운트될 노드의 루트 디렉토리 위치, 게이트웨이 어드레스 및 제1 노드(40)의 호스트 이름을 제1 노드(40)로 제공한다.
데이터 관리 장치(20)로부터 제공된 정보를 기반으로 하여 네트워크가 확립되면, 제1 노드(40)는 데이터 관리 장치(20)의 루트 파일 시스템을 마운트한다. 데이터 관리 장치(20)의 루트 파일 시스템을 마운트한 후, 제1 노드(40)는 NFS를 통해 데이터 관리 장치(20)로부터 필요한 파일 시스템을 제공받아 부팅할 수 있게 된다(S530).
이와 같이 네트워크를 통해 부팅된 제1 노드(40)는, 자신의 데이터 저장 영역에 대한 정보를 데이터 관리 장치(20)로 제공한다(S540). 즉, 제1 노드(40)의 제2 저장부(410)가 다수의 데이터 저장 영역으로 분할되어 있는 경우, 분할된 각 데이터 저장 영역에 대한 정보 및 각 데이터 저장 영역에 저장되어 있는 데이터의 정보를 데이터 관리 장치(20)로 제공한다.
한편, 제1 노드(40)로부터 데이터 저장 영역에 대한 정보가 수신되면, 데이터 관리 장치(20)는 도 3b와 같이 제1 노드(40)로부터 수신한 데이터 저장 영역에 대한 정보, 각 데이터 저장 영역을 선택할 수 있는 아이콘 및 제어 항목에 대한 아이콘 등을 포함하는 사용자 인터페이스를 디스플레이부(210)를 통해 디스플레이한다(S550).
도 3b와 같은 사용자 인터페이스가 디스플레이되면, 관리자는 백업 명령 및 백업 명령이 수행될 데이터 저장 영역을 선택할 수 있다(S555). 백업 명령 및 백업이 수행될 데이터 저장 영역에 대한 선택이 이루어지면, 데이터 관리 장치(20)는 선택값을 제1 노드(40)로 전송한다(S560).
한편, 데이터 관리 장치(20)로부터 선택값을 수신한 제1 노드(40)는 수신된 선택값을 분석한 결과에 따라 백업을 수행한다. 예를 들어, 데이터 관리 장치(20)로부터 수신된 선택값을 분석한 결과, 제1 데이터 저장 영역의 데이터를 백업하는 선택값이 수신된 경우, 노드는 복수의 데이터 저장 영역 중 제1 데이터 저장 영역의 데이터에 대한 이미지 파일을 생성한다(S570). 제1 데이터 저장 영역의 데이터에 대한 이미지 파일이 생성되면, 제1 노드(40)는 생성된 이미지 파일을 데이터 관리 장치(20)로 전송한다(S580).
데이터 관리 장치(20)의 제1 노드(40)에서 전송된 이미지 파일을 수신하여, 제1 저장부(230)에 저장한다(S590).
한편, 데이터 관리 장치(20)는 데이터 관리 장치(20)의 장애 발생 여부를 주기적으로 체크하여, 제1 저장부(230)에 저장되어 있는 이미지 파일을 백업용 저장 장치(10)에 저장한다. 만약, 장애 발생 여부를 체크한 결과, 데이터 관리 장치(20)에 장애가 발생한 경우, 데이터 관리 장치(20)는 이를 복구하는데 필요한 이미지 파일을 백업용 저장 장치(10)로부터 제공받아, 발생된 장애를 복구한다.
도 6은 본 발명의 일 실시예에 따른 데이터 관리 방법을 도시한 개념도로서, 관리자의 선택값에 따라 데이터를 복구하는 과정을 도시한 것이다.
관리자에 의해 선택된 노드가 네트워크를 통해 부팅되는 과정(S610 내지 S650)은 앞서 도 5에서 설명한 바와 동일하므로, 이에 대한 설명은 생략하기로 한다.
도 3b와 같은 사용자 인터페이스를 통해 복구 명령 및 복구를 수행할 데이터 저장 영역에 대한 선택이 이루어지는 경우(S655), 데이터 관리 장치(20)는 제1 저장부(230)에서 해당 데이터 저장 영역을 복구하기 위한 이미지 파일을 검색한다(S660). 예를 들어, 도 3b와 같이, 관리자에 의해 제1 데이터 저장 영역 및 복구 명령이 선택된 경우, 데이터 관리 장치(20)는 제1 저장부(230)에서 제1 노드(40)의 제1 데이터 저장 영역을 복구하는데 필요한 이미지 파일을 검색한다. 이 후, 데이터 관리 장치(20)는 검색된 이미지 파일을 제1 노드(40)로 제공한다(S670).
한편, 데이터 관리 장치(20)로부터 복구에 필요한 이미지 파일이 수신되면(S680), 제1 노드(40)는 수신된 이미지 파일을 이용하여 제1 데이터 저장 영역을 복구한다(S690).
이상과 같이 예시된 도면을 참조로 하여, 본 발명에 따른 네트워크 내 컴퓨터 시스템의 데이터 관리 장치 및 방법에 대하여 설명하였으나, 본 발명은 본 명세서에 개시된 실시예와 도면에 의해 한정되지 않으며, 그 발명의 기술사상 범위 내에서 당업자에 의해 다양한 변형이 이루어질 수 있음은 물론이다.
상기한 바와 같이 본 발명에 의한 네트워크 내 컴퓨터 시스템의 데이터 관리 장치 및 방법에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
첫째, 데이터를 선택적으로 백업 및 복구할 수 있다는 장점이 있다.
둘째, 데이터 백업 및 복구에 소요되는 시간을 감소시킬 수 있다는 장점도 있다.
셋째, 노드가 동작하고 있는 상태에서도 데이터를 백업 및 복구할 수 있다는 장점도 있다.

Claims (20)

  1. 네트워크를 통해 연결되는 복수의 분산 클러스터 기반의 기기들에 대한 관리 항목을 포함하는 사용자 인터페이스를 디스플레이하는 디스플레이부;
    사용자의 선택값을 입력받는 입력부; 및
    상기 입력받은 선택값에 따른 관리 항목에 해당하는 기기의 관리를 수행하는 제어부를 포함하는 데이터 관리 장치.
  2. 제 1 항에 있어서,
    상기 관리 항목은 상기 기기에 대한 백업, 복구 및 설치 중 적어도 하나의 작업을 포함하는 데이터 관리 장치.
  3. 제 1 항에 있어서,
    상기 사용자 인터페이스는 상기 기기의 데이터 저장 영역 정보 및 상기 데이터 저장 영역에 저장되어 있는 데이터 정보 중 적어도 하나를 포함하는 데이터 관리 장치.
  4. 제 3 항에 있어서,
    상기 선택값은 상기 기기에 대한 선택값, 상기 데이터 저장 영역에 대한 선택값 및 상기 관리 항목에 대한 선택값 중 적어도 하나를 포함하는 데이터 관리 장 치.
  5. 제 4 항에 있어서,
    상기 입력받은 선택값 중 상기 관리 항목에 대한 선택값이 백업 항목인 경우, 상기 입력된 선택값을 상기 선택값에 따른 기기로 전송하는 송신부;
    상기 선택값에 따른 기기로부터 상기 선택값에 따른 데이터 저장 영역의 이미지 파일을 수신하는 수신부; 및
    상기 수신된 이미지 파일을 저장하는 저장부를 포함하는 데이터 관리 장치.
  6. 제 4 항에 있어서,
    상기 입력받은 선택값 중 관리 항목에 대한 선택값이 복구 항목인 경우, 상기 제어부는 상기 저장부에서 상기 선택값에 따른 데이터 저장 영역의 이미지 파일을 검색하고, 상기 송신부는 상기 검색된 상기 이미지 파일을 상기 선택값에 따른 기기로 전송하는 데이터 관리 장치.
  7. 제 1 항에 있어서,
    장애 발생 여부를 주기적으로 감지하여 상기 이미지 파일을 백업용 저장 장치에 저장하고, 장애가 발생하는 경우, 상기 백업용 저장 장치에 저장되어 있는 이미지 파일을 기반으로 하여 장애를 복구하는 감지부를 더 포함하는 데이터 관리 장치.
  8. 제 1 항에 있어서,
    상기 기기는, 상기 네트워크를 통해 원격으로 부팅되는 데이터 관리 장치.
  9. 분산 클러스터 기반의 네트워크에서 서버로부터 사용자의 선택값을 수신하는 수신부;
    상기 수신된 선택값에 따라 이미지 파일을 생성하는 제어부; 및
    상기 이미지 파일을 상기 서버로 전송하는 송신부를 포함하는 데이터 관리 장치.
  10. 제 9 항에 있어서,
    상기 제어부는, 상기 전송된 이미지 파일을 상기 서버로부터 제공받아 복구하는 데이터 관리 장치.
  11. 네트워크를 통해 연결되는 복수의 분산 클러스터 기반의 기기들에 대한 관리 항목을 포함하는 사용자 인터페이스를 디스플레이하는 단계;
    사용자의 선택값을 입력받는 단계; 및
    상기 입력받은 선택값에 따른 관리 항목에 해당하는 기기의 관리를 수행하는 단계를 포함하는 데이터 관리 방법.
  12. 제 11 항에 있어서,
    상기 관리를 수행하는 단계는, 상기 기기에 대하여 백업, 복구 및 설치 중 적어도 하나의 작업을 수행하는 단계를 포함하는 데이터 관리 방법.
  13. 제 11 항에 있어서,
    상기 사용자 인터페이스는 상기 기기의 데이터 저장 영역 정보 및 상기 데이터 저장 영역에 저장되어 있는 데이터 정보 중 적어도 하나를 포함하는 데이터 관리 장치.
  14. 제 13 항에 있어서,
    상기 선택값은 상기 데이터 저장 영역에 대한 선택값 및 상기 관리 항목에 대한 선택값 중 적어도 하나를 포함하는 데이터 관리 방법.
  15. 제 14 항에 있어서,
    상기 관리를 수행하는 단계는,
    상기 입력받은 선택값 중 상기 관리 항목에 대한 선택값이 백업 항목인 경우, 상기 입력된 선택값을 상기 기기로 전송하는 단계;
    상기 기기로부터 상기 선택값에 따른 데이터 저장 영역의 이미지 파일을 수신하는 단계; 및
    상기 수신된 이미지 파일을 저장하는 단계를 포함하는 데이터 관리 방법.
  16. 제 14 항에 있어서,
    상기 관리를 수행하는 단계는,
    상기 입력받은 선택값 중 관리 항목에 대한 선택값이 복구 항목인 경우, 상기 저장부에서 상기 선택값에 따른 데이터 저장 영역의 이미지 파일을 검색하는 단계; 및
    상기 검색된 상기 이미지 파일을 상기 기기로 전송하는 단계를 포함하는, 데이터 관리 방법.
  17. 제 11 항에 있어서,
    장애 발생 여부를 주기적으로 감지하여 상기 이미지 파일을 백업용 저장 장치에 저장하는 단계; 및
    장애가 발생하는 경우, 상기 백업용 저장 장치에 저장되어 있는 이미지 파일을 기반으로 하여 장애를 복구하는 단계를 더 포함하는 데이터 관리 방법.
  18. 제 11 항에 있어서,
    상기 기기는, 상기 네트워크를 통해 원격으로 부팅되는 데이터 관리 방법.
  19. 분산 클러스터 기반의 네트워크에서 서버로부터 선택값을 수신하는 단계;
    상기 수신된 선택값에 따라 이미지 파일을 생성하는 단계; 및
    상기 이미지 파일을 상기 서버로 전송하는 단계를 포함하는 데이터 관리 방법.
  20. 제 19 항에 있어서,
    상기 전송된 이미지 파일을 상기 서버로부터 제공받아 복구하는 단계를 더 포함하는 데이터 관리 방법.
KR1020060022339A 2006-03-09 2006-03-09 네트워크 내 컴퓨터 시스템의 데이터 관리 장치 및 방법 KR100791293B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020060022339A KR100791293B1 (ko) 2006-03-09 2006-03-09 네트워크 내 컴퓨터 시스템의 데이터 관리 장치 및 방법
US11/703,137 US20070226538A1 (en) 2006-03-09 2007-02-07 Apparatus and method to manage computer system data in network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060022339A KR100791293B1 (ko) 2006-03-09 2006-03-09 네트워크 내 컴퓨터 시스템의 데이터 관리 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20070092906A true KR20070092906A (ko) 2007-09-14
KR100791293B1 KR100791293B1 (ko) 2008-01-04

Family

ID=38535010

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060022339A KR100791293B1 (ko) 2006-03-09 2006-03-09 네트워크 내 컴퓨터 시스템의 데이터 관리 장치 및 방법

Country Status (2)

Country Link
US (1) US20070226538A1 (ko)
KR (1) KR100791293B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112948182A (zh) * 2021-03-30 2021-06-11 广东九联科技股份有限公司 机顶盒紧急备份恢复升级方法及系统

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5001886B2 (ja) * 2008-03-14 2012-08-15 株式会社リコー 画像入出力システム、画像入出力装置のバックアップ方法、およびそのプログラム
CN103946806B (zh) 2011-09-29 2017-06-16 英特尔公司 用于提供存储器访问控制的装置、系统和方法
US9189345B1 (en) * 2013-09-25 2015-11-17 Emc Corporation Method to perform instant restore of physical machines
CN111031033B (zh) * 2014-06-13 2022-08-16 柏思科技有限公司 用于管理节点的方法和系统
KR102415027B1 (ko) * 2019-11-05 2022-07-01 주식회사 테라텍 대규모 클라우드 데이터 센터 자율 운영을 위한 백업 복구 방법

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5819020A (en) * 1995-10-16 1998-10-06 Network Specialists, Inc. Real time backup system
US6594775B1 (en) * 2000-05-26 2003-07-15 Robert Lawrence Fair Fault handling monitor transparently using multiple technologies for fault handling in a multiple hierarchal/peer domain file server with domain centered, cross domain cooperative fault handling mechanisms
EP1168174A1 (en) * 2000-06-19 2002-01-02 Hewlett-Packard Company, A Delaware Corporation Automatic backup/recovery process
KR20010067561A (ko) * 2001-02-10 2001-07-13 박경수 통신 네트워크를 이용한 컴퓨터 시스템의 복구와 데이터의저장 관리 시스템 및 그 방법
KR100382102B1 (ko) * 2001-05-18 2003-05-09 (주)티오피정보시스템 네트워크 직접 연결 백업 시스템
US7093086B1 (en) * 2002-03-28 2006-08-15 Veritas Operating Corporation Disaster recovery and backup using virtual machines
KR20040091392A (ko) * 2003-04-21 2004-10-28 주식회사 에트피아텍 웹을 이용한 원격 백업관리 시스템 및 그 시스템을 운용한백업관리 방법
US7523139B1 (en) * 2003-05-02 2009-04-21 Symantec Operating Corporation Volume server and volume owner communication protocol in a distributed storage management system
US7567991B2 (en) * 2003-06-25 2009-07-28 Emc Corporation Replication of snapshot using a file system copy differential
US7383463B2 (en) * 2004-02-04 2008-06-03 Emc Corporation Internet protocol based disaster recovery of a server
US7779295B1 (en) * 2005-06-28 2010-08-17 Symantec Operating Corporation Method and apparatus for creating and using persistent images of distributed shared memory segments and in-memory checkpoints
US7523278B2 (en) * 2005-06-29 2009-04-21 Emc Corporation Backup and restore operations using a single snapshot
US7496783B1 (en) * 2006-02-09 2009-02-24 Symantec Operating Corporation Merging cluster nodes during a restore

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112948182A (zh) * 2021-03-30 2021-06-11 广东九联科技股份有限公司 机顶盒紧急备份恢复升级方法及系统
CN112948182B (zh) * 2021-03-30 2024-01-30 广东九联科技股份有限公司 机顶盒紧急备份恢复升级方法及系统

Also Published As

Publication number Publication date
KR100791293B1 (ko) 2008-01-04
US20070226538A1 (en) 2007-09-27

Similar Documents

Publication Publication Date Title
US11687422B2 (en) Server clustering in a computing-on-demand system
TWI502366B (zh) 雲端叢集系統及其開機部署方法
US8060542B2 (en) Template-based development of servers
US20080115144A1 (en) Method and Apparatus for Web Based Storage on Demand
US7499988B2 (en) Method for SAN-based BOS install volume group
US20060173912A1 (en) Automated deployment of operating system and data space to a server
US9288266B1 (en) Method and apparatus for web based storage on-demand
US8412901B2 (en) Making automated use of data volume copy service targets
US20060155748A1 (en) Use of server instances and processing elements to define a server
JP2003330728A (ja) 遠隔クライアント上にオペレーティングシステムをカスタムインストールするためのシステムおよび方法
US20070233872A1 (en) Method, apparatus, and computer product for managing operation
CN113196237A (zh) 计算系统中的容器迁移
KR100791293B1 (ko) 네트워크 내 컴퓨터 시스템의 데이터 관리 장치 및 방법
US20150106496A1 (en) Method and Apparatus For Web Based Storage On-Demand
CN105052111A (zh) 跨群集边界的服务迁移
EP2772858A2 (en) Management apparatus and method of managing server node
WO2019222262A1 (en) Apparatuses and methods for zero touch computing node initialization
US20090031012A1 (en) Automated cluster node configuration
US5941943A (en) Apparatus and a method for creating isolated sub-environments using host names and aliases
JP4498956B2 (ja) ネットワークブートシステム、単位記憶ユニットのマウント方法およびプログラム
US11983082B2 (en) Server clustering in a computing-on-demand system
KR102414260B1 (ko) 네트워크 환경에서의 운영체제 자동 설치 장치 및 방법
US10929250B2 (en) Method and system for reliably restoring virtual machines
KR20150134704A (ko) 네트워크를 이용한 클라이언트 피씨 구동 시스템 및 제어 방법
Shaw et al. Linux Installation and Configuration

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]
FPAY Annual fee payment

Payment date: 20121129

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20131128

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20141127

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20151127

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee