KR20160065046A - 디스크 배신 시스템 - Google Patents

디스크 배신 시스템 Download PDF

Info

Publication number
KR20160065046A
KR20160065046A KR1020157034128A KR20157034128A KR20160065046A KR 20160065046 A KR20160065046 A KR 20160065046A KR 1020157034128 A KR1020157034128 A KR 1020157034128A KR 20157034128 A KR20157034128 A KR 20157034128A KR 20160065046 A KR20160065046 A KR 20160065046A
Authority
KR
South Korea
Prior art keywords
terminal
data
vhd
quot
master
Prior art date
Application number
KR1020157034128A
Other languages
English (en)
Other versions
KR101730291B1 (ko
Inventor
신 마루야마
Original Assignee
가부시키가이샤 씨오-콘브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시키가이샤 씨오-콘브 filed Critical 가부시키가이샤 씨오-콘브
Publication of KR20160065046A publication Critical patent/KR20160065046A/ko
Application granted granted Critical
Publication of KR101730291B1 publication Critical patent/KR101730291B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0813Configuration setting characterised by the conditions triggering a change of settings
    • H04L41/082Configuration setting characterised by the conditions triggering a change of settings the condition being updates or upgrades of network functionality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/60Software deployment
    • G06F8/61Installation
    • G06F8/63Image based installation; Cloning; Build to order
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/60Software deployment
    • G06F8/65Updates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/4401Bootstrapping
    • G06F9/4406Loading of operating system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/4401Bootstrapping
    • G06F9/4416Network booting; Remote initial program loading [RIPL]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/084Configuration by using pre-existing information, e.g. using templates or copying from other elements
    • H04L41/0846Configuration by using pre-existing information, e.g. using templates or copying from other elements based on copy from other elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1095Replication or mirroring of data, e.g. scheduling or transport for data synchronisation between network nodes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/34Network arrangements or protocols for supporting network services or applications involving the movement of software or configuration parameters 

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Stored Programmes (AREA)
  • Computer Hardware Design (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

[과제] 로컬 부트를 전제로 하면서, OS 이미지 데이터의 갱신 작업이나 세대 관리를 효율적으로 실시하는 것을 가능하게 하는 신규 디스크 배신 시스템을 제공한다.
[해결 수단] 적어도 1 대의 마스터 서버와, 복수의 단말이 네트워크를 통하여 접속되고,
마스터 서버가 관리하는 단말용 오퍼레이팅 시스템을 포함하는 이미지 데이터를 마스터 데이터로 하고, 그 카피 또는 소정의 디스크 포맷 형식으로 변환된 데이터의 카피가 상기 단말의 부트 이미지로서 배비되고,
상기 마스터 데이터가 갱신되었을 때에는, 상기 단말이 가동하고 있는 상태에서, 상기 네트워크를 통하여 갱신 전의 마스터 데이터와의 차분 데이터의 카피를 상기 단말이 상기 네트워크를 통하여 상기 마스터 서버로부터 수취하고, 상기 단말이 재기동함으로써 상기 단말의 상기 부트 이미지가 갱신된다.

Description

디스크 배신 시스템{DISK DISTRIBUTION SYSTEM}
본 발명은, 다수의 클라이언트 단말에 효율적으로 오퍼레이팅 시스템을 배비 (配備) 하는 것을 가능하게 하는 디스크 배신 시스템에 관한 것이다.
다수의 클라이언트 단말 (이하, 「단말」이라고 한다) 에 오퍼레이팅 시스템 (이하, 「OS」라고 한다) 을 배비 (配備) 하는 방법으로서, 최근에는 네트워크 부트 시스템이 널리 보급되어 있다 (특허문헌 1). 네트워크 부트 시스템은, 네트워크 부트 서버상에 보존된 단말용 OS 를 포함하는 데이터가 디스크 이미지로서 보존된 「OS 이미지 데이터」를, LAN (로컬 에어리어 네트워크) 등의 고속 네트워크를 통하여 각 단말에 직접 마운트하여 공유하는 점에 특징이 있고, 네트워크 부트 서버측에서 OS 이미지 데이터의 갱신이 실시되면 그 갱신이 즉시 (정확하게는 각 단말의 차회 재기동 시부터) 반영되는 점에 최대의 이점이 있다. 또한, 네트워크 부트 서버가 관리하는 단말의 데이터는 1 개이기 때문에, 복수의 버전을 세대 관리한다는 것도 비교적 용이하게 실현할 수 있다.
네트워크 부트 시스템은, 1 대의 네트워크 부트 서버에 대하여 다수의 단말을 접속한다는, 『1 : N 접속』을 전제로 한다. 그 때문에, 기반 기술로서, 고속의 네트워크 환경이 단말의 기동 시부터 접속되어 있을 것이 전제가 된다. 예를 들어, 단말의 수가 50 대를 초과하는 대규모의 네트워크 부트 시스템에서는, 기가비트 클래스의 초고속 네트워크로 접속된 LAN 환경이 없으면, 실용을 감당할 수 있는 쾌적한 동작은 기대할 수 없다. 최근 네트워크 부트 시스템이 급속히 보급된 배경은, 이 초고속 네트워크의 보급에 의한 점이 크다.
이에 대하여, 공통의 OS 이미지 데이터를 마스터 데이터로 하고, 그 카피 (copy) 를 단말에 배신하여 기동하는 기술 (이것을, 본 명세서에서는 「디스크 배신 기술」이라고 한다) 이 알려져 있다 (특허문헌 2). 디스크 배신 기술은, 예전에는 그 이름의 유래로도 되었던 DVD 나 CD 와 같은 디스크상의 기록 미디어에 의해 OS 의 부트 이미지의 배포 (배신) 가 실시되고 있었지만, 최근에는 네트워크를 통하여 서버로부터 클라이언트 단말에 배신하는 방법 등도 생각되고 있다. 디스크 배신 기술과 같이, 단말이 네트워크를 통하지 않고 로컬 환경만으로 기동하는 기동 방법을, 본 명세서에서는, 네트워크 부트에 대하여, 「로컬 부트」라고 부르는 것으로 한다.
WO2009/069326 미국 특허 제6,108,697
최근의 데스크탑 환경을 전제로 하면, OS 이미지 데이터의 사이즈는 50 GB ∼ 100 GB 혹은 그 이상에도 이른다. 그 때문에, 디스크 배신 기술에 의해 다수의 단말에 OS 이미지 데이터를 배신하려면 매우 장시간을 필요로 한다.
예를 들어, 기록 미디어를 이용하여 배신하는 경우에는 다수의 기록 미디어를 준비하는 것이 필요해진다. 유니캐스트 배신에 의해 1 대의 마스터 서버로부터 다수의 단말에 배신하는 경우에는, 네트워크 대역의 제약을 받기 때문에, 단말 1 대당 전송 레이트가 현저하게 저하되어, 역시 배신에는 매우 장시간을 필요로 한다.
또한, 디스크 배신 기술에 의하면, 마스터 데이터가 갱신되었을 때에도, 각 단말에 대한 배신 작업을 처음부터 다시 해야 한다는 결점도 있다. 또한, 최근의 데스크톱 환경은, 소프트웨어의 신규 인스톨 등의 작업이 전혀 필요하지 않은 경우라도, OS 나 시큐리티 소프트웨어의 업데이트 작업과 같이 높은 빈도로 갱신이 필요로 되고 있어, 배신에 시간이 걸리는 디스크 배신의 결점은 치명적인 것이었다.
이미 서술한 바와 같이, 네트워크 부트 시스템은 이들 문제를 충분히 해결하지만,
(1) 느린 네트워크가 사용할 수 없다
(2) 네트워크 부트 서버와 통신을 실시할 수 없는 상태에서는, 기동은 물론, 계속 동작하는 것조차 할 수 없다
는 결점이 있다.
또한, 네트워크 부트 시스템에 있어서, 단말측에 캐시 기구를 설치함으로써 상기 문제점은 부분적으로 해소할 수 있는 경우가 있지만, 서버상의 OS 이미지 데이터가 갱신되었을 때에는 네트워크 접속이 필요해진다. 즉, 네트워크 부트 시스템의 시스템 요건은, 기본적으로는, 「네트워크 부트 서버와 단말이 네트워크 기기를 통하여 유선 네트워크에 의해 접속되고, 또한 적어도 단말의 네트워크 기기는 온라인 상태 (네트워크 카드, 스위칭 허브 등 모든 네트워크 기기류에 전원이 들어가 있어 네트워크 부트 서버와 통신할 수 있는 상태) 로 서버에 접속되어 있을 것」으로 되어 있다.
본 발명은, 상기를 감안하여 이루어진 것이고, 서버와 통신을 실시할 수 없는 상태에서도 기동 가능한 로컬 부트를 전제로 하면서, 네트워크 부트의 이점인 OS 이미지 데이터의 갱신 작업이나 세대 관리를 효율적으로 실시할 수 있게 하는 신규 디스크 배신 시스템을 제공하는 것을 주된 기술적 과제로 한다.
본 발명에 관련된 디스크 배신 시스템은, 적어도 1 대의 마스터 서버와, 복수의 단말이 네트워크를 통하여 접속되고,
상기 마스터 서버가 관리하는 OS 이미지 데이터 또는 OS 이미지 데이터 및 그것에 대한 1 개 또는 복수의 차분 데이터를 마스터 데이터로 하고, 그 카피 또는 소정의 디스크 포맷 형식으로 변환된 데이터가 상기 단말의 부트 이미지로서 배비되고,
상기 마스터 데이터가 갱신되었을 때에는, 상기 단말이 가동하고 있는 상태에서, 상기 네트워크를 통하여 갱신 전의 마스터 데이터와의 차분 데이터를 상기 단말이 상기 네트워크를 통하여 상기 마스터 서버로부터 수취하고, 상기 단말이 재기동함으로써 상기 단말의 상기 부트 이미지가 갱신되는 것을 특징으로 한다.
여기서, 「마스터 서버」란, 카피원이 되는 「마스터 데이터」를 보유하는 적어도 1 대의 컴퓨터를 말한다. 또한, 부트 이미지의 갱신을 반영시키기 위해서는 「재기동」이 필요하지만, 단말의 재기동에는 여러 가지 목적이 있기 때문에, 마스터 서버로부터 차분 데이터를 수취한 이후, 어느 타이밍에 부트 이미지를 갱신할지는 설정에 의한다.
본 발명에서 배신되는 OS 의 디스크 이미지는, 단말 상에서 가상 머신으로서 동작하는 것은 아니고, 통상적인 부트 프로세스를 거쳐 로컬 부트하는 것을 전제로 하고 있다. 또한, 「로컬 부트」는, 네트워크 부트 시스템에 있어서, 단말에 캐시 데이터가 보유되어 있고, 네트워크 부트 서버에 접속되어 있지 않은 오프 라인 상태에서 기동할 수 있는 경우를 포함하는 것으로 해석한다.
그리고, 마스터 데이터가 갱신되었을 때에는, 단말의 가동 중에, 차분 데이터만을 네트워크 경유로 수취할 수 있다. 여기서, 「단말의 가동 중」이란, 단말이 기동 프로세스를 종료하여, OS 가 통상 상태에 있는 것을 의미한다.
상기 단말은, 상기 단말의 호스트명 및 IP 어드레스를 포함하는 각 단말의 고유 데이터 및 각 단말에 대한 기록 데이터, 디바이스 드라이버의 구성 정보 등을 상기 부트 이미지에 대한 차분 데이터로서 보유하는 차분 관리 기구를 구비하고 있어도 된다. 또, 상기 차분 관리 기구는, 가상 디스크 시스템 또는 카피 온 라이트 방식의 파일 시스템이어도 된다.
상기 차분 데이터는, OOBE (Out-Of-Box Experience) 상태의 OS 이미지 데이터에 대한 차분 데이터여도 된다. 보다 구체적으로는, 상기 단말이 상기 단말용 오퍼레이팅 시스템에 의해 최초로 기동할 때에 또는 기동 후 필요에 따라 필요한 디바이스 드라이버가 상기 단말용 오퍼레이팅 시스템의 커널에 판독 입력됨과 함께, 디바이스 드라이버의 판독 입력이 완료된 상태에 상당하는 최신 OS 이미지 데이터를 OOBE 상태에 대한 차분 데이터로서 사용하도록 구성해도 된다.
이와 같은 구성에 의하면, 단말의 하드웨어 구성이 상이하여도, 최초의 기동 시 또는, 기동 후 필요에 따라 디바이스 드라이버가 상기 단말용 오퍼레이팅 시스템의 커널에 판독 입력된다. 즉, 단말측의 디바이스 구성이 모두 동일 구성일 필요가 없어지고, 디바이스 구성의 차이를 흡수하여 단말을 기동할 수 있게 된다.
또한, 다수의 단말을 공통의 OS 이미지 데이터로 기동하는 네트워크 부트 시스템에 있어서는, IP 어드레스, 호스트명, 도메인 정보 등의 최소한의 정보만을 단말에 부여하면서 비교적 단시간에 기동 프로세스를 완료시켜야 하기 때문에, 모든 단말이 동일한 하드웨어 구성으로 구성되는 것을 전제로 하고 하드웨어 구성이 상이한 경우의 동작은 보증되지 않는다. 이것에 대해, 본 시스템은 단말의 하드웨어 구성이 반드시 동일하지 않은 경우라도, 동작시킬 수 있다.
단, OOBE 상태의 이미지 데이터를 사용하면, 최초의 기동 시에 디바이스 드라이버의 판독 입력 동작이 발생하기 때문에, 기동이 느려진다는 결점이 있다. 그 때문에, 모든 단말이 동일한 하드웨어 구성을 구비하고 있는 경우에는, OOBE 상태의 OS 이미지 데이터보다, 미리 디바이스 드라이버 등이 설정 완료된 OS 이미지를 포함하는 마스터 데이터를 1 개 만들어 두는 것이 효율이 좋다. 예를 들어, 네트워크 부트 시스템으로 구축된 시스템으로부터 하드웨어 구성을 그대로 변경하지 않고 본 시스템으로 치환하는 경우에는, 반드시 OOBE 상태의 OS 이미지 데이터를 사용할 필요는 없다.
또한, 「최초의 기동」이란, 이미지 데이터가 갱신된 직후의 기동을 말하고, 그 후도 매회 기동 시마다 디바이스 드라이버의 판독 입력이 실시되는 것은 아니다.
또, 상기 단말은, 부트 이미지 또는 차분 데이터를 취급하기 위해서 사용되는 관리용 OS 를 구비하고 있어도 된다. 관리용 OS 란, 부트용 OS 와는 독립적으로 기동되는 다른 OS 이고, OS 레벨로 마스터 데이터나 차분 데이터를 인식하여 데이터를 취급할 수 있는 것이면, OS 의 종류는 상관없다. 예를 들어, 단말에 프리인스톨되어 있는 OS 를 사용해도 된다. 관리용 OS 로 기동하면 마스터 데이터나 차분 데이터의 초기화, 카피, 리네임, 머지 등의 조작이 가능해진다.
또, 1 개의 단말이, 1 개 또는 복수의 라이트 캐시를 구비하도록 구성해도 된다. 라이트 캐시에 기록하도록 하면, 라이트 캐시를 소거하는 것만으로 용이하게 기록 전 상태로 복원할 수 있기 때문이다.
상기 단말은, 마스터 서버로부터 네트워크를 통하여 마스터 데이터 및 차분 데이터의 카피를 수취하고, 상기 단말의 기동 디스크를 초기화하는 기능을 구비하고 있어도 된다. 구체적으로는, 예를 들어 단말이 미리 네트워크 접속 가능한 별도의 OS (이것을 「초기화용 OS」라고 한다) 로 가동하고 있는 상태에서, 네트워크를 통하여 마스터 서버로부터 마스터 데이터의 카피를 수취하고, 그 카피를 부트용 OS 로 전환하여 단말을 기동시킬 수도 있다. 여기서, 초기화용 OS 란, 마스터 데이터의 OS 와는 독립적으로 기동할 수 있는 다른 OS 이면, 어떠한 것이라도 된다. 예를 들어 단말에 프리인스톨되어 있는 OS 를 이용해도 되고, Linux (등록상표) 그 외 OS 여도 된다.
또, 단말의 초기화 직후에는 반드시 「네트워크를 통하여」마스터 데이터의 카피가 배신될 필요는 없고, 기록 미디어 등을 사용한 종래의 배신 방법을 사용해도 된다. 또한, 「초기화용 OS」 와 「관리용 OS」는 동일한 것을 가리키고 있어도 된다.
이 경우, 카피 대신에, 그 카피에 기초하여 포맷 변환된 소정의 디스크 포맷 형식의 데이터여도 된다. 어느 경우에도, 단말은, 마스터 데이터의 카피를 수취한 후, 수취한 OS 이미지 데이터를 부트용 OS 로서 기동한다는 의미에 있어서 로컬 부트이고, 네트워크 부트 서버와 통신을 실시할 수 없는 상태에서도 기동하고, 또한 계속 동작할 수 있다. 이것은, 네트워크 부트 시스템과 비교한 큰 이점이다.
상기 복수의 단말 중 1 대가, 마스터 서버로서도 기능하도록 구성해도 된다. 마스터 서버는, 반드시 전용 서버가 가동하고 있을 필요는 없다.
상기 마스터 서버는, 상이한 하드웨어 구성의 단말에 대하여, OOBE 상태의 OS 이미지로 변환하기 위한 차분 데이터를 배신하도록 구성해도 된다.
상기 단말은, 상기 마스터 서버로부터 하드웨어 구성이 상이한 다른 단말용 OS 이미지 데이터를 수취함과 함께, 상기 수취한 OS 이미지 데이터를 OOBE 상태의 OS 이미지 데이터로 변환하기 위한 차분 데이터를 수취하고, 그것들을 이용하여 단말을 기동하도록 구성해도 된다.
본 발명에 의하면, 단말을 네트워크 부트 서버와 통신을 실시할 수 없는 상태에서도 기동할 수 있기 때문에, 기동 시에 네트워크 액세스가 발생하지 않고, 또한 계속 동작할 수 있다. 또, 마스터 데이터가 갱신되었을 때에는 단말의 가동 중에 그 차분 데이터를 네트워크 경유로 수취할 있기 때문에, 무선 LAN 등의 느린 네트워크나 멀티 캐스트 배신 혹은 피어 투 피어 배신 등도 가능해진다.
도 1 은 제 1 실시형태의 디스크 배신 시스템의 기본 구성을 설명하기 위한 개념도이다.
도 2 는 제 2 실시형태의 실시예 1 ∼ 3 의 동작을 나타내는 개념도이다.
도 3 은 제 3 실시형태에서 설명하는 단말의 개별 설정 순서를 나타내는 개념도이다.
도 4 는 제 4 실시형태에 있어서의 단말 A 및 단말 B 의 가상 디스크 구성을 나타내는 도면이다.
도 5 는 제 4 실시형태에 있어서의 단말 A 에서의 마스터 데이터의 갱신 및 배신 순서를 나타내는 도면이다.
도 6 은 제 4 실시형태에 있어서의 단말 B 의 가상 디스크의 상태를 나타내는 도면이다.
도 7 은 제 5 실시형태에 있어서의 차분 데이터 전송 전의 단말 A 에서의 가상 디스크의 처리 순서를 나타내는 도면이다.
도 8 은 제 5 실시형태에 있어서의 차분 데이터 전송 전의 단말 A 에서의 차분 데이터의 작성 순서를 나타내는 도면이다.
도 9 는 제 5 실시형태에 있어서의 단말 A 의 라이트 캐시의 작성 순서를 나타내는 도면이다.
도 10 은 제 5 실시형태에 있어서의 차분 데이터 전송 후의 단말 B 의 가상 디스크의 상태를 나타내는 도면이다.
도 11 은 제 5 실시형태에 있어서의 차분 데이터 전송 후의 단말 B 의 가상 디스크의 초기화 순서를 나타내는 도면이다.
도 12 는 제 5 실시형태에 있어서의 차분 데이터 전송 후의 단말 B 에서의 라이트 캐시의 작성 순서를 나타내는 도면이다.
도 13 은 제 6 실시형태에 있어서, (A) 단말 A 로부터 「2.vhd」를 단말 B 로 배신하고, 단말 B 를 기동한 직후의 단말 A (B) 그때의 단말 B 의 가상 디스크의 상태를 나타내는 도면이다.
도 14 는 제 6 실시형태에 있어서, 단말 A 에서의 가상 디스크의 처리 순서를 나타내는 도면이다.
도 15 는 제 6 실시형태에 있어서, 단말 C 의 가상 디스크의 상태를 나타내는 도면이다.
도 16 은 제 6 실시형태에 있어서, 차분 데이터 전송 후의 단말 C 의 가상 디스크의 상태를 나타내는 도면이다.
도 17 은 제 6 실시형태에 있어서, 차분 데이터 전송 후의 단말 C 의 가상 디스크의 초기화 순서를 나타내는 도면이다.
이하, 본 실시형태의 디스크 배신 시스템에 대해 도면을 참조하여 상세하게 서술한다. 먼저, 본 발명이 전제로 하는 디스크 배신 시스템의 일실시양태를 예시하여 설명한다. 각 실시형태의 기재는 본 발명의 기술적 사상을 이해하기 위해서 합목적적으로 해석되고, 실시형태의 기재에 한정 해석되어야 하는 것은 아니다. 또, 각 실시형태에 기재된 사항은 특별히 명시한 경우를 제외하고, 각각 조합하여 실시할 수 있다.
(제 1 실시형태) -구성예-
도 1 은, 제 1 실시형태의 디스크 배신 시스템의 구성예를 나타낸 것이다. 이 실시형태에서는, 스위칭 허브 (13) 등의 네트워크 기기로 구성된 로컬 에어리어 네트워크 (LAN) (1) 내에, 적어도 1 대의 마스터 서버 (10) 와, 복수의 단말 (20(20a, 20b,···)) 이, 무선 LAN 액세스 포인트 (15) 를 통하여 무선 LAN (30) 에 의해 접속되어 있다.
단, 마스터 서버 (10) 는, 단말 중 1 대 (20a) 가 그 역할을 겸비하도록 구성할 수도 있다. 또, 마스터 서버 (10) 는, 가상 머신이어도 된다. 또, 이 구성예에서는 무선 LAN 을 이용하고 있지만, 유선 LAN 을 사용한 구성도 가능하다.
본 발명이 전제로 하는, 「디스크 배신 시스템」은, 네트워크 부트 시스템과는 상이하고, 각 단말 (20) 이 모두 부트용 OS 를 이용하여 로컬 부트로 기동한다. 그 때문에, 유선 LAN 에 의한 접속이 가능한 것은 물론이고, 도 1 에 나타내는 바와 같은 무선 LAN 에 의한 접속이나, 네트워크에 접속되어 있지 않은 경우에 있어서도 단말을 기동할 수 있다.
먼저, 도 1 에 나타내는 환경을 구축하기 위해서, 초기화용 OS 를 사용한다. 초기화용 OS 는 마스터 데이터의 OS 와는 독립적으로 기동할 수 있는 다른 OS 이면, 어떠한 것이어도 된다. 예를 들어 단말에 프리인스톨되어 있는 OS 를 이용해도 되고, Linux (등록상표) 그 외 OS 여도 된다.
먼저, 단말을 초기화용 OS 로 기동한다. 초기화용 OS 의 가동 중에는 네트워크를 통하여 마스터 서버 (10) 와 통신을 실시할 수 있기 때문에, 마스터 서버 (10) 로부터 마스터 데이터 및 차분 데이터의 카피를 수취하고, 그 카피를 「부트용 OS」로서 단말에 보존하고, 보존된 카피를 이용하여 단말을 기동시킨다.
마스터 서버 (10) 에 의해 배신되는 OS 이미지 데이터가 예를 들어 「가상 디스크 이미지」이면, 초기화용 OS 로부터 보면 그 데이터는 「파일」로서 취급할 수 있으므로, 네트워크를 통하여 서버에 접속된 마스터 서버 (10) 로부터 「파일 카피」라는 단순한 조작으로 데이터를 수취하게 된다. 또, 파일 카피 대신에, 그 카피한 데이터에 기초하여 포맷 변환된 소정의 디스크 포맷 형식의 데이터여도 된다. 포맷 변환의 목적은 압축, 암호화 그 외 단말에서 가동 중인 OS 가 인식할 수 있는 포맷 형식으로의 변환 등, 여러 가지 것이 생각된다. 나아가서는 수취한 데이터를 파일 형식인 채 보존할 뿐만 아니라, 데이터를 V2P (가상 머신으로부터 물리 머신으로의 변환) 의 요령으로 전개하여 디스크에 기록해도 된다.
무엇보다, 마스터 데이터의 사이즈는, 데스크탑용 OS 의 시스템 디스크의 사이즈에 상당하기 때문에, 예를 들어 50 GB ∼ 100 GB, 혹은 그 이상의 사이즈가 되는 것도 상정되고, 기가비트급의 네트워크라도 유니캐스트 접속에서는 전송에 수십분을 필요로 한다. 다수의 단말에 전송하는 경우에는 더 긴 시간을 필요로 한다.
그래서, 보다 배신 효율이 높은 배신 수단, 예를 들어 멀티캐스트 배신, 브로드캐스트 배신, 피어 투 피어 배신 등의 배신 수단을 사용해도 된다. 혹은, 네트워크를 통하지 않고, DVD 등의 기록 미디어를 사용한 배신 수단 등을 사용해도 된다. 또, 필요에 따라, 데이터를 복수로 분할하여 전송해도 된다. 혹은, 전송 시에는 체크섬을 확인하고, 만일 전송에 실패했을 때는 재차 카피를 다시 함으로써 신뢰도를 높일 수도 있다.
어느 경우에도, 단말은, 마스터 데이터의 카피를 수취한 후, 수취한 OS 이미지 데이터를 부트용 OS 로서 기동한다는 의미에 있어서 「로컬 부트」이고, 네트워크 부트 시스템과는 상이하고, 네트워크 부트 서버와의 통신을 실시할 수 없는 상태인 채에서도 기동하고, 또한 계속 동작할 수 있다. 또, 가상 머신을 사용하는 경우와는 달리, CPU 처리나 주변 디바이스에의 액세스 등에 있어서의 오버헤드도 생기지 않는다.
상기 서술한 바와 같이, 데이터 사이즈가 큰 마스터 데이터는, 어느 수단에 의해 순차 단말의 기동 디스크 (단말의 로컬 디스크나 OS 의 기동에 필요한 데이터를 보유하고 있는 디스크 등) 상에 카피될 필요가 있지만, 일단 마스터 데이터가 단말에 배비된 후이고, 마스터 데이터가 갱신되었을 때에는, 갱신 전의 마스터 데이터와의 차분 데이터만을 마스터 서버 (10) 로부터 각 단말 (20) 에 배신한다. 이것을 실시하기 위해서는, 「OS 이미지 데이터를 차분에 의해 관리하는 기구」의 존재가 전제가 된다.
배신하는 오퍼레이팅 시스템에 따라 다르기도 하지만, 어떤 종류의 OS 에서는, 이 기구가 OS 에 구비되어 있다. 그 하나로 가상 디스크를 들 수 있다. 단말의 OS 상에서는, 가상 디스크가 특정 파일 형식으로 포맷된 1 개 내지 복수의 「파일」로서 구성되고, 갱신이 실시된 경우, 「차분 파일」이 만들어진다. 이 차분 파일을 각 단말 (20) 에 배신하면, 사이즈가 큰 갱신 전의 마스터 데이터를 재차 단말에 카피할 필요는 없다. 각 단말 (20) 은, 마스터 데이터 또는 차분 데이터로부터 부트할 수 있다. 그때의 부트 프로세스는, 가상 머신으로서가 아니라, BIOS 등의 판독 입력을 포함한 비가상화 환경에 있어서의 통상적인 부트 프로세스이다.
이와 같은 요청으로부터, 본 발명에서는, 단말이 마스터 데이터의 카피를 수취한 후, 수취한 OS 이미지 데이터를 가상 머신이 판독 입력하여 이용하는 것이 아니라, 부트용 디스크로서 직접 기동에 이용할 수 있는 것이 필수가 된다.
또한, 본 발명에 있어서의 「가상 디스크 기술」의 구체적 또한 상세한 이용 순서에 대해서는 후술하지만, 가상 머신에 있어서의 OS 이미지 데이터의 이용법과 본 발명에 있어서의 이용법은, OS 이미지 데이터를 가상 머신이 판독 입력하여 이용할 때에는,
(1) OS 이미지 데이터에 의해 기동되는 OS 와 동시에, 가상 머신이 동작하는 환경을 기동하기 위한 베이스가 되는 별도의 OS 가 가동한 상태에서 이용되고, 또,
(2) OS 이미지 데이터에 의해 기동된 OS 가 단말의 하드웨어에 액세스할 때에는, 가상 머신의 관리하에서 실시되기 때문에 동작에 오버헤드가 생기는,
것에 대해, 본 실시형태와 같이 부트용 디스크로서 직접 기동에 이용할 때에는,
(i) OS 이미지 데이터에 의해 기동되는 OS 는, 그 단말에서 그 시점에서 기동하고 있는 유일한 OS 로서 기동한다,
(ii) OS 이미지 데이터에 의해 기동되는 OS 는, 단말의 하드웨어에 직접 액세스할 수 있기 때문에, 동작에 오버헤드는 생기지 않는다,
라고 하는 점에서, 양자는 본질적으로 상위하다.
(제 2 실시형태) -디스크 복원과 차분 관리에 대해-
본 실시형태에서는, 차분 관리의 실제에 대하여 상세히 서술한다.
-실시예 1 (디스크 복원, 제 1)-
단말을 재기동하는 것만으로 관리자가 미리 설정한 「초기 상태」로 복원할 수 있는 것은, 예를 들어 불특정 다수의 유저에게 단시간 사용시키기 위해서 다수의 단말이 배비되어 있는 시설 등에서 자주 요구된다. 제 1 실시형태에서 나타낸 디스크 배신 시스템을 전제로 이 차분 관리 기구를 적용하면, 이와 같은 요구에 응할 수 있다.
일례로서, 데스크탑용 오퍼레이팅 시스템의 하나인 Windows (등록상표) 에서는, 「VHD 형식」이라고 불리는 확장자 「.vhd」 내지는 「.vhdx」로 나타내는 파일 형식을 취급할 수 있다. VHD 형식의 파일은, OS 이미지 데이터 등을 포함하는 「기억 장치의 어느 시점에서의 상태」와 관련지어진다. 또한, 마스터 데이터와는 별도로, 임의의 타이밍에서 마스터 데이터에 대한 차분 데이터를 작성할 수 있고, 게다가 특정 차분 데이터에 대한 추가적인 차분 데이터를 작성할 수도 있다. 또, 복수의 차분 데이터를 머지 (결합) 하여 1 개의 파일로 할 수도 있다.
도 2(A) 는, 실시예 1 의 동작을 나타내는 개념도이다. 도면 중의 「0.vhd」는, OS 마스터 데이터의 초기 상태를 나타내는 파일이다. 초기 상태는 OS 인스톨 직후의 상태여도, 대강 필요한 프로그램이나 드라이버 소프트웨어의 인스톨 작업이 완료된 상태여도 된다. 즉, 어느 상태를 「초기 상태」라고 할지는 임의이다.
이 초기 상태를 나타내는 파일 「0.vhd」에 대한 차분 데이터 「writecache0.vhd」를 작성하고, 그 차분 데이터 「writecache0.vhd」에 의해 단말을 기동한다. 도면 중 화살표의 후단에 나타내는 데이터는, 화살표의 선단에 나타내는 데이터에 대한 차분 데이터인 것을 나타낸다. 이와 같은 구성으로 하면, 단말을 기동한 후에 있어서도 차분 데이터 「writecache0.vhd」를 내용 제로의 상태로 「초기화」함으로써, 즉석에서 초기 상태로 복원할 수 있다. 이것은, 차분 데이터 「writecache0.vhd」를 라이트 캐시로서 기능시킨 것에 상당한다. 또한, 차분 데이터를 삭제하여 마스터 데이터로 기동해도 마찬가지로 초기 상태로 복원할 수 있지만, 그 경우에는, 라이트 캐시가 존재하지 않게 되고, 마스터 데이터에 직접 데이터가 기록되므로, 차회의 기동에서도 라이트 캐시를 기능시키기 위해서는, 차분 데이터의 파일 자체는 남기고, 내용만을 소거 (초기화) 하는 것이 좋다.
또한, 반복이 되지만, 본 실시형태에 있어서는, VHD 형식으로 보존된 마스터 데이터 「0.vhd」나 차분 데이터 「writecache0.vhd」에 포함되는 OS 는, 단말의 「가상 머신」상에서 실행되는 것이 아니라, 단말의 물리적인 OS 로서 직접 실행되는 것이다. 또, 차분 데이터 「writecache0.vhd」로 기동 중에, 자신 「writecache0.vhd」를 소거하는 것은, 곤란하다고 생각된다. 이와 같은 경우, 부트용 OS 와는 독립적으로 기동되는 다른 OS 로서 「관리용 OS」를 별도 도입해 두고, 우선 관리용 OS 로 기동하고 나서, 차분 데이터 「writecache0.vhd」를 초기화하면 된다.
-실시예 2 (디스크 복원, 제 2)-
상기 서술한 실시예 1 의 경우, 차분 데이터를 초기화하기 위해서 매회 관리용 OS 를 기동할 필요가 있어, 디스크 복원을 하기 위해서 대기 시간이 필요해진다. 그러나, 2 개의 차분 데이터 (「writecache0-1.vhd」 및 「writecache0-2.vhd」) 를 사용하면, 이 문제를 회피할 수 있다.
도 2(B) 는, 실시예 2 의 동작을 나타내는 개념도이다.
먼저, 제 1 차분 데이터 「writecache0-1.vhd」로 기동할 때에 (또는 그 이전에,) 제 2 차분 데이터 「writecache0-2.vhd」를 작성해 둔다. 제 2 차분 데이터의 내용은 제로이기 때문에, 제 2 차분 데이터 「writecache0-2.vhd」는 초기 상태와 동일하다. 그리고, 차회의 기동 시에는 이 제 2 차분 데이터 「writecache0-2.vhd」로 기동한다. 제 2 차분 데이터로 클라이언트 OS 가 가동 중에 제 1 차분 데이터 「writecache0-1.vhd」를 초기화하여, 차회의 기동은 이 제 1 차분 데이터 「writecache0-1.vhd」로 기동한다. 프로그램을 이용하여 이 프로세스를 자동화해도 된다. 이와 같이, 마스터 데이터 「0.vhd」에 대한 2 개의 차분 데이터 「writecache0-1.vhd」및「writecache0-2.vhd」를 작성하여 한편으로 기동하면서 타방을 초기화하고, 이 순서를 반복함으로써, 관리용 OS 를 사용하지 않고, 매회 초기 상태로 복원하는 것이 가능해진다. 또, 「writecache0-1.vhd」와「writecache0-2.vhd」를 교대로 반복하여 사용하지 않고, 「writecache0-3.vhd」, 「writecache0-4.vhd」와 같이 차례차례로 새로운 차분 데이터를 작성하도록 구성해도 된다.
다음으로, 실시예 2 의 응용예로서, 유저 데이터 등을 소거하지 않는 운용에 대해 서술한다. 실시예 1 에서 설명한 디스크 복원 기능은, 단말 기동 시에 라이트 캐시인 차분 이미지를 초기화함으로써 실시하고 있었다. 그 때문에, 단말을 재기동하면 그 라이트 캐시에만 포함되어 있던 파일 등도 모두 없어져 있었다.
그러나, 2 개의 라이트 캐시 (차분 데이터) 를 사용한 경우, 재기동 전의 타방의 차분 데이터 「writecache0-1.vhd」에는 재기동 전의 변경 정보 (예를 들어 문서 데이터 등의 유저 데이터) 가 남겨져 있기 때문에, 타방의 차분 데이터 「writecache0-2.vhd」로의 기동 중에 그 변경 정보를 동일 보존 장소에 카피하면, 재기동 후도 유저 데이터를 남기는 운용도 가능하다. 이와 같은 구성으로 운용한 경우, 시스템에 대한 변경은 재기동마다 초기 상태로 복원되는 한편, 유저 데이터는 소거되지 않는다.
이와 같이, 복수의 라이트 캐시를 설치하면, 관리 OS 를 필요로 하지 않거나, 필요한 데이터를 전송하여 보존하거나 할 수 있는 운용도 가능해진다.
또, 상기와는 상이하게, 유저가 작성한 파일이나 유저에 의한 시스템 변경을 가능한 한 보유하기 위해, 통상적인 재기동 시에는 라이트 캐시의 초기화를 실시하지 않는 구성을 채용하는 경우도 있다. 이 구성은 라이트 캐시의 초기화 처리를 버전의 갱신 시로만 한정함으로써 용이하게 실현할 수 있다. 그러나, 마스터 데이터를 갱신한 경우에는 라이트 캐시의 초기화가 필수가 되어 버리지만, 이 경우에 있어서도 마찬가지로 「마스터 데이터 갱신 전의 라이트 캐시의 정보」를 참조하여 「마스터 데이터 갱신 후의 라이트 캐시」에 변경 정보를 동일한 보존 장소에 카피함으로써, 「시스템 부분의 갱신」을 실시하면서 유저 데이터를 계속해서 보유하는 구성을 취할 수도 있다. 나아가서는, 좀 더 단순하게, 「유저 데이터는 기억 장치의 별도 영역 (별도 드라이브)」에 보유하도록 하는 구성도 실현할 수 있다.
-실시예 3 (복원 포인트를 복수 작성하는 예)-
도 2(C) 는, 실시예 3 의 동작을 나타내는 개념도이다.
차분 데이터는, 서로 의존관계를 유지한 상태에서 복수의 계층을 작성할 수 있다. 예를 들어, 도 2(C) 에 나타내는 바와 같이, 초기 상태인 마스터 데이터 「0.vhd」에 대한 차분 데이터 「1.vhd」가 작성된 경우, 이 차분 데이터는 그 베이스가 된 「0.vhd」에 의존하고 있다. 이 상태에서, 차분 데이터 「1.vhd」에 대한 차분 데이터 「2.vhd」가 작성된 경우, 2 번째의 차분 데이터 「2.vhd」는, 그 베이스가 된 「1.vhd」에 의존하고 있을 뿐만 아니라, 「0.vhd」에도 의존하고 있다.
여기서, 차분 데이터 「1.vhd」를 이용하여 단말을 기동하면, 그 때에 「1.vhd」가 갱신된다. 그리고, 「1.vhd」가 갱신되면, 「2.vhd」와「1.vhd」의 의존관계가 파탄되고, 이후 「2.vhd」로 기동할 수 없게 된다.
그 때문에, 「1.vhd」의 기동용으로, 「1.vhd」의 클론으로서 차분 데이터 「writecache1a.vhd」를 작성하고, 이것으로 기동함으로써, 차분 데이터 「1.vhd」가 갱신되지 않도록 한다. 이렇게 하면, 차분 데이터 「1.vhd」와 동등한 내용으로 기동하면서, 「2.vhd」와「1.vhd」의 의존관계를 유지할 수 있다.
(제 3 실시형태) -다수의 단말의 초기 이미지 설정 순서 예-
1 개의 마스터 데이터를 다수의 단말의 기동 디스크에 카피하여, 「로컬 부트」하는 경우라도, IP 어드레스나 호스트명 등, 단말마다 「개별 설정」을 실시할 필요가 있다. 네트워크 부트 시스템의 경우, 단말의 기동을 신속하게 실시할 필요가 있기 때문에 「호스트명 등의 동적 설정」이 사용되는 경우가 많다. 호스트명 등의 동적 설정은, 기동 시에 설정이 완료되고, 재기동도 필요 없다는 점에서 우수한 반면, 모든 단말이 동일한 하드웨어 구성인 것을 전제로 하고, 하드웨어 구성의 상위점을 흡수할 수 없다는 결점이 있다. 각 단말의 하드웨어 구성이 반드시 동일 구성이 아닌 경우에는, 기동 시에 OS 의 커널에 판독 입력되어야 하는 디바이스 드라이버가, 단말마다 상이하다.
이하, 신규로 도입된 복수의 단말의 기동 디스크의 내용을 통일하는 순서를 나타낸다. 단말의 하드웨어 구성은 각각 상이할 가능성이 있기 때문에, 배신되는 OS 이미지 데이터는 「OOBE (Out Of Box Experience) 상태」라고 불리는 OS 이미지 데이터를 사용한다. OOBE 상태란, 「단말에 의존하지 않는 상태」, 바꾸어 말하면, 「상정되는 모든 디바이스 드라이버를 포함한 상태」를 말한다. OOBE 상태의 OS 이미지 데이터를 마스터 데이터로 하고, 그 카피를 각 단말의 기동 디스크에 배비하면, 최초의 기동 시에 각각의 단말에 필요한 디바이스 드라이버가 판독 입력되고, 또한 단말마다의 고유 설정을 각 단말의 기억 장치 내에 보유하므로, 하드웨어 구성의 상위점을 흡수할 수 있다.
먼저 처음으로, DVD 나 USB 스토리지 디바이스 등의 리무버블 기록 미디어에 의한 기동이나 네트워크 부트를 이용한 기동 등, 어느 방법에 의해, 먼저 초기화용 OS 를 기동한다. 다음으로, 단말의 기동 디스크에 OOBE 상태의 OS 이미지 데이터인 마스터 데이터 「0.vhd」를 카피한다. 또, 마찬가지로 관리용 OS 도 도입한다.
다음으로, 단말마다의 개별 설정을 실시한다. 개별 설정을 실시하는 방법으로서, 하드웨어의 재검출을 실시하는 툴이 준비되어 있다. 예를 들어, Windows (등록상표) 라면, 「mini-Setup」처리에 의해 실시할 수 있다. mini-Setup 처리는, 단말에 IP 어드레스나 호스트명 및 도메인 참가의 유무 등의 네트워크 접속 정보를 등록함과 함께, 단말에 접속되어 있고 아직 OS 의 커널에 등록되어 있지 않은 디바이스 드라이버를 판독 입력하기 위해서 하드웨어 정보의 검출을 개시하는 처리이다. 이 처리를 실행함으로써 하드웨어의 상위점을 어느 정도 흡수하여 단말의 하드웨어 구성에 맞춘 재설정, 즉 단말의 개별 설정이 가능해진다.
도 3(A) 및 도 3(B) 는, 제 3 실시형태에서 설명하는 단말의 개별 설정의 순서를 나타내는 개념도이다. 먼저, 도 3(A) 에 나타내는 바와 같이, 단말의 기동 디스크에 OOBE 상태의 마스터 데이터 「0.vhd」의 카피를 배비한다. 다음으로, 마스터 데이터가 갱신되지 않도록, 제 1 라이트 캐시를 준비한다. 구체적으로는, 「0.vhd」에 대한 차분 데이터 「minisetup0a.vhd」를 작성한다. 이 차분 데이터에 의해 단말을 기동한 후, 즉시 mini-Setup 을 실행한다 (스텝 S1).
mini-Setup 종료 후, 단말을 일단 셧다운하고, 다음으로 도 3(B) 에 나타내는 바와 같이, 제 2 라이트 캐시를 준비한다. 구체적으로는, 조금 전의 「minisetup0a.vhd」에 대한 차분 데이터 「writecache0a.vhd」를 작성하고, 그 이미지로 단말을 기동한다 (스텝 S2). 프로그램을 이용하여 스텝 S1 로부터 스텝 S2 로의 순서를 자동 실행하도록 설정해도 된다.
이와 같은 순서를 거침으로써, 다음에 기동했을 때에는 mini-Setup 이 완료된 상태로 기동할 수 있다. 그 후, 제 2 라이트 캐시인 차분 데이터 「writecache0a.vhd」를 초기화함으로써, 이후 이 단말에서는 매회 mini-Setup 직후의 상태로부터 기동하게 된다.
나아가서는, 종래형의 디스크 배신 기구를 사용한 경우에는, mini-Setup 의 실행에 실패하는 경우가 많은 것이 알려져 있다. 이 이유는, mini-Setup 처리의 실행 시에는, 도메인 참가나 파일 서버의 마운트 등을 위해서 서버와의 통신을 실시하는 경우가 자주 있고, 그때에 「네트워크에 접속되어 있지 않다」, 혹은 「다수의 단말을 일제히 초기화함으로써, 서버가 과부하가 되어 타임 아웃한다」와 같은 문제가 빈번하게 발생하기 때문이다. 예를 들어, 100 대의 단말에 대해 일제히 초기화 처리를 실시하면, 적어도 2-3 대는 mini-Setup 처리에 실패하는 것이 경험적으로 알려져 있다.
그러나, 이 순서의 경우, 만일 mini-Setup 의 실행에 실패한 경우라도, 재차 「minisetup0a.vhd」를 다시 만드는 것만으로 「0.vhd」등을 재차 카피할 필요 없이, OOBE 상태의 마스터 데이터 「0.vhd」의 상태로부터 mini-Setup 을 재차 실행함으로써, 확실하게 mini-Setup 의 실행에 성공한다.
또한, 여기서 서술한 일련의 방침이라면, 1 개의 이미지를 다수의 단말에 배신할 수도 있음과 아울러, 단말마다 하드웨어 구성이 상이한 경우에도, 통일된 이미지를 배신하여 이용할 수 있다.
단, 이 방법에서는, 디스크 이미지 「0.vhd」를 갱신했을 때에는 일반적으로 디스크 이미지의 사이즈가 크다고 생각되는 「0.vhd」를 다수의 단말에 전송하는 것이 필요해진다.
(제 4 실시형태) -마스터 데이터의 갱신과 배신-
본 실시형태에서는, 설명을 간단하게 하기 위해, 단말의 대수가 2 대 (단말 A, 단말 B) 이고, 이 중 1 대 (단말 A) 를, 마스터 서버로서도 기능시키는 것을 상정하여, 마스터 데이터의 갱신과 다른 단말에 대한 배신 순서에 대해 설명한다.
[마스터 데이터의 갱신]
도 4(A) 및 도 4(B) 는, 모두, 제 4 실시형태에 있어서의 단말 A 및 단말 B 의 가상 디스크 구성을 각각 나타내고 있다.
단말 A 에는, OS 이미지 데이터인 마스터 데이터 「0.vhd」와, 마스터 데이터에 대한 제 1 차분 데이터 「1.vhd」가 존재하고 있는 상태에서, 라이트 캐시로서 제 1 차분 데이터 「1.vhd」에 대한 차분 데이터 「writecache1a.vhd」를 작성하고, 이것에 의해 단말 A 를 기동시킨다.
단말 A 에 있어서 어플리케이션의 인스톨 등을 실시하면, 그 작업에 의한 OS 이미지 데이터에 대한 변경점은 라이트 캐시인 차분 데이터 「writecache1a.vhd」에 기록된다. 그 후, 단말 A 를 셧다운하면, 그 단계에서의 「writecache1a.vhd」의 내용이 다른 단말에 배신해야 할 「갱신 데이터」가 되어 있다. 여기서, 관리용 OS 로 단말을 기동하거나 해 「writecache1a.vhd」로부터 「2.vhd」로 리네임한다. 또한, 다음으로 단말 A 를 기동할 때에 대비하여 조금 전 리네임한 「2.vhd」에 대한 차분 데이터 「writecache2a.vhd」를 작성해 둔다.
도 5(A) 는, 단말 A 에 별도 가상 디스크로서 준비한 마스터 데이터 「manage.vhd」를 이용하여 관리용 OS 를 기동하고 있는 양태를 나타냄과 함께, 관리용 OS 의 가동 중에 단말 A 의 마스터 데이터의 갱신 데이터를 리네임하고, 추가로 라이트 캐시인 「writecache2a.vhd」를 작성한 양태를 나타내고 있다.
[OS 이미지 데이터의 배신]
관리용 OS 로 기동하고 있는 도 5(A) 의 상태로부터, 라이트 캐시 「writecache2a.vhd」에 의해 단말 A 를 재기동한다. 도 5(B) 는, 라이트 캐시 「writecache2a.vhd」에 의해 단말 A 를 기동하고 있는 양태를 나타내고 있다. 이 상태에서, 단말 A 로부터 단말 B 로 「2.vhd」를 카피한다. 지금 만일, 단말 A 상의 「1.vhd」와 단말 B 상의 「1.vhd」가 동일하다면, 단말 B 에 카피된 「2.vhd」는, 단말 B 상의 「1.vhd」로부터의 차분도 된다. 이 카피 작업은 단말 B 가 「writecache1b.vhd」로의 가동 중 (도 4(B) 참조) 에 실시할 수 있다. 그 때문에, 카피 전송 시에 이용하는 디바이스나 미디어나 프로토콜의 자유도는 높고, 이미 설명한 각종 배신 효율이 높은 배신 수단 등을 사용할 수 있다. 물론, 단말 A 로부터 단말 B 로 직접 전송하는 대신에, 어떠한 서버나 다른 단말을 중계하도록 구성할 수도 있다.
도 6(A) 는, 단말 B 에 「2.vhd」의 카피가 끝난 상태를 나타내고 있다. 이 단계에 있어서는, 단말 B 는 「writecache1b.vhd」로 기동되고 있다. 이 상태에서, 차회의 기동을 갱신된 마스터 데이터의 차분 데이터 「2.vhd」에 의해 실시하도록 설정하면 갱신이 반영되지만, 그렇게 하면, 「2.vhd」에 기록되어 버린다. 그래서, 도 6(B) 에 나타내는 바와 같이, 「2.vhd」로는 기동하지 않고, 「2.vhd」에 대한 차분 데이터 「writecache2b.vhd」를 작성한다. 이 차분 데이터 「writecache2b.vhd」는 물론 라이트 캐시로서 기능한다.
그 후, 라이트 캐시 「writecache2b.vhd」에 대하여 「IP 어드레스, 호스트명」 등의 필요한 설정 정보의 변경을 실시한다. 만약, 실장상의 사정으로 「writecache1b.vhd」가 기동 중에 「writecache2b.vhd」의 내용을 재기록할 수 없는 경우에는, 재기동을 통하여 관리용 OS 에 의해 재기록하도록 구성해도 된다. 또, 호스트명이나 IP 어드레스를 단말 기동 시에 동적 설정되도록 구성하고 있는 경우에는, 이 「writecache2b.vhd」를 재기록하는 순서를 생략할 수도 있다. 다음으로 「writecache2b.vhd」로 기동하도록 설정을 해, 단말을 재기동하면, 단말 B 는 차분 데이터 「2.vhd」상당의 상태로 기동하게 된다. 재기동 후에는 「writecache1b.vhd」의 파일을 삭제할 수도 있다.
[다수의 단말에 대한 전개]
다수의 단말이 있는 경우에는, 동일한 순서를 반복함으로써 전개할 수 있다. 또, 어느 타이밍에 카피 처리를 실시할지, 또 어느 타이밍에 새로운 버전을 다른 단말에서의 이용을 허가할지와 같은 제어를 자유롭게 실시할 수 있다.
(제 5 실시형태) -운용예-
[배신용 차분 데이터의 작성 순서]
제 3 실시형태에서는, 도 3 을 참조하여, 마스터 데이터가 되는 OS 이미지 데이터를 각 단말에 배신하는 순서를 서술하였다. 이 순서에서는 각 단말에 있어서 mini-Setup 을 실시한 단계에서 각 단말의 상태는 상이하기 때문에, 그 이후에 생긴 마스터 데이터의 변경을 차분 데이터로서 배신할 수 없었다. 한편, 제 4 실시형태에서는, 도 4 ∼ 도 6 을 참조하여, 마스터 서버로서 기능하는 단말 A 에 있어서 생긴 변경을 다른 단말에 카피하는 순서에 대해 서술하였다. 이 순서에서는, 단말마다의 개별 설정은 IP 어드레스와 호스트명과 같은 정도의 내용밖에 실시할 수 없고, 제 3 실시형태와 같이, 하드웨어 구성이 상이한 경우에는 이용할 수 없었다.
그래서, 본 실시형태에서는, 마스터 서버로서 기능하는 단말 A 에 있어서 생긴 변경을, 하드웨어 구성이 상이한 다른 복수의 단말에 차분 데이터로서 배신하는 순서에 대해 서술한다.
도 7(A) 에 나타내는 바와 같이, 먼저, OOBE 상태의 OS 이미지 데이터 「0.vhd」를 베이스로 하여, 단말 A 의 하드웨어 구성에 적합하도록 mini-Setup 한 단계의 이미지가 「minisetup0a.vhd」, 그것에 대한 차분 데이터 「writecache0a.vhd」(라이트 캐시) 에 의해 단말 A 가 가동하고 있는 상태를 상정한다.
상기 상태에서 단말 A 에 있어서 어플리케이션의 인스톨 등을 실시하면 그 작업에 의한 이미지에 대한 변경점은 라이트 캐시로서 기능하는 차분 데이터 「writecache0a.vhd」에 기록된다.
이 상태에서, OS 이미지 데이터를 OOBE 상태로 되돌리는 처리를 실행한다. Windows (등록상표) 의 경우, 「sysprep」처리가 이것에 상당한다. sysprep 를 실행하면, 도 7(B) 에 나타내는 바와 같이, 현재 기동 중인 OS 이미지 데이터 「writecache0a.vhd」는 OOBE 상태가 된다. 여기서, 차회 기동 시에는 「관리용 OS」로 기동하도록 설정하면서 단말 A 를 재기동한다.
도 8 에 나타내는 바와 같이, 관리용 OS 로 기동한 후, 「writecache0a.vhd」와「minisetup0a.vhd」의 내용을 머지해, 「1.vhd」라는 파일명의 파일을 작성한다. 이와 같이 하여 얻어진 「1.vhd」는, 「OOBE 상태」또한 「0.vhd 에 대한 차분 데이터」가 된다.
다음으로, 도 9(A) 에 나타내는 바와 같이, 이 「1.vhd」에 대한 차분 데이터로서 「minisetup1a.vhd」를 작성하고, 차회 기동 시에는 「minisetup1a.vhd」로 기동하도록 설정해 재기동한다. 지금, 「minisetup1a.vhd」는, 「1.vhd」에 대한 라이트 캐시로 되어 있다.
이 상태에서, 라이트 캐시인 「minisetup1a.vhd」로 단말 A 를 기동하면, 즉시 mini-Setup 이 실시된다. mini-Setup 이 끝난 단계에서, 차회 기동 시에는 재차 관리용 OS 로 기동하도록 설정하면서 단말 A 를 재기동한다.
도 9(A) 는, 현재의 단말 A 에 있어서의 마스터 데이터와 그 차분 데이터의 관련을 나타내고 있다. 차분 데이터 「1.vhd」는, OOBE 상태의 디스크 이미지이기 때문에, 여러 가지 하드웨어로 기동할 수 있다.
도 9(B) 는, 도 9(A) 의 상태로부터, 추가로 「minisetup1a.vhd」에 대한 차분으로서 「writecache1a.vhd」를 작성한 양태를 나타내고 있다. 차회는 이 디스크로 기동하도록 구성하고 나서 단말을 재기동한다.
이와 같이 구성함으로써, 단말 A 는 새로운 버전 「1.vhd」에 상당하는 상태로 기동할 수 있다.
또, 라이트 캐시 「writecache1a.vhd」를 초기화하면, mini-Setup 한 상태로의 디스크 복원 기능을 실현할 수 있다.
이상의 순서에 의해, 상이한 하드웨어 구성의 단말에도, 하드웨어 구성의 차이를 흡수하면서 배신할 수 있는 차분 데이터가 얻어진다.
[다른 단말에의 카피]
다음으로, 단말 A 에서 작성된 차분 데이터 「1.vhd」를 다른 단말 B 에서 이용하기까지의 순서를 서술한다. 이하의 예에서는, 단말 A 는 마스터 데이터의 갱신 후의 차분 데이터 「1.vhd」를 단말 A 에 적합하도록 mini-Setup 한 상태로 동작하고 있고, 단말 B 는 갱신 전의 OS 이미지 데이터 (마스터 데이터의 카피) 「0.vhd」를 단말 B 에 적합하도록 mini-Setup 한 상태로 동작하고 있다.
먼저, 단말 A 로부터 단말 B 로 차분 데이터 「1.vhd」를 카피한다. 이 카피 작업은 단말 B 가 「writecache0b.vhd」로의 가동 중에 실시할 수 있다. 그 때문에, 전송 시에 이용하는 디바이스나 미디어나 프로토콜의 자유도는 매우 높고, 이미 설명한 각종 배신 효율이 높은 배신 수단 등을 사용할 수 있다. 또한, 「1.vhd」는 마스터 데이터 「0.vhd」에 대한 차분 데이터이기도 하기 때문에, 마스터 데이터 「0.vhd」보다 데이터 사이즈가 작다. 그 때문에, 디스크 이미지 전체를 카피하는 경우와 비교하여, 전송 시간을 대폭 단축할 수 있는 이점이 있다.
물론, 단말 A 로부터 단말 B 로 직접 전송하는 대신에, 어떠한 서버를 중계하도록 구성하는 것도 가능하다.
또한, 단말 A 상의 마스터 데이터 「0.vhd」와 단말 B 상에 카피된 「0.vhd」의 내용은 동일하기 때문에, 단말 B 에 전송된 차분 데이터 「1.vhd」는, 단말 B 상의 「0.vhd」로부터의 차분도 된다. 그 때문에, 단말 B 에 「1.vhd」로의 전송이 끝나면 단말 B 의 가상 디스크는 도 10(A) 에 나타내는 상태가 된다.
다음으로, 전송이 끝난 후에 단말 B 에 있어서 차분 데이터 「1.vhd」를 이용하기까지의 순서를 서술한다. 단말 B 는 자발적으로, 또는 서버로부터의 지시를 받거나, 혹은 단말 B 를 이용하는 유저로부터의 지시를 받아, 차분 데이터 「1.vhd」의 초기화 작업을 개시한다. 먼저, 단말 A 를 셧다운할 때에 차회 기동 시에는 관리용 OS 로 기동하도록 설정해 재기동한다. 도 10(B) 는 단말 B 가 관리용 OS 로 재기동한 상태를 나타내고 있다.
단말 B 가 관리용 OS 로 재기동한 후, 먼저 차분 데이터 「1.vhd」에 대한 차분 데이터로서 「minisetup1b.vhd」를 작성한다 (도 11(A)). 이 시점에서 「minisetup1b.vhd」는 「1.vhd」로부터의 차분 데이터를 보유하고 있지 않기 때문에, 「minisetup1b.vhd」는 「1.vhd」와 동등한 내용을 의미한다. 이 「1.vhd」중에는, mini-Setup 시의 설정 내용을 지시하는 파일 (unattended.xml) 이 포함되어 있다. 이 파일을 적절히 설정함으로써, 「IP 어드레스」 「호스트명」 「도메인 참가」등을 포함하는 여러 가지 설정을 실시할 수 있다. 서버와 통신을 실시하여, 적절한 unattended.xml 파일을 취득할 수도 있다. 또, unattend.xml 에 의하지 않고, 파일이나 레지스트리 등, 디스크 이미지의 내용을 재기록함으로써, 단말마다의 개별 설정을 실시할 수도 있다.
그 후, 「minisetup1b.vhd」로 단말이 기동하도록 설정을 실시한 후 단말을 재기동하면 mini-Setup 이 실행된다 (도 11(B)). 「minisetup1b.vhd」로 기동한 단말 B 는, 소정의 셋업 처리 (mini-Setup) 를 실행한다. 또, 이 단계에 있어서 단말마다의 개별 설정을 추가로 실시해도 된다. 그 후, 「minisetup1b.vhd」에 대한 차분 데이터 「writecache1b.vhd」(라이트 캐시) 를 작성하고, 단말 B 를 그 이미지로 기동하도록 설정한 후에 재기동한다 (도 12).
이 순서를 취함으로써, 단말 B 도 단말 A 에서 작성된 차분 데이터의 카피 「1.vhd」를 베이스로 해서 단말의 개별화 처리 (mini-Setup) 를 실시하면서 기동할 수 있다. 나아가서는, 이 단계에 있어서도 라이트 캐시 「writecache0b.vhd」의 내용을 참조할 수 있기 때문에, 갱신 전의 가상 디스크 「writecache0b.vhd」에 포함되어 있는 유저 데이터 등을, 갱신 후의 가상 디스크 「writecache1b.vhd」에 복제하도록 구성해도 된다.
여기까지의 순서가 끝난 단계에서 「minisetup0b」와「writecache0b.vhd」는 이후 불필요해지므로, 적절한 타이밍에 삭제해도 된다.
또, 여기에 서술한 일련의 순서는 「2.vhd」, 「3.vhd」 등 새로운 이미지가 작성된 경우에도 반복하여 적용할 수 있다. 그때에도, 단말간에 전송되는 것은 각 버전마다의 차분이 되기 때문에, 전송량은 적어진다.
또한, 다수의 단말이 있는 경우에는, 동일한 순서를 반복함으로써 전개할 수 있다. 또, 어느 타이밍에 카피 처리를 실시할지, 또 어느 타이밍에 새로운 버전을 다른 단말에서의 이용을 허가할지와 같은 제어를 자유롭게 실시할 수 있다.
(제 6 실시형태) -하드웨어 혼재 환경에서의 운용-
본 실시형태에서는, 하드웨어 구성이 상이한 복수의 단말과 하드웨어 구성이 동일한 복수의 단말이 혼재한 환경에서의 운용에 대해 서술한다. 이와 같은 경우, 이들 각각의 환경에 맞춰 2 개의 디스크 이미지를 준비하는 것으로도 운용은 가능하기는 하다. 그러나, 그렇게 하면 마스터 디스크가 2 개가 되고, 각각을 관리할 필요가 생긴다.
본 실시형태에서는, 「하드웨어 구성이 상이한 복수의 단말」과「하드웨어 구성이 동일한 복수의 단말」이 혼재한 환경이라도, 마스터 디스크 1 개로 운용하는 순서에 대해 서술한다.
먼저, 단말 A 가 마스터 서버이고, 단말 A 에서, 마스터 데이터의 갱신이 반복된다고 한다. 또, 단말 B 는 단말 A 와 하드웨어 구성이 동일한 단말이고, 단말 C 는 단말 A 와 하드웨어 구성이 상이한 단말인 경우를 상정한다.
도 4 는, 단말 A 및 단말 B 의 가상 디스크 구성을 나타내고 있다. 베이스가 되고 있는 단말 A 및 B 의 「0.vhd」와「1.vhd」의 데이터는, 모두 동일하다. 지금, 각각의 단말은 라이트 캐시로서 기능시키기 위해, 「1.vhd」에 대한 차분 데이터 「writecache1a.vhd」 및 「writecache1b.vhd」에 의해 각각 기동하고 있다.
여기서, 새롭게 「2.vhd」를 작성하거나, 마스터 서버 (단말 A) 로부터 단말 B 로의 배신하는 순서에 대해서는, 제 4 실시형태에 있어서 도 5 및 도 6 을 참조하여 설명한 바와 같다.
도 13(A) 및 도 13(B) 는, 단말 A 로부터 「2.vhd」를 단말 B 로 배신하고, 단말 B 를 기동한 직후의 단말 A 및 단말 B 의 가상 디스크의 상태를 각각 나타내고 있다. 각각의 단말은, 모두 라이트 캐시인 차분 데이터 「writecache2a.vhd」, 「writecache2b.vhd」로 기동하고 있다.
여기서 또한, 단말 A 에 있어서 「2.vhd」에 의존한 차분 디스크 「sysprep2.vhd」를 작성하고, 그 디스크로 단말 A 를 기동한다 (도 14(A)). 그 후, 단말 A 에 있어서 sysprep 처리를 실시하고 나서 단말 A 를 셧다운한다. 그때, 차회 기동 시에는 「writecache2a.vhd」로 기동하도록 설정하면서 단말 A 를 재기동한다. 도 14(B) 는, 이 재기동 후의 단말 A 의 가상 디스크의 상태를 나타내고 있다. 또한, 이 처리는, 단말 A 에 있어서 「2.vhd」를 작성할 때에 일련의 처리로서 실시할 수도 있다.
한편, 도 15(A) 는, 단말 C 의 가상 디스크 구성을 나타내고 있다. 단말 C 는, 단말 A 나 단말 B 용 하드웨어에 적합한 OS 이미지 데이터 「0.vhd」나 「1.vhd」가 배비되어 있다. 단말 C 는, 마스터 데이터인 「0.vhd+1.vhd」로 기동할 수 없기 때문에, 거기서 sysprep 처리를 실시한 후, mini-Setup 처리를 실시함으로써 개별화 처리가 실시되고, 현재는 개별화 처리가 완료된 OS 이미지 데이터 「minisetup1c.vhd」의 라이트 캐시 「writecache1c.vhd」로 기동하고 있다.
이 상태에서, 단말 A 로부터, 「2.vhd」 및 「sysprep2.vhd」를 단말 C 로 배신한다. 여기서, 「2.vhd」는 「1.vhd」에 대한 차분 데이터이기 때문에, 단말 C 는, 도 16 에 나타내는 바와 같은 가상 디스크 구성이 된다.
단말 C 는, 하드웨어 구성이 상이한 단말 A 나 단말 B 용 OS 이미지 계열인 「0.vhd」 및 그 차분 데이터 「1.vhd」를 보유하고 있는 상태에서, 「1.vhd」에 대한 차분 데이터를 마스터 서버 (단말 A) 로부터 수취하게 된다.
이후 단말 C 에서 「minisetup2c.vhd」를 「sysprep2.vhd」에 대한 차분으로서 작성하면서, 그 디스크로 기동하도록 설정하고, 제 5 실시형태에서 설명한 순서에 따라 처리를 하면, 도 17 에 나타내는 바와 같은 상태가 되고, 2.vhd 상당의 디스크로 단말 C 가 기동할 수 있는 상태가 된다.
이상과 같은 순서를 반복함으로써, sysprep 를 사용하지 않고 구성된 「0.vhd」, 「1.vhd」, 「2.vhd」,··· 의 열을 베이스로 해, 하드웨어 구성이 상이하기 때문에 sysprep 를 필요로 하는 다른 단말에서도 동일한 디스크를 이용할 수 있다.
(그 밖의 실시형태)
상기 서술한 실시형태에서는, 차분 관리 기구로서 Windows (등록상표) 에서 사용되는 가상 머신용 VHD 파일 형식을 이용하여 설명했지만, 차분 관리 기구를 제공할 수 있는 시스템이면, 어떠한 것이어도 상관없다. 예를 들어, ZFS 파일 시스템 등의 카피 온 라이트 방식의 파일 시스템을 단말의 기동 디스크로서 마운트하는 경우나, 다른 가상 머신 프로그램의 스냅숏 기능을 사용해도 된다.
10 : 마스터 서버
13 : 스위칭 허브
15 : 액세스 포인트
20 : 복수의 단말 (20a, 20b,···)
30 : 무선 LAN

Claims (11)

  1. 적어도 1 대의 마스터 서버와, 복수의 단말이 네트워크를 통하여 접속되고,
    상기 마스터 서버가 관리하는 OS 이미지 데이터, 또는 OS 이미지 데이터 및 그것에 대한 1 개 또는 복수의 차분 데이터를, 마스터 데이터로 하고, 그 카피 또는 소정의 디스크 포맷 형식으로 변환된 데이터가 상기 단말의 부트 이미지로서 배비 (配備) 되고,
    상기 마스터 데이터가 갱신되었을 때에는, 상기 단말이 가동하고 있는 상태에서, 상기 네트워크를 통하여 갱신 전의 마스터 데이터와의 차분 데이터를 상기 단말이 상기 네트워크를 통하여 상기 마스터 서버로부터 수취하고, 상기 단말이 재기동함으로써 상기 단말의 상기 부트 이미지가 갱신되는 것을 특징으로 하는 디스크 배신 시스템.
  2. 제 1 항에 있어서,
    상기 단말은, 상기 단말의 호스트명 및 IP 어드레스를 포함하는 각 단말의 고유 데이터 및 각 단말에 대한 기록 데이터, 디바이스 드라이버의 구성 정보 등을 상기 부트 이미지에 대한 차분 데이터로서 보유하는 차분 관리 기구를 구비하는, 디스크 배신 시스템.
  3. 제 2 항에 있어서,
    상기 차분 관리 기구는, 가상 디스크 시스템 또는 카피 온 라이트 방식의 파일 시스템인, 디스크 배신 시스템.
  4. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    상기 차분 데이터는, OOBE (Out-Of-Box Experience) 상태의 OS 이미지 데이터에 대한 차분 데이터인 것을 특징으로 하는 디스크 배신 시스템.
  5. 제 4 항에 있어서,
    상기 단말이 상기 단말용의 오퍼레이팅 시스템으로 최초로 기동할 때에 또는 기동 후 필요에 따라 필요한 디바이스 드라이버가 상기 단말용 오퍼레이팅 시스템의 커널에 판독 입력됨과 함께,
    디바이스 드라이버의 판독 입력이 완료된 상태에 상당하는 최신 OS 이미지 데이터를 OOBE 상태에 대한 차분 데이터로서 보유하는 것을 특징으로 하는 디스크 배신 시스템.
  6. 제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
    상기 단말은, 1 개 또는 복수의 라이트 캐시를 구비하는 것을 특징으로 하는 디스크 배신 시스템.
  7. 제 1 항 내지 제 6 항 중 어느 한 항에 있어서,
    상기 단말은, 상기 부트 이미지 또는 차분 데이터를 취급하기 위해서 사용되는 관리용 OS 를 구비하는 것을 특징으로 하는 디스크 배신 시스템.
  8. 제 1 항 내지 제 7 항 중 어느 한 항에 있어서,
    상기 단말은, 마스터 서버로부터 네트워크를 통하여 마스터 데이터 및 상기 마스터 데이터에 대한 차분 데이터의 카피를 수취하고, 상기 단말의 기동 디스크를 초기화하는 기능을 구비하는 것을 특징으로 하는 디스크 배신 시스템.
  9. 제 1 항 내지 제 8 항 중 어느 한 항에 있어서,
    상기 복수의 단말 중 1 대가, 마스터 서버로서도 기능하는 것을 특징으로 하는 디스크 배신 시스템.
  10. 제 1 항 내지 제 9 항 중 어느 한 항에 있어서,
    상기 마스터 서버는, 상이한 하드웨어 구성의 단말에 대하여, OOBE 상태의 OS 이미지로 변환하기 위한 차분 데이터를 배신하는 것을 특징으로 하는 디스크 배신 시스템.
  11. 제 10 항에 있어서,
    상기 단말은, 상기 마스터 서버로부터 하드웨어 구성이 상이한 다른 단말용 OS 이미지 데이터를 수취함과 함께, 상기 수취한 OS 이미지 데이터를 OOBE 상태의 OS 이미지 데이터로 변환하기 위한 차분 데이터를 수취하고, 그것들을 이용하여 단말을 기동하는 것을 특징으로 하는 디스크 배신 시스템.
KR1020157034128A 2014-11-01 2015-08-25 디스크 배신 시스템 KR101730291B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014223836 2014-11-01
JPJP-P-2014-223836 2014-11-01
PCT/JP2015/073831 WO2016067725A1 (ja) 2014-11-01 2015-08-25 ディスク配信システム

Publications (2)

Publication Number Publication Date
KR20160065046A true KR20160065046A (ko) 2016-06-08
KR101730291B1 KR101730291B1 (ko) 2017-04-25

Family

ID=55857071

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157034128A KR101730291B1 (ko) 2014-11-01 2015-08-25 디스크 배신 시스템

Country Status (6)

Country Link
US (1) US10341180B2 (ko)
JP (1) JP6072352B2 (ko)
KR (1) KR101730291B1 (ko)
CN (1) CN106030540B (ko)
TW (1) TWI582697B (ko)
WO (1) WO2016067725A1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10936719B2 (en) * 2016-09-23 2021-03-02 Apple Inc. Preserving trust data during operating system updates of a secure element of an electronic device
US9928056B1 (en) * 2016-10-10 2018-03-27 International Business Machines Corporation Operating system update management
US11074220B2 (en) * 2017-01-06 2021-07-27 Oracle International Corporation Consistent file system semantics with cloud object storage
US11126441B2 (en) * 2019-05-21 2021-09-21 Vmware, Inc. Management platform recovery for a user device
US11263021B2 (en) 2019-05-21 2022-03-01 Vmware, Inc. Management platform recovery for a user device
US11182141B2 (en) 2019-05-21 2021-11-23 Vmware, Inc. Management platform recovery for a user device
US11126419B2 (en) * 2019-05-21 2021-09-21 Vmware, Inc. Management platform recovery for a user device
US11132188B2 (en) * 2019-05-21 2021-09-28 Vmware, Inc Management platform recovery for a user device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009069326A1 (ja) 2007-11-26 2009-06-04 Co-Conv, Corp. ネットワークブートシステム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69801320T2 (de) 1997-10-06 2002-05-29 Powerquest Corp System und verfahren für punkt-zu mehrpunkt bildübertragung zwischen rechnern in einem netzwerk
JPH11249900A (ja) * 1998-02-27 1999-09-17 Toshiba Corp コンピュータシステム、同システムのブート方法および記録媒体
US7089300B1 (en) * 1999-10-18 2006-08-08 Apple Computer, Inc. Method and apparatus for administering the operating system of a net-booted environment
US20050180326A1 (en) * 2004-02-13 2005-08-18 Goldflam Michael S. Method and system for remotely booting a computer device using a peer device
US7716661B2 (en) * 2005-03-16 2010-05-11 Microsoft Corporation Embedded device update service
US7827394B2 (en) * 2006-12-14 2010-11-02 Hewlett-Packard Development Company, L.P. Methods and systems for configuring computers
US8132168B2 (en) * 2008-12-23 2012-03-06 Citrix Systems, Inc. Systems and methods for optimizing a process of determining a location of data identified by a virtual hard drive address
CA2709437C (en) * 2009-07-15 2015-12-08 Accenture Global Services Gmbh System image customization tool
KR101088673B1 (ko) * 2010-07-13 2011-12-01 인하대학교 산학협력단 클라이언트 단말 운영 시스템 및 방법
US8566541B2 (en) * 2010-09-14 2013-10-22 Hitachi, Ltd. Storage system storing electronic modules applied to electronic objects common to several computers, and storage control method for the same
US9141368B2 (en) 2011-03-10 2015-09-22 Microsoft Technology Licensing, Llc Managing boot loaders for virtual hard disks
US20120311279A1 (en) * 2011-06-02 2012-12-06 Toshiba America Information Systems, Inc. Data recovery and backup system and process
JP5175957B2 (ja) * 2011-08-09 2013-04-03 株式会社東芝 情報処理装置及びクライアント管理方法
TW201351283A (zh) * 2012-06-01 2013-12-16 Weltec Entpr Co Ltd 保全軟體更新系統與其方法
TW201421365A (zh) 2012-11-20 2014-06-01 Inventec Corp 重建差異虛擬磁碟檔以更新作業系統之系統及其方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009069326A1 (ja) 2007-11-26 2009-06-04 Co-Conv, Corp. ネットワークブートシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
미국 특허 제6,108,697

Also Published As

Publication number Publication date
JP6072352B2 (ja) 2017-02-01
TWI582697B (zh) 2017-05-11
CN106030540B (zh) 2019-02-15
US20170230237A1 (en) 2017-08-10
CN106030540A (zh) 2016-10-12
KR101730291B1 (ko) 2017-04-25
WO2016067725A1 (ja) 2016-05-06
TW201621642A (zh) 2016-06-16
JPWO2016067725A1 (ja) 2017-04-27
US10341180B2 (en) 2019-07-02

Similar Documents

Publication Publication Date Title
KR101730291B1 (ko) 디스크 배신 시스템
US10394656B2 (en) Using a recovery snapshot during live migration
TWI428830B (zh) 將機器轉換至虛擬機器的方法及電腦程式產品
EP2306320B1 (en) Server image migration
US9176744B2 (en) Quickly provisioning a virtual machine by identifying a path to a differential file during pre-boot
US9552217B2 (en) Using active/active asynchronous replicated storage for live migration
US7941470B2 (en) Synchronization and customization of a clone computer
US10089100B2 (en) Desktop image management for virtual desktops
US20150378771A1 (en) Using a delta query to seed live migration
US9354858B2 (en) Desktop image management for virtual desktops using on-demand stub creation
CN102591675A (zh) 使用共享存储块管理多软件镜像的方法和系统
JP2008084029A (ja) 仮想マシン管理システム
US9329855B2 (en) Desktop image management for virtual desktops using a branch reflector
US7506115B2 (en) Incremental provisioning of software
JP2007183708A (ja) サーバ装置、サーバ融通方法およびサーバ融通プログラム

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant