KR100281928B1 - A Super RAID System using PC Clustering Technique - Google Patents

A Super RAID System using PC Clustering Technique Download PDF

Info

Publication number
KR100281928B1
KR100281928B1 KR1019990006344A KR19990006344A KR100281928B1 KR 100281928 B1 KR100281928 B1 KR 100281928B1 KR 1019990006344 A KR1019990006344 A KR 1019990006344A KR 19990006344 A KR19990006344 A KR 19990006344A KR 100281928 B1 KR100281928 B1 KR 100281928B1
Authority
KR
South Korea
Prior art keywords
raid
disk
super
scsi
file
Prior art date
Application number
KR1019990006344A
Other languages
Korean (ko)
Other versions
KR20000056748A (en
Inventor
장성형
서상용
정부흥
Original Assignee
곽영훈
한국자원연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 곽영훈, 한국자원연구소 filed Critical 곽영훈
Priority to KR1019990006344A priority Critical patent/KR100281928B1/en
Publication of KR20000056748A publication Critical patent/KR20000056748A/en
Application granted granted Critical
Publication of KR100281928B1 publication Critical patent/KR100281928B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06F15/161Computing infrastructure, e.g. computer clusters, blade chassis or hardware partitioning

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은 피·씨(PC) 2대를 클러스터링 기술을 이용해서 하나의 시스템으로 통합하여 하드 디스크 용량이 144 GB인 슈퍼 레이드 시스템을 만들었으며, 슈퍼 레이드 시스템 하드웨어는 크게 본체 부분과 디스크 어레이 부분으로 구분되며 본체는 펜티엄 PC 2대로 구성하였다. 또한 디스크 어레이는 용량이 9GB인 스카시 디스크를 16개 사용한 것이며, 피·씨 중 하나는 여타 일반 PC 처럼 콘솔이 있으나, 나머지 하나는 키보드와 모니터를 부착하지 않은 무콘솔 시스템으로 구성되어진 피·씨 클러스터링 기술을 응용한 슈퍼 레이드 시스템이다.In the present invention, two PCs are integrated into one system by using clustering technology to create a super RAID system having a hard disk capacity of 144 GB. The super RAID system hardware is mainly divided into a main body portion and a disk array portion. The main body consists of two Pentium PCs. In addition, the disk array uses 16 SCSI disks with a capacity of 9 GB. One of the PCs has a console like other PCs, but the other is a PC clustering consisting of a console-free system without a keyboard and monitor. It is a super raid system using technology.

Description

피·씨 클러스터링 기술을 응용한 슈퍼 레이드 시스템{A Super RAID System using PC Clustering Technique}A super RAID system using PC clustering technique

본 발명은 일반적인 피·씨를 이용하여 안정적인 대용량 파일 서버 시스템을 구축하는 것에 관한 것이다.The present invention relates to building a stable large file server system using a general PC.

본 발명은 수백기가 바이트의 대용량 파일 서버 시스템 구축과 아울러 동 시스템에 대한 안정적인 운용을 행할 수 있도록 하는데 그 목적이 있는 것이다.An object of the present invention is to provide a large file server system of several hundred gigabytes and to perform stable operation of the system.

상기 목적을 달성하기 위해 슈퍼 레이드는 디스크 하나당 용량이 9GB 디스크 하나당 용량이 9GB 또는 18 GB인 초대형 스카시 디스크 8-10 개로 구성하고, 이와 같이 수많은 디스크를 PC를 이용하여 제어하기 위해 각 디스크마다 기본 파일 시스템을 구축하는 것이다.To achieve this goal, Super Raid consists of 8-10 SCSI disks with 9GB or 18GB of capacity per 9GB disk, and basic files for each disk to control a large number of disks using a PC. To build a system.

도 1 은 본 발명 슈퍼 레이드 시스템의 내부 구조도1 is a structural diagram of the superlaid system of the present invention

도 2 는 본 발명 수퍼 레이드 시스템의 하드 디스크 부분의 구조도2 is a structural diagram of a hard disk portion of the present invention superlaid system

도 3 은 본 발명 슈퍼 레이드 시스템이 캐비넷에 장착된 상태의 측면도Figure 3 is a side view of the present invention superlaid system mounted on the cabinet

도 4 는 본 발명 하드 디스크의 파티션을 결정하는 모습의 구성도4 is a configuration diagram of a mode for determining a partition of the hard disk of the present invention;

도 5 는 본 발명 레이드 시스템을 만드는 상태도5 is a state diagram making the present invention raid system

도 6 은 본 발명 레이드 제로의 파티션 테이블의 상태도6 is a state diagram of the partition table of the present invention RAID zero;

도 7 은 본 발명 레이드 시스템의 파일 시스템의 구성도7 is a configuration diagram of a file system of the present invention raid system

도 8 은 본 발명 정기적인 온라인 백업 스크랩트의 구성도8 is a block diagram of the present invention, a regular online backup scrap.

〈도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for main parts of the drawings>

첨부된 도면에 의거하여 본 발명의 구성 및 작용을 상세히 설명하면 다음과 같다.Referring to the configuration and operation of the present invention in detail based on the accompanying drawings as follows.

도 1 은 본 발명 슈퍼 레이드 시스템의 내부 구조도,1 is an internal structural diagram of a superlaid system of the present invention;

도 2 는 본 발명 수퍼 레이드 시스템의 하드 디스크 부분의 구조도,2 is a structural diagram of a hard disk portion of the present invention superlaid system,

도 3 은 본 발명 슈퍼 레이드 시스템이 캐비넷에 장착된 상태의 측면도,3 is a side view of a state in which the superlaid system of the present invention is mounted in a cabinet;

도 4 는 본 발명 하드 디스크의 파티션을 결정하는 모습의 구성도,4 is a configuration diagram of a mode for determining a partition of the hard disk of the present invention;

도 5 는 본 발명 레이드 시스템을 만드는 상태도,5 is a state diagram making the present invention raid system,

도 6 은 본 발명 레이드 제로의 파티션 테이블의 상태도,6 is a state diagram of a partition table of the present invention RAID zero;

도 7 은 본 발명 레이드 시스템의 파일 시스템의 구성도,7 is a configuration diagram of a file system of the present invention raid system,

도 8 은 본 발명 정기적인 온라인 백업 스크랩트의 구성도를 도시한 것이다.8 shows a schematic diagram of the present invention's regular online backup scrap.

디스크 용량이 각각 72GB인 레이드 파일 시스템을 PC 2대를 이용하여 구축하고, 이들을 클러스터링 기술을 이용하여 하나의 시스템으로 통합시킴으로써 총 144GB인 슈퍼 레이드 시스템을 제작하되,A RAID file system with 72GB of disk capacity was built using two PCs and integrated into one system using clustering technology to create a superlaid system with a total of 144GB.

상기 슈퍼 레이드 시스템 하드웨어는 본체 부분과 디스크 DJP이 부분으로 구성하되, 본체는 PC 2대로, 디스크 어레이는 용량이 9GB인 스카시 디스크를 16개 사용하되 하나는 콘솔이 있고, 다른 하나는 키보드와 모니터를 부착하지 않은 콘솔로 구성하는 것으로 이루어진 것이다.The super RAID system hardware is composed of a main body and a disk DJP, the main body is 2 PCs, the disk array uses 16 SCSI disks of 9GB capacity, one console, the other keyboard and monitor It consists of a console that is not attached.

본 발명의 작용은 다음과 같다.The operation of the present invention is as follows.

파일 서버 본체는 마스터 및 슬레이브 서버를 각각 ASUS P54SPA와 ASUS P2B을 메인 보드로 선택하였고 주 기억 장치는 펜티엄 333MHZ와 150MHZ,메모리는 마스터 서버의 경우 64MB 2개로 이루어진 128 MB와 슬레이브 서버의 경우 32MB 4개로 128MB를 구성하였다.The main body of the file server has ASUS P54SPA and ASUS P2B as the main board and the master memory as the main memory, Pentium 333MH Z and 150MH Z, 128MB of two 64MB for the master server and 32MB for the slave server. Four were configured for 128MB.

도 1에 도시한 바와 같이 오른쪽 하단에는 CPU가 선풍기에 쌓여 있고, 왼쪽 아래서부터 위쪽으로 VGA(video graphics array) 어댑터, 랜(LAN)카드, 스카시(SCAI) 콘트롤러 두 개가 차례로 부착되어 있다. 상부 캐비넷은 전원장치,IDE 하드 디스크 드라이브, 프로피 디스크 드라이버를 장착하고 있다. IDE 타입 하드 디스크는 시스템 운영 체제를 가장 손쉽게 탑재할 수 있도록 하기 위한 것이며 랜 카드는 3C595 Vortex 100baseTX로 이것은 대용량 자료의 입출력을 위한 것이다.As shown in FIG. 1, a CPU is stacked in a fan at the bottom right, and a VGA (video graphics array) adapter, a LAN card, and two SCSI controllers are sequentially attached from the bottom left to the top. The upper cabinet is equipped with a power supply, IDE hard disk drive, and profile disk driver. IDE type hard disks are the easiest to mount the system operating system, and the LAN card is 3 C 595 Vortex 100baseTX, which is for input and output of large data.

ASUS 메인 보드는 4개의 PCI슬롯과 3개의 ISA 슬롯으로 이루어져 있다. PCI슬롯에는 2개의 스카시 카드와 LAN 카드 그리고 VGA 어댑터를 장착하였다. 2개의 스카시 카드는 각각 4개의 9GB용량 스카시 디스크 드라이버를 연결하여 총 72GB 용량을 콘트롤할 수 있게 하였다. 키보드,VGA카드 ,모니터,플로피 디스크 드라이브, 그리고 케이스 등은 일반 PC에서 볼 수 있는 기본 장비들이다.The ASUS motherboard consists of four PCI slots and three ISA slots. The PCI slot has two SCSI cards, a LAN card and a VGA adapter. The two SCSI cards connect four 9GB SCSI disk drivers each to control a total of 72GB. Keyboards, VGA cards, monitors, floppy disk drives, and cases are the basic devices found on a typical PC.

특히 슬레이브 서버의 경우 키보드와 모니터를 장착하지 않은 상태이고 VGA 카드는 파일서버의 상태를 검사하는데 필요하기 때문에 고선은 고가의 카드르 장착할 필요는 없다. 케이스는 본체를 담을 뿐만 아니라 시스템의 전원 공급 장치를 포함한다. 여기에서는 시스템의 분해와 조립이 용이하도록 데스탑형 대신 타워형을 채택하였으며 특히 시스템 확장시를 대비해 전원 공급 장치의 용량에 중점을 두었다. 본 케이스 전원 공급 용량은 340W인데 이것은 스카시 디스크 5개에 무리없이 전원을 공급하여 준다.In particular, slave servers are not equipped with keyboards and monitors, and VGA cards are needed to check the status of the file server. The case not only holds the body but also contains the power supply of the system. In this case, the tower type is adopted instead of the desktop type to facilitate the disassembly and assembly of the system. In particular, the capacity of the power supply unit is focused on the system expansion. The power supply for this case is 340W, which powers five SCSI disks.

FS144G-2에 이용된 하드디스크는 스카시 방식인 9GB로 ST93173N 8개와 ST1917N 8개로 이루어졌다. 마스터 서버 및 슬레이브 서버의 디스크는 1개의 스카시 콘트롤러에 4개의 스카시 디스크 드라이버를 연결하였다. 스카시 콘트롤러는 AHA2940UW 2개와 AH2940U 2개로 이루어져있다. AHA2940UW는 와이드 방식을 지원하여 15개의 스카시 디스크드라이버를 동시에 연결할 수 있으나 시스템의 안전성이나 자료의 입·출력시 시스템의 성능을 고려하여 4개의 디스크만 연결하였다. 스카시 하드 드라이버의 연결은 콘트롤러 자신을 0번으로 정할 경우 가까운 곳에서부터 1번, 2번, ...순으로 정하고 맨 마지막 장치에서는 마지막임을 나타내는 터미네이터 점퍼를 조정하여야 한다. 이와 같이 디스크를 4개씩 연결하여 디스크 어레이 케이스에 한줄에 8개씩 도 2에 도시한 바와 같이 장착하였다.The hard disk used in the FS144G-2 is a SCSI-based 9GB, consisting of eight ST93173N and eight ST1917N. The disks of the master server and the slave server connected four SCSI disk drivers to one SCSI controller. The SCSI controller consists of two AHA2940UW and two AH2940U. The AHA2940UW supports 15 different SCSI disk drivers at the same time by supporting the wide method, but only 4 disks are connected in consideration of system safety and performance of the system for data input and output. If you set the controller hard to 0, then the SCSI hard drive must be connected in the order of 1, 2, ... from the nearest one, and the terminator jumper must be adjusted to indicate that it is the last on the last device. In this way, four disks were connected, and eight disks were mounted in the disk array case as shown in FIG. 2.

기본 파일 시스템의 구축에서 장치 파일 만들기는 다음과 같다.Creating a device file in building a basic file system looks like this:

Slackware나 RedHat등 표준 리눅스 배포본은 기본적으로 제공하는 스카시 디스크 장치 파일의 수가 한정되어 있어서 하나의 시스템당 제어 가능한 디스크 수가 제한되어 있다. 예로써 Slackware가 제공하는 스카시 디스크 장치 파일은 /dev/sda 부터 /dev/sdh 까지이고 RedHat가 제공하는 장치 파일은 /dev/sda 부터 /dev/sdg 까지 뿐이다. 즉, Slackware를 사용하는 경우 총 8개의 스카시 디스크를 제어할 수 있고 만일 RedHat을 사용한다면 그보다 하나 더 적은 7개의 스카시 디스크만 제어할 수 있다. 이와 같이 다량의 스카시 디스크를 제어하려면 소프트웨어 한계를 극복할 수 있는 대책이 요구된다. 이러한 문제는 관련 장치 파일을 손수 만들어줌으로써 해결할 수 있다. 스카시 디스크 장치 파일을 하나의 명령으로 만드는 쉘 스크립트 makesd를 작성하였다.Standard Linux distributions such as Slackware and RedHat have a limited number of SCSI disk device files provided by default, which limits the number of disks that can be controlled per system. For example, the SCSI disk device files provided by Slackware are from / dev / sda to / dev / sdh, and the device files provided by RedHat are only from / dev / sda to / dev / sdg. In other words, if you use Slackware, you can control a total of eight SCSI disks. If you use RedHat, you can control only seven SCSI disks. Controlling large amounts of SCSI disks requires measures to overcome software limitations. This problem can be solved by manually creating the relevant device files. I've written a shell script that makesd a SCSI disk device file as a command.

스크립트의 사용법은 다음과 같다.The usage of the script is as follows.

# makesd device 인데, 여기에서 makesd 는 본 프로그램의 이름이고 device 는 만들고자하는 스카이 장치 파일이다. 리눅스 커널은 sda 부터 sdp까지 최대 16개의 스카시 디스크를 제어할 수 있다. 본 프로그램은 원(raw) 장치 파일과 그 첫번째 파티션을 제어하는 장치 파일을 동시에 만든다.# makesd device, where makesd is the name of the program and device is the sky device file you want to create. The Linux kernel can control up to 16 SCSI disks, from sda to sdp. The program creates both a raw device file and a device file that controls the first partition.

예로써 제 8번 스카시 디스크를 제어하려고 makesd sdh라 명령을 준다면 sdh 외에 sdh1까지도 동시에 만든다. 물론 장치 파일이 이미 만들어졌다면 중복해서 만들지는 않는다. 본 프로그램은 시스템 관리자 계정(root)에서 수행시켜야한다.For example, the command makesd sdh to control the 8th SCSI disk will create sdh1 in addition to sdh. Of course, if a device file has already been created, it will not be duplicated. This program should be run from the system administrator account (root).

파일 시스템 구축은 다음과 같다.The file system construction is as follows.

다수의 디스크를 RAID로 묶기 위해서는 우선 각 디스크마다 파일 시스템을 먼저 구축해야한다. 파일 시스템의 구축은 리눅스 표준 명령인 fdisk 와 mk2fs를 사용하는데 여기에서는 이러한 기본 파일 시스템 구축법을 기술한다.To bundle multiple disks with RAID, you must first build a file system on each disk. Building file systems uses the Linux standard commands fdisk and mk2fs, which describe how to build these basic file systems.

파일 시스템을 구축하는데 맨 첫 번째 사용하는 프로그램은 fdisk이다. 이 프로그램은 보통 대화식으로 사용하는데 매우 많은 기능을 제공한다. 다양한 기능 중 본 슈퍼 레이드용 파일 시스템 구축에 자주 사용하는 메뉴들은 파티션 추가, 파티션 삭제, 파티션 내용 열람, 작업 취소, 파티션 정보 디스크 저장, 그리고 도움말 보기 등 총 여섯 가지 이다.The first program used to build a file system is fdisk. This program is usually used interactively and provides a lot of functionality. Among the various functions, there are six menus that are frequently used to build the file system for this super RAID: add partition, delete partition, view partition contents, cancel operation, save partition information disk, and view help.

예로써 시스템의 첫 번째 스카시 디스크 /dev/sdh에 파티션을 구축한다면 관리자 계정으로 로긴한 상태에서 우선For example, if you are building a partition on the system's first SCSI disk, / dev / sdh, you must first log in with an administrator account.

/sbin/fdisk /dev/sdh/ sbin / fdisk / dev / sdh

라고 명령을 입력한다. 파티션 나누기 작업중 최초 단계는 기존 파티션 정보를 열람하는 것이며 이는 p 명령을 주면 된다. 새로 구입한 디스크는 대부분 파티션이 DOS 용으로 설정되어 있다. 따라서 두 번째 작업은 기존 파티션을 지우는 것이며, 이는 d 명령을 입력한 후 프로그램이 대화식으로 물어 보는 삭제 대상 파티션 번호를 지정함으로써 실시한다. 보통 새로 구입한 디스크에는 여러개의 파티션이 들어있는데 d 명령을 그 수만큼 반복해야 한다. 기존 파티션을 모두 삭제한 후에는 n 명령으로 파티션 추가 옵션을 선택한다. 프로그램은 추가시킬 파티션 타입이 기본(primary) 파티션인지 아니면 확장(extended) 파티션인지를 물어보는데, 여기에 p로 대답함으로써 그것이 기본 파티션임을 가르켜준다. 계속해서 추가시킬 파티션 번호를 물어오면 1 이라고 대답하고, 파티션이 시작하는 실린더 번호를 1로, 파티션 끝의 실린더 번호를 디스크의 최종 실린더 번호로 답한다.Enter the command. The first step in partitioning is to retrieve the existing partition information, which you can issue with the p command. Most new disks are partitioned for DOS. Therefore, the second task is to delete the existing partition, which is done by entering the d command and specifying the partition number to be deleted that the program asks interactively. Usually a newly purchased disk contains several partitions, and the d command must be repeated that many times. After deleting all existing partitions, use the n command to select the add partition option. The program asks if the partition type to be added is a primary partition or an extended partition. Answer p to indicate that it is the primary partition. When asked for the partition number to add, answer 1, answer the cylinder number at the beginning of the partition as 1, and the cylinder number at the end of the partition as the last cylinder number on the disk.

도 4는 기존 파티션을 전부 삭제한 후부터 새로운 기본 파티션 하나를 만들고, 만들어진 파티션 정보의 열람까지의 fdisk 프로그램과의 대화 내용이다. 새로 만든 파티션 정보를 디스크에 저장하려면 w 명령을 사용한다. 본 슈퍼 레이드 시스템은 가용 공간을 극대화 시키기 위해 각 디스크에 하나의 파티션 만을 둔다.4 shows the contents of the dialogue with the fdisk program from deleting all existing partitions to creating a new basic partition and viewing the created partition information. To save the newly created partition information to disk, use the w command. This super RAID system has only one partition on each disk to maximize available space.

RAID는 여러개의 파일 시스템을 하나로 묶음으로써 대형 파일 시스템을 이루고 또 병렬식 입출력을 가능케 함으로써 입출력 성능을 향상시킨다. 따라서 RAID 구축에 앞서 각 디스크에 개별 파일 시스템을 구축해야한다. 리눅스 파일 시스템 구축은 mke2fs 프로그램을 사용하는데 예로써 /dev/sdh1 에 기본 파일 시스템을 구축하려면RAID improves I / O performance by tying several file systems together to form a large file system and enabling parallel I / O. Therefore, a separate file system must be built on each disk before building a RAID. Building a Linux file system uses the mke2fs program. For example, to build a basic file system in / dev / sdh1

# /sbin/mke2fs -c /dev/sdh1# / sbin / mke2fs -c / dev / sdh1

이라고 명령을 주면 된다. 여기에서 `-c' 는 프로그램 mke2fs 에게 손상된 블록(bad block)을 검사하고, 좋은 블록들만으로 파일 시스템을 구축하도록 지시하는 옵션이다.You can give a command. Here `-c 'is an option that tells the program mke2fs to check for bad blocks and build a file system with only good blocks.

주의할 것은 디스크의 파티션 정보를 변경하거나 새로 파일 시스템을 만들면 현재 디스크에 들어있는 자료가 전부 파괴된다. 따라서 fdisk 나 mke2fs 프로그램들은 그 사용전에 철저한 확인이 필요하다.Note that changing the partition information on the disk or creating a new file system destroys all data currently on the disk. Therefore, fdisk or mke2fs programs need to be thoroughly checked before use.

슈퍼 레이드 구축을 살펴보면 다음과 같다.Looking at the super raid deployment as follows.

커널에 레이드 드라이브 추가 리눅스 RAID를 구축하기 위해서는 커널에 RAID 드라이브를 추가해야하는데 다음은 커널에 RAID 추가법을 설명한다.Adding RAID Drives to the Kernel To build a Linux RAID, you need to add RAID drives to the kernel. The following explains how to add RAID to the kernel.

시스템의 리눅스 커널 소스 디렉토리 /usr/src/linux에서 # make menuconfig# Make menuconfig in the Linux kernel source directory / usr / src / linux on your system

명령을 수행하여 초기 대화 상자인 Main Menu 를 화면에 표시한다. 메뉴의 첫번째 옵션인 ``Code maturity level options'' 를 선택하여 관련 부속 메뉴로 진입한 후 ``Prompt for development and/or incomplete code/drivers'' 옵션을 설정하고 다시 Main Menu로 빠져 나온다.Run the command to display the initial dialog box, Main Menu. Select the first option from the menu, `` Code maturity level options '', enter the relevant submenu, set the `` Prompt for development and / or incomplete code / drivers '' option, and exit back to the Main Menu.

또 ``Floppy, IDE, and other block devices'' 메뉴로 진입하여 Additional Block Devices 아래 나오는 ``Multiple Devices driver support''와 RAID-0를 내장(built-in) 모드로 선택한다.(도 5) 그림에서 보는 바와 같이 리눅스는 RAID-0 외에 Linear, RAID-1, RAID-4/5등 다양한 레벨의 RAID를 지원하나 본 슈퍼 레이드 시스템은 입출력 성능과 가용 공간을 극대화 시키도록 기본적으로 RAID-0를 채택하고 있다.In addition, go to the `` Floppy, IDE, and other block devices '' menu and select `` Multiple Devices driver support '' and RAID-0 as the built-in mode under Additional Block Devices (Figure 5). As shown in the figure, Linux supports various levels of RAID such as Linear, RAID-1, RAID-4 / 5 in addition to RAID-0, but this super RAID system basically uses RAID-0 to maximize I / O performance and available space. Adopted.

도 5는 레이드에 관한 컴파일 옵션 선택 작업을 종료한 후에는 make zImage 명령으로 커널 컴파일을 실시하고, 컴파일이 정상적으로 이루어졌다면 make zlilo 명령으로 새로 만든 커널을 설치한다. 물론 새 커널은 시스템이 재가동된 후에 비로소 작동한다. 만일 커널 설정시 모쥴 드라이브들을 선택하였다면 make modules 와 make modules\_install 명령을 차례로 실행시켜 모쥴의 컴파일과 설치를 해야한다.FIG. 5 shows how to compile a kernel with the make zImage command after finishing the compilation option selection process for the raid, and if the compilation is successful, install the newly created kernel with the make zlilo command. The new kernel, of course, only works after the system is restarted. If you selected module drivers during kernel configuration, you must run make modules followed by make modules \ _install to compile and install the modules.

레이드 제어 툴의 컴파일과 설치는 다음과 같다.Compile and install the RAID control tool as follows.

레이드 드라이브를 포함한 커널을 만든 후에는 그것을 작동시키는 소프트웨어 툴을 설치해야한다. 현재 공개된 리눅스 레이드 툴은 md035 이다. 그런데 md035는 리눅스 커널 2.0.34와 그 이전 버젼의 커널에서만 작동하며 커널 버젼 2.0.35 부터는 일부 소프트웨어 변경에 따른 컴파일 오류가 발생하므로 이를 새로운 커널에서도 컴파일이 가능하도록 수정할 필요가 있다.Once you have a kernel with a RAID drive, you need to install the software tools that make it work. The current Linux Raid tool is md035. However, md035 only works with Linux kernel 2.0.34 and earlier kernels. Since kernel version 2.0.35, compilation errors occur due to some software changes, so it is necessary to modify it to be able to compile with a new kernel.

소스 코드 분석을 통해 crc.c, mdadd.c, mdcreate.c 및 mdparse.c등 총 4 개의 파일을 수정해야함을 알았고 수정 이전과 이후의 차이점을 Unix 소스 관리 툴중 하나인 diff 프로그램으로 종합한 패치(patch)파일을 작성하여 이를 부록에 표시하였다. 레이드 제어 툴을 설치하는 방법은 다음과 같다. 우선 md035 를 다운로드 받아서 시스템의 적당한 곳, 예를 들면 /usr/local/src 에 풀어 놓는다. 이때 사용하는 명령은Analysis of the source code revealed that four files, crc.c, mdadd.c, mdcreate.c, and mdparse.c, need to be modified. I created a patch file and indicated it in the appendix. Here's how to install the RAID control tool: First download md035 and unpack it in a suitable place on your system, for example / usr / local / src. The command used at this time

tar xvzf md035.tar.gz 이다. 위 명령을 사용하면 md035 라는 디렉토리가 생기며 모든 소스 파일들이 그 디렉토리 속에 생성된다. 다음으로 만들어진 md035 디렉토리로 이동한 후tar xvzf md035.tar.gz This command creates a directory called md035 and creates all the source files in that directory. Navigate to the md035 directory created next

% patch -p0 〈 ../md035to036.diff 라고 명령을 주면 crc.c, mdadd.c, mdcreate.c 및 mdparse.c 등 4개의 파일이 자동적으로 수정된다.% patch -p0 <../md035to036.diff will automatically modify four files: crc.c, mdadd.c, mdcreate.c, and mdparse.c.

소스 파일들을 수정한 다음에는 컴파일과 설치인데 이는 다음 명령들을 차례로 주면 된다.After modifying the source files, compile and install.

% make% make

% su% su

# make install# make install

위의 첫번째 명령은 레이드 툴들을 컴파일하는 것인데 정상적인 경우 mdcreate 와 mdadd 등 두개의 실행 파일이 만들어진다.The first command above compiles the raid tools. Normally two executables are created, mdcreate and mdadd.

두번째 명령은 시스템 관리자 권한을 획득하는 것이다.(물론 패스워드를 물어 올때 시스템 관리자 패스워드를 정확히 입력해야 함)The second command is to gain system administrator privileges (you must enter the system administrator password correctly when asked for a password, of course).

세번째 명령은 생성된 실행 파일들을 시스템 영역 (/sbin)에 설치하며, mdrun 과 mdstop 등 두개의 명령을 mdadd 에 링크시키고, madd 메뉴얼을 설치하며 끝으로 4개의 레이드 장치 파일 /dev/md0, /dev/md1, /dev/md2, /dev/md3 을 만든다.The third command installs the generated executables in the system area (/ sbin), links two commands, mdrun and mdstop, to mdadd, installs the madd manual, and finally finishes the four RAID device files / dev / md0, / dev Create / md1, / dev / md2 and / dev / md3.

레이드 구성과 파일 시스템 구축은 다음과 같다.RAID configuration and file system construction are as follows.

레이드의 구성은 레이드 툴중 하나인 mdcreate 를 이용해서 실시한다.Raid configuration is done using mdcreate, one of the raid tools.

프로그램 mdcrate의 일반적 사용법은The general usage of the program mdcrate is

mdcreate [-c size] personality md\_dev dev0 dev1 ...mdcreate [-c size] personality md \ _dev dev0 dev1 ...

인데, 여기에서 size는 레이드 청크(chunk)의 크기를 페이지 크기(i386 리눅스에서 페이지 크기는 4096 바이트)의 n승으로 나타낸다. 한편 숫자 뒤에 'k'를 붙여서 청크 크기를 1,024 바이트 단위로도 표시할 수 있다. 이경우 청크 크기는 반드시 2의 승수여야한다.Where size represents the size of the RAID chunk as the n power of the page size (page size is 4096 bytes on i386 Linux). The chunk size can also be expressed in units of 1,024 bytes by appending 'k' to the number. In this case, the chunk size must be a multiplier of two.

personality 는 linear, raid0, 또는 raid1 중 하나이다.personality can be either linear, raid0, or raid1.

md\_dev 는 구성하고자 하는 레이드 장치 파일(예: /dev/md0)을 이고, dev0 .... 는 /dev/sda1 ... 등 레이드를 구성하는 기본 디스크 장치 파일들이다. 예로써 9GB 스카시 디스크 /dev/sda1 부터 /dev/sdd1 까지 4개를 청크 크기 32 Kbyte의 RAID0로 묶어 /dev/md0 를 만들려면 mdcreate -c32k raid0 /dev/md0 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 이라고 명령을 준다. mdcreate 명령은 실행 결과를 /etc/mdtab 이라는 파일에 간직하는데 도 6은 실제 레이드가 구축된 시스템의 파일 내용이다.md \ _dev is the RAID device file you want to configure (eg / dev / md0), and dev0 .... are the basic disk device files that make up the blade, such as / dev / sda1 .... For example, to create / dev / md0 with four 9GB SCSI disks / dev / sda1 through / dev / sdd1 in 32 chunks of RAID0, create mdcreate -c32k raid0 / dev / md0 / dev / sda1 / dev / sdb1 / give the command dev / sdc1 / dev / sdd1 The mdcreate command keeps the execution result in a file called / etc / mdtab. FIG. 6 shows the contents of the file of the system where the real blade is built.

도 6은 청크에 관한 것으로 청크 크기는 레이드 장치의 입출력 성능과 관계되는데 파일 시스템에 입출력하는 파일의 평균 크기와 레이드를 구성하는 물리적 장치 수에 따라 결정해야 한다. 즉, 청크 크기에 디스크 수를 곱한 것이 평균 파일 크기와 비슷하도록 설정하면 좋다. 만일 청크 크기가 너무 크다면 입출력이 병렬로 이루어지는 대신 어느 일부 디스크만을 집중적으로 사용할 가능성이 있고, 반면에 청크 크기가 너무 작다면 동일한 디스크에 여러 번의 입출력이 수행될 것이다. 한편 시스템에 동시에 작동하는 프로세스 수가 많을때는 거의 무작위로 디스크 입출력이 발생함에따라 로드 발란스 (load balance)가 저절로 이루어진다.6 illustrates a chunk. The chunk size is related to the input / output performance of the RAID device. The chunk size should be determined according to the average size of a file input / output to the file system and the number of physical devices configuring the RAID. In other words, multiply the chunk size by the number of disks to make it similar to the average file size. If the chunk size is too large, it is possible to use only some disks intensively instead of parallelism, whereas if the chunk size is too small, multiple I / Os will be performed on the same disk. On the other hand, when the system has a large number of processes running simultaneously, the load balance occurs automatically as disk I / O occurs almost randomly.

프로그램 mdcreate 를 이용하여 mdtab 을 만든 후에는 mdadd 명령으로 새로 구성된 레이드를 커널에 등록시키고 또 가동시켜야 하는데, 이것은After creating an mdtab using the program mdcreate, the mdadd command registers the newly configured blade with the kernel and starts it up.

mdadd -armdadd -ar

와 같이 명령을 주면 된다.You can give a command like this:

구축된 레이드 장치에 파일 시스템을 만드는 것은 기본 파일 시스템 구축과는 달리 fdisk 작업을 생략한다. 또 손상된 블록 검사도 이미 기본 시스템 구축시 수행한 것이므로 따로 할 필요가 없다. 따라서 /dev/md0 에 파일 시스템을 구축하고 마운트 포인트 /u0를 만들고 거기에 마운트하는 과정은Creating a file system on a built RAID device omits the fdisk operation, unlike building a basic file system. In addition, the damaged block check is already performed when the basic system is built, so there is no need to do it separately. So the process of building a file system on / dev / md0, creating a mount point / u0 and mounting it there

mke2fs -b 4096 /dev/md0mke2fs -b 4096 / dev / md0

mkdir /u0mkdir / u0

mount /dev/md0 /u0mount / dev / md0 / u0

와 같다. 위의 첫번째 명령 mke2fs 에서 옵션 -b 4096 은 블록 크기가 4,096 바이트인 파일 시스템을 만들라는 것이다.Same as In the first command mke2fs above, the option -b 4096 tells you to create a file system with a block size of 4,096 bytes.

리눅스 표준 블록 크기는 1,024 바이트인데 이와 같이 블록 크기를 크게 잡은 이유는 대용량 파일 시스템의 성능과 안정성을 고려한 것이다.The standard Linux block size is 1,024 bytes. The reason for the large block size is to consider the performance and stability of large file systems.

참고로 Cray C90 시스템의 표준 블록 크기는 4,096이다.For reference, the standard block size for the Cray C90 system is 4,096.

레이드 파일 시스템의 fstab 등록은 다음과 같다.The fstab registration of the RAID file system is as follows.

구축한 레이드 파일 시스템을 시스템 부팅시 자동 또는 반자동으로 마운트하려면 시스템의 fstab과 관련 쉘 스크립트가 필요한데 여기에서는 우선 fstab에 대해 알아본다.To mount your RAID file system automatically or semi-automatically at system boot time, you need the system's fstab and its associated shell scripts.

도 7은 md0 와 md1등 두개의 레이드 파일 시스템을 포함한 /etc/fstab 의 내용이다. fstab의 제 1 칼람은 장치 이름이고, 제 2 칼람은 마운트 포인트이며, 제 3 칼람은 파일 시스템 종류(type)이고, 제 4 칼람은 마운트 옵션이다. 계속해서 제 5 칼람은 dump 프로그램이 사용하는 백업 스위치이고, 제 6 칼람은 파일 시스템의 마운트 순서이다.Figure 7 shows the contents of / etc / fstab including two RAID file systems, md0 and md1. The first column of fstab is the device name, the second column is the mount point, the third column is the file system type, and the fourth column is the mount option. The fifth column is the backup switch used by the dump program, and the sixth column is the mount order of the file system.

도 7은 파일 시스템을 나타낸 것으로 상기 fstab 의 특징은 레이드 파일 시스템을 시스템 부팅시 자동으로 마운트하지 못하도록 마운트 옵션에 `noauto' 를 추가한 점이다. 물론 레이드 파일 시스템을 자동으로 마운트할 수 있으나 클러스링 환경에서 작동하는 슬레이브 호스트에는 자동 마운트가 불리하기 때문인데, 그에 관한 고찰은 시스템 관리에 나오는 부팅 절차에서 논한다.FIG. 7 illustrates a file system. The characteristic of the fstab is that `noauto 'is added to the mount option so that the RAID file system is not automatically mounted at system boot. Of course, it is possible to mount a RAID file system automatically, but automatic mounts are disadvantageous for slave hosts operating in a clustering environment, which is discussed in the boot procedure in System Management.

클러스터 환경의 시스템 관리를 살펴보면 다음과 같다.The system management of the cluster environment is as follows.

클러스터 환경에서 콘솔은 마스터 서버만 갖고 나머지 슬레이브 서버들은 부팅 상태를 네트웍으로 점검한다. 만일 클러스터 시스템에서 슬레이브 서버들이 예기치 못한 정전 등의 이유로 다운된 후 차후 부팅시 파일 시스템 검사에 실패해서 단일 사용자 모드로 전환된다면 아주 불편할 것이다. 이 경우에는 부팅에 실패한 시스템에 콘솔을 연결시켜 비교적 복잡한 파일 시스템 복구 과정을 거쳐야하기 때문이다. 따라서 클러스터링 환경에서는 시스템 가동에 필요한 최소한의 파일 시스템만 검사하여 그것이 올바로 되어 있다면 곧바로 다중 사용자 모드로 전환하고 네트웍을 가동시켜 여타 파일 시스템들을 네트웍 연결 상태에서 복구하는 것이 편리하다. 즉, 레이드 슈퍼 레이드 파일 시스템은 부팅시 자동 마운트를 하지 않고 다중 사용자 모드로 전환시킨 후 별도의 스크립트에서 파일 시스템 검사와 마운트를 수행하는 것이 요구된다.In a cluster environment, the console only has a master server and the rest of the slave servers check the boot status over the network. It would be very inconvenient if the slave servers in the cluster system went down due to an unexpected power outage and then failed the file system check on subsequent boot and went into single user mode. In this case, you have to connect the console to the system that failed to boot and go through a relatively complex file system recovery process. Therefore, in a clustered environment, it is convenient to check only the minimum file system needed to bring the system up and, if it is right, switch to multi-user mode and bring the network up to restore other file systems from the network connection. In other words, Raid Super RAID file system is required to perform file system check and mount in a separate script after switching to multi-user mode without automounting at boot time.

시스템 시작시 레이드 장치를 커널에 등록시키고, 파일 시스템을 검사하며, 모든 것이 정상이면 바로 마운트시키는 일련의 작업을 수행하는 쉘 스크립트 rc.md를 작성하였다. 스크립트의 일반적 사용법은We have written a shell script, rc.md, that registers the RAID device with the kernel at system startup, checks the file system, and performs a series of tasks to mount it if everything is OK. The general usage of the script is

rc.md [ -m module\_name ]rc.md [-m module \ _name]

인데 커널이 레이드 드라이브를 내장하고 있다면 rc.md라고 명령을 주고, 만일 RAID-0 드라이브를 모쥴로 컴파일 했다면 rc.md -m raid0.o 라고 명령을 준다. 스크립트는 레이드 장치를 커널에 등록시킨 후 /etc/mdtab 를 검사하여 거기에 적힌 레이드 파일 시스템들을 하나씩 차례로 마운트한다. 상기 rc.md 명령은 보통 rc.local 의 맨 처음에 삽입시키는 것이 좋다. 시스템 부팅의 성공 여부는 콘솔이 있는 중앙 시스템은 콘솔에 나타나는 메세지들을 보고 직접 확인이 가능하나 콘솔이 없는 여타 호스트들은 원격 모니터링으로 확인해야한다. 원격 모니터링 방법으로는 해당 호스트에 원격 로긴을 한 후 검사하는 법을 우선 생각할 수 있는데 이는 로긴 절차가 수반되므로 양간 불편하다. 원격 모니터링의 또 다른 방법은 클러스터를 이루는 모든 호스트들의 시스템 로그를 중앙 시스템으로 모아 한곳에서 일괄 모니터링하는 방법이다. 이 방법은 로그 호스트 하나만 로긴을 실시하고 나머지 호스트들에는 로긴을 안해도 되므로 클러스터 시스템의 모니터링에 편리한 방법이다. 시스템 로그를 별도의 로그 호스트에 보내는 방법과 또 다른 컴퓨터의 시스템 로그를 수신하는 방법등은 보안상 이유로 여기에서 생략하는데, syslogd 와 syslog.conf 메뉴얼에 나온다.If the kernel has a built-in RAID drive, say rc.md. If you compiled a RAID-0 drive as a module, give it rc.md -m raid0.o. The script registers the RAID device with the kernel, then checks / etc / mdtab and mounts the RAID file systems listed one after the other. The rc.md command is usually inserted at the very beginning of rc.local. The success of the system boot can be checked directly by the central system with the console by viewing the messages on the console, but other hosts without the console should be monitored by remote monitoring. As a remote monitoring method, it is possible to think first of how to check the remote login after the host, which is inconvenient because it involves the login procedure. Another method of remote monitoring is to collect system logs of all hosts in a cluster and centrally monitor them in one place. This method is convenient for monitoring the cluster system because only one log host needs to be logged in and the other hosts do not need to be logged in. For security reasons, how to send the system log to a separate log host and to receive the system log of another computer is omitted here for security reasons, see the syslogd and syslog.conf manuals.

시스템 폐쇄는 다음과 같다.The system closure is as follows.

일반적으로 컴퓨터에서 시스템 폐쇄(shutdown)는 시스템 정지(halt)와 시스템 재가동(reboot)등 두가지 중 하나를 의미한다. 시스템 정지를 수행하면 컴퓨터는 모든 작동을 중단하고 전원이 차단되기를 기다린다. 컴퓨터 부품을 교체하거나, 장시간 가동을 중단해야하는 경우에 수행하는 것이 바로 시스템 정지이다. 시스템 재가동은 현재 수행되는 모든 프로세스들을 중단시킨 후 다시 시스템을 시작하는 작업을 말한다. 시스템 재가동은 예방 정비(preventive maintenance)시 또는 소프트웨어 변경시 실행된다.In general, a system shutdown means one of two things: a system halt or a system reboot. If you perform a system stop, the computer stops all operations and waits for power to shut down. If you need to replace computer parts or shut down for a long time, it's time to stop the system. Restarting the system is the process of restarting the system after stopping all currently running processes. System restarts are performed during preventive maintenance or software changes.

한편 글러스터 내 모든 호스트들을 신속히 정지시켜야하는 긴급 사태가 발생할 수 있다. 그런데 시스템 정지를 위해 각 호스트마다 원격 로긴을 하고On the other hand, there may be an emergency that requires all hosts in Gloucester to be stopped quickly. But in order to stop the system, each host has a remote login.

shutdown -h nowshutdown -h now

등 명령으로 시스템 정지 작업을 수행한다면 매우 번거롭고 시간도 오래 걸린다. 따라서 원격 로긴 절차 없이 곧바로 원격 컴퓨터를 폐쇄시킬 수 있는 방법이 강구되어야 한다. 클러스터 환경에서 모든 컴퓨터들을 신속히 정지시키는 방법으로 특정 TCP 포트를 사용하는 방법을 고안했다. 본 방법은 원격 폐쇄 대상 호스트의 TCP 포트 67 과 68을 사용한다. 즉 미리 지정한 특정 호스트에서 이들 포트에 TCP 접속을 요구하면 아무런 로긴 절차없이 곧바로 시스템 폐쇄 명령 `shutdown -h now' 또는 `shutdown -r now' 등 명령을 수행하도록 하는 것이다.It can be very cumbersome and time consuming to stop the system using the iso command. Therefore, a method to close the remote computer immediately without a remote login procedure must be devised. We devised a way to use a specific TCP port as a way to quickly stop all computers in a clustered environment. This method uses TCP ports 67 and 68 of the host for remote closure. In other words, if a specific host specified requires a TCP connection to these ports, it will immediately execute the system shutdown commands `shutdown -h now 'or` shutdown -r now' without any login procedure.

이러한 환경 설정을 하기 위해서는 /etc 디렉토리에 있는 services, inetd.conf, hosts.allow, hosts.deny 등 총 4개의 파일을 수정하면 된다.To configure this environment, you need to modify four files in the / etc directory: services, inetd.conf, hosts.allow, hosts.deny.

즉, services 파일에That is, in the services file

reboot 67/tcp # shutdown -r nowreboot 67 / tcp # shutdown -r now

halt 68/tcp # shutdown -h nowhalt 68 / tcp # shutdown -h now

와 같은 두 줄을 추가하여 TCP 포트 67의 별명을 `reboot'라 만들고 TCP 포트 68의 별명을 `halt' 라 붙인다. 원래 이들 포트는 BOOTP 서버와 BOOTP 클라이언트용으로 배정된 것인데 본 슈퍼 레이드 시스템은 이것을 그러한 용도로 사용하지 않으며, 또 부팅과 관계가 밀접하므로 이러한 포트 번호를 선택한 것이다.Add two lines, such as `reboot 'to alias TCP port 67 and` halt' to alias TCP port 68. Originally, these ports were reserved for BOOTP servers and BOOTP clients, and this super RAID system did not use them for that purpose and chose these port numbers because they were closely related to booting.

두번째는 inetd.conf 파일에The second is in the inetd.conf file

reboot stream tcp nowait root /usr/sbin/tcpd /sbin/shutdown -r nowreboot stream tcp nowait root / usr / sbin / tcpd / sbin / shutdown -r now

halt stream tcp nowait root /usr/sbin/tcpd /sbin/shutdown -h nowhalt stream tcp nowait root / usr / sbin / tcpd / sbin / shutdown -h now

라고 두 줄을 추가한다. 이것은 네트웍을 통해 포트 67 또는 68로 TCP 접속 요청이 들어오면 /usr/sbin/tcpd 라는 tcpwrapper를 가동시키라는 환경 설정이다.Add two lines. This is a configuration that starts a tcpwrapper named / usr / sbin / tcpd when a TCP connection request comes in on port 67 or 68 over the network.

프로그램 tcpd 는 hosts.allow 와 hosts.deny 에 정의된 호스트별 접근 권한을 검토한 후, 접속을 요구한 호스트에게 권한이 부여되었다면 `/sbin/shutdown -r now' 또는 `/sbin/shutdown -h now' 라는 명령을 각각 수행하게 된다.The program tcpd examines the host-specific access rights defined in hosts.allow and hosts.deny, and if the host requesting access is granted, `/ sbin / shutdown -r now 'or` / sbin / shutdown -h now Will execute each command.

물론 inetd.conf 파일의 수정 후에는 inetd 데몬을 재가동시켜야 만 이상의 효과가 있다.Of course, after modifying the inetd.conf file, restarting the inetd daemon will have more than the effect.

주의: inetd.conf에 위와 같은 변경을 가하는 것은 시스템 보안에 관련된다. 반드시 전문가의 도움을 받아 작업해야 한다.Note: Making such changes to inetd.conf is related to system security. You must work with the help of a professional.

한편 시스템 폐쇄는 컴퓨터 작동중 중단시키는 행위이므로 그 권한을 제한할 필요가 있다. 이러한 권한의 부여와 제한은 hosts.allow 와 hosts.deny 라는 두개의 파일을 통해 tcpwrapper가 수행한다. 예로써 로칼 호스트와 IP 주소 1.1.1.10 및 1.1.1.11을 갖는 호스트에게만 접근 권한을 주고 그 외의 모든 호스트들에게는 접근을 제한한다면 hosts.allow 를On the other hand, shutting down a system is an act of shutting down the computer, so its authority needs to be restricted. This permission is granted and restricted by tcpwrapper through two files: hosts.allow and hosts.deny. For example, if you only give access to local hosts and hosts with IP addresses 1.1.1.10 and 1.1.1.11, and restrict access to all other hosts, you can use hosts.allow

ALL: 127.0.0.1ALL: 127.0.0.1

ALL: 1.1.1.10, 1.1.1.11ALL: 1.1.1.10, 1.1.1.11

와 같이 만들고, hosts.deny 는Make it look like, hosts.deny

ALL: ALLALL: ALL

와 같이 만들면 된다. tcpwrapper를 이용한 호스트 별, 또는 도메인 별 접근 권한 부여 및 제한은 `man hosts\_access' 라는 명령으로 나오는 시스템 온라인 메뉴얼을 참조하기 바란다.You can make it like this: For more information about granting and restricting access by host or domain using tcpwrapper, see the system online manual, which is issued with the command `man hosts \ _access'.

위와 같이 환경을 설정했을 때 원격 호스트를 폐쇄시키는 명령은When the environment is configured as above, the command to close the remote host is

telnet hostname reboottelnet hostname reboot

telnet hostname halttelnet hostname halt

의 두가지 명령 중 하나를 사용하면 된다. 전자는 시스템의 재가동시 사용하고 후자는 시스템을 정지시킬 때 사용한다.You can use one of two commands. The former is used to restart the system and the latter to stop the system.

파일 시스템 복구는 다음과 같다.File system recovery is as follows.

시스템을 사용하다 보면 예기치 못한 정전 사태가 가끔씩 발생한다. 만일 갑작스럽게 전원이 차단되면 컴퓨터가 메모리에 간직한 내용이 디스크에 기록되지 않고 망실된다. 한편 리눅스 시스템은 디스크 자료 입출력을 async 모드로 수행함에따라 자료 입출력이 자료 갱신 때마다 즉시 발생하는 대신 상당한 시간 지연이 있다. 결국 갑작스런 정전은 디스크 파일 시스템의 손상을 가져온다. 리눅스는 시스템 부팅시 항상 파일 시스템이 정상적으로 폐쇄되었는지 여부를 검사고 만일 그렇지 않은 것이 발견되면 해당 파일 시스템의 복구 작업을 실시한다. 시스템이 수행하는 자동 복구는 디스크 손상이 가벼운 경우에만 성공한다.Unexpected power outages sometimes occur when using the system. If you suddenly lose power, the contents of the computer's memory will be lost instead of being written to disk. On the other hand, as Linux system performs disk data I / O in async mode, there is a significant time delay instead of instantaneous data I / O. In the end, sudden power failure can lead to corruption of the disk file system. Linux always checks whether a file system has been closed normally at system boot time and, if it is not found, performs recovery of that file system. The automatic recovery performed by the system will only succeed if the disk corruption is minor.

파일 시스템의 손상 종류는 두가지로 구분할 수 있는데 하나는 루트 파일 시스템의 손상이고 다른 하나는 기타 파일 시스템 손상이다. 만일 루트 파일 시스템이 손상되어 정상 복구에 실패했다면 rescue 디스크로 부팅한 후 이를 복구해야한다. 만일 그렇게 해서도 복구가 안된다면 OS를 다시 설치하는 수밖에 없다. 루트 파티션의 손상을 줄이기 위해서는 이곳에는 시스템 부팅과 관리에 필요한 최소한의 파일들만을 두는 것이다. 즉, 시스템 작동시 자주 갱신되는 파일들은 루트 파티션 이외의 곳에 저장함으로써 루트 파티션의 손상 가능성을 최소화 시켜야 한다. 한편 대부분의 파일 시스템 손상은 기타 파티션에서 발생한다. 손상된 파티션이 발견되면 시스템은 손상 내용을 콘솔에 보여주고 콘솔로부터 로긴을 기다린다. 손상 복구를 하려면 콘솔에서 관리자 계정(root)으로 로긴하고 `fsck -y device}' 과 같은 명령을 주면 되는데, 여기에서 device 는 복구시킬 파티션 이름이다.주의: 파티션 복구는 반드시 해당 장치가 umount 된 상태에서 실시해야 한다.There are two types of file system corruptions: root file system corruption and other file system corruption. If the root file system is damaged and normal recovery failed, boot from the rescue disk and repair it. If that doesn't work, you have to reinstall the OS. To reduce damage to the root partition, place only the minimum number of files needed to boot and manage your system. That is, files that are frequently updated during system operation should be stored outside the root partition to minimize the possibility of damage to the root partition. Meanwhile, most file system corruption occurs on other partitions. If a damaged partition is found, the system will show the damage to the console and wait for a login from the console. To recover from a crash, log in to the administrator account (root) at the console and issue a command such as `fsck -y device} ', where device is the name of the partition to be recovered.Note: Partition recovery must be umounted. Should be done at

그러므로 본 발명은 본 슈퍼 레이드 시스템은 탄성파 자료처리는 물론 일반 전산처리 센타의 자료 백업용으로 유용하다. 또한 본 시스템의 용량 144 GB는 국내 최대의 슈퍼 컴퓨터 Cray-C90 의 디스크 용량 200 GB와 견줄만하며, 그 조립비는 일반 PC 가격을 크게 초과하지 않는다. 본 시스템은 한국자원연구소에서 지난 2년간 실제로 탄성파 자료처리시 계속 사용하던 것이며. 한편 연구전산망(Kreonet)의 인터넷 파일 서버는 1997년 4월에 본 시스템과 매우 흡사한 규격으로 만든 것인데 현재(98.12)까지 국내외 인터넷 사용자들에 아무런 문제없이 안정적인 서비스를 계속하고 있다. 일반 전산센타에서는 본 시스템을 온라인 백업 서버로 활용하면 좋을 것이다.Therefore, the present invention, the superlaid system is useful not only for seismic data processing but also for data backup of general computer processing center. In addition, the system's capacity of 144 GB is comparable to the 200 GB disk capacity of the nation's largest supercomputer Cray-C90, and its assembly cost does not exceed the price of a regular PC. This system has been used by the Korea Resource Research Institute for the actual seismic data processing for the past two years. On the other hand, Kreonet's Internet file server was created in April 1997 with a very similar specification to the system. Until now (98.12), it has been providing stable service without any problem to domestic and international Internet users. In general computer center, this system can be used as online backup server.

Claims (3)

디스크 용량이 각각 72GB인 레이드 파일 시스템을 PC 2대를 이용하여 구축하고, 이들을 클러스터링 기술을 이용하여 하나의 시스템으로 통합시킴으로써 총 144GB인 슈퍼 레이드 시스템을 제작하되,A RAID file system with 72GB of disk capacity was built using two PCs and integrated into one system using clustering technology to create a superlaid system with a total of 144GB. 상기 슈퍼 레이드 시스템 하드웨어는 본체 부분과 디스크 DJP이 부분으로 구성하되, 본체는 PC 2대로, 디스크 어레이는 용량이 9GB인 스카시 디스크를 16개 사용하되 하나는 콘솔이 있고, 다른 하나는 키보드와 모니터를 부착하지 않은 콘솔로 구성하는 것으로 이루어진 것을 특징으로 하는 피·씨 클러스터링 기술을 응용한 슈퍼 레이드 시스템.The super RAID system hardware is composed of a main body and a disk DJP, the main body is 2 PCs, the disk array uses 16 SCSI disks of 9GB capacity, one console, the other keyboard and monitor Super Raid system using PC clustering technology, characterized by consisting of a console without attachment. 파일 서버 본체는 마스터 및 슬레이브 서버를 각각 ASUS P54SPA와 ASUS P2B을 메인 보드로 선택하고, 주 기억 장치는 펜티엄 333MHZ와 150MHZ,메모리는 마스터 서버의 경우 64MB 2개로 이루어진 128 MB와 슬레이브 서버의 경우 32MB 4개로 128MB를 구성하는 것을 특징으로 하는 피·씨 클러스터링 기술을 응용한 슈퍼 레이드 시스템.The main body of the file server selects the master and slave servers as the motherboards of the ASUS P54SPA and ASUS P2B, respectively, the main storage unit is Pentium 333MH Z and 150MH Z. Super RAID system using PC clustering technology, which consists of 128MB of four 32MB. 캐비넷 오른쪽 하단에는 CPU가 선풍기에 쌓여 있고, 왼쪽 아래서부터 위쪽으로 VGA(video graphics array) 어댑터, 랜(LAN)카드, 스카시(SCAI) 콘트롤러 두 개가 차례로 부착하고, 상부 캐비넷은 전원장치,IDE 하드 디스크 드라이브, 프로피 디스크 드라이버를 장착하고 IDE 타입 하드 디스크와, 랜 카드는 3C595 Vortex 100baseTX, ASUS 메인보드는 4개의 PCI슬롯과 3개의 ISA 슬롯으로 구성하고, PCI슬롯에는 2개의 스카시 카드와 LAN 카드 그리고 VGA 어댑터를 장착하고, 2개의 스카시 카드는 각각 4개의 9GB용량 스카시 디스크 드라이버를 연결하여 총 72GB 용량을 콘트롤할 수 있게 하는 것으로 구성되어진 것을 특징으로 하는 피·씨 클러스터링 기술을 응용한 슈퍼 레이드 시스템At the bottom right of the cabinet, the CPU is stacked in the fan, and from the bottom left to the top, a video graphics array (VGA) adapter, a LAN card, and two SCSI controllers are attached in turn, and the upper cabinet is a power supply, an IDE hard disk. Drive, PROFI disk drive, IDE type hard disk, LAN card consists of 3 C 595 Vortex 100baseTX, ASUS motherboard consists of 4 PCI slots and 3 ISA slots, and 2 SCSI cards and LAN card in PCI slot It is equipped with VGA adapter, and two SCSI cards connect four 9GB SCSI disk drives to control 72GB of total capacity, and super RAID system using PC clustering technology.
KR1019990006344A 1999-02-25 1999-02-25 A Super RAID System using PC Clustering Technique KR100281928B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019990006344A KR100281928B1 (en) 1999-02-25 1999-02-25 A Super RAID System using PC Clustering Technique

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019990006344A KR100281928B1 (en) 1999-02-25 1999-02-25 A Super RAID System using PC Clustering Technique

Publications (2)

Publication Number Publication Date
KR20000056748A KR20000056748A (en) 2000-09-15
KR100281928B1 true KR100281928B1 (en) 2001-02-15

Family

ID=19575082

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019990006344A KR100281928B1 (en) 1999-02-25 1999-02-25 A Super RAID System using PC Clustering Technique

Country Status (1)

Country Link
KR (1) KR100281928B1 (en)

Also Published As

Publication number Publication date
KR20000056748A (en) 2000-09-15

Similar Documents

Publication Publication Date Title
US7313685B2 (en) Unattended BIOS recovery
CA2578017C (en) Iscsi boot drive system and method for a scalable internet engine
US7356677B1 (en) Computer system capable of fast switching between multiple operating systems and applications
KR100911953B1 (en) System and method for operating system installation on a diskless computing platform
US7590648B2 (en) Template-based development of servers
US7895428B2 (en) Applying firmware updates to servers in a data center
US7908513B2 (en) Method for controlling failover processing for a first channel controller and a second channel controller
US20060173912A1 (en) Automated deployment of operating system and data space to a server
JP4274523B2 (en) Storage device system and start method of storage device system
US8010513B2 (en) Use of server instances and processing elements to define a server
US20030110351A1 (en) System and method supporting virtual local data storage
US20050138287A1 (en) Disk array system
US7447889B2 (en) Method and apparatus for configuring a computer system utilizing a read only memory storing an option file containing selectable configuration options and a script file
US20080307216A1 (en) Method and apparatus for booting a computer system
JP2008123412A (en) Computer system, system software upgrade method, and first server device
US20080028035A1 (en) System and method for operating system installation on a diskless computing platform
CN1834912B (en) ISCSI bootstrap driving system and method for expandable internet engine
JP6750605B2 (en) Computer system, baseboard management controller, OS installation method, and program
US20040083357A1 (en) Method, system, and program for executing a boot routine on a computer system
Barrett et al. In press
KR100281928B1 (en) A Super RAID System using PC Clustering Technique
Parziale et al. Introduction to the new mainframe: z/vm basics
US7299344B2 (en) Setup support system, physical access driver, and setup support method
Wells et al. Introductions
Hochstetler et al. Linux Clustering with CSM and GPFS

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20101119

Year of fee payment: 11

LAPS Lapse due to unpaid annual fee